Արհեստական բանականության փիլիսոփայություն

Արհեստական բանականությունը սերտորեն կապված է փիլիսոփայության հետ, քանի որ երկուսն էլ օգտագործում են հասկացություններ, որոնք ունեն նույն անվանումը, որոնցից են բանականությունը, գիտակցությունը և նույնիսկ ազատ կամք[1]։ Բացի այդ, տեխնոլոգիան վերաբերում է արհեստական կենդանիների կամ արհեստական մարդկանց ստեղծմանը (կամ, համենայն դեպս, արհեստական արարածների ստեղծմանը), ուստի դա զգալի հետաքրքրություն է առաջացնում փիլիսոփաների համար[2]։ Հենց այս գործոններն էլ նպաստեցին արհեստական բանականության փիլիսոփայության առաջացմանը։ Որոշ գիտնականներ պնդում են, որ արհեստական բանականության համայնքի փիլիսոփայությունից հրաժարվելը վնասակար է դրա զարգացման համար[3]։

Արհեստական բանականության փիլիսոփայությունը փորձում է պատասխանել հետևյալ հարցերին[4]՝

  • Կարո՞ղ է մեքենան խելամիտ գործել։ Կարո՞ղ է այն լուծել ցանկացած խնդիր, որը մարդը կլուծի իր մտածողությամբ։
  • Մարդկային բանականությունը և մեքենայի բանականությունը նու՞յնն են։ Արդյո՞ք մարդկային ուղեղը, ըստ էության, համակարգիչ է։
  • Կարո՞ղ է մեքենան ունենալ միտք, հոգեկան վիճակներ և գիտակցություն այն նույն իմաստով, ինչպիսին մարդն ունի։ Կարո՞ղ է զգալ, թե ինչպիսին են իրերը։

Նմանատիպ հարցերը արտացոլում են, համապատասխանաբար, արհեստական բանականության հետազոտողների, կոգնիտիվ գիտության մասնագետների և փիլիսոփաների տարբերակված հետաքրքրությունները։ Այս հարցերի գիտական պատասխանները կախված են «բանականություն» և «գիտակցության» հասկացությունների սահմանումից և թե կոնկրետ որ «մեքենաներն» են քննարկվում։

Արհեստական բանականության փիլիսոփայության մեջ կարևոր դրույթներն են՝

  • Թյուրինգի «քաղաքավարի կոնվենցիան». Եթե մի մեքենա իրեն պահում է նույնքան խելացի, որքան մարդը, ապա այն նույնքան խելացի է, որքան մարդը[5]։
  • Դարտմուտի առաջարկը. «Ուսուցման յուրաքանչյուր կողմ կամ ինտելեկտի ցանկացած այլ առանձնահատկություն կարելի է այնքան ճշգրիտ նկարագրել, որ հնարավոր լինի մեքենա սարքել` այն նմանակելու համար[6]»։
  • Ալեն Նյուել և Հերբերտ Ա. Սիմոնի ֆիզիկական խորհրդանշական համակարգի վարկածը. «ֆիզիկական սիմվոլիկ համակարգը ունի ընդհանուր մտավոր գործունեության անհրաժեշտ և բավարար միջոցներ[7]»։
  • Ջոն Սերլի արհեստական բանականության ուժեղ վարկածը. «Ճիշտ ծրագրավորված համակարգիչը, որն ունի ճիշտ մուտքեր և ելքեր, կունենա գիտակցություն ճիշտ նույն իմաստով, ինչ մարդկային էակները[8]»։
  • Հոբսի մեխանիզմը. «Պատճառաբանության համար ...«Սա ոչ այլ ինչ է, քան «հաշվարկ», այսինքն, մեր մտքերի «նշանակման» համար համաձայնեցված ընդհանուր անվանումների հետևանք»[9]։

Կարո՞ղ է մեքենան ուենալ ընդհանուր բանականություն խմբագրել

Հնարավո՞ր է ստեղծել այնպիսի սարք, որը կարող է լուծել բոլոր խնդիրները, որոնք մարդիկ լուծում են ՝ օգտագործելով իրենց բանականությունը։ Այս հարցը սահմանում է, թե ապագայում ինչ կարող են անել մեքենաները և ուղղորդում է արհեստական բանականության հետազոտական աշխատանքները։ Դա վերաբերում է միայն մեքենաների վարքագծին և անտեսում է հոգեբանների, կոգնիտիվ գիտնականների և փիլիսոփաների հետաքրքրող հարցերը։ Այս հարցին պատասխանելու համար նշանակություն չունի, արդյոք մեքենան իրոք մտածում է (ինչպես մարդը), թե պարզապես գործում է այնպես, ինչպես ծրագրավերված է[10]։

Արհեստական բանականության հետազոտողների մեծ մասի հիմնական դիրքորոշումն ամփոփված է այս պնդման մեջ, որը հայտնվել է 1956 թվականի Դարտմուտի սեմինարի համար արված առաջարկության մեջ․

  • «Ուսուցման յուրաքանչյուր կողմ կամ բանականության ցանկացած այլ առանձնահատկություն կարելի է այնքան ճշգրիտ նկարագրել, որ հնարավոր լինի մեքենա սարքել` այն նմանակելու համար[6]»։

Այս պնդման դեմ փաստարկները պետք է ցույց տան, որ արհեստական ինտելեկտի աշխատող համակարգի կառուցումն անհնար է, քանի որ համակարգիչների հնարավորությունների որոշակի գործնական սահմանափակում կա կամ որ գոյություն ունի մարդկային բանականության որոշակի որակ, որն անհրաժեշտ է մտածողության համար և, այնուամենայնիվ, չի կարող կրկնվել մեքենայի կողմից (կամ արհեստական բանականության ժամանակակից հետազոտությունների մեթոդներով)։ Այս պնդման օգտին փաստարկները պետք է ցույց տան, որ նման համակարգը հնարավոր է։

Այս հարցին պատասխանելու առաջին քայլը «բանականություն» հասկացության հստակ սահմանումն է։

Բանականություն խմբագրել

 
Թյուրինգի թեստի «ստանդարտ մեկնաբանումը[11]»

Թյուրինգի թեստ խմբագրել

Ալան Թյուրինգը[12] նվազեցրեց բանականության սահմանման խնդիրը ՝ մի պարզ հարցի օգնությամբ։ Նա առաջարկում է. եթե մեքենան կարող է պատասխանել իրեն տրված ցանկացած հարցի, օգտագործելով նույն բառերը, որոնք սովորական մարդը կօգտագործի, ապա մենք կարող ենք համարել որ մեքենան բանական է։ Իր փորձնական նախագծի ժամանակակից տարբերակում օգտագործվում է առցանց զրուցասենյակ, որտեղ մասնակիցներից մեկը իրական անձն է, իսկ մյուսը ՝ համակարգչային ծրագիր։ Ծրագիրը անցնում է քննությունը, եթե ոչ ոք չի կարողանում գուշակել, թե երկու մասնակիցներից ով է մարդը[5]։ Թյուրինգը նշում է, որ ոչ ոք (բացի փիլիսոփաներից) երբեք չի հարցնում. «կարո՞ղ են մարդիկ մտածել»։ Նա գրում է․ «այս կետի շուրջ անընդհատ վիճելու փոխարեն, սովորական է ունենալ քաղաքավարի պայմանականություն, թե բոլորը մտածում են»[13]։ Թյուրինգի թեստը տարածում է այս քաղաքավարի պայմանականությունը մեքենաների վրա։

  • Եթե մեքենան գործում է նույնքան խելացի, որքան մարդը, ապա այն նույնքան խելացի է։

Թյուրինգի թեստի քննադատություններից մեկն այն է, որ դա միայն չափում է մեքենայի վարքագծի «մարդկայնությունը», այլ ոչ թե վարքագծի «բանականությունը»։ Քանի որ մարդու վարքագիծը և բանական պահվածքը ճիշտ նույնը չեն, թեստը չի կարող չափել բանականությունը։ Ստյուարտ Ռասելը և Պիտեր Նորվիգը գրում են, որ «ավիացիոն տեխնիկայի տեքստերը չեն սահմանում իրենց բնագավառի նպատակը որպես «մեքենաներ պատրաստելը, որոնք թռչում են այնպես, ինչպես աղավնիները, որպեսզի կարողանան խաբել այլ աղավնիների[14]»»։

Բանական գործակալների սահմանում խմբագրել

21-րդ դարի արհեստական բանականության հետազոտությունները որոշում են բանականություն հասկացությունը բանական գործակալների տերմիններով։ «Գործակալը» այն է, որը ընկալում և գործում է շրջակա միջավայրում։ «Արդյունավետության ցուցանիշը» որոշում է, թե ինչքան հաջողություն է գրանցել գործակալը[15]։

  • «Եթե գործակալը գործում է այնպես, որպեսզի առավելագույնի հասցնի արդյունավետության ցուցանիշի ակնկալվող արժեքը, որը հիմնված է անցյալի փորձի և գիտելիքների վրա, ապա այն կարելի է բանական համարել[16]»։

Այսպիսի սահմանումներն ունեն այն առավելությունը, որ, ի տարբերություն Թյուրինգի թեստի, նրանք չեն ստուգում մարդկային անգիտակցական հատկությունները, ինչպիսիք են սխալ տվյալների մուտքագրում[17] կամ վիրավորվելու ունակություն[18]։ Նրանք ունեն այն թերությունը, որ չեն կարողանում տարբերակել «մտածող բաները» և «չմտածող բաները»։ Այս սահմանմամբ, նույնիսկ ջերմոստատը ունի տարրական բանականություն[19]։

Փաստարկները, որ մեքենան կարող է ունենալ ընդհանուր բանականություն խմբագրել

Ուղեղը կարող է սիմուլացվել խմբագրել

Հյուբերտ Դրեյֆուսը այս փաստարկը բնութագրում է որպես պնդում, որ «եթե նյարդային համակարգը ենթարկվում է ֆիզիկայի և քիմիայի օրենքներին, և մենք ունենք բոլոր հիմքերը դա ենթադրելու, ապա .... մենք ... պետք է կարողանանք նյարդային համակարգի վարքը վերարտադրել ինչ-որ ֆիզիկական սարքի օգնությամբ»[20]։ Այս փաստարկը, որն առաջին անգամ ներկայացվեց դեռևս 1943-ին[21] և վառ նկարագրված էր Հանս Մորավեկի կողմից 1988-ին[22], այժմ ասոցացվում է ֆուտուրիստ Ռեյ Կուրցվեյլի հետ, որի գնահատմամբ համակարգչային հզորությունը բավարար կլինի ուղեղի ամբողջական սիմուլացիայի համար մինչև 2029 թվականը[23]։ 2005 թվականին իրականացվել է մարդկային ուղեղի (1011 նեյրոնների) թալամոկորտիկ մոդելի ոչ իրական ժամանակում սիմուլյացիա[24], և պահանջվել է 50 օր ՝ 27 պրոցեսորներից բաղկացած կլաստերի վրա ուղեղի դինամիկայի 1 վայրկյանը սիմուլացնելու համար։

Ոմանք համաձայն չեն, որ տեսականորեն հնարավոր է ուղեղի մոդելավորում[փա՞ստ], նույնիսկ արհեստական բանականության այնպիսի քննադատները, ինչպիսիք են Հյուբերտ Դրեյֆուսը և Ջոն Սերլը[25]։ Այնուամենայնիվ, Սերլը նշում է, որ, սկզբունքորեն, ցանկացած բան կարող է սիմուլացվել համակարգչի միջոցով։ Այսպիսով ցանկացած գործընթաց տեխնիկապես կարելի է համարել «հաշվարկ»։ «Այն, ինչ մենք ուզում էինք իմանալ, այն է, թե ինչն է առանձնացնում միտքը ջերմոստատներից և լյարդից», - գրում է նա[26]։

Մարդկային մտածելակերպը սիմվոլների մշակում է խմբագրել

1963 թվականին Ալեն Նյուելը և Հերբերտ Ա. Սայմոնը ենթադրել են, որ «սիմվոլների մանիպուլյացիան» ինչպես մարդկային, այնպես էլ մեքենայական բանականության էությունն է։ Նրանք գրել են.

  • «Սիմվոլների ֆիզիկական համակարգն ունի ընդհանուր բանական գործողության անհրաժեշտ և բավարար միջոցներ[7]»:

Այս պնդումը շատ խիստ է։ Այն ենթադրում է, որ մարդկային մտածողությունը սիմվոլների մանիպուլյացիայի մի տեսակ է (որովհետև սիմվոլների համակարգը անհրաժեշտ է բանականության համար), և որ մեքենաները ևս կարող են լինել բանական (որովհետև սիմբոլների համակարգը բավարար է բանականության համար)[27]։ Այս դիրքորոշման մեկ այլ վարկած նկարագրել է փիլիսոփա Հյուբերտ Դրեյֆուսը, ով այն անվանել է «հոգեբանական ենթադրություն»․

  • «Միտքը կարելի է դիտարկել որպես մի սարք, որը որոշ ֆորմալ կանոններով գործում է ըստ տեղեկատվության[28]»:

Այն «սիմվոլները», որոնք Նյուելը, Սիմոնը և Դրեյֆուսը քննարկեցին, բառային և բարձր մակարդակի սիմվոլներ էին, որոնք ուղղակիորեն համապատասխանում էին աշխարհի օբյեկտների, ինչպիսիք են «շունը» և «պոչը»։ Արհեստական բանականության ծրագրերի մեծ մասը, որոնք գրվել են 1956-ի և 1990-ի միջև, օգտագործել են այս սիմվոլը։ Ժամանակակից արհեստական բանականությունը, հիմնվելով վիճակագրության և մաթեմատիկական օպտիմիզացիայի վրա, չի օգտագործում բարձր մակարդակի «սիմվոլների մշակում», որի մասին խոսել էին Նյուելը և Սայմոնը։

Փաստարկներ ընդդեմ սիմվոլների մշակման խմբագրել

Այս փաստարկները ցույց են տալիս, որ մարդկային մտածողությունը կազմված չէ (բացառապես) բարձր մակարդակի սիմվոլների մանիպուլյացիաներից։ Դրանք ցույց չեն տալիս, որ արհեստական բանականությունն անհնար է, միայն այն, որ պահանջվում է ավելին, քան սիմվոլների մշակումը։

Գյոդելյան հակամեխանիկական փաստարկներ խմբագրել

1931 թվականին Կուրտ Գյոդելը ոչ լրիվության թեորեմով ապացուցեց, որ միշտ էլ կարելի է կառուցել «Գյոդելի պնդում», որը տրամաբանության տրված անհակասական ֆորմալ համակարգը (օրինակ ՝ սիմվոլների մանիպուլյացիայի բարձր մակարդակի ծրագիրը) չի կարող ապացուցել։ Չնայած այն հանգամանքին, որ Գյոդելի կառուցած պնդումը ճշմարիտ է, այն անապացուցելի է տվյալ համակարգում (Գյոդելի պնդման ճշմարտությունը կախված է տվյալ համակարգի անհակասականությունից. նույն գործընթացի կիրառումը մի փոքր հակասական համակարգի նկատմամբ հաջող կթվա, բայց իրականում կհանգեցնի «Գյոդելի կեղծ պնդմանը[փա՞ստ] »)։ Գյոդելը ենթադրեց, որ մարդկային միտքը կարող է ճիշտ, ի վերջո, որոշելու ցանկացած լավ հիմնավորված մաթեմատիկական պնդման ճշմարտությունը կամ կեղծությունը (այդ թվում, ցանկացած հնարավոր Գյոդելի պնդման), և, հետևաբար, մարդու մտքի ուժը չի հանգում մեխանիզմի[29]։ Փիլիսոփա Ջոն Լուկասը (1961 թվականից) և Ռոջեր Փենրոուզը (1989 թվականից) պաշտպանել են այս փիլիսոփայական հակամեխանիկական փաստարկը[30]։ Գյոդելի հակամեխանիկական փաստարկները հակված են ապավինելու անսովոր թվացող պնդմանը, որ մարդկային մաթեմատիկոսների համակարգը (կամ մարդկային մաթեմատիկոսների որոշակի իդեալիզացիա) միաժամանակ հետևողական է (լիովին զերծ սխալներից) և լիովին հավատում է իր իսկ հետևողականությանը (և կարող է տրամաբանական դարձնել բոլոր այն հետևությունները, որոնք հետևում են սեփական հետևողականությանը, ներառյալ Գյոդելի պնդմանը հավատը[փա՞ստ])։ Դա ապացուցելի չէ Թյուրինգի մեքենայի համար[պարզաբանել] (և, ոչ ֆորմալ ընդլայնմամբ, ցանկացած հայտնի տեսակի մեխանիկական համակարգչի համար), ուստի Գյոդելը հանգում է այն եզրակացության, որ մարդկային բանականությունը չափազանց հզոր է մեքենայի մեջ գրավվելու համար։

Այնուամենայնիվ, գիտական և մաթեմատիկական հանրության ժամանակակից համաձայնությունը կայանում է նրանում, որ փաստացի մարդկային բանականությունը անհետևողական է. մարդկային բանականության ցանկացած հետևողական «իդեալիզացված տարբերակ» տրամաբանորեն ստիպված կլիներ ընդունել առողջ, բայց հակաբանական բաց մտածող թերահավատություն հետևողականություն, և որ Գյոդելի թեորեմները չեն բերում որևէ հիմնավոր փաստարկ այն մասին, որ մարդիկ մաթեմատիկական բանականության ունակություններ ունեն, քան այն, ինչ մեքենան երբևէ կարող է կրկնօրինակել[31][32][33]։ Այս կոնսենսուսը, որ Գյոդելի հակամեխանիկական փաստարկները դատապարտված են ձախողման, արհեստական բանականության մեջ ամրագրված է. «Օգտագործման ցանկացած փորձ (Գյոդելի անավարտ արդյունքներ) համակարգչային թեզի վրա հարձակման համար պարտավորված է լինել ոչ լեգիտիմ, քանի որ այդ արդյունքները միանգամայն համահունչ են հաշվողականության հետ[34]»:

Ավելի պրագմատիկորեն, Ռասելը և Նորվիգը նշում են, որ Գյոդելի փաստարկը վերաբերում է միայն նրան, ինչը տեսականորեն կարելի է ապացուցել ՝ հաշվի առնելով անսահման քանակությամբ հիշողություն և ժամանակ։ Գործնականում իրական մեքենաները (ներառյալ մարդիկ) ունեն սահմանափակ ռեսուրսներ և դժվարություններ կունենան բազմաթիվ տեսությունների ապացուցման հետ։ Անհրաժեշտ չէ ամեն ինչ ապացուցել, որպեսզի դա բանական լինի[35]։

Դուգլաս Հոֆշտադտերն իր «Գյոդել, էշչեր, Բաք. հավերժական Ոսկե Հյուսք» գրքում, որը Պուլիտցերյան մրցանակի է արժանացել, պնդում է, որ այդ «Գյոդելի պնդումները» միշտ վերաբերում են այնպիսի համակարգի, որը զուգահեռներ անցկացնելով այն բանի հետ, թե ինչպես է Էպիմենիդեսի պարադոքսը օգտագործում պնդումներ, որոնք վերաբերում են ինքն իրեն, ինչպիսիք են «այս հայտարարությունը կեղծ է» կամ «ես ստում եմ»[36]։ Բայց, իհարկե, Էպիմենիդեսի պարադոքսը վերաբերում է այն ամենին, ինչը հաստատումներ է անում ՝ լինեն դրանք մեքենա, մարդ, թե նույնիսկ ինքը ՝ Լուկասը։ Դիտարկենք.

  • Լուկասը չի կարող հաստատել այս պնդման ճշմարտացիությունը[37]։

Այս հայտարարությունը ճիշտ է, բայց չի կարող հաստատվել Լուկասի կողմից։ Սա ցույց է տալիս, որ ինքը՝ Լուկասը ենթարկվում է նույն սահմանափակումներին, որոնք նա նկարագրում է մեքենաների համար, ինչպես բոլոր մարդիկ, և, հետևաբար, Լուկասի փաստարկն անիմաստ է[38]։

Գալով այն եզրակացության, որ մարդկային բանականությունը ոչ հաշվարկելի է, անցավ հակասական ենթադրությունների, որ քվանտային-մեխանիկական պայմանների փլուզման հետ կապված որոշ հիպոթետիկ պրոցեսներ մարդուն հատուկ առավելություն են տալիս գոյություն ունեցող համակարգիչների նկատմամբ։ Գոյություն ունեցող քվանտային համակարգիչները կարող են միայն նվազեցնել Թյուրինգի հաշվարկային խնդիրների բարդությունը և դեռևս սահմանափակվում են Թյուրինգի մեքենաների շրջանակներում [փա՞ստ] [պարզաբանել]։ Պենրոզայի և Լուկասի փաստարկներով, առկա քվանտային համակարգիչները բավարար հզոր չեն[փա՞ստ][պարզաբանել]։ Ահա թե ինչու է Պենրոզը փնտրում մեկ այլ գործընթաց, որը ներառում է նոր ֆիզիկա, օրինակ քվանտային գրավիտացիա, որը կարող է նոր ֆիզիկա դրսևորել Պլանկի զանգվածի մասշտաբով ՝ ալիքի ֆունկցիայի քվանտային փլուզման միջոցով։ Նա ենթադրել է, որ այդ վիճակները տեղի են ունենում ինչպես մեկ նեյրոնի ներսում, այնպես էլ մեկ նեյրոնից ավելի ընդգրկելով[39]։ Այնուամենայնիվ, այլ գիտնականներ նշում են, որ ուղեղում գոյություն չունի հուսալի օրգանական մեխանիզմ `ցանկացած քվանտային հաշվարկի օգտագործման համար, և ավելին, որ քվանտային անկման ժամանակացույցը չափազանց արագ է թվում ՝ ազդելու նեյրոնների գործարկման վրա[40]։

Դրեյֆուս. Ենթադրյալ հմտությունների առաջնահերթությունը խմբագրել

Հյուբերտ Դրեյֆուսը պնդում է, որ մարդկային բանականությունը և փորձը հիմնականում կախված են ենթադրյալ հմտություններից, այլ ոչ թե ակնհայտ խորհրդանշական մանիպուլյացիաներից, և պնդում է, որ այդ հմտությունները երբեք չեն ամրագրվի պաշտոնական կանոններում[41]։

Դրեյֆուսի փաստարկը կանխագուշակվել էր Թյուրինգի կողմից 1950 թ.-ին իր «Հաշվողական մեքենաներ և բանականություն» հոդվածում, որտեղ նա դա դասակարգել էր որպես «փաստարկ վարքագծի ոչ ֆորմալությունից»[42]։ Թյուրինգը պատասխանեց, որ պարզապես այն պատճառով, որ մենք չգիտենք այն կանոնները, որոնք կարգավորում են բարդ վարքագիծը, սա չի նշանակում, որ նման կանոններ գոյություն չունեն։ Նա գրել է. «Մենք այդքան հեշտությամբ չենք կարող համոզել ինքներս մեզ ամբողջական վարքագծի օրենքների բացակայության մասին ... Միակ ճանապարհը, որով մենք գիտենք այդպիսի օրենքներ գտնելու մասին, գիտական դիտարկումն է, և մենք, անշուշտ, չգիտենք որևէ հանգամանքի մասին, որի դեպքում կարող ենք ասել. մենք բավականաչափ խուզարկել են։ Նման օրենքներ չկան[43]»:

Ռասելը և Նորվիգը նշում են, որ Դրեյֆուսը հրապարակել է իր քննադատությունը վերջին տարիներին, որն առաջընթաց է գրանցվել «անգիտակից բանականությունը կարգավորող» կանոնների հայտնաբերման ուղղությամբ[44]։ Ռոբոտաշինության հետազոտության մեջ տեղակայված շարժումը փորձում է գրավել մեր անգիտակից հմտություններն ընկալման և ուշադրության մեջ[45]։ Հաշվողական բանականության պարադիգմները, ինչպիսիք են նեյրոնային ցանցերը, էվոլյուցիոն ալգորիթմները և այլն, հիմնականում ուղղված են սիմուլյացված անգիտակցական բանականությանն ու դրա ուսուցմանը։ Արհեստական բանականության վիճակագրական մոտեցումները կարող են կանխատեսումներ անել, որոնք մոտենում են մարդու ինտուիտիվ գուշակությունների ճշգրտությանը։ Ընդհանուր գիտելիքների ուսումնասիրությունը կենտրոնացած է «ֆոնային» կամ գիտելիքի համատեքստի վերարտադրման վրա։ Ի դեպ, արհեստական բանականության հետազոտությունները, բարձր մակարդակի սիմվոլների մանիպուլյացիայից հեռացել են դեպի նոր մոդելներ, որոնք նախատեսված են ավելի շատ գրավել մեր անգիտակից բանականությունը[44]։ Պատմաբան և արհեստական բանականության հետազոտող Դանիել Քրիվերը գրել է, որ «ժամանակը ապացուցել է Դրեյֆուսի որոշ մեկնաբանությունների ճշգրտությունն ու ընկալելիությունը։ Եթե նա ձևակերպեր նրանց պակաս ագրեսիվ, կառուցողական գործողությունները, որոնք նա առաջարկել էր, կարող էին շատ ավելի վաղ ձեռնարկվել[46]»։

Կարո՞ղ է մեքենան ունենալ միտք, գիտակցություն և հոգեկան վիճակներ խմբագրել

Սա փիլիսոփայական հարց է ՝ կապված այլ մտքերի խնդրի և գիտակցության ծանր խնդրի հետ։ Հարցը պտտվում է Ջոն Սերլի կողմից որպես «ուժեղ արհեստական բանականություն» սահմանված դիրքորոշման շուրջ․

  • Ֆիզիկական սիմվոլների համակարգը կարող է ունենալ միտք և հոգեկան վիճակներ[8]։

Սերլը առանձնացրեց այս դիրքորոշումն այն բանից, ինչը նա անվանում էր «թույլ արհեստական բանականություն».

  • Ֆիզիկական սիմվոլների համակարգը կարող է բանական գործել[8]։

Սերլը ներմուծեց ուժեղ արհեստական բանականությունը թույլ արհեստական բանականությունից մեկուսացնելու պայմանները, որպեսզի կարողանա կենտրոնանալ այն ամենի վրա, ինչը կարծում էր, որ ավելի հետաքրքիր և քննարկվող խնդիր կդառնա։ Նա պնդում էր, որ եթե անգամ ենթադրենք, որ մենք ունեինք համակարգչային ծրագիր, որը գործում էր այնպես, ինչպես մարդկային միտքը, դա դեռ կլիներ դժվար փիլիսոփայական հարց, որին պետք է պատասխանել[8]։

Սերըլի երկու դիրքերից ոչ մեկը չի ներկայացնում մեծ հետաքրքրություն արհեստական բանականության հետազոտությունների համար, քանի որ դրանք ուղղակիորեն չեն պատասխանում հետևյալ հարցին․ «կարո՞ղ է մեքենան ունենալ ընդհանուր բանականություն» (քանի դեռ ապացուցված չէ, որ գիտակցությունը անհրաժեշտ է բանականության համար)։ Թյուրինգն գրել է. «Ես չեմ ցանկանում ստեղծել այնպիսի տպավորություն, թե ես կարծում եմ, որ ոչ մի գաղտնիք չկա գիտակցության մասին... բայց ես չեմ կարծում, որ այդ խորհուրդները պետք է անպայման լուծվեն, նախքան մենք կարող ենք պատասխանել այն հարցին, թե արդյոք մեքենաները կարող են մտածել»[47]։ Ռասելը և Նորվիգը համաձայն են. «Արհեստական բանականության հետազոտողների մեծամասնությունը թույլ արհեստական բանականության վարկածը ընդունում են որպես պատշաճ և չեն մտածում ուժեղ վարկածի մասին»[48]։

Կան մի քանի հետազոտողներ, ովքեր կարծում են, որ գիտակցությունը բանականության էական տարրերից է, ինչպիսիք են Իգոր Ալեքսանդերը, Ստան Ֆրանկլինը, Ռոն Սունը և Պենտտի Հայկոնենը, չնայած «գիտակցության» իրենց բնորոշումը շատ մոտ է «բանականությանը»։

Նախքան այս հարցին պատասխանելը, մենք պետք է հստակեցնենք, թե ինչ նկատի ունենք «մտքեր», «հոգեկան վիճակներ» և «գիտակցությունը» ասելով։

Գիտակցություն, մտքեր, հոգեկան վիճակներ, իմաստ խմբագրել

«Միտք» և «գիտակցություն» բառերը տարբեր համայնքների կողմից օգտագործվում են տարբեր ձևերով։ Օրինակ, նոր դարաշրջանի որոշ մտածողներ օգտագործում են «գիտակցություն» բառը` նկարագրելու համար Բերգսոնի «կենսական ուժի» նման մի բան. անտեսանելի, էներգետիկ հեղուկ, որը ներթափանցում է կյանք և հատկապես միտք։ Մյուսների համար «միտք» կամ «գիտակցություն» բառերը օգտագործվում են որպես հոգու մի տեսակ աշխարհիկ հոմանիշ։

Փիլիսոփաների, նյարդաբանների և ճանաչողական գիտնականների համար այդ բառերն օգտագործվում են այնպես, որ ավելի ճշգրիտ և ավելի կիրառական լինեն. դրանք վերաբերում են «գլխում մտածողություն» ունենալու ծանոթ, ամենօրյա փորձին, ինչպիսին է ընկալումը, երազը, մտադրությունը կամ ծրագիրը, և այնպես էլ մեր ինչ-որ բան իմանալը, կամ հասկանալը[փա՞ստ]։ «Դժվար չէ գիտակցության համընդհանուր սահմանում տալը», - նկատում է փիլիսոփա Ջոն Սերլը[49]։ Խորհրդավոր և հետաքրքրաշարժ է ոչ այնքան, թե ինչ է դա, որքան այն, թե ինչպես է դա տեղի ունենում։

Փիլիսոփաները դա անվանում են գիտակցության բարդ խնդիր։ Սա մտքի փիլիսոփայության մեջ դասական խնդրի վերջին տարբերակն է, որը կոչվում է «մտքի-մարմնի խնդիր»[50]։ Հարակից խնդիրը իմաստի կամ հասկացողության խնդիրն է (որը փիլիսոփաները անվանում են "ինտենցիոնալություն"). ի՞նչ կապ կա մեր մտքերի միջև և ինչի՞ մասին ենք հաճախ մտածում։ Եթե երկու հոգի նույն բանն են տեսնում, արդյո՞ք նրանք ունեն նույն փորձը։ Կամ կա՞ն բաներ «գլխի ներսում», որոնք կարող են տարբեր լինել մարդկանց մոտ[51]։

Նյարդաբան մասնագետները կարծում են, որ այս բոլոր խնդիրները կլուծվեն, երբ մենք կսկսենք բացահայտել գիտակցության նյարդային կապերը՝ մեր գլխում առկա մեքենաների և դրա կոլեկտիվ հատկությունների միջև իրական կապը. ինչպիսին են միտքը, փորձը և հասկանալու ունակությունը։ Արհեստական ինտելեկտի ամենածայրահեղ քննադատներից ոմանք համակարծիք են, որ ուղեղը պարզապես մեքենա է, և որ գիտակցությունն ու խելքը ուղեղի ֆիզիկական գործընթացների արդյունք են[52]։ Բարդ փիլիսոփայական հարցն այն է, թե արդյո՞ք թվային մեքենայի վրա աշխատող համակարգչային ծրագիրը կարող է կրկնօրինակել նեյրոնների ունակությունները հոգեկան վիճակներում (ինչպիսիք են հասկացողությունը կամ ընկալումը) և, ի վերջո, գիտակցության փորձը։

Փաստարկները, որ համակարգիչը չի կարող ունենալ միտք և հոգեկան վիճակներ խմբագրել

Սերլի չինական սենյակը խմբագրել

Ջոն Սերլը մեզ առաջարկում է մի փորձ անցկացնել. ենթադրենք, մենք գրել ենք համակարգչային ծրագիր, որն անցել է Թյուրինգի թեստը և ցույց է տվել ընդհանուր բանական գործողություն։ Ենթադրենք, որ ծրագիրը կարող է զուգահեռաբար սահուն տիրապետել չինարենի։ Ծրագիրը գրեք 3x5 քարտերով և տվեք դրանք սովորական մարդու, ով չինարեն չգիտի։ Մարդուն փակեք սենյակում և ստիպեք նրան հետևել քարտերի ցուցումներին։ Նա պատճենելու է չինական նշանները և դրանք դռան ներքևի մասով սենյակից ներս ու դուրս անցկացնելու։ Դրսից երևում է, թե չինական սենյակի ներսում բանական մարդ է, ով խոսում է չինարեն։ Հարցը հետևյալն է. սենյակում կա՞ որևէ մեկը (կամ որևէ բան), որը չինարեն է հասկանում։ Այսինքն՝ կա՞ որևէ բան, որն ունի մտավոր հասկացողություն, կամ որը գիտակցված տեղեկացվածություն ունի այն մասին, ինչը քննարկվում է չինարեն լեզվով։ Մարդը հստակ տեղյակ չէ չինարենից։ Սենյակը ևս չի կարող լինել։ Քարտերը, իհարկե, տեղյակ չեն։ Սերլը եզրակացնում է, որ չինական սենյակը կամ որևէ այլ ֆիզիկական սիմվոլների համակարգ չի կարող միտք ունենալ[53]։

Սերլը շարունակում է պնդել, որ իրական հոգեկան վիճակներն ու գիտակցությունը պահանջում են (դեռ չի նկարագրվում) «իրական մարդու ուղեղի ֆիզիկական-քիմիական հատկություններ»[54]։ Նա պնդում է, որ գոյություն ունեն ուղեղի և նեյրոնների հատուկ «պատճառահետևանքային հատկություններ», որոնք առաջացնում են ուղեղներ. նրա խոսքով ՝ «ուղեղն առաջացնում է ուղեղներ»[55]։

Առնչվող փաստարկներ. Լայբնիցի ջրաղացը, Դեյվիսի հեռախոսային կայանը, Բլոկի չինական ժողովուրդը և Փակուղի փաստարկը խմբագրել

Գոթֆրիդ Լայբնիցն, ըստ էության, նույն փաստարկն է առաջ քաշել 1714 թվականին ՝ օգտագործելով ուղեղն ընդլայնելու մտքի փորձը, որը ջրաղացի չափերի է հասնում[56]։ 1974 թվականին Լոուրենս Դեյվիսը պատկերացնում էր ուղեղի կրկնօրինակումը ՝ օգտագործելով մարդկանց կողմից աշխատող հեռախոսային գծեր և գրասենյակների կապը, իսկ 1978-ին Նեդ Բլոկը կանխատեսում էր Չինաստանի ողջ բնակչությանը՝ ներգրավված ուղեղի այդպիսի մոդելավորման մեջ։ Այս մտքի փորձը կոչվում է «Չինական ժողովուրդ» կամ «Չինական մարզասրահ[57]»։ Նեդ Բլոկը առաջարկել է նաև իր փակուղային փաստարկը, որը նման է չինական սենյակի տարբերակին, որում ծրագիրը վերամշակվել է «տե՛ս սա, արա՛ դա» ձևի մի շարք պարզ կանոնների մեջ՝ հանելով ամբողջ առեղծվածը ծրագրից։

Չինական սենյակի պատասխանները խմբագրել

Չինական սենյակի պատասխանները շեշտում են մի քանի տարբեր կետեր․

  • Համակարգի և վիրտուալ մտքի պատասխանները[58]․ այս պատասխանը պնդում է, որ համակարգը, ներառյալ անձը, ծրագիրը, սենյակը և քարտերը, այն է, ինչը հասկանում է չինարենը։ Սերլը պնդում է, որ սենյակում գտնվող մարդը միակն է, ով կարող է «միտք ունենալ» կամ «հասկանալ», բայց մյուսները համաձայն չեն, պնդելով, որ հնարավոր է նույն ֆիզիկական վայրում երկու մտքի գոյությունը, ինչպես համակարգիչը կարող է միաժամանակ «լինել» երկու մեքենա` մեկը ֆիզիկական (ինչպես Մաքինթոշը) և մյուսը «վիրտուալ» (ինչպես տեքստային պրոցեսոր)։
  • Արագության, ուժի և բարդության պատասխանները[59]․ որոշ քննադատներ նշում են, որ սենյակում գտնվող մարդը, հավանաբար, միլիոնավոր տարիներ կպահանջեր, որպեսզի պատասխաներ մի պարզ հարցի։ Սա կասկածի տակ է դնում Սերլի ինտուիցիայի պարզությունը։
  • Ռոբոտի պատասխանը[60]․ իսկապես հասկանալու համար, ոմանք հավատում են, որ չինական սենյակը աչքերի և ձեռքերի կարիք ունի։ Հանս Մորավեթսը գրում է. «Եթե մենք կարողանայինք ռոբոտում սերմանել հիմնավորման ծրագիր, ապա կարիք չէր լինի, որ մարդն այլևս այդ իմաստն ապահովի. դա արդեն բխում է ֆիզիկական աշխարհից[61]»:
  • Ուղեղի սիմուլյատորի պատասխանը[62]․ ի՞նչ, եթե ծրագիրը նմանեցնում է նյարդային ազդակների հաջորդականությունը իրական ուղեղին, որը հասկանում է չինարեն։ Սենյակում գտնվող մարդը կեղծում էր իրական ուղեղը։ Սա «համակարգերի պատասխանի» տարբերակն է, որն ավելի ճշմարտանման է թվում, քանի որ «համակարգը» այժմ հստակ գործում է մարդու ուղեղի պես, ինչը մեծացնում է ինտուիցիան, որ սենյակում մարդուց բացի կա մի բան, որը կարող է հասկանալ չինարեն։
  • Այլ մտքերի պատասխաններ և էպիֆենոմեն պատասխան[63]․ որոշ մարդիկ նշում են, որ Սերլի փաստարկը պարզապես մեքենաների նկատմամբ կիրառված այլ մտքերի խնդրի վարկած է։ Քանի որ դժվար է որոշել, արդյոք մարդիկ «իրականում» մտածում են, չպետք է զարմանանք, որ մեքենաների վերաբերյալ նույն հարցին պատասխանելը ևս դժվար է։
Այստեղ կարևոր հարցն այն է, թե գոյություն ունի՞ «գիտակցություն» (ինչպես հասկանում է Սերլը)։ Սերլը պնդում է, որ գիտակցության փորձը հնարավոր չէ հայտնաբերել մեքենայի, մարդու կամ որևէ այլ կենդանու վարքագիծը քննելով։ Դանիել Դենեթը նշում է, որ բնական ընտրությունը չի կարող պահպանել այնպիսի կենդանու հատկություն, որը ոչ մի ազդեցություն չունի կենդանու վարքագծի վրա, և, հետևաբար, գիտակցությունը (ինչպես դա հասկանում է Սերլը) չի կարող առաջանալ բնական ընտրությունից։ Հետևաբար կամ բնական ընտրությունը չի առաջացրել գիտակցություն, կամ «ուժեղ արհեստական բանականություը» ճիշտ է, քանի որ գիտակցությունը կարող է հայտնաբերվել համապատասխան ձևավորված Թյուրինգի թեստով։

Մի՞թե մտածելը հաշվարկ է խմբագրել

Մտքի կամ «հաշվողականության» տեսությունը պնդում է, որ մտքի և ուղեղի փոխհարաբերությունները նման են (եթե ոչ նույնական)՝ ծրագրի և համակարգչի միջև փոխհարաբերություններին։ Գաղափարը փիլիսոփայական արմատներ ունի Հոբսի (ով պնդում էր, որ բանականությունը «ոչ այլ ինչ է, քան հաշվարկ»), Լայբնիցի (ով փորձել է ստեղծել բոլոր մարդկային գաղափարների տրամաբանական հաշվարկ), Հյումի (ով կարծում էր, որ ընկալումը կարելի է կրճատել «ատոմային տպավորությունների») և նույնիսկ Կանտըի տեսակետներում (ով վերլուծեց ամբողջ փորձը, որպես ֆորմալ կանոնների կառավարվող[64]): Վերջին տարբերակը կապված է փիլիսոփաներ Հիլարի Փութնամի և Ջերրի Ֆոդորի հետ[65]։

Այս հարցը կապված է մեր նախորդ հարցերի հետ. եթե մարդկային ուղեղը մի համակարգիչ է, ապա համակարգիչները կարող են լինել ինչպես բանական, այնպես էլ գիտակից՝ պատասխանելով արհեստական բանականության ինչպես գործնական, այնպես էլ փիլիսոփայական հարցերի։ Արհեստական բանականության գործնական հարցի տեսանկյունից («Կարո՞ղ է մեքենան ցույց տալ ընդհանուր բանականություն»), հաշվողականության որոշ վարկածներ պնդում են (ինչպես գրել է Հոբսը)՝

  • Հիմնավորումը ոչ այլ ինչ է, քան հաշվարկ[9]։

Այլ կերպ ասած, մեր բանականությունը բխում է հաշվարկման մի ձևից, որը նման է թվաբանությանը։ Սա վերևում քննարկված ֆիզիկական սիմվոլներների համակարգի վարկածն է, և դա ենթադրում է, որ հնարավոր է արհեստական բանականություն։ Արհեստական բանականության փիլիսոփայական հարցի տեսանկյունից («Կարո՞ղ է մի մեքենա ունենալ բանականություն, հոգեկան վիճակ և գիտակցություն»), հաշվողական մոտեցման վարկածներից շատերը պնդում են, որ (ինչպես դա բնութագրում է Ստևան Հարնադը).

  • Հոգեկան վիճակները պարզապես (ճիշտ) համակարգչային ծրագրերի իրականացումն են[66]։

Սա վերը քննարկված Ջոն Սերլի «ուժեղ արհեստական բանականությունն» է, և դա չինական սենյակի փաստարկի իրական նպատակակետն է (ըստ Հարնադի)[66]։

Այլ հարակից հարցեր խմբագրել

Ալան Թյուրինգը նշել է, որ «մեքենան երբեք չի անի X տեսակի գործողություններ, որտեղ X-ը կարող է լինել բազմաթիվ գործողություններ», ինչպիսիք են․

Լինել բարի, ճարպիկ, գեղեցիկ, ընկերասեր, նախաձեռնող, հումորով, տարբերակել ճիշտը սխալից, սխալներ գործել, սիրահարվել, ելակ և սերուցք վայելել, ինչ-որ մեկին ստիպել սիրահարվել իրենով, ճիշտ բառեր օգտագործել , ունենաք վարքագծի նույնքան բազմազանություն, որքան մարդը, փորձել նոր բաներ[67]։

Ծրագիր գրել, որը ցուցադրում է այս վարքագծերից մեկը, «մեծ տպավորություն կթողնի[67]»։ Այս բոլոր փաստարկները շոշափելի են արհեստական բանականության հիմնական նախադրյալի համար, քանի դեռ չի ապացուցվել, որ այդ հատկություններից որևէ մեկը անհրաժեշտ է ընդհանուր բանականության համար։

Կարո՞ղ է մեքենան ունենալ զգացմունքներ խմբագրել

Եթե «զգացմունքները» սահմանվում են միայն վարքագծի վրա իրենց ազդեցության առումով կամ ինչպես են նրանք գործում օրգանիզմի ներսում, ապա զգացմունքները կարելի է դիտարկել որպես մի մեխանիզմ, որը խելացի գործակալն օգտագործում է իր գործողությունների օգտակարությունն առավելագույնի հասցնելու համար։ Հաշվի առնելով զգացմունքների այս սահմանումը՝ Հանս Մորավեկը կարծում է, որ «ընդհանուր առմամբ ռոբոտները բավականին զգացմունքային են վերաբերվում լավ մարդկանց[68]»: Կարեկցանքը մարդու և համակարգչի լավ փոխազդեցության անհրաժեշտ բաղադրիչն է։ Նա ասում է, որ ռոբոտները «կփորձեն ձեզ հաճելիորեն ակնհայտ անձնուրաց կերպով գոհացնել, քանի որ դա կհանգեցնի դրական հուզմունքի։ Դուք կարող եք դա մեկնաբանել որպես սիրո մի տեսակ[68]»: Դանիել Կրովյեն գրում է. «Մորավեկի տեսակետն այն է, որ հույզերն ընդամենը վարքագիծն ուղղորդող սարք են, որը բարենպաստ է տեսակի գոյատևման համար[69]»:

Կարող է մեքենան ունենալ ինքնագիտակցություն խմբագրել

«Ինքնագիտակցությունը», ինչպես նշվեց վերևում, երբեմն օգտագործվում է գեղարվեստական գրողների կողմից որպես հիմնական մարդկային հատկությունների անվանում, որը կերպարը լիարժեք մարդ է դարձնում։ Թյուրնգը շրջանցելով մարդու մյուս բոլոր հատկությունները` առաջ է քաշում հետևյալ հարցը․ «մեքենան կարո՞ղ է ինքնուրույն մտածել»։ Կարո՞ղ է ինքն իր մասին մտածել։ Դրա համար կարելի է գրել մի ծրագիր, որը կարող է զեկուցել սեփական ներքին վիճակների մասին, օրինակ ՝ debugger[67]։ Չնայած նրան, որ, թերևս, ինքնագիտակցությունը հաճախ ենթադրում է մի քիչ ավելի շատ հնարավորություններ․ մի մեքենա, որը կարող է ինչ-որ կերպ վերագրել իմաստը ոչ միայն իր սեփական վիճակին, այլ առհասարակ հարցեր դնել առանց հիմնավոր պատասխանների, ներկայումս իր գոյության համատեքստային բնույթը, քանի որ այն համեմատում է անցյալի փորձը կամ ապագայի պլանները իր աշխատանքային արտադրանքի սահմանների և արժեքի հետ։

Կարող է մեքենան լինել օրիգինալ կամ ստեղծագործ խմբագրել

Թյուրինգը սա բերում է այն հարցին, թե արդյո՞ք մեքենան կարող է «մեզ զարմացնել» և պնդում է, որ դա ակնհայտորեն ճիշտ է, քանի որ ցանկացած ծրագրավորող կարող է դա հաստատել[70]։ Նա նշում է, որ հիշողության բավարար ծավալի դեպքում համակարգիչը կարող է գործել աստղագիտական թվով տարբեր եղանակներով[71]։ Համակարգիչը, որը կարող է ներկայացնել գաղափարները, պետք է կարողանա, նույնիսկ չնչին, համատեղել դրանք նորովի (Դուգլաս Լենատի ավտոմատ մաթեմատիկոսը, որպես օրինակ, համատեղեց գաղափարները ՝ նոր մաթեմատիկական ճշմարտություններ հայտնաբերելու համար)։ Քափլանն ու Հենլեյնը ենթադրում են, որ մեքենաները կարող են գիտական ստեղծագործություններ ցուցադրել, մինչդեռ հավանական է, որ մարդիկ առավելություն կունենան այնտեղ, որտեղ խոսքը գեղարվեստական ստեղծագործության մասին է[72]։

2009-ին Ուելսի Աբերիստվյութի համալսարանի գիտնականները և ԱՄՆ Քեմբրիջի համալսարանի գիտնականները նախագծեցին Ադամ անունով ռոբոտ, որը, նրանց կարծիքով, դարձել է առաջին մեքենան, որ ինքնուրույն մշակել է նոր գիտական հայտնագործություններ[73]։

Կարո՞ղ է մեքենան լինել բարյացակամ կամ թշնամական խմբագրել

Այս հարցը (ինչպես շատերը արհեստական բանականության փիլիսոփայության մեջ) կարող է ներկայացվել երկու ձևով․ «Թշնամությունը» կարելի է սահմանել ֆունկցիայի կամ վարքագծի տերմիններով, որի դեպքում «թշնամանքը» հանկարծակի դառնում է «վտանգավոր» բառի հոմանիշ։ Կամ դա կարելի է սահմանել դիտավորության իմաստով. կարո՞ղ է մեքենան «միտումնավոր» մտադրվել վնաս պատճառել։ Վերջինը հարցը. «Կարո՞ղ է մեքենան ունենալ գիտակից վիճակներ (օրինակ մտադրությունները[47]»)։

Հարցը, թե արդյոք բանական և ամբողջովին ինքնավար մեքենաները վտանգավոր կլինեն, մանրամասն ուսումնասիրվեց ֆուտուրիստների կողմից։ Դրամայի ակնհայտ տարրը ևս այս թեման հանրաճանաչ է դարձրել գիտական ֆանտաստիկայի մեջ, որը դիտարկել է բազմաթիվ հայտնի սցենարներում, որոնցում բանական մեքենաները սպառնալիք են մարդկության համար։

Վերնոր Վինջը ենթադրել է, որ ընդամենը մի քանի տարվա ընթացքում համակարգիչները հազարավոր կամ միլիոնավոր անգամներ ավելի խելացի կդառնան մարդկանցից։ Նա սա անվանում է «եզակիություն[74]»: Նա ենթադրում է, որ դա կարող է շատ վտանգավոր լինել մարդկանց համար[75]։ Այս հարցը քննարկվում է որպես «Փիլիսոփայության եզակիություն»։

2009-ին գիտնականներն ու տեխնիկական փորձագետները մասնակցեցին խորհրդաժողովի ՝ քննարկելու ռոբոտների և համակարգիչների հնարավոր և հիպոթետիկ հավանականության ազդեցությունները, որ նրանք կարողանան բանական դառնալ և ի վիճակի լինեն կայացնել ինքնուրույն որոշումներ։ Նրանք քննարկեցին այն հնարավորությունն ու աստիճանը, որտեղ համակարգիչները և ռոբոտները կարող են ձեռք բերել ինքնավարության ցանկացած մակարդակ, և որքանով նրանք կարող են օգտագործել այնպիսի ունակություններ, որպեսզի հնարավոր լինի որևէ վտանգ կամ սպառնալիք ներկայացնել մարդկանց։ Նրանք նշել են, որ որոշ մեքենաներ ձեռք են բերել կիսաավտոմատության տարբեր ձևեր, այդ թվում ՝ ինքնուրույն գտնել էներգիայի աղբյուրները և ի վիճակի լինել ինքնուրույն ընտրել թիրախներ ՝ զենքով հարձակվելու համար։ Նրանք նաև նշել են, որ համակարգչային որոշ վիրուսներ կարող են խուսափել ոչնչացումից և հասնել «ուտիճ բանականության»։ Նրանք նշել են, որ գիտական ֆանտաստիկայում նկարագրված ինքնագիտակցությունը, հավանաբար, քիչ հավանական է, բայց կան նաև այլ պոտենցիալ վտանգներ և թակարդներ[74]։

Որոշ փորձագետներ և գիտնականներ կասկածի տակ են դրել ռոբոտների օգտագործումը ռազմական մարտական գործողությունների համար, մանավանդ, երբ նման ռոբոտներին տրվում է որոշակի աստիճանի ինքնավար ֆունկցիաներ[76]։ ԱՄՆ ռազմածովային նավատորմը ֆինանսավորել է զեկույցը, որում նշվում է, որ ռազմական ռոբոտների բարդացումից հետո պետք է ավելի մեծ ուշադրություն դարձնել ինքնավար որոշումներ ընդունելու նրանց կարողության հետևանքներին[77][78]։

Արհեստական ինտելեկտի առաջխաղացման ասոցիացիայի նախագահը հանձնարարել է հետազոտություն կատարել այս հարցի ուսումնասիրման համար[79]։

Ոմանք առաջարկել են «Ընկերասեր արհեստական բանականություն» կառուցել, այսինքն ՝ առաջխաղացումները, որոնք արդեն իսկ տեղի են ունենում արհեստական բանականության հետ, պետք է ներառեն նաև ջանքեր, որպեսզի այն դառնա ընկերասեր ու մարդասեր[80]։

Կարո՞ղ է մեքենան հոգի ունենալ խմբագրել

Վերջապես, նրանք, ովքեր հավատում են հոգու գոյությանը, կարող են պնդել, որ «մտածելը մարդու անմահ հոգու ֆունկցիան է»։ Ալան Թյուրինգը դա անվանել է «աստվածաբանական առարկություն»։ Նա գրում է։

Նման մեքենաներ կառուցելիս մենք չպետք է անուղղակիորեն օգտագործենք հոգիներ ստեղծելու Նրա ուժը, ճիշտ այնպես, ինչպես մենք չենք բռնազավթում երեխաների ծնունդը։ Ավելի շուտ, մենք երկու դեպքում էլ Նրա կամքի գործիքներն ենք, որոնք ստեղծում են կացարաններ այն հոգիների համար, որոնց Նա է ստեղծում[81]։

Տեսակետներ փիլիսոփայության դերի վերաբերյալ խմբագրել

Որոշ գիտնականներ պնդում են, որ արհեստական բանականության համայնքից փիլիսոփայությունը հեռացնելը վնասակար է դրա զարգացման համար։ Փիլիսոփայության Սթենֆորդի հանրագիտարանում որոշ փիլիսոփաներ պնդում են, որ փիլիսոփայության դերը արհեստական բանականության մեջ թերագնահատվում է[2]։ Ֆիզիկոս Դեյվիդ Դոյչը պնդում է, որ առանց փիլիսոփայության կամ դրա հասկացությունների ընկալման, արհեստական բանականության զարգացումը տառապելու է առաջընթացի պակասից[82]։

Կոնֆերանսներ խմբագրել

Այս հարցի շուրջ կոնֆերանսների հիմնական շարքը կոչվում է «Արհեստական բանականության փիլիսոփայությունն ու տեսությունը» (PT-AI), վարում է Վինսենթ Մյուլլերը։

Այս թեմայի վերաբերյալ հիմնական մատենագիտությունը, մի քանի ենթաբաժիններով, գտնվում է ՖիլՓեյփըրսում.

Ծանոթագրություններ խմբագրել

  1. McCarthy, John. «The Philosophy of AI and the AI of Philosophy». jmc.stanford.edu. Արխիվացված է օրիգինալից 2018 թ․ հոկտեմբերի 23-ին. Վերցված է 2018 թ․ սեպտեմբերի 18-ին.
  2. 2,0 2,1 Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), «Artificial Intelligence», in Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (Fall 2018 ed.), Metaphysics Research Lab, Stanford University, Արխիվացված է օրիգինալից 2019 թ․ նոյեմբերի 9-ին, Վերցված է 2018 թ․ սեպտեմբերի 18-ին
  3. Deutsch, David (2012 թ․ հոկտեմբերի 3). «Philosophy will be the key that unlocks artificial intelligence | David Deutsch». The Guardian (բրիտանական անգլերեն). ISSN 0261-3077. Վերցված է 2020 թ․ ապրիլի 29-ին.
  4. Russell & Norvig 2003, էջ. 947 define the philosophy of AI as consisting of the first two questions, and the additional question of the ethics of artificial intelligence. Fearn 2007, էջ. 55 writes "In the current literature, philosophy has two chief roles: to determine whether or not such machines would be conscious, and, second, to predict whether or not such machines are possible." The last question bears on the first two.
  5. 5,0 5,1 This is a paraphrase of the essential point of the Turing test. Turing 1950, Haugeland 1985, էջեր. 6–9, Crevier 1993, էջ. 24, Russell & Norvig 2003, էջեր. 2–3 and 948
  6. 6,0 6,1 McCarthy et al. 1955. This assertion was printed in the program for the Dartmouth Conference of 1956, widely considered the "birth of AI."also Crevier 1993, էջ. 28
  7. 7,0 7,1 Newell & Simon 1976 and Russell & Norvig 2003, էջ. 18
  8. 8,0 8,1 8,2 8,3 This version is from Searle (1999), and is also quoted in Dennett 1991, էջ. 435. Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states." (Searle 1980, էջ 1). Strong AI is defined similarly by Russell & Norvig (2003, էջ. 947): "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."
  9. 9,0 9,1 Hobbes 1651, chpt. 5
  10. See Russell & Norvig 2003, էջ. 3, where they make the distinction between acting rationally and being rational, and define AI as the study of the former.
  11. Saygin, 2000
  12. Turing 1950 and see Russell & Norvig 2003, էջ. 948, where they call his paper "famous" and write "Turing examined a wide variety of possible objections to the possibility of intelligent machines, including virtually all of those that have been raised in the half century since his paper appeared."
  13. Turing 1950 under "The Argument from Consciousness"
  14. Russell & Norvig 2003, էջ. 3
  15. Russell & Norvig 2003, էջեր. 4–5, 32, 35, 36 and 56
  16. Russell and Norvig would prefer the word "rational" to "intelligent".
  17. «Artificial Stupidity». The Economist. 324 (7770): 14. 1992 թ․ օգոստոսի 1.
  18. Saygin, A. P.; Cicekli, I. (2002). «Pragmatics in human-computer conversation». Journal of Pragmatics. 34 (3): 227–258. CiteSeerX 10.1.1.12.7834. doi:10.1016/S0378-2166(02)80001-7.
  19. Russell & Norvig (2003, էջեր. 48–52) consider a thermostat a simple form of intelligent agent, known as a reflex agent. For an in-depth treatment of the role of the thermostat in philosophy see Chalmers (1996, էջեր. 293–301) "4. Is Experience Ubiquitous?" subsections What is it like to be a thermostat?, Whither panpsychism?, and Constraining the double-aspect principle.
  20. Dreyfus 1972, էջ. 106
  21. Pitts & McCullough 1943
  22. Moravec 1988
  23. Kurzweil 2005, էջ. 262. Also see Russell & Norvig, էջ. 957 and Crevier 1993, էջեր. 271 and 279. The most extreme form of this argument (the brain replacement scenario) was put forward by Clark Glymour in the mid-1970s and was touched on by Zenon Pylyshyn and John Searle in 1980
  24. Eugene Izhikevich (2005 թ․ հոկտեմբերի 27). «Eugene M. Izhikevich, Large-Scale Simulation of the Human Brain». Vesicle.nsi.edu. Արխիվացված է օրիգինալից 2009 թ․ մայիսի 1-ին. Վերցված է 2010 թ․ հուլիսի 29-ին.
  25. Hubert Dreyfus writes: "In general, by accepting the fundamental assumptions that the nervous system is part of the physical world and that all physical processes can be described in a mathematical formalism which can, in turn, be manipulated by a digital computer, one can arrive at the strong claim that the behavior which results from human 'information processing,' whether directly formalizable or not, can always be indirectly reproduced on a digital machine." (Dreyfus 1972, էջեր 194–5). John Searle writes: "Could a man made machine think? Assuming it possible produce artificially a machine with a nervous system, ... the answer to the question seems to be obviously, yes ... Could a digital computer think? If by 'digital computer' you mean anything at all that has a level of description where it can be correctly described as the instantiation of a computer program, then again the answer is, of course, yes, since we are the instantiations of any number of computer programs, and we can think." (Searle 1980, էջ 11)
  26. Searle 1980, էջ. 7
  27. Searle writes "I like the straight forwardness of the claim." Searle 1980, էջ. 4
  28. Dreyfus 1979, էջ. 156
  29. Gödel, Kurt, 1951, Some basic theorems on the foundations of mathematics and their implications in Solomon Feferman, ed., 1995. Collected works / Kurt Gödel, Vol. III. Oxford University Press: 304-23. - In this lecture, Gödel uses the incompleteness theorem to arrive at the following disjunction: (a) the human mind is not a consistent finite machine, or (b) there exist Diophantine equations for which it cannot decide whether solutions exist. Gödel finds (b) implausible, and thus seems to have believed the human mind was not equivalent to a finite machine, i.e., its power exceeded that of any finite machine. He recognized that this was only a conjecture, since one could never disprove (b). Yet he considered the disjunctive conclusion to be a "certain fact".
  30. Lucas 1961, Russell & Norvig 2003, էջեր. 949–950, Hofstadter 1979, էջեր. 471–473, 476–477
  31. Graham Oppy (2015 թ․ հունվարի 20). «Gödel's Incompleteness Theorems». Stanford Encyclopedia of Philosophy. Վերցված է 2016 թ․ ապրիլի 27-ին. «These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail.»
  32. Stuart J. Russell; Peter Norvig (2010). «26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection». Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, NJ: Prentice Hall. ISBN 978-0-13-604259-4. «...even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations.»
  33. Mark Colyvan. An introduction to the philosophy of mathematics. Cambridge University Press, 2012. From 2.2.2, 'Philosophical significance of Gödel's incompleteness results': "The accepted wisdom (with which I concur) is that the Lucas-Penrose arguments fail."
  34. LaForte, G., Hayes, P. J., Ford, K. M. 1998. Why Gödel's theorem cannot refute computationalism. Artificial Intelligence, 104:265-286, 1998.
  35. Russell & Norvig 2003, էջ. 950 They point out that real machines with finite memory can be modeled using propositional logic, which is formally decidable, and Gödel's argument does not apply to them at all.
  36. Hofstadter 1979
  37. According to Hofstadter 1979, էջեր. 476–477, this statement was first proposed by C. H. Whiteley
  38. Hofstadter 1979, էջեր. 476–477, Russell & Norvig 2003, էջ. 950, Turing 1950 under "The Argument from Mathematics" where he writes "although it is established that there are limitations to the powers of any particular machine, it has only been stated, without sort of proof, that no such limitations apply to the human intellect."
  39. Penrose 1989
  40. Litt, Abninder; Eliasmith, Chris; Kroon, Frederick W.; Weinstein, Steven; Thagard, Paul (2006 թ․ մայիսի 6). «Is the Brain a Quantum Computer?». Cognitive Science. 30 (3): 593–603. doi:10.1207/s15516709cog0000_59. PMID 21702826.
  41. Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. See also Russell & Norvig 2003, էջեր. 950–952, Crevier 1993, էջեր. 120–132 and Hearn 2007, էջեր. 50–51
  42. Russell & Norvig 2003, էջեր. 950–51
  43. Turing 1950 under "(8) The Argument from the Informality of Behavior"
  44. 44,0 44,1 Russell & Norvig 2003, էջ. 52
  45. See Brooks 1990 and Moravec 1988
  46. Crevier 1993, էջ. 125
  47. 47,0 47,1 Turing 1950 under "(4) The Argument from Consciousness". See also Russell & Norvig, էջեր. 952–3, where they identify Searle's argument with Turing's "Argument from Consciousness."
  48. Russell & Norvig 2003, էջ. 947
  49. "[P]eople always tell me it was very hard to define consciousness, but I think if you're just looking for the kind of commonsense definition that you get at the beginning of the investigation, and not at the hard nosed scientific definition that comes at the end, it's not hard to give commonsense definition of consciousness." The Philosopher's Zone: The question of consciousness. Also see Dennett 1991
  50. Blackmore 2005, էջ. 2
  51. Russell & Norvig 2003, էջեր. 954–956
  52. For example, John Searle writes: "Can a machine think? The answer is, obvious, yes. We are precisely such machines." (Searle 1980, էջ 11)
  53. Searle 1980. See also Cole 2004, Russell & Norvig 2003, էջեր. 958–960, Crevier 1993, էջեր. 269–272 and Hearn 2007, էջեր. 43–50
  54. Searle 1980, էջ. 13
  55. Searle 1984
  56. Cole 2004, 2.1, Leibniz 1714, 17
  57. Cole 2004, 2.3
  58. Searle 1980 under "1. The Systems Reply (Berkeley)", Crevier 1993, էջ. 269, Russell & Norvig 2003, էջ. 959, Cole 2004, 4.1. Among those who hold to the "system" position (according to Cole) are Ned Block, Jack Copeland, Daniel Dennett, Jerry Fodor, John Haugeland, Ray Kurzweil and Georges Rey. Those who have defended the "virtual mind" reply include Marvin Minsky, Alan Perlis, David Chalmers, Ned Block and J. Cole (again, according to Cole 2004)
  59. Cole 2004, 4.2 ascribes this position to Ned Block, Daniel Dennett, Tim Maudlin, David Chalmers, Steven Pinker, Patricia Churchland and others.
  60. Searle 1980 under "2. The Robot Reply (Yale)". Cole 2004, 4.3 ascribes this position to Margaret Boden, Tim Crane, Daniel Dennett, Jerry Fodor, Stevan Harnad, Hans Moravec and Georges Rey
  61. Quoted in Crevier 1993, էջ. 272
  62. Searle 1980 under "3. The Brain Simulator Reply (Berkeley and M.I.T.)" Cole 2004 ascribes this position to Paul and Patricia Churchland and Ray Kurzweil
  63. Searle 1980 under "5. The Other Minds Reply", Cole 2004, 4.4. Turing 1950 makes this reply under "(4) The Argument from Consciousness." Cole ascribes this position to Daniel Dennett and Hans Moravec.
  64. Dreyfus 1979, էջ. 156, Haugeland 1985, էջեր. 15–44
  65. Horst 2005
  66. 66,0 66,1 Harnad 2001
  67. 67,0 67,1 67,2 Turing 1950 under "(5) Arguments from Various Disabilities"
  68. 68,0 68,1 Quoted in Crevier 1993, էջ. 266
  69. Crevier 1993, էջ. 266
  70. Turing 1950 under "(6) Lady Lovelace's Objection"
  71. Turing 1950 under "(5) Argument from Various Disabilities"
  72. «Kaplan Andreas; Michael Haenlein». Business Horizons. 62 (1): 15–25. 2019 թ․ հունվար. doi:10.1016/j.bushor.2018.08.004.
  73. Katz, Leslie (2009 թ․ ապրիլի 2). «Robo-scientist makes gene discovery-on its own | Crave - CNET». News.cnet.com. Արխիվացված է օրիգինալից 2012 թ․ հուլիսի 12-ին. Վերցված է 2010 թ․ հուլիսի 29-ին.
  74. 74,0 74,1 Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  75. The Coming Technological Singularity: How to Survive in the Post-Human Era, by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  76. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  77. Science New Navy-funded Report Warns of War Robots Going "Terminator" Արխիվացված 2009-07-28 Wayback Machine, by Jason Mick (Blog), dailytech.com, February 17, 2009.
  78. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  79. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  80. Article at Asimovlaws.com, July 2004, accessed 7/27/09. Արխիվացված Հունիս 30, 2009 Wayback Machine
  81. Turing 1950 under "(1) The Theological Objection", although he also writes, "I am not very impressed with theological arguments whatever they may be used to support"
  82. Deutsch, David (2012 թ․ հոկտեմբերի 3). «Philosophy will be the key that unlocks artificial intelligence | David Deutsch». the Guardian (անգլերեն). Վերցված է 2018 թ․ սեպտեմբերի 18-ին.

Արտաքին հղումներ խմբագրել

Page numbers above and diagram contents refer to the Lyceum PDF print of the article.