Արհեստական բանականություն

Արհեստական բանականություն կամ արհեստական ինտելեկտ (երբեմն նաև մեքենայական ինտելեկտ, անգլ.՝ artificial intelligence, AI), ի տարբերություն մարդուն և կենդանիներին հատուկ «բնական» բանականության, մեքենայի կողմից ցուցադրվող բանականություն։ Ինֆորմատիկայում ԱԻ հետազոտությունը սահմանվում է որպես «խելացի գործակալի» հետազոտություն՝ ցանկացած սարք, որն ընկալում է իր շրջակայքը և ձեռնարկում է գործողություններ, որոնք առավելագույնի են հասցնում հաջողությամբ նպատակին հասնելու նրա հնարավորությունները։ Կոպիտ ասած, «արհեստական ինտելեկտ» տերմինը կիրառվում է, երբ մեքենան իրականացնում է «ճանաչողական» գործառույթներ, ինչպես օրինակ «սովորելը» և «խնդիր լուծելը», որոնց մարդիկ սովորաբար ասոցացնում են «խելքի» հետ [1]։

Արհեստական ինտելեկտի հստակ սահմանները վիճարկելի են․ մեքենաները հետզհետե ավելի բարդ խնդիրներ լուծելու ունակ են դառնում և այն խնդիրները, որոնք նախկինում համարվում էին «ինտելեկտ» պահանջող, հաճախ տարանջատվում են «արհեստական ինտելեկտ» սահմանումից և համարվում զուտ ինժեներական խնդիրներ։ Ըստ այդմ, որոշ մասնագետներ գտնում են, որ «արհեստական ինտելեկտ է այն խնդիրը, որը դեռ չի լուծվել» (AI is whatever hasn't been done yet)[2]։ Օրինակ, գրանշանների օպտիկական ճանաչումը հաճախ արդեն չի դասակարգվում «արհեստական ինտելեկտի» խնդիրների շարքին և համարվում է «սովորական» տեխնոլոգիա[3]։ Արհեստական ինտելեկտի դասին վերագրվող և մեքենաների կողմից որոշակի հաջողությամբ իրականացվող ժամանակակից խնդիրներից են մարդկային խոսքի ճանաչումը, պատկերների ճանաչումը, բարձր մակարդակի ռազմավարական խաղեր խաղալը [4] (ինչպես շախմատը, պոկերը և Go խաղը)[5], ինքնավար (առանց վարորդի) ավտոմեքենաները, բովանդակության բաշխման ցանցերը և ռազմական սիմուլյացիաները։

Արհեստական բանականությունը որպես ակադեմիական ուղղություն ստեղծվել է 1956 թվականին և տարիների ընթացքում լավատեսության մի քանի ալիքներ է ունեցել[6],>[7] որոնց հետևել են հիասթափություն և ֆինանսավորման կորուստ (հայտնի որպես «արհեստական ինտելեկտի ձմեռ»)[8][9], այնուհետ նոր մոտեցումներ, հաջողություն և նորացված ֆինանսավորում[7][10]։ Իր պատմության մեծ մասի ընթացքում արհեստական ինտելեկտը բաժանվել է մի քանի ենթաճյուղերի, որոնք հաճախ հակասությունների մեջ են միմյանց հետ[11]։ Այդ տարաձայնությունները պայմանավորված են տեխնիկական նկատառումներով (օրինակ ռոբոտաշինություն թե՞ մեքենայական ուսուցում)[12], մեթոդաբանությամբ (տրամաբանական ինտելեկտ թե՞ արհեստական նեյրոնային ցանց) կամ ավելի խոր փիլիսոփայական խնդիրներով[13][14][15]։ Մոտեցումների տարբերությունները երբեմն պայմանավորված են նաև սոցիալական գործոննեով (կոնկրետ հաստատություններ կամ կոնկրետ հետազոտողների աշխատանքներ)[11]։

Արհեստական բանականության ավանդական խնդիրները (կամ նպատակները) հիմնականում նեղ և մասնավոր դեպքերի են վերաբերում․ այդ խնդիրների շարքում են՝ գիտելիքի ներկայացումը, ավտոմատացված պլանավորումը, մեքենայական ուսուցումը, բնական լեզվի մշակումը, մեքենայական ընկալումը, օբյեկտների տեղաշարժի ճանաչումը և փոխազդելու ունակությունը[12]։ «Ընդհանուր արհեստական ինտելեկտը», այսինքն բազմազան խնդիրների միաժամանակյա վերլուծությունը և լուծումը, ըստ որոշ մասնագետների, երկարաժամկետ նպատակների թվում է[16]։ Արհեստական ինտելեկտի մոտեցումները ներառում են վիճակագրական մեթոդներ, համակարգչային ինտելեկտ և ավանդական սիմվոլիկ արհեստական ինտելեկտ։ Օգտագործվում են շատ գործիքներ․ որոնում և մաթեմատիկական օպտիմիզացիա, արհեստական նեյրոնային ցանցեր և վիճակագրության և հավանականությունների տեսության վրա հիմնված մեթոդներ։ Արհեստական ինտելեկտի զարգացումը հիմնված հաշվողական գիտության, մաթեմատիկայի, լեզվաբանության, հոգեբանության, փիլիսոփայության, տրամաբանության, խաղերի տեսության և շատ այլ գիտական ուղղությունների վրա։

Ճյուղը հիմնվել է այն դրույթից ելնելով, որ մարդու բանականությունը «հնարավոր է ճշգրիտ նկարագրել, այնպես որ հնարավոր է մեքենա ստեղծել, որ այն նմանակի»[17]։ Սա բարձրացնում է մտքի բնույթի և մարդկային ինտելեկտով օժտված արհեստական էակների ստեղծման էթիկայի փիլիսոփոյական փաստարկները, որոնք խնդիրներ էին, որ ուսումնասիրվել են միֆերի, ֆանտաստիկայի և փիլիսոփայության մեջ անտիկ ժամանակներից ի վեր[18]։ Ոմանք արհեստական ինտելեկտի առաջընթացը դիտարկում են որպես վտանգ մարդկության հանդեպ[19]։ Մյուսները կարծում են, որ ի տարբերություն նախորդ տեխնոլոգիական հեղափոխությունների, կբերի զանգվածային գործազրկության[20]։

Քսանմեկերորդ դարում, հաշվարկային հզորության, տվյալների հսկայական քանակության և տեսական ընկալման բնագավառների զուգահեռ առաջընթացից հետո, արհեստական ինտելեկտի մեթոդները վերածնունդ ապրեցին, և ԱԻ մեթոդները տեխնոլոգիական ինդուստրիայի էական բաղկացուցիչը դարձան, օգնելով լուծել համակարգչային գիտության, մաթապահովման նախագծման և գործողությունների հետազոտման դժվար խնդիրները[10][21]։

Պատմություն խմբագրել

Մտածելու ընդունակություն ունեցող արհեստական էակներ, որպես պատմություններ պատմող սարքեր, ներկայացվել են անտիկ ախարհում[22] և տարածված էին գեղարվեստական ժանրում, ինչպես Մերի Շելլիի Ֆրանկենշթեյն կամ Կարել Չապեկի Ռոսսոմի ունիվերսալ ռոբոտներ.[23] Այս կերպարները և նրանց ճակատագրերը բարձրացնում էին միևնույն խնդիրները, ինչ այժմ քննարկվում է արհեստական ինտելեկտի էթիկայում[18]։ Բանականության ուսումնասիրությունները սկսվել են անտիկ փիլիսոփաներից և մաթեմատիկոսներից։ Մաթեմատիկական տրամաբանության ուսումնասիրությունը հանգեցրեց Ալան Թյուրինգի հաշվարկների տեսությանը, որում ենթադրվում է, որ մեքենան «0» և «1» պարզ սիմվոլները խառնելու և վերադասավորելու օգնությամբ կարող է նմանակել կամայական իմաստալից մաթեմատիկական եզրակացություն։ Այս հասկացությունը, որ թվային համակարգիչները կարող են նմանակել ֆորմալ մտածողության կամայական պրոցես, հայտնի է որպես Չյորչ-Թյուրինդի թեզիս[24]։ Նեյրոգիտության, ինֆորմացիայի տեսության և կիբեռնետիկայի զուգահեռ զարգացումները հետազոտողներին ուղղորդեցին դիտարկել էլեկտրոնային ուղեղի ստեղծման հնարավորությունը։ Թյուրինգը ենթադրեց, որ եթե մարդը չի կարողանում տարբերել անձի և մեքենայի պատասխանները, ապա մեքենան կարելի է համարել “խելացի"[25]։ Որպես համընդհանուր ճանաչում ունեցող արհեստական ինտելեկտի աշխատանք կարելի է համարել 1943 թվականին Մակկալոկի և Փիթսի կողմից Թյուրինգի լրիվության համար ստեղծած "արհեստական նեյրոնները"։[26]

Արհեստական ինտելեկտի ճյուղը ծնվել է 1956 թվականին. Դարտմութի քոլեջի վորքշոփի ժամանակ[24]։ Մասնակիցները՝ Ալեն Նյուել (Կարնեգի Մելոն համալսարան), Հերբերտ Սայմոն (Կարնեգի Մելոն համալսարան), Ջոն Մակկարտի (Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ), Մարվին Մինսկի (Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ) և Արթուր Սամուել (IBM), դարձան արհեստական ինտելեկտի հիմնադիրներն ու հետազոտողները[27]։ Նրանք և նրանց ուսանողները ծրագրեր էին իրականացնում, որոնց մամուլը "ապշեցուցիչ" էր անվանում․[28] համակարգիչները յուրացնում էին շաշկու ռազմավարությունը (1954)[29] (և 1959 թվականին ըստ էության ավելի լավ էին խաղում, քան միջին ունակությունների տեր մարդը)[30], լուծում էին տեքստային խնդիրները հանրահաշվում,ապացուցում էին տրամաբանական թեորեմները (1956) և անգլերեն խոսում[31]։ 1960-ականների կեսերին, արհեստական ինտելեկտի հետազոտությունները մեծապես ֆինանսավորվում էին ԱՄՆ պաշտպանության նախարարության առաջատար հետազոտական նախագծերի գործակալության կողմից[32]։ Եվ աշխարհով մեկ լաբորատորիաներ հիմնվեցին[33]։ Արհեստական ինտելեկտի հիմնադիրները ապագայի նկատմամբ լավատես էին․ Հերբերտ Սայմոնը կանխատեսում էր, "քսան տարի անց մեքենաները կկարողանան կատարել մարդու կողմից կատարվող կամայական աշխատանք"։ Մարվին Մինսկին համաձայնել էր գրելով, "մի սերունդ անց ... 'արհեստական ինտելեկտի' ստեղծման պրոբլեմը էապես կլուծվի"[6]։

Նրանք չկարողացան գնահատել մնացած խնդիրների դժվարությունները։ Առաջընթացը դանդաղեց և 1974 թվականին, ի պատասխան Ջեյմս Լայթհիլլի քննադատությանը և ԱՄՆ-ի կոնգրեսի շարունակական ճնշումներին ֆինանսավորել ավելի արդյունավետ նախագծեր, թե ԱՄՆ և թե Բրիտանական կառավարությունները կտրեցին արհեստական ինտելեկտի հետազոտությունների ֆինանսավորումը։ Հաջորդ մի քանի տարիները հետագայում կոչվեցին «ԱԲ ձմեռ»[8] ժամանակաշրջան, երբ արհեստական ինտելեկտի ֆինանսավորում դժվար էր ձեռք բերել։

1980-ականների սկզբներին, արհեստական ինտելեկտի հետազոտությունները վերակենդանացան, պայմանավորված էքսպերտ համակարգերի կոմերցիոն հաջողությամբ[34], արհեստական ինտելեկտի ձևաչափ, որ նմանակում է մասնագետների գիտելիքն ու վերլուծական ունակությունները։ 1985 թվականին արհեստական ինտելեկտի շուկան հատել էր միլիարդ դոլարի սահմանը։ Միևնույն ժամանակ Ճապոնիայի հինգերորդ սերնդի մեքենաների ծրագիրը ոգեշնչեց ԱՄՆ և Բրիտանական կառավարություններին վերականգնել արհեստական ինտելեկտի ակադեմիական հետազոտությունների ֆինանսավորումը[7]։ Այնուամենայնիվ սկսելով 1987 թվականի Լիսպ մեքենաների փլուզմամբ, ևս մեկ անգամ հեղինակազրկվելով, արհեստական ինտելեկտը ընկավ երկրորդ, ավելի երկարատև ընդմիջման փուլ[9]։

1990-ականների վերջերին և 21-րդ դարի սկզբում, արհեստական ինտելեկտը սկսեց օգտագործվել լոգիստիկայում, տվյալների մշակման, բժշկական ախտորոշման և այլ բնագավառներում[21]։ Հաջողությունը կապված էր համակարգչային հզորության բարձրացմամբ (տես Մուռի օրենք), կոնկրետ խնդիրների լուծմանը առավել մեծ ուշադրությամբ, արհեստական ինտելեկտի և այլ բնագավառների greater emphasis on solving specific problems, new ties between AI and other fields (ինչպիսիք վիճակագրություն, տնտեսագիտություն և մաթեմատիկական օպտիմիզացիա) միջև նոր կապերի հաստատմամբ, և հետազոտողներին պահպանել մաթեմատիկական մեթոդներն ու գիտական ստանդարտները[35]։ Deep Blue-ն 1997 թվականի մայիսի 11-ին դարձավ առաջին շախմատ խաղացող համակարգչային համակարգը, որ հաղթեց աշխարհի չեմպիոն Գարրի Կասպարովին։[36]

2011 թվականին, Jeopardy! հեռուստախաղի ցուցադրական հանդիպման ժամանակ, IBM-ի հարցուպատասխան Վաթսոն համակարգը նշանակալի տարբերությամբ հաղթել է երկու մեծագույն Jeopardy! մեծագույն չեմպիոնների՝ Բրեդ Ռուտերին և Կեն Ջենինգսին։[37] Արագ համակարգիչները, ալգորիթմական բարելավումները և հասանելիությունը մեծ տվյալներին մեքենայական ուսուցման և ընկալման հնարավորություն ստեղծեցին, տվյալների վրա հիմնված խոր ուսուցման մեթոդները սկսեցին գերակշռել ճշգրտության թեստերում[38]։ Kinect-ը, որը ապահովում է 3D մարմին–շարժում ինտերֆեյս է ապահովում Xbox 360-ի և Xbox One-ի համար օգտագործում է ալգորիթմներ արհեստական ինտելեկտի երկարատև հետազոտությունների շնորհիվ[39] այնպես ինչպես խելացի անձնական օգնականը սմարթֆոնում[40]։ 2016 թվականի մարտին, AlphaGoGo մրցույթում, Go-ի չեմպիոն Լի Սեդոլին հինգ խաղից չորսում հաղթեց, դառնալով առաջին համակարգչային Go-խաղացող համակարգը, որը հաղթեց պրոֆեսիոնալ Go խաղացողին առանց արգելքների[5][41]։ 2017 թվականին Go-ի ապագան համաժողովում, AlphaGoԿե Ցե-ի հետ երեք խաղից բաղկացած մրցույթում հաղթեց նրան[42], ով շուրջ երկու տարի աշխարհի թիվ 1 խաղացողն էր[43][44]։ Սա նշանակալի իրադարձություն էր արհեստական ինտելեկտի զարգացման բնագավառում, քանի որ Go-ն չափազանց բարդ խաղ է, ավելի քան շախմատը։

Համաձայն Բլումբերգի, 2015 թվականը արհեստական ինտելեկտի համար նշանակալի տարի էր, ընդ որում արհեստական ինտելեկտը գուգլում օգտագործող ծրագրային ապահովման նախագծերի քանակը աճել է 2012 թվականի "հատուկենտ օգտագործումից" մինչև 2,700 նախագծեր։ Փաստացի տվյալները ցույց են տալիս, որ 2011 թվականից սկսած պատկերների մշակման առաջադրանքներում սխալների քանակը էապես նվազել է[45]։ Դա բացատրվում է հաշվարկվող ենթակառուցվածքների, հետազոտման գործիքների և տվյալների բազմությունների աճի շնորհիվ հասանելի արհեստական նեյրոնային ցանցի ընդլայնմամբ[10] Այլ օրինակներ են՝ Skype համակարգը, որ մի լեզվից մյուս լեզվին ավտոմատ թարգմանություն է ապահովում և Facebook-ը, որը կարող է պատկերները նկարագրել կույր մարդկանց[45]։ 2017 թվականի հարցումներում կազմակերպություններից հինգից մեկը հայտարարում է, որ "Արհեստական ինտելեկտը զետեղել են որոշ առաջարկություններում կամ գործընթացներում"[46][47]։

Հիմունքներ խմբագրել

Տիպիկ արհեստական ինտելեկտը ընկալում է միջավայրը և իրականացնում է գործողություններ, որոնք առավելագույնի են հասցնում հաջողությամբ իր նպատակներին հասնելու հնարավորությունը[48]։ Արհեստական ինտելեկտի ենթադրվող նպատակետը կարող է լինել պարզ ("1, երբ Go խաղալիս հաղթում է, հակառակ դեպքում՝ 0") կամ բարդ ("Կատարել նախկինում պարգևներ բերած գործողություններին մաթեմատիկորեն նմանատիպ գործողություններ"). Նպատակները կարող են հստակ սահմանվել, կամ կարող են դրվել։ Եթե արհեստական ինտելեկտը ծրագրված է "ուսուցման ամրապնդման" համար, նպատակները կարող են անուղղակի ստիպել որոշակի վարքագծեր խրախուսել և այլերը պատժել։ [Ն 1] Այլ կերպ էվոլյուցիոն համակարգը կարող է նպաստել նպատակներին օգտագործելով "հարմարվողականության ֆունկցիան" վերափոխվելու գերադասաբար փոխարինել բարձրակարգ արհեստական ինտելեկտի համակարգերը, սա նման է թե ինչպես կենդանիները զարգացան իրենց որոշակի նպատակների, ինչպես սնունդ գտնելն է, կամ ինչպես կարելի է շներին բազմացնել արհեստական ընտրության միջոցով, որպեսզի ցանկալի հատկություններ ժառանգեն։[49] Որոշ արհեստական ինտելեկտ համակարգեր, ինչպիսին մոտակա-հարևանը, տրված նպատակի փոխարեն դիտարկում են նմանությամբ, բացառությամբ, որ նպատակները ինչ որ կերպ թաքնված են դրանց ուսուցման տվյալներում։[50] Այսպիսի համակարգերը կարող են համարվել ոչ նշատակային համակարգեր, որոնց "նպատակն" է հաջողությամբ իրականացնել իրենց նեղ դասակարգման խնդիրը։.[51]

Արհեստական ինտելեկտը հաճախ պտտվում է ալգորիթմների օգտագործման շուրջ։ Ալգորիթմը հստակ հրահանգների բազմություն է, որ կարող է իրականացնել մեխանիկական համակարգիչը։[Ն 2] Բարդ ալգորիթմը հաճախ կառուցվում է ավելի պարզ ալգորիթմների միջոցով։ Պարզ ալգորիթմի օրինակ է կետ-խաչ օպտիմալ խաղալու հետևյալ եղանակը․[52]

  1. եթե ունեք "վտանգ" (այսինքն, անընդմեջ երկուսը), վերցրեք մնացած դաշտը։ Հակառակ դեպքում,
  2. եթե "պատառաքաղ" քայլը միաժամանակ երկու վտանգ կարող է ստեղծել, կատարեք այդ քայլը։ Հակառակ դեպքում,
  3. վերցրեք դաշտի կենտրոնը, եթե այն ազատ է։ Հակառակ դեպքում,
  4. եթե ձեր հակառակորդը խաղացել է անկյունում, վերցրեք հանդիպակաց անկյունը։ Հակառակ դեպքում,
  5. վերցրեք դատարկ անկյունը։ Հակառակ դեպքում,
  6. վերցրեք դատարկ դաշտը։

Արհեստական ինտելեկտի շատ ալգորիթմներ ունակ են սովորել տվյալների հիման վրա, դրանք կարող են ինքնակատարելագործվել` հիմնվելով փորձերի արդյունքների վրա (ռազմավարություններ, կամ "թերթել կանոնները", որոնք նախկինում լավ են աշխատել), կամ կարող են իրենք այլ ալգորիթմ գրել։ "Աշակերտներից" ոմանք, ներառյալ Բեյեսյան ցանցեր, լուծումների ծառեր և մոտակա հարևան, տեսականորեն կարող են անսահման տվյալների, ժամանակի և հիշողության առկայության դեպքում, սովորել մոտարկել կամայական ֆունկցիա, ներառյալ ողջ աշխարհը լավագույնը նկարագրող մաթեմատիկական ֆունկցիաների համադրությունը։ Ըստ էության այս աշակերտները կարող են դուրս բերել ողջ հնարավոր գիտելիքը, դիտարկելով յուրաքանչյուր հնարավոր վարկածներ և համադրելով դրանք տվյալների հետ։ Պրակտիկայում, անհնար է դիտարկել ամեն մի հնարավորություն, "կոմբինատոր պոռթկման" երևույթի պատճառով, որտեղ պրոբլեմի լուծման համար անհրաժեշտ ժամանակը աճում է էքսպոնենցիալ։ Արհեստական ինտելեկըի հետազոտությունների մեծ մասը ներառում է այն, թե ինչպես լայն հնարավորություններից առանձնացնել և բացառել տարբերակները, որոնց միջոցով հաջողության հասնելը քիչ հավանական է[53]։ >[54] Օրինակ, երբ քարտեզի վրա Դենվերից Նյու Յորք ամենակարճ երթուղին որոնելիս կարելի է ամենակարճ ճանապարհ Սան Ֆրանցիսկոյով կամ հեռու արևմուտքով անցնող ցանկացած այլ ճանապարհ բացառել, այդպիսով, ամենակարճ երթուղին փնտրող արհեստական ինտելեկտի ալգորիթմը կարող է խուսափել ամեն հնարավոր ճանապարհ դիտարկող կոմբինատոր պոռթկումից[55]։ Արհեստական ինտելեկտի ամենավաղ (և ամենահասկանալի) մոտեցումը սիմվոլիզմն էր (այնպիսին ինչպիսին ձևական տրամաբանությունն է)։ "Եթե առողջ չափահաս մարդը ջերմում է, ապա հնարավոր է նա գրիպով հիվանդ է"։ Հաջորդ, ավելի ընդհանուր մոտեցումը Բայեսյան եզրակացությունն է, "Եթե ընթացիկ այցելուն ջերմում է, դիտարկեք հավանականությունը, որ նա հիվանդ է գրիպով այս-այս կերպ"։ Երրորդ ավելի ընդգրկուն մոտեցումը, չափազանց տարածված արհեստական ինտելեկտի սովորական կիրառումներում, անալոգայնությունը։ "Հետազոտելով նախորդ այցելուների մասին տեղեկությունները՝ ջերմությունը, ախտանիշները, տարիքը և այլ գործոններ, որոնք հիմնականում համընկնում են այս հիվանդի ցուցանիշների հետ, այդ հիվանդների քանի %-ն էր գրիպով հիվանդ"։ Չորրորդ մոտեցումն ավելի դժվար է հասկանալ, բայց հիմնված է ուղեղի ինտուիտիվ աշխատանքի վրա․ արհեստական նեյրոնային ցանցի մոտեցումը օգտագործում է արհեստական "նեյրոնները", որոնք կարող են սովորել իրենց համեմատելով ցանկալի արդյունքների հետ և փոխելով ներքին նեյրոնների միջև ուժեղ կապերը, "հզորացնել" կապերը, որոնք թվում են օգտակար։ Այս չորս հիմնական մոտեցումները կարող են մասնակի համընկնել միմյանց և էվոլյուցիոն համակարգերի հետ, օրինակ նեյրոնային ցանցերը կարող են սովորել եզրակացնել, ընդհանրացնել և նմանակել։ Որոշ համակարգեր անուղղակի կամ ուղղակի օգտագործում են այս մոտեցումների բազմազանությունը, այլ արհեստական ինտելեկտի և ոչ ալգորիթմների հետ մեկտեղ[56], լավագույն մոտեցումը հաճախ կախված է խնդրից։[57][58]

 
Կապույտ գիծը կարող է լինել պատահական աղմուկի պատճառով գծային ֆունկցիայի չափազանցելու օրինակ։

Ուսուցող ալգորիթմները աշխատում են այն հիմունքներով, որ ռազմավարությունները, ալգորիթմները և եզրակացությունները, որոնք լավ աշխատել են անցյալում, հավանաբար կշարունակեն լավ աշխատել նաև ապագայում։ Այս եզրակացությունները կարող են լինել ակնհայտ, օրինակ "քանի որ վերջին 10,000 օրերի ընթացքում արևը ծագում է ամեն առավոտ, հավանաբար այն կծագի նաև վաղն առավոտյան"։ Կարող են լինել երանգավորված, օրինակ ընտանիքների "X%-ը աշխարհագրական առումով տարբեր տեսակներ ունենալ գունային տարբերակներով, ուստի Y%-ի հնարավորությամբ գոյություն ունի սև կարապ"։ Ուսանողները նաև աշխատում են "Օկկամի ածելիի" հիմքի վրա։ Պարզագույն տեսությունը, որ բացատրում է տվյալները, ամենահավանականն է։ Հետևաբար, ուսանողը հաջողելու համար պարզագույն տեսությունները, պետք է նախընտրի բարդերից, բացառությամբ երբ բարդ տեսությունը էապես լավն է։ Անցած ուսումնական փորձի հիման վրա չափազանց բարդ տեսության միջոցով տվյալների վերանայումը, կարգավորումը հայտնի է որպես վերապատրաստում։ Շատ համակարգեր փորձում են նվազեցնել վերապատրաստումը գնահատելով, թե որքանով է ենթադրությունը համապատասխանում տվյալներին, բացառում բարդ ենթադրությունները։[59] Բացի դասական վերապատրաստումից ուսանողները կարող են հիասթափվել "սխալ դաս սովորելուց"։ Խաղալիքի օրինակը հետևյալն է, պատկերի դասակարգիչը, որ պատրաստված է ճանաչել միայն շագանակագույն ձիեր և սև կատուներ, կարող է եզրակացնել, որ բլոր շագանակագույն նմուշները հավանաբար ձիեր են։[60] Ի տարբերություն մարդկանց պատկերների, ժամանակակից դասակարգիչները պատկերի բաղադրիչների միջև տարածական կապը չեն կարողանում որոշել, փոխարենը դրանք ուսումնասիրում են պիքսելների աբստրակտ շաբլոնները, որոնք մարդիկ անտեսում են, բայց որոնք գծայնորեն կապվում են իրական օբյեկտների որոշ տեսակների պատկերների հետ։ Այդպիսի շաբլոնի թեթև տեղ-տեղ համընկնումը իրական պատկերի հետ բերում է "մրցակից" պատկերի, ինչը համակարգը սխալ է դասակարգում։[Ն 3][61][62][63]

 
Ինքնակառավարվող ավտոմոբիլային համակարգը կարող է օգտագործել նեյրոնային ցանցը, որոշելու պատկերի որ մասն է, թվում է, թե համընկնում է հետիոտների նախկին ուսումնասիրված պատկերներին, և այնուհետև մոդելավորել այդ տարածքները որպես դանդաղ շարժվող, բայց ինչ որ չափով անկանխատեսելի ուղղանկյուն պրիզմաներ, որոնցից պետք է խուսափել։[64][65]

Մարդկանց համեմատությամբ գոյություն ունեցող արհեստական ինտելեկտի համակարգերի մոտ բացակայում են մարդու մի քանի "առողջ մտածելակերպի" հատկանիշներ; մարդիկ ունեն նաիվ ֆիզիկայի, ինչպիսիք են տարածություն, ժամանակ և ֆիզիկական փոխազդեցություններ, մասին մտածելու հզոր մեխանիզմներ։ Սա նույնիսկ փոքր երեխաներին հնարավորություն է տալիս հեշտությամբ եզրակացնել "Եթե այս գրիչը գլորի սեղանից, ապա այն կընկնի հատակին"։ Մարդիկ նաև "ժողովրդական հոգեբանության", որն օգնում է մեկնաբանել բնական լեզվով նախադասությունները, օրինակ, "Քաղաքային խորհուրդը ցուցարարներիդիմումը մերժեց, քանի որ նրանք բռնություն էին քարոզում"։ (Արհեստական ինտելեկտին դժվար է որոշել ավագանու անդամներն են, թե ցուցարարներն են բռնություն քարոզում։)[66][67][68] "Ընդհանուր գիտելիքի" պակասը նշանակում է, որ արհեստական ինտելեկտն այլ սխալներ է թույլ տալիս քան մարդը։ Օրինակ, գոյություն ունեցող ինքնակառավարվող ավտոմեքենաները չեն կարող եզրակացնել հետիոտնի ոչ գտնվելու վայրի, ոչ նրա տեղաշարժվելու ուղղության մտադրության մասին, փոխարենը պետք է օգտագործեն ոչ մարդկային մեթոդներ, պատահարներից խուսափելու համար[69][70][71]։

Խնդիրներ խմբագրել

Արհեստական ինտելեկտի հետազոտության նպատակն է ստեղծել տեխնոլոգիա, որը թույլ է տալիս համակարգիչներին և մեքենաներին խելացի գործել։ Ինտելեկտ ստեղծելու հիմնական խնդիրը բաժանվում է ենթախնդիրների։ Դրանք բաղկացած են որոշակի առանձնահատկություններից կամ հնարավորություններից, որոնք հետազոտողներն ակնկալում են խելամիտ համակարգից։ Ստորև նկարագրված հատկությունները առավել ուշադրության են արժանացել[12]։

Մտահանգում, խնդրի լուծում խմբագրել

Վաղ հետազոտողները մշակել էին ալգորիթմներ, որոնք քայլ առ քայլ նմանակում էին մտահանգումները, որոնք մարդիկ օգտագործում էին հանելուկներ լուծելիս և տրամաբանական եզրակացություններ անելիս[72]։ 1980-ականների և 1990-ականների վերջերին արհեստական ինտելեկտի հետազոտողները, օգտագործելով հավանականության և տնտեսագիտության հասկացությունները, մշակեցին անորոշ կամ ոչ ամբողջական տեղեկատվության հետ գործելու մեթոդներ[73]։

Այս ալգորիթմները բավարար չեն ծավալուն քննարկումներ պահանջող խնդիրների համար, որովհետև դրանք կտանեն "կոմբինատոր պայթյունի"․ խնդիրների բարդացմանը զուգահեռ դրանց լուծումները ակնհայտորեն դանդաղում են[53]։ Փաստացի, նույնիսկ մարդիկ հազվադեպ են օգտագործում քայլ-առ-քայլ եզրակացությունը, որը վաղ արհեստական ինտելեկտի համակարգերը կարող էին մոդելավորել։ Նրանք իրենց խնդիրների մեծ մասը լուծում են` օգտագործելով արագ ինտուիտիվ դատողությունները[74]։

Գիտելիքի ներկայացում խմբագրել

 
Օնտոլոգիան գիտելիքը ներկայացնում է որպես բնագավառի հասկացությունների բազմություն և այդ հասկացությունների միջև հարաբերություններ։

Գիտելիքի ներկայացումը[75] և գիտելիքի մշակումը[76] արհեստական ինտելեկտի դասական հետազոտության մեջ կենտրոնական տեղ են գրավում։ Որոշ "էքսպերտ համակարգեր" փորձում են որոշ նեղ տիրույթի վերաբերող մասնագետների հստակ գիտելիքները մեկտեղել։ Բացի այդ որոշ նախագծեր փորձում են միջին մարդուն հայտնի "ողջամիտ գիտելիքները" հավաքել աշխարհին վերաբերող ընդհանուր գիտելիքների տվյալների բազայում։ Ողջամիտ գիտելիքների բազայում տեղ կգտնեն օբյեկտները, հատկությունները, կատեգորիաները և օբյեկտների միջև հարաբերությունները[77], իրադրությունները, միջոցառումները, իրավիճակները և ժամանակը[78], պատճառները և հետևանքները[79], գիտելիք գիտելիքի մասին (ինչ մենք գիտենք այն մասին, թե ինչ այլ մարդիկ գիտեն)[80] և շատ այլ քիչ հետազոտված բնագավառներ։ Ներկայացումը, թե "Ինչ գոյություն ունի" համակարգչային օնտոլոգիա է՝ օբյեկտների, հարաբերությունների, գաղափարների և հատկությունների ֆորմալ նկարագրություն, որ ծրագրային ագենտները դրանք կարող են մեկնաբանել։ Այս բոլորի սեմանտիկան ամրագրվում է որպես հասկացությունների, դերերի և անհատների նկարագրողական տրամաբանություն, և սովորաբար Վեբ Անթոլոգիական լեզվով իրականացվում են որպես դասեր, հատկություններ և անհատներ[81]։ Ամենաընդհանուր անթոլոգիաները վերին անթոլոգիաներն են, որոնք փորձում են ողջ գիտելիքի հիմք ապահովել[82]` դառնալով միջնորդ տիրույթային անթոլոգիաների միջև, որոնք ներառում են որոշակի գիտելիքների տիրույթների մասին կոնկրետ գիտելիքներ։ Գիտելիքի այսպիսի ֆորմալ ներկայացումը կարող է օգտագործվել բովանդակության վրա հիմնված ինդեքսավորման և որոնման մեջ[83], պատահարի նկարագրության[84], կլինիկական որոշումների աջակցման[85], գիտելիքի հայտնաբերման մեջ ("հետաքրքիր" և գործուն եզրակացություններ տվյալների մեծ բազաներից փնտրելիս)[86], և այլ բնագավառներում[87]։

Գիտելիքի ներկայացման ամենադժվար խնդիրներից են․

Հիմնական պատճառաբանությունը և դասակարգման խնդիրը։

Շատ բաներ, ինչ մարդիկ գիտեն, "աշխատանքային ենթադրությունների" տեսք են ստանում։ Օրինակ, երբ խոսակցության մեջ թռչուն է հիշատակվում, մարդիկ, սովորաբար պատկերացնում են բռունցքի չափ ունեցող կենդանի, որ երգում է և թռչում։ Սրանցից ոչինչ ճիշտ չէ բոլոր թռչունների համար։ Ջոն Մակկարտին այս խնդիրը ներկայացրեց 1969 թվականին[88] որպես դասակարգման խնդիր․ կամայական ողջամիտ կանոնի համար, որ արհեստական ինտելեկտի հետազոտողները պետք է ներկայացնեն, գոյություն ունեն բազում բացառություններ։ Գրեթե ոչինչ բացարձակ ճիշտ կամ սխալ չկա, ինչ աբստրակտ տրամաբանությունն է պահանջում։ Արհեստական ինտելեկտի հետազոտողները այս խնդրի բազմաթիվ լուծումներ են ուսումնասիրել[89]։

Ողջամիտ գիտելիքի լայնությունը։ Փաստերը, որ միջին մարդը գիտի, մեծաքանակ են։ Հետազոտական նախագծերը, որոնք փորձում են ողջամիտ գիտելիքի ամբողջական տվյալների բազա ստեղծել, պահանջում են հսկայական ծավալի անթոլոգիական պրոյեկտման աշխատանքներ, որոնք պետք է արվեն ձեռքով՝ մեկ բարդ հասկացություն մեկ մոտեցմամբ[90]։
Ողջամիտ գիտելիքի սիմվոլիկ տեսքը։ Շատ բաներ, որ մարդիկ գիտեն, չեն ներկայացված "փաստերի" կամ "պնդումների" ձևով, որ նրանք կարողանային բանավոր ներկայացնել։ Օրինակ, շախմատիստը կարող է խուսափել կոնկրետ շախմատային դիրքից, որովհետև այն "շատ բացահայտ է"[91] կամ արվեստի քննադատը առաջին հայացքից կարող է հասկանալ, որ քանդակը կեղծ է։[92] Սրանք անգիտակցական և ենթասիմվոլիկ ինտուիցիաներ կամ միտումներ են մարդու ուղեղում[93]։ Այսպիսի գիտելիքը տեղեկացնում է, աջակցում և ապահովում է սիմվոլիկ գիտակցված գիտելիքի միջավայր։ Ինչպես կապակցված ենթասիմվոլային հիմնավորման խնդրի դեպքում, հույս կա, որ իրադրության արհեստական ինտելեկտը, հաշվարկային արհեստական ինտելեկտը կամ վիճակագրական արհեստական ինտելեկտը կարող են ապահովել ներկայացնելու այս կարգի գիտելիք[93]։

Պլանավորում խմբագրել

Խելացի ագենտները պետք է կարողանան նպատակներ դնել և դրանց հասնել[94]։ Դրանք պետք է աշխարհի դրության ապագայի ներկայացման եղանակներ ունենան և ի վիճակի լինեն կանխագուշակումներ անել, թե ինչպես իրենց գործողությունները կփոխեն դա և եղած տարբերակներից ընտրել առավելագույն օգտակարը[95]։

Դասական պլանավորման համակարգերում, ագենտը կարող է ենթադրել, որ աշխարհում միակ գործող համակարգն է, ագենտին հնարավորություն տալով վստահ լինել իր գործողությունների հետևանքների մեջ[96]։ Այնուամենայնիվ, եթե ագենտը միակ դերակատարը չէ, ապա պահանջվում է, որ ագենտը կարողանա գործել անորոշության պայմաններում։ Այսինքն ագենտը պետք է կարողանա ոչ միայն գնահատել միջավայրը և կանխատեսումներ անել, այլ նաև գնահատել իր կանխատեսումները և դրանց հիման վրա ադապտացվել[97]։

Բազմա-ագենտ պլանավորումը տրված նպատակին հասնելու համար օգտագործում է բազմաթիվ ագենտների համագործակցությունն ու մրցակցությունը։ Այսպիսի վարքագիծն օգտագործվում է էվոլյուցիոն ալգորիթմների և ամբոխային մտածողության կողմից[98]։

Ուսուցում խմբագրել

Մեքենայական ուսուցումը արհեստական ինտելեկտի ստեղծումից ի վեր դրա հիմնարար հետազոտությունների հայեցակարգն է[99], այն համակարգչային ալգորիթմների ուսումնասիրությունն է, որը փորձերի շնորհիվ ավտոմատ բարելավվում է[100][101]։

Չվերահսկվող ուսուցումը դա մուտքային հոսքում շաբլոններ գտնելու ունակությունն է։ Վերահսկվող ուսուցումը ներառում է թե դասակարգումը, թե թվային ռեգրեսիան։ Դասակարգումն օգտագործվում է որոշելու, թե առարկան ինչ կատեգորիայի է պատկանում մի քանի կատեգորիայի մի շարք օրինակներ դիտարկելուց հետո։ Ռեգրեսիան փորձ է ստեղծել ֆունկցիա, որն արտահայտում է մուտքի և ելքի միջև հարաբերությունը և կանխատեսում, թե ինչպես ելքային տվյալները կփոխվեն մուտքային տվյալների փոփոխմանը զուգահեռ[101] Դասակարգողները և ռեգրեսիոն սովորողները, երկուսն էլ կարող են դիտարկվել որպես "ֆունկցիայի մոտարկողներ", որ փորձում են սովորել անհայտ (հնարավոր է անուղղակի) ֆունկցիա, օրինակ, սպամ դասակարգիչը կարող է դիտարկվել որպես ֆունկցիայի ուսումնասիրություն, որը էլեկտրոնային նամակի տեքստը արտապատկերում է երկու կատեգորիաներից մեկին, "սպամ" կամ "ոչ սպամ"։ Հաշվողական ուսուցման տեսությունը կարող է գնահատել սովորողներին հաշվողական բարդությամբ, նմուշի բարդությամբ (որքան տվյալ է պահանջվում), կամ օպտիմիզացիոն տեսության այլ հասկացություններով[102]։ Ուժեղացված ուսուցման դեպքում[103] գործակալը լավ պատասխանների դեպքում պարգևատրում է, իսկ վատերի դեպքում պատժում։ Իր խնդրահարույց տարածքում գործող ռազմավարություն ձևավորելու համար գործակալն օգտագործում է պարգևների և պատժամիջոցների հաջորդականություն։

Բնական լեզվի վերամշակումը խմբագրել

 
Սինտաքսիս վերլուծության ծառը ներկայացնում է լեզվի քերականությանը համապատասխան նախադասության սինտաքսիս կառուցվածքը։

Բնական լեզվի վերամշակումը[104] մեքենային տալիս է մարդկային լեզուն կարդալու և հասկանալու ունակություն։ Բնական լեզվի բավականաչափ հզոր համակարգը թույլ կտա օգտագործել բնական լեզու-օգտվող ինտերֆեյսը և ուղղակիորեն գիտելիք քաղել անմիջականորեն մարդկանց կողմից ստեղծված աղբյուրներից։ Բնական լեզվի մշակման որոշ պարզ տարբերակներ ներառում են տեքստի որոնում, տեղեկատվության վերլուծություն, հարցերի պատասխանում[105] և մեքենայական թարգմանություն[106] Ժամանակակից շատ մոտեցումներ տեքստի սինտաքսիս ներկայացումը կառուցելու համար օգտագործում են բառի համընկնման հաճախականությունը։ "Բանալի խոսքերի որոնման" ռազմավարությունը ընդունված է և լայնածավալ, սակայն երբեմն անիմաստ, օրինակ "շուն" բառը փնտրելիս, կարող է բաց թողնվել "պուդել" բառը պարունակող փաստաթղթերը։ "Լեքսիկալ նմանության" ռազմավարություններն օգտագործում են այնպիսի բառեր, ինչպիսին "վթարն" է գնահատելու նյութի զգացմունքայնությունը։ Ժամանակակից վիճակագրական մոտեցումները կարող են միավորել ինչպես այս բոլոր ռազմավարությունները, այնպես էլ այլք և հաճախ հասնում են ընդունելի ճշգրության էջի կամ պարբերության մակարդակով, սակայն առանձին նախադասությունների դասակարգման տեսակետից մնում են սեմանտիկորեն անհասկանալի։ Բացի ողջամիտ գիտելիքի վերծանման սովորական բարդությունները, բնական լեզվի մշակման գոյություն ունեցող համակարգերը շատ թույլ են գործարար ծրագրերում կենսունակ դարձնելու համար։ Բացի բնական լեզվի սեմանտիկ մշակման վերջնական նպատակն է ողջամիտ գիտելիքի լիակատար ըմբռնումը[107]։

Ընկալում խմբագրել

 
Հատկությունների հայտնաբերում (պատկերված եզրույթի հայտնաբերումը օգնում է Արհեստական ինտելեկտ համակարգին չմշակված տվյալների հիման վրա կազմել ինֆորմատիվ աբստրակտ կառուցվածքներ։

Մեքենայական ընկալումը[108] հնարավորություն է սենսորներից եկող ազդանշաններն օգտագործել (ինչպիսիք են տեսախցիկները (տեսանելի սպեկտր կամ ինֆրակարմիր), միկրոֆոնները, անլար ազդանշանները և ակտիվ լիդարները, ռադարը և շոշափող սենսորները) աշխարհի ասպեկտները հասկանալու համար։ Կիրառումները ներառում են խոսքի ճանաչումը[109], դեմքի ճանաչումը և օբյեկտի ճանաչումը[110]։ Համակարգչային տեսողությունը տեսողական մուտքը վերլուծելու ունակությունն է։ Այսպիսի ներդրումը սովորաբար երկիմաստ է․ հսկա, հիսուն մետր հասակ ունեցող հետիոտնը հեռվից կարող է նույն պիքսելներն արձակել, որքան սովորական չափսերի մերձակայքում գտնվող հետիոտնը։ Արհեստական ինտելեկտի համակարգից պահանջել կարծիք հայտնել տարբեր մեկնաբանությունների հարաբերական ճշմարտանմանության և հիմնավորվածության վերաբերյալ, ելնելով օրինակ "սկզբնական մոդելից" գնահատել, որ հիսուն մետրանոց հետիոտն գոյություն չունի[111]։ համակարգչային տեսողության խնդիրները ներառում են պատկերի ստացումը, մշակումը, վերլուծությունը և թվային պատկերների յուրացումը և իրական աշխարհից բազմաչափ տվյալների ձեռքբերումը, լուծումների տեսքով թվային կամ սիմվոլիկ ինֆորմացիա ստանալու համար։

Շարժում և մանիպուլացիա խմբագրել

Արհեստական ինտելեկտը մեծապես օգտագործվում է ռոբոտների մեջ[112] Բարձրակարգ ռոբոտային բազուկները և այլ արդյունաբերական ռոբոտները լայնորեն օգտագործվում են ժամանակակից գործարաններում, փորձից կարող են սովորել ինչպես արդյունավետ շարժվել, չնայած շփման և տեղափոխման սահունության առկայությանը[113]։ Ժամանակակից շարժվող ռոբոտը, երբ տրված է փոքր, հաստատուն և տեսանելի միջավայր, կարող է որոշել իր գտնվելու վայրը և քարտեզագրել այն, այնուամենայնիվ դինամիկ միջավայրերը, ինչպես (էնդոսկոպիայում) հիվանդի շնչառական օրգանի ներսում, ավելի մեծ մարտահրավեր է առաջացնում։ Շարժման պլանավորումը դա շարժման առաջադրանքը "պրիմիտիվների" շարժումների տրոհելու պրոցես է, ինչպիսիք են անհատական համատեղ շարժումները։ Այսպիսի շարժումը հաճախ ներառում է համատեղ գործողություն, երբ շարժումը պահանջում է օբյեկտի հետ ֆիզիկական շփման մեջ մնալ:[114][115][116]։ Մորավեկի պարադոքսը ընդգծում է, որ ցածր մակարդակի սենսորային շարժման հմտությունները, որոնք մարդիկ ընդունում են որպես ինքնին հասկանալի, դժվար է ծրագրավորել ռոբոտում։ Պարադոքսը Հանս Մորավեկի անունն է կրում, ով 1988 թվականին հայտարարեց, որ "համեմատաբար հեշտ է համակարգչին հրահանգել ցուցադրել լավ արդյունքներ չափահասին հատուկ ինտելեկտուալ կամ շաշկու խաղում, և դժվար կամ անհնար է դրանց տալ մեկ տարեկանի հմտություններ, որ գալիս են ընկալումից և շարժունակությունից"[117][118]։ Սա բացատրվում է նրանով, որ ի տարբերություն շաշկու, ֆիզիկական ճարտարությունը բնական ընտրության ուղիղ թիրախն է եղել միլիոնավոր տարիներ[119]։

Սոցիալական ինտելեկտ խմբագրել

 
[Քիսմեթ ռոբոտ, սաղմնային սոցիալական ունակություններով (ռոբոտ)[120]

Մորավեկի պարադոքսը կարող է ընդլայնվել սոցիալական ինտելեկտի բազմաթիվ ձևերի վրա[121][122]։ Բազմաթիվ գործակալների միջև բաշխված ինքնավար տրանսպորտային միջոցների կոորդինացումը մնում է բարդ պրոբլեմ[123]։ Հուզական հաշվարկները միջճյուղային հովանոց է, որ ներառում է համակարգեր, որոնք ճանաչում, մեկնաբանում, մշակում է մարդկային զգացմունքները։[124][125][126] Հուզական հաշվարկների չափավոր հաջողությունները, ներառյալ տեքստային տրամադրության վերլուծությունները և վերջերս մուլտիմոդալ հուզական վերլուծությունները, որտեղ արհեստական ինտելեկտը դասակարգում է տեսագրված թեմայով դրսևորվող ազդեցությունները[127]։

Երկարաժամկետ հեռանկարում սոցիալական հմտությունները և մարդկային զգացմունքները հասկանալը և խաղերի տեսությունը արժեքավոր կլինի սոցիալական ագենտի համար։ Մարդկանց գործողությունների շարժառիթները և հուզական վիճակները հասկանալու միջոցով նրանց գործողությունները կանխատեսելու կարողությունն ագենտին հնարավորություն կտա ավելի լավ որոշումներ ընդունել։ Որոշ համակարգեր նմանակում են մարդկային զգացմունքները և արտահայտությունները մարդկային փոխհարաբերության զգացմունքային դինամիկայում ավելի զգայուն երևալու համար, այլ կերպ նպաստելու մարդ համակարգիչ փոխազդեցությանը[128] Նման կերպ որոշ վիրտուալ օգնականներ ծրագրավորված են զրույց վարել և նույնիսկ կատակել, սա նաիվ օգտվողների մոտ ոչ իրատեսական տպավորություն է ստեղծում, թե որքան ինտելեկտուալ են գոյություն ունեցող համակարգչային ագենտները[129]։

Ընդհանուր ինտելեկտ խմբագրել

Պատմականորեն այնպիսի նախագծերը, ինչպիսիք են Cyc գիտելիքների բազան (1984–) և զանգվածային ճապոնական հինգերորդ սերնդի համակարգիչ նախաձեռնությունը (1982–1992) փորձեց ընդգրկել մարդկային գիտելիքի ողջ բազմազանությունը։ Այս վաղ նախագծերը չկարողացան խուսափել ոչ-քանակական սիմվոլիկ տրամաբանության մոդելների սահմանափակումներից և հետադարձ հայացքից մեծապես թերագնահատվեց արհեստական ինտելեկտի միջտիրույթային դժվարությունը։ Ներկայումս ժամանակակից արհեստական ինտելեկտի հետազոտողները փոխարենը մեծ մասամբ աշխատում են հեշտ մշակվող "նեղ արհեստական ինտելեկտի" կիրառությունների վրա (ինչպիսիք բժշկական ախտորոշումը և ավտոմոբիլային նավիգացիան են)[130]։ Շատ հետազոտողներ կանխատեսում են, որ տարբեր տիրույթներում "նեղ արհեստական ինտելեկտի" աշխատանքները ի վերջո կներառվեն արհեստական ընդհանուր ինտելեկտով մեքենայի մեջ (AGI), միավորելով այս հոդված բերված նեղ հմտությունները և ինչ որ տեսակետից նույնիսկ կգերազանցեն մարդկային կարողությունները այս բնագավառներից մեծ մասում[16][131]։ Շատ հաջողություններ ունեն ընդհանուր միջտիրույթային նշանակություն։ Մեկ բարձր մակարդակի օրինակ է, որ DeepMind-ը 2010 թվականին մշակեց "ընդհանրացված արհեստական ինտելեկտ", որն ինքնուրույն կարող է սովորել շատ բազմազան Atari խաղեր և հետագայում մշակեց համակարգի տարբերակ, որը հաջողում է հաջորդական ուսուցման պրոբլեմը[132][133][134]։ Բացի ուսուցման փոխանցումից[135] վարկածային ընդհանուր արհեստական ինտելեկտի առաջխաղացումը կարող է ներառել ռեֆլեկտիվ կառուցվածքի զարգացումը, որը կարող է մասնակցել տեսական որոշումների ընդունման մեջ և պարզել, թե ինչպես "անջատել" համապարփակ գիտելիքների բազան կառուցվածք չունեցող համաշխարհային սարդոստայնից։[4] Ոմանք պնդում են, որ ինչ որ (դեռևս չբացահայտված) կոնցեպտուալ պարզ, բայց մաթեմատիկորեն բարդ "Վարպետ Ալգորիթմ" կարող է տանել արհեստական ընդհանուր ինտելեկտի։[136] Ի վերջո մի քանի "երևացող" մոտեցումներ դիտարկվում են մարդկային ինտելեկտին ակնհայտ մոտ և համարում են, որ անտրոմորֆիկ հատկությունները, ինչպիսին արհեստական ուղեղն է կամ զարգացումը խթանող ռոբոտը, մի օր կարող են հասնել կրիտիկական կետի, երբ ընդհանուր ինտելեկտ կառաջանա[137][138]։

Այս հոդվածի շատ խնդիրներ նույնպես կարող են ընդհանուր ինտելեկտ պահանջել, եթե մեքենաները խնդիրները լուծեն այնպես, ինչպես մարդիկ են անում։ Օրինակ, նույնիսկ կոնկրետ պարզ խնդիրները, ինչպիսին մեքենայական թարգմանությունն է, պահանջում է, որ մեքենան գրի և կարդա երկու լեզուներով էլ, հետևի հեղինակի փաստարկներին, իմանա ինչի մասին է խոսվում և հավաստի վերարտադրի հեղինակի նախնական մտադրությունները։ Մեքենայական թարգմանության խնդիրը դիտարկվում է որպես արհեստական ինտելեկտի ամբողջական խնդիր, քանի որ բոլոր այս խնդիրները միաժամանակ պետք է լուծվեն, որպեսզի մեքենայական կատարումը մարդու թարգմանության մակարդակին հասնի։

Մոտեցումներ խմբագրել

Արհեստական ինտելեկտի հետազոտությունները առաջնորդող միավորող տեսություն կամ պարադիգմ գոյություն չունի։ Բազմաթիվ խնդիրների վերաբերյալ հետազոտողներն անհամաձայնություններ ունեն[139]։ Երկար ժամանակ մի քանի հարց անպատասխան մնացած հարցերից են․ արհեստական ինտելեկտը արդյոք պետք է նմանակի բնական ինտելեկտին` ուսումնասիրելով հոգեբանությունը կամ նեյրոգիտությունը։ Կամ մարդու բիոլոգիայի հետ կապը նույքան անհեթեթ է, որքան թռչնի բիոլոգիայինը աերոնավիգացիոն տեխնիկայի հետ[13]։ Կարող է ինտելեկտուալ վարքագիծը նկարագրել պարզ, էլեգանտ սկզբունքներով, ինչպիսին տրամաբանությունն է կամ օպտիմիզացիոն մաթեմատիկան։ Կամ դա անհրաժեշտաբար պահանջում է լուծել մեծ թվով բոլորովին կապ չունեցող պրոբլեմներ[14]։

Կիբեռնետիկա և ուղեղի մոդելավորում խմբագրել

1940-ականներին և 1950-ականներին մի շարք հետազոտողներ ուսումնասիրել են նեյրոկենսաբանության, ինֆորմացիոն տեսության և կիբեռնետիկայի միջև կապը։ Նրանցից ոմանք էլեկտրոնային ցանցեր օգտագործող տարրական ինտելեկտ ունեցող մեքենաներ են ստեղծել։ Այդ հետազոտողներից շատերը հավաքվել էին Անգլիայի Փրինսթոնի համալսարանում և Ռատիո ակումբում հեռահաղորդակցության հանրության ժողովին[140]։ 1960 թվականին այս մոտեցումը չի օգտագործվել, չնայած 1980-ականներին դրա տարրերը վերականգնվեցին։

Սիմվոլիկ խմբագրել

Երբ 1950-ականների կեսերին հասանելի դարձան թվային համակարգիչները, արհեստական բանականության հետազոտողները սկսեցին պարզել, որ մարդկային բանականությունը կարելի է արտահայտել սիմվոլների մանիպուլյացիայով։ Հետազոտությունը կենտրոնացել էր երեք ինստիտուտներում․ Կարնեգի Մելոն համալսարան, Ստենֆորդի համալսարան և Մասաչուսեթսի Տեխնոլոգիական ինստիտուտ, և ինչպես նկարագրված է վերևում, յուրաքանչյուրը զարգացրել էր հետազոտության իր յուրահատուկ ձևը[141] 1960-ականներին սիմվոլիկ մոտեցումները մեծ հաջողություն ունեցան, փոքր ցուցադրական ծրագրերում բարձր մակարդակի մտածողություն նմանակելում։ Կիբեռնետիկական կամ արհեստական նեյրոնային ցանցային մոտեցումները հետին պլան մղվեցին[142]։ 1960-ականների և 1970-ականների հետազոտողները համոզվեցին, որ սիմվոլիկ մոտեցումները ի վերջո կհաջողեն ստեղծել ընդհանուր արհեստական ինտելեկտով մեքենա և դա դիտարկում էին որպես իրենց ոլորտի նպատակ։

Ճանաչողական մոդելավորում խմբագրել

Տնտեսագետ Հերբերտ Սայմոնը և Ալեն Նյուելը ուսումնասիրել են մարդու խնդիրներ լուծելու հմտությունները և փորձել են դրանք ֆորմալիզացնել և նրանց աշխատանքը հիմք դրեց արհեստական ինտելեկտի, ինչպես նաև կոգնիտիվ գիտության, գործողությունների հետազոտման և կառավարման գիտության ոլորտում։ Նրանց հետազոտական խումբը հոգեբանական էքսպերիմենտների արդյունքներն օգտագործում էր զարգացնելու ծրագրեր, որ նմանակում են մեթոդներին, որոնք մարդիկ օգտագործում են խնդիրներ լուծելիս։ Կարնեգի Մելոն համալսարանում հիմնված այս ավանդույթը 1980 թվականի կեսերին, ի վերջո հանգեցրեց Soar կոգնիտիվ ճարտարապետության մշակմանը[143][144]։

Տրամաբանության վրա հիմնված խմբագրել

Ի տարբերություն Սայմոնի և Նյուելի, Ջոն Մակկարտնին համարում էր, որ մեքենան չպետք է մոդելավորի մարդկանց մտքերը, այլ փոխարենը պետք է փորձի գտնել աբստրակտ հիմնավորման և խնդրի լուծման գոյությունը, անկախ մարդն այդ նույն ալգորիթմն է օգտագործում[13]։ Սթենֆորդի համալսարանի նրա լաբորատորիան մտադրված էր օգտագործել ֆորմալ տրամաբանությունը տարբեր խնդիրներ լուծելու համար, ներառյալ գիտելիքի ներկայացում, ավտոմատացված պլանավորում և մեքենայական ուսուցում[145]։ Տրամաբանությունը նաև Էդինբուրգի համալսարանի ուշադրության կենտրոնում էր, Եվրոպայի այլ երկրներում, ինչը հանգեցրեց Prolog ծրագրավորման լեզվի մշակմանը և տրամաբանական ծրագրավորում գիտության զարգացմանը[146]։

Հակատրամաբանական կամ խառնաշփոթ խմբագրել

MIT հետազոտողները, (ինչպիսիք են Մարվին Մինսկին և Սեյմուր Փեյփերթը)[147] գտել են, որ բարդ խնդիրներ լուծելիս, ինչպիսիք համակարգչային տեսողությունն ու բնական լեզվի մշակումը, պահանջում են հրատապ լուծումներ. նրանք վիճում էին, որ չկա պարզ և ընդհանուր սկզբունք (տրամաբանության նման), որը կընդգրկի ինտիլիգենտ վարքի բոլոր ասպեկտները։ Ռոջեր Շրանկը իրենց "հակատրամաբանական" մոտեցումը նկարագրում է որպես "խառնաշփոթ"[14]։ Ողջամիտ գիտելիքների բազան արհեստական ինտելեկտի "խառնաշփոթի" օրինակ է, քանի որ դրանք ստեղծվում են ձեռքով, մեկ բարդ հասկացություն մեկ անգամ[148]։

Գիտելիքի վրա հիմված խմբագրել

Երբ 1970-ականներին մեծ հիշողությամբ համակարգիչները դարձան հասանելի, բոլոր երեք ուղղությունների հետազոտողները սկսեցին կառուցել գիտելիքի վրա հիմնված արհեստական ինտելեկտի կիրառություններ[149] Այս «գիտելիքի հեզափոխությունը» հանգեցրեց էքսպերտ համակարգերի մշակմանն ու տեղայնացմանը (առաջարկված Էդվարդ Ֆեյենբաումի կողմից), արհեստական ինտելեկտի առաջին իրոք հաջող ծրագրային ապահովումը[34]։ Բոլոր էքսպերտ համակարգերի կառուցվածքի հիմնական բաղադրիչը գիտելիքների բազան է, որը պարունակում է արհեստական ինտելեկտը ներկայացնող փաստեր և կանոններ[150]։ Գիտելիքի հեղափոխությունը պայմանավորված էր նաև այն գիտակցությամբ, որ արհեստական ինտելեկտի բազում պարզ կիրառություններ կպահանջեն գիտելիքի հսկայական ծավալներ։

Ենթասիմվոլիկ խմբագրել

1980-ականներին կարծես թե սիմվոլիկ արհեստական ինտելեկտի առաջընթացը կանգ առավ, և շատերը կարծում էին, որ սիմվոլիկ համակարգերը երբեք ի վիճակի չեն լինելու նմանակել մարդկային մտածողության ողջ ընթացքը, հատկապես մեքենայական ընկալումը, ռոբոտները, մեքենայական ուսուցումը և պատկերների ճանաչումը։ Մի շարք հետազոտողներ սկսեցին արհեստական ինտելեկտի կոնկրետ խնդիրների համար դիտարկել "ենթասիմվոլիկ" մոտեցումները[15]։ Ենթասիմվոլիկ մոտեցումները կարողանում են մոտենալ ինտելեկտին առանց գիտելիքի կոնկրետ ներկայացման։

Ներկառուցված ինտելեկտ խմբագրել

Սա ընդգրկում է ներկառուցված, տեղայնացված, վարքագծի վրա հիմնված և նորագույն արհեստական ինտելեկտը։ Ռոբոտների հարակից դաշտի հետազոտողները մերժեցին սիմվոլիկ արհեստական ինտելեկտը և կենտրոնացան հիմնական տեխնիկական խնդիրների վրա, որոնք ռոբոտներին թույլ կտան շարժվել և գոյատևել[151]։ Նրանց աշխատանքը վերակենդանացրեց վաղ 1950-ականների կիբեռնետիկ հետազոտողների ոչ սիմվոլիկ տեսակետը և նորից մտցրեց կառավարման տեսության օգտագործումը արհեստական ինտելեկտում։ Սա համընկավ կոգնիտիվ գիտությանը հարակից ներառական մտքի թեզիսի զարգացման հետ․ այն գաղափարը, որ բարձր ինտելեկտի համար պահանջվում են մարմնի տարբեր ասպեկտներ (ինչպես շարժումը, ընկալումը և արտացոլումը)։

Զարգացնող ռոբոտների շրջանակներում զարգացնող ուսուցման մոտեցումներ են մշակվում, որոնք ռոբոտներին հնարավորություն են տալիս կուտակել նոր հմտությունների դիրեկտորիաներ, անկախ ինքնագնահատման, իրական ուսուցիչների հետ սոցիալական փոխազդեցության և առաջնորդող մեխանիզմների կիրառման միջոցով (ակտիվ ուսուցում, հասունացում, սիներգիա, և այլն).[152][153][154][155]

Հաշվողական ինտելեկտ և ծրագրային հաշիվ խմբագրել

Արհեստական նեյրոնային ցանցերի և "կապակցվածության" հանդեպ հետաքրքրությունը վերականգնվեց Դեվիդ Ռումելհարթի և այլոց օգնությամբ 1980-ականների կեսերին[156]։ Արհեստական նեյրոնային ցանցերը ծրագրածին հաշվի օրինակ են, դրանք այն խնդիրների լուծումներն են, որոնք չեն կարող լուծվել լիարժեք տրամաբանական որոշակիությամբ և որտեղ մոտավոր լուծումը հաճախ բավարար է։ Արհեստական ինտելեկտի այլ ծրագրային մոտեցումներ ներառում են անորոշ համակարգեր, էվոլյուցիոն հաշվարկ և շատ վիճակագրական գործիքներ։ Ծրագրային հաշվի կիրառումը արհեստական ինտելեկտի համակարգերում ուսումնասիրվում է հաշվարկային ինտելեկտ գիտական ուղղության կողմից[157]։

Վիճակագրական ուսուցում խմբագրել

Շատ ավանդական արհեստական ինտելեկտ GOFAI համակարգեր մնացին հատուկ կտորներում, սիմվոլիկ հաշիվը, որ աշխատում էր իրենց սեփական խաղալիք մոդելի վրա, ձախողում էր իրական ընդհանրացված տարբերակում։ Այնուամենայնիվ 1990-ականներին արհեստական ինտելեկտի հետազոտողները կիրառեցին բարդ մաթեմատիկական գործիքներ, այնպիսիք, ինչպիսին AI researchers adopted sophisticated mathematical tools, such as Մարկովի թաքնված մոդելը (HMM), ինֆորմացիոն տեսություն, և Բայեսիան նորմատիվ որոշումների տեսություն համեմատելու կամ միավորելու մրցակցող կառուցվածքները։ ընդհանուր մաթեմատիկական լեզուն բարձրակարգ համագործակցության հնարավորություն տվեց ավելի կայացած բնագավառների հետ (ինչպես մաթեմատիկան, տնտեսագիտությունը կամ գործողությունների հետազոտությունը[Ն 4] Compared with GOFAI-ի հետ համեմատած, նոր "վիճագրական ուսուցման" միջոցները, ինչպիսին HMM և նեյրոնային ցանցերն են, շատ պրակտիկ տիրույթներում, ինչպիսին տվյալների որսն է ավելի բարձր ճշգրտության են հասնում, առանց տվյալների բազմության սեմանտիկ հասկացվածության անհրաժեշտության։ Իրական տվյալներով հաջողությունների աճը բերեց տարբեր մոտեցումների համեմատության նկատմամբ ուշադրության աճին՝ համեմատելու թե առաջարկված յուրահատուկ խաղալիք մոդելներից ո՞ր մոտեցումն է լավագույնը ներկայացվում ավելի լայն կոնտեաստում։ Արհեստական ինտելեկտի հետազոտությունները դառնում էին ավելի գիտական։ Ներկայումս փորձերի արդյունքները հաճախ ճշգրիտ չափելի են և երբեմն (դժվարությամբ) վերարտադրելի[35][158]։ Տարբեր վիճակագրական ուսուցման միեթոդներ տարբեր սահմանափակումներ ունեն, օրինակ, հիմնական HMM-ն չի կարող մոդելավորել բնական լեզվի անվերջ հնարավոր կոմբինացիաները։[159] Քննադատները նշում են, որ ավանդական GOFAI-ից շեղվելը դեպի վիճակագրական ուսուցում, հաճախ նաև հեռանալ է բացատրելի արհեստական ինտելեկտից։ Արհեստական ընդհանուր ինտելեկտի հետազոտության մեջ, որոշ գիտնականներ զգուշացնում են վիճակագրական ուսուցումից չափազանց մեծ կախվածությունից, և պնդում, որ GOFAI-ի շարունակական հետազոտությունը դեռևս անհրաժեշտ կլինի ընդհանուր ինտելեկտի հասնելու համար։[160][161]

Մոտեցումների ինտեգրում խմբագրել

Ինտելեկտուալ ագենտի պարադիգմ։ Ինտելեկտուալ ագենտը համակարգ է, որը ընկալում է իր շրջապատը և գործողություններ է ձեռնարկում, որոնք առավելագույնի են հասցնում հաջողության հնարավորությունը։ Պարզագույն ինտելեկտուալ ագենտներ են յուրահատուկ խնդիրներ լուծող ծրագրերը։ Ավելի բարդ ագենտները ներառում են մարդկանց և մարդկանց կազմակերպությունները (ինչպես բիզնեսները)։ Պարադիգմը հետազոտողներին թույլ է տալիս ուղղակիորեն համեմատել և նույնիսկ միավորել մեկուսածված խնդիների նկատմամբ տարբեր մոտեցումները, հարցնելով, որ ագենտն է լավագույնը տված "նպատակային ֆունկցիան" առավելագույնին հասցնելու մեջ։ Յուրահատուկ պրոբլեմ լուծող ագենտը կարող է օգտագործել աշխատող ամեն մի մոտեցում՝ որոշ ագենտներ սիմվոլիկ կամ տրամանական, որոշները ենթասիմվոլիկ արհեստական նեյրոնային ցանցեր և մյուսները կարող են օգտագործել նոր մոտեցումներ։ Պարադիգմը նաև հետազոտողներին տալիս է ուրիշ բնագավառների հետ շփվելու ընդհանուր լեզու, ինչպիսին են որոշումների տեսությունը, տնտեսագիտությունը, որոնք նույնպես օգտագործում են աբստրակտ ագենտների հասկացությունը։ Ամբողջական ագենտ կառուցելը հետազոտողից պահանջում է լուծել ինտեգրման իրական խնդիրներ, օրինակ, քանի որ սենսորային համակարգերը շրջակա միջավայրի մասին անորոշ տեղեկատվություն են տալիս, պլանավորման համակարգերը պետք է կարողանան գործել անորոշության մեջ։ Ինտելեկտուալ ագենտ պարադիգմը 1990-ականների ընթացքում լայնորեն ընդունվեց[162]։

Ագենտի կառուցվածք և կոգնիտիվ կառուցվածք։ Հետազաոտողները բազմա-ագենտ համակարգերում փոխգործակցող ինտելեկտուալ ագենտներից ինտելեկտուալ համակարգեր կառուցելու համար համակարգեր են մշակել[163]։ Հիերարխիկ կառավարման համակարգը կամուրջ է ապահովում ենթասիմվոլիկ արհեստական ինտելեկտի, դրա ամենացածր ռեակտիվ մակարդակում և ավանդական սիմվոլիկ արհեստական ինտելեկտի, դրա ամենաբարձր մակարդակում, ազատ ժամանակի սահմանափակումները հնարավորություն են տալիս պլանավորել և մոդելավորել աշխարհը[164]։ Որոշ կոգնիտիվ կառուցվածքներ սովորաբար կառուցված են նեղ խնդիրների լուծման համար, ուրիշները մշակված են մարդու իմացությունը նմանակելու և ընդհանուր պատկերացում կազմելու համար։

Գործիքներ խմբագրել

Արհեստական ինտելեկտը մշակել է մեծ թվով գործիքներ լուծելու ամենաբարդ խնդիրները Ինֆորմատիկայում։ Ստորև բերված են այս մեթոդների ամենատարածվածներից մի քանիսը։

Որոնում և օպտիմիզացիա խմբագրել

Արհեստական ինտելեկտի շատ խնդիրներ կարող են լուծվել տեսականորեն մտածված փնտրելով բազմաթիվ հնարավոր լուծումների մեջ[165]։ [[#Deduction, reasoning, problem solving|Դատողություն անելը, խնդիր լուծելը կարելի է է իրականացնել որոնմամբ։ Օրինակ, տրամաբանական ապացույցը կարելի է դիտարկել որպես ճանապարհի որոնում, որը նախադրյալից տանում է եզրակացության, որտեղ յուրաքանչյուր քայլ հետևության կանոնի կիրառում է[166]։ Ավտոմատ պլանավորման ալգորիթմները փնտրում են նպատակների և ենթանպատակների ծառի միջով, փորձելով գտնել թիրախային նպատակը, պրոցես, որ կոչվում է միջոցների և նպատակների վերլուծություն[167]։ Վերջույթները շարժելու և առարկաները բռնելու ռոբոտատեխնիկայի ալգորիթմներն օգտագործում են տեղային որոմնումները տարածական կոնֆիգուրացիայում[113]։ Բազմաթիվ մեքենայական ուսուցման ալգորիթմներ օգտագործում են օպտիմիզացիայի վրա հիմնված որոնման ալգորիթմներ։

Պարզ սպառիչ որոնումները[168] իրական աշխարհի խնդիրներին հազվադեպ են բավարարում․ որոնվող տարածքների քանակը աճում է աստղաբաշխորեն։ Արդյունքում որոնումը շատ դանդաղ է ընթանում, կամ երբեք չի ամբողջանում։ Շատ խնդիրների համար լուծումը էվրիստիկան կամ փորձերի կանոններն օգտագործելն է, որոնք ընտրում են ըստ առաջնահերթության որոնք հավանաբար նպատակին կհասցնեն և և դա կանեն քիչ քայլերով։ Որոնման որոշ մեթոդոլոգիաներում էվրիստիկան կարող է օգտագործվել բոլոր ընտրվածների համար, որոնք հազիվ թե հասցնեն նպատակին (կոչվում է որոնման ծառի ծառահատում)։ Էվրիստիկան ծրագրին առաջարկում է "լավագույն ենթադրությունը" լուծման տանող ճանապարհի համար[169]։ Էվրիստիկան լուծումների որոնման քանակը նվազեցնում է։[114]

Որոնման շատ տարբեր տեսակներ ի հայտ եկան 1990-ականներին որոնման շատ տարբեր տեսակներ ի հայտ եկան, որոնք հիմնված էին մաթեմատիկական օպտիմիզացիայի հիման վրա։ Շատ խնդիրների համար, հնարավոր է որոնումը սկսել որոշակի գուշակությամբ և այնուհետ աստիճանաբար ճշգրտել, մինչև այլևս ճշգրտելու կարիք չլինի։ Այս ալգորիթմները կարելի է պատկերացնել որպես կուրորեն բլուր բարձրանալ․ որոնումը սկսում ենք լանդշաֆթի պատահական կետից, այնուհետ ցատքերով կամ քայլերով շարունակում ենք բլուրը բարձրանալ մինչև գագաթ հասնելը։ Այլ օպտիմիզացիոն ալգորիթմներ են այրման իմիտացիան, ճառագայթի որոնումը և պատահական օպտիմիզացիան[170]։

 
Գլոբալ մինիմում որոնող մասնիկների խումբ

Էվոլյուցիոն հաշվարկն օգտագործում է օպտիմալ որոնումը։ Օրինակ, այն կարող է սկսել օրգանիզմների պոպուլյացիայով (գուշակություններ) և այնուհետ թույլ տալ նրանց մուտացիայի ենթարկվել և վերամիավորվել, արհեստական ընտրություն միայն յուրաքանչյուր սերնդի ամենահարմարվողները կգոյատևեն (ճշգրտելով գուշակությունները)։ Դասական էվոլյուցիոն ալգորիթմները ներառում են գենետիկ ալգորիթմները և գենետիկ ծրագրավորումը[171] Այլապես որոնման բաշխված պրոցեսները կարող են համակարգվել սվորմ ինտելեկտ ալգորիթմների միջոցով։ Երկու հանրահայտ սվորմ ալգորիթմներ օգտագործվում են որոնման մեջ մասնիկների երամի օպտիմիզացիա (ոգեշնչված թռչունների երամվելով) և մրջյունների գաղութի օպտիմիզացման (օգեշնչված մրջյունների արահետներով)[172][173]։

Տրամաբանություն խմբագրել

Տրամաբանությունն[174] օգտագործվում է գիտելիքի ներկայացման և խնդիրների լուծման համար, սակայն այն կարող է կիրառվել նաև այլ խնդիրների նկատմամբ։ Օրինակ, satplan ալգորիթմը օգտագործում է տրամաբանության ավտոմատ պլանավորման համար[175] և ինդուկտիվ տրամաբանական ծրագրավորման ալգորիթմը մեքենայական ուսուցման ալգորիթմ է[176]։

Տրամաբանության մի քանի տարբեր ձևեր են օգտագործվում Արհեստական ինտելեկտի հետազոտություններում։ Ասույթների տրամաբանությունը[177] ներառում է ճշմարիտ ֆունկցիաներ, ինչպիսիք "կամ"-ը և "ժխտում"-ն են։ Պրեդիկատների տրամաբանությունը[178] ավելացնում է քվանտորներ և պրեդիկատներ և կարող է առարկայի մասին փաստեր ներկայացնել, դրանց հատկությունները և դրանց հարաբերությունները միմյանց հետ։ Կենտ բազմությունների տեսությունը անորոշ արտահայտությունների համար, ինչպիսին, "Ալիսան ծեր է" (կամ հարուստ, կամ բոյով, կամ սոված), որոնք չափից ավելի անորոշ են լիովին ճիշտ կամ սխալ լինելու համար, սահմանում է "ճշմարտության աստիճան" ( 0 և 1-ի միջև)։ Կենտ տրամաբանությունը հաջողությամբ օգտագործվում է կառավարման համակարգերում, որպեսզի էքսպերտներին հնարավորություն տա անորոշ կանոնները, ինչպես "եթե դու մոտ ես նպատակակետին և արագ եք շարժվում, ապա մեծացրեք գնացքի արգելակային տվյալները", այս անորոշ կանոնները այնուհետ կարող են համակարգում քանակապես ճշգրտվել։ Կենտ տրամաբանությունը չի ընդլայնվում գիտելիքների բազայի վրա, շատ Արհեստական ինտելեկտի հետազոտողներ կասկածի տակ են դնում անորոշ տրամաբանական եզրակացությունների հիմնավորումը։ [Ն 5][180][181]}}

Լռելայն տրամաբանությունը, ոչ մոնոտոն տրամաբանությունը և իրավիճակային տրամաբանությունը[89] տրամաբանության ձևեր են, որ մշակվել են օգնելու կանխորոշված հիմնավորումներում և որակավորման խնդիրներում։ Մի քանի ընդլայնումներ մշակվել են ներկայացնելու գիտելիքի յուրահատուկ տիրույթներ, ինչպիսիք են դնսկրիպտիվ տրամաբանությունը[77], Իրավիճակային հաշիվը, պատահարների հաշիվը և սահուն հաշվարկը (պատահարներն ու ժամանակը ներկայացնելու համար)[78] պատճառային հաշվարկը[79], վստահության հաշվարկը[182] 7 մոդալ տրամաբանությունը[80]։

Ընդհանուր առմամբ որակական սիմվոլիկ տրամաբանությունը փխրուն է և աղմուկի առկայության կամ այլ անորոշության դեպքում դժվար է հարմարվում։ Կանոնների բացառությունները բազմաթիվ են, և տրամաբանական համակարգի համար դժվար է գործել իրար հակասող օրենքների առկայության դեպքում։[183][184]

Հավանականության մեթոդներ անորոշ փաստարկների համար խմբագրել

 
Հին հավատարիմ ժայթքման տվյալների ակնկալիք-մաքսիմալիզացիայի կլաստերները սկսվում են պատահական կռահումից, բայց հետո հաջողությամբ համընկնում են ժայթքումի երկու ֆիզիկապես հստակ ռեժիմների ճշգրիտ կլաստերների վրա:

Արհեստական ինտելեկտի շատ խնդիրներ (մտահանգումների, պլանավորման, ուսման, ընկալման և ռոբոտների մեջ) ագենտից պահանջում են գործել ամբողջական կամ անորոշ տեղեկության պայմաններում։ Արհեստական ինտելեկտի հետազոտողները այդ պրոբլեմները լուծելու համար, օգտագործելով հավանականության տեսության և տնտեսագիտության մեթոդները, մշակել են մի շարք հզոր գործիքներ[185]։

Բայեսյան ցանցերը[186] շատ ընդհանուր գործիք են, որ կարող են օգտագործվել խատ մեծ թվով խնդիրների համար․ դատողությունների (օգտագործելով բայեսյան եզրակացության ալգորիթմը)[187], մեքենայական ուսուցումը (օգտագործելով սպասումների մաքսիմալիզացիայի ալգորիթմը),[Ն 6][189] Ավտոմատացված պլանավորումը (օգտագործելով որոշումների ցանցերը)[190] և մեքենայական ակնկալումը (օգտագործելով դինամիկ բայեսյան ցանցերը)[191]։ Հավանականական ալգորիթմները կարող են նաև օգտագործվել տվյալների հոսքերի զտման, կանխատեսման, հարթեցման և բացատրությունների որոնման համար, օգնելով մեքենայական ընկալման համակարգերին վերլուծել ժամանակի ընթացքում տեղի ունեցող պրոցեսները (օրինակ, Մարկովի թաքնված մոդելները կամ Կալմանի ֆիլտրերը)[191]։ Սիմվոլիկ տրամաբանության հետ համեմատած ֆորմալ Բայեսյան եզրակացությունները թանկ հաշվարկվող են։ Որպեսզի եզրակացության հետագծին հնարավոր լինի հետևել, բոլոր դիտարկումները մեկը մյուսից պայմանականորեն պետք է անկախ լինեն։ Բարդ գրաֆները շեղանկյուններով կամ այլ "հանգույցներով" (ուղղություն չունեցող ցիկլեր) կարող են պահանջել փորձարկված մեթոդներ, ինչպիսին Մոնտե Կառլոյի Մարկովի շղթան է, որը Բայեսյան ցանցի միջով ցրում է պատահական թափառաշրջիկների համույթը և փորձում է զուգամիտել պայմանական հավանականությունների վարկանիշային գնահատմանը։ Բայեսյան ցանցերը օգտագործվում են Xbox Live-ում խաղացողների վարկանիշային գնահատման համար, հաղթանակներն ու կորուստները "վկայում են" թե որքան լավն է խաղացողը։ AdSense-ն օգտագործում է Բայեսյան ցանցերը ավելի քան 300 միլիոն եզրերով, հասկանալու որ գովազդը ցույց տա[183]։

Տնտեսագիտության առանցքային հասկացություն է "օգտակարությունը"՝ չափը, թե որքան արժեքավոր է ինչ որ բան ինտելեկտուալ ագենտի համար։ Ճշգրիտ մաթեմատիկական գործիքներ են մշակվել, որոնք վերլուծում են ինպես ագենտը, օգտագործելով որոշումների տեսությունը, որոշումների անալիզը և տեղեկատվական արժեքի տեսությունը, կարող է ընտրություն կատարել և պլանավորել[95][192]։ Այս գործիքներից են Մարկովի որոշումների պրոցեսը[193], դինամիկ որոշումների ցանցերը[191], խաղերի տեսությունը և մեխանիզմի մշակումը[194]։

Դասակարգիչներ և վիճակագրական ուսուցման մեթոդներ խմբագրել

Արհեստական ինտելեկտի պարզագույն կիրառությունները կարող են բաժանվել երկու տիպի․ դասակարգիչներ ("եթե փայլլում է, ապա ադամանդ է") և կարգավորիչներ ("եթե փայլում է, ապա վերցրեք")։ Կարգավորիչներն իրականացնում են, այնուամենայնիվ, մինչև եզրակացություններ անելը․ դասակարգում են պայմանները, հետևաբար դասակարգումը կազմում է բազում ԱԻ համակարգերի կենտրոնական մասը։ Դասակարգիչները, դրանք ֆունկցիաներ են, որոնք նմուշի հետ համեմատելն օգտագործում են ամենահամընկնողը գտնելու համար։ Դրանք կարող են հարմարեցվել ըստ օրինակների, դարձնելով շատ գրավիչ ԱԻ-ում օգտագործման համար։ Այս օրինակները հայտնիեն որպես դիտարկումներ կամ նմուշներ։ Վերահսկվող ուսուցման մեջ յուրաքանչյուր շաբլոն պատկանում է որոշակի նախապես սահմանված դասի։ Դասը կարող է դիտվել որպես որոշում, որը պետք է կայացվի։ Բոլոր դիտարկումները միասին իրենց դասի պիտակների հետ միասին հայտնի են որպես տվյալների բազմություն։ Երբ նոր դիտարկում է ստացվում, այն դասակարգվում է նախկին փորձի հիման վրա[195]։

Դասակարգիչը կարող է վերապատրաստվել տարբեր եղանակներով․ կան բազմաթիվ վիճակագրական և մեքենայական ուսուցման մեթոդներ։ Հավանաբար, որոշումների ծառը[196] ամենատարածված մեքենայական ուսուցման ալգորիթմն է։[197] Այլ լայն տարածում ունեցող դասակարգիչներ են նեյրոնային ցանցերը[198], [[k-ամենամոտ հարևան ալգորիթմը,[Ն 7][200] կեռնելի մեթոդները, ինչպիսիք են աջակցության վեկտորային մեքենան,(SVM),[Ն 8][202] Գաուսյան խառնուրդի մոդելը[203], և չափազանց տարածված նաիվ Բայեսյան դասակարգիչը։[Ն 9][205] Դասակարգչի արդյունավետությունը մեծապես կախված է դասակարգվող տվյալների բնութագրիչներից, այսպես օրինակ, տվյալների բազմության չափը, նմուշների բաշխվածությունը դասերի, ծավալը և աղմուկի մակարդակը։ Մոդելի վրա հիմնված դասակարգիչները լավ են աշխատում, եթե ենթադրվող մոդելը մեծագույնս համապատասխանում է իրական տվյալներին։ Հակառակ դեպքում, եթե համապատասխան մոդել չկա, և եթե ճշգրտությունը միակ խնդիրն է, խելամիտ է համարվում օգտվել տարբերակող դասակարգիչներից, որոնք իրական տվյալների բազմությունների մեծ մասի վրա ավելի ճշգրիտ են, քան մոդելի վրա հիմնված դասակարգիչները, ինչպիսին "նաիվ Բայեսն է" իրական տվյալների բազմությունների մեծ մասի վրա[206]։[207]

Արհեստական նեյրոնային ցանցեր խմբագրել

 
նեյրոնային ցանցը մարդու գլխուղեղում նեյրոնների լայն ցանցին ազգակից հանգույցների փոխկապակցված խումբ է։

Նեյրոնային ցանցերը ստեղծվել են մարդու ուղեղի կառուցվածքով ոգեշնչվելով։ Պարզ "նեյրոնը" N մուտքեր է ընդունում բազմաթիվ այլ նեյրոններից, որոնցից յուրաքանչյուրը N նեյրոնի ակտիվացման (կամ "հեռացման") օգտին կամ դեմ կշռադատված "ձայն" է տալիս։ Ուսումնառությունը պահանջում է ալգորիթմ, որը վերապատրաստման տվյալների հիման վրա կկարգավորի կշիռները։ Մի պարզ ալգորիթմ է՝ Հեբիան ուսուցումը, դա կշռի բարձրացումն է, երբ երկու հարակից նեյրոնների մեկի ակտիվացման դեպքում, ակտիվանում է նաև մյուսը։ Ցանցը ձևավորում է "հասկացություններ" որոնք բաշխված են ընդհանուր նեյրոնների ենթացանցում,[Ն 10] որոնք հակված են միասին գործելուն, "ծունկ" հասկացությունը կարող է միավորվել "ոտք" իմաստ ունեցող ենթացանցին, որը ներառում է "ոտքի" ձայնը։ Նեյրոններն ունեն ակդիվացման շարունակական սպեկտր, բացի այդ նեյրոնները կարող են մուտքային տվյալներ մշակել ոչ գծային եղանակով, այլ ոչ թե համեմատել ուղիղ ձայներով։ Ժամանակակից նեյրոնային ցանցերը կարող են սովորել երկուսն էլ անընդհատ ֆունկցիաները և, ի զարմանս թվային տրամաբանական գործողությունները։ Նեյրոնային ցանցերի վաղ ձեռքբերումները ներառում էին ֆոնդային շուկայի կանխատեսումը և (1995) հիմնականում ինքնակառավարվող ավտոմեքենան։[Ն 11][208] 2010-ականներին, խորը ուսուցումն օգտագործող նեյրոնային ցանցերի ձեռքբերումները Արհեստական ինտելեկտ հասցրին լայն հասարակական գիտակցության և արհեստական ինտելեկտի ոլորտին ուղղված կորպորատիվ ֆինանսավորման հսկայական խթանման, օրինակ ԱԻ-ին ուղղված 2017 թվականի ծախսերը 25 անգամ գերազանցեցին 2015-ի ծախսերին[209][210]։

Ոչ ուսուցման նեյրոնային ցանցերի ուսումնասիրությունը սկսվել է[198] Արհեստական ինտելեկտի ոլորտը հայտնաբերելուց տասնամյակ առաջ Վալտեր Պիտցի և Ուորեն Մաքկալոկի աշխատանքներում։ Ֆրանկ Ռոզենբլատտը հայտագործեց պերսեպտրոնը, մեկ շերտով ուսումնառության ցանցը, նման գծային ռեգրեսիայի հին հասկացությանը։ Վաղ ռահվիրաններից են նաև Ալեքսեյ Գրիգորևիչ Իվախնենկոն, Տեյվո Կոհոնենը, Ստեֆեն Գրոսբերգը, Կունիհիկո Կուկուշիման, Քրիստոֆ վոն դեր Մալսբուրգը, Դավիթ Վիլշոուն, Չան Ինչ Ամարին, Բեռնարդ Վիդրոուն, Ջոն Հոպֆիլդը, Էդուարդո Կայանյելոն և ուրիշներ։

Ուղիղ կապով խոր նեյրոնային ցանցեր խմբագրել

Խորն ուսումնառությունը արհեստական նեյրոնային ցանց է, որը կարող է սովորել պատճառահետևանքային կապերի։երկար շղթա։ Օրինակ, վեց թաքնված շերտերով առաջ տանող ցանցը կարող է սովորել յոթ պատճառահետևանքային կապերով շղթան (վեց թաքնված շերտ և ելքային շերտ) և ունի յոթ խորությամբ վարկային հանձնարարության ուղի "credit assignment path" (CAP)։ Շատ խորն ուսուցման համակարգերը պետք է ի վիճակի լինեն սովորել և ունենալ տաս կամ ավելի երկարությամբ պատճառահետևանքային կապերի շղթա[211] Խորն ուսումնառությունը ձևափոխեց արհեստական ինտելեկտի շատ կարևոր ենթաոլորտներ, ներառյալ համակարգչային տեսողություն, խոսքի ճանաչում, բնական լեզվի մշակում և այլն[211][212][213]։

Համաձայն մի ակնարկի[214], "Խորն ուսուցում" արտահայտությունը ներկայացվել է մեքենայական ուսուցման հանրությանը 1986 թվականին Ռինա Դեխտերի կողմից[215] և թափ է առել 2000 թվականին, Իգոր Այզենբերգի և նրա գործընկերների կողմից այն որպես Արհեստական նեյրոնային ցանցեր առաջարկելուց հետո[216]։ Առաջին ֆունկցիոնալ խորն ուսումնառության ցանցերը հրապարակվել են 1965 թվականին Ալեքսեյ Իվախնենկոյի և Լապայի կողմից[217][Հղում աղբյուրներին] Այս ցանցերը մեկ մոտեցմամբ մեկ մակարդակ են յուրացնում։ Իվախնենկոյի 1971 թվականի հոդվածը[218]։ նկարագրում է ուղիղ կապով, ութ շերտանի խորությամբ ուսումնառության պերսեպտրոն, որը, արդեն իսկ, շատ ավելի խորն էր, քան հետագա շատ ցանցեր։ Ջեֆրի Հինտոնի և Ռուսլան Սալախուդինովի 2006 թվականին հրապարակեցին բազմաշերտ ուղիղ կապով նեյրոնային ցանցերի նախապատրաստման այլ եղանակ։ Այն, մեկ մակարդակ մեկ մոտեցմամբ, յուրաքանչյուր մակարդակը դիտարկում է որպես չվերահսկվող Բոլցմանի սահմանափակ մեքենա, այնուհետ օգտագործելով վերահսկվող հետադարձ տարածումը, լավ կարգավորել։[219] Մակերեսային արհեստական նեյրոնային ցանցերի նման խորը նեյրոնային ցանցերը կարող են մոդելավորել բարդ ոչ գծային հարաբերություններ։ Վերջին տարիների առաջընթացը մեքենայական ուսուցման ալգորիթմներում և համակարգիչների սարքային ապահովման մեջ տարան ավելի արդյունավետ մեթոդների խորը նեյրոնային ցանցերի վերապատրաստման համար, որոնք ներառում են ոչ գծային թաքնված էլեմենտների բազմաթիվ շերտեր և շատ մեծ ելքային շերտ[220]։

Խոր ուսուցումը հաճախ օգտագործում է փաթեթային նեյրոնային ցանցեր, որոնք սկիզբ են առնում 1980 թվականին Ֆուկուշիմայի ստեղծած նեոկոգնիտրոնից[221]։ 1989 թվականին Յան Լեկունը գործընկերների հետ այսպիսի կառուցվածքի նկատմամբ կիրառեց սխալը գտնելու ետ տարածման մեթոդը։ Վաղ 2000-ականներին, CNN-ների արդյունաբերական կիրառումը արդեն իսկ գնահատվում էր ԱՄՆ-ում գրված չեկերի 10% - 20% -ը[222]։ 2011-ից ի վեր, fast implementations of CNN-ների արագ կիրառումները GPU-ների վրա, հաղթեցին վիզուալ շաբլոնի ճանաչման մրցույթներում[211]։

12 փաթեթային շերտերով CNN ցանցերը ամրապնդող ուսուցման հետ օգտագործվում էին Deepmind-ի "AlphaGo Lee" ծրագրում, որը 2016 թվականին հաղթեց Գո խաղի չեմպիոնին[223]։

Խոր պարբերական նեյրոնային ցանցեր խմբագրել

Սկզբում խորն ուսումառությունը կիրառվում էր նաև պարբերական նեյրոնային ցանցերով (RNNs) հաջորդական ուսումնառության նկատմամբ[224], որն ամբողջականացվել է Թյուրինգի տեսությունում[225] և մուտքային տվյալների կամայական հաջորդականության մշակման համար կարող են իրականացնել կամայական ծրագրեր։ RNN-ի խորությունը անսահմանափակ է և կախված է մուտքի հաջորդականության երկարությունից, այսպիսով RNN-ը խորն ուսումնառության օրինակ է[211] RNN-ները կարող են սովորել գրադիենտի անկմամբ[226][227][228],։ սակայն թույլ են տալիս գրադիենտի խնդրի անհետացում[212][229]։ 1992 թվականին ցույց է տրվել, որ պարբերական նեյրոնային ցանցերի ստեկի անվերահսկելի նախապատրաստումը կարող է արագացնել խորը հաջորդական խնդիրների հետագա վերահսկողական ուսումնասիրությունը[230]։

Բազմաթիվ հետազոտողներ այժմ օգտագործում են խոր ուսուցման պարբերական նեյրոնային ցանցերի տարբերակներ, որ կոչվում են երկար կարճաժամկետ հիշողության ցանց (LSTM), հրապարակված 1997 թվականին Hochreiter & Schmidhuber-ի կողմից[231]։ LSTM-ն is often trained by Connectionist Temporal Classification (CTC).[232] Այս մոտեցումը խոսքի ճանաչման մեջ հեղափոխություն իրականացրեց Google-ում, Microsoftում և Baidu-ում[233][234][235]։ Օրինակ, 2015 թվականին, LSTM Google-ի խոսքի ճանաչումն աճեց 49% CTC-ուսուցման միջոցով, որն այժմ հասանելի է Google Voice-ի միջոցով միլիարդավոր սմարթֆոնի օգտվողներին[236]։ Google-ը LSTM-ն օգտագործվում է նաև մեքենայական թարգմանությունը[237], լեզվի մոդելավորումը[238] և բազմալեզու լեզվական մշակումը բարելավելու համար[239]։ LSTM-ը CNN-ների հետ նաև զարգացրել են պատկերի ավտոմատ նկարագրության ստեղծումը[240] և բազում այլ կիրառություններ։

Առաջընթացի գնահատում խմբագրել

Արհեստական ինտելեկտը, ինչպես էլեկտրաէներգիան կամ գոլորշու շարժիչը, ընդհանուր նշանակության տեխնոլոգիա է։ Չկա միակարծություն, թե ինչպես բնութագրել խնդիրները, որոնցում ԱԻ-ն ձգտում է աչքի ընկնել[241]։ Մինչ ծրագրերը, ինչպիսին AlphaZero-ն է, հաջողեցին զրոյից իրենց սեփական գիտելիքները գեներացնել, շատ այլ մեքենայական ուսուցման ծրագրեր պահանջում են վերապատրաստման մեծ հավաքածուներ[242][243]։ Հետազոտող Էնդրյու Ինը որպես "ծայրահեղ անկատար բթամտի կանոն" է առաջարկել, որը "համարյա ամեն ինչ, որ սովորական մարդը մտքում կարող է անել մի վայրկյանից քիչ ժամանակում, հավանաբար այժմ կամ մոտ ապագայում կարող ենք ավտոմատացնել արհեստական ինտելեկտ օգտագործելով։"[244] Մորավեկի պարադոքսը ենթադրում է, որ ԱԻ-ն զիջում է մարդուն շատ հարցերում, որ մարդկային ուղեղը հատկապես զարգացած է լավ գործելու համար[119]։

Առաջընթացի ցուցանիշների գնահատման համար, խաղերն ապահովում են լավ հրապարակված չափորոշիչներ։ Մոտավորապես 2016 թվականին AlphaGo-ն դասական խաղատախտակային խաղերի դարաշրջանն ավարտեց։ Ոչ ատարյալ գիտելիքի խաղերը նոր մարտահրավերներ են դնում խաղերի տեսության արհեստական ինտելեկտի բնագավառում[245][246]։ Կիբեռսպորտ խաղերը, ինչպիսին StarCraft-ն է շարունակում է լրացուցիչ հանրային ցուցանիշներ ապահովել[247][248]։ Արհեստական ինտելեկտում հետազոտությունը խթանելու համար, բազմաթիվ մրցույթներ և մրցանակներ գոյություն ունեն։ Մրցույթների ամենատարածված բնագավառները ներառում են մեքենայական ընդհանուր ինտելեկտը, խոսակցական վարքագիծ, տվյալների վերլուծություն, ինքնակառավարվող ավտոմեքենաներ, ռոբոտների ֆուտբոլ, ինպես նաև սովորական խաղեր[249]։

"Իմիտացիոն խաղ" (1950 թվականի Թյուրինգի թեստի մեկնաբանումը, որը գնահատում է արդյոք համակարգիչը կարող է նմանակել մարդուն) այսօր դիտարկվում է շատ կիրառելի որպես իմաստալից չափանիշ[250]։ Թյուրինգի թեստից ածանցյալ, Ամբողջովին Ավտոմատացված Թյուրինգի Հանրային թեստը ներկայացնում է համակարգիչն ու մարդն առանձին։ (CAPTCHA). Ինչպես անունից է հետևում այն օգնում է որոշել օգտվողը մարդ է, թե մարդուն նմանակող համակարգիչ։ Ի տարբերություն Թյուրինգի ստանդարտ թեստի, CAPTCHA-ն կառավարվում է մեքենայի կողմից և ուղղված է դեպի մարդը, այլ ոչ թե մարդու կողմից կառավարվող և ուղղված մեքենային։ Համակարգիչը օգտվողին լրացնելու պարզ թեստ է առաջարկում, ապա գնահատում է այն։ Կոմպյուտերներն ի վիճակի չեն լուծել խնդիրը, ուստի ճշգրիտ լուծումը համարվում է թեստն անցած մարդու արդյունքը։ CAPTCHA-ի տարածված թեստի տեսակն է, որ պահանջում է ծռմռված տառերի, թվերի կամ նշանների մուտքագրումը, որոնք հայտնվում են էկրանին, համակարգչի կողմից չվերծանվող պատկերով։[251]

Առաջարկվող "ունիվերսալ ինտելեկտի" թեստերը նպատակուղղված են համադրելու, թե որքան լավ են մեքենաները, մարդիկ, և նույնիսկ կենդանիներն աշխատում հնարավորինս ընդհանուր խնդիրների բազմության վրա։ Ծայրահեղ դեպքում թեստերի հավաքածուն կարող է պարունակել Կալմոգորովի բարդությամբ գնահատված բոլոր հնարավոր խնդիրները, ցավոք, այս խնդիրների բազմություններում գերիշխում են աղքատացած շաբլոնին համեմատվող վարժությունները, որտեղ կարգավորվող ԱԻ-ն հեշտությամբ կարող է գերազանցել մարդու կատարողականի մակարդակը[252][253]։

Կիրառություններ խմբագրել

 
Վեբ էջում հաճախորդներին ծառայություն մատուցող վիրտուալ ավտոմատ օգնական՝ արհեստական ինտելեկտի շատ պարզ կիրառություն

Արհեստական ինտելեկտը վերաբերում է յուրաքանչյուր ինտելեկտուալ խնդրի։[254] Ժամանակակից արհեստական ինտելեկտի միջոցները շատ տարածված են և շատ են այստեղ բոլորը թվարկելու համար։ Հաճախ, երբ տեխնիկան դառնում է հիմնական օգտագործվող, այն այլևս չի համարվում արհեստական ինտելեկտ, այս երևույթը դիտարկվում է որպես արհեստական ինտելեկտի ազդեցություն։[255]

Արհեստական ինտելեկտի բարձրակարգ նմուշներ են ինքնակառավարվող փոխադրամիջոցները (ինչպիսիք են անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները), բժշկական ախտորոշումը, արվեստի գործերի ստեղծումը (ինչպես պոեզիան), մաթեմատիկական թեորեմների ապացուցումը, խաղեր խաղալը (շախմատ ու գո), որոնողական համակարգեր (Գուգլ (որոնողական համակարգ)), առցանց օգնական (Siri), լուսանկարներում պատկերների ճանաչումը, սպամի ֆիլտրումը, թռիչքի հետաձգման կանխատեսումը[256], դատական որոշումների կանխատեսումը[257] և առցանց գովազդներին ուշադրություն դարձնելը։[254][258][259]

Քանի որ սոցիալական լրատվամիջոցները որպես լուրերի աղբյուր երիտասարդների համար անցնում են հեռուստատեսությանը, իսկ նորությունների գործակալությունները լուրերի տարածումը գեներացնելու համար ավելի շատ են հիմնվում սոցիալական մեդիա հարթակների վրա[260], հրատարակիչների մեծ մասը պատմություններն ավելի արդյունավետ ուղարկելու համար և տարածման մեծ ծավալ գեներացնելու համար այժմ օգտագործում են արհեստական ինտելեկտի (ԱԻ) տեխնոլոգիաները[261]։

Առողջապահություն խմբագրել

 
Da Vinci վիրաբուժական համակարգի վիրաբուժական ձեռքը հիվանդի մոտ

ԱԻ-ն կիրառվում է թանկարժեք պրոբլեմի՝ դեղաչափերի որոշման խնդիրների վրա, ենթադրվում է, որ ԱԻ-ի կիրառումը կարող է խնայել 16 միլիարդ դոլար։ 2016 թվականին նորարական ուսումնասիրությունները Կալիֆորնիայում գտել են, որ ԱԻ-ի օգնությամբ մշակված մաթեմատիկական բանաձևերը ճշգրիտ որոշում են մարդու օրգաններին տրվող դեղերի ճշգրիտ չափաբաժինները[262]։

 
Ձեռքի ռենտգեն պատկեր` համակարգչային ծրագրով ոսկրային տարիքի ավտոմատ հաշվարկով

Արհեստական ինտելեկտը ներխուժում է բժշկության ոլորտ օգնելու բժիշկներին։ Համաձայն Bloomberg Technology-ի, Microsoft-ը մշակել է ԱԻ, որն օգնում է բժիշկներին բուժել քաղցկեղը[263]։ Քաղցկեղին վերաբերող հսկայական քանակությամբ հետազոտություններ և դեղեր են մշակվել։ Մանրամասն, քաղցկեղի բուժման համար գոյություն ունեն ավելի քան 800 դեղորայք և պատվաստանյութեր։ Սա բացասաբար է ազդում բժիշկների վրա, քանի որ ընտրության շատ մեծ թվով տարբերակներ կան, ինչը ավելի է դժվարացնում ճիշտ դեղն ընտրել հիվանդի համար։ Microsoft-ը աշխատում է "Hanover" անվամբ մեքենայի մշակման ծրագրի վրա։ Դրա նպատակն է հիշել քաղցկեղին անհրաժեշտ բոլոր փաստաթղթերը, օգնելու կանխատեսել դեղերի որ համադրություններն ամենաարդյունավետը կլինի յուրաքանչյուր հիվանդի համար։ Ներկայումս աշխատում են մյելոիդ լեյկեմիայի՝ մահացու քաղցկեղի, դեմ պայքարի ծրագրի վրա, որի բուժումը տասնամյակների ընթացքում չի բարելավվել։ Մեկ այլ ուսումնասիրություն փաստում է, որ մաշկի քաղցկեղը հայտնաբերելու գործում արհեստական ինտելեկտը նույնքան լավ է, որքան պատրաստված բժիշկները[264]։ Մեկ այլ ուսումնասիրություն արհեստական ինտելեկտն օգտագործում է վերահսկելու բազում բարձր ռիսկային հիվանդներին, և դա իրագործվել է յուրաքանչյուր հիվանդին բազմաթիվ հարցեր տալով, որոնք կազմվելեն բժիշկ հիվանդ կենդանի շփումների հիման վրա[265]։ Մեկ ուսումնասիրություն կատարվել է ուսուցման փոխանցմամբ, մեքենան նույնքան հաջող է ախտորոշում, որքան լավ պատրաստված ակնաբույժը և ավելի քան 95% տոկոս ճշգրտությամբ, կարող է 30 որոշում կայացնել, արդյոք հիվանդին պետք է բուժման ուղարկել[266]։

Ըստ CNN-ի վիրաբույժների վերջին հետազոտությունները Վաշինգտոնի մանկական ազգային բժշկական կենտրոնում, հաջողությամբ ցուցադրեցին վիրահատություն ավտոմատ ռոբոտի կողմից։ Թիմը հետևում էր ռոբոտին, երբ նա փափուկ հյուսվածքների վիրահատություն էր կատարում, բաց վիրահատության ժամանակ կարելով խոզի երիկամը և դա անում էր մարդ վիրաբույժից լավ։ IBM ստեղծել է արհեստական ինտելեկտով իր սեփական համակարգիչը, IBM Watson, որը գերազանցել է մարդու ինտելեկտը (որոշ մակարդակներում)։ Watson-ը ոչ միայն հաղթեց Jeopardy! խաղի նախկին չեմպիոններին[267], այլ նաև հերոս հայտարարվեց, լեյկեմիայով հիվանդ կնոջն ախտորոշելուց հետո[268]։

Ավտոմոբիլային խմբագրել

Արհեստական ինտելեկտի առաջընթացը նպաստել է ավտոմոբիլային արդյունաբերության զարգացմանը ինքնագնաց ավտոմեքենաների ստեղծման և զարգացման միջոցով։ 2016 թվականի տվյալներով, ավելի քան 30 ընկերություններ օգտագործում են ԱԻ-ն ինքնագնաց ավտոմեքենաներ ստեղծելու համար։ Արհեստական ինտելեկտով զբաղվող երեք ընկերություններ` Tesla, Google և Apple, ներառված են ինքնագնաց մեքենաներ ստեղծելու մեջ[269]։

Բազմաթիվ բաղադրիչներ են նպաստում ինքնակառավարվող ավտոմեքենաների գործունեությանը։ Այս տրանսպորտային միջոցները միավորում են այնպիսի համակարգեր, ինչպիսիք են արգելակումը, գոտիների փոփոխությունը, բախման կանխարգելումը, նավիգացիան և քարտեզագրումը։ Այս համակարգերը բարձր արդյունավետության համակարգիչների հետ միասին ինտեգրվում են մեկ բարդ տրանսպորտային միջոցի մեջ[270]։

Վերջին զարգացումներն ինքնավար ավտոմոբիլներում դարձրել են ինքնակառավարվող բեռնատարների նորարարությունը հնարավոր, չնայած դրանք դեռևս փորձարկման փուլում են։ Միացյալ Թագավորության կառավարությունը օրենք է ընդունել, որով 2018 թվականին սկսվելու են ինքնագնաց բեռնատարների դասակների փորձարկումները[271]։ Ինքնակառավարվող բեռնատարների դասակները ինքնագնաց բեռնատարների պարկ են, որ հետևում են մեկ ոչ ինքնակառավարվող առաջատար բեռնատարի, այսպիսով բեռնատար դասակները դեռևս ամբողջովին ավտոմատացված չեն։ Մինչդեռ Daimler գերմանական ավտոմոբիլային ընկերությունը փորձարկում է կիսաավտոմատ բեռնատար, որը միայն կօգտագործվի մայրուղիների վրա[272]։

Հիմնական գործոնը, որն ազդում է ինքնակառավարվող ավտոմոբիլի գործունեության վրա, քարտեզագրումն է։ Ընդհանուր առմամբ մեքենան նախապես ծրագրավորված կլիներ վարման տարածքի քարտեզին համապատասխան։ Այս քարտեզը կներառեր փողոցային լույսի և անհարթությունների մոտեցման մասին տվյալներ, որպեսզի մեքենան տեղյակ լինի իր շրջապատից։ Համենայն դեպս, Google-ն աշխատում է ալգորիթմի վրա, ստեղծելով սարք, որը տարբեր նոր միջավայրերի կկարողանար հարմարվել, որպեսզի վերացնի նախապես ծրագրավորված քարտեզների կարիքը[273]։ Որոշ ինքնակառավարվող մեքենաներ հագեցած չեն ղեկով կամ արգելակման շարժիչներով, հետևաբար հետազոտություն է կատարվել այնպիսի ալգորիթմ ստեղծելու, որն ի վիճակի է ուղևորների անվտանգությունն ապահովել, արագության և վարորդական պայմանների մասին իրազեկման միջոցով[274]։

Մեկ այլ գործոն, որը ազդում է ինքնակառավարվող մեքենայի վրա, ուղևորների անվտանգության ապահովումն է։ Անվարորդ ավտոմեքենա ստեղծելու համար ինժեներները պետք է ծրագրավորեն այն բարձր ռիսկայնության իրավիճակների կարգավորման համար։ Այս իրավիճակները կարող են ներառել հետիոտնի հետ դեմ առ դեմ բախումը։ Ավտոմեքենայի հիմնական նպատակը պետք է լինի այնպիսի որոշում կայացնելը, որը հետիոտնին հարվածելուց խուսափի և ուղևորներին չվնասի։ Բայց հնարավոր է իրադրություն, երբ մեքենայի որոշումը մեկնումեկին վտանգի է ենթարկում։ Այլ կերպ ասած, մեքենան պետք է որոշի` խնայել հետիոտնին, թե ուղևորին[275]։ Ավտոմեքենայի ծրագրավորումն այսպիսի իրավիճակներում վճռորոշ է հաջող ինքնակառավարվող մեքենայի համար։

Ֆինանսներ և տնտեսություն խմբագրել

Ֆինանսական հաստատությունները վաղուց օգտագործում են արհեստական նեյրոնային ցանց համակարգերը հայտնաբերելու նորմայից դուրս ծախսերը կամ բողոքները և առանձնացնելու մարդկային հետազոտման համար։ ԱԻ-ի օգտագործումը բանկային համակարգում կարելի է դիտարկել 1987 թվականին, երբ Security Pacific National Bank-ը ԱՄՆ-ում ստեղծում է խարդախության կանխարգելման գործառույթ, որը կբացառի դեբետային քարտերի չլիազորված օգտագործումը։ Կասիստո և Moneystream նման ծրագրերը ֆինանսական ծառայություններում օգտագործում են ԱԻ-ն։

Ներկայումս բանկերն արհեստական ինտելեկտ համակարգերն օգտագործում են գործառույթներ իրականացնելու, հաշվապահություն վարելու, բաժնետոմսեր ձեռքբերելու և սեփականության կառավարման համար։ ԱԻ-ն կարող է փոփոխություններին արագ արձագանքել կամ երբ գործարք տեղի չի ունենում[276]։ 2001 թվականի օգոստոսին ռոբոտները հաղթեցին մարդկանց ֆինանսական առևտրի նմանակման մրցույթում[277]։ ԱԻ-ը նաև նվազեցրել է խարդախության և ֆինանսական հանցագործությունների դեպքերը, հետևելով օգտվողների վարքագծային մոդելներին, նորմայից դուրս դրսևորումներն ամրագրելով[278]։

ԱԻ մեքենաների օգտագործումը շուկայում, կիրառություններում, օրինակ առցանց առևտրում և որոշումների կայացման մեջ փոխել է հիմնական տնտեսական տեսությունները[279]։ Օրինակ, AI- ի գնման և վաճառքի պլատֆորմները փոխել են առաջարկի և պահանջարկի օրենքը, որով այժմ հեշտությամբ հնարավոր է գնահատել անհատականացված պահանջարկի և մատակարարման կորերը, հետևաբար և անհատականացված գնագոյացումը։ Բացի այդ ԱԻ մեքենաները նվազեցնում են ինֆորմացիոն ասիմետրիան շուկայում, դարձնելով շուկաներն ավելի արդյունավետ, միաժամանակ նվազեցնելով գործարքների ծավալը։ Ավելին, ԱԻ-ն շուկաներում սահմանափակում է շուկաների վարքագծի հետևանքները, կրկին շուկան ավելի արդյունավետ դարձնելով։ Այլ տեսություններ, որտեղ ԱԻ-ն ազդեցություն է ունեցել, ներառում են ռացիոնալ ընտրության տեսությունը, ռացիոնալ սպասումների տեսությունը, խաղերի տեսությունը, Լյուիսի շրջադարձային կետի, պորտֆելի օպտիմիզացիան և հակափաստարկ մտածողությունը։

Կառավարություն խմբագրել

Տեսախաղեր խմբագրել

Տեսախաղերում արհեստական ինտելեկտը սովորաբար օգտագործվում է ոչ խաղացող կերպարների (NPCs) մոտ դինամիկ նպատակասլաց վարք գեներացնելու համար։ Բացի այդ լավ հասկանալի ԱԻ մեթոդները սովորաբար օգտագործվում են ճանապարհի որոնման համար։ Որոշ հետազոտողներ NPC ԱԻ-ն խաղերի մեջ արդյունաբերական խնդիրների մեծ մասի համար համարում են "լուծված պրոբլեմ"։ Ավելի ոչ տիպիկ խաղեր են Left 4 Dead-ի (2008) ԱԻ-ռեժիսորը և դասակների նեյրոէվոլյուցիոն վերապատրաստումը Supreme Commander 2 (2010).[280][281]

Ռազմական ուժեր խմբագրել

Ռոբոտատեխնիկայի վրա ամենամյա տարեկան ծախսերն աշխարհում 5.1 միլիարդ ԱՄՆ դոլարից 2010 թվականին հասել է 7.5 միլիարդի 2015 թվականին[282][283]։ Ռազմական անօդաչու սարքերը լայն տարածում ունեն։ 2017 թվականին Վլադիմիր Պուտինը հայտարարեց "Ով էլ որ դառնա առաջատար արհեստական ինտելեկտում, նա էլ կդառնա աշխարհի տիրակալ"[284][285]։ Արհեստական ինտելեկտի շատ հետազոտողներ ձգտում են հեռու մնալ ԱԻ-ի ռազմական կիրառություններից[286]։

Աուդիտ խմբագրել

Արհեստական ինտելեկտը հնարավոր է դարձնում ֆինանսական հաշվետվության մշտական աուդիտը։ ԱԻ գործիքները կարող են վերլուծել տարբեր ինֆորմացիայի հավաքածուներն անմիջապես։ Պոտենցիալ օգուտը կլինի ընդհանուր աուդիտորական ռիսկերը նվազեցնելը, վստահության մակարդակը կաճի և աուդիտի տևողությունը կնվազի[287]։

Գովազդ խմբագրել

Հնարավոր է ԱԻ-ն օգտագործել կանխագուշակելու կամ ընդհանրացնելու հաճախորդների վարքագիծը իրենց թվային հետքով, որպեսզի ուղղորդել նրանց անհատականացված խրախուսման ակցիաներ կամ ավտոմատ ստեղծել հաճախորդների նախընտրությունների ցանկ[288]։ Փաստաթղթերը հաստատում են, որ առցանց խաղերով զբաղվող կազմակերպություններն ԱԻ-ն օգտագործում են հաճախորդներին նպատակաուղղելու համար[289]։

Ավելին, անհատականության հաշվարկի ԱԻ մոդելների կիրառումը կարող է նպաստել գովազդային արշավների արժեքի նվազեցմանը, ավելացնելով հոգեբանական թիրախը ավանդական սոցիոդեմոգրաֆիկ կամ վարքային թիրախավորմանը[290]։

Արվեստ խմբագրել

Արհեստական ինտելեկտը բազմաթիվ ստեղծագործական կիրառություններ է ոգեշնչել, ներառյալ դրանց օգտագործումը վիզուալ արվեստ ստեղծելու գործում։ "Մտածող մեքենաներ․ Արվեստ և դիզայն 1959–1989 կոմյուտերային թվերին" ցուցահանդեսը MoMA-ում[291] ներկայացնում է ԱԻ-ի պատմական կիրառությունների լավ ակնարկ արվեստում, ճարտարապետության և դիզայնի մեջ։ Արվեստ ստեղծող ԱԻ-ի օգտագործումը ցուցադրող վերջին ցուցահանդեսները, ներառյալ Google-ի հովանավորությամբ աուկցիոնը Գրեյ Արեա Հիմնադրամում, Սան Ֆրանցիսկո, որտեղ նկարիչները փորձեր էին անում deepdream ալգորիթմով[292] և "Unhuman: Արվեստը ԱԻ-ի դարաշրջանում," ցուցահանդեսը, որը տեղի ունեցավ Լոս Անջելեսում և Ֆրանկֆուրտում 2017 թվականի աշնանը[293][294]։ 2018 թվականի գարնանը Հաշվողական տեխնիկայի ասոցիացիան ամսագրի հատուկ համար է թողարկել նվիրված համակարգիչներ և արվեստ թեմային, ընդգծելով մեքենայական ուսուցման դերը արվեստում[295]։

Փիլիսոփայություն և Էթիկա խմբագրել

Արհեստական ինտելեկտին վերաբերող երեք փիլիսոփայական հարցեր կան․

  1. Ընդհանուր արհեստական ինտելեկտը հնարավո՞ր է։ Մեքենան կարո՞ղ է լուծել ցանկացած խնդիր, որը մարդը կարող է լուծել բանականությամբ։ Կամ արդյո՞ք խիստ սահմանափակումներ կան, թե ինչ է կարող անել մեքենան։
  2. Բանական մեքենաները վտանգավո՞ր են։ Ինչպե՞ս մենք կարող ենք վստահ լինել, որ մեքենաները գործում են և օգտագործվում են էթիկայի սահմաններում։
  3. Կարո՞ղ է մեքենան ունենալ խելք, գիտակցություն և հոգեվիճակ, նույն իմաստով ինչը մարդն ունի։ Կարո՞ղ է մեքենան լինել զգոն և հետևաբար որոշակի իրավունքներ ունենալ։ Կարո՞ղ է մեքենան միտումնավոր վնաս հասցնել։

Արհեստական ընդհանուր ինտելեկտի սահմանները խմբագրել

Կարո՞ղ է մեքենան խելացի լինել։ Այն կարո՞ղ է մտածել։

Հաշվիչ մեքենաները և բանականությունը։ Մեզ պետք չի որոշել, արդյոք մեքենան կարող է "մտածել", մենք պետք է միայն որոշենք, արդյոք մեքենան կարող է գործել նույնքան խելացի, որքան մարդը։ Արհեստական ինտելեկտին վերաբերող փիլիսոփայական խնդիրներին այսպիսի մոտեցումը Թյուրինգի թեստի հիմքն է[296]։
Դարտմութի առաջարկը։ "Ուսումնառության յուրաքանչյուր ասպեկտ կամ բանականության այլ առանձնահատկություն կարելի է այնքան ճշգրիտ նկարագրել, որ կարելի լինի ստեղծել մեքենա դրա նմանակման համար։" Այս հիպոթեզը տպված էր 1956 թվականի Դարտմութի կոնֆերանսի առաջարկում և արտահայտում է ԱԻ հետազոտողների մեծ մասի տեսակետը[297]։
Նյուելի և Սայմոնի ֆիզիկական սիմվոլների համակարգի հիպոթեզը։ "Ֆիզիկական սիմվոլների համակարգը ունի ընդհանուր բանական գործողությունների անհրաժեշտ և բավարար միջոցներ։" Նյուելն ու Սայմոնը պնդում են, որ բանականությունը բաղկացած է սիմվոլների նկատմամբ ֆորմալ գործողություններից[298]։ Հյուբերտ Դրեյֆուսը հակառակն էր պնդում, մարդու փորձը ավելի շուտ կախված է անգիտակից բնազդից, քան սիմվոլների գիտակցված մանիպուլյացիայից և իրավիճակի "զգալուց", այլ ոչ հստակ սիմվոլիկ գիտելիքից[299][300]։
Գյոդելյան փաստարկները։ Ինքը Գյոդելը[301], Ջոն Լուկասը (1961) և Ռոջեր Պենրոուզը (1989-ից ավելի մանրամասն փաստարկներով) առաջ քաշեցին տեխնիկական փաստարկներ, որ մաթեմատիկոսները հետևականորեն տեսնեն իրենց սեփական "Գյոդելի փաստարկների" ճշմարտացիությունը և հետևաբար Թյուրինգի մեքենայից դուրս, հաշվարկային կարողություններ ունեն[302] Այնուամենայնիվ գիտական և մաթեմատիկական համայնքների ներկայիս կոնսենսուսն այն է, որ "Գյոդելյան փաստարկները" անարդյունավետ են[303][304][305]։
Արհեստական ուղեղի փաստարկը։ Մեքենան կարող է մոդելավորել ուղեղը և քանի որ ուղեղը խելացի է, նմանակված ուղեղը նույնպես պետք է խելացի լինի, ուստի մեքենաները կարող են խելացի լինել։ Հանս Մորավեկը, Ռեյմոնդ Կուրցվեյլը և այլք պնդում ե որ տեխնիկապես հնարավոր է ուղղակի պատճենել ուղեղը ապարատային և ծրագրային ապահովման միջոցով և նման մոդելավորումը ըստ էության նույնն է լինելու[137]։
Արհեստական ինտելեկտի ազդեցությունը։ Մեքենաներն արդեն խելացի են, սակայն դիտորդները հրաժարվում են ճանաչել դա։ Երբ Deep Blue-ն շախմատով հաղթեց Գարրի Կասպարովին, մեքենան խելացի էր գործում։ Այնուամենայնիվ դիտորդները սովորաբար անտեսում են արհեստական ինտելեկտի ծրագրի վարքագիծը, պնդելով, որ ի վերջո դա «իրական» բանականություն չի։ Այսպիսով «իրական» բանականությունն այն է, ինչ խելամիտ վարքագծով մարդիկ կարող են, և մեքենաները դեռևս չեն կարող։ Սա հայտնի է որպես արհեստական ինտելեկտի ազդեցություն․ «ԱԻ-ն այն է, ինչ դեռևս չի արվել»։

Պոտենցիալ վնաս խմբագրել

Արհեստական ինտելեկտի լայնորեն օգտագործումը կարող է անկանխատեսելի հետևանքներ ունենալ, որոնք լինեն վտանգավոր և անցանկալի։ Ապագա կյանքի ինստիտուտի գիտնականները, ի թիվս այլոց, նկարագրել են կարճաժամկետ հետազոտական նպատակներ տեսնելու, թե ինչպես է ԱԻ-ն ազդում իր հետ կապ ունեցող տնտեսության, օրենքների և էթիկայի վրա և ինչպես նվազեցնել անվտանգության ռիսկերը։ Երկարաժամկետ հեռանկարում գիտնականները առաջարկել են շարունակել օպտիմալացնել գործառույթը, նվազագույնի հասցնելով հնարավոր անվտանգության ռիսկերը, որոնք գալիս են նոր տեխնոլոգիաների հետ[306]։

Գոյատևման ռիսկ խմբագրել

Ֆիզիկոս Սթիվեն Հոքինգը, Մայքրոսոֆթի հիմնադիր Բիլ Գեյթսը և SpaceX-ի հիմնադիր Իլոն Մասկը մտահոգություն են արտահայտել ԱԻ-ի այն աստիճանի հնարավոր զարգացման վերաբերյալ, որ մարդիկ չկարողանան այն վերահսկել, և Հոքինգի ենթադրությունը, որ դա կարող է "մարդկության վերջը լինել"։ [307][308][309]

  Արհեստական ինտելեկտի լիակատար զարգացումը կարող էր հանգեցնել մարդկային ցեղի վերացմանը։ Հենց մարդիկ զարգացնեն արհեստական ինտելեկտը, այն կսկսի ինքնուրույն թռիչքով զարգանալ և կվերափոխվի անընդհատ վերելքով։ Մարդիկ, որոնք սահմանափակված են կենսաբանական դանդաղ էվոլյուցիայով, չեն կարող մրցակցել և դուրս կմղվեն։
- Սթիվեն Հոքինգ[310]
 

Նիկ Բոստրոմը, իր Սուպերինտելեկտ գրքում փաստարկներ է բերում, որ արհեստական ինտելեկտը մարդկության համար սպառնալիքներ կստեղծի։ Նա պնդում է, որ բավականաչափ խելացի ԱԻ-ն, եթե այն ընտրել է որևէ նպատակի հասնելու գործողություններ, կցուցադրի զուգամիտող վարքագիծ, ինչպիսիք են ռեսուրսների ձեռքբերում կամ իրեն անջատելուց պաշտպանելը։ Եթե ԱԻ-ի նպատակները մարդկության վրա ազդեցություն չեն գործում՝ մի օրինակ ԱԻ-ն ասվում է հաշվել pi թիվը, որքան հնարավոր է մեծ ճշտությամբ, այն կարող է վնասել մարդկությանը, պահանջելով շատ ռեսուրսներ կամ պաշտպանել իրեն անջատելուց, ի վերջո ավելի լավ հասնելու իր նպատակին։ Արհեստական ինտելեկտի ռիսկի նկատմամբ մտահոգությունը հանգեցրել է մի շարք էական նվիրատվությունների և ներդրումների։ Տեխնիկական տիտանների մի խումբ, այդ թվում Պիտեր Թիլը, Ամազոն Վեբ ծառայությունները և Մասկը 1 միլիարդ դոլար են հատկացրել OpenAI-ին, շահույթ չհետապնդող ընկերություն, որը նպատակաուղղված է ԱԻ-ի զարգացման պատասխանատվության ապահովմանը[311]։ Փորձագետների կարծիքները տարբեր են, ընդ որում չափավոր մաս են կազմում թե հնարավոր գերմարդկային ԱԻ-ի ռիսկով մտահոգները և թե անհոգները[312]։ 2015 թվականի հունվարին Իլոն Մասկը, ԱԻ-ի որոշումներ կայացնելու մեխանիզմի հետազոտության համար, Ապագա Կյանքի Ինստիտուտին տաս միլիոն դոլար նվիրաբերեց։ Ինստիտուտի նպատակն է "բարձրացնել իմաստնությունը, որով մենք կառավարում ենք" տեխնոլոգիայի աճող հզորությունը։ Մասկը նաև ֆինանսավորում է արհեստական ինտելեկտ մշակող ընկերություններին, ինչպիք են Google DeepMind-ը և Vicarious-ը, որպեսզի "ուղղակի հետևի, թե ինչ է կատարվում արհեստական ինտելեկտի ոլորտում[313]։ Կարծում եմ այնտեղ հնարավոր վտանգներ են առկա։"[314][315]

Այդ վտանգը պատկերացնելու համար, երևակայական ԱԻ-ն պետք է հաղթահարի կամ խորամանկի ողջ մարդկությանը, ինչը էքսպերտների փոքրամասնությունը պնդում է, որ հնարավոր է բավականին հեռու ապագայում և արժանի է հետազոտման[316][317]։ Այլ հակափաստարկները պտտվում են արհեստական ինտելեկտում ներգրավված մարդկանց շրջանում, որոնք արժեքավոր են արհեստական ինտելեկտի տեսանկյունից[318]։

Մարդկության արժեզրկում խմբագրել

Ժոզեֆ Վայզենբաումը գրել է ԱԻ-ի կիրառությունները ի սկզբանե չեն կարող հաջողությամբ նմանակել մարդկային բուն զգացմունքները և ԱԻ տեխնոլոգիաների կիրառությունը այնպիսի ոլորտներում, ինչպիսիք են հաճախորդների սպասարկումը և հոգեթերապիան[319], խորապես սխալ էր։ Վայզենբաումին նույնպես անհանգստացնում էր, որ ԱԻ հետազոտողները (և որոշ փիլիսոփաներ) մարդկային միտքը պատրաստ էին դիտարկել որպես ոչ այլ ինչ, քան համակարգչային ծրագիր (հաշվողական տեխնիկա)։ Վայզենբաումը գտնում էր, որ ԱԻ-ն արժեզրկում է մարդու կյանքը[320]։

Սոցիալական արդարությունe խմբագրել

Մի մտահոգություն կա, որ ԱԻ ծրագրերը կարող են ծրագրված լինել ընդդեմ որոշակի խմբերի դեմ, ասենք կանանց և փոքրամասնությունների դեմ, որովհետև մշակողների մեծ մասը հարուստ կովկասցի տղամարդիկ են[321]։ Արհեստական ինտելեկտին աջակցում են տղամարդկանց 47%-ը, կանանց՝ 35%-ը։

Մարդու աշխատանքի պահանջարկի նվազում խմբագրել

Ավտոմոտացման և զբաղվածության միջև կապը բարդ է։ Մինչ ավտոմատացումը վերացնում է հին աշխատատեղերը, այն նաև, միկրոտնտեսական և մակրոտնտեսական ազդեցությունների շնորհիվ, նոր աշխատեղեր է ստեղծում[322]։ Ի տարբերություն ավտոմատացման նախորդ ալիքների, այժմ շատ միջին դասի աշխատանքներ հնարավոր է դուրս մղվեն արհեստական ինտելեկտի կողմից։ Էկոնոմիստը հայտարարում է․ "Անհանգստությունը, որ ԱԻ-ն սպիտակ օձիքներով աշխատանքների հետ նույնը կանի, ինչ որ գոլորշու էներգիան կատարեց բանվորների հետ արդյունաբերական հեղափոխության ընթացքում", "արժե լուրջ ընդունել"[323]։ Ռիսկի սուբյեկտիվ գնահատականները շատ են տարբեր են, օրինակ, Մայքլ Օսբորնը և Կառլ Բենեդիկտ Ֆրեյը ենթադրում են որ ԱՄՆ աշխատատեղերի 47%-ը "բարձր ռիսկային են" հնարավոր ավտոմատացման դեպքում, մինչդեռ OECD-ի հաշվետվությունը գնահատում է միայն աշխատատեղերի 9%-ը "բարձր ռիսկային"[324][325][326]։ Ծայրահեղ ռիսկի տակ են իրավաբանների օգնականներից մինչև արագ սննդի խոհարարները, մինչդեռ կաճեն խնամքի հետ կապված մասնագիտությունների պահանջարկը, սկսած անձնական առողջապահությունից մինչև հոգևոր[327]։ Մարտին Ֆորդը և այլք ավելի հեռու են գնում և պնդում են, որ աշխատանքների մեծ մասը սովորական են, կրկնվող և կանխատեսելի։ Ֆորդը զգուշացնում է, որ այս աշխատանքները կավտոմատացվեն մոտակա տասնամյակների ընթացքում և որ շատ նոր աշխատանքներ "միջին ընդունակությունների տեր մարդկանց համար մատչելի չեն", նույնիսկ, եթե նրանք վերապատրաստվեն։ Տնտեսագետները մատնանշում են, որ նախկին տեխնոլոգիաներն ավելի շուտ ընդհանուր զբաղվածության աճի, քան նվազման տենդենց ունեին, սակայն գիտակցում են, որ ԱԻ-ի հետ "մենք չուսումնասիրված տիրույթում ենք"[20]։

Ինքնավար զենքեր խմբագրել

Ներկայումս 50+ երկրներ, ներառյալ Միացյալ Նահանգները, Չինաստանը, Ռուսաստանը և Միացյալ Թագավորությունը, ուսումնասիրում են ռազնադաշտում գործող ռոբոտներ։ Շատերն անհանգստանում են սուպերինտելեկտուալ ԱԻ համակարգերի ռիսկից և ուզում են սահմանափակել արհեստական զինվորների և դրոնների օգտագործումը[328]։

Էթիկ մեքենաներ խմբագրել

Ինտելեկտուալ մեքենաները կարող են օգտագործվել վնասները կանխարգելելու և ռիսկերը նվազեցնելու համար։ Դրանք կարող են էթիկական եզրահանգումների հնարավորություն ունենալ, որպեսզի ավելի լավ ընտրեն իրենց գործողությունները։ Հետազոտություններն այս ոլորտում ներառում են մեքենայական էթիկան, արհեստական բարոյական ագենտները և բարեկամ ԱԻ-ները։

Արհեստական բարոյական ագենտներ խմբագրել

Վենդել Վալախը իր Բարոյական մեքենաներ գրքում ներկայացնում է արհեստական բարոյական ագենտ հասկացությունը[329]։ Վալախի համար բարոյական մեքենաները դարձել են արհեստական ինտելեկտի լանդշաֆթի հետազոտության մաս, առաջնորդվելով երկու կենտրոնական հարցերով․ "Արդյոք մարդկությունն ուզում է բարոյական որոշումներ կայացնող կոմպյուտերներ"[330] և "Կարող են ռոբոտները լինել իսկապես բարոյական"[331]։ Վալախի հարցը չէր վերաբերում նրան, որ արդյոք մեքենաները կարող են դրսևորել բարոյական վարքագծի համարժեք, այլ կարող է հասարակությունը սահմանափակումներ դնել արհեստական բարոյական գործակալների զարգացման վրա[332]։

Մեքենայի էթիկա խմբագրել

Մեքենայի էթիկայի ոլորտը վերաբերում է մեքենայի էթիկ սկզբունքներ տալուն կամ ի հայտ եկող էթիկական երկընտրանքներիի լուծումների բացահայտմանը, հնարավորություն տալով իրենց էթիկական որոշում կայացնելիս գործել էթիկապես պատասխանատու կերպով[333]։ Բնագավառը բնութագրվել է The field was delineated in the AAAI Fall 2005 թվականի աշնանը կայացած Մեքենայական Էթիկայի սիմպոզիումի ժամանակ Symposium on Machine Ethics: "Տեխնոլոգիաների և էթիկայի միջև փոխհարաբերություններին ուղղված անցյալ հետազոտությունները հիմնականում կենտրոնացած էին մարդկանց կողմից տեխնոլոգիայի, պատասխանատու կամ ոչ, օգտագործմանը։ Քչերին էր հետաքրքրում, թե մարդիկ ինչպես պետք է վերաբերվեն մեքենաներին։ Ամեն դեպքում միայն մարդ արարածն է ճշգրիտ էթիկական մտածողությամբ։ Ժամանակն է գոնե որոշ մեքենաների էթիկական բաղադրիչ ավելացնել։ Դա պահանջում են մեքենաների վարքագծի էթիկական հետևանքների գիտակցումը, ինչպես նաև մեքենաների անկախության վերջին և պոտենցիալ զարգացումները։ Ի տարբերություն համակարգիչների հաքինգի, ծրագրային ապահովման հատկությունների, գաղտնիության խնդիրների և այլ թեմաների, որոնք առնչվում են համակարգչային էթիկայի հետ, մեքենայական էթիկան վերաբերում է մեքենայի վարքագծին օգտվողների և այլ մեքենաների նկատմամբ։ Մեքենայական էթիկայի վերաբերյալ հետազոտությունները կարևոր են ինքնավար համակարգերի հետ կապված մտահոգությունները մեղմելու համար - կարելի է պնդել, որ ինքնավար մեքենաների հասկացությունը, առանց այդ բաղադրիչի, ընկած է մեքենայական ինտելեկտի հետ կապված բոլոր մտահոգությունների հիմքում։ Մեքենայական էթիկայի ուսումնասիրությունը կարող է հանգեցնել առկա էթիկական տեսությունների հետ կապված խնդիրներին բացահայտմանը, զարգացնելով մեր մտածելակերպը Էթիկայի մասին:"[334] Մեքենայական էթիկան երբեմն անվանում են մեքենայական բարոյականություն, հաշվարկային էթիկան՝ հաշվարկային բարոյականություն։ Այս նորաստեղծ բնագավառի տարբեր հեռանկարների մասին կարելի է գտնել "Machine Ethics"[333] հավաքածուի մեջ, որը մեկտեղված է AAAI 2005 թվականի աշնանը Մեքենայական Էթիկային նվիրված սիմպոզիումից[334]։

Չարամիտ և բարեկամ ԱԻ խմբագրել

Քաղաքագետ Չարլզ Ռուբինը կարծում է, որ ԱԻ-ն ոչ կարող է նախագծվել, ոչ էլ երաշխավորվել որպես բարյացակամ[335]։ Նա պնդում է, որ "ցանկացած բավականին առաջադեմ բարեգործություն կարող է չտարբերակվել չարամտությունից։" Մարդիկ չպետք է ենթադրեն մեքնաները և ռոբոտները բարեհամբյուր կլինեն իրենց նկատմամբ, որովհետև ապրիորի պատճառ չկա կարծելու որ նրանց դուր կգա մեր բարոյականության համակարգը, որը զարգացել է մեր յուրահատուկ կենսաբանության հետ։ Հիպերխելացի ծրագրային ապահովումը անպայման չի որ որոշի աջակցել մարդկության շարունակական գոյությունը և չափազանց դժվար կլինի կանգնեցնել։ Այս թեման վերջերս սկսել է քննարկվել ակադեմիական հրապարակումներում, որպես իրական ռիսկի աղբյուր ընդդեմ քաղաքակրթության, մարդկության և երկիր մոլորակի։

Այս պրոբլեմին հանգուցալուծում տալու առաջարկներից մեկն է, արաշխավորված լինել, որ առաջին ընդհանուր առմամբ խելացի ԱԻ-ն բարեկամ ԱԻ-է և այնուհետ կարողանա վերահսկել հետագայում մշակված ԱԻ-ները։ Ոմանք հարցնում են, արդյո՞ք այսպիսի ստուգումը կարող է իրականում տեղում մնալ։

ԱԻ առաջատար հետազոտող Ռոդնի Բրուկսը գրում է․ "Կարծում եմ սխալ է, որ մենք անհանգստանալ, որ մենք կմշակենք չարամիտ ԱԻ երբևէ, հաջորդ հարյուրամյակների ընթացքում։ Մտահոգությունը գալիս է հիմնական սխալից, որ մենք չենք կարողանում տարբերակել ԱԻ-ի կոնկրետ ասպեկտում, շատ իրական վերջին ձեռքբերումները և զգայական կամային բանակություն կառուցելու ահռելիությունն ու բարդությունը։"[336]

Մեքենայական գիտակցություն, զգայունություն և բանականություն խմբագրել

Եթե ԱԻ համակարգը կրկնօրինակում է մարդկային բանականության բոլոր կարևոր ասպեկտները, այդ համակարգը կլինի նաև զգայու՞ն- այն կունենա՞ բանականություն, որն ունի գիտակցություն։ Այս հարցը սերտորեն կապված է մարդկային գիտակցության բնույթին վերաբերող փիլիսոփայական խնդրին, որը հիմնականում վերաբերում է գիտակցության դժվար խնդիրներին։

Գիտակցություն խմբագրել

Դեվիդ Չալմերսը բանականությունը հասկանալու երկու խնդիր է առանձնացրել, որոնք նա անվանել է գիտակցության "դժվար" և "հեշտ" խնդիրներ[337]։ Հեշտ խնդիրն այն է՝ հասկանալ, թե ինչպես է ուղեղը մշակում ազդակները, պլանավորում և վարքագիծը վերահսկում։ Դժվար խնդիրն է՝ բացատրել ինչպես է զգում կամ ինչու այն ինչ որ բան պետք է զգա ընդհանրապես։ Մարդու կողմից ինֆորմացիայի մշակումը հեշտ է բացատրել, մարդու սուբյեկտիվ փորձը՝ դժվար։

Օրինակ, դիտարկենք թե ինչ է տեղի ունենում, երբ մարդուն ցույց են տալիս գույնի օրինակ և նա ճանաչում է այն, ասելով "կարմիր է"։ Հեշտ խնդիրը միայն պահանջում է հասկանալ ուղեղի մեխանիզմը, որը մարդուն հնարավորություն է տալիս իմանալ, որ գույնի օրինակը կարմիր է։ Դժվար խնդիրն այն է, որ մարդիկ նաև գիտեն նաև էլի ինչ որ բան՝ նրանք նաև գիտեն կարմիրն ինչ տեսք ունի։ (Քննարկենք, որ ի ծնե կույր մարդը կարող է իմանալ, որ ինչ որ բան կարմիր է, առանց իմանալու կարմիրն ինչ տեսք ունի։)[Ն 12] Յուրաքանչյուրը գիտի, որ գոյություն ունի սուբյեկտիվ փորձ, քանի որ նրանք դա անում են ամեն օր (այսինքն, բոլոր տեսնող մարդիկ գիտեն թե կարմիրն ինչ տեսք ունի)։ Դժվար խնդիրն այն է, բացատրել, թե ինչպես է ուղեղը ստեղծում դա, ինչու՞ այն գոյություն ունի և ինչպես է այն տարբեր, քան գիտելիքը և ուղեղի այլ ասպեկտները։

Հաշվարկայնություն և ֆունկցիոնալիզմ խմբագրել

Հաշվարկայնությունը մտքի փիլիսոփայության դիրքորոշում է, որ մարդու միտքը կամ ուղեղը (կամ երկուսն էլ) տեղեկատվության մշակման համակարգ է և որ մտածողությունը հաշվարկելու ձև է[338]։ Հաշվարկայնությունը պնդում է, որ ուղեղի և մարմնի միջև կապը նման է կամ նույնն է ինչ որ ծրագրային և ապարատային ապահովման միջև կապը և այդպիսով կարող է լինել գիտակցություն և մարմին խնդրի լուծում։ Այս փիլիսոփայական դիրքորոշումը առաջացել է 1960-ականների ԱԻ հետազոտողների և իմացաբանական գիտնականների աշխատանքներից, որ սկզբում առաջարկել էին փիլիսոփաներ Ջերրի Ֆոդորը և Հիլարի Պուտնամը։

Ուժեղ ԱԻ-ի վարկածը խմբագրել

Փիլիսոփայական դիրքորոշումը, որը Ջոն Սիիրլն անվանեց ուժեղ ԱԻ, պնդում է․ "Համապատասխան ծրագրավորված համակարգիչը ճշգրիտ մուտքերով և ելքերով, ճիշտ նույն իմաստով գիտակցություն կունենա ինչ ունեն մարդիկ։"[339] Սիիրլը ժխտում է այս հայտարարությունը իր Չինական սենյակ փաստարկով, որը խնդրում է մեզ նայել համակարգչից ներս և փորձել գտնել, որտեղ կարող է լինել "բանականությունը"[340]։

Ռոբոտների իրավունքները խմբագրել

Եթե կարելի է ստեղծել բանականություն ունեցող մեքենա, կարող է այն նաև զգա՞լ։ Եթե այն կարող է զգալ, այն պե՞տք է ունենա նույնպիսի իրավունքներ, ինչպես մարդիկ։ Այս խնդիրը, այժմ հայտնի որպես "ռոբոտի իրավունքներ", ներկայումս քննարկվում է Կալիֆորնիայի Ապագայի ինստիտուտի կողմից, չնայած շատ քննադատներ կարծում են, որ քննարկումը վաղաժամ է[341] Տրանսհումանիզմի որոշ քննադատներ պնդում են, որ ռոբոտի հիպոտետիկ իրավունքներն ընկած են կենդանիների իրավունքների և մարդկանց իրավունքների միջև սպեկտրում[342]։ Նյութը խորապես քննարկվել է 2010 թվականի Plug & Pray վավերագրական ֆիլմում[343]։

Սուպերխելացի խմբագրել

Արդյոք կա՞ սահման մեքենաները կամ մարդ-մեքենա հիբրիդները կարող են լինել։ Սուպերբանական, հիպերբանական կամ գերմարդկային բանականությունը հիպոթեթիկ ագենտ է, որն ամենապայծառ և ամենատաղանդավոր մարդու ունակությունները գերազանցող բանականություն կունենա։ Գերբնականը կարող է նաև վերաբերել այսպիսի ագենտի բանականության աստիճանին[131]։

Տեխնոլոգիական առանձնահատկություն խմբագրել

Եթե ընդհանուր արհեստական ինտելեկտի ուսումնասիրությունը բերել է բավականին խելացի ծրագրային ապահովում, այն կարող է ծրագրավորել և զարգացնել ինքն իրեն։ Բարելաված ծրագրային ապահովումը իրեն զարգացնելու տեսանկյունից նույնիսկ ավելի լավը կլինի, որը կբերի ռեկուրսիվ ինքնակատարելագործման[344]։ Նոր բանականությունը կարող է հետևաբար աճել երկրաչափական պրոգրեսիայով և էապես գերազանցել մարդկանց։ Ֆանտաստ գրող Վերնոր Վինգը այս սցենարն անվանել է "եզակիություն"[345]։ Տեխնոլոգիական եզակիությունը այն է, երբ տեխնոլոգիաների առաջընթացի արագացումը կառաջացնի սրընթաց աճի էֆեկտ, որտեղ արհեստական ինտելեկտը կգերազանցի մարդու ինտելեկտուալ կարողությունները և վերահսկողությունը, այդպիսով արմատապես փոխելով կամ նույնիսկ ավարտելով քաղաքակրթությունը։ Քանի որ այդպիսի բանականության հնարավորությունները կարող է հնարավոր չլինի հասկանալ, տեխնոլոգիական յուրահատկությունը այն է, որից դուրս պատահարները անկանխատեսելի են և նույնիսկ անհասկանալի[131][345]։

Ռեյ Կուրցվեյլը օգտագործել է Մուռի օրենքը (որը նկարագրում է թվային տեխնոլոգիաների էքսպոնենցիալ անդադար բարելավումը) հաշվարկելու որ համակարգիչները 2029 թվականին կունենան նույնքան հաշվարկային հզորություն, որքան մարդկային ուղեղը, և կանխատեսում է, որ եզակիությունը ի հայտ կգա 2045 թվականին[345]։

Տրանսհումանիզմ խմբագրել

Ռոբոտներ մշակող Հանս Մորավեկը, կիբեռնետիկ Կեվին Ուորվիկը և Ռեյմոնդ Կուրցվեյլը կանխատեսել են, որ մարդիկ և մեքենաները ապագայում կմիաձուլվեն որպես կիբորգներ, որոնք ավելի ունակ են և հզոր, քան յուրաքանչյուրը[346]։ Այս գաղափարը կոչվում է տրանսհումանիզմ, որը գալիս է Օլդոս Հաքսլիից և Ռոբերտ Էթինգերից։

Էդվարդ Ֆրեդկինը պնդում է "արհեստական ինտելեկտը էվոլյուցիայի հաջորդ փուլն է", գաղափարը սկզբում առաջ է քաշել Սեմյուել Բաթլերը "Դարվինը մեքենաների մեջ" գրքում (1863), և 1998 թվականին ընդլայնվեց Ջորջ Դեյսոնի կողմից, իր նույնանուն գրքում[347]։

Գեղարվեստական գրականության մեջ խմբագրել

 
"Ռոբոտ" բառն ինքնին հորինել է itself was coined by Կարել Չապեկը իր 1921 թվականի R.U.R. պիեսում, որը նշանակում է "Ռոսսումյան ունիվերսալ ռոբոտներ"

Մտածելու կարողությամբ արհեստական արարածներ երևացել են դեռևս հին ժամանակների պատմություններում[22], և մշտական թեմա են եղել գիտական ֆանտաստիկայում։

Այս գործերում սովորական այլաբանությունը սկսվում է Մերի Շելլիի Ֆրանկենշթայնից, որտեղ ստեղծված մարդը սպառնալիք է դառնում վարպետների համար։ Այն ներառում է այնպիսի գործեր, ինչպիսին են Արթուր Կլարկի և Ստենլի Կուբրիկի 2001 թվականի տիեզերական ոդիսականը և 2001: A Space Odyssey (երկուսն էլ 1968), HAL 9000, տիեզերանավը ղեկավարող մարդասպան համակարգիչը Discovery One, ինչպես նաև Տերմինատոր (1984) և Մատրիցա (1999). Հակառակ դրան, հազվադեպ հավատարիմ ռոբոտներ, ինչպես Գորտը Օրը, երբ երկիրը կանգ առավ-ից (1951) և եպիսկոպոսը Այլ մոլորակայինները (1986) քիչ հայտնի են ժողովրդական մշակույթի մեջ[348]։ Իսաակ Ազիմովը ներկայացրեց Ռոբոտների երեք օրենքը շատ գրքերում և պատմություններում, ամենանշանակալին "Multivac" սերիաներն են նույն անվանմամբ սուպեր խելացի համակարգչի մասին։ Ազիմովի օրենքները հաճախ վեր են հանվում մեքենայական էթիկայի ոչ պրոֆեսիոնալ քննարկումներում[349], մինչդեռ համարյա արհեստական ինտելեկտի բոլոր հետազոտողները ծանոթ են Ազիմովի օրենքներին զանգվածային մշակույթի միջոցով, նրանք ընդհանուր առմամբ դրանք անօգուտ են համարում շատ պատճառներով, որոնցից մեկը դրանց երկիմաստությունն է[350]։

Տրանսհումանիզմ (մարդկանց և մեքենաների միաձուլումը) հետազոտվում է մանգա Ghost in the Shell և Դյունա գիտաֆանտաստիկ շարքերում։ 1980-ականներին, ճապոնացի նկարիչ Հեջիմե Սարոյաման նկարեց և հրապարակեց Սեքսի ռոբոտներ շարքը, պատկերելով իրական օրգանական մարդկային տեսքը մետաղական մկանային մաշկով և հետագայում հրապարակեց "the Gynoids" գիրքը, որն օգտագործվեց ֆիլմ ստեղծողների, այդ թվում Ջորջ Լուկասի կողմից իրենց ստեղծագործություններում։ Սարոյաման այդ օրգանիկ ռոբոտները երբեք չէր դիտարկում որպես բնության իրական մաս, այլ մարդկային երևակայության արդյունք, ֆանտազիա, որ գոյություն ունի միայն մարդու մտքում, նույնիսկ երբ նա իրական տեսք է ստացել։ Մի քանի գործեր ԱԻ-ն օգտագործում են մեզ ստիպելու դիմակայել հիմնահարցին, թե ինչն է մեզ մարդ դարձնում, մեզ ներկայացնելով արհեստական արարածներ, որոնք կարող են զգացմունքներ ունենալ, հետևաբար և տառապել։ Սա երևում է Կարել Չապեկի "R.U.R."-ում, the "A.I. Artificial Intelligence" և "Ex Machina" ֆիլմերում, ինչպես նաև Ֆիլիպ Դիկի Do Androids Dream of Electric Sheep? վեպում։ Դիկը գտնում է, որ մարդու սուբյեկտիվության մեր պատկերացումը փոխվում է արհեստական ինտելեկտ ստեղծող տեխնոլոգիայի միջոցով[351]։

Տես նաև խմբագրել

Նշումներ խմբագրել

  1. The act of doling out rewards can itself be formalized or automated into a "reward function".
  2. Terminology varies; see algorithm characterizations.
  3. Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.
  4. While such a "victory of the neats" may be a consequence of the field becoming more mature, AIMA states that in practice both neat and scruffy approaches continue to be necessary in AI research.
  5. "There exist many different types of uncertainty, vagueness, and ignorance... [We] independently confirm the inadequacy of systems for reasoning about uncertainty that propagates numerical factors according to only to which connectives appear in assertions."[179]
  6. Expectation-maximization, one of the most popular algorithms in machine learning, allows clustering in the presence of unknown latent variables[188]
  7. The most widely used analogical AI until the mid-1990s[199]
  8. SVM displaced k-nearest neighbor in the 1990s[201]
  9. Naive Bayes is reportedly the "most widely used learner" at Google, due in part to its scalability.[204]
  10. Each individual neuron is likely to participate in more than one concept.
  11. Steering for the 1995 "No Hands Across America" required "only a few human assists".
  12. This is based on Mary's Room, a thought experiment first proposed by Frank Jackson in 1982

Ծանոթագրություններ խմբագրել

  1. Russell, Norvig, էջ 2
  2. Hofstadter (1980, էջ. 601)
  3. Schank, Roger C. (1991). «Where's the AI». AI magazine. Vol. 12, no. 4. էջ 38.
  4. 4,0 4,1 Russell, Norvig
  5. 5,0 5,1 «AlphaGo – Google DeepMind». Արխիվացված օրիգինալից 2016 թ․ մարտի 10-ին.
  6. 6,0 6,1 Optimism of early AI:
    • Herbert A. Simon quote: Simon 1965, էջ. 96 quoted in Crevier 1993, էջ. 109.
    • Marvin Minsky quote: Minsky 1967, էջ. 2 quoted in Crevier 1993, էջ. 109.
  7. 7,0 7,1 7,2 Boom of the 1980s: rise of expert systems, Fifth Generation Project, Alvey, MCC, SCI:
    • McCorduck 2004, էջեր. 426–441
    • Crevier 1993, էջեր. 161–162, 197–203, 211, 240
    • Russell & Norvig 2003, էջ. 24
    • NRC 1999, էջեր. 210–211
  8. 8,0 8,1 First AI Winter, Mansfield Amendment, Lighthill report
  9. 9,0 9,1 Second AI winter:
    • McCorduck 2004, էջեր. 430–435
    • Crevier 1993, էջեր. 209–210
    • NRC 1999, էջեր. 214–216
  10. 10,0 10,1 10,2 AI becomes hugely successful in the early 21st century
  11. 11,0 11,1 Pamela McCorduck (2004, էջեր. 424) writes of "the rough shattering of AI in subfields—vision, natural language, decision theory, genetic algorithms, robotics ... and these with own sub-subfield—that would hardly have anything to say to each other."
  12. 12,0 12,1 12,2 This list of intelligent traits is based on the topics covered by the major AI textbooks, including:
  13. 13,0 13,1 13,2 Biological intelligence vs. intelligence in general:
    • Russell & Norvig 2003, էջեր. 2–3, who make the analogy with aeronautical engineering.
    • McCorduck 2004, էջեր. 100–101, who writes that there are "two major branches of artificial intelligence: one aimed at producing intelligent behavior regardless of how it was accomplished, and the other aimed at modeling intelligent processes found in nature, particularly human ones."
    • Kolata 1982, a paper in Science, which describes McCarthy's indifference to biological models. Kolata quotes McCarthy as writing: "This is AI, so we don't care if it's psychologically real" https://books.google.am/books?id=PEkqAAAAMAAJ. {{cite web}}: Missing or empty |title= (օգնություն). McCarthy recently reiterated his position at the AI@50 conference where he said "Artificial intelligence is not, by definition, simulation of human intelligence" (Maker 2006).
  14. 14,0 14,1 14,2 Neats vs. scruffies:
    • McCorduck 2004, էջեր. 421–424, 486–489
    • Crevier 1993, էջեր. 168
    • Nilsson 1983, էջեր. 10–11
  15. 15,0 15,1 Symbolic vs. sub-symbolic AI:
    • Nilsson (1998, էջ. 7), who uses the term "sub-symbolic".
  16. 16,0 16,1 General intelligence (strong AI) is discussed in popular introductions to AI:
  17. See the Dartmouth proposal, under Philosophy, below.
  18. 18,0 18,1 This is a central idea of Pamela McCorduck's Machines Who Think. She writes: "I like to think of artificial intelligence as the scientific apotheosis of a venerable cultural tradition." (McCorduck 2004, էջ 34) "Artificial intelligence in one form or another is an idea that has pervaded Western intellectual history, a dream in urgent need of being realized." (McCorduck 2004, էջ xviii) "Our history is full of attempts—nutty, eerie, comical, earnest, legendary and real—to make artificial intelligences, to reproduce what is the essential us—bypassing the ordinary means. Back and forth between myth and reality, our imaginations supplying what our workshops couldn't, we have engaged for a long time in this odd form of self-reproduction." (McCorduck 2004, էջ 3) She traces the desire back to its Hellenistic roots and calls it the urge to "forge the Gods." (McCorduck 2004, էջեր 340–400)
  19. «Stephen Hawking believes AI could be mankind's last accomplishment». BetaNews. 2016 թ․ հոկտեմբերի 21. Արխիվացված օրիգինալից 2017 թ․ օգոստոսի 28-ին.
  20. 20,0 20,1 Ford, Martin; Colvin, Geoff (2015 թ․ սեպտեմբերի 6). «Will robots create more jobs than they destroy?». The Guardian. Վերցված է 2018 թ․ հունվարի 13-ին.
  21. 21,0 21,1 AI applications widely used behind the scenes:
  22. 22,0 22,1 AI in myth:
  23. AI in early science fiction.
  24. 24,0 24,1 Formal reasoning:
  25. "Artificial Intelligence." Encyclopedia of Emerging Industries, edited by Lynn M. Pearce, 6th ed., Gale, 2011, pp. 73–80. Gale Virtual Reference Library, http://link.galegroup.com/apps/doc/CX1930200017/GVRL?u=mcc_pv&sid=GVRL&xid=cd5adac2. Accessed 31 Mar. 2018.
  26. Russell, Norvig, էջ 16
  27. Hegemony of the Dartmouth conference attendees:
    • Russell & Norvig 2003, էջ. 17, who write "for the next 20 years the field would be dominated by these people and their students."
    • McCorduck 2004, էջեր. 129–130
  28. Russell, Norvig, էջ 18: «it was astonishing whenever a computer did anything kind of smartish»
  29. Schaeffer J. (2009) Didn’t Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA
  30. Samuel, A. L. (1959 թ․ հուլիս). «Some Studies in Machine Learning Using the Game of Checkers». IBM Journal of Research and Development. 3 (3): 210–229. doi:10.1147/rd.33.0210.
  31. "Golden years" of AI (successful symbolic reasoning programs 1956–1973): The programs described are Arthur Samuel's checkers program for the IBM 701, Daniel Bobrow's STUDENT, Newell and Simon's Logic Theorist and Terry Winograd's SHRDLU.
  32. DARPA pours money into undirected pure research into AI during the 1960s:
    • McCorduck 2004, էջեր. 131
    • Crevier 1993, էջեր. 51, 64–65
    • NRC 1999, էջեր. 204–205
  33. AI in England:
  34. 34,0 34,1 Expert systems:
  35. 35,0 35,1 Formal methods are now preferred ("Victory of the neats"):
  36. McCorduck, 2004, էջեր 480–483
  37. Markoff, 2011
  38. «Ask the AI experts: What's driving today's progress in AI?». McKinsey & Company (անգլերեն). Վերցված է 2018 թ․ ապրիլի 13-ին.
  39. Administrator. «Kinect's AI breakthrough explained». i-programmer.info. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 1-ին.
  40. Rowinski, Dan (2013 թ․ հունվարի 15). «Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]». ReadWrite. Արխիվացված օրիգինալից 2015 թ․ դեկտեմբերի 22-ին.
  41. «Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol». BBC News. 2016 թ․ մարտի 12. Արխիվացված օրիգինալից 2016 թ․ օգոստոսի 26-ին. Վերցված է 2016 թ․ հոկտեմբերի 1-ին.
  42. «After Win in China, AlphaGo's Designers Explore New AI». 2017 թ․ մայիսի 27. Արխիվացված օրիգինալից 2017 թ․ հունիսի 2-ին.
  43. «World's Go Player Ratings». 2017 թ․ մայիս. Արխիվացված օրիգինալից 2017 թ․ ապրիլի 1-ին.
  44. «柯洁迎19岁生日 雄踞人类世界排名第一已两年» (Chinese). 2017 թ․ մայիս. Արխիվացված օրիգինալից 2017 թ․ օգոստոսի 11-ին.{{cite web}}: CS1 սպաս․ չճանաչված լեզու (link)
  45. 45,0 45,1 Clark, Jack (2015 թ․ դեկտեմբերի 8). «Why 2015 Was a Breakthrough Year in Artificial Intelligence». Bloomberg News. Արխիվացված օրիգինալից 2016 թ․ նոյեմբերի 23-ին. Վերցված է 2016 թ․ նոյեմբերի 23-ին. «After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.»
  46. «Reshaping Business With Artificial Intelligence». MIT Sloan Management Review (անգլերեն). Վերցված է 2018 թ․ մայիսի 2-ին.
  47. Lorica, Ben (2017 թ․ դեկտեմբերի 18). «The state of AI adoption». O'Reilly Media (անգլերեն). Վերցված է 2018 թ․ մայիսի 2-ին.
  48. Definition of AI as the study of intelligent agents:
  49. Domingos, 2015, Chapter 5
  50. Domingos, 2015, Chapter 7
  51. Lindenbaum, M., Markovitch, S., & Rusakov, D. (2004). Selective sampling for nearest neighbor classifiers. Machine learning, 54(2), 125–152.
  52. Domingos, 2015, Chapter 1
  53. 53,0 53,1 Intractability and efficiency and the combinatorial explosion:
  54. Domingos, 2015, Chapter 2, Chapter 3
  55. Hart, P. E.; Nilsson, N. J.; Raphael, B. (1972). «Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"». SIGART Newsletter (37): 28–29. doi:10.1145/1056777.1056779.
  56. «Algorithm in Artificial Intelligence».(չաշխատող հղում)
  57. Domingos, 2015, Chapter 2, Chapter 4, Chapter 6
  58. «Can neural network computers learn from experience, and if so, could they ever become what we would call 'smart'?». Scientific American (անգլերեն). 2018. Վերցված է 2018 թ․ մարտի 24-ին.
  59. Domingos, 2015, Chapter 6, Chapter 7
  60. Domingos, 2015, էջ 286
  61. «Single pixel change fools AI programs». BBC News. 2017 թ․ նոյեմբերի 3. Վերցված է 2018 թ․ մարտի 12-ին.
  62. «AI Has a Hallucination Problem That's Proving Tough to Fix». WIRED. 2018. Վերցված է 2018 թ․ մարտի 12-ին.
  63. Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." arXiv preprint arXiv:1412.6572 (2014).
  64. Matti, D.; Ekenel, H. K.; Thiran, J. P. (2017). «Combining LiDAR space clustering and convolutional neural networks for pedestrian detection». 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS): 1–6. doi:10.1109/AVSS.2017.8078512. ISBN 978-1-5386-2939-0.
  65. Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (2015). «Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions». Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (անգլերեն). Springer, Cham. 107: 161–177. arXiv:1405.5581. doi:10.1007/978-3-319-16595-0_10. ISBN 978-3-319-16594-3.
  66. «Cultivating Common Sense | DiscoverMagazine.com». Discover Magazine. 2017. Վերցված է 2018 թ․ մարտի 24-ին.
  67. Davis, Ernest; Marcus, Gary (2015 թ․ օգոստոսի 24). «Commonsense reasoning and commonsense knowledge in artificial intelligence». Communications of the ACM. 58 (9): 92–103. doi:10.1145/2701413.(չաշխատող հղում)
  68. Winograd, Terry (1972 թ․ հունվար). «Understanding natural language». Cognitive Psychology. 3 (1): 1–191. doi:10.1016/0010-0285(72)90002-3.
  69. «Don't worry: Autonomous cars aren't coming tomorrow (or next year)». Autoweek. 2016. Վերցված է 2018 թ․ մարտի 24-ին.
  70. Knight, Will (2017). «Boston may be famous for bad drivers, but it's the testing ground for a smarter self-driving car». MIT Technology Review (անգլերեն). Վերցված է 2018 թ․ մարտի 27-ին.
  71. Prakken, Henry (2017 թ․ օգոստոսի 31). «On the problem of making autonomous vehicles conform to traffic law». Artificial Intelligence and Law. 25 (3): 341–363. doi:10.1007/s10506-017-9210-0.
  72. Problem solving, puzzle solving, game playing and deduction:
  73. Uncertain reasoning:
  74. Psychological evidence of sub-symbolic reasoning:
    • Wason & Shapiro (1966) showed that people do poorly on completely abstract problems, but if the problem is restated to allow the use of intuitive social intelligence, performance dramatically improves.
    • Kahneman, Slovic & Tversky (1982) have shown that people are terrible at elementary problems that involve uncertain reasoning.
    • Lakoff & Núñez (2000) have controversially argued that even our skills at mathematics depend on knowledge and skills that come from "the body", i.e. sensorimotor and perceptual skills.
  75. Knowledge representation:
  76. Knowledge engineering:
  77. 77,0 77,1 Representing categories and relations: Semantic networks, description logics, inheritance (including [[frame frames and scripts):
  78. 78,0 78,1 Representing events and time:Situation calculus, event calculus, fluent calculus (including solving the frame problem):
  79. 79,0 79,1 Causal calculus:
  80. 80,0 80,1 Representing knowledge about knowledge: Belief calculus, modal logics:
  81. Sikos, Leslie F. (2017 թ․ հունիս). Description Logics in Multimedia Reasoning. Cham: Springer. doi:10.1007/978-3-319-54066-5. ISBN 978-3-319-54066-5. Արխիվացված օրիգինալից 2017 թ․ օգոստոսի 29-ին.
  82. Ontology:
  83. Smoliar, Stephen W.; Zhang, HongJiang (1994). «Content based video indexing and retrieval». IEEE multimedia. 1.2: 62–72.
  84. Neumann, Bernd; Möller, Ralf (2008 թ․ հունվար). «On scene interpretation with description logics». Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013.
  85. Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (2006 թ․ հուլիսի 1). «Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations». Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681.
  86. MCGARRY, KEN (2005 թ․ դեկտեմբերի 1). «A survey of interestingness measures for knowledge discovery». The Knowledge Engineering Review. 20 (1): 39. doi:10.1017/S0269888905000408.
  87. Bertini, M; Del Bimbo, A; Torniai, C (2006). «Automatic annotation and semantic retrieval of video sequences using multimedia ontologies». MM ‘06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. էջեր 679–682.
  88. Qualification problem: While McCarthy was primarily concerned with issues in the logical representation of actions, Russell & Norvig 2003 apply the term to the more general issue of default reasoning in the vast network of assumptions underlying all our commonsense knowledge.
  89. 89,0 89,1 Default reasoning and default logic, non-monotonic logics, circumscription, closed world assumption, abduction (Poole et al. places abduction under "default reasoning". Luger et al. places this under "uncertain reasoning"):
  90. Breadth of commonsense knowledge:
  91. Dreyfus, Dreyfus
  92. Gladwell, 2005
  93. 93,0 93,1 Expert knowledge as embodied intuition:
    • Dreyfus & Dreyfus 1986 (Hubert Dreyfus is a philosopher and critic of AI who was among the first to argue that most useful human knowledge was encoded sub-symbolically. See Dreyfus' critique of AI)
    • Gladwell 2005 (Gladwell's Blink is a popular introduction to sub-symbolic reasoning and knowledge.)
    • Hawkins & Blakeslee 2005 (Hawkins argues that sub-symbolic knowledge should be the primary focus of AI research.)
  94. Planning:
  95. 95,0 95,1 Information value theory:
  96. Classical planning:
  97. Planning and acting in non-deterministic domains: conditional planning, execution monitoring, replanning and continuous planning:
  98. Multi-agent planning and emergent behavior:
  99. Alan Turing discussed the centrality of learning as early as 1950, in his classic paper "Computing Machinery and Intelligence".(Turing 1950) In 1956, at the original Dartmouth AI summer conference, Ray Solomonoff wrote a report on unsupervised probabilistic machine learning: "An Inductive Inference Machine".(Solomonoff 1956)
  100. This is a form of Tom Mitchell's widely quoted definition of machine learning: "A computer program is set to learn from an experience E with respect to some task T and some performance measure P if its performance on T as measured by P improves with experience E."
  101. 101,0 101,1 Learning:
  102. Jordan, M. I.; Mitchell, T. M. (2015 թ․ հուլիսի 16). «Machine learning: Trends, perspectives, and prospects». Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415.
  103. Reinforcement learning:
  104. Natural language processing:
  105. "Versatile question answering systems: seeing in synthesis" Արխիվացված 1 Փետրվար 2016 Wayback Machine, Mittal et al., IJIIDS, 5(2), 119–142, 2011
  106. Applications of natural language processing, including information retrieval (i.e. text mining) and machine translation:
  107. Cambria, Erik; White, Bebo (2014 թ․ մայիս). «Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]». IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227.
  108. Machine perception:
  109. Speech recognition:
  110. Object recognition:
  111. Computer vision:
  112. Robotics:
  113. 113,0 113,1 Moving and configuration space:
  114. 114,0 114,1 Tecuci, 2012
  115. Robotic mapping (localization, etc):
  116. Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (2016 թ․ դեկտեմբեր). «Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age». IEEE Transactions on Robotics. 32 (6): 1309–1332. doi:10.1109/TRO.2016.2624754.
  117. Moravec, Hans (1988). Mind Children. Harvard University Press. էջ 15.
  118. Chan, Szu Ping (2015 թ․ նոյեմբերի 15). «This is what will happen when robots take over the world». Վերցված է 2018 թ․ ապրիլի 23-ին.
  119. 119,0 119,1 «IKEA furniture and the limits of AI». The Economist (անգլերեն). 2018. Վերցված է 2018 թ․ ապրիլի 24-ին.
  120. Kismet
  121. Thompson, Derek (2018). «What Jobs Will the Robots Take?». The Atlantic. Վերցված է 2018 թ․ ապրիլի 24-ին.
  122. Scassellati, Brian (2002). «Theory of mind for a humanoid robot». Autonomous Robots. 12 (1): 13–24.
  123. Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (2013 թ․ փետրվար). «An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination». IEEE Transactions on Industrial Informatics. 9 (1): 427–438. arXiv:1207.3231. doi:10.1109/TII.2012.2219061.
  124. Thro, 1993
  125. Edelson, 1991
  126. Tao, Tan
  127. Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (2017 թ․ սեպտեմբեր). «A review of affective computing: From unimodal analysis to multimodal fusion». Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003.
  128. Emotion and affective computing:
  129. Waddell, Kaveh (2018). «Chatbots Have Entered the Uncanny Valley». The Atlantic. Վերցված է 2018 թ․ ապրիլի 24-ին.
  130. Pennachin, C.; Goertzel, B. (2007). «Contemporary Approaches to Artificial General Intelligence». Artificial General Intelligence. Cognitive Technologies. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4.
  131. 131,0 131,1 131,2 Roberts, Jacob (2016). «Thinking Machines: The Search for Artificial Intelligence». Distillations. Vol. 2, no. 2. էջեր 14–23. Վերցված է 2018 թ․ մարտի 20-ին.
  132. «The superhero of artificial intelligence: can this genius keep it in check?». the Guardian (անգլերեն). 2016 թ․ փետրվարի 16. Վերցված է 2018 թ․ ապրիլի 26-ին.
  133. Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K.; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; King, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (2015 թ․ փետրվարի 26). «Human-level control through deep reinforcement learning». Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236.
  134. Sample, Ian (2017 թ․ մարտի 14). «Google's DeepMind makes AI program that can learn like a human». the Guardian (անգլերեն). Վերցված է 2018 թ․ ապրիլի 26-ին.
  135. «From not working to neural networking». The Economist (անգլերեն). 2016. Վերցված է 2018 թ․ ապրիլի 26-ին.
  136. Domingos, 2015
  137. 137,0 137,1 Artificial brain arguments: AI requires a simulation of the operation of the human brain A few of the people who make some form of the argument: The most extreme form of this argument (the brain replacement scenario) was put forward by Clark Glymour in the mid-1970s and was touched on by Zenon Pylyshyn and John Searle in 1980.
  138. Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (2010 թ․ դեկտեմբեր). «A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures». Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
  139. Nils Nilsson writes: "Simply put, there is wide disagreement in the field about what AI is all about" (Nilsson 1983, էջ 10).
  140. AI's immediate precursors:
  141. Haugeland 1985, էջեր. 112–117
  142. The most dramatic case of sub-symbolic AI being pushed into the background was the devastating critique of perceptrons by Marvin Minsky and Seymour Papert in 1969. See History of AI, AI winter, or Frank Rosenblatt.
  143. Cognitive simulation, Newell and Simon, AI at CMU (then called Carnegie Tech):
    • McCorduck 2004, էջեր. 139–179, 245–250, 322–323 (EPAM)
    • Crevier 1993, էջեր. 145–149
  144. Soar (history):
    • McCorduck 2004, էջեր. 450–451
    • Crevier 1993, էջեր. 258–263
  145. McCarthy and AI research at SAIL and SRI International:
  146. AI research at Edinburgh and in France, birth of Prolog:
  147. AI at MIT under Marvin Minsky in the 1960s :
  148. Cyc:
  149. Knowledge revolution:
  150. Frederick, Hayes-Roth; William, Murray; Leonard, Adelman. «Expert systems» (անգլերեն). doi:10.1036/1097-8542.248550. {{cite journal}}: Cite journal requires |journal= (օգնություն)
  151. Embodied approaches to AI:
  152. Weng, McClelland
  153. Lungarella, Metta
  154. Asada, Hosoda
  155. Oudeyer, 2010
  156. Revival of connectionism:
  157. Computational intelligence
  158. Hutson, Matthew (2018 թ․ փետրվարի 16). «Artificial intelligence faces reproducibility crisis». Science (անգլերեն). էջեր 725–726. Bibcode:2018Sci...359..725H. doi:10.1126/science.359.6377.725. Վերցված է 2018 թ․ ապրիլի 28-ին.
  159. Norvig, 2012
  160. Langley, 2011
  161. Katz, 2012
  162. The intelligent agent paradigm: The definition used in this article, in terms of goals, actions, perception and environment, is due to Russell & Norvig (2003). Other definitions also include knowledge and learning as additional criteria.
  163. Agent architectures, hybrid intelligent systems:
  164. Hierarchical control system:
  165. Search algorithms:
  166. Forward chaining, backward chaining, Horn clauses, and logical deduction as search:
  167. State space search and planning:
  168. Uninformed searches (breadth first search, depth first search and general state space search):
  169. Heuristic or informed searches (e.g., greedy best first and A*):
  170. Optimization searches:
  171. Genetic programming and genetic algorithms:
  172. Artificial life and society based learning:
  173. Daniel Merkle; Martin Middendorf (2013). «Swarm Intelligence». In Burke, Edmund K.; Kendall, Graham (eds.). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (անգլերեն). Springer Science & Business Media. ISBN 9781461469407.
  174. Logic:
  175. Satplan:
  176. Explanation based learning, relevance based learning, inductive logic programming, case based reasoning:
  177. Propositional logic:
  178. First-order logic and features such as equality:
  179. Elkin, Charles (1994). «The paradoxical success of fuzzy logic». IEEE expert. 9 (4): 3–49.
  180. Fuzzy logic:
  181. «What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?». Scientific American (անգլերեն). Վերցված է 2018 թ․ մայիսի 5-ին.
  182. "Վստահության հաշվարկը և անորոշ պատճառաբանությունը", Yen-Teh Hsia
  183. 183,0 183,1 Domingos, 2015, chapter 6
  184. «Logic and Probability». Stanford Encyclopedia of Philosophy. Վերցված է 2018 թ․ մայիսի 5-ին.
  185. Stochastic methods for uncertain reasoning:
  186. Bayesian networks:
  187. Bayesian inference algorithm:
  188. Domingos, 2015, էջ 210
  189. Bayesian learning and the expectation-maximization algorithm:
  190. Bayesian decision theory and Bayesian decision networks:
  191. 191,0 191,1 191,2 Stochastic temporal models: Dynamic Bayesian networks: Hidden Markov model: Kalman filters:
  192. decision theory and decision analysis:
  193. Markov decision processes and dynamic decision networks:
  194. Game theory and mechanism design:
  195. Statistical learning methods and classifiers:
  196. Decision tree:
  197. Domingos, 2015, էջ 88
  198. 198,0 198,1 Neural networks and connectionism:
  199. Domingos, 2015, էջ 187
  200. K-nearest neighbor algorithm:
  201. Domingos, 2015, էջ 188
  202. kernel methods such as the support vector machine:
  203. Gaussian mixture model:
  204. Domingos, 2015, էջ 152
  205. Naive Bayes classifier:
  206. Classifier performance:
  207. Russell, Norvig, 18.12: Learning from Examples: Summary
  208. Domingos, 2015, Chapter 4
  209. «Why Deep Learning Is Suddenly Changing Your Life». Fortune. 2016. Արխիվացված է օրիգինալից 2018 թ․ ապրիլի 14-ին. Վերցված է 2018 թ․ մարտի 12-ին.
  210. «Google leads in the race to dominate artificial intelligence». The Economist (անգլերեն). 2017. Վերցված է 2018 թ․ մարտի 12-ին.
  211. 211,0 211,1 211,2 211,3 Schmidhuber, J. (2015). «Deep Learning in Neural Networks: An Overview». Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637.
  212. 212,0 212,1 Ian Goodfellow, Yoshua Bengio, and Aaron Courville (2016). Deep Learning. MIT Press. Online Արխիվացված 16 Ապրիլ 2016 Wayback Machine
  213. Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). «Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups». IEEE Signal Processing Magazine. 29 (6): 82–97. doi:10.1109/msp.2012.2205597.
  214. Schmidhuber, Jürgen (2015). «Deep Learning». Scholarpedia. 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi:10.4249/scholarpedia.32832. Արխիվացված օրիգինալից 2016 թ․ ապրիլի 19-ին.
  215. Rina Dechter (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.Online Արխիվացված 19 Ապրիլ 2016 Wayback Machine
  216. Igor Aizenberg, Naum N. Aizenberg, Joos P.L. Vandewalle (2000). Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications. Springer Science & Business Media.
  217. Ivakhnenko, Alexey (1965). Cybernetic Predicting Devices. Kiev: Naukova Dumka.
  218. Ivakhnenko, Alexey (1971). «Polynomial theory of complex systems». IEEE Transactions on Systems, Man and Cybernetics (4): 364–378.
  219. Hinton, 2007
  220. Research, AI (2015 թ․ հոկտեմբերի 23). «Deep Neural Networks for Acoustic Modeling in Speech Recognition». airesearch.com. Վերցված է 2015 թ․ հոկտեմբերի 23-ին.
  221. Fukushima, K. (1980). «Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position». Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364.
  222. Yann LeCun (2016). Slides on Deep Learning Online Արխիվացված 23 Ապրիլ 2016 Wayback Machine
  223. Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis (2017 թ․ հոկտեմբերի 19). «Mastering the game of Go without human knowledge». Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. «AlphaGo Lee... 12 convolutional layers»Կաղապար:Closed access
  224. Recurrent neural networks, Hopfield nets:
  225. Hyötyniemi, Heikki (1996). «Turing machines are recurrent neural networks». Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24.
  226. P. J. Werbos. Generalization of backpropagation with application to a recurrent gas market model" Neural Networks 1, 1988.
  227. A. J. Robinson and F. Fallside. The utility driven dynamic error propagation network. Technical Report CUED/F-INFENG/TR.1, Cambridge University Engineering Department, 1987.
  228. R. J. Williams and D. Zipser. Gradient-based learning algorithms for recurrent networks and their computational complexity. In Back-propagation: Theory, Architectures and Applications. Hillsdale, NJ: Erlbaum, 1994.
  229. Sepp Hochreiter (1991), Untersuchungen zu dynamischen neuronalen Netzen Արխիվացված 6 Մարտ 2015 Wayback Machine, Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor: J. Schmidhuber.
  230. Schmidhuber, J. (1992). «Learning complex, extended sequences using the principle of history compression». Neural Computation. 4 (2): 234–242. CiteSeerX 10.1.1.49.3934. doi:10.1162/neco.1992.4.2.234.
  231. Hochreiter, Sepp; and Schmidhuber, Jürgen; Long Short-Term Memory, Neural Computation, 9(8):1735–1780, 1997
  232. Alex Graves, Santiago Fernandez, Faustino Gomez, and Jürgen Schmidhuber (2006). Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural nets. Proceedings of ICML'06, pp. 369–376.
  233. Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho; Coates, Adam; Ng, Andrew Y. (2014). «Deep Speech: Scaling up end-to-end speech recognition». arXiv:1412.5567 [cs.CL].
  234. Hasim Sak and Andrew Senior and Francoise Beaufays (2014). Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling. Proceedings of Interspeech 2014.
  235. Li, Xiangang; Wu, Xihong (2015). «Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition». arXiv:1410.4281 [cs.CL].
  236. Haşim Sak, Andrew Senior, Kanishka Rao, Françoise Beaufays and Johan Schalkwyk (September 2015): Google voice search: faster and more accurate. Արխիվացված 9 Մարտ 2016 Wayback Machine
  237. Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). «Sequence to Sequence Learning with Neural Networks». arXiv:1409.3215 [cs.CL].
  238. Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui (2016). «Exploring the Limits of Language Modeling». arXiv:1602.02410 [cs.CL].
  239. Gillick, Dan; Brunk, Cliff; Vinyals, Oriol; Subramanya, Amarnag (2015). «Multilingual Language Processing From Bytes». arXiv:1512.00103 [cs.CL].
  240. Vinyals, Oriol; Toshev, Alexander; Bengio, Samy; Erhan, Dumitru (2015). «Show and Tell: A Neural Image Caption Generator». arXiv:1411.4555 [cs.CV].
  241. Brynjolfsson, Erik; Mitchell, Tom (2017 թ․ դեկտեմբերի 22). «What can machine learning do? Workforce implications». Science (անգլերեն). էջեր 1530–1534. Bibcode:2017Sci...358.1530B. doi:10.1126/science.aap8062. Վերցված է 2018 թ․ մայիսի 7-ին.
  242. Sample, Ian (2017 թ․ հոկտեմբերի 18). «'It's able to create knowledge itself': Google unveils AI that learns on its own». the Guardian (անգլերեն). Վերցված է 2018 թ․ մայիսի 7-ին.
  243. «The AI revolution in science». Science | AAAS (անգլերեն). 2017 թ․ հուլիսի 5. Վերցված է 2018 թ․ մայիսի 7-ին.
  244. «Will your job still exist in 10 years when the robots arrive?». South China Morning Post (անգլերեն). 2017. Վերցված է 2018 թ․ մայիսի 7-ին.
  245. Borowiec, Tracey Lien, Steven (2016). «AlphaGo beats human Go champ in milestone for artificial intelligence». latimes.com. Վերցված է 2018 թ․ մայիսի 7-ին.{{cite news}}: CS1 սպաս․ բազմաթիվ անուններ: authors list (link)
  246. Brown, Noam; Sandholm, Tuomas (2018 թ․ հունվարի 26). «Superhuman AI for heads-up no-limit poker: Libratus beats top professionals». Science (անգլերեն). էջեր 418–424. doi:10.1126/science.aao1733. Վերցված է 2018 թ․ մայիսի 7-ին.
  247. Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (2013 թ․ դեկտեմբեր). «A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft». IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. doi:10.1109/TCIAIG.2013.2286295.
  248. «Facebook Quietly Enters StarCraft War for AI Bots, and Loses». WIRED. 2017. Վերցված է 2018 թ․ մայիսի 7-ին.
  249. «ILSVRC2017». image-net.org (անգլերեն). Վերցված է 2018 թ․ նոյեմբերի 6-ին.
  250. Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (2017 թ․ օգոստոսի 23). «Moving beyond the Turing Test with the Allen AI Science Challenge». Communications of the ACM. 60 (9): 60–64. doi:10.1145/3122814.
  251. O'Brien, Marakas
  252. Mathematical definitions of intelligence:
  253. Hernández-Orallo, José; Dowe, David L.; Hernández-Lloreda, M.Victoria (2014 թ․ մարտ). «Universal psychometrics: Measuring cognitive abilities in the machine kingdom». Cognitive Systems Research. 27: 50–74. doi:10.1016/j.cogsys.2013.06.001.
  254. 254,0 254,1 Russell, Norvig, էջ 1
  255. CNN, 2006
  256. Using AI to predict flight delays, Ishti.org.
  257. N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). «Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective». PeerJ Computer Science. Արխիվացված օրիգինալից 2016 թ․ հոկտեմբերի 29-ին.
  258. «The Economist Explains: Why firms are piling into artificial intelligence». The Economist. 2016 թ․ մարտի 31. Արխիվացված օրիգինալից 2016 թ․ մայիսի 8-ին. Վերցված է 2016 թ․ մայիսի 19-ին.
  259. Lohr, Steve (2016 թ․ փետրվարի 28). «The Promise of Artificial Intelligence Unfolds in Small Steps». The New York Times. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 29-ին. Վերցված է 2016 թ․ փետրվարի 29-ին.
  260. Wakefield, Jane (2016 թ․ հունիսի 15). «Social media 'outstrips TV' as news source for young people». BBC News. Արխիվացված օրիգինալից 2016 թ․ հունիսի 24-ին.
  261. Smith, Mark (2016 թ․ հուլիսի 22). «So you think you chose to read this article?». BBC News. Արխիվացված օրիգինալից 2016 թ․ հուլիսի 25-ին.
  262. «10 Promising AI Applications in Health Care». Harvard Business Review. 2018 թ․ մայիսի 10. Վերցված է 2018 թ․ օգոստոսի 28-ին.
  263. Dina Bass (2016 թ․ սեպտեմբերի 20). «Microsoft Develops AI to Help Cancer Doctors Find the Right Treatments». Bloomberg. Արխիվացված օրիգինալից 2017 թ․ մայիսի 11-ին.
  264. Gallagher, James (2017 թ․ հունվարի 26). «Artificial intelligence 'as good as cancer doctors'». BBC News (բրիտանական անգլերեն). Արխիվացված օրիգինալից 2017 թ․ հունվարի 26-ին. Վերցված է 2017 թ․ հունվարի 26-ին.
  265. Langen, Pauline A.; Katz, Jeffrey S.; Dempsey, Gayle, eds. (1994 թ․ հոկտեմբերի 18), Remote monitoring of high-risk patients using artificial intelligence, Արխիվացված օրիգինալից 2017 թ․ փետրվարի 28-ին, Վերցված է 2017 թ․ փետրվարի 27-ին
  266. Kermany, D; Goldbaum, M; Zhang, Kang. «Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning» (PDF). www.cell.com. Վերցված է 2018 թ․ դեկտեմբերի 18-ին.
  267. Markoff, John (2011 թ․ փետրվարի 16). «On 'Jeopardy!' Watson Win Is All but Trivial». The New York Times. Արխիվացված օրիգինալից 2017 թ․ սեպտեմբերի 22-ին.
  268. Ng, Alfred (2016 թ․ օգոստոսի 7). «IBM's Watson gives proper diagnosis after doctors were stumped». NY Daily News (անգլերեն). Արխիվացված օրիգինալից 2017 թ․ սեպտեմբերի 22-ին.
  269. "33 Corporations Working On Autonomous Vehicles". CB Insights. N.p., 11 August 2016. 12 November 2016.
  270. West, Darrell M. "Moving forward: Self-driving vehicles in China, Europe, Japan, Korea, and the United States". Center for Technology Innovation at Brookings. N.p., September 2016. 12 November 2016.
  271. Burgess, Matt. «The UK is about to Start Testing Self-Driving Truck Platoons». WIRED. Արխիվացված օրիգինալից 2017 թ․ սեպտեմբերի 22-ին. Վերցված է 2017 թ․ սեպտեմբերի 20-ին.
  272. Davies, Alex. «World's First Self-Driving Semi-Truck Hits the Road». WIRED. Արխիվացված օրիգինալից 2017 թ․ հոկտեմբերի 28-ին. Վերցված է 2017 թ․ սեպտեմբերի 20-ին.
  273. McFarland, Matt. "Google's artificial intelligence breakthrough may have a huge impact on self-driving cars and much more". The Washington Post 25 February 2015. Infotrac Newsstand. 24 October 2016
  274. "Programming safety into self-driving cars". National Science Foundation. N.p., 2 February 2015. 24 October 2016.
  275. ArXiv, E. T. (26 October 2015). Why Self-Driving Cars Must Be Programmed to Kill. Retrieved 17 November 2017, from https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programmed-to-kill/
  276. O'Neill,, Eleanor (2016 թ․ հուլիսի 31). «Accounting, automation and AI». www.icas.com (English). Արխիվացված օրիգինալից 2016 թ․ նոյեմբերի 18-ին. Վերցված է 2016 թ․ նոյեմբերի 18-ին.{{cite web}}: CS1 սպաս․ հավելյալ կետադրություն (link) CS1 սպաս․ չճանաչված լեզու (link)
  277. Robots Beat Humans in Trading Battle. Արխիվացված 9 Սեպտեմբեր 2009 Wayback Machine BBC.com (8 August 2001)
  278. «CTO Corner: Artificial Intelligence Use in Financial Services – Financial Services Roundtable». Financial Services Roundtable (ամերիկյան անգլերեն). 2015 թ․ ապրիլի 2. Արխիվացված է օրիգինալից 2016 թ․ նոյեմբերի 18-ին. Վերցված է 2016 թ․ նոյեմբերի 18-ին.
  279. Marwala, Tshilidzi; Hurwitz, Evan (2017). Artificial Intelligence and Economic Theory: Skynet in the Market. London: Springer. ISBN 978-3-319-66104-9.
  280. «Why AI researchers like video games». The Economist. Արխիվացված օրիգինալից 2017 թ․ հոկտեմբերի 5-ին.
  281. Yannakakis, G. N. (2012, May). Game AI revisited. In Proceedings of the 9th conference on Computing Frontiers (pp. 285–292). ACM.
  282. «Getting to grips with military robotics». The Economist (անգլերեն). 2018 թ․ հունվարի 25. Վերցված է 2018 թ․ փետրվարի 7-ին.
  283. «Autonomous Systems: Infographic». www.siemens.com (անգլերեն). Արխիվացված է օրիգինալից 2018 թ․ փետրվարի 7-ին. Վերցված է 2018 թ․ փետրվարի 7-ին.
  284. «Artificial Intelligence Fuels New Global Arms Race». WIRED. Վերցված է 2017 թ․ դեկտեմբերի 24-ին.
  285. Clifford, Catherine (2017 թ․ սեպտեմբերի 29). «In the same way there was a nuclear arms race, there will be a race to build A.I., says tech exec». CNBC. Վերցված է 2017 թ․ դեկտեմբերի 24-ին.
  286. Metz, Cade (2018 թ․ մարտի 15). «Pentagon Wants Silicon Valley's Help on A.I.». The New York Times. Վերցված է 2018 թ․ մարտի 19-ին.
  287. Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (2017 թ․ ապրիլի 10). «Technical Inefficiency, Allocative Inefficiency, and Audit Pricing». Journal of Accounting, Auditing & Finance: 0148558X1769676. doi:10.1177/0148558X17696760.
  288. Matz, S. C., et al. "Psychological targeting as an effective approach to digital mass persuasion." Proceedings of the National Academy of Sciences (2017): 201710966.
  289. Busby, Mattha (2018 թ․ ապրիլի 30). «Revealed: how bookies use AI to keep gamblers hooked». the Guardian (անգլերեն).
  290. Celli, Fabio, Pietro Zani Massani, and Bruno Lepri. "Profilio: Psychometric Profiling to Boost Social Media Advertising." Proceedings of the 2017 ACM on Multimedia Conference. ACM, 2017 [1]
  291. https://www.moma.org/calendar/exhibitions/3863 Retrieved July 29, 2018
  292. https://www.washingtonpost.com/news/innovations/wp/2016/03/10/googles-psychedelic-paint-brush-raises-the-oldest-question-in-art/ Retrieved July 29
  293. «Unhuman: Art in the Age of AI – State Festival». Statefestival.org. Վերցված է 2018 թ․ սեպտեմբերի 13-ին.
  294. https://www.artsy.net/article/artsy-editorial-hard-painting-made-computer-human. Retrieved July 29
  295. https://dl.acm.org/citation.cfm?id=3204480.3186697 Retrieved July 29
  296. The Turing test:
    Turing's original publication: Historical influence and philosophical implications:
  297. Dartmouth proposal:
    • McCarthy et al. 1955 (the original proposal)
    • Crevier 1993, էջ. 49 (historical significance)
  298. The physical symbol systems hypothesis:
  299. Dreyfus criticized the necessary condition of the physical symbol system hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992, էջ 156)
  300. Dreyfus' critique of artificial intelligence:
  301. Gödel 1951: in this lecture, Kurt Gödel uses the incompleteness theorem to arrive at the following disjunction: (a) the human mind is not a consistent finite machine, or (b) there exist Diophantine equations for which it cannot decide whether solutions exist. Gödel finds (b) implausible, and thus seems to have believed the human mind was not equivalent to a finite machine, i.e., its power exceeded that of any finite machine. He recognized that this was only a conjecture, since one could never disprove (b). Yet he considered the disjunctive conclusion to be a "certain fact".
  302. The Mathematical Objection: Making the Mathematical Objection: Refuting Mathematical Objection:
    • Turing 1950 under "(2) The Mathematical Objection"
    • Hofstadter 1979
    Background:
    • Gödel 1931, Church 1936, Kleene 1935, Turing 1937
  303. Graham Oppy (2015 թ․ հունվարի 20). «Gödel's Incompleteness Theorems». Stanford Encyclopedia of Philosophy. Վերցված է 2016 թ․ ապրիլի 27-ին. «These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail.»
  304. Stuart J. Russell; Peter Norvig (2010). «26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection». Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, NJ: Prentice Hall. ISBN 0-13-604259-7. «even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations.»
  305. Mark Colyvan. An introduction to the philosophy of mathematics. Cambridge University Press, 2012. From 2.2.2, 'Philosophical significance of Gödel's incompleteness results': "The accepted wisdom (with which I concur) is that the Lucas-Penrose arguments fail."
  306. Russel, Stuart., Daniel Dewey, and Max Tegmark. Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine 36:4 (2015). 8 December 2016.
  307. Rawlinson, Kevin (2015 թ․ հունվարի 29). «Microsoft's Bill Gates insists AI is a threat». BBC News. Արխիվացված օրիգինալից 2015 թ․ հունվարի 29-ին. Վերցված է 2015 թ․ հունվարի 30-ին.
  308. Holley, Peter (2015 թ․ հունվարի 28). «Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'». The Washington Post. ISSN 0190-8286. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  309. Gibbs, Samuel (2014 թ․ հոկտեմբերի 27). «Elon Musk: artificial intelligence is our biggest existential threat». The Guardian. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  310. Cellan-Jones, Rory (2014 թ․ դեկտեմբերի 2). «Stephen Hawking warns artificial intelligence could end mankind». BBC News. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  311. Post, Washington. «Tech titans like Elon Musk are spending $1 billion to save you from terminators». Արխիվացված օրիգինալից 2016 թ․ հունիսի 7-ին.
  312. Müller, Vincent C.; Bostrom, Nick (2014). «Future Progress in Artificial Intelligence: A Poll Among Experts» (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. Արխիվացված (PDF) օրիգինալից 2016 թ․ հունվարի 15-ին.
  313. «The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers». Tech Insider. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  314. Clark, Jack. «Musk-Backed Group Probes Risks Behind Artificial Intelligence». Bloomberg.com. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  315. «Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research». Fast Company. 2015 թ․ հունվարի 15. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  316. «Is artificial intelligence really an existential threat to humanity?». Bulletin of the Atomic Scientists. 2015 թ․ օգոստոսի 9. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  317. «The case against killer robots, from a guy actually working on artificial intelligence». Fusion.net. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 4-ին. Վերցված է 2016 թ․ հունվարի 31-ին.
  318. «Will artificial intelligence destroy humanity? Here are 5 reasons not to worry». Vox. 2014 թ․ օգոստոսի 22. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  319. In the early 1970s, Kenneth Colby presented a version of Weizenbaum's ELIZA known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993, էջեր 132–144)
  320. Joseph Weizenbaum's critique of AI: Weizenbaum (the AI researcher who developed the first chatterbot program, ELIZA) argued in 1976 that the misuse of artificial intelligence has the potential to devalue human life.
  321. «Արխիվացված պատճենը». Արխիվացված է օրիգինալից 2019 թ․ հունվարի 12-ին. Վերցված է 2019 թ․ հունվարի 15-ին.
  322. E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3)
  323. «Automation and anxiety». The Economist. 2015 թ․ մայիսի 9. Վերցված է 2018 թ․ հունվարի 13-ին.
  324. Lohr, Steve (2017). «Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says». The New York Times. Վերցված է 2018 թ․ հունվարի 13-ին.
  325. Frey, Carl Benedikt; Osborne, Michael A (2017 թ․ հունվարի 1). «The future of employment: How susceptible are jobs to computerisation?». Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
  326. Arntz, Melanie, Terry Gregory, and Ulrich Zierahn. "The risk of automation for jobs in OECD countries: A comparative analysis." OECD Social, Employment, and Migration Working Papers 189 (2016). p. 33.
  327. Mahdawi, Arwa (2017 թ․ հունիսի 26). «What jobs will still be around in 20 years? Read this to prepare your future». The Guardian. Վերցված է 2018 թ․ հունվարի 13-ին.
  328. «Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence». Observer. 2015 թ․ օգոստոսի 19. Արխիվացված օրիգինալից 2015 թ․ հոկտեմբերի 30-ին. Վերցված է 2015 թ․ հոկտեմբերի 30-ին.
  329. Wendell Wallach (2010). Moral Machines, Oxford University Press.
  330. Wallach, pp 37–54.
  331. Wallach, pp 55–73.
  332. Wallach, Introduction chapter.
  333. 333,0 333,1 Michael Anderson and Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press.
  334. 334,0 334,1 «Machine Ethics». aaai.org. Արխիվացված է օրիգինալից 2014 թ․ նոյեմբերի 29-ին.
  335. Rubin, Charles (Spring 2003). «Artificial Intelligence and Human Nature |'The New Atlantis». 1: 88–100. Արխիվացված է օրիգինալից 2012 թ․ հունիսի 11-ին. {{cite journal}}: Cite journal requires |journal= (օգնություն)
  336. Brooks, Rodney (2014 թ․ նոյեմբերի 10). «artificial intelligence is a tool, not a threat». Արխիվացված է օրիգինալից 2014 թ․ նոյեմբերի 12-ին.
  337. Chalmers, David (1995). «Facing up to the problem of consciousness». Journal of Consciousness Studies. 2 (3): 200–219. Արխիվացված է օրիգինալից 2005 թ․ մարտի 8-ին. Վերցված է 2019 թ․ հունվարի 19-ին. See also this link
  338. Horst, Steven, (2005) "The Computational Theory of Mind" in The Stanford Encyclopedia of Philosophy
  339. This version is from Searle (1999), and is also quoted in Dennett 1991, էջ. 435. Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states." (Searle 1980, էջ 1). Strong AI is defined similarly by Russell & Norvig (2003, էջ. 947): "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."
  340. Searle's Chinese room argument:
    • Searle 1980. Searle's original presentation of the thought experiment.
    • Searle 1999.
    Discussion:
  341. Robot rights: Prematurity of: In fiction:
    • McCorduck (2004, էջեր. 190–25) discusses Frankenstein and identifies the key ethical issues as scientific hubris and the suffering of the monster, i.e. robot rights.
  342. Evans, Woody (2015). «Posthuman Rights: Dimensions of Transhuman Worlds». Teknokultura. Universidad Complutense, Madrid. Արխիվացված օրիգինալից 2016 թ․ դեկտեմբերի 28-ին. Վերցված է 2016 թ․ դեկտեմբերի 5-ին.
  343. maschafilm. «Content: Plug & Pray Film – Artificial Intelligence – Robots -». plugandpray-film.de. Արխիվացված օրիգինալից 2016 թ․ փետրվարի 12-ին.
  344. Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
  345. 345,0 345,1 345,2 Technological singularity:
  346. Transhumanism:
  347. AI as evolution:
  348. Buttazzo, G. (2001 թ․ հուլիս). «Artificial consciousness: Utopia or real possibility?». Computer (IEEE). 34 (7): 24–30. doi:10.1109/2.933500. Արխիվացված օրիգինալից 2016 թ․ դեկտեմբերի 30-ին. Վերցված է 2016 թ․ դեկտեմբերի 29-ին.
  349. Anderson, Susan Leigh. "Asimov's "three laws of robotics" and machine metaethics." AI & Society 22.4 (2008): 477–493.
  350. McCauley, Lee (2007). «AI armageddon and the three laws of robotics». Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2.
  351. Galvan, Jill (1997 թ․ հունվարի 1). «Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"». Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644.