«Արհեստական նեյրոնային ցանց»–ի խմբագրումների տարբերություն

չ
Առանց խմբագրման ամփոփման
չ
[[Պատկեր:Neuralnetwork.png|մինի|Պարզ նեյրոնային ցանցի սխեմա:Կանաչ գույնով նշանակված են ''մուտքային'' նեյրոնները , երկնագույնով` ''թաքնված'' նեյրոնները, դեղինով`  ''ելքային'' նեյրոնը]]
 
'''Արհեստական նեյրոնային ցանցեր''' (ԱՆՑ), [[մաթեմատիկական մոդել]]ներ, ինչպես նաև նրանց ծրագրային կամ սարքային իրականացումներ, որոնք կառուցված են [[բիոլոգիական նեյրոնային ցանց]]երի - ցանցեր կենդանի օրգանիզմի [[նեյրոն|նեյրոնային բջիջներից]] կազակերպական կամ ֆունկցիայավորման սկզբունքով։ Այդ հասկացությունը առաջացել է [[գլխուղեղ]]-ում առաջացող պրոցեսների ուսումնասիրման և այդ պրոցեսների [[Մոդելավորում|մոդելավորման]] փորձերի արդյունքում։ Այդպիսի առաջին [[Ուղեղի մոդել|փորձը]] [[Մակկալոկ, Ուորեն|Մակկալոկի]]և [[Պիթս, Ուոլտեր|Պիթսի]] նեյրոնային ցանցերն էին <ref name="Մակ-Կալլոկ">''Մակ-Կալլոկ Ու. Ս., Պիթս Վ.'',[http://neuro.net.ua/pub/mcculloch.html Գաղափարների տրամաբանական հաշվարկ, որոնք վերաբերում են նյարդային ակտիվությանը ] // «Սարքավորումներ» ժողովածու Կ. Է. Շեննոնի և Ջ. Մակկարտիի խմբագրությամբ: Արտասահմանյան գրականության խմբագրություն , 1956. — էջ.363-384. (Անգլիական հոդվածի թարգմանություն 1943 թ.)</ref>. Հետագայում, ուսուցողական ալգորիթմների մշակումից հետո , ստացված մոդելները սկսեցին կիրառել պրակտիկ նպատակներով ` [[կանխատեսման խնդիրներ]]ում, [[Կերպարների ճանաչում|կերպարների չանաչմանճանաչման]] համար, [[Ադապտիվ կառավարում|կառավարման]] խնդիրներում և այլն :
 
ԱՆՑ-ն իրենից ներկայացնում է փոխկապված և փոխհամագործակցող ([[արհեստական նեյրոն]]ների) պարզ [[պրոցեսորների]] [[համակարգ]]:Այդպիսի պրոցեսորները սովորաբար բավականին պարզ են , հատկապես , համեմատած անձնականանհատական համակարգիչներում կիրառվող պրոցեսորների հետ : Նմանատիպ ցանցի յուրաքանչյուր պրոցեսոր գործ ունի միայն [[ազդանշանների]] հետ, որոնք պարբերականորեն ստանում է, և ազդանշանների, որոնք պարբերաբար ուղարկում է այլ պրոցեսորների : Այնուամենայնիվ, այդպիսի լոկալ պարզ պրոցեսորները միասին ընդունակ են կատարելու բավականին բարդ խնդիրներ :
 
[[Մեքենայական ուսուցում|Մեքենայական ուսուցման]] տեսանկյունից նեյրոնային ցանցը իրենից ներկայացնում է [[Կերպարների ճանաչում (կիբեռնետիկա)|կերպարների ճանաչման]] , [[Դիսկրիմինանտ վերլություն|դիսկրիմինանտ վերլուծության]], [[Կլաստերիզացիա|կլաստերիզացիայի մեթոդի]] և նմանատիպ այլ մեթոդների մասնավոր դեպք: [[մաթեմատիկաՄաթեմատիկա]]կան տեսանկյունից , նեյրոնային ցանցերի ուսուցումը [[ոչ գծային օպտիմալացում|ոչ գծային]] [[Օպտիմիզացիա (մաթեմատիկա)|օպտիմալացման]] [[բազմապարամետրական խնդիր]] է: [[կիբերնետիկաԿիբեռնետիկա]]յի տեսանկյունից նեյրոնային ցանցը կիրառվում է [[Ադապտիվ կառավարում|ադապտիվ կառավարման]] խնդիրներում և որպես [[ալգորիթմներ]] [[ռոբոտատեխնիկա]]յի համար: [[Հաշվողական տեխնիկա]]յի և [[ծրագրավորում|ծրագրավորման]] զարգացման տեսակյունից նեյրոնային ցանցը [[պարալելիզմի արդյունավետ կառավարում|արդյունավետ պարալելիզմի խնդիրների]] լուծման միջոց է : [[Արհեստական ինտելեկտ]]ի տեսանկյունից ԱՆՑ-ն հանդիսանում է [[կոննեկտիվիզմի]] հոսքի [[փիլիսոփայություն|փիլիսոփայական]] հիմքը և [[կառուցվածքային մոտեցում|կառուցվածքային մոտեցման]] հիմնական ուղղությունը [[համակարգչային ալգորիթմ|համակարգչային]] [[ալգորիթմների]] միջոցով (մոդելավորում) [[ինտելեկտ|բնական ինտելեկտի]] կառուցման հնարավորթւյուններիհնարավորությունների ուսումնասիրումը:
 
Նեյրոնային ցանցերը չեն [[ծրագրավորում|ծրագրավորվում]] բառից բուն իմաստով , դրանք '''[[ուսուցում|ուսուցանվում են]]'''. Ուսուցանելուուսուցանելու հնարավորությունը նեյրոնային ցանցերի գլխավոր առանձնահատկություններից է ավանդական [[ալգորիթմների]] առջև: Տեխնիկապես ուսուցումը կայանում է նեյրոնների միջև կապերի գործակիցների առկայությամբ: Ուսուցման պրոցեսում նեյրոնային ցանցը ունակ է հայտնաբերել մուտքյինմուտքային և ելքային տվյալների միջև բարդ կախվածություններ, ինչպես նաև կատարել [[ընդհանրացում]]: Դա նշանակում է , որ հաջող ուսուցման դեպքում ցանցը կարող է վերադարձնել ճիշտ արդյունք այն տվյալների հիման վրա, որոնք բացակայում էին ուսուցողական ընտրանքում , ինչպես նաև ոչ լիարժեք և/կամ «աղմկոտ», մասամբ աղավաղված տվյալների հիման վրա։
 
== Ժամանակագրություն ==
Որպես կերպարներ կարող են հանդես գալ տարբեր օբյեկտներ ` տեքստի սիմվոլներ , պատկերներ , երաժշտության օրինակներ և այլն : Ուսուցման ժամանակ ցանցին առաջարկվում են կերպարների տարբեր օրինակներ ` նշելով , թե որ դասին է այն պատկանում : Օրինակը, որպես կանոն, ներկայացվում է որպես արժեքների նախանշանների վեկտոր : Այդ դեպքում բոլոր նախանշանների ամբողջությունը պետք է ''միանշանակ որոշի դասը'', որին վերաբերում է օրինակը : Եթե նախանշանները բավարար չեն, ցանցը կարող է միևնույն կերպարը վերագրել մի քանի դասերի, ինչը հավանաբար <ref name="BaseGroup-Class">[http://www.basegroup.ru/neural/practice.htm BaseGroup Labs — Նեյրոցանցերի պրակտիկ կիրառումն է դասակարգման խնդիրներում]</ref> : Ցանցերի ուսուցման ավարտին նրանց կարելի է ներկայացնել անհայտ վաղեմի կերպարներ և ստանալ որոշակի դասին պատկանելության վերաբերյալ պատասխան :
 
Նման ցանցի տրամաբանությունը բնութագրվում է նրանով, որ ելքային շերտում նեյրոնների քքնակըքանակը , որպես կանոն, հավասար է որոշվող դասերի քանակին : Այդ դեպքում նեյրոնային ցանցի ելքի և դասի միջև հաստատվում է համապատասխանություն, որն այն ներկայացնում է : Երբ ցանցին ներկայացվում է որոշակի կերպար, ելքերից մեկում պետք է հայտնվի այն բանի նախանշանը, որ կերպարը պատկանում է այդ դասին : Միևնույն ժամանակ այլ ելքերում պետք է լինի այն բանի նախանշանը, որ կերպարը տվյալ դասին չի պատկանում <ref>Կոդավորման նման տեսքը հաճախ անվանում են կոդ «1-ը N-ից»</ref>: Եթե երկու կամ ավելի ելքերում առկա է դասին պատկանելիության նախանշան, ապա համարվում է , որ ցանցը «վստահ չէ» իր պատասխանում :
 
=== Որոշումների ընդունում և կառավարում ===
=== Կլաստերիզացիա ===
 
Կլաստերիզացիայի ներքո հասկացվում է բազմաթիվ մուտքային ազդանշանների բաժանումը դասերի, ընդ որում այնպես, որ ոչ քանակը և ոչ էլ դասերի նախանշանները նախապես հայտնի չեն : Ուսումնասիրումից հետո նման ցանցը կարող է որոշել , թե որ դասին է պատկանում մուտքային ազդանշանը : Ցանցը կարոկարող է ազդանշան տալ նաև այն մասին, որ մուտքային ազանշանը չի պատկանում առանձնացված դասերից և ոչ մեկին, ինչն էլ հանդիսանում է նոր, ուսուցանվող ընտրանքում բացակայող տվյալների նախանշանը : Այդ պարագայում, նման ցանցը ''կարող է առաջացնել նոր, նախկինում անհայտ ազդանշանների դասեր '' : Դասերի միջև դասերի և ցանցի կողմից առանձնացված, առարկայական տիրույթում գոյություն ունեցող համապատասխանությունը հաստատվւոմ է մարդու կողմից : Կլաստերիզացիան իրականացնում են օրինակ ՝ [[Կոխոնենի նեյրոնային ցանց]]ը:
 
Նեյրոնային ցանցերը Կոխոնենի պարզ տարբերակում չեն կարող մեծ լինել, այդ իսկ պատճառով էլ դրանք բաժանում են հիպերշերտերի (հիպերսյունակների) և միջուկի (միկրոսյուների):Եթե համեմատել մարդու ուղեղի հետ, ապա զուգահեռ շերտերի իդեալական քանակը չպետք է գերազանցի 112-ը: Այդ շերտերը իրենց հերթին կազմում են հիպերշերտեր (հիպերսյունակ), որոնցում առկա է 500 -ից 2000 միկրոսյունակ (միջուկ): Այդ պարագայում յուրաքանչյուր շերտ բաժանվում է բազմաթիվ հիպերսյունակների, որոնք ներտափանցում են շերտերի մեջ : Միկրոսյունակները կոդավորվում են թվերով և միավորներով ,որոնք ելքում որպես արդյունք են ստացվում : Եթե անհրաժեշտ է , ապա ավելորդ շերտերը կամ նեյրոնները հեռացվում են կամ ավելացվում: Նեյրոնների կամ շերտերի քանակի որոշման համար իդեալական է սուպերհամակարգիչների կիրառումը : Այդպիսի համակարգը թույլ է տալիս , որ նեյրոնային ցանցերը լինեն ճկուն :
=== Կանխատեսում ===
 
Նեյրոնային ցանցերի կանխատեսման հնարավորությունները ողղակիորենուղղակիորեն հետևում են նրա ելքային և մուտքային տվյալների միջև թաքնված կախվածությունների ընդհանրացման և առանձնացման հնարավորություններից : Ուսուցումից հետո ցանցը ունակ է գուշակելու որոշակի գործունեության ապագա սպասվող արժեքը ` մի քանի նախկին արժեքների հիման վրա և/կամ ներկա պարագայում գոյություն ունեցող մի քանի փաստերի հիման վրա : Պետք է նշել, որ կանխատեսումը հնարավոր է միայն այն դեպքում, երբ " նախկին փոփոխությունները ինչ-որ մակարդակում որոշում են ապագան " : Օրինակ, բաժնետոմսերի գների կանխատեսումը նախորդ շաբաթվա համեմատ կարող է հաջող հանդիսանալ ( կարող է նաև անհաջող լինել ) , այն դեպքում, երբ վաղվա խաղատոմսի արդյունքների կանխատեսումը վերջին 50 տարվա արդյունքների հիման վրա հավանաբար ոչ մի արդյունք չի տա :
 
=== ԱպրոկսիմացիաԱպրոքսիմացիա ===
 
Նեյրոնային ցանցերը կարող են ապրոկսիմացնել անընդհատ ֆունկցիաներ : Ապացուցված է ընդհանրացված [[ապրոկսիմացիա|ապրոկսիմացիոն]] [[թեորեմը]]<ref>''Գորբան Ա.Ն.'', [http://neuroschool.narod.ru/pub/sibzhvm98.pdf Ընդհանրացված ապրոկսիմացիոն թեորեմ և նեյրոնային ցանցերի հաշվողական հնարավորություններ], Հաշվողական մաթեմատիկայի սիբիրյան ամսագիր, 1998. Т.1, № 1. С. 12-24.</ref>: շնորհիվ գծային օպերցիաների և կասկադային կապերի ՝
60

edits