«Արհեստական նեյրոնային ցանց»–ի խմբագրումների տարբերություն
Content deleted Content added
No edit summary |
չ վերջակետների ուղղում, փոխարինվեց: ա: → ա։ (32) oգտվելով ԱՎԲ |
||
Տող 1.
{{վատ թարգմանություն}}
[[Պատկեր:Neuralnetwork.png|մինի|Պարզ նեյրոնային ցանցի
'''Արհեստական նեյրոնային ցանցեր''' (ԱՆՑ), [[մաթեմատիկական մոդել]]ներ, ինչպես նաև նրանց ծրագրային կամ սարքային իրականացումներ, որոնք կառուցված են [[բիոլոգիական նեյրոնային ցանց]]երի - ցանցեր կենդանի օրգանիզմի [[նեյրոն|նեյրոնային բջիջներից]] կազակերպական կամ ֆունկցիայավորման սկզբունքով։ Այդ հասկացությունը առաջացել է [[գլխուղեղ]]-ում առաջացող պրոցեսների ուսումնասիրման և այդ պրոցեսների [[Մոդելավորում|մոդելավորման]] փորձերի արդյունքում։ Այդպիսի առաջին [[Ուղեղի մոդել|փորձը]] [[Մակկալոկ, Ուորեն|Մակկալոկի]]և [[Պիթս, Ուոլտեր|Պիթսի]] նեյրոնային ցանցերն էին <ref name="Մակ-Կալլոկ">''Մակ-Կալլոկ Ու. Ս., Պիթս Վ.'',[http://neuro.net.ua/pub/mcculloch.html Գաղափարների տրամաբանական հաշվարկ, որոնք վերաբերում են նյարդային ակտիվությանը ] // «Սարքավորումներ» ժողովածու Կ. Է. Շեննոնի և Ջ. Մակկարտիի
ԱՆՑ-ն իրենից ներկայացնում է փոխկապված և փոխհամագործակցող ([[արհեստական նեյրոն]]ների) պարզ [[պրոցեսորների]] [[համակարգ]]:Այդպիսի պրոցեսորները սովորաբար բավականին պարզ են, հատկապես, համեմատած անհատական համակարգիչներում կիրառվող պրոցեսորների
[[Մեքենայական ուսուցում|Մեքենայական ուսուցման]] տեսանկյունից նեյրոնային ցանցը իրենից ներկայացնում է [[Կերպարների ճանաչում (կիբեռնետիկա)|կերպարների ճանաչման]], [[Դիսկրիմինանտ վերլություն|դիսկրիմինանտ վերլուծության]], [[Կլաստերիզացիա|կլաստերիզացիայի մեթոդի]] և նմանատիպ այլ մեթոդների մասնավոր
Նեյրոնային ցանցերը չեն [[ծրագրավորում|ծրագրավորվում]] բառից բուն իմաստով, դրանք '''[[ուսուցում|ուսուցանվում են]]'''. ուսուցանելու հնարավորությունը նեյրոնային ցանցերի գլխավոր առանձնահատկություններից է ավանդական [[ալգորիթմների]]
== Ժամանակագրություն ==
Տող 15.
* [[1948 թ. գիտությունում|1948]] - [[Վիներ , Նորբերտ|Նորբերտ Վիներ]]ը գործընկերների հետ միասին հրատարակեցին կիբերնետիկայի մասին աշխատանքը։ Հիմնական գաղափարը հանդիսանում է մաթեմատիկական մոդելների միջոցով բարդ բիոլոգիական պրոցեսների ներկայացումը։
* [[1949 թ. գիտությունում|1949]] - [[Խեբբ,Դոնալդ|Դ. Խեբբը]] առաջարկում է ուսուցման առաջին ալգորիթը։
* [[1958 թ. գիտությունում|1958]] [[Ռոզենբատտ, Ֆռենկ|Ֆ. Ռոզենբատտ]]ը ստեղծում է միաշերտ [[Պերսեպտրոն]]։ Պերցեպտրոնը ոընի որոշակի առանձնահատկություն ` այն կիրառում է կերպարների ճանաչման , եղանակի կանխատեսման և այլ խնդիրներում : Թվում էր, թե ամբողջական [[արհեստական ինտելեկտ]]ի կառուցումը այլևս սարերի ետևում
* [[1960 թ. գիտությունում|1960 թ.-ին]] {{Translation|:en:Widrow |Ուիդրոուն}}Ուիդրոուն իր ուսանող Խոֆֆոմի հետ համատեղ [[դելտա-կանոն]]ի հիման վրա (''Ուիդրոուի բանաձևեր'') մշակեցին Ադալինը , որը անմիջապես սկսեց կիրառվել կանխատեսման և արդյունավետ կառավարման խնդիրներում։ Ադալինը կառուցվել էր նրանց (Ուիդրոու - Խոֆֆոմ) իսկ կողմից արդեն ստեղծված սկուզբունքորեն նոր էլեմենտների բազայի հիման վրա` [[մեմիստոր]]ի հիման վրա <ref>[http://www-isl.stanford.edu/~widrow/papers/j1964patternrecognition.pdf Pattern Recognition and Adaptive Control. ''BERNARD WIDROW'']</ref>. Այժմ Ադալինը հանդիսանում է ազդանշանների մշակման բազմաթիվ համակարգերի ստանդարտ էլեմենտը։<ref>''Ուիդրոու Վ., Ստիրնս Ս.'',Ազդանշանների արդյունավետ կառավարում : Ռադիո և կապ, 1989. — 440 էջ</ref>
*[[1963 թ. գիտությունում|1963 թ.-ին]] АН СССР Ինֆորմացիայի փոխանցման խնդիրների ինստիտուտում Ա. Պ. Պետրովի կողմից կատարվում է պերցեպտրոնի համար «բարդ» խնդիրների մանրակրկիտ ուսումնասիրություն <ref>{{հոդված | հեղինակ = Պետրով Ա.Պ. | վերնագիր = Պերցեպտրոնի հնարավորությունների մասին| հրատարակություն = АН СССР հրատարակություն, Տեխնիկական կիբերնետիկա | թիվ = 1964 | համար = 6 }}</ref>. ԱՆՑ մոդելավորման ոլորտում այդ պիոներական աշխատանքը ԽՍՀՄ-ում ծառայեց որպես [[Բոնգարդ ,Միխաիլ Մոիսեևիչ|Մ. Մ. Բոնգարդի]] համար նոր գաղափարների կոմպլեքսի աղբյուր , որպես «պերցեպտրոնի ալգորիթմի փոքր համեմատական ձևափոխություն թերությունները ուղղելու համար <ref>{{գիրք|վերնագիր = Ճանաչողության խնդիրներ | բնօրինակ = |հեղինակ = Բոնգարդ Մ.Մ. |հղում = |isbn = |էջ = |թիվ = 1967 |հրատարակություն =|վայր = Մ. |հրատարակչություն = ֆիզմաթգիզ }}</ref> : Ա. Պետրովի և [[Բոնգարդ ,Միխաիլ Մոիսեևիչ|Մ. Մ. Բոնգարդի]] աշխատանքները նպաստեցին , որ ԽՍՀՄ-ում ԱՆՑ վերաբերյալ առաջին էյֆորիայի ալիքը հարթվի :
*[[1969 թ. գիտությունում|1969 թ.-ին]] [[Միսկի, Մարվին Լի|Մ. Մինսկին]] հրապարակում է պերցեպտրոնի սահմանափակության փաստերը և ցույց է տալիս , որ այն ունակ չէ լուծելու մի շարք խնդիրներ ([["Ազնվության" և "միայնակ բլոկում" խնդիրներ]])` կապված ներկայացումների այլաձևության հետ։ Նեյրոնային ցանցերի նկատմամբ հետքրքրությունը կտրուկ ընկնում է։
*[[1973 թ. գիտությունում|1973 թ;-ին]] Վ. Վ. Խակիոմովը առաջարկում է սպլայների հիման վրա սինապսներով ոչ գծային մոդել և ներդնում է այն բժշկության, էկոլոգիայի, երկրաբանության խնդիրների լուծման համար։ Խակիմով Վ. Վ.'' Սպլայներով կոռելյացիոն կախվածությունների մոդելավորում երկրաբանության և էկոլոգիայի օրինակներով . — Մ.: «ՄՊՀ»: «Նևա»,2003, 144 էջ.
* [[1974 թ. գիտությունում|1974]] — Պոլ Ջ. Վերբոսը <ref>''Werbos P. J.'', Beyond regression: New tools for prediction and analysis in the behavioral sciences. Ph.D. thesis, Harvard University, Cambridge, MA, 1974.</ref> և Ա. Ի. Գալուշկինը<ref>''Գալուշկին Ա. Ի.'' Կերպարների ճանաչման բազմաշերտ համակարգի սինթեզ — Մ.: «Էներգիա», 1974.</ref> միաժամանակ ստեղծում են [[Սխալների հետադարձ տարածման մեթոդ|սխալների հետադարձ տարածման ալգորիթը]] [[բազմաշերտ պերցեպտրոն]]ների ուսումնասիրման համար : Հայտնագործությունը առանձնապես ուշադրության չի
* [[1975 թ. գիտությունում|1975]] — ֆուկսիման իրենից ներկայացնում է [[Կոգնիտրոն]]` ինքնաձևավորվող ցանց ` նախատեսված այլընտրանքային [[Կերպարների ճանաչում|կերպարների ճանաչման]] համար , սակայն դա հասանելի է փաստացիորեն կերպարների բոլոր վիճակների հիշման պարագայում :
* [[1982 թ. գիտությունում|1982]] — մոռացության էտապից հետո նեյրոնային ցանցերի նկատմամբ հետքրքրությունը կրկին աճում է : [[Խոպֆիլդ, Ջոն|Ջ. Խոպֆիլդը]] ([[:en:John Joseph Hopfield]]) ցույց տվեց , որ հետադարձ կապերով նեյրոնային ցանցը կարող է իրենից ներկայացնել համակրգ, որը նվազեցնում է էներգիան (այսպես կոչված [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանց]]) : Կոխոնենի կողմից ներկայացված են անցերի մոդելներ , որոնք ուսուցանվում են առանց ուսուցչի ([[Կոխոնենի նեյրոնային ցանց]])և լուծում են [[կլաստերիզացիա]]յի խնդիրներ,տվյալների վիզուալիզացիա ([[Կոխոնենի ինքնակազմակերպվող քարտ]])և տվյալների վերլուծության այլ խնդիրներ :
* [[1986 թ. գիտությունում|1986]] — [[Ռումելխարտ, Դեվիդ|Դովիդ Ի. Ռումելխարտի]], Ջ. Ե. Խինտոնի և Ռոնալդ Ջ. Վիլյամսի<ref name="Rumelhart">''Rumelhart D.E., Hinton G.E., Williams R.J.'', Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318—362. Cambridge, MA, MIT Press. 1986.</ref> ևիրարից անկախ ու միաժամանակ Ս. Ի. Բարցևի և Վ. Ա. Օխոնինի կողմից (Կրասնոյարսկյան խումբ)<ref>''Բարցև Ս. Ի., Օխոնին Վ. Ա.'' Ինֆորմացիայի մշակման արդյունավետ ցանցեր. Կրասնոյարսկ : АН СССР, 1986. Препринт N 59Б. — 20 с.</ref> մշակվել և զարգացել է [[սխալների հետադարձ տարածման մեթոդը]]. Սկսվեց ուսուցանվող նեյրոնային ցանցերի նկատմամբ
== Հայտնի կիրառություններ ==
Տող 33.
=== Որոշումների ընդունում և կառավարում ===
Այս խնդիրը մոտ է դասակարգման
=== Կլաստերիզացիա ===
Կլաստերիզացիայի ներքո հասկացվում է բազմաթիվ մուտքային ազդանշանների բաժանումը դասերի, ընդ որում այնպես, որ ոչ քանակը և ոչ էլ դասերի նախանշանները նախապես հայտնի
Նեյրոնային ցանցերը Կոխոնենի պարզ տարբերակում չեն կարող մեծ լինել, այդ իսկ պատճառով էլ դրանք բաժանում են հիպերշերտերի (հիպերսյունակների) և միջուկի (միկրոսյուների):Եթե համեմատել մարդու ուղեղի հետ, ապա զուգահեռ շերտերի իդեալական քանակը չպետք է գերազանցի 112-
=== Կանխատեսում ===
Նեյրոնային ցանցերի կանխատեսման հնարավորությունները ուղղակիորեն հետևում են նրա ելքային և մուտքային տվյալների միջև թաքնված կախվածությունների ընդհանրացման և առանձնացման
=== Ապրոքսիմացիա ===
Տող 64.
* Ուսուցման արդյունավետության ստուգում;
* Պարամետրերի ուղղում,վերջնական ուսուցում;
* Ցանցի [[վերբալիզացիա (ծրագրավորում)|վերբալիզացիա]] <ref>''[[Միրկես, Եվգենի Մոյիսեևիչ|Միրկես Ե. Մ.]]'',[http://www.intuit.ru/department/expert/neuroinf/9/ Տրամաբանական թափանցիկ նեյրոնային ցանցեր և ակնհայտ տվյալների գիտելիքների ստեղծում ], գրքում : Նեյրոինֆորմատիկա / ''Ա. Ն. Գորբան, Վ. Լ. Դունին-Բորկովսկի, Ա. Ն. Կիրդին'' և այլք —
Արժե այս էտապներից որոշները մանրամասնորեն ուսումնասիրել :
Տող 74.
Մուտքային տվյալները բերվում են այնպիսի տեսքի, որով դրանք կարելի է տալ ցանցի մուտքին : Տվյալների ֆայլում յուրաքանչյուր գրառում կոչվում է "ուսուցանվող զույգ" կամ "ուսուցանվող վեկտոր" : Ուսուցանվող վեկտորը պարունակում է ցանցի յուրաքանչյուր մուտքի մեկական արժեք և կախված ուսուցման տիպից (ուսուցչի հետ կամ առանց) մեկական արժեք ցանցի յուրաքանչյուր ելքի համար : Ցանցի ուսուցումը «հուքային» ընտրանքում, որպես կանոն, որակյալ արդյուքներ չի տալիս : Գոյություն ունեն ցանցի «ընկալման» բարելավման մի շարք հնարավորություններ .
* ''Նորմալացումը'' կատարվում է , երբ տարբեր մուտքերում հանդիպում են տարբեր չափողականության տվյալներ : Օրինակ, ցանցի առաջին մուտքին տրվում են 0-ից մինչև միավոր մեծության արժեքներ , իսկ երկրորդին ՝ 100-իc մինչև 1000: Երկրորդ մուտքում արժեքների նորմավորման բացակայության դեպքում ցանցի ելքի վրա մեծ ազդեցություն կունենա, քան արժեքը առաջին մուտքի
* ''[[Քվանտավորում(ազդանշանների մշակում)|Քվանտավորումը]]'' կատարվում է անընդհատ մեծությունների նկատմամբ, որոնց համար առանձնացվում է դիսկրետ արժեքների հավաքածու : Օրինակ, քվանտավորումը կիրառվում է ձայնային ազդանշանների հաճախականության տրման ժամանակ ՝ բանավոր խոսքի ճանաչման համար ,
* ''[[Ֆիլտրացիան]]'' իրականացվում է «աղավաղված» տվյալների համար :
Տող 84.
=== Ցանցի հատկությունների փորձագիտական ընտրություն ===
Ընդհանուր կառուցվածքի ընտրությունից հետո կարելի է փորձագիտորեն ընտրել ցանցի պարամետրերը : Պերցեպտրոնի տիպի ցանցերի համար դա կլինի շերտերի թիվը , թաքնված շերտերում բլոկների թիվը (Վորդի ցանցի համար), շրջանցող կապերի առկայությունը կամ բացակայությունը ,նեյրոնների փոխանցելիության
=== Ուսուցման պարամետրերի փորձագիտական ընտրություն ===
Տող 90.
=== Ցանցի փաստացի ուսուցում ===
Ուսուցման պրոցեսում ցանցը որոշակի հերթականությամբ ուսումնասիրում է ուսուցանվող ընտրանքը : Ուսումնասիրման հերթականությունը կարող է լինել հետևողական , պատահական և այլն : [[Առանց ուսուցչի ուսուցանվող]] որոշ ցանցեր ,օրինակ, [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանցերը]] դիտարկում են ընտրանքը մեկ անգամ : Այլք, օրինակ՝ [[Կոխոնենի նեյրոնային ցանց|Կոխոնենի ցանցը]],ինչպես նաև ցանցեր,որոնք ուսուցանվում են ուսուցչի միջոցով, ընտրանքը դիտարկում են բազմաթիվ անգամներ , և այդ դեպքում ընտրանքով մեկ ամբողջական անցումը կոչվում է "ուսուցման դարաշրջան" : Ուսուցչի օգնությամբ ուսուցման ժամանակ մուտքայինտվյալների հավաքածուն բաժանվումէ երկու մասի ՝ փաստացի ուսուցանվող ընտրանք և թեսթային տվյալներ , իսկ բաժանման սկզբունքը կարող է լինել կամայական : Ուսուցանվող տվյալները տրվում են ցանցին ուսուցման համար , իսկ ստուգողները օգտագործվում են ցանցի սխալների հաշվարկման համար (ստուգող տվյալները երբեք ցանցի ուսուցման համար չեն կիրառվում) : Այդ պարագայում, եթե ստուգող տվյալների միջոցով սխալները նվազեցվում են, ապա իսկապես կատարվում է ընդհանրացում : Եթե սխալը ուսուցանվող տվյալներում շարունակում է նվազել, իսկ թեսթային տվյալներում ավելանալ, դա նշանակում է , որ ցանցը դադարել է ընդհանրացում կատարել և ուղղակի «հիշում է » ուսուցանվող տվյալները : Այդ հայտնությունը կոչվում է ցանցի վերաուսուցում կամ [[օվերֆիտտինգ]] : Նման դեպքերում սովորաբարուսուցումը ընդհատում
=== Ուսուցման համարժեքության ստուգում ===
Տող 120.
=== Ռեկուրենտիվ նեյրոնային ցանցեր ===
Ելքային նեյրոնից կամ նեյրոններից ազդանշանը թաքնված շերտից մասնակիորեն փոխանցվում է ետ նեյրոնի մուտքային շերտին ([[ետադարձ կապ]]): Ռեկուրենտիվ [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանցը]] «ֆիլտրում է» մուտքային տվյալները, վերադառնալով կայուն վիճակի, և այդ կերպ թույլ է տալիս լուծել [[Տվյալների նեյրոցանցային սեղմում|տվյալների սեղմման]] և [[Ասոցիատիվ հիշողություն|ասոցիատիվ հիշողության]]կառուցման խնդիրներ <ref>[http://www.intuit.ru/department/expert/neuro/10/ INTUIT.ru — Ռեկուրենտիվ ցանցերը ինչպես ասոցիատիվ հիշող սարքեր]</ref>: Ռեկուրենտիվ ցանցերի մասնավոր դեպք են հանդիսանում երկուղղվածության
=== Ռադիկալ-բազիսային ֆունկցիաներ ===
Տող 159.
# Պատահականորեն ընտրվում են տվյալների կետերը <math>x</math>.
# Որոշվում է <math>x</math> մոտակա քարտեզի հանգույցը (BMU — Best Matching Unit).
# Այդ հանգույցը տեղակայվում է տրված քայլում x -ի ուղղությամբ : Սակայն, այն միայնակ չի տեղակայվում, այլ իր հետ ներառում է որոշակի քանակության մոտակա հանգույցներ քարտեզի հարևանությամբ : Բոլոր տեղաշարժվող հանգույցներից առավել ուժեղ տեղափոխվում է կենտրոնական ՝ տվյալների կետին մոտ հանգույցը,իսկ մնացածները, որքն հեռու են BMU-ից , այնքան ավելի դանդաղ են տարհանվում : Քարտեզի կարգավորման ժամանակ առանձնացնում են 2 էտապներ ՝ կոպիտկարգավորման (fine-tuning) և ճշգրիտ կարգավորման (fine-tuning) փուլեր : Առաջին փուլում ընտրվում են շատ հարևան արժեքներ և հանգույցների տեղաշարժը կրում է կոլեկտիվ
# Ալգորիթմը որոշակի ժամանակահատվածի ընթացքում կրկնվում է (իհարկե, մի շարք քայլեր, կարող են տարբեր լինել՝ կախված առաջադրանքից):
Տող 194.
* Ինֆորմացիայի բովանդակային մշակման կարողություն;
* Սխալների նկատմամբ տոլերանտություն;
* Ցածր
== Հավելվածների օրինակներ ==
|