51 977
edits
չ (clean up, replaced: ՈՒ → Ու (4), ) — → ), using AWB (7852)) |
|||
{{վատ թարգմանություն}}
[[Պատկեր:Neuralnetwork.png|thumb|Պարզ նեյրոնային ցանցի սխեմա:Կանաչ գույնով նշանակված են
'''Արհեստական նեյրոնային ցանցեր''' (ԱՆՑ),
ԱՆՑ-ն իրենից ներկայացնում է փոխկապված և փոխհամագործակցող ([[արհեստական նեյրոն
[[Մեքենայական ուսուցում|Մեքենայական ուսուցման]] տեսանկյունից նեյրոնային ցանցը իրենից ներկայացնում է [[Կերպարների ճանաչում (կիբեռնետիկա)|
Նեյրոնային ցանցերը չեն [[ծրագրավորում|ծրագրավորվում]] բառից բուն իմաստով , դրանք '''[[ուսուցում|ուսուցանվում են]]'''. Ուսուցանելու հնարավորությունը նեյրոնային ցանցերի գլխավոր առանձնահատկություններից է ավանդական [[ալգորիթմների]] առջև: Տեխնիկապես ուսուցումը կայանում է նեյրոնների միջև կապերի գործակիցների առկայությամբ: Ուսուցման պրոցեսում նեյրոնային ցանցը ունակ է հայտնաբերել մուտքյին և ելքային տվյալների միջև բարդ կախվածություններ, ինչպես նաև կատարել [[ընդհանրացում]]: Դա նշանակում է , որ հաջող ուսուցման դեպքում ցանցը կարող է վերադարձնել ճիշտ արդյունք այն տվյալների հիման վրա, որոնք բացակայում էին ուսուցողական ընտրանքում , ինչպես նաև ոչ լիարժեք և/կամ «աղմկոտ», մասամբ աղավաղված տվյալների հիման վրա :
== Ժամանակագրություն ==
* [[1943 թ. գիտությունում
* [[1948 թ. գիտությունում|1948]] — [[Վիներ , Նորբերտ|Նորբերտ Վիներ]]ը գործընկերների հետ միասին հրատարակեցին կիբերնետիկայի մասին աշխատանքը : Հիմնական գաղափարը հանդիսանում է մաթեմատիկական մոդելների միջոցով բարդ բիոլոգիական պրոցեսների ներկայացումը :
* [[1949 թ. գիտությունում|1949]] — [[Խեբբ,Դոնալդ|Դ. Խեբբը]] առաջարկում է ուսուցման առաջին ալգորիթը :
* [[1958 թ. գիտությունում|1958]] [[Ռոզենբատտ, Ֆռենկ|Ֆ. Ռոզենբատտ]]ը ստեղծում է միաշերտ [[պերցեպտրոն]]: Պերցեպտրոնը ոընի որոշակի առանձնահատկություն ` այն կիրառում է կերպարների ճանաչման , եղանակի կանխատեսման և այլ խնդիրներում : Թվում էր, թե ամբողջական [[արհեստական ինտելեկտ
* [[1960 թ. գիտությունում|1960 թ.-ին]] {{Translation|:en:Widrow |Ուիդրոուն}}Ուիդրոուն իր ուսանող Խոֆֆոմի հետ համատեղ [[
*[[1963 թ. գիտությունում|1963 թ.-ին]] АН СССР Ինֆորմացիայի փոխանցման խնդիրների ինստիտուտում Ա. Պ. Պետրովի կողմից կատարվում է պերցեպտրոնի համար «բարդ» խնդիրների մանրակրկիտ ուսումնասիրություն <ref>{{հոդված | հեղինակ = Պետրով Ա.Պ. | վերնագիր = Պերցեպտրոնի հնարավորությունների մասին| հրատարակություն = АН СССР հրատարակություն, Տեխնիկական կիբերնետիկա | թիվ = 1964 | համար = 6 }}</ref>. ԱՆՑ մոդելավորման ոլորտում այդ պիոներական աշխատանքը ԽՍՀՄ-ում ծառայեց որպես [[Բոնգարդ ,Միխաիլ Մոիսեևիչ
*[[1969 թ. գիտությունում|1969 թ.-ին]] [[Միսկի, Մարվին Լի|Մ. Մինսկին]] հրապարակում է պերցեպտրոնի սահմանափակության փաստերը և ցույց է տալիս , որ այն ունակ չէ լուծելու մի շարք խնդիրներ ([["Ազնվության"
*[[1973 թ. գիտությունում|1973 թ;-ին]] Վ. Վ. Խակիոմովը առաջարկում է սպլայների հիման վրա սինապսներով ոչ գծային մոդել և ներդնում է այն բժշկության,էկոլոգիայի, երկրաբանության խնդիրների լուծման համար : Խակիմով Վ. Վ.'' Սպլայներով կոռելյացիոն կախվածությունների մոդելավորում երկրաբանության և էկոլոգիայի օրինակներով . — Մ.: «ՄՊՀ»: «Նևա»,2003, 144 էջ.
* [[1974 թ. գիտությունում|1974]] — Պոլ Ջ. Վերբոսը <ref>''Werbos P. J.'', Beyond regression: New tools for prediction and analysis in the behavioral sciences. Ph.D. thesis, Harvard University, Cambridge, MA, 1974.</ref> և Ա. Ի. Գալուշկինը<ref>''Գալուշկին Ա. Ի.'' Կերպարների ճանաչման բազմաշերտ համակարգի սինթեզ — Մ.: «Էներգիա», 1974.</ref> միաժամանակ ստեղծում են [[Սխալների հետադարձ տարածման մեթոդ|սխալների հետադարձ տարածման ալգորիթը]] [[բազմաշերտ պերցեպտրոն
* [[1975 թ. գիտությունում|1975]] — ֆուկսիման իրենից ներկայացնում է [[Կոգնիտրոն]]` ինքնաձևավորվող ցանց ` նախատեսված այլընտրանքային [[Կերպարների ճանաչում|կերպարների ճանաչման]] համար , սակայն դա հասանելի է փաստացիորեն կերպարների բոլոր վիճակների հիշման պարագայում :
* [[1982 թ. գիտությունում|1982]] — մոռացության էտապից հետո նեյրոնային ցանցերի նկատմամբ հետքրքրությունը կրկին աճում է : [[Խոպֆիլդ, Ջոն|Ջ. Խոպֆիլդը]] ([[:en:John Joseph Hopfield]]) ցույց տվեց , որ հետադարձ կապերով նեյրոնային ցանցը կարող է իրենից ներկայացնել համակրգ, որը նվազեցնում է էներգիան (այսպես կոչված [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանց]]) : Կոխոնենի կողմից ներկայացված են անցերի մոդելներ , որոնք ուսուցանվում են առանց ուսուցչի ([[Կոխոնենի նեյրոնային ցանց]])և լուծում են [[
* [[1986 թ. գիտությունում|1986]] — [[Ռումելխարտ, Դեվիդ|Դովիդ Ի. Ռումելխարտի]], Ջ. Ե. Խինտոնի և Ռոնալդ Ջ. Վիլյամսի<ref name="Rumelhart">''Rumelhart D.E., Hinton G.E., Williams R.J.'', Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318—362. Cambridge, MA, MIT Press. 1986.
== Հայտնի կիրառություններ ==
=== Կերպարների ճանաչում և դասակարգում ===
=== Կլաստերիզացիա ===
Կլաստերիզացիայի ներքո հասկացվում է բազմաթիվ մուտքային ազդանշանների բաժանումը դասերի, ընդ որում այնպես, որ ոչ քանակը և ոչ էլ դասերի նախանշանները նախապես հայտնի չեն : Ուսումնասիրումից հետո նման ցանցը կարող է որոշել , թե որ դասին է պատկանում մուտքային ազդանշանը : Ցանցը կարո է ազդանշան տալ նաև այն մասին, որ մուտքային ազանշանը չի պատկանում առանձնացված դասերից և ոչ մեկին, ինչն էլ հանդիսանում է նոր, ուսուցանվող ընտրանքում բացակայող տվյալների նախանշանը : Այդ պարագայում, նման ցանցը ''կարող է առաջացնել նոր,նախկինում անհայտ ազդանշանների դասեր '' : Դասերի միջև դասերի և ցանցի կողմից առանձնացված, առարկայական տիրույթում գոյություն ունեցող համապատասխանությունը հաստատվւոմ է մարդու կողմից : Կլաստերիզացիան իրականացնում են օրինակ ՝ [[Կոխոնենի նեյրոնային ցանց
Նեյրոնային ցանցերը Կոխոնենի պարզ տարբերակում չեն կարող մեծ լինել, այդ իսկ պատճառով էլ դրանք բաժանում են հիպերշերտերի (հիպերսյունակների) և միջուկի (միկրոսյուների):Եթե համեմատել մարդու ուղեղի հետ, ապա զուգահեռ շերտերի իդեալական քանակը չպետք է գերազանցի 112-ը: Այդ շերտերը իրենց հերթին կազմում են հիպերշերտեր (հիպերսյունակ), որոնցում առկա է 500 -ից 2000 միկրոսյունակ (միջուկ): Այդ պարագայում յուրաքանչյուր շերտ բաժանվում է բազմաթիվ հիպերսյունակների, որոնք ներտափանցում են շերտերի մեջ : Միկրոսյունակները կոդավորվում են թվերով և միավորներով ,որոնք ելքում որպես արդյունք են ստացվում : Եթե անհրաժեշտ է , ապա ավելորդ շերտերը կամ նեյրոնները հեռացվում են կամ ավելացվում: Նեյրոնների կամ շերտերի քանակի որոշման համար իդեալական է սուպերհամակարգիչների կիրառումը : Այդպիսի համակարգը թույլ է տալիս , որ նեյրոնային ցանցերը լինեն ճկուն :
Նեյրոնային ցանցերը կարող են ապրոկսիմացնել անընդհատ ֆունկցիաներ : Ապացուցված է ընդհանրացված [[ապրոկսիմացիա|ապրոկսիմացիոն]] [[թեորեմը]]<ref>''Գորբան Ա.Ն.'', [http://neuroschool.narod.ru/pub/sibzhvm98.pdf Ընդհանրացված ապրոկսիմացիոն թեորեմ և նեյրոնային ցանցերի հաշվողական հնարավորություններ], Հաշվողական մաթեմատիկայի սիբիրյան ամսագիր, 1998. Т.1, № 1. С. 12-24.</ref>: շնորհիվ գծային օպերցիաների և կասկադային կապերի ՝
կարելի է սկզբնական ոչ գծային էլեմենտներից ստանալ սարք, որը հաշվում է ցանկացած [[Անընդհատ պատկեր|անընդհատ ֆունկցիա]] սկզբնապես տրված որոշակի [[ճշտությամբ]]: Դա նշանակում է , որ նեյրոնի ոչ գծային բնութագիրը կարող է լինել կամայական ՝ [[սիգմոդիայինից]] մինչև կամայական փաթեթ կամ [[վեյվլետ]], [[սինուս (ֆունկցիա)|սինուսի]] կամ [[բազմանդամի]]: Ոչ գծային ֆունկցիայի ընտրությունից կարող է կախված լինել կոնկրետ ցանցի [[բարդությունը]] , սակայն ցանկացած ոչ գծայնությամբ ցանցը մնում է ունիվերսալ ապրոկսիմատոր և կառուցվածքի ճիշտ ընտրության դեպքում կարելի է հստակ ապրոկսիմացնել ցանցակացած նեյրոնային ապարատի ֆունկցիայավորումը :
=== Տվյալների սեղմում և ասոցիատիվ հիշողություն ===
* Ուսուցման արդյունավետության ստուգում;
* Պարամետրերի ուղղում,վերջնական ուսուցում;
* Ցանցի [[վերբալիզացիա (ծրագրավորում)|վերբալիզացիա]] <ref>''[[Միրկես, Եվգենի Մոյիսեևիչ|Միրկես Ե. Մ.]]'',[http://www.intuit.ru/department/expert/neuroinf/9/ Տրամաբանական թափանցիկ նեյրոնային ցանցեր և ակնհայտ տվյալների գիտելիքների ստեղծում ], գրքում : Նեյրոինֆորմատիկա / ''Ա. Ն. Գորբան, Վ. Լ. Դունին-Բորկովսկի, Ա. Ն. Կիրդին'' և այլոք — Նովոսիբիրսկ: Գիտություն. Սիբիրյան ընկերություն РАН, 1998. — 296 с ISBN 5-02-031410-2</ref> հետագա կիրառման նպատակով :
Արժե այս էտապներից որոշները մանրամասնորեն ուսումնասիրել :
=== Ուսուցման համար տվյալների հավաքագրում ===
Տվյալների հավաքագրումը ցանցի ուսուցման և մշակման համար հանդիսանում է խնդրի լուծման ամենաբարդ փուլը :Տվյալների հավաքագրրումը պետք է բավարարի մի շարք չափանիշների .
* Ներկայացվածություն — տվյալները պետք է ցույց տան առարկայական տիրույթի իրերի և առարկաների իրական վիճակը ,
* Հակադրության բացակայություն — հակադրվող տվյալները ուսուցանվող ընտրանքում կարող են բերել ուսուցանվող ցանցի վատ որակի ,
Մուտքային տվյալները բերվում են այնպիսի տեսքի, որով դրանք կարելի է տալ ցանցի մուտքին : Տվյալների ֆայլում յուրաքանչյուր գրառում կոչվում է "ուսուցանվող զույգ" կամ "ուսուցանվող վեկտոր" : Ուսուցանվող վեկտորը պարունակում է ցանցի յուրաքանչյուր մուտքի մեկական արժեք և կախված ուսուցման տիպից (ուսուցչի հետ կամ առանց) մեկական արժեք ցանցի յուրաքանչյուր ելքի համար : Ցանցի ուսուցումը «հուքային» ընտրանքում, որպես կանոն, որակյալ արդյուքներ չի տալիս : Գոյություն ունեն ցանցի «ընկալման» բարելավման մի շարք հնարավորություններ .
* ''Նորմալացումը'' կատարվում է , երբ տարբեր մուտքերում հանդիպում են տարբեր չափողականության տվյալներ : Օրինակ, ցանցի առաջին մուտքին տրվում են 0-ից մինչև միավոր մեծության արժեքներ , իսկ երկրորդին ՝ 100-իc մինչև 1000: Երկրորդ մուտքում արժեքների նորմավորման բացակայության դեպքում ցանցի ելքի վրա մեծ ազդեցություն կունենա, քան արժեքը առաջին մուտքի դեպքում: Բոլոր մուտքային և ելքային տվյալների չափողականության նորմավորումը կատարվում է միասին,
* ''[[Քվանտավորում(ազդանշանների մշակում)|Քվանտավորումը]]'' կատարվում է անընդհատ մեծությունների նկատմամբ, որոնց համար առանձնացվում է դիսկրետ արժեքների հավաքածու : Օրինակ, քվանտավորումը կիրառվում է ձայնային ազդանշանների հաճախականության տրման ժամանակ ՝ բանավոր խոսքի ճանաչման համար ,
* ''[[Ֆիլտրացիան]]'' իրականացվում է «աղավաղված» տվյալների համար :
=== Ուսուցման պարամետրերի փորձագիտական ընտրություն ===
Կոնկրետ տրամաբանության ընտրությունից հետո անհրաժեշտ է ընտրել ուսուցանվող նեյրոնային ցանցի պարամետրերը : Այս էտապը առավելապես կարևոր է [[Ուսուցում ուսուցչի օգնությամբ|ուսուցչի օգնությամբ ուսուցանվող]] ցանցերի համար : Պարամետրերի ճիշտ ընտրությունից կախված է ոչ միայն այն, թե որքան արագ ցանցը ճիշտպատասխաններ կտա : Օրինակ, ցածր արագությամբ ուսուցման ընտրությունը կմեծացնի գեներացիայի ժամանակը , սակայն միևնույն ժամանակ թույլ կտա խուսափելու [[Նեյրոնային ցանցի անդամալուծություն|ցանցի անդամալուծությունից]]: Ուսուցման ժամանակի մեծացումը կարող է բերել ինչպես գեներացման ժամանակի մեծացմանը, այնպես էլնվազեցմանը ՝ կախված [[
=== Ցանցի փաստացի ուսուցում ===
Ուսուցման պրոցեսում ցանցը որոշակի հերթականությամբ ուսումնասիրում է ուսուցանվող ընտրանքը : Ուսումնասիրման հերթականությունը կարող է լինել հետևողական , պատահական և այլն : [[
=== Ուսուցման համարժեքության ստուգում ===
== Դասակարգում ըստ կապերի բնութագրերի ==
=== Ուղիղ տարածման ցանցեր (Feedforward) ===
Բոլոր կապերը խստորեն ուղղված են մուտքային նեյրոններից ելքայիններին : Նմնանատիպ ցանցերի օրինակներ են հանդիսանում [[Պերցեպտրոն|Ռոզենբլատի պերցեպտրոնը]], [[բազմաշերտ պերցեպտրոնը]], [[Վորդի նեյրոնային ցանց|Վորդի ցանցը]] :
=== Ռեկուրենտիվ նեյրոնային ցանցեր ===
Ելքային նեյրոնից կամ նեյրոններից ազդանշանը թաքնված շերտից մասնակիորեն փոխանցվում է ետ նեյրոնի մուտքային շերտին ([[ետադարձ կապ]]): Ռեկուրենտիվ [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանցը]] «ֆիլտրում է» մուտքային տվյալները, վերադառնալով կայուն վիճակի, և այդ կերպ թույլ է տալիս լուծել [[Տվյալների նեյրոցանցային սեղմում|տվյալների սեղմման]] և [[Ասոցիատիվ հիշողություն|ասոցիատիվ հիշողության]]կառուցման խնդիրներ <ref>[http://www.intuit.ru/department/expert/neuro/10/ INTUIT.ru — Ռեկուրենտիվ ցանցերը ինչպես ասոցիատիվ հիշող սարքեր]</ref>: Ռեկուրենտիվ ցանցերի մասնավոր դեպք են հանդիսանում երկուղղվածության ցանցերը: Նման ցանցերում շերտերի միջև առկա են կապեր ինչպես մուտքային շերտից ելքայինին, այնպես էլ ընդհակառակը : Դասական օրինակ է հանդիսանում [[Կոսկոյի նեյրոնային ցանցը]]:
=== Ռադիկալ-բազիսային ֆունկցիաներ ===
3. Մուտքային և տաքնված շերտի կապերի սինապտիկական կշիռները հավասար են միավորի
Ուսուցման պրոցեսը նայել գրականությունում :
=== Ինքնակազմակերպվող քարտեզ ===
Նմանատիպ ցանցերը իրենցից ներկայացնում են [[ուսուցչի հետ ուսուցում|ուսուցչի հետ ուսուցանվող]] մրցակցային նեյրոնային ցանց,որը իրականացնում է վիզուալիզացիայի և [[կլաստերիզացիա
|հեղինակ = Зиновьев А. Ю.
|վերնագիր = Визуализация многомерных данных
# Պատահականորեն ընտրվում են տվյալների կետերը <math>x</math>.
# Որոշվում է <math>x</math> մոտակա քարտեզի հանգույցը (BMU — Best Matching Unit).
# Այդ հանգույցը տեղակայվում է տրված քայլում x -ի ուղղությամբ : Սակայն, այն միայնակ չի տեղակայվում, այլ իր հետ ներառում է որոշակի քանակության մոտակա հանգույցներ քարտեզի հարևանությամբ : Բոլոր տեղաշարժվող հանգույցներից առավել ուժեղ տեղափոխվում է կենտրոնական ՝ տվյալների կետին մոտ հանգույցը,իսկ մնացածները, որքն հեռու են BMU-ից , այնքան ավելի դանդաղ են տարհանվում : Քարտեզի կարգավորման ժամանակ առանձնացնում են 2 էտապներ ՝ կոպիտկարգավորման (fine-tuning) և ճշգրիտ կարգավորման (fine-tuning) փուլեր : Առաջին փուլում ընտրվում են շատ հարևան արժեքներ և հանգույցների տեղաշարժը կրում է կոլեկտիվ բնույթ: Արդյունքում քարտեզը « ուղղվում է » և կոպիտ կերպով արտապատկերում է տվյալների կառուցվածքը, իակ ճշգրիտ կարգավորման փուլում հարևանության շառավիղը 1-2 է և կարգավորվում են արդեն հանգույցների անհատական դիրքերը : Բացի այդ, տեղաշարժման մեծությունը ժամանակի ընթացքում համամասնորեն նվազում է , այսինքն ՝ ուսուցման առաջին փուլում ավելի մեծ է , իսկ ավարտին հասնելիս հավասարվում է զրոյի :
# Ալգորիթմը որոշակի ժամանակահատվածի ընթացքում կրկնվում է (իհարկե, մի շարք քայլեր, կարող են տարբեր լինել՝ կախված առաջադրանքից):
== Հավելվածների օրինակներ ==
=== Ֆինանսական ժամանակային շարքերի կանխատեսում ===
=== Հոգեդիագնոստիկա ===
Մ. Գ. Դոռեռի և իր համահեղինակների աշխատանքները նվիրված են նեյրոնային ցանցերի [[փորձագիտական համակարգ
=== Խեմոինֆորմատիկա ===
Նեյրոնային ցանցերը լայնորեն կիրառվում են քիմիական և բիոքիմիական հետազոտություններում <ref>''Բասկի Ի. Ի. , Պլյուկլին Վ. Ա. , Զեֆիրով Ն. Ս.,'' [http://www.chem.msu.su/rus/vmgu/995/323.pdf Արհեստական նեյրոնային ցանցերի կիրառումը քիմիական և բիոքիմիական հետազոտություններում,] Քիմիա 1999. Т.40. № 5.</ref> Ներկայումս նեյրոնային ցանցերը հանդիսանում են [[
=== Նեյրոկառավարում ===
Նեյրոնային ցանցերը հաջող կերպով ընդունվում են [[
== Հղումներ ==
== Գրականություն ==
* {{գիրք
|վերնագիր = Искусственные нейронные сети. Теория и практика
|բնօրինակ =
|հրատարակչություն = Горячая линия - Телеком
}}
* {{գիրք
|վերնագիր = Нейросетевые системы управления
|բնօրինակ =
|հրատարակչություն = [[Высшая школа (издательство)|Высшая школа]]
}}
* {{գիրք
|հեղինակ = Уоссермен, Ф.
|վերնագիր = Нейрокомпьютерная техника: Теория и практика
|isbn = 5-03-002115-9
}}
* {{գիրք
|վերանգիր = Нейронные сети: полный курс
|բնօրինակ = Neural Networks: A Comprehensive Foundation
|հրատարակչություն = [[Вильямс (издательство)|«Вильямс»]]
}}
* {{գիրք
|վերնագիր = Основные концепции нейронных сетей
|բնօրինակ = The Essence of Neural Networks First Edition
|հրատարակչություն = [[Вильямс (издательство)|«Вильямс»]]
}}
* {{գիրք
|վերնագիր = Введение в искусственный интеллект
|բնօրինակ =
|հրատարակչություն = [[Издательский центр "Академия"]]
}}
* {{գիրք
|վերնագիր = Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности
|բնօրինակ =
* ''[[Миркес, Евгений Моисеевич|Миркес Е. М.]]'', [http://pca.narod.ru/MirkesNeurocomputer.htm Нейрокомпьютер. Проект стандарта.] — Новосибирск: Наука, 1999. — 337 с. ISBN 5-02-031409-9 Другие копии онлайн: [http://neuroschool.narod.ru/books/mirkes/mirkes.html].
* [http://icm.krasn.ru/refextra.php?id=2795 Нейроинформатика. Новосибирск: Наука, 1998.]
* {{գիրք
|հեղինակ = Беркинблит М. Б.
|վերնագիր = Нейронные сети
|isbn = 5-7084-0026-9
}}
* {{գիրք
|հեղինակ = Хакимов Б.В.
|վերնագիր = Моделирование корреляционных зависимостей сплайнами на примерах в геологии и экологии
|isbn = 5-211-04588-2
}}
* {{գիրք
|հեղինակ = Еремин Д.М., Гарцеев И.Б.
|վերնագիր = Искусственные нейронные сети в интеллектуальных системах управления
}}
* {{գիրք
|վերնագիր = Нейроуправление и его приложения
|բնօրինակ = Neuro-Control and its Applications
|
edits