«Արհեստական նեյրոնային ցանց»–ի խմբագրումների տարբերություն

Content deleted Content added
No edit summary
չ վերջակետների ուղղում, փոխարինվեց: ա: → ա։ (32) oգտվելով ԱՎԲ
Տող 1.
{{վատ թարգմանություն}}
[[Պատկեր:Neuralnetwork.png|մինի|Պարզ նեյրոնային ցանցի սխեմա:Կանաչսխեմա։Կանաչ գույնով նշանակված են ''մուտքային'' նեյրոնները , երկնագույնով` ''թաքնված'' նեյրոնները, դեղինով`  ''ելքային'' նեյրոնը]]
 
'''Արհեստական նեյրոնային ցանցեր''' (ԱՆՑ), [[մաթեմատիկական մոդել]]ներ, ինչպես նաև նրանց ծրագրային կամ սարքային իրականացումներ, որոնք կառուցված են [[բիոլոգիական նեյրոնային ցանց]]երի - ցանցեր կենդանի օրգանիզմի [[նեյրոն|նեյրոնային բջիջներից]] կազակերպական կամ ֆունկցիայավորման սկզբունքով։ Այդ հասկացությունը առաջացել է [[գլխուղեղ]]-ում առաջացող պրոցեսների ուսումնասիրման և այդ պրոցեսների [[Մոդելավորում|մոդելավորման]] փորձերի արդյունքում։ Այդպիսի առաջին [[Ուղեղի մոդել|փորձը]] [[Մակկալոկ, Ուորեն|Մակկալոկի]]և [[Պիթս, Ուոլտեր|Պիթսի]] նեյրոնային ցանցերն էին <ref name="Մակ-Կալլոկ">''Մակ-Կալլոկ Ու. Ս., Պիթս Վ.'',[http://neuro.net.ua/pub/mcculloch.html Գաղափարների տրամաբանական հաշվարկ, որոնք վերաբերում են նյարդային ակտիվությանը ] // «Սարքավորումներ» ժողովածու Կ. Է. Շեննոնի և Ջ. Մակկարտիի խմբագրությամբ:խմբագրությամբ։ Արտասահմանյան գրականության խմբագրություն , 1956. — էջ.363-384. (Անգլիական հոդվածի թարգմանություն 1943 թ.)</ref>. Հետագայում, ուսուցողական ալգորիթմների մշակումից հետո , ստացված մոդելները սկսեցին կիրառել պրակտիկ նպատակներով ` [[կանխատեսման խնդիրներ]]ում, [[Կերպարների ճանաչում|կերպարների ճանաչման]] համար, [[Ադապտիվ կառավարում|կառավարման]] խնդիրներում և այլն :
 
ԱՆՑ-ն իրենից ներկայացնում է փոխկապված և փոխհամագործակցող ([[արհեստական նեյրոն]]ների) պարզ [[պրոցեսորների]] [[համակարգ]]:Այդպիսի պրոցեսորները սովորաբար բավականին պարզ են, հատկապես, համեմատած անհատական համակարգիչներում կիրառվող պրոցեսորների հետ:հետ։ Նմանատիպ ցանցի յուրաքանչյուր պրոցեսոր գործ ունի միայն [[ազդանշանների]] հետ, որոնք պարբերականորեն ստանում է, և ազդանշանների, որոնք պարբերաբար ուղարկում է այլ պրոցեսորների:պրոցեսորների։ Այնուամենայնիվ, այդպիսի լոկալ պարզ պրոցեսորները միասին ընդունակ են կատարելու բավականին բարդ խնդիրներ:խնդիրներ։
 
[[Մեքենայական ուսուցում|Մեքենայական ուսուցման]] տեսանկյունից նեյրոնային ցանցը իրենից ներկայացնում է [[Կերպարների ճանաչում (կիբեռնետիկա)|կերպարների ճանաչման]], [[Դիսկրիմինանտ վերլություն|դիսկրիմինանտ վերլուծության]], [[Կլաստերիզացիա|կլաստերիզացիայի մեթոդի]] և նմանատիպ այլ մեթոդների մասնավոր դեպք:դեպք։ [[Մաթեմատիկա]]կան տեսանկյունից , նեյրոնային ցանցերի ուսուցումը [[ոչ գծային օպտիմալացում|ոչ գծային]] [[Օպտիմիզացիա (մաթեմատիկա)|օպտիմալացման]] [[բազմապարամետրական խնդիր]] է:է։ [[Կիբեռնետիկա]]յի տեսանկյունից նեյրոնային ցանցը կիրառվում է [[Ադապտիվ կառավարում|ադապտիվ կառավարման]] խնդիրներում և որպես [[ալգորիթմներ]] [[ռոբոտատեխնիկա]]յի համար:համար։ [[Հաշվողական տեխնիկա]]յի և [[ծրագրավորում|ծրագրավորման]] զարգացման տեսակյունից նեյրոնային ցանցը [[պարալելիզմի արդյունավետ կառավարում|արդյունավետ պարալելիզմի խնդիրների]] լուծման միջոց է : [[Արհեստական ինտելեկտ]]ի տեսանկյունից ԱՆՑ-ն հանդիսանում է [[կոննեկտիվիզմի]] հոսքի [[փիլիսոփայություն|փիլիսոփայական]] հիմքը և [[կառուցվածքային մոտեցում|կառուցվածքային մոտեցման]] հիմնական ուղղությունը [[համակարգչային ալգորիթմ|համակարգչային]] [[ալգորիթմների]] միջոցով (մոդելավորում) [[ինտելեկտ|բնական ինտելեկտի]] կառուցման հնարավորությունների ուսումնասիրումը:ուսումնասիրումը։
 
Նեյրոնային ցանցերը չեն [[ծրագրավորում|ծրագրավորվում]] բառից բուն իմաստով, դրանք '''[[ուսուցում|ուսուցանվում են]]'''. ուսուցանելու հնարավորությունը նեյրոնային ցանցերի գլխավոր առանձնահատկություններից է ավանդական [[ալգորիթմների]] առջև:առջև։ Տեխնիկապես ուսուցումը կայանում է նեյրոնների միջև կապերի գործակիցների առկայությամբ:առկայությամբ։ Ուսուցման պրոցեսում նեյրոնային ցանցը ունակ է հայտնաբերել մուտքային և ելքային տվյալների միջև բարդ կախվածություններ, ինչպես նաև կատարել [[ընդհանրացում]]: Դա նշանակում է, որ հաջող ուսուցման դեպքում ցանցը կարող է վերադարձնել ճիշտ արդյունք այն տվյալների հիման վրա, որոնք բացակայում էին ուսուցողական ընտրանքում, ինչպես նաև ոչ լիարժեք և/կամ «աղմկոտ», մասամբ աղավաղված տվյալների հիման վրա։
 
== Ժամանակագրություն ==
Տող 15.
* [[1948 թ. գիտությունում|1948]] - [[Վիներ , Նորբերտ|Նորբերտ Վիներ]]ը գործընկերների հետ միասին հրատարակեցին կիբերնետիկայի մասին աշխատանքը։ Հիմնական գաղափարը հանդիսանում է մաթեմատիկական մոդելների միջոցով բարդ բիոլոգիական պրոցեսների ներկայացումը։
* [[1949 թ. գիտությունում|1949]] - [[Խեբբ,Դոնալդ|Դ. Խեբբը]] առաջարկում է ուսուցման առաջին ալգորիթը։
* [[1958 թ. գիտությունում|1958]] [[Ռոզենբատտ, Ֆռենկ|Ֆ. Ռոզենբատտ]]ը ստեղծում է միաշերտ [[Պերսեպտրոն]]։ Պերցեպտրոնը ոընի որոշակի առանձնահատկություն ` այն կիրառում է կերպարների ճանաչման , եղանակի կանխատեսման և այլ խնդիրներում : Թվում էր, թե ամբողջական [[արհեստական ինտելեկտ]]ի կառուցումը այլևս սարերի ետևում չէ:չէ։ Մակկալոկը և նրա հետնորդները դուրս եկան «Կիբերնետիկական ակումբից»։
* [[1960 թ. գիտությունում|1960 թ.-ին]] {{Translation|:en:Widrow |Ուիդրոուն}}Ուիդրոուն իր ուսանող Խոֆֆոմի հետ համատեղ [[դելտա-կանոն]]ի հիման վրա (''Ուիդրոուի բանաձևեր'') մշակեցին Ադալինը , որը անմիջապես սկսեց կիրառվել կանխատեսման և արդյունավետ կառավարման խնդիրներում։ Ադալինը կառուցվել էր նրանց (Ուիդրոու - Խոֆֆոմ) իսկ կողմից արդեն ստեղծված սկուզբունքորեն նոր էլեմենտների բազայի հիման վրա` [[մեմիստոր]]ի հիման վրա <ref>[http://www-isl.stanford.edu/~widrow/papers/j1964patternrecognition.pdf Pattern Recognition and Adaptive Control. ''BERNARD WIDROW'']</ref>. Այժմ Ադալինը հանդիսանում է ազդանշանների մշակման բազմաթիվ համակարգերի ստանդարտ էլեմենտը։<ref>''Ուիդրոու Վ., Ստիրնս Ս.'',Ազդանշանների արդյունավետ կառավարում : Ռադիո և կապ, 1989. — 440 էջ</ref>
*[[1963 թ. գիտությունում|1963 թ.-ին]] АН СССР Ինֆորմացիայի փոխանցման խնդիրների ինստիտուտում Ա. Պ. Պետրովի կողմից կատարվում է պերցեպտրոնի համար «բարդ» խնդիրների մանրակրկիտ ուսումնասիրություն <ref>{{հոդված | հեղինակ = Պետրով Ա.Պ. | վերնագիր = Պերցեպտրոնի հնարավորությունների մասին| հրատարակություն = АН СССР հրատարակություն, Տեխնիկական կիբերնետիկա | թիվ = 1964 | համար = 6 }}</ref>. ԱՆՑ մոդելավորման ոլորտում այդ պիոներական աշխատանքը ԽՍՀՄ-ում ծառայեց որպես [[Բոնգարդ ,Միխաիլ Մոիսեևիչ|Մ. Մ. Բոնգարդի]] համար նոր գաղափարների կոմպլեքսի աղբյուր , որպես «պերցեպտրոնի ալգորիթմի փոքր համեմատական ձևափոխություն թերությունները ուղղելու համար <ref>{{գիրք|վերնագիր = Ճանաչողության խնդիրներ | բնօրինակ = |հեղինակ = Բոնգարդ Մ.Մ. |հղում = |isbn = |էջ = |թիվ = 1967 |հրատարակություն =|վայր = Մ. |հրատարակչություն = ֆիզմաթգիզ }}</ref> : Ա. Պետրովի և [[Բոնգարդ ,Միխաիլ Մոիսեևիչ|Մ. Մ. Բոնգարդի]] աշխատանքները նպաստեցին , որ ԽՍՀՄ-ում ԱՆՑ վերաբերյալ առաջին էյֆորիայի ալիքը հարթվի :
*[[1969 թ. գիտությունում|1969 թ.-ին]] [[Միսկի, Մարվին Լի|Մ. Մինսկին]] հրապարակում է պերցեպտրոնի սահմանափակության փաստերը և ցույց է տալիս , որ այն ունակ չէ լուծելու մի շարք խնդիրներ ([["Ազնվության" և "միայնակ բլոկում" խնդիրներ]])` կապված ներկայացումների այլաձևության հետ։ Նեյրոնային ցանցերի նկատմամբ հետքրքրությունը կտրուկ ընկնում է։
*[[1973 թ. գիտությունում|1973 թ;-ին]] Վ. Վ. Խակիոմովը առաջարկում է սպլայների հիման վրա սինապսներով ոչ գծային մոդել և ներդնում է այն բժշկության, էկոլոգիայի, երկրաբանության խնդիրների լուծման համար։ Խակիմով Վ. Վ.'' Սպլայներով կոռելյացիոն կախվածությունների մոդելավորում երկրաբանության և էկոլոգիայի օրինակներով . — Մ.: «ՄՊՀ»: «Նևա»,2003, 144 էջ.
* [[1974 թ. գիտությունում|1974]] — Պոլ Ջ. Վերբոսը <ref>''Werbos P. J.'', Beyond regression: New tools for prediction and analysis in the behavioral sciences. Ph.D. thesis, Harvard University, Cambridge, MA, 1974.</ref> և Ա. Ի. Գալուշկինը<ref>''Գալուշկին Ա. Ի.'' Կերպարների ճանաչման բազմաշերտ համակարգի սինթեզ — Մ.: «Էներգիա», 1974.</ref> միաժամանակ ստեղծում են [[Սխալների հետադարձ տարածման մեթոդ|սխալների հետադարձ տարածման ալգորիթը]] [[բազմաշերտ պերցեպտրոն]]ների ուսումնասիրման համար : Հայտնագործությունը առանձնապես ուշադրության չի արժանանում:արժանանում։
* [[1975 թ. գիտությունում|1975]] — ֆուկսիման իրենից ներկայացնում է [[Կոգնիտրոն]]` ինքնաձևավորվող ցանց ` նախատեսված այլընտրանքային [[Կերպարների ճանաչում|կերպարների ճանաչման]] համար , սակայն դա հասանելի է փաստացիորեն կերպարների բոլոր վիճակների հիշման պարագայում :
* [[1982 թ. գիտությունում|1982]] — մոռացության էտապից հետո նեյրոնային ցանցերի նկատմամբ հետքրքրությունը կրկին աճում է : [[Խոպֆիլդ, Ջոն|Ջ. Խոպֆիլդը]] ([[:en:John Joseph Hopfield]]) ցույց տվեց , որ հետադարձ կապերով նեյրոնային ցանցը կարող է իրենից ներկայացնել համակրգ, որը նվազեցնում է էներգիան (այսպես կոչված [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանց]]) : Կոխոնենի կողմից ներկայացված են անցերի մոդելներ , որոնք ուսուցանվում են առանց ուսուցչի ([[Կոխոնենի նեյրոնային ցանց]])և լուծում են [[կլաստերիզացիա]]յի խնդիրներ,տվյալների վիզուալիզացիա ([[Կոխոնենի ինքնակազմակերպվող քարտ]])և տվյալների վերլուծության այլ խնդիրներ :
* [[1986 թ. գիտությունում|1986]] — [[Ռումելխարտ, Դեվիդ|Դովիդ Ի. Ռումելխարտի]], Ջ. Ե. Խինտոնի և Ռոնալդ Ջ. Վիլյամսի<ref name="Rumelhart">''Rumelhart D.E., Hinton G.E., Williams R.J.'', Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318—362. Cambridge, MA, MIT Press. 1986.</ref> ևիրարից անկախ ու միաժամանակ Ս. Ի. Բարցևի և Վ. Ա. Օխոնինի կողմից (Կրասնոյարսկյան խումբ)<ref>''Բարցև Ս. Ի., Օխոնին Վ. Ա.'' Ինֆորմացիայի մշակման արդյունավետ ցանցեր. Կրասնոյարսկ : АН СССР, 1986. Препринт N 59Б. — 20 с.</ref> մշակվել և զարգացել է [[սխալների հետադարձ տարածման մեթոդը]]. Սկսվեց ուսուցանվող նեյրոնային ցանցերի նկատմամբ հետաքրքրությունը:հետաքրքրությունը։
 
== Հայտնի կիրառություններ ==
Տող 33.
 
=== Որոշումների ընդունում և կառավարում ===
Այս խնդիրը մոտ է դասակարգման խնդրին:խնդրին։ Դասակարգումը ենթակա է իրավիճակին,որի բնութագրերը մուտքգրվում են նեյրոնային ցանցի մուտքում : Ցանցի ելքում պետք է այդ պարագայում հայտնվի լուծման կանխատեսումը, որը ցանցը ընդունել է : Այդ պարագայում որպես մուտքային ազդանշաներ կիրառվում են կառավարվող համակարգի վիճակը բնութագրող տարբեր չափանիշներ <ref name="OSPNeuro">[http://www.osp.ru/os/1997/04/16.htm Բաց համակարգեր — նեյրոցանցերում ներդնումը]</ref>.
 
=== Կլաստերիզացիա ===
 
Կլաստերիզացիայի ներքո հասկացվում է բազմաթիվ մուտքային ազդանշանների բաժանումը դասերի, ընդ որում այնպես, որ ոչ քանակը և ոչ էլ դասերի նախանշանները նախապես հայտնի չեն:չեն։ Ուսումնասիրումից հետո նման ցանցը կարող է որոշել, թե որ դասին է պատկանում մուտքային ազդանշանը:ազդանշանը։ Ցանցը կարող է ազդանշան տալ նաև այն մասին, որ մուտքային ազանշանը չի պատկանում առանձնացված դասերից և ոչ մեկին, ինչն էլ հանդիսանում է նոր, ուսուցանվող ընտրանքում բացակայող տվյալների նախանշանը:նախանշանը։ Այդ պարագայում, նման ցանցը ''կարող է առաջացնել նոր, նախկինում անհայտ ազդանշանների դասեր '': Դասերի միջև դասերի և ցանցի կողմից առանձնացված, առարկայական տիրույթում գոյություն ունեցող համապատասխանությունը հաստատվւոմ է մարդու կողմից:կողմից։ Կլաստերիզացիան իրականացնում են օրինակ ՝ [[Կոխոնենի նեյրոնային ցանց]]ը:ը։
 
Նեյրոնային ցանցերը Կոխոնենի պարզ տարբերակում չեն կարող մեծ լինել, այդ իսկ պատճառով էլ դրանք բաժանում են հիպերշերտերի (հիպերսյունակների) և միջուկի (միկրոսյուների):Եթե համեմատել մարդու ուղեղի հետ, ապա զուգահեռ շերտերի իդեալական քանակը չպետք է գերազանցի 112-ը:ը։ Այդ շերտերը իրենց հերթին կազմում են հիպերշերտեր (հիպերսյունակ), որոնցում առկա է 500 -ից 2000 միկրոսյունակ (միջուկ): Այդ պարագայում յուրաքանչյուր շերտ բաժանվում է բազմաթիվ հիպերսյունակների, որոնք ներտափանցում են շերտերի մեջ : Միկրոսյունակները կոդավորվում են թվերով և միավորներով ,որոնք ելքում որպես արդյունք են ստացվում : Եթե անհրաժեշտ է , ապա ավելորդ շերտերը կամ նեյրոնները հեռացվում են կամ ավելացվում:ավելացվում։ Նեյրոնների կամ շերտերի քանակի որոշման համար իդեալական է սուպերհամակարգիչների կիրառումը : Այդպիսի համակարգը թույլ է տալիս , որ նեյրոնային ցանցերը լինեն ճկուն :
 
=== Կանխատեսում ===
 
Նեյրոնային ցանցերի կանխատեսման հնարավորությունները ուղղակիորեն հետևում են նրա ելքային և մուտքային տվյալների միջև թաքնված կախվածությունների ընդհանրացման և առանձնացման հնարավորություններից:հնարավորություններից։ Ուսուցումից հետո ցանցը ունակ է գուշակելու որոշակի գործունեության ապագա սպասվող արժեքը` մի քանի նախկին արժեքների հիման վրա և/կամ ներկա պարագայում գոյություն ունեցող մի քանի փաստերի հիման վրա:վրա։ Պետք է նշել, որ կանխատեսումը հնարավոր է միայն այն դեպքում, երբ " նախկին փոփոխությունները ինչ-որ մակարդակում որոշում են ապագան ": Օրինակ, բաժնետոմսերի գների կանխատեսումը նախորդ շաբաթվա համեմատ կարող է հաջող հանդիսանալ (կարող է նաև անհաջող լինել), այն դեպքում, երբ վաղվա խաղատոմսի արդյունքների կանխատեսումը վերջին 50 տարվա արդյունքների հիման վրա հավանաբար ոչ մի արդյունք չի տա:տա։
 
=== Ապրոքսիմացիա ===
Տող 64.
* Ուսուցման արդյունավետության ստուգում;
* Պարամետրերի ուղղում,վերջնական ուսուցում;
* Ցանցի [[վերբալիզացիա (ծրագրավորում)|վերբալիզացիա]] <ref>''[[Միրկես, Եվգենի Մոյիսեևիչ|Միրկես Ե. Մ.]]'',[http://www.intuit.ru/department/expert/neuroinf/9/ Տրամաբանական թափանցիկ նեյրոնային ցանցեր և ակնհայտ տվյալների գիտելիքների ստեղծում ], գրքում : Նեյրոինֆորմատիկա / ''Ա. Ն. Գորբան, Վ. Լ. Դունին-Բորկովսկի, Ա. Ն. Կիրդին'' և այլք — Նովոսիբիրսկ:Նովոսիբիրսկ։ Գիտություն. Սիբիրյան ընկերություն РАН, 1998. — 296 с ISBN 5-02-031410-2</ref> հետագա կիրառման նպատակով :
 
Արժե այս էտապներից որոշները մանրամասնորեն ուսումնասիրել :
Տող 74.
 
Մուտքային տվյալները բերվում են այնպիսի տեսքի, որով դրանք կարելի է տալ ցանցի մուտքին : Տվյալների ֆայլում յուրաքանչյուր գրառում կոչվում է "ուսուցանվող զույգ" կամ "ուսուցանվող վեկտոր" : Ուսուցանվող վեկտորը պարունակում է ցանցի յուրաքանչյուր մուտքի մեկական արժեք և կախված ուսուցման տիպից (ուսուցչի հետ կամ առանց) մեկական արժեք ցանցի յուրաքանչյուր ելքի համար : Ցանցի ուսուցումը «հուքային» ընտրանքում, որպես կանոն, որակյալ արդյուքներ չի տալիս : Գոյություն ունեն ցանցի «ընկալման» բարելավման մի շարք հնարավորություններ .
* ''Նորմալացումը'' կատարվում է , երբ տարբեր մուտքերում հանդիպում են տարբեր չափողականության տվյալներ : Օրինակ, ցանցի առաջին մուտքին տրվում են 0-ից մինչև միավոր մեծության արժեքներ , իսկ երկրորդին ՝ 100-իc մինչև 1000: Երկրորդ մուտքում արժեքների նորմավորման բացակայության դեպքում ցանցի ելքի վրա մեծ ազդեցություն կունենա, քան արժեքը առաջին մուտքի դեպքում:դեպքում։ Բոլոր մուտքային և ելքային տվյալների չափողականության նորմավորումը կատարվում է միասին,
* ''[[Քվանտավորում(ազդանշանների մշակում)|Քվանտավորումը]]'' կատարվում է անընդհատ մեծությունների նկատմամբ, որոնց համար առանձնացվում է դիսկրետ արժեքների հավաքածու : Օրինակ, քվանտավորումը կիրառվում է ձայնային ազդանշանների հաճախականության տրման ժամանակ ՝ բանավոր խոսքի ճանաչման համար ,
* ''[[Ֆիլտրացիան]]'' իրականացվում է «աղավաղված» տվյալների համար :
Տող 84.
 
=== Ցանցի հատկությունների փորձագիտական ընտրություն ===
Ընդհանուր կառուցվածքի ընտրությունից հետո կարելի է փորձագիտորեն ընտրել ցանցի պարամետրերը : Պերցեպտրոնի տիպի ցանցերի համար դա կլինի շերտերի թիվը , թաքնված շերտերում բլոկների թիվը (Վորդի ցանցի համար), շրջանցող կապերի առկայությունը կամ բացակայությունը ,նեյրոնների փոխանցելիության գործառույթները:գործառույթները։ Շերտերի և նեյրոնների քանակի ընտրության դեպքում պետք է ելնել նրանից, որ "ցանցի ընդհանուր հնարավորությունները այնքան մեծ են, որքան շատ են նեյրոնների միջև գումարային կապերը" : Մյուս կողմից , կապերի քանակը վերևից սահմանափակված է ուսուցանվող տվյալներում գրառումների քանակով :
 
=== Ուսուցման պարամետրերի փորձագիտական ընտրություն ===
Տող 90.
 
=== Ցանցի փաստացի ուսուցում ===
Ուսուցման պրոցեսում ցանցը որոշակի հերթականությամբ ուսումնասիրում է ուսուցանվող ընտրանքը : Ուսումնասիրման հերթականությունը կարող է լինել հետևողական , պատահական և այլն : [[Առանց ուսուցչի ուսուցանվող]] որոշ ցանցեր ,օրինակ, [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանցերը]] դիտարկում են ընտրանքը մեկ անգամ : Այլք, օրինակ՝ [[Կոխոնենի նեյրոնային ցանց|Կոխոնենի ցանցը]],ինչպես նաև ցանցեր,որոնք ուսուցանվում են ուսուցչի միջոցով, ընտրանքը դիտարկում են բազմաթիվ անգամներ , և այդ դեպքում ընտրանքով մեկ ամբողջական անցումը կոչվում է "ուսուցման դարաշրջան" : Ուսուցչի օգնությամբ ուսուցման ժամանակ մուտքայինտվյալների հավաքածուն բաժանվումէ երկու մասի ՝ փաստացի ուսուցանվող ընտրանք և թեսթային տվյալներ , իսկ բաժանման սկզբունքը կարող է լինել կամայական : Ուսուցանվող տվյալները տրվում են ցանցին ուսուցման համար , իսկ ստուգողները օգտագործվում են ցանցի սխալների հաշվարկման համար (ստուգող տվյալները երբեք ցանցի ուսուցման համար չեն կիրառվում) : Այդ պարագայում, եթե ստուգող տվյալների միջոցով սխալները նվազեցվում են, ապա իսկապես կատարվում է ընդհանրացում : Եթե սխալը ուսուցանվող տվյալներում շարունակում է նվազել, իսկ թեսթային տվյալներում ավելանալ, դա նշանակում է , որ ցանցը դադարել է ընդհանրացում կատարել և ուղղակի «հիշում է » ուսուցանվող տվյալները : Այդ հայտնությունը կոչվում է ցանցի վերաուսուցում կամ [[օվերֆիտտինգ]] : Նման դեպքերում սովորաբարուսուցումը ընդհատում են:են։ Ուսուցման պրոցեսում կարող են ի հայտ գալ նաև այլ խնդիրներ, ինչպիսիք են [[նեյրոնային ցանցի անդամալուծում|անդամալուծությունը]] կամ ցանցի հայտնվելը լոկալ սխալների մակերևույթ : Հնարավոր չէ նախապես գուշակել այս կամ այն խնդրի առաջացումը և տալ դրանց լուծման ցուցումներ :
 
=== Ուսուցման համարժեքության ստուգում ===
Տող 120.
=== Ռեկուրենտիվ նեյրոնային ցանցեր ===
 
Ելքային նեյրոնից կամ նեյրոններից ազդանշանը թաքնված շերտից մասնակիորեն փոխանցվում է ետ նեյրոնի մուտքային շերտին ([[ետադարձ կապ]]): Ռեկուրենտիվ [[Խոպֆիլդի նեյրոնային ցանց|Խոպֆիլդի ցանցը]] «ֆիլտրում է» մուտքային տվյալները, վերադառնալով կայուն վիճակի, և այդ կերպ թույլ է տալիս լուծել [[Տվյալների նեյրոցանցային սեղմում|տվյալների սեղմման]] և [[Ասոցիատիվ հիշողություն|ասոցիատիվ հիշողության]]կառուցման խնդիրներ <ref>[http://www.intuit.ru/department/expert/neuro/10/ INTUIT.ru — Ռեկուրենտիվ ցանցերը ինչպես ասոցիատիվ հիշող սարքեր]</ref>: Ռեկուրենտիվ ցանցերի մասնավոր դեպք են հանդիսանում երկուղղվածության ցանցերը:ցանցերը։ Նման ցանցերում շերտերի միջև առկա են կապեր ինչպես մուտքային շերտից ելքայինին, այնպես էլ ընդհակառակը : Դասական օրինակ է հանդիսանում [[Կոսկոյի նեյրոնային ցանցը]]:
 
=== Ռադիկալ-բազիսային ֆունկցիաներ ===
Տող 159.
# Պատահականորեն ընտրվում են տվյալների կետերը <math>x</math>.
# Որոշվում է <math>x</math> մոտակա քարտեզի հանգույցը (BMU — Best Matching Unit).
# Այդ հանգույցը տեղակայվում է տրված քայլում x -ի ուղղությամբ : Սակայն, այն միայնակ չի տեղակայվում, այլ իր հետ ներառում է որոշակի քանակության մոտակա հանգույցներ քարտեզի հարևանությամբ : Բոլոր տեղաշարժվող հանգույցներից առավել ուժեղ տեղափոխվում է կենտրոնական ՝ տվյալների կետին մոտ հանգույցը,իսկ մնացածները, որքն հեռու են BMU-ից , այնքան ավելի դանդաղ են տարհանվում : Քարտեզի կարգավորման ժամանակ առանձնացնում են 2 էտապներ ՝ կոպիտկարգավորման (fine-tuning) և ճշգրիտ կարգավորման (fine-tuning) փուլեր : Առաջին փուլում ընտրվում են շատ հարևան արժեքներ և հանգույցների տեղաշարժը կրում է կոլեկտիվ բնույթ:բնույթ։ Արդյունքում քարտեզը « ուղղվում է » և կոպիտ կերպով արտապատկերում է տվյալների կառուցվածքը, իակ ճշգրիտ կարգավորման փուլում հարևանության շառավիղը 1-2 է և կարգավորվում են արդեն հանգույցների անհատական դիրքերը : Բացի այդ, տեղաշարժման մեծությունը ժամանակի ընթացքում համամասնորեն նվազում է , այսինքն ՝ ուսուցման առաջին փուլում ավելի մեծ է , իսկ ավարտին հասնելիս հավասարվում է զրոյի :
# Ալգորիթմը որոշակի ժամանակահատվածի ընթացքում կրկնվում է (իհարկե, մի շարք քայլեր, կարող են տարբեր լինել՝ կախված առաջադրանքից):
 
Տող 194.
* Ինֆորմացիայի բովանդակային մշակման կարողություն;
* Սխալների նկատմամբ տոլերանտություն;
* Ցածր էներգատարություն:էներգատարություն։
 
== Հավելվածների օրինակներ ==