КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
WTA типті нейрондар
WTA типті нейрондарда (Winner Takes All – Жеңімпаз барлығын алады) шығыс сигналдарының мәнін сәйкес
Өзара бәсекелес нейрондар тобы (13.9-сурет) бір xj кіріс сигналдарын алады. Үлес коэффициенттерінің нақты мәндеріне байланысты жекелеген нейрондардың ui қосынды сигналдары әртүрлі болуы мүмкін. Осы сигналдарды салыстырудың нәтижесінде ui мәні ең үлкен болған нейрон жеңімпаз деп саналады. Жеңімпаз-нейрон өз шығысында 1 күйін, ал қалған (жеңілген) нейрондар 0 күйіне өтеді.
13.9-сурет. WTA типті нейрондардың қосылу сұлбасы
WTA типті нейрондарды оқыту үшін мұғалім қажет емес, ол х қалыптанған (нормальденген) кіріс векторын қолдану арқылы жүреді. Бастапқы кезеңде әрбір нейронның 1 қатысты қалыптанатын үлес коэффициенттері кездейсоқ таңдалынады. Бірінші х кіріс векторы берілгеннен кейін жеңімпаз анықталады. Жеңімпаз болған нейрон 1 күйіне өтеді, ал бұл оған оның Жеңілген нейрондар шығыстарында 0 күйін қалыптастырады, ал бұл болса үлес коэффициенттерін нақтылау үдерісін жүзеге асыруды бұғаттайды. Бәсекелесуші нейрондардың (0 немесе 1) шығыс сигналдары мәндерінің бинарлығының салдарынан Гроссберг ережесі біраз қысқарады:
WTA типті нейрондардың қызмет етуіне кіріс векторларымен үлес коэффициенттерін қалыптандыру бірталай әсер етеді. І-ші нейронның шығыс сигналы векторлық қатынаспен сипатталуы мүмкін
||w||=||x||=1 болғандықтан, ui мәні x және w векторларының арасындағы бұрышпен анықталады, ui=cosji. Сондықтан үлес векторы x ағымды оқытушы векторға ең жуық орналасқан нейрон жеңімпаз болады. Нейрон жеңісінің нәтижесінде мәндері х ағымды оқытушы вектордың мәндеріне жуықтайтын үлес коэффициенттері нақтыланады. Егер желінің кірісіне мәндері бойынша бір-біріне жуық векторлар жиынтығы берілетін болса, онда тек сол бір нейрон ғана жеңе беретін болады. Сондықтан оның үлестері бұл нейронды жеңіске жеткізіп отырған кіріс векторлары мәндерінің орташа мәніне айналады. Кезекті кіріс векторын берген уақытта жеңіске жету ғана оларға үлес коэффициенттерін нақтылап, жеңіс бар болса, оқытуды жалғастыруға мүмкіндік береді. Оқыту үдерісінің өзін-өзі ұйымдастыруы бұл сияқты бәсекелестік салдарынан болады. Нейрондар өздерінің үлестерін мәндері жағынан жуық кіріс векторларының тобын ұсынған уақытта, жеңімпаз қашанда бір нейрон болатындай нақтылайды. Қызмет етуі барысында дәл осы нейрон бәсекелестіктің арқасында кіріс мәліметтеріндегі өз санатын табады. Әрине, біз нейрондардың барлқ модельдерін көрсеткен жоқпыз. Ең ьтанымал модельдердің ішінен Хебб моделі, инстар және оутстар Гроссберг, стохастикалық және т.б.
13.9Сигмоидальді типті бірбағытты көп қабатты желілер
Өзара біріктірілген нейрондар әріде жасанды нейрондық желілер (ЖНЖ) деп аталатын жүйені құрайды. Нейрондардың біріктірілу тәсіліне байланысты олар бірбағытты немесе рекуррентті (кері байланысы бар) желілер болуы мүмкін. ЖНЖ танымал түрлерінің ішінен ең көп қызуғышылық тудыратыны сигмоидальді типті нейрондардан тұратын және дұрысы көп қабатты персептрон деп аталатын MLP бірбағытты көп қабатты желі. Бұл сияқты желілерде сигнал бірбағытта кірістен шығысқа қарай жүреді. Олардың математикалық сипаттаулары салыстырмалы алғанда қарапайым және айқын, ал нәтижесі алгебралық типті тура функционалды тәуелділік көрсетілуі мүмкін. Бұл сияқты желілерді оқытудың әдістеріде қарапайым және тәжірибеде жүзеге асыруда қиыншылықтар болмайды. Көп қабатты персептронды оқыту негізінен мұғаліммен бірге жүреді, ал оқытудың негізгі идеясы х- кіріс вектор, ал – оған сәйкес күтілетін желінің шығыс векторы болатын <x,d> кортеждерін таңдауда жатыр. Егер x және d векторлары өзара тең болмаса, онда желі гетероассоциативті деп аталады. Бұл сияқты типті желілерде нейрондардың персептронды модельдері немесе олардың сигмоидальді түрдегі жалпыланған формасы пайдаланылады.
13.10 Бірқабатты желілер Бірқабатты желілерді бір жазықтықта орналасқан нейрондар құрайды (13.8-сурет). Әрбір і-ші нейронда поляризация бар (
yi нейронның шығыс сигналдары мәндері оқыту барысында мақсатты функцияны минимизациялау критерийі бойынша анықталатын wij желі үлестерінің функциясы болып табылады.
13.10-сурет. Бірқабатты сигмоидальді нейрондық желінің құрылымы
Бір деңгейде орналасқан нейрондар бір-бірінен тәуелсіз қызмет етеді, сондықтан бұл сияқты желінің мүмкіндіктері тек жекелеген нейрондардың қасиеттерімен шектеледі. Нейрондардың үлестері нақты бір шешім кеңістігін құрайды. Әрбір нейрон XOR екі кірісті логикалық функцияны жүзеге асыру мысалы арқылы бірқабатты желілердің мүмкіндіктерінің шектеулілігін көрсетейік. Қысқарту үшін бір сатылы түрдегі порогтың белсендендіру функциясын қолданамыз. Логикалық функцияны оқытуға берілген мәліметтер жиынтығы 18-кестеде берілген.
18-кесте. XOR функциясын оқыту үшін мәліметтер жиынтығы
Бірі 1- кіріс сигналына, ал екішісі 0-ге сәйкес болатындай етіп мәліметтер кеңістігін екі ішкі кеңістікке бөлетін жалғыз түзуді жүргізу мүмкін болмайтындығын көрсету қиындық тудырмайды (13.11-суретте штрихтелген аймақ бір класқа, ал штрихтелмеген аймақ екіші класқа тиесілі).
13.11-сурет. XOR логикалық функциясына сәйкес келетін оқыту мәліметтерін сызықтық бөлудің мүмкін еместігін көрсету
Неронның шығыс сигналы штрихтелген аймақтың ішінде 1-ге тең, ал бұл аймақтан тыста 0-ге тең болуы керек. Түзудің параметрлерінің мәндеріне (w10, w11, w12 үлестеріне) қарамастан кеңістікті бөлуге жалғыз түзуді (бір нейронды) қолданғанда бұл сияқты шарт орындалмайды. Сонымен бір сатылы персептронның тіптен XOR сияқты қарапайым функцияның өзін жүзеге асыратындай шамасы жоқ. Бұл мәселені жасанды нейрондық желіні кеңейту жолымен оңай шешуге болады. Осы мақсатпен сатыға тағы бір нейрон қосып, екі нейронныңда үлестерін олар кеңістікті x=[x1,x2]T кіріс сигналының мәніне байланысты екі кеңістікке бөліп тұратындай етіп таңдап аламыз: u1=w11*x1+w12*x2+w10>0 и u1=w11*x1+w12*x2+w10<0 (бірінші нейрон) и u2=w21*x1+w22*x2+w20>0 и u2=w21*x1+w22*x2+w20<0 (екінші нейрон). Үлестерді таңдау кеңістікті 13.12-суретте көрсетілгендей етіп бөлуді қамтамасыз етуі керек. u1>0, u2>0 шарттарына сәйкес келетін ішкі жиынтықтың ортақ бөлімі u1<0, u2<0 шарттарына сәйкес келетін қалған аймақтан жеке аймақты анықтады.
13.12-сурет. Сызықтық бөлгіштерді пайдалану жолымен сызықтық емес бөлу мәселелерін шешу
Желі шығысында жалғыз нейроннан тұратын бір қабатты қосу арқылы u1>0, u2>0 жиынтықтарының ортақ бөлімін ерекшелеп тұрған логикалық қосындылау функциясын жүзеге асыруға болады. XOR функциясын орындайтын нейрондық желінің ең соңғы құрылымы 13.13-суретте көрсетілген. Желіге қосымша тағы бір қабатты қосу мәліметтерді сызықтық бөлудің мүмкіндігі жоқтығы мәселесін шешуге мүмкіндік бергенін атап өткен жөн. Жасырын қабаттың әрбір нейроны жазықтықты қосымша сызықтық бөлуді жүзеге асырады, және бұл сияқты бөлімнің ui>0 және ui<0 аймақтарына деген шекаралары нейрон үлесінің мәніне тәуелді болады. Шығыс қабаты жасырын қабаттың нейрондары арқылы кіріс мәліметтерінің жиынтығы бөлінген ішкі аймақтардың сәйкес комбинациясын (мысалы, логикалық қосындысын) орындайды.
13.13-сурет. – XOR функциясын атқаратын жасанды нейрондық желінің құрылымы
Бірқабатты желілердің тәжірибелік маңызының зор болғанына қарамастан, қойылған тапсырманы орындау үшін бір қабат нейрон жеткілікті жерлерде де оны қолдануды жалғастырып келеді. (Несмотря на то, что однослойная сеть имеет небольшое практическое значение, ее продолжают использовать там, где для решения поставленной задачи достаточно и одного слоя нейронов.) Желінің бұл сияқты архитектурасын таңдап алудың себебі өте қарапайым. Кіріс нейрондарының саны x кіріс векторының өлшемімен, ал шығыс нейрондарының саны d векторының өлшемімен анықталады. Желіні оқыту мұғаліммен бірге жүргізіледі және оқытуды жүргізу барысы тура бірлік нейронды оқытудың көшірмесі сияқты.
13.11 Көп қабатты персептрон
Көп қабатты желі әртүрлі сатыларда орналасқан нейрондардан тұрады, сонымен қатар кіріс және шығыс қабаттардан басқа жоқ дегенде бір ішкі, яғни жасырын қабат болады. Нейрондық желілер саласына арналған әдебиеттерде көрсетілгендей бұл сияқты нейрондық жүйе көп қабатты персептрон деп аталады. Суретте жасырын бір қабаты бар желі берілген.
13.14-сурет. Екі қабатты сигмоидальді нейрондық желінің жалпылама құрылымы (бір жасырын қабаты бар)
Төменде берілетін келесі талқылаулардың барлығыда осы сияқты желілерге қатысты. Үлестердің сигналдарының белгілеулері де суретке сәйкес болады. Жасырын қабаттың нейрондарының үлесін жоғарғы индекспен (1), ал шығыс қабатының нейрондарының үлесін жоғарғы индекспен (2) белгілейміз. Жасырын қабаттың нейрондарының шығыс сигналдарын Оқытудың мақсаты желінің барлық қабаттарының
Мұндағы 0 индексі сигналға және поляризация үлесіне сәйкес болады және
Соңғы формуладан шығатыны: шығыс сигналының мәні екі қабаттың да үлесіне әсер етеді, ал бұл уақытта жасырын қабатта туындайтын сигналдар шығыс қабатының үлесіне тәуелді емес.
13.12 Қатенің кері таралу (распространения) алгоритмі Бұл алгоритм тиімдеудің градиенттік әдістерін қолдана отырып көп қабатты желінің үлестерін таңдау стратегиясын анықтайды. Осы уақытта бұл алгоритм көп қабатты желіні оқытудың ең нәтижелі алгоритмдерінің бірі болып саналады. Оның негізін шығыс сигналдарының фактілік мәндерімен күтілетін мәндерінің арасындағы айырманың квадраттарының қосындысы түрінде құрылатын мақсатты функция құрайды. (x,d) бірлік оқытатын таңдау жағдайында мақсатты функция келесі түрде анықталады
Үлестерді нақтылау әрбір оқытатын таңдауды ұсынғаннан кейін («онлайн» режимі деп аталатын) жүргізіледі немесе оқыту циклін құрайтын барлық таңдауларды ұсынғаннан кейін («оффлайн» режимі) бір рет жүргізіледі. Ұсынылған материалда әрі қарай әрбір таңдаудан кейін үлестерді белсендендіруге сәйкес келетін мақсатты функция (бірінші формула) пайдаланылады. Қысқарту үшін оқытудың мақсаты желінің әрбір қабатының нейрондарының үлестерінің мәндерін кіріс векторы берілген уақытта Қателерді кері тарату алгоритмін қолдана отырып желіні оқыту бірнеше кезеңмен жүргізіледі. Олардың біріншісінде х оқытатын таңдауы ұсынылып, желінің сәйкес нейрондарының сигналдарының мәні есептелінеді. х векторының берілген уақытта бірінші жасырын қабаттың Егер мақсатты функцияны үзіліссіз деп санасақ, онда оқытудың ең нәтижелі тәсілдері болып тиімдеудің градиенттік әдістері болып табылады. Оларға сәйкес үлестер векторын (оқыту) нақтылау Градиентті әдістерді қолдана отырып көп қабатты желіні оқыту желінің барлық қабаттарының үлестеріне қатысты градиент векторын анықтауды қажет етеді, ал бұл P(w) бағытын дұрыс таңдау үшін керек. Бұл тапсырманың тек шығыс қабаттарының үлестері үшін ғана анық шешімі бар. Басқа қабаттар үшін жасанды нейрондық желілер теориясында қателіктерді кері тарату алгоритмі (англ. Error backpropagation) деп аталатын арнайы стратегия жасалған, бұл алгоритм болса желіні оқыту процедурасымен теңестіріледі. Бұл алгоритмге сәйкес оқытудың әрбір циклінде келесі кезеңдер анықталады. Кезекті х векторын құрайтын кіріс сигналдарын генерациялауда ақпаратты тура бағытта жіберудегі нейрондық желіні талдау. Мұндай талдаудың нәтижесінде жасырын қабаттың және шығыс қабатының нейрондарының шығыс сигналдарының мәні, сонымен қатар әрбір қабаттың белсендендіру функцияларының Сигналдарды жіберу бағытын өзгерту, белсендендіру функциясын олардың туындыларымен алмастыру және еліктіру желісінің бұрынғы шығысына (қазіргі уақыттағы кірісі) фактілік және күтілетін мәндердің айырмасы түрінде жіберу арқылы қателіктерді кері тарату желісін құру. Бұл сияқты жолмен анықталған желі үшін қажетті кері айырмаларды (обратных разностей) есептеу керек. Үлестерді нақтылау (желіні оқыту) жоғарыда ұсынылған формулалар бойынша оргинал желі және қателіктерді кері тарату желісі үшін 1 және 2 п. алынған нәтижелер негізінде жүргізіледі. 1 және 3 п. сипатталған үдерістерді барлық оқытатын таңдаулар үшін алгоритмді тоқтату шарты орындалғанға дейін жалғастыра беру керек. Градиент нормасы оқыту үдерісінің дәлдігін сипаттайтын ε априори мәнінен төмендегенде алгоритм әрекеті тоқтатылады. Нейрондық желі теориясы үшін нейрондық желілердің нақты типтеріне арналған базалық формулалармен олардың өзгертулері классикалық деп саналады. Осы себепті біз тек бір жасырын қабаты бар желіге қатысты шарттарды ғана қарастырамыз. Используемые обозначения представлены на рис. N. Бұрынғы сияқты кіріс түйіндерініңі санын N әріпімен, жасырын қабаттағы нейрондар санын – K, ал шығыс қабаттағы нейрондар санын - M деп белгілейміз. Бұл нейрондардың сигмоидальдік белсендендіру функциясын қолданамыз. Алгоритмнің негізін мақсатты функцияны желінің шығыс сигналдарының фактілік мәндерімен күтілетін мәндерінің арасындағы айырманың квадраттарының қосындысы түрінде есептеу құрайды. бірлік (x,d) оқытатын таңдау жағдайында мақсатты функция және оқытатын таңдаулардың жиынтығы Е формуласымен беріледі. Баяндалып отырған материалды қысқарту үшін әрбір оқытатын таңдауды ұсынғаннан кейін үлестерді нақтылауға мүмкіндік беретін мақсатты функцияны қолданамыз. N-суретте берілген белгілеулерді ескере отырып, бұл функция келесі өрнекпен анықталады С учетом обозначений, введенных на рис. N, эта функция определяется выражением
(13.31)
Градиенттің нақты компоненттері бұл өрнекті дифференциалдау арқылы есептелінеді. Бірінші кезекте шығыс қабатының нейрондарының үлестері анықталады. Шығыс үлестері үшін аламыз:
(13.32)
мұнда Егер
Жасырын қабаттың нейрондарына қатысты градиенттің компоненттері осы қағида бойынша анықталады, бірақ олар төменде берілген түрдегі функцияның (13.34) бар болуынан туындайтын күрделі тәуелділікпен сипатталады
Бұл өрнектің жекелеген құрауыштарын (составляющих) нақтылағаннан кейін аламыз:
Егер төмендегі белгілеуді енгізетін болсақ
онда жасырын қабаттың нейрондарының үлестеріне қатысты градииеттің компоненттерін анықтайтын өрнекті аламыз
Екі жағжайда да
Бағытты таңдаудың мұнанда тиімді әдістері бар.
Дата добавления: 2015-06-04; Просмотров: 1409; Нарушение авторских прав?; Мы поможем в написании вашей работы! |