Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Багатошарові перцептронні ШНМ




Окремий перцептрон дозволяє вирішити нескладні інтелектуальні задачі по класифікації за деякою бінарною ознакою.

Якщож скористатися властивістю лінійного розуміння перцпетронна то комбінуючи їх у прошарки та НМЮ можна розширити клас задач а класифікацію, за багатьма ознаками і навіть на ідентифікацію та розпізнавання, розглянемо приклад:

Один перцептрон у двовимірному випадку умовно розділяє простір станів на два півпростори, активності на пасивності.Якщо у цьомуж просторі добавити ще один перцептрон та лінії розділити, додадуться 4 підпростори.

Ⓑ Ⓐ

ƩI pi Ⓓ ƩI pII

Ʃi<p

Ⓒ ƩI<pII

Зона А відповідає активному стану, обох перциптронів, зона В – активному іншому і пасивному другому перцептрону. Зона С – пасивному стану обох. Зона D – відповідає пасивному першому і активному другому перцептронів. Ці перцептрони можна з’єднати у таку нейрону мережу

Тут F – довільна функція, що модулює спосіб комбінування перцептронів.

Розглянемо тепер приклад у якому здійснюється класифікація графічних образів, за 2 ознаками:

Зображення зосереджується вище або нижче, центральної частини;

Зображення зосереджується лівіше або правіше центральної частини,

прикладами таких графічних образів може бути

 

       
       
       
       

 

       
       
       
       

 

       
       
       
       

 

       
       
       
       

 

 


Для класифікації n-их груп образів можна, використати 2 перцептрони у одному проміжку:

1-ий, перцептрон розділяє образи переважно на ті що вище або нижче середини, а 2-ий розділяє, образи на ті, що переважно лівіше або правіше від

середини. Очевидно, що класифікація, буде не вдалою при обробці образів такого виду:

 
 

 

   

 

   

 

 
 

 

 


Перших два зразки можуть невірно оброблятися другим перцептроном, а третій та четвертий зразок невірно оброблятиметься першим перцептроном.

Для реалізації такої задачі: вихідний прошарок мережі, які реалізує функцію F працюватиме із чотирма можливими варіантами виходу, які відповідають можливим варіантам виходів перцептронів першого прошарку

OutF=I, якщо outI=1, outII=1

OutF=II, якщо outI=1, outII=0

OutF=III, якщо outI=0, outII=1

OutF=IV, якщо outI=0, outII=0

В такого типу задачах класифікується за декількома бінарними ознаками результуючи можна, формувати двійковим представленням цілих чисел.У випадку двох бінарних ознак можливі варіанти виходу

(02;02) =010

(02;12)=110

(12;02)=210

(12;12)= 310

У випадку трьох бінарних ознак можливі 8 результатів

(0;0;0)=0

(0;0;1)=110

(1;1;1)=710

           
           
           
           
           
           

 

Переважно вище, лівіше і вздовж
Переважно нижче, правіше і ближче до центру

 


У випадку використання більшої кількості перцептронів у першому прошарку, які комбінуються за правилом композиції у просторі можливих станів їх лінії розділення

Упорядковані у деякий многокутник. Наприклад у випадку шести перцептронів внутрішність шестикутника відповідає активним станам усіх перцептронів

Зауваження:

Вибір пороку активізації для перцептрона є достатньо довільним і обирається емпірично. Тобто зменшення чи збільшення, порогу для навчання і подальшого розпізнавання – ваги підберуться саме під цей поріг, якщо ж поріг активації збільшити але після навчання, то перцептрон стане пасивнішим і частину образів, які відповідають активному стеку(непарні цифри) визначатиме невірно(як парні цифри), якщож поріг активації зменшити але після навчання, то перцептрон стане більш активним і частину образів, які відповідають пасивному стану(парні цифри) визначатиме невірно (як непарні).

Розділ 2.ШТУЧНІ НЕЙРОННІ МЕРЕЖІ ПРЯМОГО ПОШИРЕННЯ СИГНАЛУ (FEED FORWARD)




Поделиться с друзьями:


Дата добавления: 2015-08-31; Просмотров: 261; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.