Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Навчання прошарку Коххонена




Функціонування прошарку Гроссберга

Прошарок Гросберга, який називається зіркою Гросберга теж є прошарком, прямого поширення сигналу. Він працює як прошарок ШН. При цьому, враховуючи формат, для цього прошарку сигналів(1). Кожен із нейронів Гросберга на виході формує сигнал величина якого рівна ваговому коефіцієнтув зв’язку між j нейроном Коххонена та відповідним нейроном Гросберга. Це пов’язано із тим що нейрон Гросберга використовує передатну функцію у вигляді поточної функції f (x)=x

Таким чином вихідний сигнал нейрону Гросберга обчислюється так:

= (2)

Оскількі лише 1 нейрон дає одиничний сигнал на виході то із всієї суми скалярного добуку двох, залишеться лише 1 доданок, тому

= (3)

де j – номер нейрону Коххонена переможця.

Прошарок Коххонена, виконує функцію класифікацій вхідного векторів по группах подібних між собою. Це реалізується таким налаштуванням прошарку Коххонена, при якому подібні між собою вхідні вектори аткивують один і той же нейрон Коххонена.

Враховуючи вигляд скалярно добутку векторів та його еквівалентного представлення

· = X1W1+X2W2+…+XnWn= | | cos()

Зрозуміло, що максимальне значення скалярний добуток для фіксованих за довжиною векторів набуває у випадку, по між ними прямує до 0. Таким чином подібні між собою вектори вхідних образів розміщиватимуться у деякому N – вимірному секторі. У двовимірному видку це можна позначити так

 

Х2

 

 

Х1

 

 

Для кожної групи подібних векторів вектор ваг має обернутися так щоб, знайти положення близьке до бісектриси відповідного N - вимірного сектора, це дасть максимум суматор у відповідний нейрон Коххонена для кожного із подібних вхідних векторів. При цьому якщо відповідні подібні вектори мають різну довжину то вектор вагових коефіцієнтів повинен бути ближчим до короких із таких векторів. Алгоритм навчання прошарку Коххонена можна описати так:

1)Попередня нормалізація вхідних номерів.

Бажано хоча це і необов’язково провести попередню нормалізацію усіх вхідних векторів

= = (4)

k – номер чергового образу

Нормалізація приводить усі вектори вхідних образів до спільної одиничної множини.

2) Налаштування ваг прошарку Коххонена для одного образу.

Початково вагові коефіцієнти кожного нейрона Коххонена обираються довільним чином, так щоб їх вектор теж був нормалізованим. Сама корекція ваг передбачає поворот вектора ваг так, щоб він максимально наблизився до усі векторів подібних між собою областей, у двох вимірному видку схем це можна зообразити так:

Δ

 

 


= Δ

= + ɣ( - ) (5)

ɣ - коефіцієнт швидкості навчання цей коефіцієнт може змінюватися у процесі навчання: на перших етапах він може бути більшим, а на останніх зменшуватися.

3)Налаштування ваг для усіх образів

Алгоритми навчання виду (5) застосовуються для усієї сукупності вхідних образів. При цьому окремі з подібних векторів можуть повертати у вектор в одному напрямі, а інші у протилежному. Процес навчання для однієї групи продовжується поки відповідний вектор ваг не забезпечив активацію одного і тогож нейрона Коххонена для деякої групи подібних образів

4) Особливості вибору початкових, значень вагових коефіцієнтів.

У 2му пункті зазначалось, що початкові ваги обираються двільно. Проте у ряді випадків є свої особливості:

- кількість нейронів Коххонена, повинна бути не меншою, від кількості груп подібних між собою образів. Проте недоцільно використовувати занадто багато нейронів Коххонена тому що надлишкові «розірвати» деякі з груп подібних образів. Надлишкові нейрони які мають віддалений вектор вагових коефіцієнтів від групи подібних образів можуть ніколи не активуватися.

- в ряді випадків доцільно обирати початкові значення ваг нівними одній і тій самій величині

W i = , такий спосыб вибору є ефективний, оскількі всі вектори ваг початково одинаковоиї довжини і однакового напрямку. При цьому в процесі навчання потрібно постійно модифікувати вектори вхідних сигналів

Х і =β·хі+

β – є змінним числовим коефіцієнтом, який початково обирається близьким до 0.

На наступних етапах коефіцієнт β збільшується і поступово прямує до 1

β→1 хі

Такий спосіб навчання початково зводить в один напрямок усі вектори вхідних образів і вектори вагових коефіцієнтів нейрона Коххонена. А потім вектори образів повертаються до своїх початкових значень, та «відтягують» за собою вектори відповідних вагових коефіцієнтівпри навчанні нейрона Коххонена використовується принцип «справедливості» який полягає у наступному:

якщо деякий з нейронів Коххонена активується занадто часто наприклад , де К – кількість різних груп подібних образів, то цьому нейрону тимчасово збільшується поріг активації тим самим збільшуючи «шанси» на активацію інших нейронів.




Поделиться с друзьями:


Дата добавления: 2015-08-31; Просмотров: 321; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.