КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Лекция 26
В общем, коррекция (обновление) весового коэффициента
Здесь Локальный градиент вычисляется рекуррентно для каждого нейрона и его выражение зависит от того, где расположен нейрон в выходном или скрытом слое: 1. Если q – й нейрон принадлежит выходному слою, то согласно (8а)
Оба сомножителя в произведении относятся к q –му нейрону. 2. Если q – й нейрон расположен в k –ом скрытом слое (рис. 8), то согласно получаем
где H – число скрытых слоев в нейронной сети, mk-1 -число нейронов (k - 1)-го скрытого слоя.
Рис. 8
Как видим, Весовые коэффициенты связей, питающих выходной слой, обновляются за счет использования дельта-правила (18), в котором локальный градиент Алгоритм. Алгоритм обратного распространения включает пять шагов. а) Инициализация весовых коэффициентов. Установите все весовые коэффициенты равными небольшим случайным числам. б) Предъявление входов и соответствующих им желаемых выходов (обучающие пары). Подаем на нейронную сеть вектор входа u и соответствующий желаемый вектор выхода d. Вход может быть новым в каждой новой попытке обучения или образцы из обучающего множества могут подаваться на сеть циклически до тех пор, пока весовые коэффициенты не стабилизируются, т.е. перестанут изменяться. в) Вычисление действительных значений выхода. Вычисляем вектор выхода последовательно используя выражение г) Настройка весовых коэффициентов. Начинаем настройку с весов выходного слоя и затем идем назад к последнему скрытому слою (считая справа налево). Весовые коэффициенты настраиваем с помощью
В этом уравнении Замечание. Для пакетного режима обработки дельта-правило (6)
где
Пример (локальный градиент). Логистическая (сигмоидная) функция
Для нейрона j в выходном слое мы можем выразить локальный градиент как
Для нейрона i скрытого слоялокальный градиент равен
Пример (обратное распространение). Чтобыближе познакомиться с методом обратного распространения ошибки, рассмотрим простой пример с обучающим комплектом данных
Дата добавления: 2014-01-07; Просмотров: 486; Нарушение авторских прав?; Мы поможем в написании вашей работы! |