КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Адаптивный линейный взвешенный сумматор с сигмоидой на выходе
Выходной сигнал адаптивного линейного сумматора с сигмоидой на выходе (рис. 2.10) можно описать выражением (2.53) где функция f определяется формулой (2.6). Погрешность реализации (2.25) равна Глава 2. Многослойные нейронные сети и алгоритмы их обучения 2.5. Алгоритм обратного распространения ошибки
w(n+1) = w(n) + Tie(n)f (x(n))u(n) Рис. 2.10. Адаптивный линейный взвешенный сумматор с сигмоидой на выходе.
ф) = d(n) - f\ Для коррекции весов w^k), k = 1.......... N применим алгоритм LMS
в рекурсивной форме (2.48). В этом случае очевидно равенство
dw(n) ' а также де(п) _ df(x(n)) flx(nY. Эх(п) dw(n) dw(n) к к "dw(n) где
uk(n) =wT(n)u(n).
Поскольку
= Ф), то При подстановке равенств (2.55) и (2.59) в рекурсивное выражение (2.48) получим следующий алгоритм адаптивной коррекции весов: w{n + 1) = w{n) +71e(n)f'(x(n))u{n), (2.60) либо в скалярной форме \{п + 1) = wk (л) + (n)f (x(n))uk(n), (2.61) для к = 1...... N. Если р = 1, то функция (2.6) отвечает условию Г (х) - f(x)(1 - f(x)). (2.62) Поэтому алгоритм (2.60) можно записать в форме wk(n + 1) = w, (n) + (n)f(x(n))(1 - f(x(n)))^(n) (2.63) для /с= 1,..., Л/, где погрешность е(п) определяется выражением (2.54). Алгоритмы (2.60) и (2.63) положены в основу метода обратного распространения ошибки, который подробно описывается в следующем разделе. 2.5. Алгоритм обратного распространения ошибки Обсудим алгоритм обратного распространения ошибки [20], который позволяет обучать многогослойные нейронные сети. Этот алгоритм считается наиболее известным и чаще всего применяемым в искусственных нейронных сетях. На рис. 2.11. представлена многослойная нейронная сеть, состоящая из L слоев.
В каждом слое расположено Nk элементов, к = 1..... L, обозначае Глава 2. Многослойные нейронные сети и алгоритмы их обучения 2.5. Алгоритм обратного распространения ошибки
мая нейронная сеть имеет Л/о входов, на которые подаются сигналы ..., uN (п), записываемые в векторной форме как и = Ып)....... uNo(n)]T, n=1,2,... (2.64) Выходной сигнал /-го нейрона в к-м слое обозначается у/*'(п), /=1,..., Nk, /с=1,..., L. На рис. 2.12 показана детальная структура /-го нейрона в к-м слое. Нейрон ADf имеет Л/^ входов, образующих вектор *»=[4кНп),...,х%1(п)]Т, (2.65) причем х^'(п) = +1 для / = 0 и к = 1....... L. Обратим внимание на факт, что входной сигнал нейрона ADk связан с выходным сигналом (к — 1) слоя следующим образом: для /с = (2.66)
для / = 0,/с = 1,...,/
На рис. 2.12 w^Xn) обозначает вес связи /-го нейрона, /= 1.... А/А, распо
(2.67) •* в л-й момент времени, п = 1,2,... (2.68) (2.69)
J=0 Отметим, что выходные сигналы нейронов в L-м слое У1-(л),у£(п),...,у^(п) (2.70) одновременно являются выходными сигналами всей сети. Они сравниваются с так называемыми эталонными сигналами сети d![(n),4(n)..... <(л), (2.71) в результате чего получаем погрешность Ј,<L)(n) = cf >(n)-y,(L)(n),i=1.................... NL. (2.72) Можно сформулировать меру пофешности, основанную на сравнении сигналов (2.70) и (2.71), в виде суммы квадратов разностей (2.72), т.е. i i (2-73) i=i /=1 Из выражений (2.68) и (2.69) следует, что мера погрешности (2.73) - это функция от весов сети. Обучение сети основано на адаптивной коррекции всех весов w№(n) таким образом, чтобы минимизировать ее значение. Для коррекции произвольного веса можно использовать правило наискорейшего спуска, которое принимает вид ^! (274)
константа г] > 0 определяет величину шага коррекции. Обратим вни-
9Q(n) 9Q(n)
дз]кЦп) dwf\n) 9s|*
(2.76) (2.77)
(2.78) Способ расчета значения Sik\n), заданного выражением (2.76), зависит от номера слоя. Для последнего слоя получаем Глава 2. Многослойные нейронные сети и алгоритмы их обучения 2.6. Применение рекуррентного метода наименьших квадратов 37
д5(Ц{п] Для произвольного слоя к ф L получаем)_ 1 ЭО(л) _ 1^1 дСЦп) (2.79) слое (на основе выходных и эталонных сигналов), далее - в предпоследнем и так вплоть до первого слоя. Начальные значения весов, образующих сеть, выбираются случайным образом и, как правило, устанавливаются близкими к нулю. Шаг коррекции ц чаще всего принимает большие значения (близкие единице) на начальных этапах процесса обучения, но впоследствии его следует уменьшать по мере того как веса приближаются к некоторым заранее определенным значениям. В литературе, посвященной нейронным сетям (например, в [3]), рекомендуются различные модификации алгоритма обратного распространения ошибки. Одна из наиболее известных модификаций заключается во введении в рекурсию (2.86) дополнительного члена, называемого моментом:
w\k \n +1) = wf\n) + 2rie(k\n)f{s\k\n))x(k\n)
(2.80) m=1 Определим погрешность в к-м (не последнем) слое для /-го нейрона в виде
= 1..... L- 1. (2.81) 777=1 Если подставить выражение (2.81) в формулу (2.80), то получим (2.82)
Название алгоритма связано со способом расчета погрешностей в конкретных слоях. Вначале рассчитываются погрешности в последнем -1)], (2.87) в котором параметр ae (0,1). Экспериментальные исследования показывают [24], что введение момента ускоряет сходимость алгоритма обратного распространения ошибки. 2.6. Применение рекуррентного метода наименьших квадратов для обучения нейронных сетей Обучение сети с использованием изложенного в п. 2.5 алгоритм обратного распространения ошибки требует большого количества итераций. Поэтому в литературных источниках приводятся сведения о различных попытках создания более быстрых алгоритмов (см., например, [12]). В работе [1] для обучения нейронных сетей применялся рекуррентный метод наименьших квадратов (recursive least squares - RLS). В качестве меры погрешности использовалось выражение
Дата добавления: 2015-06-04; Просмотров: 1201; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |