Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Процедура Уидроу-Хоффа

Процедура обучения Уидроу-Хоффа применима к персептронам. Уидроу и Хофф модифицировали персептронный алгоритм Розенблатта, используя сигмоидальную функцию активации и непрерывные выходные вектора.

Существуют два варианта реализации процедуры:

1. Adaline (Adaptive Linear Element) {Адалин}

Модель с одним выходным нейроном. Функция активации в первых вариантах системы линейная, в последующих – сигмоидальная.

2. Madaline {Мадалин}

Модель с множественными выходными нейронами.

Процедура Уидроу-Хоффа разработана применительно к «чёрному ящику», в котором между входами и выходами существуют только прямые связи.

Выход сети:

Процедура обучения основывается на минимизации ошибки обучения в процессе подачи на вход сети входных образов.

Среднеквадратичная ошибка: , где L – число образов (примеров), которые подаются на вход сети в процессе обучения.

Процедура заключается в градиентном спуске по настраиваемым параметрам нейронной сети. Такими параметрами являются весовые коэффициенты и пороги сети.

Весовые коэффициенты:

,

где – ошибка обучения;

α – скорость обучения;

m – число выходных нейронов.

Пороги:

, где i -тая компонента k -того образа.

С учётом последних двух соотношений выражения для весовых коэффициентов и порога примут следующий вид:

(*)

Проанализировав выражения (*), можно заметить, что они идентичны соответствующим формулам в процедуре Розенблатта в том случае, если на выходе персептрона Розенблатта поставить пороговый элемент.

Алгоритм обучения по правилу Уидроу-Хофа сводится к следующей последовательности действий:

1. Задаются значения параметров: скорости обучения α и допустимой ошибки обучения Eдоп (EminEдоп)

2. Случайным образом инициализируются значения весовых коэффициентов и порогов W, B.

3. На вход сети подаётся входной вектор (входной образ) X = { x1, x2,..,xn } и вычисляется значение выхода

4. Вычисляются значения весовых коэффициентов и порогов в соответствии с формулами (*).

5. Вычисляется значение ошибки обучения

6. Проверяем выполнение условия Ek Eдоп. Если неравенство верно для всех k, то переходим к пункту 7, в противном случае (Ek > Eдоп) – к пункту 3.

7. Останов.

Примечание: Если значение Eдоп выбрано неверно, то процесс обучения может длиться очень долго. Поэтому целесообразно задавать число итераций вместо значения допустимой ошибки обучения Eдоп. Обычно выбирают число итераций порядком нескольких тысяч.

Особенности процедуры Уидроу-Хоффа (другое название – δ-правило):

· с некоторыми изменениями используется в процедуре обучения многослойных нейронных сетей

· процедура применима как к дискретным, так и к непрерывным значениям входных переменных

· ошибка обучения нейронной сети минимизируется независимо от начальных значений весов и порогов

· скорость обучения сети α может меняться в зависимости от порядкового номера такта обучения

Если выбрать скорость обучения очень маленькой, то процесс обучения будет длиться очень долго. Если же выбрать большое значение скорости обучения, процесс стагнации (стабилизации) может быть завершён слишком быстро, но при этом значения коэффициентов чаще всего бывает неоптимальным. Поэтому следует искать компромисс.

Следует отметить, что на процедуру обучения влияет способ подачи образов на вход сети. Совокупность входных образов называется «задачник».

Существенным недостатком процедуры, из-за которого при практической реализации НС от неё отказались, является то, что в трудных задачах требуемого распределения весов не существует.

Необходимо, чтобы в структуре «чёрного ящика» имелись некоторые промежуточные слои. Многослойная нейронная сеть за счёт введения промежуточных слоёв позволяет осуществить нелинейное преобразование между слоями.

 

 

Функцию XOR можно реализовать с помощью сети второго порядка HON (Higher Order Network), имеющей следующий вид:

Кроме скалярных входов имеются входы взаимодействия переменных.

Функция активации выходного нейрона – пороговая.

Для реализации функции XOR весовые коэффициенты должны иметь следующие значения:

 

Американский учёный Новиков доказал теорему о сходимости алгоритма обучения, которая имела важное значение для дальнейшего развития обучающих алгоритмов.

Теорема Новикова:

Если обучающую последовательность предъявить нейронной сети достаточное число раз, то НС разделит эту последовательность на соответствующие классы.

Большой вклад в разработку алгоритмов обучения НС внесли советские учёные Айзерман и Браверманн, предложившие алгоритмы обучения, основанные на построении разделяющей гиперплоскости:

1. Алгоритм «случайных плоскостей».

2. Алгоритм построения потенциальных функций.

Эти алгоритмы базируются на выдвинутой этими учёными гипотезе компактности:

Точки, принадлежащие одному и тому же образу, располагаются в пространстве компактно, тогда они в пространстве могут быть разделены гиперплоскостью.

 


<== предыдущая лекция | следующая лекция ==>
Алгоритм обучения по правилу Хебба | Математическая постановка задачи обучения
Поделиться с друзьями:


Дата добавления: 2014-01-15; Просмотров: 3391; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.012 сек.