Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Двунаправленная ассоциативная память

Сравнение с сетью Хопфилда

Количество соединений в сети Хопфилда оценивается следующей формулой:

Chор = N(N-1),

где N-число входов.

Количество соединений в сети Хэмминга оценивается следующей формулой:

Chам = M(N+M),

где M-число образов.

При N=100 и M=10

Chор = 10000,

Chам = 1100.

Емкость сети Хопфилда = 0,15N=15,

Емкость сети Хэмминга = M=10.

Это сравнение не корректно, так как рассмотренные сети имеют разное число соединений. Сравним емкости сетей Хопфилда и Хэмминга, задавшись одинаковым количеством соединений в этих сетях.

Пусть Chор = Chам = 10000. Найдем число образов, которое может хранить сеть Хэмминга.

(100+M)M=100000. Отсюда, M=60.

Таким образом, в данном случае емкость сети Хэмминга почти в 4 раза больше, чем емкость сети Хопфилда.

Память человека часто является ассоциативной; один предмет напоминает нам о другом, а этот другой о третьем. Если позволить нашим мыслям, они будут перемещаться от предмета к предмету по цепочке умственных ассоциаций. Кроме того, возможно использование способности к ассоциациям для восстановления забытых образов. Если мы забыли, где оставили свои очки, то пытаемся вспомнить, где видели их в последний раз, с кем разговаривали и что делали. Посредством этого устанавливается конец цепочки ассоциаций, что позволяет нашей памяти соеди­нять ассоциации для получения требуемого образа.

Ассоциативная память Хопфилда является, строго говоря, автоассоциативной, это означает, что образ может быть завершен или исправлен, но не может быть ассоциирован с другим образом. Данный факт является результатом одноуровневой структуры ассоциативной памяти, в которой вектор появляется на выходе тех же нейронов, на которые поступает входной вектор.

Двунаправленная ассоциативная память (ДАП) является гетероассоциативной; входной вектор поступает на один набор нейронов, а соответствующий выходной вектор вырабатывается на другом наборе нейронов. Как и сеть Хопфилда, ДАП способна к обобщению, вырабатывая правильные реакции, несмотря на искаженные входы. Кроме того, могут быть реализованы адаптивные версии ДАП, выделяющие эталонный образ из зашумленных экземпляров. Эти возможности сильно напоминают процесс мышления человека и позволяют искусственным нейронным сетям сделать шаг в направлении моделирования мозга.

 

Структура ДАП

На рис. 27 приведена базовая конфигурация ДАП. Она выбрана таким образом, чтобы подчеркнуть сходство с сетями Хопфилда и предусмотреть увеличение количества слоев.

Рис. 27. Конфигурация двунаправленной ассоциативной памяти.

Входной вектор А обрабатывается матрицей весов W сети, в результате чего вырабатывается вектор выходных сигналов нейронов В. Вектор В затем обрабатывается транспонированной матрицей Wt весов сети, которая вырабатывает новые выходные сигналы, представляющие собой новый входной вектор А. Этот процесс повторяется до тех пор, пока сеть не достигнет стабильного состояния, в котором ни вектор А, ни вектор В не изменяются. Заметим, что нейроны в слоях 1 и 2 функционируют, как и в других парадигмах, вычис­ляя сумму взвешенных входов и вычисляя по ней значение функции активации F. Этот процесс может быть выражен следующим образом:

 

B=F(AW),

где В - вектор выходных сигналов нейронов слоя 2,

А -вектор выходных сигналов нейронов слоя 1,

W - матрица весов связей между слоями 1 и 2,

F - функция активации.

Аналогично

A = F(BWt),

где Wt является транспозицией матрицы W.

В качестве активационной функции в простейшем случае используется пороговая функция.

Примем также, что внутри каждого нейрона существует память в слоях 1 и 2 и что выходные сигналы нейронов изменяются одновременно с каждым тактом синхронизации, оставаясь постоянными между этими тактами. Таким образом, поведение нейронов может быть описано следующими правилами:

OUTi(n+l)=l, если NETi (n) > О,

OUTi(n+l)=0, если NETi(n)<0,

OUTi(n + 1) = OUT(n), если NETi(n) = О,

где OUTi(n) представляет собой величину выходного сигнала нейрона i в момент времени n.

Заметим, что в описанных ранее сетях слой 0 не производит вычислений и не имеет памяти; он является только средством распределения выходных сигналов слоя 2 к элементам матрицы Wt.

<== предыдущая лекция | следующая лекция ==>
Алгоритм функционирования | Емкость памяти
Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 430; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.