Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Прикладных задач

Методы проектирования нейросетевых архитектур для решения

При решении прикладных задач необходимо решить следующие задачи, связанные с построением НС:

  1. задача выбора типа НС;
  2. задача выбора алгоритма обучения НС;
  3. задача построения топологии (архитектуры) НС.

Первая задача

Основные типы НС:

1) НС с прямым распространением сигнала:

многослойный персептрон:

НС с прямым распространением сигнала являются наиболее применимым типом НС, поскольку для них доказана сходимость алгоритма обучения.

2) НС с обратным распространением сигнала:

Характеризуются небольшой информационной ёмкостью, а также отсутствием универсальной методики, гарантирующей сходимость.

3) НС самоорганизации:

Основные характеристики: алгоритм обучения НС основан на методе конкурентного обучения; в НС данного типа используется механизм латерального торможения.

Метод конкурентного обучения заключается в следующем: фиксируется нейрон с наибольшей активностью, далее – при использовании классического алгоритма – обновляются весовые коэффициенты данного нейрона, при использовании алгоритма, учитывающего эффект латерального торможения – также обновляются весовые коэффициенты соседних нейронов, причём величина изменения весов зависит от расстояния до нейрона победителя.

X – входной вектор;

W – вектор весовыхкоэффициентов.

Основное задача: сопоставить X и W.

Вычисляется вектор W, а затем расстояние от этого вектора до входного. Из всего множества весовых векторов необходимо выбрать такой вектор, расстояние от которого до входного вектора будет наименьшим.

4) Гибридные (комбинированные) сети.

Из существующих типов НС можно составить комбинированную сеть, которая будет обладать нужными качествами.

Вторая задача

Для каждого типа НС существуют свои алгоритмы обучения. Для решения различных задач данные алгоритмы можно подстраивать. Например, для обучения многослойного персептрона вместо алгоритма BP использовать другие методы, такие как квазиньютоновские методы, генетические алгоритмы и прочие. Другой путь связан с подстройкой параметров алгоритмов (скорости обучения, инерционности (для BP), изменение функции активации нейронов классического типа, введение нечетких нейронов).

Третья задача

Задача выбора топологии заключается в определении количества слоёв НС и количества нейронов в каждом слое, которое необходимо использовать для реализации отображения: F: X ® Y. Для обучения используются пары , где p – число распознаваемых классов.

Задача выбора топологии НС состоит в выборе НС с минимальной сложностью S (). Обычно сложность НС определяется количеством вычислительных операций, которые надо выполнить для получения выходного сигнала. Данная задача уместна в том случае, когда задано определенное значение ошибки обобщения: . Это задача комбинаторной оптимизации. Если выбрать НС с небольшим количеством слоев и небольшим количеством нейронов каждого слоя, то есть уменьшить сложность, то данная нейронная сеть не сможет обеспечить заданную ошибку обобщения. С другой стороны, если формировать сеть из большого количества слоев и нейронов, то может возникнуть эффект переобучения (эффект «бабушкиного воспитания»): НС хорошо распознает образы из обучающей выборки, но плохо работает с образами реальной среды.

Если задана сложность S, то можно минимизировать ошибку обобщения, подстраивая соответствующие алгоритмы обучения.

Таким образом, задачи нахождения минимальной ошибки обобщения и нахождения минимальной сложности являются взаимопротиворечивыми и не могут решаться одновременно.

Для решения задачи проектирования НС задача оптимизации может решаться в двух постановках:

  1. Задана сложность НС, необходимо минимизировать ошибку обобщения.
  2. Задана , найти НС минимальной сложности.

 

<== предыдущая лекция | следующая лекция ==>
Решающие деревья | Выбор топологии НС для решения задач нейроуправления
Поделиться с друзьями:


Дата добавления: 2014-01-15; Просмотров: 426; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.009 сек.