Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Цели и задачи дисциплины. 1. Изучение принципов действия устройств и систем, построенных на базе нейронных сетей




1. Изучение принципов действия устройств и систем, построенных на базе нейронных сетей.

2. Формирование навыков проектирования и моделирования нейронных сетей и нейродинамических систем.

 

  1. Место дисциплины в структуре ООП

Пр. ВЧ, ДВС № 9

Дисциплина преподается на основе ранее изученных дисциплин:

1) Теор. основы РТ и связи

2) Радиоавтоматика

3) Ст. теория РТС

и является для бакалавров преддипломной дисциплиной.

 

  1. Требования к уровню освоения дисциплины

Изучение дисциплины направлено на формирование профессиональных компетенций:

- ПК-5 - способность владеть основными приемами обработки и представления экспериментальных данных;

- ПК-20 - способность реализовывать программы экспериментальных исследований, включая выбор технических средств и обработку результатов.

В результате изучения дисциплины студенты должны:

 

1. Знать архитектуру и стандартные алгоритмы обучения нейронных сетей.

 

2. Уметь проектировать и моделировать устройства на нейронных сетях с помощью ЭВМ.

 

3. Иметь представление о современных методах и вычислительных средствах моделирования нейронных сетей и нейродинамических систем.

 

 

Содержание рабочей программы

 

Тема 1. Введение. Техника нейронных сетей (НС) и ее применение. Концепция НС – новый подход к решению задач обработки сигналов и процессов. История развития и особенности техники НС.

 

Тема 2. Модель нейрона. Биологические и кибернетические системы. Разновидности нейронов и их строение. Модель нейрона, реализация. Системы обозначений: сигнальный и архитектурный граф НС.

 

Тема 3. Архитектура НС. Однослойные и многослойные НС. Рекуррентные и нерекуррентные НС. Решетчатые 1-мерные и многомерные НС. Основные рекомендации по выбору архитектуры НС. Обучение НС как процесс создания искусственной психики.

 

Тема 4. Примеры простейших НС. Реализация логических функций «и», «или» и «xor» с помощью НС. Задача Красной Шапочки (пример задачи распознавания образов). Инерционные и безынерционные НС. НС с внешней и внутренней памятью. Проблема устойчивости НДС.

 

Тема 5. Обзор алгоритмов обучения НС. Классификация НС по типу искусственной психики. Общие принципы (парадигмы) и алгоритмы обучения НС.

 

Тема 6. Парадигмы обучения. Обучение с учителем, достоинства и недостатки, составные элементы. Пространственно-временной доступ к системе и кредит доверия. Обучение с предсказанием. Усиленное обучение, марковская модель процесса обучения, функция эволюции. Обучение без учителя. Понятие о самоорганизующихся системах, общий и частные принципы действия таких систем.

 

Тема 7. Алгоритмы обучения. Коррекция ошибки: основные положения теории адаптивной фильтрации, критерии обучения, дельта-правило Уидроу-Хоффа. Алгоритм Больцмана: основные положения термодинамики, понятие о функции энергии (функции Ляпунова), вероятностная модель нейрона. Алгоритм Хебба: основные положения нейробиологии, постулат Хебба и его математические трактовки (основной и модифицированный алгоритмы обучения Хебба). Состязательное обучение: особенности архитектуры состязательной НС.

 

Тема 8. Моделирование НС в среде Matlab с использованием функций Neural Network Toobox (NNT). Система обозначений, идеология ООП, поля и методы объекта – НС, синтаксис основных функций NNT.

 

Тема 9. Решение задачи классификации с позиций нейробиологии. Ассоциативная память и матрица синаптических весов НС. Корреляционный метод обучения НС. Применение процедуры Грама–Шмидта, разложение Карунена–Лоэва. Дискретный вариант обобщенного разложения Карунена–Лоэва и его реализация с помощью функций NNT.

 

Тема 10. Псевдоинверсный и градиентный методы оценивания матрицы ассоциативной памяти. Правило псевдообращения матриц и его использование для обучения НС. Сравнение с корреляционным методом. Алгоритмические и поисковые алгоритмы оценивания, градиентный метод оценивания матрицы ассоциативной памяти.

 

Тема 11. Перцептрон, обучение по методу коррекции ошибки. Адалина и перцептрон, их обучение, критерии обучения.

 

Тема 12. Максимально-правдоподобная оценка синаптических весов перцептрона. Априорные данные о статистике стимулов, максимально-правдоподобная оценка и алгоритм обучения НС. Решение проблемы априорной неопределенности в случае обучения с учителем и без учителя.

 

Тема 13. Адаптивные фильтры (АФ). Структура и применение АФ. Схемы включения АФ. Решение задачи подавления переотражений и эхо-сигналов в системах связи. НС и адаптивные фильтры. Моделирование АФ с помощью функций NNT.

 

Тема 14. Алгоритмы адаптации по методу наименьших квадратов. Оценка МНК – частный случай байесовской оценки, рекуррентная и нерекуррентная форма алгоритма. Разновидности МНК-алгоритма (с забыванием, в скользящем окне), потенциальные точностные характеристики.

 

Тема 15. Применение МНК-алгоритмов для обучения многомерного перцептрона. Обобщение байесовской оценки на случай нелинейной модели воздействия. Расширенный фильтр Калмана, линеаризация уравнения наблюдения.

 

Тема 16. Градиентные алгоритмы адаптации и их использование для обучения НС. Алгоритм градиентного спуска, методы сопряженного градиента, метод Ньютона, квазиньютоновские методы, метод стохастической аппроксимации; поддержка функций NNT.

Тема 17. Многослойные нерекуррентные НС. Архитектура НС, алгоритм обратного распространения ошибки и практические рекомендации по его использованию. Пример многослойной НС (xor – задача).

 

Тема 18. Применение МНК-алгоритмов для обучения многослойной НС. Алгоритмы обучения выходного и скрытых слоев НС с пересчетом ошибок обучения, вычислительная сложность алгоритмов.

 

Тема 19. НС на радиально-базовых функциях. Задача классификации линейно- и нелинейно-сепарабельных множеств. Теорема Кавера, основные положения теории интерполяции в многомерных пространствах. Реализация НС с помощью функций NNT.

 

Тема 20. Самоорганизующиеся НС, состязательное обучение. Состязательное обучение в 1-мерной и 2-мерной решетке нейронов. Релаксационное уравнение НС и его решение. Решение задачи классификации с помощью состязательной НС (алгоритм Кохонена). Реализация НС с помощью функций NNT.

 

Тема 21. Техника LVQ (Learning Vector Quantization). Кластеризация множеств на подклассы и объединение их в классы. Особенности обучения. Поддержка функций NNT.

 

Тема 22. Обучение Хебба в самоорганизующихся НС. Модифицированное правило Хебба в задаче обучения НС без учителя. Аппаратный анализ принципиальных компонент входной выборки.

 

Тема 23. Информационно-теоретические модели самоорганизующихся систем. Основные понятия теории Шеннона (и обозначения): количество информации, условная и взаимная информация, энтропия. Принцип сохранения максимальной информации в НС. Обобщение идеи топологического порядка, примеры.

 

Тема 24. Нейродинамические системы. Нейродинамические модели и их особенности: НС с внешней и внутренней памятью, TDNN-сети, модели нейрона с КИХ- и БИХ-фильтрами; особенности алгоритмов обучения. Задачи, решаемые НДС.

 

Тема 25. Рекуррентные инерционные НС. Проблема устойчивости, функция Ляпунова, решение проблемы в задачах адаптивной фильтрации. Концепции минимизации энергии и пошаговой минимизации функции стоимости. НС Хопфилда и BSB-модели, как примеры нелинейной ассоциативной памяти. Теорема Кохен-Гроссберга. Дискретная НС Хопфилда и ее реализация с помощью функций NNT.

 

Тема 26. Модульно-экспертные НС. Идеологические аспекты, архитектура модульных НС. Ассоциативная гауссовая модель. Иерархическая структура адаптивных экспертных НС. VLSI-технологии.

 

Тема 27. Заключение. Техника НС – эмпирическая альтернатива в решении радиотехнических и телекоммуникационных задач.




Поделиться с друзьями:


Дата добавления: 2015-06-04; Просмотров: 316; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.019 сек.