КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Цели и задачи дисциплины. 1. Изучение принципов действия устройств и систем, построенных на базе нейронных сетей
1. Изучение принципов действия устройств и систем, построенных на базе нейронных сетей. 2. Формирование навыков проектирования и моделирования нейронных сетей и нейродинамических систем.
Пр. ВЧ, ДВС № 9 Дисциплина преподается на основе ранее изученных дисциплин: 1) Теор. основы РТ и связи 2) Радиоавтоматика 3) Ст. теория РТС и является для бакалавров преддипломной дисциплиной.
Изучение дисциплины направлено на формирование профессиональных компетенций: - ПК-5 - способность владеть основными приемами обработки и представления экспериментальных данных; - ПК-20 - способность реализовывать программы экспериментальных исследований, включая выбор технических средств и обработку результатов. В результате изучения дисциплины студенты должны:
1. Знать архитектуру и стандартные алгоритмы обучения нейронных сетей.
2. Уметь проектировать и моделировать устройства на нейронных сетях с помощью ЭВМ.
3. Иметь представление о современных методах и вычислительных средствах моделирования нейронных сетей и нейродинамических систем.
Содержание рабочей программы
Тема 1. Введение. Техника нейронных сетей (НС) и ее применение. Концепция НС – новый подход к решению задач обработки сигналов и процессов. История развития и особенности техники НС.
Тема 2. Модель нейрона. Биологические и кибернетические системы. Разновидности нейронов и их строение. Модель нейрона, реализация. Системы обозначений: сигнальный и архитектурный граф НС.
Тема 3. Архитектура НС. Однослойные и многослойные НС. Рекуррентные и нерекуррентные НС. Решетчатые 1-мерные и многомерные НС. Основные рекомендации по выбору архитектуры НС. Обучение НС как процесс создания искусственной психики.
Тема 4. Примеры простейших НС. Реализация логических функций «и», «или» и «xor» с помощью НС. Задача Красной Шапочки (пример задачи распознавания образов). Инерционные и безынерционные НС. НС с внешней и внутренней памятью. Проблема устойчивости НДС.
Тема 5. Обзор алгоритмов обучения НС. Классификация НС по типу искусственной психики. Общие принципы (парадигмы) и алгоритмы обучения НС.
Тема 6. Парадигмы обучения. Обучение с учителем, достоинства и недостатки, составные элементы. Пространственно-временной доступ к системе и кредит доверия. Обучение с предсказанием. Усиленное обучение, марковская модель процесса обучения, функция эволюции. Обучение без учителя. Понятие о самоорганизующихся системах, общий и частные принципы действия таких систем.
Тема 7. Алгоритмы обучения. Коррекция ошибки: основные положения теории адаптивной фильтрации, критерии обучения, дельта-правило Уидроу-Хоффа. Алгоритм Больцмана: основные положения термодинамики, понятие о функции энергии (функции Ляпунова), вероятностная модель нейрона. Алгоритм Хебба: основные положения нейробиологии, постулат Хебба и его математические трактовки (основной и модифицированный алгоритмы обучения Хебба). Состязательное обучение: особенности архитектуры состязательной НС.
Тема 8. Моделирование НС в среде Matlab с использованием функций Neural Network Toobox (NNT). Система обозначений, идеология ООП, поля и методы объекта – НС, синтаксис основных функций NNT.
Тема 9. Решение задачи классификации с позиций нейробиологии. Ассоциативная память и матрица синаптических весов НС. Корреляционный метод обучения НС. Применение процедуры Грама–Шмидта, разложение Карунена–Лоэва. Дискретный вариант обобщенного разложения Карунена–Лоэва и его реализация с помощью функций NNT.
Тема 10. Псевдоинверсный и градиентный методы оценивания матрицы ассоциативной памяти. Правило псевдообращения матриц и его использование для обучения НС. Сравнение с корреляционным методом. Алгоритмические и поисковые алгоритмы оценивания, градиентный метод оценивания матрицы ассоциативной памяти.
Тема 11. Перцептрон, обучение по методу коррекции ошибки. Адалина и перцептрон, их обучение, критерии обучения.
Тема 12. Максимально-правдоподобная оценка синаптических весов перцептрона. Априорные данные о статистике стимулов, максимально-правдоподобная оценка и алгоритм обучения НС. Решение проблемы априорной неопределенности в случае обучения с учителем и без учителя.
Тема 13. Адаптивные фильтры (АФ). Структура и применение АФ. Схемы включения АФ. Решение задачи подавления переотражений и эхо-сигналов в системах связи. НС и адаптивные фильтры. Моделирование АФ с помощью функций NNT.
Тема 14. Алгоритмы адаптации по методу наименьших квадратов. Оценка МНК – частный случай байесовской оценки, рекуррентная и нерекуррентная форма алгоритма. Разновидности МНК-алгоритма (с забыванием, в скользящем окне), потенциальные точностные характеристики.
Тема 15. Применение МНК-алгоритмов для обучения многомерного перцептрона. Обобщение байесовской оценки на случай нелинейной модели воздействия. Расширенный фильтр Калмана, линеаризация уравнения наблюдения.
Тема 16. Градиентные алгоритмы адаптации и их использование для обучения НС. Алгоритм градиентного спуска, методы сопряженного градиента, метод Ньютона, квазиньютоновские методы, метод стохастической аппроксимации; поддержка функций NNT. Тема 17. Многослойные нерекуррентные НС. Архитектура НС, алгоритм обратного распространения ошибки и практические рекомендации по его использованию. Пример многослойной НС (xor – задача).
Тема 18. Применение МНК-алгоритмов для обучения многослойной НС. Алгоритмы обучения выходного и скрытых слоев НС с пересчетом ошибок обучения, вычислительная сложность алгоритмов.
Тема 19. НС на радиально-базовых функциях. Задача классификации линейно- и нелинейно-сепарабельных множеств. Теорема Кавера, основные положения теории интерполяции в многомерных пространствах. Реализация НС с помощью функций NNT.
Тема 20. Самоорганизующиеся НС, состязательное обучение. Состязательное обучение в 1-мерной и 2-мерной решетке нейронов. Релаксационное уравнение НС и его решение. Решение задачи классификации с помощью состязательной НС (алгоритм Кохонена). Реализация НС с помощью функций NNT.
Тема 21. Техника LVQ (Learning Vector Quantization). Кластеризация множеств на подклассы и объединение их в классы. Особенности обучения. Поддержка функций NNT.
Тема 22. Обучение Хебба в самоорганизующихся НС. Модифицированное правило Хебба в задаче обучения НС без учителя. Аппаратный анализ принципиальных компонент входной выборки.
Тема 23. Информационно-теоретические модели самоорганизующихся систем. Основные понятия теории Шеннона (и обозначения): количество информации, условная и взаимная информация, энтропия. Принцип сохранения максимальной информации в НС. Обобщение идеи топологического порядка, примеры.
Тема 24. Нейродинамические системы. Нейродинамические модели и их особенности: НС с внешней и внутренней памятью, TDNN-сети, модели нейрона с КИХ- и БИХ-фильтрами; особенности алгоритмов обучения. Задачи, решаемые НДС.
Тема 25. Рекуррентные инерционные НС. Проблема устойчивости, функция Ляпунова, решение проблемы в задачах адаптивной фильтрации. Концепции минимизации энергии и пошаговой минимизации функции стоимости. НС Хопфилда и BSB-модели, как примеры нелинейной ассоциативной памяти. Теорема Кохен-Гроссберга. Дискретная НС Хопфилда и ее реализация с помощью функций NNT.
Тема 26. Модульно-экспертные НС. Идеологические аспекты, архитектура модульных НС. Ассоциативная гауссовая модель. Иерархическая структура адаптивных экспертных НС. VLSI-технологии.
Тема 27. Заключение. Техника НС – эмпирическая альтернатива в решении радиотехнических и телекоммуникационных задач.
Дата добавления: 2015-06-04; Просмотров: 316; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |