КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Практически любую задачу можно свести к задаче, решаемой нейросетью
В табл.2 показано, каким образом следует сформулировать в терминах нейросети задачу распознавания рукописных букв. Поясним, зачем требуется выбирать выход с максимальным уровнем сигнала. Дело в том, что уровень выходного сигнала, как правило, может принимать любые значения из какого-то отрезка. Однако, в данной задаче нас интересует не аналоговый ответ, а всего лишь номер категории (номер буквы в алфавите). Поэтому используется следующий подход - каждой категории сопоставляется свой выход, а ответом сети считается та категория, на чьем выходе уровень сигнала максимален. В определенном смысле уровень сигнала на выходе "А" - это достоверность того, что на вход была подана рукописная буква "A". Задачи, в которых нужно отнести входные данные к одной из известных категорий, называются задачами классификации. Изложенный подход - стандартный способ классификации с помощью нейронных сетей. Табл.2. Задача распознавания рукописных букв в терминах нейросети
Затем можно переходить к следующему вопросу «как строить сеть». Это решается в два этапа: 1) выбор типа (архитектура сети); 2) подбор весов (обучение) сети. На первом этапе следует выбрать следующее: · какие нейроны мы хотим использовать (число входов, передаточные функции); · каким образом следует соединить их между собой; · что взять в качестве входов и выходов сети. Лекция 14. НС (продолжение)
Эта задача на первый взгляд кажется необозримой, но необязательно придумывать нейросеть "с нуля" - существует несколько десятков различных нейросетевых архитектур, причем эффективность многих из них доказана математически. Наиболее популярные и изученные архитектуры - это многослойный персептрон, нейросеть с общей регрессией, сети Кохонена и другие. На втором этапе нам следует "обучить" выбранную сеть, то есть подобрать такие значения ее весов, чтобы сеть работала нужным образом. Необученная сеть подобна ребенку - ее можно научить чему угодно. В используемых на практике нейросетях количество весов может составлять несколько десятков тысяч, поэтому обучение - действительно сложный процесс. Для многих архитектур разработаны специальные алгоритмы обучения, которые позволяют настроить веса сети определенным образом. Наиболее популярный из этих алгоритмов - метод обратного распространения ошибки (Error Back Propagation), используемый, например, для обучения персептрона. В зависимости от функций, выполняемых нейронами в сети, можно выделить три их типа: 1) входные нейроны – на них подается входной вектор, кодирующий входное воздействие или образ внешней среды; вычислительных процедур в этих нейронах не осуществляется, информация передается со входа на выход путем изменения его активации; 2) выходные нейроны – выходные значения которых представляют выход сети; 3) промежуточные нейроны – составляют основу ИНС, преобразования в них выполняются по вышеприведенным формулам. Выбор структуры ИРС осуществляется в соответствии с особенностями и сложностью задачи. Для решения некоторых отдельных типов задач существуют оптимальные конфигурации. Если же задача не может быть сведена ни к одному из известных типов, разработчику приходится решать проблему синтеза новой конфигурации, причем необходимо руководствоваться следующими принципами: 1) возможности сети возрастают с увеличением числа ячеек сети, плотности связи между ними и числом выделенных слоев; 2) введение обратных связей наряду с увеличением возможностей сети поднимает вопрос о динамической устойчивости сети; 3) сложность алгоритмов функционирования сети (например, введения нескольких типов синапсов) также способствует усилению возможностей сети. В большинстве случаев оптимальный вариант получается на основе интуитивного подбора, хотя в литературе приведены доказательства того, что для любого алгоритма существует нейронная сеть, которая может его реализовать. Многие задачи: распознавания образов (зрительных, речевых), управления, прогнозирования, идентификации сложных систем, сводятся к следующей постановке: необходимо построить отображение В задачах разпознавания образов Х – некоторое представление образа (изображение, вектор чисел), Y – номер класса, к которому принадлежит входной образ. В задачах управления Х – набор контролируемых параметров управляемого объекта, Y – код, определяющий управляющее воздействие, соответствующее текущим значениям контролируемых параметров. В задачах прогнозирования в качестве входных сигналов используются временные ряды, представляющие значения контролируемых переменных на некотором интервале времени. Выходной сигнал – множество переменных, которое является подмножеством переменных входного сигнала. Вообще говоря, большая часть прикладных задач может быть сведена к реализации некоторого сложного многомерного функционального преобразования В результате построения такого преобразования (отображения) необходимо добиваться того, чтобы обеспечивалось формирование правильных выходных сигналов в соответствии: 1) со всеми примерами обучающей выборки; 2) со всеми возможными входными сигналами, которые не вошли в обучающую выборку. Отметим, что теоретической основой для построения НС является следующее утверждение: для любого множества пар входных-выходных векторов произвольной размерности существует двухслойная однородная нейронная сеть с последовательными связями, с сигмоидальными передаточными функциями и с конечным числом нейронов, которая для каждого входного вектора Таким образом, для представления многомерных функций многих переменных может быть использована однородная нейронная сеть, имеющая всего один скрытый слой, с сигмоидальными передаточными функциями нейронов. Для оценки числа нейронов в скрытых слоях ОНС можно воспользоваться формулой для оценки необходимого числа синаптических весов
где n – размерность входного сигнала, m –размерность выходного сигнала, N – число элементов обучающей выборки. Число нейронов в двухслойной сети составит:
Теорема о полноте. Любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми нейронными сетями, если функция активации нейрона дважды непрерывно дифференцируема и нелинейна. Таким образом, НС являются универсальными аппроксимирующими системами. Задавшись определенной структурой ИНС, отвечающей какой-либо задаче, разработчик сети должен найти оптимальные значения всех весовых коэффициентов. Этот этап называется обучением ИНС.
Дата добавления: 2014-01-07; Просмотров: 649; Нарушение авторских прав?; Мы поможем в написании вашей работы! |