КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Процедуры самообученя распознаванию образов
Рассмотрим методы построения дискриминантной функции по заданной (обучающей) выборке применительно к задаче о разделении образов на два класса. Если заданы два множества образов, принадлежащих соответственно классам А и В, то решение задачи построения линейной дискриминантной функции ищется в виде вектора весовых коэффициентов W =(w 1, w 2,..., wn, wn +1), обладающего тем свойством, что для любого образа выполняются условия x принадлежит классу A, если [sum(wjxj ‑ xj)+ wn +1]>0, j =1,2,… n. x принадлежит классу B, если [sum(wjxj ‑ xj)+ wn +1]<0, j =1,2,… n. Если обучающую выборку составляют N образов обоих классов, задача сводится к отысканию вектора w, обеспечивающего справедливость системы неравенств Если обучающую выборку составляют N образов обоих классов, задача сводится к отысканию вектора w, обеспечивающего справедливость системы неравенств x 11 wi + x 21 w 2+...+ xn 1 wn + wn +1>0; x 12 wi + x 22 w 2+...+ xn 2 wn + wn +1<0; ................................................ x 1 iwi + x 2 i w 2+...+ xniwn + wn +1>0; ................................................ x 1 Nwi+x 2 N w 2 +...+xnNwn+wn+ 1>0; здесь xi =(xi 1 ,xi 2 ,...,xin,xin+ 1 ) - вектор значений признаков образа из обучающей выборки, знак > соответствует векторам образов x, принадлежащих классу A, а знак < - векторам x, принадлежащих классу B. Искомый вектор w существует, если классы A и B разделимы и не существует в противном случае. Значения компонент вектора w могут быть найдены либо предварительно, на этапе, предшествующем аппаратной реализации СРО, либо непосредственно самой СРО в процессе ее функционирования. Последний из указанных подходов обеспечивает большую гибкость и автономность СРО. Рассмотрим его на примере устройства, называемого перцентроном. изобретенного в 1957 году американским ученым Розенблатом. Схематичное представление перцентрона, обеспечивающего отнесение образа к одному из двух классов, представлено на следующем рисунке. Сетчатка S Сетчатка A Сетчатка R о о x 1 о о о x 2 о о о x 3 о (sum)-------> R (реакция)
о о xi
о о о xn о о о x n +1 Устройство состоит из сетчатки сенсорных элементов S, которые случайным образом соединены с ассоциативными элементами сетчатки A. Каждый элемент второй сетчатки воспроизводит выходной сигнал только в том случае, если достаточное число сенсорных элементов, соединенных с его входом, находятся в возбужденном состоянии. Реакция всей системы R пропорциональна сумме взятых с определенными весами реакций элементов ассоциативной сетчатки. Обозначив через xi реакцию i -го ассоциативного элемента и через wi - весовой коэффициент реакции i -го ассоциативного элемента, реакцию системы можно записать как R =sum(wjxj), j =1,.., n. Если R >0, то предъявленный системе образ принадлежит классу A, а если R <0, то образ относится к классу B. Описание этой процедуры классификации соответствует рассмотренным нами раньше принципам классификации, и, очевидно, перцентронная модель распознавания образов представляет собой, за исключением сенсорной сетчатки, реализацию линейной дискриминантной функции. Принятый в перцентроне принцип формирования значений x 1, x 2,..., xn соответствует некоторому алгоритму формирования признаков на основе сигналов первичных датчиков. В общем случае может быть несколько элементов R, формирующих реакцию перцептрона. В таком случае говорят о присутствии в перцептроне сетчатки R реагирующих элементов. Схему перцентрона можно распространить на случай, когда число классов более двух, путем увеличения числа элементов сетчатки R до числа различаемых классов и введение блока определения максимальной реакции в соответствии со схемой, представленной на выше приведенном рисунке. При этом образ причисляется к классу с номером i, если Ri > Rj, для всех j. Процесс обучения перцентрона состоит в подборе значений весовых коэффициентов wj так, чтобы выходной сигнал соответствовал тому классу, которому принадлежит распознаваемый образ. Рассмотрим алгоритм действия перцентрона на примере распознавания объектов двух классов: A и B. Объектам класса A должно соответствовать значение R = +1, а классу B - значение R = -1. Алгоритм обучения состоит в следующем. Если очередной образ x принадлежит классу A, но R <0 (имеет место ошибка распознавания), тогда коэффициенты wj c индексами, которым соответствуют значения xj >0, увеличивают на некоторую величину dw, а остальные коэффициенты wj уменьшают на dw. При этом значение реакции R получает приращение в сторону ее положительных значений, соответствующих правильной классификации. Если x принадлежит классу B, но R >0 (имеет место ошибка распознавания), то коэффициенты wj с индексами, которым соответствуют xj <0, увеличивают на dw, а остальные коэффициенты wj уменьшают на ту же величину. При этом значение реакции R получает приращение в сторону отрицательных значений, соответствующих правильной классификации. Алгоритм таким образом вносит изменение в вектор весов w в том и только в том случае, если образ, предъявляемый на k -ом шаге обучения, был при выполнении этого шага неправильно классифицирован, и оставляет вектор весов w без изменений в случае правильной классификации. Доказательство сходимости данного алгоритма представлено в работе [Ту, Гонсалес]. Такое обучение в конечном итоге (при надлежащем выборе dw и линейной разделимости классов образов) приводит к получению вектора w, обеспечивающего правильную классификацию.
Дата добавления: 2014-01-14; Просмотров: 320; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |