КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Нейронные сети для нечеткого вывода
Познакомимся с системами, предложенными сотрудниками фирмы Matsushita, описание которых приведено в работах [3] и [18]. Прежде всего, обсудим способ разделения входного пространства на соответствующие области (классы). Очень часто делается допущение, что входные переменные независимы друг от друга. Это обусловливает разделение на классы, иллюстрируемое на рис. 5.38. При таком подходе каждая входная переменная имеет собственные входные множества. Они содержатся в условиях правил в виде IF (х1 это /f AND... AND х„ это /*), (5.79) где х-|,..., хп - входные переменные (п - количество входов), а /Цк,.... А,* - это нечеткие множества, содержащиеся в условии /его правила (к = 1, Рис. 5.38. Классическое разделение входного пространства на области. Белое поле означает принадлежность к данному классу, серое поле - частичную принадлежность к каждому из соседствующих классов (либо отсутствие принадлежности к классу). 2,.... N; N- количество правил). Например, для рис. 5.38 можно выписать следующие условия правил: R,: IF (х, это ОТРИЦАТЕЛЬНОЕ AND х2 это БОЛЬШОЕ), R2: IF (X! это ОТРИЦАТЕЛЬНОЕ AND x2 это МАЛОЕ), R2: IF (хЛ это ПОЛОЖИТЕЛЬНОЕ). (5.80) Символы R/, / = 1, 2, 3 обозначают здесь соответствующие области, показанные на рис. 5.38. Для некоторых приложений такой подход представляет собой серьезное ограничение, поскольку не всегда входные переменные являются взаимно независимыми. На рис. 5.39 представлен пример разделения пространства входных состояний весьма тривиальной задачи R, :№{хА<х2), R2: IF (X! «х2), (5.81) R,: IF (X! > х2), для которой классический подход оказывается не самым целесообразным В качестве решения можно предложить замену всех входных переменных одним вектором и ввести функции принадлежности от нескольких переменных. В этом случае описание условий в правилах будет иметь вид IF (х это Ак), (5.82)
где х = [хь..., хп]Т, а Л*- это нечеткое множество с многомерной функцией принадлежности.
а 5. Модули нечетко-нейронного управления Второй элемент архитектуры - компонент, отвечающий заключениям правил. Используется решение, предложенное Такаги и Сугено, которое подробно описывалось в п. 3.9.4. Выход системы вывода представляет собой функцию входных переменных, т.е. y=f('()(x), (5.83) где f (к)(«) - это функция, содержащаяся в /ем правиле, а у - численное значение управляющего воздействия. При объединении обоих элементов образуется база правил следующей формы (обозначение R W относится к соответствующим правилам): (5.84) R W: IF (х это /*) THEN у = f(k\x). 5.6.3. Структура системы Примерная структура системы, реализующей нечеткий вывод по правилам вида (5.84) показана на рис. 5.40. Рассмотрим блок, обозначенный на схеме SNWas (слой L1). Его задача заключается в разделении входных данных на N классов, каждый из которых выступает в роли условия для одного правила. Следует отметить, что разделение входного пространства на классы, соответствующие решаемой проблеме, представляет собой самостоятельную задачу, которая в настоящей работе не рассматривается. Этот блок может быть реализован с использованием нейронной сети, имеющей п входов, N выходов и К слоев. Фактически, речь идет о решении типичной задачи разделения данных на классы, т.е. кластеризации (clustering). Несомненное достоинство такого подхода - возможность обучения сети требуемому разделению по обучающей выборке с использованием стандартного алгоритма обратного распространения ошибки. Обратим внимание на рис. 5.41. В приведенном примере эксперт выделил в двухмерном пространстве входных данных три класса: R1p R2 и R3 (Рис. 5.41а). Двухвходовая нейронная сеть (рис. 5.416) должна быть обучена такой классификации. Она имеет три выхода, каждый из которых соответствует своему классу. На первом этапе обучения на вход подаются координаты точек (х-|, х2). Одновременно на выход сети представляется информация о том, к какому классу принадлежит каждая из этих точек (рис. 5.42). На втором этапе проверяется - насколько корректно обучена сеть и как она реагирует в случае, когда на вход подаются координаты точки, не принадлежащей ни к одному из заданных классов. В такой ситуации выходы сети принимают значения из интервала [0, 1] и интерпретируются как «степень принадлежности» /V"(x) точки (входных сигналов) к каждому классу. Поэтому если входные данные были отнесены нейронной сетью, например, к классу R2, то на выходе сети значение выходного сигнала /V>(x) может принимать значение от 0 (отсутствие принадлежности) до 1 (полная принадлежность). Также можно допустить, что выходные сигналы этой сети нормированы, т.е.
Рис. 5.40. Блок-схема системы вывода, основанной на нейронных сетях. Глава 5. Модули нечетко-нейронного управления 5.6. Модуль управления i шнгвистическими переменными 371
Рис. 5.41. Разделение входных данных на условия правил: а) пространство входных данных; б) нейронная сеть, задающая функции принадлежности; в) пространство данных, разделенное на нечеткие правила.
(5.86) Таким образом, построена система вывода, рассчитывающая степени принадлежности входного вектора к априорно определенным нечетким множествам. Вернемся к рис. 5.40. Блоки, обозначенные символами от SNt до SNw, реализуют заключения соответствующих правил. Для этого также применяются нейронные сети. Каждая из них имеет п входов и один выход. Они обучаются после сети SNwas, поскольку существенное значение имеет информация о том, какая именно сеть должна обучаться по конкретной реализации входного вектора. Эту информацию можно получить на выходе натренированной сети SNWas. Выходы блока SNwas соединены с выходами блоков SN^ посредством элементов мультипликации. Сумма их выходов определяет количественное значение управляющего воздействия, рассчитываемого по формуле
,... *„)], где ^(xr..., xN) - это результаты функционирования сети SN^, a n^xv..., xN) - выходы сети SNWas. интерпретируемые как принадлежность входных данных к соответствующему нечеткому множеству (классу). В результате мы получаем выражение, соответствующее методу де-фуззификации center average defuzzyfication и вытекающее из принятого метода вывода: N Идея функционирования системы вывода, описываемой выражением (5.88), очень проста: если некоторая комбинация входных данных отнесена нейронной сетью, например, к классу т, т.е. когда Рис. 5.42. Обучение и тестирование о Глава 5. Модули нечетко-нейронного управления то эту ситуацию следует рассматривать как выполнение условия т-го правила и подавать на выход управляющего модуля выходной сигнал нейронной сети SNm, реализующей заключение того же правила в форме функции /И(х)
у = f{m)(xb...,xn) Можно надеяться на корректное функционирование системы и в случае, когда комбинация входных данных будет частично отнесена нейронной сетью одновременно к нескольким классам, т.е. при
0</лАк(х)<1.
Дата добавления: 2015-06-04; Просмотров: 716; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |