Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Нейронные сети для нечеткого вывода




Познакомимся с системами, предложенными сотрудниками фир­мы Matsushita, описание которых приведено в работах [3] и [18]. Прежде всего, обсудим способ разделения входного пространства на соответст­вующие области (классы). Очень часто делается допущение, что входные переменные независимы друг от друга. Это обусловливает разделение на классы, иллюстрируемое на рис. 5.38.

При таком подходе каждая входная переменная имеет собствен­ные входные множества. Они содержатся в условиях правил в виде

IF (х1 это /f AND... AND х„ это /*), (5.79)

где х-|,..., хп - входные переменные (п - количество входов), а /Цк,.... А,* - это нечеткие множества, содержащиеся в условии /его правила = 1,

Рис. 5.38. Классическое разделение входного пространства на области. Белое поле означает принадлежность к данному классу, серое поле - частичную принадлежность к каждому из соседствующих классов (либо отсутствие принадлежности к классу).


2,.... N; N- количество правил). Например, для рис. 5.38 можно выписать следующие условия правил:

R,: IF (х, это ОТРИЦАТЕЛЬНОЕ AND х2 это БОЛЬШОЕ), R2: IF (X! это ОТРИЦАТЕЛЬНОЕ AND x2 это МАЛОЕ),

R2: IF Л это ПОЛОЖИТЕЛЬНОЕ). (5.80)

Символы R/, / = 1, 2, 3 обозначают здесь соответствующие облас­ти, показанные на рис. 5.38. Для некоторых приложений такой подход представляет собой серьезное ограничение, поскольку не всегда вход­ные переменные являются взаимно независимыми. На рис. 5.39 пред­ставлен пример разделения пространства входных состояний весьма тривиальной задачи

R, :№{хА2),

R2: IF (X! «х2), (5.81)

R,: IF (X! > х2),

для которой классический подход оказывается не самым целесообраз­ным

В качестве решения можно предложить замену всех входных пере­менных одним вектором и ввести функции принадлежности от нескольких переменных. В этом случае описание условий в правилах будет иметь вид

IF (х это Ак), (5.82)


Рис. 5.39. Предлагаемое разделение входного пространства

где х = ь..., хп]Т, а Л*- это нечеткое множество с многомерной функци­ей принадлежности.


6. Модуль управления с зависимыми лингвистическими переменными

а 5. Модули нечетко-нейронного управления

Второй элемент архитектуры - компонент, отвечающий заключени­ям правил. Используется решение, предложенное Такаги и Сугено, кото­рое подробно описывалось в п. 3.9.4. Выход системы вывода представ­ляет собой функцию входных переменных, т.е.

y=f('()(x), (5.83)

где f (к)(«) - это функция, содержащаяся в /ем правиле, а у - численное значение управляющего воздействия. При объединении обоих элементов образуется база правил следующей формы (обозначение R W относится к соответствующим правилам):

(5.84)

R W: IF (х это /*) THEN у = f(k\x).

5.6.3. Структура системы

Примерная структура системы, реализующей нечеткий вывод по правилам вида (5.84) показана на рис. 5.40.

Рассмотрим блок, обозначенный на схеме SNWas (слой L1). Его за­дача заключается в разделении входных данных на N классов, каждый из которых выступает в роли условия для одного правила. Следует отме­тить, что разделение входного пространства на классы, соответствующие решаемой проблеме, представляет собой самостоятельную задачу, кото­рая в настоящей работе не рассматривается. Этот блок может быть реа­лизован с использованием нейронной сети, имеющей п входов, N выхо­дов и К слоев. Фактически, речь идет о решении типичной задачи разде­ления данных на классы, т.е. кластеризации (clustering). Несомненное до­стоинство такого подхода - возможность обучения сети требуемому раз­делению по обучающей выборке с использованием стандартного алго­ритма обратного распространения ошибки.

Обратим внимание на рис. 5.41. В приведенном примере эксперт выделил в двухмерном пространстве входных данных три класса: R1p R2 и R3 (Рис. 5.41а). Двухвходовая нейронная сеть (рис. 5.416) должна быть обучена такой классификации. Она имеет три выхода, каждый из которых соответствует своему классу.

На первом этапе обучения на вход подаются координаты точек (х-|, х2). Одновременно на выход сети представляется информация о том, к какому классу принадлежит каждая из этих точек (рис. 5.42).

На втором этапе проверяется - насколько корректно обучена сеть и как она реагирует в случае, когда на вход подаются координаты точки, не принадлежащей ни к одному из заданных классов. В такой ситуации выходы сети принимают значения из интервала [0, 1] и интерпретируют­ся как «степень принадлежности» /V"(x) точки (входных сигналов) к каж­дому классу. Поэтому если входные данные были отнесены нейронной сетью, например, к классу R2, то на выходе сети значение выходного сиг­нала /V>(x) может принимать значение от 0 (отсутствие принадлежности) до 1 (полная принадлежность).

Также можно допустить, что выходные сигналы этой сети нормиро­ваны, т.е.


 


Рис. 5.40. Блок-схема системы вывода, основанной на нейронных сетях.


Глава 5. Модули нечетко-нейронного управления


5.6. Модуль управления i


шнгвистическими переменными 371


 


Рис. 5.41. Разделение входных данных на условия правил: а) пространство входных данных; б) нейронная сеть, задающая функции принадлежности; в) пространство данных, разделенное на нечеткие правила.

 

  я, «г Л,
    0 0
       

 

  я, R7 Я,
• 1 0.0 0.55 0.45
       

(5.86)

Таким образом, построена система вывода, рассчитывающая сте­пени принадлежности входного вектора к априорно определенным нечет­ким множествам.

Вернемся к рис. 5.40. Блоки, обозначенные символами от SNt до SNw, реализуют заключения соответствующих правил. Для этого также применяются нейронные сети. Каждая из них имеет п входов и один вы­ход. Они обучаются после сети SNwas, поскольку существенное значение имеет информация о том, какая именно сеть должна обучаться по кон­кретной реализации входного вектора. Эту информацию можно получить на выходе натренированной сети SNWas.

Выходы блока SNwas соединены с выходами блоков SN^ посредст­вом элементов мультипликации. Сумма их выходов определяет количест­венное значение управляющего воздействия, рассчитываемого по фор­муле

(5.87)

,... *„)],

где ^(xr..., xN) - это результаты функционирования сети SN^, a n^xv..., xN) - выходы сети SNWas. интерпретируемые как принадлеж­ность входных данных к соответствующему нечеткому множеству (клас­су). В результате мы получаем выражение, соответствующее методу де-фуззификации center average defuzzyfication и вытекающее из принятого метода вывода:

N
$>ДЛ*1...... *лИ(к)(Х1..... Хп)

Идея функционирования системы вывода, описываемой выраже­нием (5.88), очень проста: если некоторая комбинация входных данных отнесена нейронной сетью, например, к классу т, т.е. когда


Рис. 5.42. Обучение и тестирование о


 

Глава 5. Модули нечетко-нейронного управления

то эту ситуацию следует рассматривать как выполнение условия т-го правила и подавать на выход управляющего модуля выходной сигнал нейронной сети SNm, реализующей заключение того же правила в форме функции /И(х)

(5.90)

у = f{m)(xb...,xn)

Можно надеяться на корректное функционирование системы и в случае, когда комбинация входных данных будет частично отнесена ней­ронной сетью одновременно к нескольким классам, т.е. при

(5.91)

0</лАк(х)<1.




Поделиться с друзьями:


Дата добавления: 2015-06-04; Просмотров: 683; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.018 сек.