Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Алгоритмы обучения модуля




Как уже отмечалось, задача сети, состоящей из слоев L1 - L3, за­
ключается в определении степени соответствия входных данных каждо­
му правилу. Для наилучшей адаптации этой сети к поставленной задаче
будем применять алгоритм обратного распространения ошибки, под кото­
рой понимается разность между заданным (эталонным) значением вы­
ходной величины и фактическим значением на выходе сети. В реальных
ситуациях обучающие выборки представляются не парами входных сиг­
налов х = [х,..... хп]Т и степеней активности [т.,......... т2]г, а парами, состав­
ленными из входных сигналов и заданных (эталонных) сигналов
d = [cf.,... dM]T. Поэтому для подобной сети не существует универсаль-



Глава 5. Модули нечетко-нейронного управления


5.3. Модуль управления с нейросетевоп дефуззификацией


 


ногр метода расчета погрешности. Мы вынуждены использовать оценоч­ную (прогнозируемую) погрешность, распространяемую в обратном на­правлении из более высоких слоев сети.

Способ функционирования и обучения модуля управления можно разделить на следующие этапы

Этап 1. Формирование набора нечетких правил для конкрет­ной системы управления. Для рассматриваемой сети невозможно авто­матическое построение правил (например, путем обучения), поэтому спо­соб управления данным объектом должен быть известен, а соответству­ющие правила могут формулироваться, например, экспертом. Вначале должны быть зафиксированы все входные и выходные нечеткие множе­ства, после чего на их базе конструируются правила типа IF - THEN.

Этап 2. Построение нечеткой системы на основе анализа базы правил. Сеть строится на правилах, сформулированных на предыдущем этапе. Количество узлов в каждом слое, связи между ними, значения ве­сов и параметров непосредственно определяются в ходе анализа базы правил с учетом функций, выполняемых конкретными слоями. Количест­во узлов, их связи и значения весов фиксируются при конструировании сети и не подлежат в дальнейшем какой-либо модификации.

Этап 3. Построение и обучение нейронной сети. Способ конст­руирования нейронной сети очевидным образом связан с количеством М нечетких множеств (определяющим количество входов сети) и с требуе­мым качеством отображения. Сама проблема проектирования нейрон­ных сетей подробно и всесторонне обсуждается во многих публикациях (например, [8,14,17, 20]), поэтому мы ее рассматривать здесь не будем. Сеть, выполняющая функцию дефуззификации, будет обучаться с помо­щью алгоритма обратного распространения ошибки (см. п. 2.5), который

е= -|(y-cf)2. (5.34)

Применим теперь формулы (2.83) - (2.86) и обозначения, введен­ные в разд. 2.5. Начнем с построения выражения, описывающего измене­ния весов связей между элементами выходного L6 и скрытого L5 слоев. Изменение m-го веса выходного нейрона определяется зависимостью

w%){t + 1) = w%){t)-Tie{>*){t)y%4t), (5.35)

(5.36)

Рекурсия, определяющая изменение весов Wj(5)(f) связей между /-м нейроном скрытого слоя L5 и у-м нейроном выходного слоя L4 зада­ется формулой

(5.37)

wf\t +1) = wfkt) - V^5){t)yf4t),


 


Ј(5)(6)w(6)f,(s(5)) (538)

Изменение весов w^4)(() связей между ь-м нейроном выходного слоя L4 uj-м входом нейронной сети определяется формулой

iy[.4>(f + 1) = wЈ(f)-77ej4)(f)xj4)(f). (5-39)

(5.40)

В процессе обучения нейронных сетей очень часто используется так называемый момент (momentum - см. п. 2.5). В этом случае форму­лы для модификации весов принимают вид

|^4)(0-*44)('-1)]. (5.41)

Следует обратить внимание на тот факт, что в качестве входных сигналов xr\f) выступают степени активности правил. Поэтому множест­во обучающих данных для нейронной сети должно состоять из вектора степеней активности правил и заданных (эталонных) выходных значений. В реальных системах мы сталкиваемся с проблемой получения таких данных. В рассматриваемом решении предлагается следующий метод: входное пространство неформально подразделяется на классы, после чего для каждой выделенной области задается представляющая ее точ­ка на входе нечеткой системы и осуществляется вывод решения. Выход­ные сигналы нечеткой системы используются как входные обучающие данные для нейронной сети.

Этап 4. Доработка функций принадлежности входных нечет­ких множеств на основе обучающих данных. При описании первого блока рассматриваемого модуля нечеткого управления было установле­на невозможность прямого определения погрешности на его выходе (т.е. на выходе слоя L3) из-за отсутствия необходимых данных. Поэтому для обучения этой части модуля погрешность должна оцениваться на основе ошибки, распространяемой в обратном направлении с верхних слоев нейронной сети вплоть до слоя L3. Погрешности в высших слоях рассчи­тываются по формулам (5.36), (5.38) и (5.40). Легко заметить, что погреш­ность для ь-го элемента слоя L3 может быть определена как


Глава 5 Модули нечетко-нейронного управления

Если бы существовали данные dr, г- 1.......... М с заданными значе­
ниями сигналов на выходе первого блока модуля управления, то в ре­
зультате сравнения их с фактическими значениями у®\ полученными на
выходе слоя L3, можно было бы рассчитать погрешность по формуле

е = ^(у<3)-с/г)2, (5.43)

где г= 1...... М- номер выхода первого блока модуля нечеткого управле­
ния (слой L3). При отсутствии этих данных можно лишь заменить

-fk = y*?)~dr (5'44)

ошибкой, распространяемой в обратном направлении из нейронной сети до слоя L3, т.е.

^зТ = 43) (5-45)

Получив оценку погрешности на выходе слоя L3, можно применить градиентный метод (gradient cfescenf method), который позволяет подо­брать параметры а/77, Ь/77, с/77 функции принадлежности, учитываемые в слое L1. Например, формула модификации параметра Ь,, определяю­щего центр центр функции принадлежности нечеткого множества, соот­ветствующего /-й входной переменной для m-ro нечеткого правила, име­ет вид

b/"(f + 1) = b/"(f)-t7 8ё = dbm(t)

f {t) - т?


 


5.3. Модуль управления с нейросетевой дефуззификацией

(5.48)

!>=min(yЈ>),

которые, как известно, не имеют производных. Для таких элементов уста­навливается, что сигнал погрешности передается на все узлы предыду­щего слоя (с которыми данный элемент связан) одинаково, т.е.

1 для у[2) = yjsj) и к = т, О для у[2) *■ yf^ или к *■ т.

Другой подход заключается в распространении сигнала погрешно­сти только к тем элементам, которые выработали соответственно макси­мальное или минимальное значение:

(5.50)

Можно также распространять погрешность пропорционально вход­ным значениям таким образом, чтобы значение погрешности возрастало с приближением величины сигнала к его максимальному (или минималь­ному) значению:


(5.46)


Для упрощения записи примем следующие обозначения: у*(2) -выход слоя L2, ам*(х,)= уД(1) - выход слоя L1. Поэтому производную е<3)

можно представить в виде

у<3> эу<2> ^4

(5-47)

Ее взятие может быть связано с некоторыми трудностями, по­скольку в структуре модуля нечеткого управления имеются функции max-imum и minimum


ду?) 10 для/с*т. (5"51)

Определенная проблема возникает и при взятии частной произ­водной Щ-. В уравнении (5.31), описывающем форму функции принад­лежности, содержатся недифференцируемые компоненты, например, пи­ки либо граничные точки. Поэтому допустим, что производная в таких точ­ках равна среднему арифметическому производных в соседних точках Тогда можно сформулировать окончательное выражение, по которому модифицируется параметр Ь™:


Глава 5. Модули нечетко-нейронного управления

Для параметров а™ и с/" соответствующие формулы принимают аналогичный вид:


 


5.3. Модуль управления с непросетевой дефуззификацией 343

параметров и нелинейности задачи она часто используется в качестве объекта, на котором демонстрируется функционирование различных ре­гуляторов. В настоящем разделе в качестве такого регулятора будем ис­пользовать описанный выше модуль нечеткого управления.

На рис. 5.22 изображен объект регулирования, т.е. перевернутый маятник. Если принять, что в роли переменных состояния выступают угол маятника х^ = в и угловая скорость х2 = в. то уравнения динамики мож­но записать в виде [19]

gsinx, —

/4 госте2 х,

I 3 тс + т


 


Блок-схема полной процедуры построения и модификации моду­ля нечеткого управления представлена на рис. 5.21.




Поделиться с друзьями:


Дата добавления: 2015-06-04; Просмотров: 453; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.023 сек.