Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Пример 3.1




I

Ол

-------- 0.6

-------- 04

I ' I ' I

100 800 1200

б)

4=1 С

------- 0.9

------- 0.8

..... 07

------ 06

-------- 01

о.оо
о 1.20 -1
Qfepl

100 200 300 400 50С ер

0 00

О 100 -i

Olep)

I ' 1 ' 1 ' I ' I 50 100 150 200 „„ 250

Рис. 2.15. Результаты моделирования декодера 4-2-4: а) алгоритм обратного распространения ошибки; б) модифицированный алгоритм обратного распространения ошибки (с учетом момента); в) алгоритм RLS.


(1,0,0,0; 1,0,0,0) (0,1,0,0; 0,1,0,0), (0,0,1,0; 0,0,1,0) (0,0,0,1; 0,0,0,1).

Результаты моделирования представлены на рис. 2.15.

Легко заметить, что модифицированный (с учетом момента) алгоритм обратного распространения ошибки работает в несколько раз быстрее традиционного алгоритма, тогда как применение алгоритма RLS позволяет увеличить эту скорость еще на порядок.

Список литературы

[I] Bilski J., Szybkie algorytmy uczenia sieci neuronowych, AGH,
Krakow, 1995, praca doktorska.

[2] Chong E. K. P., Zak S. H., An Introduction to Optimization, Wiley, 1996.

[3] Cichocki A, Unbehauen R., Neural Networks for Optimization and

Signal Processing, Wiley, 1993. [4] Dayhoff J., Neural Network Architectures, Van Nostrand Reinhold,

New York 1990. [5] Fausett L., Fundamentals of Neural Networks, Prentice Hall, 1994.

[6] Findeisen W., Szymanowski W., Wierzbicki A, Teoria i metody obliczeniowe optymalizacji, PWN, Warszawa 1977.

[7] Hassoun M. H., Fundamentals of Artificial Neural Networks, MIT Press, 1995.

[8] Haykin S., Neural Networks: A Comprehensive Foundation,

Macmillan Publishing Company, 1994. [9] HechtNielson R., Neurocomputing, Addison-Wesley, New York 1990.

[10] Hertz J., Krogh A., Palmer R. G., Wstep do teorii obliczen neu­ronowych, WNT, Warszawa 1993.

[II] Kacprzak Т., Slot К., Sieci neuronowe komorkowe, PWN, Warszawa-
Lodz1994.

[12] Karayiannis N. В., Venetsanopoulos A. A/., Artificial Neural Networks,

Kluwer Academic Publishers, 1993. [13] Korbicz J., Obuchowicz A., Ucinski D., Sztuczne sieci neuronowe.

Podstawy i zastosowania, Akademicka Oficyna Wydawnicza,

Warszawa 1994.

[14] Lippmann R. E, An Introduction to Computing with Neural Nets,

IEEE, ASSP Magazine, April 1987, s. 4-22. [15] Maren A. J., Harston СТ., Pap R. M., Handbook of Neural

Computing Applications, Academic Press, San Diego, California

1990.

[16] Me Culloch W. S., A Logical Calculus of The Ideas Immanent In Nervous Activity, Biulletin of Mathematical Biophysics, 1943, nr 5, s. 115-133.


44 Глава 2. Многослойные нейронные сети и алгоритмы их обучения

[17] Osowski S., Sieci neuronowe w ujeciu algorytmicznym, WNT, Warszawa 1996.

[18] Rosenblatt F., On the Convergence of Reinforcement Procedures in Simple Perceptions, Cornell Aeronautical Laboratory Report VG-1196-G-4, Buffalo, NY, Feb. 1960.

[19] Rutkowski L., Filtry adaptacyjne i adaptacyjne przetwarzanie syg-nalow, WNT, Warszawa 1994.

[20] Rumelhart D. £., Hinton G. £., Williams R. J., Learning Internal Representations by Error Propagation, In Parallel Distributed Procesing, t. 1, rozdz. 8, Rumelhart D. E. and McClelland J. L., Eds., Cambridge, MA, M.I.T. Press, 1986.

[21] Simpson P. K., Artificial Neural Systems: Foundations, Paradigms, Applications and Implementations, Pergamon Press, New York 1990.

[22] Tadeusiewicz R., Sieci neuronowe — przewodnik problemowy

Elektrotechnika, 1991, t. 10, z. 2, s. 125-167. [23] Tadeusiewicz R., Problemy biocybernetyki, PWN, Warszawa 1991.

[24] Tadeusiewicz R., Sieci neuronowe, Akademicka Oficyna Wydawnicza, Warszawa 1993.

[25] Widrow В., HoffM. E. Jr., Adaptive switching circuits, Western Conf Rec, IRE, 1960, cz. 4, s. 94-104.

[26] Widrow В., Lehr M. A., 30 Years of Adaptive Neural Networks: Perceptron, Madaline and Backpropagation, Proc. of the IEEE, 1990, t. 78, nr9, s. 1415-1442..

[27] Widrow В., Stearns S., Adaptive Signal Processing, Prentice Hall Englewood Cliffs (N.J.), 1985.

[28] Zurada J. M., Introduction to Artificial Neural Systems, West Publishing Company, 1992.


ГЛАВA3

НЕЧЕТКИЕ МНОЖЕСТВА И НЕЧЕТКИЙ ВЫВОД

3.1. Введение

В 1965 г. в журнале «Information and Control» была опубликована известная работа Л. Заде [34] под названием Fuzzy sets. Это название пе­реведено на русский язык как нечеткие множества. Побудительным мо­тивом представления Л. Заде идеи и теории нечетких множеств стала не­обходимость описания таких явлений и понятий, которые имеют многозначный и неточный характер. Известные до этого математические методы, использовавшие классическую теорию множеств и двузначную логику, не позволяли решать проблемы этого типа. Вопросы, связанные с нечеткими множествами и их приложениями, освещаются в различных книгах и монографиях как на польском [5,15], так и на английском языках [2, 4, 9, 16, 20, 29, 33, 35].

В настоящей главе базовые понятия и определения теории нечет­ких множеств будут представлены в виде, удобном для не обладающего специальной математической подготовкой читателя (пп. 3.2 - 3.7). Далее мы обсудим проблемы нечеткого вывода, связанного с принятием реше­ний на основе нечетких условий (п. 3.8). Последующие пункты касаются проблематики построения нечетких алгоритмов (п. 3.9) и проектирования базы нечетких правил на основе численных данных (п. 3.10). При изложе­нии материала будут использоваться следующие обозначения:

1) а л b = min (a, b),

P|a,- =min ь а2........... а„),

2) a v b - max (a, b), (Ja,- =max(a1, a2,..., an).


3.2. Основные понятия и определения теории нечетких множеств

При помощи нечетких множеств можно формально определить не­точные и многозначные понятия, такие как «высокая температура», «мо­лодой человек», «средний рост» либо «большой город». Перед формули­рованием определения нечеткого множества необходимо задать так называемую область рассуждений (universe of discourse). В случае неод­нозначного понятия «много денег» большой будет признаваться одна сумма, если мы ограничимся диапазоном [0, 1000 руб] и совсем другая -в диапазоне [0, 1000000 руб]. Область рассуждений, называемая в даль­нейшем пространством или множеством, будет чаще всего обозначать­ся символом X. Необходимо помнить, что X - четкое множество.



Глава 3. Нечеткие множества и нечеткий вывод


3.2. Основные понятия и определения теории нечетких множеств



 


Определение 3.1

Нечетким множеством А в некотором (непустом) пространстве X, что обозначается как ЛсХ, назывется множество пар

Л~1(хц(х)УхбХ) (3 1)

где

(3.2)


 

dx.

(3.8)

Допустим, что X = N - множество натуральных чисел. Определим понятие множества натуральных чисел, «близких числу 7». Это можно сделать определением следующего нечеткого множества Л с X:


 


- функция принадлежности нечеткого множества А. Эта функция припи­сывает каждому элементу х е X степень его принадлежности к нечеткому множеству А, при этом можно выделить три случая:

1) А(х) - 1 означает полную принадлежность элемента х к нечет­
кому множеству А, т.е. х е А;

2) ЦА{х) = 0 означает отсутствие принадлежности элемента х к не­
четкому множеству А, т.е. х g A;

3) 0 < А(х) < 1 означает частичную принадлежность элемента х
к нечеткому множеству А.

,
/33)

В литературе применяется символьное описание нечетких мно­жеств. Если X - это пространство с конечным количеством элементов, т.е. X = {*.,,..., хд/}, то нечеткое множество А с X записывается в виде

,,


 

(3.9)

0,2 0,5 0,8 1 0,8 0,5 0,2 ^~ + ~5~ + Т~+7 8 9 10




Поделиться с друзьями:


Дата добавления: 2015-06-04; Просмотров: 436; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.02 сек.