КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Модули нечетко-нейронного
ЖЕ. 7.9994 7,9994 -3.8662
М! ЙЙ" Рис. 4.1 62. Результат тестирования нейронной сети, обученной программой BrainMaker с толерантностью 0,025 (рис. 4.161), для и-\ = 0, и2 - 1 и с/ = 1. Рис. 4.165. Веса нейронной сети (при начальных значениях, показанных на рис. 4.156), обученной программой BrainMaker с толерантностью 0,025. Глава 4. Генетические алгоритмы 4ЛЗ. Эволюционные алгоритмы для обучения нейронных сетей 291 2 5994 0924-08546 3. Результат тестирования той же сети для щ = 0, и2 = 1 и d - 1 Рис. 4.166. Сгенерированный случайным образом исходный набор весов для нейронной сети, реализующей систему XOR. В'е Е<"«I Hnns Display Analyze
: i earn 4.169. Результат тестирования той же сети для ы, = 1, с* - 0 и d - 1.
Рис. 4.167. Результат тестирования нейронной сети с весами, показанными на рис. 4.166, для щ = 0, и2 = 0 и с/ = 0. Рис 4.170. Результ т тестирования той же сети для щ = 1, и2 - 1 и <* - 0. Глава 4. Генетические алгоритмы 4.13. Эволюционные алгоритмы для обучения нейронных сетей
raining 88:01:13 P.cts: XOR.f t 'Ш^ р^Г^-
Рис. 4.171. Начальная фаза обучения программой BrainMaker сети с весами, ia рис. 4.166, при уровне толерантности 0,1. Рис. 4.173. Продолжение обучения, показанного на рис. 4.171.
-3.9162 -1.2708 3.1492 Done Cencri
Глава 4 Генетические алгоритмы 4.13. Эволюционные алгоритмы для обучения нейронных сетей 295
BrainMaker Professional [X0R.NET1 Connections Display Analyze iting ВД:1Ь:41 Facts: XOR.fct Loam: 1.0ИИ Tolerance: И.1И ct: 22 Total: 8778 Bad: В Last: 5 Good: 22 Last: 17 Run: 3
Рис. 4.176. Результат тестирования нейронной сети, обученной программой BrainMaker с толерантностью 0,025, для щ = 0, и2 = 1 и d = 1.
Рис. 4.177. Результат тестирования той же сети для щ = 0, и2 = 0 и d = 0. Рис. 4.174. Завершающая фаза обучения, File Edit Operate Parameters Cnnneclinns Display Analyze
Й: 8:S Рис. 4.178. Результат тестирования той же сети для ^ = 1, и2 = 1 и с/ = 0. Рис. 4.175. Веса нейронной сети, обученной программой BrainMaker с толерантностью 0,1. Глава 4. Генетические алгоритмы 13 Эволюционные алгоритмы для обучения нейронных сетей____________ 297 Bratr,M»ker Profession»! P<ORNETj Operate Parameters Connections Display Analyze Last: 0 Sun: 510 tS\ S:S!i „inin| WT«;|3 Facts u| aeee out!Ve.
Рис. 4.179. Графики, полученные при последую ем обучении программой BrainMaker сети с весами, показанными на рис. 4.175, при уровне толерантности 0,025. Рис. 4.181. Процесс обучения сети с толерантностью 0,025 после 4000 прогонов.
Edit Network Weights -7.9998 7.9994 2.2592 7 999В 7.9994 -2.6492 -7.9998 7.9994 3.2Z76 -7 9998 7.9394 4.0712 Рис. 4.180. Веса, полученные в результате последующего обучения сети при уровне толерантности 0,025 (после 510 прогонов - рис. 4.179). Рис. 4.182. Веса, полученные после 4000 прогонов обучения сети с толерантностью 0,025. 4.13. Эволюционные алгоритмы для обучения нейронных сетей
Рис. 4.183. Процесс обучения сети на рис. 4.181 при изменении толерантности до 0,03.
Рис. 4.185. Список нейронных сетей, сформированных программой GTO для примера 4.34 и упорядоченных в последовательности от «наилучшей» до «наихудшей».
Рис. 4.184. Веса, полученные по завершении обучения с (рис. 4.183). с толерантностью 0,03
Глава 4. Генетические алгоритмы 4.73. Эволюционные алгоритмы для обучения нейронных сетей 301
-6.8992 6.7576 3.3( ад* е! I
Рис. 4.188. Результат тестирования той же сети для щ - 0, и2 = 1 м d = 1
Рис. 4.186. Веса нейронной сети, реализующей систему XOR, полученные программой GTO (пример 4.34)
Рис. 4.1 89. Результат тестирования той же сети для ы1 = 1. и2 = 0 и d - 1
Рис. 4.187. Результат тестирования сформированной программой СТО нейронной a с весами, показанными на рис. 4.186, для щ = 0, и2 = 0 и d = 0. Рис. 4.190. Результат тестирования той же сети для щ = 1, ц? = 1 и d= 0. Глава 4. Генетические алгоритмы Рис. 4.191. Процесс обучения нейронной сети, сформированной программой СТО, осуществляемый программой BrainMaker с толерантностью 0,025. Edit Network Weights
Список литературы нием. Это пример подхода, состоящего в «дообучении» нейронных сетей традиционным (в частности, градиентным) методом каждый раз перед оцениванием приспособленности [43]. Программа GTO также предоставляет возможность выбрать один из нескольких критериев оценивания нейронных сетей (функцию их приспособленности). Решение о применении одного из двух рассмотренных гибридных подходов к совместному применению программ GTO и BrainMaker зависит от поставленной задачи и, как правило, принимается методом проб и ошибок. Как справедливо отмечается в [51], практически невозможно априорно оценить - какой подход окажется лучшим для конкретной задачи. Применительно к нейронной сети, предназначенной для реализации логической системы XOR, наилучшие результаты можно было бы ожидать от применения второго подхода. Однако с учетом ограниченного объема настоящей работы мы не будем рассматривать дополнительные примеры, демонстрирующие различные возможности его реализации с использованием программы GTO. Наиболее важные замечания относительно гибридного подхода, состоящего в объединении генетического алгоритма с градиентным методом обучения нейронных сетей (программа BrainMaker) представлены в п. 4.13.1. Программа GTO представляет собой пример равноправ ного объединения обоих методов, при котором в соответствии с типовым циклом эволюции (п. 4.12.7) приспособленность особей популяции рассчитывается генетическим алгоритмом по результатам обучения нейронных сетей. Существование такой программы, как GTO, подтверждает практическое применение гибридного подхода, объединяющего достоинства двух оптимизационных методов: генетического алгоритма, который легко находит точку, близкую к оптимальному решению, и градиентного алгоритма, который стартует из найденной точки и быстро приводит к настоящему оптимуму.
-7.9998 7.9994 4.0286 I P°"c I е гибридного обучения сети программами
Список литературы [1] Ackley D.H., A connection^ machine for genetic hillclimbing, Boston, MA: Kluwer Academic Publishers, 1987 [2] Bartlett P., Downs I, Training a neural networks with a genetic algorithm, Technical Report, Dept. of Elec. Eng., Univ. of Queensland, 1990. [3] Belew, R. K., Mclnerney, J. Schraudolph N. N.. Evolving networks: Using genetic algorithms with connectionist learning. CSE technical report CS90-174, La Jolla, CA: University of California at San Diego, 1990. [4] Brindle M., Genetic Algorithms for Function Optimization, Ph. D.disser-tation, University of Alberta, 1981. [5] Caudell T. P., Genetic algorithms as a tool for the analysis of adaptive resonance theory neural network sets, Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992, pp. 184-200. [6] Chalmers D. J., The evolution of learning: An experiment in genetic con-nectionism, in; Proceedings of the 1990 Connectionist Models Summer Глава 4. Генетические алгоритмы School, ed. Touretsky D.S., Elman J. L.Sejnowski T. J., Hinton G. E., Morgan Kauffmann, San Mateo, CA, 1990, pp. 81-90. Chong E. К P., Zak S. H, An'Introduction to Optimization, Wiley, 1996. Cytowski J., Algorytmy genetyczne. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996. Daws L, Handbook of Genetic Algorithms, Van Nostrand Reinhold, NY, [Щ [10] Eberhart R. С, Dobbins R. W, Designing neural network explanation facilities using genetic algorithms, IEEE International Conference on Neural Networks, Singapore: IEEE, 1991, pp. 1758-1763. [11] Eberhart R. C, The role of genetic algorithms in neural network query-based learning and explanation facilities, Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992, pp. 169-183. [12] Fogel D. В., Fogel L J., Porto V. W, Evolving neural networks, Biological Cybernetics, 1990, t. 63, pp. 487-193. [13] Fogel D. В., Evolutionary Computation. Towards a New Philosophy of Machine Intelligence, IEEE Press, 1995. [14] Galar R., Miekka selekcja w losowej adaptacji globalnej w Rn. Proba bio- cybemetycznego ujecia rozwoju, Wydawnictwo Politechniki Wroclawskiej, Wroclaw 1990. [15] Goldberg D. E., Algorytmy genetyczne i ich zastosowania, WNT, Warszawa, 1995. [16] Gonzalez-Seco J., A genetic algorithm as the learning procedure for neural networks, IEEE International Joint Conference on Neural Networks, Baltimore, MD, IEEE, 1992, pp. 835-840. [17] Guo Z., Uhhg R. £., Use of genetic algorithms to select inputs for neural networks, in: Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992, pp. 223-234 [18] Gruau P., Genetic synthesis of Boolean neural networks with a cell rewriting development process, Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992, pp. 55-74. [19] Gwiazda Т., Algorytmy genetyczne. Wstep do teorii, Warszawa 1995. [20] Harp S. A, Samad Т., Guha A, Towards the genetic synthesis of neural networks, in. Proceedings of the Third International Conference on Genetic Algorithms and Their Applications; Schaffer J. D. (ed.), Morgan Kauffmann, San Mateo, CA, 1989, pp. 360-369. [21] Holland J. H., Adaptation in Natural and Artificial Systems, Ann Arbor: University of Michigan Press, 1975. [22] Hsu L. S., Wu Z В., Input Pattern Encoding Through Generalized Adaptive Search, Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992, pp. 235-247. [23] Ichar S., Weaver J., A developmental approach to neural networks design, in: Caudill M., Butler C, (ed.), IEEE, 1987, pp. 97-104. [24] Ke//y J. D., Davis L, Hybridizing the genetic algorithm and the k-nearest neighbors classification algorithm, in: Belew R. K, Booker L. B. (ed.),
Список литературы Fourth International Conference on Genetic Algorithms; San Mateo, CA: Morgan Kauffmann, 1991, pp. 377-383. [25] Kitano H., Designing neural networks using genetic algorithms with graph generation system, Complex Systems, 1990, nr4, pp. 461-476. [26] Kadaba N.. Nygard К £., Improving the performance of genetic algorithms in automated discovery of parameters, in: Porter B. W, Mooney R. J. (ed.), Proceedings of the Seventh International Conference of Machine Learning, San Mateo, CA Morgan Kauffmann, 1990, pp. 140-148. [27] Kadaba N.. Nygard К £., Juell P. L, Integration of adaptive machine learning and knowledge-based systems for routing and scheuling applications. Expert Systems with Applications, 1991, t. 2, nr 1, pp. 15-27. [28] Korbicz J., Obuchowicz A., Ucinski D., Sztuczne sieci neuronowe. Podstawy i zastosowania, Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994. [29] Koza J. R., Genetic Programming II. Automatic Discovery of Reusable Programs, MIT Press, 1994. [30] Koza J R., Rice J. P., Genetic generation of both the weights and architecture for a neural network, IEEE International Joint Conference on Neural Networks, Seatle, WA, pp. 397-404. [31] Maren A., Harston C, Pap R., Handbook of Neural Computing Applications, Academic Press, 1990. [32] Mexrill J. W. L, Port R.F., Fractally configured neural networks, Neural Networks, 1991, t. 4, pp. 53-60 [33] Michalewicz Z, Genetic Algorithms + Data Structures = Evolution Programs, Springer-Verlag, 1992. [34] Miller G. F, Todd P. M., Hagde S. U., Designing neural networks using genetic algorithms, in: Proceedings of the Third International Conference on Genetic Algorithms and Their Applications, Schaffer J. D. (ed.), Morgan Kauffmann, San Mateo, CA, 1989, pp. 379-384. [35] Montana D. J., Davis L, Training feedforward neural networks using genetic algorithms, in: Proceedings of Eleventh International Joint Conference on Artificial Intelligence, San Mateo, CA: Morgan Kauffmann, 1989, pp. 762-767 Mulawka J., Systemy ekspertowe, WNT, Warszawa 1996. Podsiadlo M., Uwagi do twierdzenia о schematach, Materialy I Krajowej Konferencji: Algorytmy Ewolucyjne, Politechnika Warszawska, czerwiec 1996. [38] Schaffer J. D., Caruana R. A, Eshelma'n L J., Using genetic search to exploit the emergent behavior of neural networks, in: Forrest S. (ed.) Emergent Computation, Amsterdam: North Holland, 1990, pp. 244-248. [39] Schaffer J. D., Whitley L, Eshelman J., Combinations of Genetic Algorithms and Neural Networks: A Survey of the State of the Art, Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992. [40] Schizas С Л/., Pattichis С. S., Middleton L Т., Neural networks, genetic algorithms and k-means algorithm: In search of data classification, in: Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92,1992. Глава 4. Генети [41] Shonkwiler R., Miller K. R., Genetic algorithm, neural network synergy for nonlinearly constrained optimization problems, Proceedings of International Workshop on Combinations of Genetic Algorithms and Neural Networks, COGANN-92, 1992, pp. 248-257 [42] Suzuki K., Kakazu Y, An approach to the analysis of the basins of the associative memory model using genetic algorithms, in: Belew R. K., Booker L. В (ed.), Fourth International Conference on Genetic Algorithms, San Mateo, CA: Morgan Kaufmann, 1991, pp. 539-546. [43] Weiss G., Neural networks and evolutionary computation part I: hybrid approches in artificial intelligence, Proceedings of the First IEEE Conference on Evolutionary Computation, 1994, pp. 268-272. [44] Whitley D., Applying genetic algorithms to neural network learning, Proceedings of the Seventh Conference of the Society of Artificial Intelligence and Simulation of Behavior, Sussex, England, Pitman Publishing, 1989, pp. 137-144. [45] Whitley D., Starkweather Т., Bogart C, Genetic algorithms and neural networks: Optimizing connections and connectivity, Parallel Computing. 1990, nr 14, pp. 347-361. [46] Wnek J., Sarma J., Wahab A. A, Michalski R. S., Comparing learning paradigms via diagramatic vizualization: A case study in single concept learninig using symbolic, neural net and genetic algorithm methods, in Zemonkova M., Emrich M. L. (ed.) Metho dologies for intelligent systems; 5, New York; Elsevier Sience Publishing, pp. 428—437. [47] Yao X., A review of evolutionary artificial neural networks, International Journal of Intelligent Systems, 1993, pp. 539-567. [48] FlexTool (GA) M2.1, Flexibe Intelligence Group, L.L.C, Tuscaloosa, AL 35486-1477, USA. [49] Evolver — the Genetic Algorithm Problem Solver, Axcelis, Inc., 4668 Eastern Avenue N., Seattle, WA 98103, USA. [50] BrainMaker, California Scientific Software, Nevada City, CA95959, USA. [51] Genetic Training Option, California Scientific Software, Nevada City, CA 95959, USA. ГЛАВА5
Дата добавления: 2015-06-04; Просмотров: 396; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |