Существует множество прочих методик нейроэволюции (часть из которых в [5]). здесь я приведу только краткие описания каждой из них:
Боерс и Куйпер (Boers and Kuiper) — использование контексто-зависимых L-систем
Дилаерт и Бир (Dellaert and Beer) — подход, аналогичный Кангелосси и Элману, но с использованием случайных булевых нейросетей (random boolean networks)
Харп, Самад и Гуха (Harp, Samad, and Guha) — позонное прямое кодирование структуры
Груау (Gruau) — использование грамматического дерева для задания инструкций при делении клеток (чем-то похоже на Кангелосси, Париси и Нолфи)
Ваарио (Vaario) — рост клеток задается L-системами
К сожалению, однозначно сказать, какой из вышеописанных подходов является наиболее оптимальным, в настоящее время довольно затруднительно. Это связано с тем, что однозначного критерия «универсальной оценки» так и не выработано. Как правило и сами авторы, и сторонние исследователи оценивают эффективность на основе тех или иных тестовых задач в рамках определенных проблемных областей, и при этом трактуют результаты очень по разному. Более того, практически во всех встреченных мне сравнительных работах делаются оговорки насчет того, что полученные результаты могут измениться при изменении тестовых условий и что требуются дополнительные исследования (каковую оговорку делаю и я).
Исключительно в ознакомительных целях привожу краткие результаты сравнений, выполненных в [5] (сравниваются ряд алгоритмов между собой) и в [6] (сравнивается методика NEAT с некоторыми другими методиками).
В [5] выполнялось сравнение следующих методик
Миллер (прямое кодирование)
Китано (кодирование на L-системах)
Нолфи (пространство ячеек)
Кангелоси (порождающее пространство ячеек)
Для сравнения использован ряд искусственных и жизненных проблем на которых и проводилось сравнение. Детальные результаты приведены в [5], однако в общем можно отметить, что:
Сети, эволюционированные по методу Китано дают лучшие результаты
Сети, построенные по методу Миллера не сильно хуже Китано
Сети, построенные по методу Нолфи заметно хуже Китано и Миллера
Сети, построенные по методу Кангелосси еще хуже Нолфи.
Впрочем, отмечается, что лучшие сети построенные с помощью двух «плохих» методов (Нолфи и Кангелосси) демонстрируют заметно больший потенциал к обучаемости в тех случаях, когда они обучаются несколько раз с различными случайными начальными весами.
В [6] выполняется сравнение NEAT с некоторыми другими методиками (эволюционное программирование [7], conventional neuroevolution [8], Sane [9], и ESP [10]). Результаты сравнения на одной из задач (балансирование двуми жердями — детали см. в [11]) приведены в таблице.
Method
Evaluations
Generations
No. Nets
Ev. Programming 307,200 150 2048
307,200
Conventional NE
80,000
SANE
12,600
ESP
3,800
NEAT
3,600
Как можно увидеть, NEAT ведет себя значительно лучше, чем большинство сравниваемых методик (неудивительно, учитывая, что данные были опубликованы авторами методики), однако, опять же, эти данные требуют проверки в прочих проблемных областях.
Вместо заключения [3]
Совместное использование эволюционных алгоритмов и ИНС позволяет решать задачи настройки и обучения ИНС как по отдельности, так и одновременно. Одним из достоинств такого синтезированного подхода является во многом унифицированный подход к решению разнообразных задач классификации, аппроксимации, управления и моделирования. Использование качественной оценки функционирования ИНС позволяет применять нейроэволюционные алгоритмы для решения задач исследования адаптивного поведения интеллектуальных агентов, поиска игровых стратегий, обработки сигналов. Несмотря на то, что количество проблем и открытых вопросов, касающихся разработки и применения НЭ алгоритмов (способы кодирования, генетические операторы, методы анализа и др.) велико, часто для успешного решения задачи с использованием НЭ алгоритма достаточно адекватного понимания проблемы и НЭ подхода, свидетельством чего является большое число интересных и успешных работ в данном направлении.
[1] — Эволюционные нейросетевые модели с незаданным заранее числом связей [2] — Properties of genetic representations of neural architectures (1995, Karthik Balakrishnan, Vasant Honavar) [3] — Эволюционный подход к настройке и обучению искусственных нейронных сетей (2006, Цой Ю.Р., Спицын В.Г.) [4] — Evolving Neural Networks (2009, Risto Miikkulainen and Kenneth O. Stanley) [5] — Evolutionary Design of Neural Networks (1998, Marko A. Gronroos) [6] — Evolving Neural Networks through Augmenting Topologies (2002, K. O. Stanley and R. Miikkulainen) [7] — Evolving neural control systems (1995, Saravanan, N. and Fogel, D. B.) [8] — Evolving neural network controllers for unstable systems (1991, Wieland, A.) [9] — SANE [10] — Learning robust nonlinear control with neuroevolution (2002, Gomez, F. and Miikkulainen, R.) [11] — Pole Balance Tutorial
Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет
studopedia.su - Студопедия (2013 - 2025) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав!Последнее добавление