Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Возвращение к нейронным сетям (период с 1986 года по настоящее время)




Превращение искусственного интеллекта в индустрию (период с 1980 года по настоящее время)

Первая успешно действующая коммерческая экспертная система, R1, появилась в компании DEC (Digital Equipment Corporation). Эта программа помогала составлять конфигурации для выполнения заказов на новые компьютерные системы; к 1986 году она позволяла компании DEC экономить примерно 40 миллионов долларов в год. К 1988 году группой искусственного интеллекта компании DEC было развернуто 40 экспертных систем, а в планах дальнейшего развертывания было предусмотрено еще большее количество таких систем. В компании Du Pont применялось 100 систем, в разработке находилось еще 500, а достигнутая экономия составляла примерно 10 миллионов долларов в год. Почти в каждой крупной корпорации США была создана собственная группа искусственного интеллекта и либо применялись экспертные системы, либо проводились их исследования.

В 1981 году в Японии было объявлено о развертывании проекта создания компьютера “пятого поколения” — 10-летнего плана по разработке интеллектуальных компьютеров, работающих под управлением языка Рго1оg. В ответ на это в Соединенных Штатах была сформирована корпорация Microelectronics and Computer Technology Corporation (МСС) как научно-исследовательский консорциум, предназначенный для обеспечения конкурентоспособности американской промышленности. И в том и в другом случае искусственный интеллект стал частью общего плана, включая его применение для проектирования микросхем и проведения исследований в области человеко-машинного интерфейса. Но амбициозные цели, поставленные перед специалистами в области искусственного интеллекта в проектах МСС и компьютеров пятого поколения, так и не были достигнуты. Тем не менее, в Британии был выпущен отчет Олви (Аlvеу), в котором предусматривалось возобновление финансирования, урезанного на основании отчета Лайтхилла. В целом в индустрии искусственного интеллекта произошел бурный рост, начиная с нескольких миллионов долларов в 1980 году и заканчивая миллиардами долларов в 1988 году. Однако, вскоре после этого наступил период, получивший название “зимы искусственного интеллекта”, в течение которого пострадали многие компании, поскольку не сумели выполнить своих заманчивых обещаний.

Хотя основная часть специалистов по компьютерным наукам прекратила исследования в области нейронных сетей в конце 1970-х годов, работу в этой области продолжили специалисты из других научных направлений. Такие физики, как Джон Хопфилд, использовали методы из статистической механики для анализа свойств хранения данных и оптимизации сетей, рассматривая коллекции узлов как коллекции атомов. Психологи, включая Дэвида Румельхарта и Джефа Хинтона, продолжали исследовать модели памяти на основе нейронных сетей. Настоящий прорыв произошел в середине 1980-х годов, когда, по меньшей мере, четыре разные группы снова открыли алгоритм обучения путем обратного распространения, впервые предложенный в 1969 году Брайсоном и Хо. Этот алгоритм был применен для решения многих проблем обучения в компьютерных науках и психологии, а после публикации результатов его использования всеобщее внимание привлек тот факт, насколько разнообразными оказались области его применения.

Эти так называемые коннекционисткие (основанные на соединениях) модели интеллектуальных систем многими рассматривались как непосредственно конкурирующие и с символическими моделями, разрабатываемыми Ньюэллом и Саймоном, и с логицистским подходом, предложенным Маккарти и другими. По-видимому, не следует отрицать, что на некотором уровне мышления люди манипулируют символами; и действительно, в работах Терренса Дикона указано, что способность манипулировать символами — определяющая характеристика человека. Но наиболее горячие сторонники коннекционизма поставили под сомнение то, что на основании манипулирования символам действительно можно полностью объяснить какие-то познавательные процессы в подробных моделях познания. Вопрос остается открытым, но современный взгляд на эту проблему состоит в том, что коннекционистский и символический подходы являются взаимодополняющими, а не конкурирующими.

Превращение искусственного интеллекта в науку (период с 1987 года по настоящее время)

Впоследние годы произошла буквально революция как в содержании, так и в методологии работ в области искусственного интеллекта (Некоторые охарактеризовали эту смену подходов как победу теоретиков (тех, кто считает, что теории искусственного интеллекта должны быть основаны на строгих математических принципах) над экспериментаторами (теми, кто предпочитает проверить множество идей, написать какие-то программы, а затем оценить те из них, которые кажутся работоспособными). Оба подхода являются важными. А смещение акцентов в пользу теоретической обоснованности свидетельствует о том, что данная область достигла определенного уровня стабильности и зрелости. Будет ли когда-либо такая стабильность нарушена новой идеей, родившейся в экспериментах, — это другой вопрос).

В настоящее время гораздо чаще встречаются работы, которые основаны на существующих теориях, а не содержат описания принципиально новых открытий; утверждения, изложенные в этих работах, основаны на строгих теоремах или надежных экспериментальных свидетельствах, а не на интуиции. При этом обоснованность сделанных выводов подтверждается на реальных практических приложениях, а не на игрушечных примерах. Появление искусственного интеллекта отчасти стало результатом усилий по преодолению ограничений таких существующих научных областей, как теория управления и статистика, но теперь искусственный интеллект включил в себя и эти области. В одной из своих работ Дэвид Макаллестер выразил эту мысль следующим образом.

В ранний период развития искусственного интеллекта казалось вероятным, что в результате появления новых форм символических вычислений, например фреймов и семантических сетей, основная часть классической теории станет устаревшей. Это привело к определенной форме самоизоляции, характеризовавшейся тем, что искусственный интеллект в значительной степени отделился от остальной части компьютерных наук. В настоящее время такой изоляционизм преодолен. Появилось признание того, что машинное обучение не следует отделять от теории информации, что проведение рассуждений в условиях неопределенности нельзя изолировать от стохастического моделирования, что поиск не следует рассматривать отдельно от классической оптимизации и управления и что автоматизированное формирование рассуждений не должно трактоваться как независимое от формальных методов и статистического анализа.

С точки зрения методологии искусственный интеллект наконец-то твердо перешел на научные методы. Теперь, для того чтобы быть принятыми, гипотезы должны подвергаться проверке в строгих практических экспериментах, а значимость результатов должна подтверждаться данными статистического анализа. Кроме того, в настоящее время имеется возможность воспроизводить эксперименты с помощью Internet, а также совместно используемых репозитариев тестовых данных и кода.

Именно по этому принципу развивается область распознавания речи. В 1970-е годы было опробовано широкое разнообразие различных архитектур и подходов. Многие из них оказались довольно надуманными и недолговечными и были продемонстрированы только на нескольких специально выбранных примерах. В последние годы доминирующее положение в этой области заняли подходы, основанные на использовании скрытых Марковских моделей. Описанное выше современное состояние искусственного интеллекта подтверждается двумя особенностями моделей НММ.

Во-первых, они основаны на строгой математической теории. Это позволяет исследователям речи использовать в своей работе математические результаты, накопленные в других областях за несколько десятилетий.

Во-вторых, они получены в процессе обучения программ на крупном массиве реальных речевых данных. Это гарантирует обеспечение надежных показателей производительности, а в строгих слепых испытаниях модели НММ неизменно улучшают свои показатели. Технология распознавания речи и связанная с ней область распознавания рукописных символов уже совершают переход к созданию широко применяемых индустриальных и потребительских приложений. Нейронные сети также следуют этой тенденции. Основная часть работ по нейронных сетям, осуществленных в 1980-х годах, была проведена в попытке оценить масштабы того, что должно быть сделано, а также понять, в чем нейронные сети отчаются от “традиционных” методов.

В результате использования усовершенствованной методологии и теоретических основ исследователи в этой области достигли кого уровня понимания, что теперь нейронные сети стали сопоставимыми с соответствующими технологиями из области статистики, распознавания образов и машинного обучения, а наиболее перспективная методология может быть применена к каждому из этих приложений.

В результате этих разработок была создана так называемая технология анализа скрытых закономерностей в данных (data mining ), которая легла в основу новой, быстро растущей отрасли информационной индустрии. Знакомство широких кругов специалистов с работами Джуди Перла привело к признанию важности теории вероятностей и теории решений для искусственного интеллекта, что последовало за возрождением интереса к этой теме. Для обеспечения эффективного представления неопределенных знаний и проведения на их основе строгих рассуждений были разработаны формальные средства байесовских сетей. Этот подход позволил преодолеть многие проблемы систем вероятностных рассуждений, возникавшие в 1960—1970-х гг.; теперь он стал доминирующим в таких направлениях исследований искусственного интеллекта, как формирование рассуждений в условиях неопределенности и экспертные системы. Данный подход позволяет организовать обучение на основе опыта и сочетает в себе лучшие достижения классического искусственного интеллекта и нейронных сетей. В работах Джуди Перла, а также

Эрика Горвица и Дэвида Хекермана была развита идея нормативных экспертных систем. Таковыми являются системы, которые действуют рационально, в соответствии с законами теории решений, а не пытаются имитировать мыслительные этапы в работе людей - экспертов. Операционная система Windows включает несколько нормативных диагностических экспертных систем, применяемых для устранения нарушений в работе. Аналогичные бескровные революции произошли в области робототехники, компьютерного зрения и представления знаний. Благодаря лучшему пониманию исследовательских задач и свойств, обусловливающих их сложность, в сочетании с всевозрастающим усложнением математического аппарата, удалось добиться формирования реальных планов научных исследований и перейти к использованию более надежных методов. Но во многих случаях формализация и специализация привели также к фрагментации направлений, например, такие темы, как машинное зрение и робототехника, все больше отделяются от “основного направления” работ по искусственному интеллекту. Снова добиться объединения этих разрозненных областей можно на основе единого взгляда на искусственный интеллект как науку проектирования рациональных агентов.

Появление подхода, основанного на использовании интеллектуальных агентов (период с 1995 года по настоящее время)

Вдохновленные успехами в решении указанных проблем искусственного интеллекта, исследователи также вновь приступили к решению проблемы “целостного агента”. Наиболее широко известным примером создания полной архитектуры агента является работа Аллена Ньюэлла, Джона Лэрда и Пола Розенблума над проектом Sоаг. Для того чтобы проще было разобраться в работе агентов, внедренных в реальную среду с непрерывным потоком сенсорных входных данных, были применены так называемые ситуационные движения. Одним из наиболее важных примеров среды для интеллектуальных агентов может служить Internet. Системы искусственного интеллекта стали настолько распространенными в приложениях для Web, что суффикс “-бот” (сокращение от робот) вошел в повседневный язык. Более того, технологии искусственного интеллекта легли в основу многих инструментальных средств Internet, таких как машины поиска, системы, предназначенные для выработки рекомендаций, и системы создания Web-узлов.

Одним из следствий попыток создания полных агентов стало понимание того, что ранее изолированные подобласти искусственного интеллекта могут потребовать определенной реорганизации, когда возникнет необходимость снова связать воедино накопленные в них результаты. В частности, теперь широко признано, что сенсорные системы (системы машинного зрения, эхолокации, распознавания речи и т.д.) не способны предоставить абсолютно надежную информацию о среде. Поэтому системы проведения рассуждений и планирования должны быть приспособленными к работе в условиях неопределенности. Вторым важным следствием изменения взглядов на роль агентов является то, что исследования в области искусственного интеллекта теперь необходимо проводить в более тесном контакте с другими областями, такими как теория управления и экономика, которые также имеют дело с агентами.

К сожалению, не удалось найти аналогичную западному описанию историю развития искусственного интеллекта в нашей стране, хотя она также увлекательна и интересна, как и западная, это описание ещё ждёт своих авторов, но упомянуть имена тех, кто развивал теорию ИИ в нашей стране просто необходимо. В СССР, а затем и в России, со становлением и развитием ИИ связывают имена А.А. Ляпунова, А.И. Берга, Г.С. Поспелова, М.Л. Цетлина, ММ. Бонгарда, М.А. Гаврилова, А.П. Ершова, В.Н. Пушкина, Л.Т. Кузина, А.С. Нариньяни, А.И. Половинкина, В.В. Чавчанидзе, В.К. Финна, Э.В. Попова, Э.Х. Тьиугу, Н.Н. Непейводы, И.П. Кузнецова, О.И. Ларичева, А.И. Галушкина, А.Н. Горбаня, А.В. Чечкина и многих других. Следует отметить исключительную роль д.А. Поспелова и его научной школы: В.Н. Вагина, Т.А. Гавриловой, А.П. Еремеева, Г.С. Осипова, В.Ф. Хорошевского и др.

 

 




Поделиться с друзьями:


Дата добавления: 2015-06-27; Просмотров: 686; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.014 сек.