Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Генетико-прогностическое описание НС




Техническая реализация НС

Сегодня, как и сто лет назад, несомненно, что мозг работает более эффективно и принципиально другим образом, чем любая вычислительная машина, созданная человеком. Именно этот факт в течение стольких лет побуждает и направляет работы ученых всего мира по созданию и исследованию искусственных нейронных сетей (ИНС).

К первым попыткам раскрыть секрет высокой эффективности мозга можно отнести работу Рамон-и-Кахаля (1911), в которой была высказана идея о нейроне как структурной единице мозга. Однако нейрон имеет на 5-6 порядков меньшую скорость срабатывания, чем полупроводниковый логический элемент. Как показали более поздние исследования, секрет высокой производительности мозга заключается в огромном количестве нейронов и массивных взаимосвязях между ними.

Сеть нейронов, образующая человеческий мозг, представляет собой высокоэффективную, комплексную, нелинейную, существенно параллельную систему обработки информации. Она способна организовать свои нейроны таким образом, чтобы реализовать восприятие образа, его распознание или управление движением, во много раз быстрее, чем эти задачи будут решены самыми современными компьютерами.

ИНС является упрощенной моделью мозга. Она строится на основе искусственных нейронов, которые обладают тем же основным свойством, что и живые: пластичностью. Использование структуры мозга и пластичности нейронов делает ИНС универсальной системой обработки информации. В общем случае ИНС - это машина, моделирующая способ работы мозга. Обычно ИНС реализуются в виде электронных устройств или компьютерных программ. Среди многих можно выделить определение ИНС как адаптивной машины, данное в: искусственная нейронная сеть - это существенно параллельно распределенный процессор, который обладает естественной склонностью к сохранению опытного знания и возможностью предоставления его нам. Она сходна с мозгом в двух аспектах: знание приобретается сетью в процессе обучения, для сохранения знания используются силы межнейронных соединений, называемые также синаптическими весами.

Процедура, используемая для осуществления процесса обучения, называется алгоритмом обучения. Ее функция состоит в модификации синаптических весов ИНС определенным образом так, чтобы она приобрела необходимые свойства.

Модификация весов является традиционным способом обучения ИНС. Такой подход близок к теории адаптивных линейных фильтров, которые уже давно и успешно применяются в управлении. Однако для ИНС существует еще и возможность модификации собственной топологии, основывающаяся на том факте, что в живом мозге нейроны могут появляться, умирать и менять свои связи с другими нейронами.

Из сказанного выше становится ясно, что ИНС реализуют свою вычислительную мощь, благодаря двум основным своим свойствам: существенно параллельно распределенной структуре и способности обучаться и обобщать полученные знания. Под свойством обобщения понимается способность ИНС генерировать правильные выходы для входных сигналов, которые не были учтены в процессе обучения (тренировки). Эти два свойства делают ИНС системой переработки информации, которая решает сложные многомерные задачи, непосильные другим информационным технологиям.

 

Если опустить чисто биологический этап, то можно сказать, что современная эпоха развития ИНС началась в 1943 году с пионерской работы Мак-Каллока и Питтса. В этой работе Мак-Каллок и Питтс ввели понятие «порогового логического нейрона» и описали логическую модель ИНС.

В 1948 году была опубликована известная книга Винера «Кибернетика», описывающая ряд важных концепций управления. В более поздних изданиях в нее были добавлены разделы, посвященные обучению, самоорганизации и нейрокибернетике.

Следующим событием, продвинувшим развитие ИНС, стал выход в свет книги Хебба, в которой впервые было представлено физиологическое обучающее правило модификации синапсов. Хебб предположил, что соединения в мозге непрерывно меняются по мере того, как организм обучается новым функциональным задачам, и что таким образом создаются нейронные ансамбли. Хебб следовал сделанному ранее предположению Рамон-и-Кахаля и ввел «постулат обучения», который гласит, что эффективность (усиление) переменного синапса между двумя нейронами увеличивается в процессе повторяющейся активации одного нейрона другим через этот синапс.

Книга Хебба стала настоящим источником вдохновения для создания обучающихся и адаптивных систем. Работы Рочестера, Холланда, Хейбта и Дуде в 1956 г. были первыми попытками использовать компьютерное моделирование для тестирования теории ИНС, базирующейся не на постулате обучения Хебба. Полученные ими результаты показали, что не только активация, но и торможение должны присутствовать в процессе обучения. В тот же год Уитли продемонстрировал, что ИНС с модифицируемыми синапсами может быть обучена классифицировать простые наборы бинарных шаблонов по соответствующим классам. В более поздней своей работе Уитли также выдвинул гипотезу о том, что эффективность переменного синапса в нервной системе зависит от статистических взаимоотношений между изменяющимися состояниями с обеих сторон от синапса, тем самым, проведя связь с информационной теорией Шеннона.

В 1952 году вышла в свет книга Эшби «Design for a Brain: The Origin of Adaptive Behavior». Одна из главных идей этой книги состоит в том, что адаптивное поведение живых систем не является наследственным, а скорее появляется в процессе обучения, и что обычно в процессе обучения поведение живых систем улучшается.

Важным моментом в истории ИНС было написание Минским в 1954 году докторской диссертации, посвященной ИНС. В 1961 году он опубликовал статью «Steps Toward Artificial Intelligence», которая была посвящена искусственному интеллекту и содержала большой раздел, посвященный тому, что сейчас называют ИНС.

Необходимо отметить огромную важность работ фон Неймана по созданию цифровых компьютеров для развития всего кибернетического направления. Особое значение для теории ИНС имела его идея избыточности, которая подтолкнула Винограда и Коуэна (1963) к созданию распределенного избыточного представления ИНС.

Примерно 15 лет спустя появления эпохальной статьи Мак-Каллока и Питтса, в 1958 году Розенблатт в своей работе, посвященной перцептрону, предложил новый подход к решению задачи распознания шаблонов. В ней он ввел так называемую теорему о сходимости перцептрона, доказательство которой появилось лишь в 1960 году. В 1960 Видроу и Хофф предложили метод наименьших квадратов и использовали его для описания Adaline. Основное различие между перцептроном и Adaline лежало в процедурах их обучения.

Одной из первых обучаемых ИНС со слойной структурой был Madaline, предложенный Видроу и его студентами в 1962 г.. Не менее важным событием было введение в 1967 Коуэн сигмоидальной активационной функции для модели логического нейрона.

В течение классического периода перцептрона 60-х годов казалось, что ИНС могут делать все. Однако в 1969 вышла книга Минского и Пейперта, в которой строго математически было доказано существование фундаментальных ограничений возможностей однослойного перцептрона. Также было показано, что однослойная сеть любой размерности не может решать задачи доступные многослойным конфигурациям.

Для многослойных перцептронов десятилетие 70-х не принесло ничего нового. Это было связано отчасти с низким уровнем финансирования работ, отчасти с отсутствием персональных компьютеров. Негативное влияние оказало также не подтвердившееся позже мнение об аналогии между спиновыми стеклами и ИНС. С другой стороны, в это же время были получены значительные результаты в развитии самоорганизующихся карт на базе соревновательного обучения. В 1976 году фон Мальсбург и Вильшоу опубликовали первую работу по самоорганизующимся картам, продемонстрировав действующую самоорганизующуюся ИНС.

С начала 80-х наступил новый период в развитии ИНС. Основными событиями были разработка Хопфилдом ИНС с полностью связанной структурой и оригинальным алгоритмом настройки весов. В 1982 в продолжение исследований фон Мальсбурга выходит работа Кохонена, посвященная самоорганизующимся картам. Но настоящий прорыв в применении ИНС для решения практических задач (в том числе и управления) был сделан после того, как в 1986 году Румельхарт, Хинтон и Вильямс описали алгоритм обратного распространения. Это был первый эффективный алгоритм обучения многослойных перцептронов любой структуры (и, как оказалось позже, не только их).

Интересно, что в еще 1985 г. независимо вышли две работы Паркера и Ле-Кана [с описанием алгоритма обратного распространения. Однако оказалось, что впервые этот алгоритм был детально описан в 1974 в докторской диссертации Вербоса. К сожалению, тогда на него никто не обратил внимания, и потребовалось более десяти лет, чтобы эта простая, но изящная схема была переоткрыта.

В 1988 г. произошло последнее на сегодняшний день крупное открытие в теории ИНС, связанное с введением Брумхедом и Лоуе РБФ-сетей. Это - альтернативная многослойному перцептрону схема слойной прямонаправленной сети, использующая скрытые нейроны с радиально-базисной активационной функцией. Идея радиально-базисных функции связана с методом потенциальных функций, предложенным в 1964 г. Башкировым, Браверманом и Мучником. В своих работах Брумхед и Лоуе не только предложили новый метод синтеза ИНС, но и уделили огромное внимание установлению связей между ИНС и классическими методами численного анализа, а также теорией линейных адаптивных фильтров.

 

В общем случае понятие “искусственная нейронная сеть” охватывает ансамбли нейронов любой структуры, однако практическое применение нашли только некоторые из них. Это объясняется тем, что архитектура ИНС непосредственно связана с методом ее обучения. Даже различные этапы развития ИНС определялись появлением новых архитектур сетей и специально разработанных для них методов обучения.

Искусственный нейрон (или просто нейрон) является элементарным функциональным модулем, из которых строятся ИНС. Он представляет собой модель живого нейрона в смысле осуществляемых им преобразований, а не способа функционирования. Существуют логические, непрерывные и импульсные модели нейрона. Логические модели нейрона (в частности, описываемый картой Вена формальный нейрон) активно исследовались в 60-70-х годах, но не получили дальнейшего развития. Импульсные модели более близки к физической природе процессов, происходящих в нервной клетке, однако их теория не так развита как у непрерывных, и они все еще не находят широкого применения.

Искусственный (формальный) нейрон состоит из нескольких функциональных элементов. Адаптивный сумматор вычисляет скалярное произведение вектора входного сигнала на вектор параметров. Адаптивным он называется из-за наличия вектора настраиваемых параметров. Для многих задач полезно иметь линейную неоднородную функцию выходных сигналов, для этого добавляют постоянный единичный входной сигнал.

Нелинейный преобразователь сигнала - получает скалярный входной сигнал и соответствующим образом его преобразовывает.

Точка ветвления служит для рассылки одного сигнала по нескольким адресам. Она получает скалярный входной сигнал и передает его всем своим выходам.

Формальный нейрон

 

Формальный нейрон реализует передаточную функцию:

 

(1.1)
Где -сигмоидальная функция активации, - величина порога (1.2)

 

Из формальных нейронов можно составлять слои нейронов, которые в свою очередь можно объединять в многослойные сети. Нейроны входного слоя получают сигналы, преобразуют их и через точки ветвления передают нейронам скрытого слоя. Далее срабатывает следующий слой вплоть до выходного, который выдает сигналы для интерпретатора и пользователя. Каждый вывод нейронов любого слоя подается на вход всех нейронов следующего слоя. Число нейронов в слое может быть любым.

 

Искусственная нейронная сеть

 

 

 

 

3.5.1. Эволюция развития нейронных сетей и перспективы их развития.

Имеется множество размышлений о природе мышления, простирающихся от духовных до анатомических. Обсуждение этого вопроса, протекавшее в горячих спорах философов и теологов с физиологами и анатомами, принесло мало пользы, так как сам предмет весьма труден для изучения. Те, кто опирался на самоанализ и размышление, пришли к выводам, не отвечающим уровню строгости физических наук. Экспериментаторы же пришли к выводу, что мозг труден для наблюдения. В итоге мощные методы научного исследования, изменившие взгляд на физическую реальность, оказались бессильными в понимании самого человека.

Но нейробиологи и нейроанатомы достигли значительного прогресса. Усердно изучая структуру и функции нервной системы человека, они многое поняли в принципах прохождение электрических зарядов в головном мозге, но мало узнали о его функционировании. В процессе накопления ими знаний выяснилось, что мозг имеет ошеломляющую сложность. Сотни миллиардов нейронов, каждый из которых соединен с сотнями или тысячами других, образуют систему, далеко превосходящую самые смелые представления о суперкомпьютерах.

Лучшее понимание функционирования нейрона и картины его связей позволило исследователям создать математические модели для проверки своих теорий. В первых же работах выяснилось, что эти модели не только повторяют функции мозга, но и способны выполнять функции, имеющие свою собственную ценность. Поэтому возникли и остаются в настоящее время две взаимно обогащающие друг друга цели нейронного моделирования: первая – понять функционирование нервной системы человека на уровне физиологии и психологии и вторая – создать вычислительные системы (искусственные нейронные сети), выполняющие функции, сходные с функциями мозга.

Параллельно с прогрессом в нейроанатомии и нейрофизиологии психологами были созданы модели человеческого обучения. Одной из таких моделей, оказавшейся наиболее плодотворной, была модель Д. Хэбба, который в 1949г. предложил закон обучения, явившийся стартовой точкой для алгоритмов обучения искусственных нейронных сетей. Дополненный сегодня множеством других методов он продемонстрировал ученым того времени, как сеть нейронов может обучаться.

В пятидесятые и шестидесятые годы группа исследователей, объединив эти биологические и физиологические подходы, создала первые искусственные нейронные сети. Выполненные первоначально как электронные сети, они были позднее перенесены в более гибкую среду компьютерного моделирования, сохранившуюся и в настоящее время.

Первые успехи вызвали взрыв активности и оптимизма. Минский, Розенблатт, Уидроу внесли свои имена в историю нейронных сетей, разработав первые модели, состоящие из одного слоя искусственных нейронов. Часто называемые персептронами, они были использованы для такого широкого класса задач, как предсказание погоды, анализ электрокардиограмм и искусственное зрение. В течение некоторого времени казалось, что ключ к интеллекту найден, и воспроизведение человеческого мозга является лишь вопросом конструирования достаточно большой сети.

Но эта иллюзия скоро рассеялась. Сети не могли решать задачи, внешне весьма сходные с теми, которые они успешно решали. С этих необъяснимых неудач начался период интенсивного анализа. Минский, используя точные математические методы, строго доказал ряд теорем, относящихся к функционированию сетей. Его исследования привели к написанию книги, в которой он вместе с Пайпертом доказал, что используемые в то время однослойные сети теоретически неспособны решить многие простые задачи, в том числе реализовать функцию «исключающее ИЛИ». Результаты Минского и Пейперта погасили энтузиазм большинства исследователей, особенно тех, кто работал в области вычислительных наук. Возникшее в исследованиях по нейронным сетям затишье продлилось почти 20 лет.

С начала 80-х годов искусственные нейронные сети вновь привлекли интерес исследователей, что связано с энергетическим подходом Хопфилда и алгоритмом обратного распространения для обучения многослойного перцептрона (многослойные сети прямого распространения), впервые предложенного Вербосом и независимо разработанного рядом других авторов. Алгоритм получил известность благодаря Румельхарту, а в 1986 году Андерсон и Розенфельд подготовили подробную историческую справку о развитии ИНС.

Имеется много впечатляющих демонстраций возможностей искусственных нейронных сетей: сеть научили превращать текст в фонетическое представление, которое затем с помощью уже иных методов превращалось в речь; сеть может распознавать рукописные буквы; сконструирована система сжатия изображений, основанная на нейронной сети. Все они используют сеть обратного распространения - наиболее успешный, по-видимому, из современных алгоритмов. Обратное распространение является систематическим методом для обучения многослойных сетей, и тем самым преодолевает ограничения, указанные Минским. Но и алгоритм обратного распространения имеет свои недостатки. Прежде всего, нет гарантии, что сеть может быть обучена за конечное время. Много усилий, израсходованных на обучение, пропадает напрасно после затрат большого количества машинного времени. Когда это происходит, попытка обучения повторяется - без всякой уверенности, что результат окажется лучше. Нет также уверенности, что сеть обучится наилучшим образом. Алгоритм обучения может попасть в «ловушку» так называемого локального минимума и будет получено худшее решение. Разработано много других сетевых алгоритмов обучения, имеющих свои специфические преимущества. Следует подчеркнуть, что все сети имеют ограничения в своих возможностях обучаться и вспоминать.

Для улучшения существующих сетей требуется много основательной работы. Должны быть развиты новые технологии, улучшены существующие методы и расширены теоретические основы, прежде чем данная область сможет полностью реализовать свои потенциальные возможности. Искусственные нейронные сети предложены для задач, простирающихся от управления боем до присмотра за ребенком. Наиболее перспективными являются те, где человеческий интеллект малоэффективен, а обычные вычисления трудоемки или неадекватны. Искусственные нейронные сети являются важным расширением понятия вычисления. Они обещают создание автоматов, выполняющих функции, бывшие ранее исключительной прерогативой человека. Машины могут выполнять скучные, монотонные и опасные задания, и с развитием технологии возникнут совершенно новые приложения. Но прежде чем искусственные нейронные сети можно будет использовать там, где поставлены на карту человеческая жизнь или ценное имущество, должны быть решены вопросы, относящиеся к их надежности.

 

3.5.2. Искусственный интеллект.

Наука под названием «искусственный интеллект» входит в комплекс компьютерных наук, а создаваемые на ее основе технологии относятся к информационным технологиям.

Задачей этой науки является обеспечение разумных рассуждений и действий с помощью вычислительных систем и иных искусственных устройств.

На этом пути возникают следующие главные трудности:

а) в большинстве случаев до получения результата не известен алгоритм решения задачи. Например, точно неизвестно, как происходит понимание текста, поиск доказательства теоремы, построение плана действий, узнавание изображения.

б) искусственные устройства (например, компьютеры) не обладают достаточным уровнем начальной компетентности. Специалист же добивается результата, используя свою компетентность (в частности, знания и опыт).

Это означает, что искусственный интеллект представляет собой экспериментальную науку. Экспериментальность искусственного интеллекта состоит в том, что создавая те или иные компьютерные представления и модели, исследователь сравнивает их поведение между собой и с примерами решения тех же задач специалистом, модифицирует их на основе этого сравнения, пытаясь добиться лучшего соответствия результатов.

Чтобы модификация программ «монотонным» образом улучшала результаты, надо иметь разумные исходные представления и модели. Их доставляют психологические исследования сознания, в частности, когнитивная психология.

Важная характеристика методов искусственного интеллекта – он имеет дело только с теми механизмами компетентности, которые носят вербальный характер (допускают символьное представление). Далеко не все механизмы, которые использует для решения задач человек, таковы.

5.5.2.1. История искусственного интеллекта

Можно считать, что история искусственного интеллекта начинается с момента создания первых ЭВМ в 40-х г.г. С появлением электронных вычислительных машин, обладающих высокой (по меркам того времени) производительностью, стали возникать первые вопросы в области искусственного интеллекта: возможно ли создать машину, интеллектуальные возможности которой были тождественны интеллектуальным возможностям человека (или даже превосходили возможности человека).

Следующим этапом в истории искусственного интеллекта являются 50-е годы, когда исследователи пытались строить разумные машины, имитируя мозг. Эти попытки оказались безуспешными по причине полной непригодности, как аппаратных, так и программных средств. В 1956 г. состоялся семинар в Стэнфордском университете (США), где был впервые предложен термин искусственный интеллект – artificial intelligence.

60-е года в истории искусственного интеллекта отметились попытками отыскать общие методы решения широкого класса задач, моделируя сложный процесс мышления. Разработка универсальных программ оказалась слишком трудным и бесплодным делом. Чем шире класс задач, которые может решать одна программа, тем беднее оказываются ее возможности при решении конкретной проблемы. В этот период началось зарождение эвристического программирования. Эвристика – правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска. Эвристическое программирование – разработка стратегии действий по аналогии или прецедентам. 50-60 г.г. в истории искусственного интеллекта можно отметить как время поиска универсального алгоритма мышления.

 

В 1954 году американский исследователь А.Ньюэлл (A.Newel) решил написать программу для игры в шахматы. Этой идеей он поделился с аналитиками корпорации «РЭНД» (RAND Corporation) Дж. Шоу и Г.Саймоном, которые предложили Ньюэллу свою помощь. В качестве теоретической основы такой программы было решено использовать метод, предложенный в 1950 году Клодом Шенноном, основателем теории информации. Точная формализация этого метода была выполнена Аланом Тьюрингом. Он же промоделировал его вручную.

К работе была привлечена группа голландских психологов под руководством А. Де Гроота, изучавших стили игры выдающихся шахматистов. Через два года совместной работы этим коллективом был создан язык программирования ИПЛ1 - по-видимому первый символьный язык обработки списков. Вскоре была написана и первая программа, которую можно отнести к достижениям в области искусственного интеллекта. Эта была программа «Логик-Теоретик» (1956 г.), предназначенная для автоматического доказательства теорем в исчислении высказываний.

Собственно же программа для игры в шахматы, NSS, была завершена в 1957 г. В основе ее работы лежали эвристики, т.е правила, которые позволяют сделать выбор при отсутствии точных теоретических оснований и описания целей. Управляющий алгоритм пытался уменьшить различия между оценками текущей ситуации и оценками цели или одной из подцелей.

В 1960 г. той же группой, на основе принципов, использованных в NSS, была написана программа, которую ее создатели назвали GPS (General Problem Solver)- универсальный решатель задач. GPS могла справляться с рядом головоломок, вычислять неопределенные интегралы, решать некоторые другие задачи. Эти результаты привлекли внимание специалистов в области вычислений. Появились программы автоматического доказательства теорем из планиметрии и решения алгебраических задач.

Джона Маккарти из Стэнфорда заинтересовали математические основы этих результатов и вообще символьных вычислений. В результате в 1963 г. им был разработан язык ЛИСП (LISP, от List Processing), основу которого составило использование единого спискового представления для программ и данных, применение выражений для определения функций, скобочный синтаксис.

Существенный прорыв в практических приложениях искусственного интеллекта произошел в 70-х гг., когда на смену поискам универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов. В США появились первые коммерческие системы, основанные на знаниях, или экспертные системы. Пришел новый подход к решению задач искусственного интеллекта – представление знаний. Созданы «MYCIN» и «DENDRAL» – ставшие уже классическими экспертные системы для медицины и химии. Обе эти системы в определенном смысле можно назвать диагностическими, поскольку в первом случае («MYCIN») по ряду симптомов (признаков патологии организма) определяется болезнь (ставится диагноз), во втором – по ряду свойств определяется химическое соединение. В принципе, этот этап в истории искусственного интеллекта можно назвать рождением экспертных систем.

Следующий значимый период в истории искусственного интеллекта – это 80-е года. На этом отрезке искусственный интеллект пережил второе рождение. Были широко осознаны его большие потенциальные возможности, как в исследованиях, так и в развитии производства. В рамках новой технологии появились первые коммерческие программные продукты. В это время стала развиваться область машинного обучения. До этих пор перенесение знаний специалиста-эксперта в машинную программу было утомительной и долгой процедурой. Создание систем, автоматически улучшающих и расширяющих свой запас эвристических (не формальных, основанных на интуитивных соображениях) правил – важнейший этап в последние годы. В начале десятилетия в различных странах были начаты крупнейшие в истории обработки данных, национальные и международные исследовательские проекты, нацеленные на «интеллектуальные вычислительные системы пятого поколения».

Сегодняшнее состояние исследований в этой области можно охарактеризовать словами одного из известных специалистов в области искусственного интеллекта, профессора Н.Г. Загоруйко:

«Дискуссии на тему «Может ли машина мыслить?» уже давно сошли со страниц газет и журналов. Скептики устали ждать, когда же сбудутся обещания энтузиастов. А энтузиасты без лишних разговоров, небольшими шагами продолжают двигаться в направлении горизонта, за которым они надеются увидеть искусственного собрата по разуму».

3.5.2.2. Подходы к пониманию проблемы искусственного интеллекта

Единого ответа на вопрос чем занимается искусственный интеллект, не существует. Почти каждый автор, пишущий об искусственном интеллекте, отталкивается от какого-либо определения, рассматривая в его свете достижения этой науки.

В философии не решён вопрос о природе и статусе человеческого интеллекта. Нет и точного критерия достижения компьютерами «разумности», хотя на заре искусственного интеллекта был предложен ряд гипотез, например, тест Тьюринга или гипотеза Ньюэлла – Саймона. Поэтому несмотря на наличие множества подходов как к пониманию задач ИИ, так и созданию интеллектуальных информационных систем можно выделить два основных подхода к разработке искусственногоинтеллекта:

нисходящий, семиотический – создание экспертных систем, баз знаний и систем логического вывода, имитирующих высокоуровневые психические процессы: мышление, рассуждение, речь, эмоции, творчество и т. д.;

восходящий, биологический – изучение нейронных сетей и эволюционных вычислений, моделирующих интеллектуальное поведение на основе биологических элементов, а также создание соответствующих вычислительных систем, таких как нейрокомпьютер или биокомпьютер.

Последний подход, строго говоря, не относится к науке об искусственном интеллекте Маккарти – их объединяет только общая конечная цель.

Тест Тьюринга и интуитивный подход

Эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале «Mind». Целью данного теста является определение возможности искусственного мышления, близкого к человеческому.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы – ввести человека в заблуждение, заставив сделать неверный выбор». Все участники теста не видят друг друга.

Самый общий подход предполагает, что искусственный интеллект будет способен проявлять поведение, не отличающееся от человеческого, причём, в нормальных ситуациях. Эта идея является обобщением подхода теста Тьюринга, который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).

Писатели-фантасты часто предлагают ещё один подход: искусственный интеллект возникнет тогда, когда машина будет способна чувствовать и творить. Так, хозяин Эндрю Мартина из «Двухсотлетнего человека«начинает относиться к нему как к человеку, когда тот создаёт игрушку по собственному проекту. А Дейта из Звёздного пути, будучи способным к коммуникации и научению, мечтает обрести эмоции и интуицию.

Символьный подход

Исторически символьный подход был первым в эпоху цифровых машин, так как именно после создания Лисп, первого языка символьных вычислений, у его автора возникла уверенность в возможности практически приступить к реализации этими средствами интеллекта. Символьный подход позволяет оперировать слабоформализованными представлениями и их смыслами. От умения выделить только существенную информацию зависит эффективность и результативность решения задачи.

Но широта классов задач, эффективно решаемых человеческим разумом, требует невероятной гибкости в методах абстрагирования. А это недоступно при любом инженерном подходе, в котором исследователь выбирает методы решения, основываясь на способность быстро дать эффективное решение какой-то наиболее близкой этому исследователю задачи. То есть уже за реализованную в виде правил единственную модель абстрагирования и конструирования сущностей. Это выливается в значительные затраты ресурсов для непрофильных задач, то есть система от интеллекта возвращается к грубой силе на большинстве задач и сама суть интеллекта исчезает из проекта.

Основное применение символьной логики – это решение задач по выработке правил. Большинство исследований останавливается как раз на невозможности хотя бы обозначить новые возникшие трудности средствами выбранных на предыдущих этапах символьных системах. Тем более решить их и тем более обучить компьютер решать их или хотя бы идентифицировать и выходить из таких ситуаций.

Логический подход

Логический подход к созданию систем искусственного интеллекта направлен на создание экспертных систем с логическими моделями баз знаний с использованием языка предикатов.

Учебной моделью систем искусственного интеллекта в 1980-х годах был принят язык и система логического про жающей среде с помощью исполнительных механизмов.

Этот подход акцентирует внимание на тех методах и алгоритмах, которые помогут интеллектуальному агенту выживать в окружающей среде при выполнении его задачи. Так, здесь значительно сильнее изучаются алгоритмы граммирования Пролог. Базы знаний, записанные на языке Пролог, представляют наборы фактов и правил логического вывода, записанных на языке логических предикатов.

Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщенные сведения с помощью правил и процедур логического вывода и в том числе логических правил определения понятий, выражающих определённые знания как конкретные и обобщенные сведения.

В целом исследования проблем искусственного интеллекта в рамках логического подхода к проектированию баз знаний и экспертных систем направлено на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы обучения студентов и школьников, а также подготовки пользователей и разработчиков таких интеллектуальных информационных систем.

Агентно-ориентированный подход

Последний подход, развиваемый с начала 1990-х годов называется агентно-ориентированным подходом, или подходом, основанным на использовании интеллектуальных (рациональных) агентов. Согласно этому подходу, интеллект – это вычислительная часть способности достигать поставленных перед интеллектуальной машиной целей. Сама такая машина будет интеллектуальным агентом, воспринимающим окружающий его мир с помощью датчиков, и способной воздействовать на объекты в окру поиска пути и принятия решений.

Гибридный подход

Гибридный подход предполагает, что только синергетическая комбинация нейронных и символьных моделей достигает полного спектра когнитивных и вычислительных возможностей. Например, экспертные правила умозаключений могут генерироваться нейронными сетями, а порождающие правила получают с помощью статистического обучения. Сторонники данного подхода считают, что гибридные информационные системы будут значительно более сильными, чем сумма различных концепций по отдельности.

 


 




Поделиться с друзьями:


Дата добавления: 2014-12-29; Просмотров: 868; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.