Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Оптимального управления 12 страница




где b — синапшческий коэффициент обратной связи; y(t — 1) значение выходного сигнала нейрона в момент времени (t - 1); п — число входов нейрона. Для двухслойной сети, имеющей N нейронов во втором слое и К нейронов в первом, математическая модель имеет вид:

' N К

y(t) = f.2

X «I* (** + ьхкхк (t -1))+

Ы

Ы1

\

N,K

+ lb2iy(t-1) i=i

(3.12)

+ X bmy{i-l)

здесь Ьш — синаптические коэффициенты обратной связи с выходов нейронов второго слоя на входы нейронов первого слоя; Ь2. — коэффициенты обратной связи с выходов нейронов второго слоя на входы нейронов второго слоя; blk — коэффициенты обратной связи нейронов первого слоя. Остальные обозначения такие же, как в выражениях (3.8) и (3.9). Синаптические коэффициенты обратных связей могут быть как положительными, так и отрицательными.

 

Входной слой Скрытый слой Выходной слой

Рис. 3.23. Пример двухслойной сети прямого распространения

 

Входные сигналы HP целесообразно нормализовать, приводя к диапазону [—1,1 ].

Известно достаточно большое количество вариантов акти- вационных функций, но, учитывая, что на вход HP поступают величины со знаком — ошибки управления, их интегралы и производные, целесообразно применять один из двух вариантов активационной функции:

линейная с насыщением функция (рис. 3.21 (а)); гиперболический тангенс (рис. 3.21 (б)). Поскольку выход нейрона лежит в пределах [—1, 1], сигнал выходного слоя HP умножается на модуль максимального значения сигнала управления (рис. 3.23).

Нужно подчеркнуть, что в настоящее время не существует точных рекомендаций для решения задачи синтеза HP. Более того, ИР в соответствии со структурой рис. 3.22 может рассматриваться как обратная модель объекта управления, и предварительная оценка необходимого числа слоев и количества нейронов в каждом слое едва ли возможна для сложных объектов, каждый из которых имеет свои особенности поведения.

При конструировании нейронных регуляторов разработчик имеет, как правило, следующие исходные данные: размерность вектора входного сигнала(ов);

размерность вектора выходного сигнала(ов); формулировку решаемой задачи; точность решения задачи. При этом он должен определить и назначить: вид топологии сети;

общее число нейронов в сети и число нейронов по слоям; вид функции активации нейронов; способ задания коэффициентов синаптической связи; метод доказательства работоспособности новой сети. Основными этапами методики [38] решения задач в нейро- сетевом базисе могут быть:

1. Математическая постановка задачи.

2. Геометрическая постановка задачи.

3. Нейросетевая постановка задачи:

описание исходных данных;

определение входного сигнала НС;

формирование функционала первичной оптимизации НС при решении поставленной задачи;

определение выходного сигнала НС;

определение желаемого выходного сигнала НС;

определение вектора сигнала ошибки нейронной сети при решении задачи;

формирование функционала вторичной оптимизации НС через сигналы в системе;

выбор метода поиска экстремума функционала вторич ной оптимизации НС;

аналитическое определение преобразования, осуществляемое НС; выбор конкретной структуры сети;

нахождение аналитического выражения для градиента функционала вторичной оптимизации поставленной задачи;

формирование алгоритма настройки НС при решении поставленной задачи;

выбор начальных условий при настройке сети;

выбор типовых входных сигналов для тестирования процесса решения задачи;

разработка плана эксперимента.

Взаимосвязь основных этапов методики представлена на рис. 3.24.

 

Рис. 3.24. Этапы разработки нейронной сети

 

В представленном виде методика является обобщенной. Для решения конкретных задач отдельные ее пункты могут быть опущены или изменены, например, при использовании не градиентных методов оптимизации при обучении НС.

Рассмотрим более подробно технологию настройки НС на решение задачи (рис. 3.25).

Технология настройки НС является итерационной процедурой. Если построенная модель НС не удовлетворяет требованиям пользователя или технического задания, приходится многократно возвращаться к отдельным блокам для уточнения параметров модели.

Необходимость предварительной обработки входных данных (препроцессорной обработки информации) прежде всего связана с тем, что данные, подаваемые на вход нейронной сети, могут быть измерены в различных шкалах.

Шкалой называется кортеж <Е, N, ср>, где Е — некоторая "эмпирическая система" с отношениями Е = {S, R}, в которых S— множество свойств объектов, a R— множество отношений

 

Тестирование Перекрестное оценивание

Формирование и анализ обучающей выборки Фильтрация

Нормирование, центрирование, масштабирование, кодирование

Выбор структуры НС Выбор вида опенки Выбор функции активации

Выбор метода оптимизации Обучение

 

Рис, 3.25. Технология настройки НС на решаемую задачу

между объектами по этим свойствам; N— некоторая знаковая система (обычно числовая), которая может быть представлена в следующем виде: N-M, Рг Ря, где М— множество чисел (например, множество всех действительных чисел), а Р.. — определенные отношения на числах, выбранных так, чтобы с их помощью однозначно отображались соответствующие отношения R из эмпирической системы; ср — конкретный способ отображения Е на N.

Упорядоченная тройка <Е, N, ср> называется абсолютной шкалой, если ее допустимое преобразование является тождественным преобразованием: ф(х) = х. Примером может служить

шкала, опирающаяся на процедуру счета. Результатом измерения при этом является число, выражающее количество элементов в множестве. Если это число заменить другим, то потеряется основная информация о множестве.

Примером шкалы более слабого типа является шкала отношений. Для шкалы отношений допустимым преобразованием данных является умножение их на одно и то же число (масштабирование, например, cp(x) = ах, а > 0). Примером шкалы отношений является шкала для измерения длины, веса, производительности и т. д.

Шкала интервалов допускает положительные линейные преобразования (ф является положительным линейным преобразованием тогда, когда для каждого х: ф(х) = ах + Ь, где Ъ — действительное число, а — положительное действительное число). Это означает, что здесь можно менять как начало отсчета, так и единицы измерения. Примеры шкалы интервалов: шкала для измерения температуры, давления, промежутков времени и т. п.

Шкала порядка — это шкала, допустимым преобразованием которой является произвольное монотонное преобразование, т. е. такое, при котором не изменяется порядок чисел. Количество разных используемых значений чисел в общем случае не ограничено. При измерениях в шкалах такого типа получаем информацию лишь о том, в каком порядке объекты следуют друг за другом по какому-то свойству. Примером может служить шкала, по которой измеряется твердость материала, схожесть объектов, типы алгоритмов решения конкретной задачи, способы диспетчеризации вычислительного процесса и т. д. К этой группе шкал относится большинство шкал, используемых, например, в социологических исследованиях. Частным случаем шкал порядка служат балльные шкалы, используемые, например, в практике спортивного судейства или оценок знаний в школе. Количество баллов, используемых в этих шкалах, фиксировано.

Самой простой шкалой является шкала наименования. Для этих шкал требуется только, чтобы их допустимые преобразования были всего лишь взаимно однозначными. В этих шкалах числа употребляются только с целью придания предметам или объектам имен. Кроме сравнения на совпадение, любые арифметические действия над цифрами, обозначающими имена, бессмыс- ленны. Переменные, представляемые в шкале наименований, называются номинальными.

Рассмотренные выше шкалы не исчерпывают все возможные типы шкал. В зависимости от конкретной задачи можно использовать любую из известных шкал или придумать новую для представления данных. Важно лишь то, что результаты вычислений, получающиеся по ходу решения задачи, должны оставаться инвариантными по отношению ко всем преобразованиям, допустимым для данной шкалы.

Нейронная сеть может обрабатывать только числовые данные. Однако исходные данные, подаваемые на НС, могут включать номинальные переменные, указывающие на принадлежность к одному из нескольких классов, даты, целочисленные значения, текстовые строки, графические данные и т.д., поэтому необходимо кодирование данных. В мощных иностранных универсальных нейропакетах, таких как NeuroSolutions — фирмы Neuro Dimension 1пс.или Neural Works Professional II/Plus — фирмы Neural Ware, поддерживаются основные типы представления данных: текстовые данные в формате ASCII, изображения в формате.bmp и т. д. С целью удобства работы проводят статистическую обработку данных, исключение аномальных наблюдений, а также нормирование и центрирование данных для того, чтобы каждая компонента входного вектора данных лежала на отрезке [0,1] или [—1,1].

При известном диапазоне изменения входной переменной, например, [jtmin, xmax], целесообразно использовать простейший вид преобразования, выполняемый по формуле

Р = (*- я)/(*шах- *nJ + ъ (злз)

где [а, Ь] — диапазон приемлемых входных сигналов; [xmin, xmax] — диапазон изменения значений входной переменной х; р — преобразованный входной сигнал, подаваемый на вход НС.

При кодировании параметров исследуемых объектов необходимо учитывать тип переменных, которые описывают этот объект: непрерывные, дискретные или качественные, количественные.

Качественные переменные (признаки) принимают конечное число значений. Примером качественных признаков может

служить состояние больного (тяжелое, средней тяжести, среднее, удовлетворительное и т. д.), знания студентов по определенному предмету (отличные, хорошие, не очень хорошие, отсутствие каких-либо знаний), характеристика погоды (хорошая, плохая, солнечная, дождливая) и т. п. Если качественная переменная принимает два значения, ее называют бинарной.

Качественные признаки могут быть упорядоченными, частично упорядоченными или неупорядоченными. Соответственно различается и их кодировка. Известно, что любой частично упорядоченный признак можно представить в виде комбинации нескольких упорядоченных и неупорядоченных признаков.

Упорядоченные качественные признаки кодируются в шкале порядка. Поскольку никакие два состояния неупорядоченного признака не связаны отношением порядка, их нельзя кодировать разными величинами одного и того же входного сигнала сети. Поэтому для кодирования неупорядоченных качественных признаков целесообразно использовать шкалу наименований и рассматривать переменные, соответствующие этим признакам, как номинальные. При кодировании количественных перемен-ных, принимающих числовые значения, необходимо учитывать содержательное значение признака, расположение признака в интервале значений, точность измерения его значений.

Стандартные преобразования для каждого элемента исходной выборки Смогут быть выполнены следующим образом:

Х={Х~М{Х))/<5{Х)

или

х = (х. — М(х)Ушах/х - М(х)/п,

п

где х.— /-я координата входного вектора; М(х,) = //riJ^Xj —

/=i

выборочная оценка математического ожидания х. (среднее зна-

Л1/2

чение); а(ху) = среднего квадратичного отклонения

/=1

— выборочная оценка 

Если эти преобразования не делать, то необходимо выбирать пределы изменения параметров нейрона в зависимости от данных. Следовательно, предварительное, до подачи на вход сети, преобразование данных с помощью стандартных статистических приемов может существенно улучшить как параметры обучения (длительность, сложность алгоритма обучения), так и работу системы в целом. Например, очень часто ненормально распределенные данные предварительно подвергают нелинейному преобразованию: исходная совокупность значений переменной преобразуется с помощью некоторой функции, и последовательность данных, полученная на выходе, принимается за новую входную переменную. Типичные способы преобразования входных переменных — возведение в степень, извлечение корня, взятие обратных величин, экспоненты или логарифмов. Часто это уменьшает требования к обучению. Необходимо проявлять осторожность в отношении функций, которые не всюду определены (например, логарифм отрицательных чисел не определен). Для улучшения информационной структуры данных могут оказаться полезными определенные комбинации переменных — произведения, частные, так как это существенно сокращает размерность входных векторов НС.

Основное назначение блока интерпретации ответов сети — интерпретировать выходной вектор сети как ответ, понятный пользователю. При определенном построении интерпретатора и правильно построенной по нему оценке интерпретатор ответа может также оценивать уровень уверенности сети в выданном ответе. Ниже рассматриваются способы интерпретации, получившие наибольшее распространение на практике.

В задачах классификации наиболее распространено правило интерпретации "победитель забирает все": число выходных нейронов равно числу распознаваемых классов, номер нейрона с максимальным сигналом интерпретируется как номер класса. Однако, если классов много, для реализации метода требуется много выходных нейронов.

Знаковая интерпретация требует \og2M нейронов, где М — число классов. Допустим, что yv у2,..., ут — совокупность выходных сигналов нейронов. Заменим в этой последовательности положительные числа единицами, а отрицательные — нулями.

Полученная последовательность нулей и единиц рассматривается как номер класса в двоичной записи.

Порядковая интерпретация позволяет для М выходных нейронов описать принадлежность к М! классам (а в знаковой 2м). Если провести сортировку выходных сигналов нейронов yv yv..., ут и обозначить п. — номер /-го сигнала после сортировки (1 соответствует самому маленькому сигналу, М — самому большому), то перестановку

12 3... М

п, п2 п3 ~ пм

можно рассматривать как слово, кодирующее номер класса. Всего возможно М! перестановок. Для использования этого интерпретатора необходимо, чтобы характерная ошибка выходного сигнала была меньше 1 /М. При этом даже при числе нейронов М ~ 10 требование к точности будет £ < 0,1, а число возможных классифицируемых объектов равно 10!

Интерпретацию 2-на-2-кодирование используют для улучшения качества распознавания (более точного проведения разделяющей поверхности).

В этом случае для распознавания М классов необходимо иметь: М(М — 1)1/2 нейронов, каждый из которых реагирует только на два класса. Окончательное присваивание элементу /-го номера класса осуществляется с помощью булевой функции; выходы с нейронов подают на вход элемента, реализующего эту функцию, Рассмотрим проблему кодирования выхода на примере двумерной задачи с тремя классами (рис. 3.26). С помощью 2-на-2- кодирования задача классификации решается просто, тогда как в методе "победитель забирает все" необходимо строить нелинейные разделяющие границы.

Нечеткая интерпретация для классификаторов также основывается на правиле "победитель забирает все". Выходные сигналы нейронов (после масштабирования — приведения значений в отрезок [0,1]) могут рассматриваться как функции принадлежности к соответствующим классам. В этом случае возможны следующие способы интерпретации:

• выбирается класс, у которого значение выхода является максимальным; достоверность распознавания определяется как 

 

Рис. 3.26. Кодирование выхода:

а — "победитель забирает все"; б — 2-на-2-кодирование

разность максимального сигнала и следующего за ним по величине;

• значения выходов нейронов (классов) интерпретируются как меры уверенности принадлежности к тому или иному классу с указанием наилучшего приближения к какому-то классу.

Перечень приведенных способов интерпретации ответов НС не является полным. Для каждой предметной области при решении конкретных задач необходимо их экспериментальное исследование.

Поскольку обучение НС основывается на минимизации значения некоторой функции, показывающей отклонение результатов, которые выдает сеть на данном обучающем множестве, от идеальных требуемых, то необходимо выбирать соответствующую оценку. Обычно в качестве такой оценки берется средняя квадратичная ошибка £(MSE — Mean Squared Error), определяемая как усредненная на Р примерах сумма квадратов разностей между желаемой величиной выхода dt и реально полученными на сети значениями у. для каждого примера /: 

(3.14)

E-l/р£м-У1)2.

В некоторых случаях удобной является оценка, равная корню квадратному из MSE, обозначаемая как RMSE (Square Root of the Mean Squared Error).

Оценка MSE используется в тех случаях, когда выходные сигналы сети должны с заданной и одинаковой для всех сигналов точностью е совпадать с известными векторами, где е определяется как уровень надежности.

Для учета уровня надежности обучения обычно используют модифицированную MSE:

р

(3.15)

где Е имеет различный диапазон изменения в зависимости от способов интерпретации: 0< е < 1 — для знаковой интерпретации; 0 < е < 2 — для правила "победитель забирает все"; 0 < е < < 2/ (AM) — для порядковой интерпретации, где N— размерность вектора входных сигналов.

Уровень надежности обучения вводится для обеспечения устойчивой работы сети. Критерий устойчивости НС формулируется следующим образом: работа сети считается устойчивой, если при изменении выходных сигналов сети на величину, меньшую е, интерпретация ответов сети не меняется. Этот критерий можно использовать для обеспечения ускоренного обучения сети. Целесообразно при вычислении оценки по формуле (3.15) использовать только такие выходные сигналы (множество правильных ответов), интерпретация которых не меняется при изменении их значений на величину, меньшую £.

(3.16)

E = l/pf/Vi(di-yif,

/=1

где V. — вес /'-го примера в обучающей выборке.

Оценку MSE можно обобщить, если использовать суммирование квадратов разностей (d. — у)2 с соответствующими весами: 

Использование оценки (3.16) позволяет выделить наиболее важные примеры из обучающей выборки, устанавливая для этого соответствующий вес. Кроме того, эту оценку целесообразно использовать для уравновешивания различных групп примеров в задачах классификации. Для этого необходимо назначать веса V. так, чтобы суммарный вес обучающих примеров в каждом классе не зависел от класса (например, можно назначить для любого примера V. ~ где г — номер класса, т — число примеров в классе). В случае нечеткой экспертной оценки "учителя" отдельных вариантов примеров при формировании обучающей выборки также целесообразно увеличить вес этих вариантов, чтобы они могли влиять на процесс обучения сети.

Наряду с оценкой MSE используют и другие оценки, например оценку Кульбака-Лейблера, связанную с критерием максимума правдоподобия:

м

Е -1 (4 log (di / *)) + (1 - dt) log ((1 - di)/ (1 - у,)), /=i

где М — число выходов сети.

Более простыми являются оценки качества работы НС, часто используемые при аппаратной реализации НС (например, ZISC Accelerator cards для IBM Compatible PC) и в нейроимитаторах:

м

Е'1/yt-di /, i=\

Е = шах/ у; -dj /.

Для решения задач анализа временного ряда целесообразна оценка по средней относительной вариации:

^^)=Г s - ^ >2 / Г х -»21]=Г s V) ^

veS \i€s JJ ves J

где S— временной ряд; e— разность (истинное значение d. минус х) в момент t\ — оценка для среднего значения ряда; N — число данных в ряду.

Задача оптимизации архитектуры (минимизация числа нейронов и числа слоев) может быть поставлена только либо в пла- не ликвидации избыточности числа нейронов, либо при наличии ограничений на число нейронов. В связи с этим для практического использования разработаны различные эвристические методы формирования структуры сети, которые реализуются конструктором сети. Рассмотрим некоторые из них.

С математической точки зрения задача обучения НС сводится к продолжению функции, заданной в конечном числе точек, на всю область определения. При таком подходе входные данные сети считаются аргументами функции, а ответ сети — значением функции.

Для решения задачи выбора количества слоев и нейронов в каждом слое существуют два метода. Первый из них связан с тем, что, чем больше нейронов, тем более надежной будет работа сети. Если же начинать с небольшого количества нейронов, то сеть может оказаться неспособной обучиться решению задач и весь процесс придется начинать сначала.

Второй метод опирается на эмпирическое правило: чем больше число подгоночных параметров полинома, аппроксимирующего функцию, тем хуже воспроизведение функции в тех областях, где ее значения были заранее неизвестны. На рис. 3.27 приведен пример аппроксимации табличной функции полиномами третьей и седьмой степеней. Очевидно, что аппроксимация, полученная с помощью полинома третьей степени, больше соответствует интуитивному представлению о "правильной" аппроксимации. Аналогично, чем больше число подгоночных параметров НС (слоев, нейронов в каждом слое, порогов), тем хуже аппроксимация функции, воспроизводимая НС, за счет избыточности этих параметров. Данный подход определяет нужное число нейронов как минимально необходимое. Однако это число заранее неизвестно, а процедура постепенного наращи-вания количества нейронов является трудоемкой.

Таким образом, сеть с минимальным числом нейронов должна лучше (более гладко) аппроксимировать воспроизводимую функцию, но определение этого минимального числа нейронов требует проведения большого количества экспериментов по обучению сетей. Если число нейронов избыточно, то сеть можно обучить за меньший промежуток времени. При этом существует риск построить "плохую" аппроксимацию. 

 

Рис. 3.27. Аппроксимация табличной функции: а — полиномом третьей степени; б — полиномом седьмой степени

 

X 1 2 3 4

Fix) 5 4 6 3

В литературе по НС эти два метода называют деструктивным (прореживание сети) и конструктивным (постепенное наращивание). Примером деструктивного подхода является метод "ослабления" весов, который предотвращает чрезмерный рост весов.

Для практического использования был предложен также метод уменьшения числа связей — "минимизация вреда для мозга", суть которого состоит в том, чтобы находить в сети те веса, которые можно удалить, не меняя существенно среднюю квад- ратическую ошибку MSE на обучающем множестве.

В конструктивных методах наращивание сети происходит с одновременным ее обучением. К такого рода методам относится, например, метод динамического создания узлов, при котором после добавления каждого нейрона вся сеть заново переобучается. Это приводит к значительному увеличению времени построения НС. Чтобы уменьшить это время, часть примеров по определенному правилу "замораживается" и не участвует в обучении.

Одним из недостатков НС, с точки зрения многих пользователей, является отсутствие объяснительного компонента получаемых результатов, т. е. из обученной НС невозможно извлечь алгоритм решаемой задачи. Конечным результатом работы алгоритма

обучения является некоторый вектор весов межнейронных связей сети, в котором, в соответствии с принятым коннекционист- ским подходом к формализации НС, и сосредоточены все знания. Каждая компонента этого вектора представляет собой некоторое число, которое никаким образом невозможно интерпретировать,

В 1995 году красноярской группой НейроКомп была сформулирована идея логически прозрачных сетей, т. е. сетей, на основе структуры которых можно построить вербальное описание алгоритма получения ответа [16]. Это достигается при помощи специальным образом построенной процедуры уменьшения сложности (прореживания) сети»

Другой подход к построению логически прозрачных сетей [39] заключается в том, что в сети используются только два типа нейронов, осуществляющих логические операции отрицания и дизъюнкции или отрицания и конъюнкции, либо операции сложения и умножения по модулю два, а входная информация преобразуется в логическую форму или набор логических переменных х.у из которых можно создать фундаментальный вектор логической системы:

/хЛ... X X,®^®^... ® хя xt ® х2 ® х3... хл_2®

®Х.®Х... Х.®Х~®Хт®ХЛ... X,®Х ~®Х,®Х... X.®

Л~1 п I I 5 4 я—л n—z я— I п I

®х2®... ®x/r_1®xff/r, (3.17)

по которому можно вычислить любую логическую функцию

f- СЕ; (3.18)

где С. — вдентификационная строка, состоящая из комбинации О и 1 и имеющая размерность вектора /"(например, С. = / 0 0 0 1 1 0... 0 /). При этом обучение полученной нейронной сети будет состоять в поиске идентификационных строк (или связей между нейронами).

Логические переменные х вектора Fможно получить путем квантования входных величин и присвоения полученным квантам q. имен логических переменных х., принимающих значения истина (1) или ложно (0). Например, если входная переменная — температура Т— может изменяться в пределах от —20 до + 20 °С, то, введя квант в 10°С, можно весь диапазон изменения температуры разбить на четыре кванта qx = [-20, —10], q2 = = [-10, 0], q3 = [0, +10], q4 = [4-10, +20] (рис. 3.28, а). Тогда кванту qx присвоить имя х{ (очень холодно}, кванту q2 присвоить имя х2 {холодно}, кванту q3 присвоить имя х3 {прохладно} и кванту д4 присвоить имя х4 {тепло}. Теперь, если, например, температура на входе t = +5 °С, то значения логических переменных будут следующими: х{ = 0, х2 = 0, х3 = 1, х4 =? 0. Если кванты, образующие смежные логические переменные, например "холодно" и "прохладно", будут частично перекрываться ("холодно" — [-15, +5], а "прохладно" — [-5, +15] (рис. 3,28, б), то этим квантам можно также поставить в соответствие логические переменные таких же наименований. При этом степень принадлежности входной величины х к тому или иному кванту (к той или иной логической переменной) характеризуется функцией принадлежности jlx(x) подобно тому, как это делается при фазифи- кации [39]. Полученные таким образом переменные принято называть лингвистическими. Поэтому в дальнейшем нейронные сети, построенные из подобных нейронов и использующие на входе лингвистические переменные, будем называть логико-лингвистическими нейронными сетями. Кроме того, вместо функции принадлежности можно ввести другую характеристику степени принадлежности входной величины к тому или иному кванту.

а)

[ <7i ][ <72 ][ <7з ][ <74 ] -25 -20 -15 -10 -5 0 5 10 15 20 2,5 Т °С

 

Рис. 3.28. Фазификация

 

Наиболее естественно в качестве такой характеристики выбрать вероятность, вычисляемую как отношение перекрывающегося промежутка L. к протяженности кванта L. (рис. 3.28, б):

Кх, - 1) «VW ' (3-19)

Полученные описанным способом переменные в дальнейшем будем называть логико-вероятностными, и соответствующие им нейронные сети — логико-вероятностными нейронными сетями.

Введенные выше сети являются логически прозрачными, но имеют значительную избыточность, которая может быть уменьшена, если часть логических функций f. известна заранее и нет необходимости поиска соответствующих им идентификационных строк С.

Кроме того, уменьшить избыточность таких НС можно также, если известны функциональные зависимости между входными величинами.

Пусть, например, имеется функциональная зависимость входных величин у2(у{)7 показанная на рис. 3.29.

 

Рис. 3.29. Функциональные зависимости входных величин

 

Для перевода линейной зависимости 1 в систему логических функций (уравнений) вначале надо, исходя из требуемой точности 8,. представления входных величин, разбить диапазоны их изменения;

А ~ У\тах У 1mm И ^2 ~~ ^2max ^2min на TV, и N2 квантов:

1и = tym/n + Й, + (' + 1)8,]. / = 0, 1, 2,..., N- % = [у2т, + Л JVin + (/• + Щ), J = 0, 1, 2, Nr

Затем в соответствии с рис 3.29 можно составить табл. 3.1 для вывода логических функций умножения по модулю два или коньюнкции между логическими переменными Хи и Х2р которым соответствуют кванты qu и д2/(рис. 3.30), либо — импликаций между Хи и ^.(рис. 3.31).

Таблица 3, 1

Х2\ ^22 *2Э ^25 ^26 %21 •^28 *29

Хи 1 0 0 0 0 0 0 0 0

0 1 0 0 0 0 0 0 0

0 0 1 0 0 0 0 0 0

Х\4 0 0 0 1 0 0 0 0 0

0 0 0 0 1 0 0 0 0

0 0 0 0 0 1 0 0 0

X\i 0 0 0 0 0 0 1 0 0

0 0 0 0 0 0 0 1 0

Х\<) 0 0 0 0 0 0 0 0 1

 

 

Рис. 3.30. Логическое умножение

 

(3.20)

(3.21)

или

Y=*XuaX2j

Г=> Хи®Ху 

(3.22)

и

Рис. 3.31. Импликация

г => х„-> ху

или

(3.23)

Y => -л Xuv Ху

или

1.

1/

(3.24)

Выбор конкретной логической функции из представленного на рис. 3.30 и 3.31 набора, отражающей приведенную на рис. 3.29 линейную зависимость У2(У,), зависит от содержательной части решаемой задачи. В большинстве случаев указанную зависимость можно представить в виде системы логических уравнений типа (3.24).

Очевидно, что все логические уравнения (3.20) — (3.24) могут быть переведены в стандартную форму (3.18).




Поделиться с друзьями:


Дата добавления: 2015-04-29; Просмотров: 419; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.12 сек.