Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Оптимального управления 11 страница




Регулярность сети заключается в строгой определенности числа связей для каждого нейрона. Причем число связей нейрона зависит от места его расположения в сети. Так, для сети, приведенной на рис. 3.3, нейроны, расположенные в углах сети, связаны лишь с двумя ближайшими нейронами, расположенными на вертикальной и горизонтальной границе. Пограничные нейроны имеют связи с тремя ближайшими нейронами: с двумя, расположенными вдоль границы, и с одним внутренним. Внутренние нейроны соединены с четырьмя соседними.

 

Рис. 3.1. Регулярная нейронная сеть: xf— входы, у — выходы

у 1

У4

Возможен случай, когда для сети, представленной на рис. 3.1, пограничные нейроны двух параллельных границ связывают между собой. Это приводит к трансформации НС из плоскости в цилиндр. Если же разработчик считает необходимым, то, соединяя далее пограничные нейроны двух других параллельных границ (т. е. торцов цилиндра), трансформирует цилиндр в тор. Отметим, что у тора все нейроны будут иметь по четыре связи с ближайшими соседними нейронами. 

моделей мозга (мышления) человека. С точки зрения коннекцио- низма (connection— связь) в основу концепции НС положена идея о том, что нейроны можно моделировать довольно простыми автоматами, а вся сложность мозга, гибкость его функционирования и другие важнейшие качества определяются связями между нейронами. Каждая связь представляется как простой элемент, служащий для передачи сигнала. При таком подходе для нейросетевой модели характерно следующее:

• однородность системы (элементы нейронной сети одинаковы и просты, все определяется структурой связи);

• надежность системы, построенной из ненадежных элементов, за счет избыточного числа связей;

• "голографичность", предопределяющая, что при разрушении части система сохраняет свои свойства.

Предполагается, что широкие возможности систем связи — демаскирование старых связей и добавление новых — компенсируют бедность набора элементов, из которых строится модель, их ненадежность, а также возможные разрушения части связей. На первых этапах развития нейросетевых моделей кон- некционизм сыграл исключительную роль, поскольку были поняты основные механизмы индуктивного вывода, осуществляемого НС, позволившие решить множество прикладных задач. Однако для создания математических нейросетевых моделей, адекватных реальным задачам, требуются более глубокие исследования биологических принципов функционирования головного мозга.

3.2. Классификация нейронных сетей

Класификация нейронных сетей по виду топологии

Под топологией нейронной сети будем понимать графическую иллюстрацию соединения нейронов между собой в этой сети.

По виду топологии нейронные сети разделяют на однослойные и многослойные.

В однослойных сетях нейроны соединяются либо по принципу каждый с каждым — полносвязанные сети, либо регулярно — регулярные сети. 

Скрытый слой

 

Рис. 3.3. Двухслойная сеть Рис. 3.4. Трехслойная сеть

 

Сеть с перекрестными связями. В варианте двухслойной сети с перекрестными связями, приведенном на рис. 3.5, нейроны второго слоя имеют настраиваемые синаптические связи как с выходов нейронов первого слоя, так и непосредственно с устройства ввода НК.

В общем случае в многослойных сетях произвольной структуры возможны различные конфигурации перекрестных связей.

Сеть с обратными связями. Введение обратных связей в НС, как и в любую другую динамическую систему, существенно меняет ее функциональные возможности. Обратной связью можно охватывать как отдельный слой, так и несколько слоев и даже всю сеть. На рис. 3.6 представлена четырехслойная сеть с различными обратными связями. Наиболее простыми являются сети

х, х2 х3 х4

 

Рис. 3.5. Сеть с перекрестными связями

Регулярная топология нейронной сети, приведенная на рис. 3.1, не является единственной. Возможно другое число связей у угловых, граничных и внутренних нейронов. На рис. 3.2 приведен пример регулярной гексагональной топологии. Как видно из этого рисунка, пограничные нейроны в этом случае имеют по четыре связи, а внутренние — по шесть (отсюда и название вида топологии). Для этой сети также может иметь место трансформация плоскости в цилиндр, а далее — в тор.

 

Рис. 3.2. Гексагональная топология

 

Характерной особенностью сетей с регулярной топологией является один вид функции активации для всех нейронов этой сети.

В многослойных сетях нейроны группируют по слоям. Внешние слои многослойной сети называют входным и выходным слоями. Внутренние слои называют скрытыми. Число скрытых слоев неограниченно. Известны также двухслойные сети, у которых имеется только входной и выходной слои.

Наиболее простыми являются сети с прямыми, перекрестными, обратными и латеральными связями. Рассмотрим топологии этих сетей.

Сеть с прямыми связями. Двухслойный и трехслойный варианты сетей с прямыми связями представлены на рис. 3.3 и 3.4. Характерной особенностью таких сетей является равенство числа нейронов по слоям, и, кроме того, все нейроны входного слоя активизируются вектором входного сигнала, а все нейроны выходного слоя определяют выходной вектор. 

 

Рис. 3.8. Многослойная сеть

Двухмерные многослойные нейронные сети. При решении задачи распознавания широко используются многослойные сети, в которых каждый нейрон текущего слоя связан с каждым нейроном следующего слоя (рис. 3.8). Такой подход доказал свою работоспособность в различных практических применениях, но у него есть один недостаток — большая избыточность нейронных связей. Так, если число нейронов в слое равно п, то число связей между двумя соседними слоями для полносвязанной сети равно п2. Практическая реализация такого числа связей сопряжена с большими трудностями как на аппаратном, так и на программном уровнях даже при сравнительно небольшом числе нейронов в слое (100...150).

При использовании в качестве входных данных двухмерных графических образов, взятых из реального мира, можно предположить, что каждый элемент входного набора оказывает влияние только на небольшую область вокруг своей топологической проекции на следующий слой сети и практически не влияет на отдаленные от этой области участки. Отдаленные связи, как правило, очень малы, и ими можно пренебречь. При подобном уменьшении числа межнейронных связей можно значительно сократить объем вычислений при программном моделировании сети и объем аппаратуры при аппаратной реализации. Таким образом, может получиться сеть с топологией, показанной на рис. 3.9. Здесь каждый нейрон своими синаптическими связями проецируется на небольшую область следующего слоя. Для наглядности слои этой сети стоит представлять не одномерными, а плоскими, т. е. двухмерными.

 

Входной слой Скрытые слои Выходкой слой

Рис. 3.6. Сеть с обратными связями

Ядерные нейронные сети [35] являются структурным расширением класса многослойных сетей прямого распространения. Наполнение нового класса реализуется благодаря целенаправленному ограничению связей между нейронами. Ядерные нейронные сети можно рассматривать и как модульные нейронные сети, с прямыми, перекрестными, обратными и латеральными связями. Рассмотрим топологии этих сетей. 

Сеть с латеральными связями. Введение в скрытые слои нейронной сети латеральных (боковых, от лат. Lateralis — боковой) связей позволяет контрастировать изображение на случайном фоне, что повышает эффективность распознавания графических образов. Латеральные связи бывают тормозящими и возбуждающими. В живой природе эти связи довольно частое явление. На рис. 3.7 показан пример контрастирования сигналов соседних нейронов в от-дельном слое. Подавая сигналы через отрицательные коэффициенты синаптической связи с центрального нейрона на два левых, добиваются снижения активности этих нейронов. Подача сигналов на

 

два правых нейрона через положительные коэффициенты синаптической связи увеличивает степень активности этих нейронов. В результате центральный и два правых нейрона будут значитель-но активнее двух левых, что эквивалентно повышению контрастно-

Рис. 3.7 Сеть с латеральными ста годного образа (входного связями изображения). 

Рис. 3.10, Двухслойная ядерная нейронная сеть: а — топологическая реализация; б — структурная модель.

$r=x?w;\ rr = Fr($r),

где W\т — синаптическая карта ядра; F™ (.) — многомерная функция активации. В координатной форме последние выражения представляются следующим образом:

sp (v) = %хГ («X (u,v), у? (V) = /Г (s? (V)),

где u,v— индексы локальных координат; w.m(w,v) — элементы синаптической карты W)т (предполагается, что сумма включает в себя и компоненты смещения для аргументов активацион- ных функций). Передача данных между ядрами в координатной форме устанавливается правилом

ХГ+1 {(v)Py) - У? (v)> (3-1)

где инъективное отображение р.р определяет топологию связи.

Нетрудно заметить, что нейронное ядро является аналогом базовой операции быстрого алгоритма Фурье, а сам быстрый алгоритм можно рассматривать как вариант ядерной нейронной сети.

Рассмотренные топологии нейронных сетей не исчерпывают все их возможные виды, а лишь являются наиболее распространенными.

Рис. 3.9. Двухмерная сеть

в которых каждый модуль представляет собой однослойный пер- септрон малой размерности (нейронное ядро) и все нейронные ядра упорядочены по слоям.

Концепция структурной организации ядерных сетей предполагает, что все нейроны ядра имеют общее рецегггорное поле. При этом постулируется, что рецепторные поля нейронных ядер не пересекаются, т. е. все связи являются инъек- тивными. Считается, что обработка информации происходит в нейронных ядрах, а операторы межъядерного перехода транслируют информацию без искажений. На структурном уровне нейронное ядро характеризуется парой чисел: размерностью рецепторного поля и числом нейронов в ядре- Для операторов перехода структурной характеристикой является ранг оператора.

Поставив в соответствие каждому ядру вершину направленного графа, а каждому оператору перехода направленную дугу, получим графическое отображение нейронной сети, которое называется ее структурной моделью. Двухслойная сеть с ядерной организацией в классическом представлении, при которой каждая вершина соответствует одному нейрону, а дуги определяют связи между нейронами, рассматривается на рис. 3.10,а. На рис. 3/10,6 приведена структурная модель, в которой вершинам графа соответствуют нейронные ядра.

В матричном представлении действие оператора нейронного ядра можно записать в виде:

эта схема представляет собой структурную схему операционного блока НК (аналог арифметическо-логического устройства машины фон Неймана). Физическая реализация перекрестных и обратных связей может быть осуществлена, например, на резистивных матрицах и управляемых ключах, что позволит строить схемы с переменными (нестационарными) весовыми коэффициентами. При этом, чем меньше градаций имеют перестраиваемые коэффициенты (т. е. чем меньше размерность резистивных матриц), тем больше потребуется нейронов для решения одной и той же задачи. В схеме, представленной на рис. 3.11, управление коммутацией синаптических (весовых) коэффициентов осуществляется от общего управляющего автомата по программе, хранимой в запоминающем устройстве.

Классификация нейронных сетей

по способу решения задачи

С точки зрения этого признака сети делят на формируемые, сети с формируемой матрицей связи, обучаемые и комбинированные (смешанные).

Формируемые сети проектируют для формализуемых задач, имеющих четко сформулированный в нейросетевом базисе алгоритм решения конкретной задачи.

Сети с формируемой матрицей связей применяют для труд- ноформализуемых задач. Как правило, эти сети имеют одинаковую структуру и различаются лишь матрицей связи (сеть Хоп- филда). Достоинством таких сетей является их наглядность в работе.

Обучаемые сети используют для решения неформализуе- мых задач. В процессе обучения сети автоматически изменяют такие ее параметры, как коэффициенты синаптической связи, а в некоторых случаях и топология.

Комбинированные (смешанные) сети сочетают в себе признаки двух, а то и трех основных видов. Как правило, эти сети многослойные, каждый слой которых представляется различной топологией и обучается по определенному алгоритму. В настоящее время этот класс получает наибольшее распространение, так как дает самые широкие возможности разработчику. 

Обобщенная структурная схема нейронной сети. Несмотря на большое разнообразие топологий НС, имеющихся в настоящее время в распоряжении разработчика, часть из которых рассмотрена, целесообразно при их конструировании исходить из обобщенной структурной схемы, приведенной на рис. 3.11. По сути

С устройства ввода

I

а

£ со

в

о «

о &

о

н О

J=

Входной слой

Си

С

>>

AJ

О «

о

1-й скрытый слой

н О

л X н

СО

Q, Ю

а я

Б

О &

О

 

К устройству вывода Рис. 3.11. Обобщенная структурная схема НС

 

зования. Функция, которую реализует выходной блок, получила название функции активации (или функции возбуждения, или переходной функции). Коэффициенты а. получили название синоптических коэффициентов или коэффициентов межнейронной связи. Эти коэффициенты являются аналогами синапсов биологических нейронов. Если значение коэффициента а. отрицательное, то принято считать /-ю связь тормозящей, если положительное — возбуждающей.

Рассмотрим структурные схемы нейронов.

В общем случае работа формального нейрона заключается в следующем (см. рис. 3.12), Перед началом работы на блок сумматора подают сигнал начального состояния (начального возбуждения) а0. На каждый /-и вход нейрона поступают сигналы х. либо от других нейронов, либо с устройства ввода НК. Каждый /-й входной сигнал х. умножается на коэффициент межнейронной связи (синаптический коэффициент) аг В блоке сумматора взве-шенные входные сигналы и начальное возбуждение а0 алгебраически складываются. Результат суммирования (взвешенная сумма) g подается на блок функционального преобразования Xg).

Нейрон, схема которого приведена на рис. 3.12, является классическим, в некотором смысле стандартным. Однако разработчики нейронных сетей применяют и нестандартные модели нейронов. К таким нейронам относится паде-нейрон, нейрон с квадратичным сумматором, нейрон со счетчиком совпадений [36].

Паде-нейрон (рис. 3.13) состоит из двух сумматоров, элемента, вычисляющего частное от взвешенных сумм, блока нелинейного преобразования (выходной блок). Свое название этот нейрон получил от паде-метода рациональной аппроксимации функций. Нетрудно заметить, что он имеет в два раза больше настраиваемых параметров по сравнению с обычным нейроном. Математическую модель паде-нейрона можно представить в таком виде:

f \ II

к8г,

И N

м

= /

y = f(g) = f

+А)

<=1

здесь Ь. — синаптические коэффициенты второго сумматора.

3.3. Математические модели нейронных сетей

Нейронной сетью (НС) называется динамическая система, состоящая из совокупности связанных между собой по типу узлов направленного графа элементарных процессоров, называе мых формальными нейронами, и способная генерировать выходную информацию в ответ на входное воздействие.

Нейронная сеть является основной операционной частью НК (нейронных ЭВМ), реализующей алгоритм решения задачи.

Формальным нейроном называется элементарный процессор, используемый в узлах нейронной сети. Математическую модель формального нейрона можно представить уравнением

п

(3.2)

y = f{g) = f!>/*/ +4о /=1

V

где у — выходной сигал нейрона; J{g) — функция выходного блока нейрона; я — постоянный коэффициент — вес /-го входа; х. — /-й входной сигнал; а0— начальное состояние (возбуждение) нейрона; / = 1, 2, 3,..., п~ номер входа нейрона; п— число входов. Выражению (3.2) может быть поставлена в соответствие структурная схема формального нейрона, представленная на рис. 3.12. Как видно из рисунка, схема формального нейрона включает п входных блоков умножения на коэффициенты а., один сумматор (часто называемый разными авторами адаптивным сумматором) и выходной блок функционального преобра-

Г

Л

 

Рис. 3.12. Структурная схема формального нейрона

 

В практике разработки НК применяют и другие модели нейронов, определяемые характером конкретной решаемой задачи, качеством инструментального средства, требованиями заказчика, опытом разработчика.

Рассмотрим виды функций активации.

Вид функции активации во многом определяет функциональные возможности нейронной сети и метод обучения этой сети. Рассмотрим некоторые виды функций активации, применяемые при конструировании нейронных сетей.

Пороговая функция. В общем случае эта функция активации описывается следующим выражением:

 

(3.3)

где b vl с — некоторые постоянные. На практике чаще всего используют две пары постоянных b и с: первая — (—1, 1); вторая — (О, 1). Первая пара коэффициентов определяет так называемую симметричную пороговую функцию, вторая — смещенную.

Математическая модель нейрона с пороговой функцией активации имеет вид

п

y(t) = sign (g (t)) = sign £ (cijXi (t) + a0). (3,4)

i=i

На рис. 3.15 приведены графики пороговых функций активации, а на рис. 3.16 — условное графическое обозначение (УГО) нейрона с этой функцией активации. Этого обозначения будем придерживаться в дальнейшем изложении.

На первый взгляд может показаться, что нейрон со сме-щенной пороговой функцией активации (А = 0 и с = 1) ничем не отличается от схем, построенных на обычных логических элементах И, ИЛИ, НЕ. Однако практика разработки НК показала следующие преимущества такого нейрона [37]:

• нейрон выполняет более сложные логические функции, что обеспечивает реализацию заданной логической функции меньшим числом элементов, тем самым сокращая объем проектируемого устройства;

• сети из нейронов имеют повышенную устойчивость к выходу из строя отдельных элементов; 

 

Рис. 3.13. Структурная схема паде-нейрона

У нейрона с квадратичным сумматором (рис. 3.14) на выходной блок подается взвешенная квадратичная форма входного сигнала. Математическая модель этого нейрона описывается следующим выражением:

п

s(0= Z auxixj+aо-

В этом случае нейрон имеет п(п+1)/2 настраиваемых параметров.

 

а\

X

 

п

/.7=1

Ля)

jV<?

 

Рис. 3.14. Структурная схема нейрона с квадратичным сумматором

ям: быть непрерывной, монотонно возрастающей и дифференцируемой.

Сигмоидная функция полностью удовлетворяет этим требованиям. Как и для пороговой, для этой функции различают смещенный и симметричный вид.

Математически оба вида сигмоидной функции представля ются следующим образом:

смещенная

Ag(t)] = 1/(1 + (3.5а)

симметричная

лт - (1 - е-*)/{\ + е-*У (3.56)

Графики сигмоидных функций на базе экспоненты приведены на рис. 3.17.

В практике нейронных сетей применяют и другие непрерывные функции, также называемые "сигмоидами", но в основе формирования которых лежит не экспонента, а, например, арктангенс или гиперболический тангенс.

Особый интерес представляет функция вида

МО] = 5(0/(1 + ш/),

которую назовем "упрощенной сигмоидой". (График этой функции на рис. 3.18.) Такую функцию просто реализовывать в программных системах.

 

Рис. 3.17. Сигмоидальные функции активации: а — смещенная, б— симметричная

а)

As)

б)

As)'

 

-2 -1 0 1 2 g

Рис. 3.15. Пороговые функции активации: а — симметричная; б — смещенная

 

• сети из нейронов имеют повышенную устойчивость к изменению параметров элементов, их реализующих;

• для однородных нейронных сетей возможна минимизация базовых СБИС, их реализующих, тем самым упрощается САПР этих СБИС.

ао Ne

ах

il2 /о

ап

Пороговая функция относится к классу дискретных функций, в котором имеется много других функций. В теории НС, например, рассматриваются модели нейронов с многопороговыми ■ функциями активации. Однако широкого распространения эти модели пока не нашли.

Сигмоидная функция активации. Эта функция относится к классу непрерывных функций. Выбираемая разработчи- Рис. 3.16.УГО ком Для решения конкретной задачи нейрона с пороговой непрерывная функция активации дол- функцией активации жна удовлетворять следующим услови- 

0,5 "

-1 / 0 1 7

- --0,5

- —1

^ Ag)> 1 ч

0,5,

-1 0 1 /

g

Рис. 3.21. Графики линейной функции активации:

а — симметричная, 5 — смещенная

Степенные функции активации. Функции этого вцда используют при проектировании НС, предназначенных для решения задач аппроксимации функций одной и/или многих переменных, для реализации степенных рядов, для реализации сложных вычислительных алгоритмов. Математиче-ская модел ь таких функций имеет вид

УШ] =

где п = 2, 3, 4, 5... — показатель степени. (Очевидно, что при п = 1 имеем случай линейной функции.)

В настоящее время наиболее распространены функции второй и третьей степени (п = 2, 3). Лишь степенные функции с нечетными показателями степени в полной мере отвечают требованиям, предъявляемым к функциям активации. Они монотонны, дифференцируемы и непрерывны.

В практике разработки НС применяют функции активации и других видов, отличных от перечисленных выше. Все определяется характером решаемой задачи. В каждом конкретном случае разработчик должен обосновать свой выбор.

Перспективным направлением в теории НС является применение функции активации с переменной "крутизной" [37]. В этом случае уравнение формального нейрона, например со степенной функцией активации, можно записать в следующем виде:

п Лк

(3.6)

у = Ь

^а,х,+ао /=1

В этой модели коэффициент b изменяет крутизну параболы к~й степени, что значительно расширяет функциональные возможности как отдельного нейрона, так и всей нейронной сети, состоящей из таких нейронов. Непосредственная реализация выражения (3.5) требует наличия в устройстве управления НК

л») ж

 

Рис. 3.18. Функция укороченная сигмоида:

>>

it.

 

На рис. 3.19 и 3.20 представлены графики симметричных "сигмоид" на базе гиперболического тангенса /[#(01 =: th(g) и арктангенса Л#(0] = (2/р) arcrti(g) соответственно. После несложных преобразований из последних симметричных "сигмоид" легко получаются смещенные, также широко используемые на практике.

■5

 

g

Рис. 3.20. График./^)! = (2/к) arcth(g)

Рис. 3.19. График MV\ = th{g)

Линейная функция активации. Эта функция также относится к классу непрерывных. Графики смещенной и симметричной функций этого типа представлены на рис. 3.21. Линейный участок такой функции активации позволяет оперировать с непрерывными сигналами. Зоны нечувствительности определяются физической реализуемостью этих функций.

шение определенной задачи, необходимо переходить к более гибким произвольным нелинейным функциям.

Формальный нейрон фактически представляет собой процессор с очень ограниченной специальной системой команд (в литературе принято называть нейросетевой базис). Формальные нейроны по способу представления информации бывают аналоговые и цифровые. И те и другие выполняют единообразные вычислительные действия и не требуют внешнего управления. Большое число параллельно работающих процессоров обеспечивает высокое быстродействие»

На основе математической модели одиночного нейрона [уравнение (3.2)] можно составить математическое описание (математическую модель) всей нейронной сети. Рассмотрим некоторые из них.

Двухслойная нейронная сеть с прямыми связями:

N (К

у, (0 - h

(3.8)

«20/ + 5>2//l X а\кЧ (0 + «10к

ы

где 1=1,2,..., N — число нейронов второго слоя; к = /, 2,.„., К— число нейронов первого слоя; /,, f2 — функции активации нейронов первого и второго слоев; ат — начальное возбуждение к-ro нейрона первого слоя; ат — начальное возбуждение /-го нейрона второго слоя; а2., а1Л— весовые коэффициенты /-го нейрона второго слоя и к-ro нейрона первого слоя; y.{t) — /-я координата выходного вектора; xk{t) — к-я координата входного вектора. В общем случае Кф N.

Предполагается также, что функции активации нейронов одного слоя одинаковые.

Трехслойная сеть с прямыми связями

(м (К ^lYi

У/ (0 = /з «зо/ + Х«з//2 «20т + X «2*1/1 %alkxk(t) + am,(3.9) I ы ^ m-l {ы JJJ

здесь k = 1, 2,..., К— число нейронов первого слоя; /и = 1,2,..., М — число нейронов второго слоя; / = 1, 2,..., N— число нейронов третьего слоя, аш, a2Qm, а30. — начальные возбуждения &-го, m-го и /-го нейронов первого, второго и третьего слоев соответственно.

N 

двух контуров настройки (адаптации) нейрона: один для коэффициентов ар другой — для Ь. Чтобы уменьшить время настройки сети, а в конечном счете и время решения задачи, можно, видоизменив выражение (3.5), отказаться от второго контура настройки. Очевидно, что если коэффициент b внести под знак суммы, то можно записать

\ к (п \ к

+ ь\ = 2>л+со, (3.7)

) J

к

\

У = Ь

Ы1

У

 

где коэффициенты с. = bka. (j = 0, 1, 2, к).

Выражение (3.7) показывает, что крутизной функции акти-вации можно варьировать при общей настройке синаптических коэффициентов нейронной сети.

Основным недостатком нейронов с пороговым элементом является отсутствие достаточной гибкости при обучении и настройке нейронной сети на решаемую задачу. Если значение вычисляемого скалярного произведения x.ai даже незначительно не достигает заданного порога, то выходной сигнал не формируется и нейрон "не срабатывает". Это означает, что теряется интенсивность выходного сигнала данного нейрона и, следовательно, формируется невысокое значение уровня на взвешенных входах в следующем слое нейронов.

Такого недостатка в большей степени лишена линейная (в общем случае кусочно-линейная) функция активации, реализация которой обеспечивает невысокую вычислительную сложность.

Сигмоидальная функция является некоторым компромис-сом между линейной и ступенчатой функцией и содержит достоинства обеих. По аналогии со ступенчатой функцией она нелинейна, и это дает возможность выделять в поисковом пространстве исследуемых объектов области сложной формы, в том числе невыпуклые и несвязные. С другой стороны, в отличие от ступенчатой функции, она позволяет переходить от одного значения входного сигнала к другому без разрывов. Однако любую из преобразующих функций активации (возбуждения) необходимо рассматривать как приближенную. Учитывая сложность архитектуры и трудность настройки ее параметров на ре-

: 3.4» Решение задач управления

) в нейросетевом базисе

| Типичным примером использования нейронной сети в за-

I дачах управления является конструирование на ее базе нейрон- J нош регулятора (HP). В этом случае (HP) (рис. 3.22) напоминает обычный регулятор типа П (пропорциональный), ПД ' (пропорционально-дифференциальный) или ПИД (пропорционально-интегральный — дифференциальный). Однако он является универсальным нелинейным настраиваемым элементом, и с его помощью может быть, в принципе, реализован любой закон управления.

 

Рис. 3.22. Общая структура системы с HP

 

| После обучения HP может построить полное решение задачи

управления, опираясь на сравнительно небольшое множество примеров. Несмотря на довольно большое количество топологий НС, в задачах управления динамическими объектами в качестве HP обычно используются НС прямого распространения (рис. 3.23). I Входной (нулевой) слой просто распределяет входные сигналы, | а нейроны первого и последующего слоев преобразуют поступа- I ющие на них сигналы с учетом значений межнейронных связей! и видом активационной функции нейронов. Буквы W1 и W2 на I рис. 3.23 обозначают набор весов скрытого и выходного слоя. Зна- i чения весов определяют свойства HP. При обучении HP обычно! корректируются значения весов нейронной сети, и, реже, пара- 1 метры активационных функций нейронов.

I 

Аналогично могут быть получены выражения для сети с любым числом слоев. В конкретных случаях могут отсутствовать в отдельных нейронах или слоях начальные возбуждения. Двухслойная сеть с перекрестными связями

N

N

y,{t) = f.г

(ЗЛО)

X X а\кЧ (0+*i ю/ + X аух] (0

Ы U=1 J у=1

Выражение (ЗЛО) описывает двухслойную сеть с полными перекрестными связями. Здесь приняты те же обозначения, что и в выражениях (3.8) и (3.9).

При решении одной и той же задачи сеть с перекрестными связями, как правило, значительно проще сети с прямыми последовательными связями по числу нейронов, используемых в сети.

Сеть с обратными связями

(3.11)

y(t) = f




Поделиться с друзьями:


Дата добавления: 2015-04-29; Просмотров: 688; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.145 сек.