Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Штучні нейронні мережі




Функціонування моделі окремого ШН, реалізує фактично обчислення деякої функції від n змінних каналів ШН, така модель неможе вирішувати складні інтелектуальні задачі, хоча прості задачі класифікації на 2 підмножини може здійснювати.

Для вирішення більш складних інтелектуальних задач було запропоновано розглядати так звані мережі штучних нейронів природно що ШНМ є моделями біологічних нейронних з’єднань.

Очевидно що спосіб сполучень нейронів у ШНМ залежить від вирішуваної задачі при цьому традиційно розглянемо ШНМ у яких нейрони розміщені у так званих прошарках, у прошарку нейрон розміщений ніби паралельно.Схематично прошарок нейронів можна зобразити так

x1 N1

x2 N2

xn Nm

Тут x1,x2,…,xn – це вектор вхідних сигналів

=(x1,x2,…,xn)

Матриця W

W=

Матрицявагових коефіцієнтів усіх вхідних каналів ШН

N1,N2…,Nm – це сукупність ШН у прошарку

Out1out2outn – відповідні виходи нейронів.

Кожен із нейронів має свою власну передатну функцію outj=Fj(E)

j=

У окремих моделях ШНМ передатні функції можуть бути однакові а у інших моделях можуть бути різні.

Подача вектора вхідних сигналів через мережу вхідних каналів, та наступних їх сум в кожному нейроні може бути записана у вигляді векторно-матричного скалярного добутку

Ʃ1 x1·w11+x2·w21+…+xnwn1

= Ʃ2 = x1·w12+x2·w22+…+xnwn2 = · W= WT· (3)

Ʃn x1·w1M+x2·w2M+…+xnwnM

По аналогії увсі передатні функції можна об’єднати у вектор стовпець функції

= ( ·w) (4)

Окремі прошарки виконують складніші інтелектуальні операції фактично немає місце перетворення сукупності (n) вихідних сигналів у сукупність (М) вихідних сигналів.

Для реалізації ще складніших задач окремі прошарки з’єднуються у цілі багато прошаркові ШНМ, часто такі з’єднання э послідовними

x1 1 1 out1..... out1

x2 2 2 out2..... out2

xn M K outM..... outM

Тут позначення - це вектор вхідних сигналів. Вхідні сигнали часто об’єднують і називають нульовим прошарком.1-ий прошарок називаються вхідним,виходи 1-ого прошарку подаються на входи 2-ого по порядку прошарку, усі прошарки окрім останнього називають прихованими.

Усі внутрішні прошарки мають свої власні коефіцієнти.Матриця W це матриця ваг другого прошарку.Виходи останнього прошарку формують вихід усієї ШНМ.Функціонування таких ШНМ, передбачає поширення сигналу від нульового прошарку до вихідного прошарку тому такого типу ШНМ називають мережами прямого поширення сигналу.

На кожному прошарку відбувається обробка поточного значення сигналу. Функціонування таких багато прошаркових мереж теж зводиться до векторно парних операцій. Наприклад у двух прошарковому

(5) = ( ·V) = ( ( ·W)·V)=

Якщо передатні функції прошарків I і IІ є лінійними функція що реалізує моделі то у (5) можна виконати наступні перетворення

= ( ( ·W)·V) (6)

Переозначивши здобуток матриць W·V=U та увівши новий вектор передатних функцій

(·) = ( (·)

Неважко перетворити співвідношення (6) до виду (4)

= ( (7)

MKK

(W) n · (V) m = (U) n

Таким чином у випадку моделі ШНМ із лінійною передатною функціями багатошарова мережа може бути зведена до одношарової мережі в якій результуюча матриця (ВАХ) є здобутком окремих прошарків а результуюча передатна функція є комбінацією передатних функцій окремих прошарків.

Таким чином описана модель багатошарової ШНМ, з між передатними функціями не забезпечує жодного виграшу з одношаровою ШНМ, для реалізації складних інтелектуальних задач доцільно використовувати багатошарові ШНМ з нелінійними передатними функціями.

Окрім розгляду моделі ШНМ прямого поширення сигналу використаємо моделі ШНМ із зворотними (рефлексними зв’язками). У таких мережах сигнал деякого прошарку повернеться на вхід цьогож прошарку або навіть попередніх прошарків.Схематично таку мережу можна зобразити так


x1 1 1 out

x2 2 2 out2

xN M K out3

 

Тут зображено зворотні зв’язкі першого прошарку, та зворотні зв‘язкі останього нейрона останього прошарку на попередній

Очевидно що зворотні зв‘язкі можуть мати усі нейрони прошарку. Мережі зі зворотніми зв‘язками ще називаються рекурентими ШНМ.

Функціонування ШНМ прямого поширення та рекурентних ШНМ відрізняється:

1. У ШНМ прямого поширення сигнал проходить через мережу в 1 напрямку 1 раз

2.У рекурентних ШНМ, сигнал може проходити через мережу з повторенням багато раз до тих пір поки вихідний сигнал нестабілізується.




Поделиться с друзьями:


Дата добавления: 2015-08-31; Просмотров: 470; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.