Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Основы организации нейросетевых вычислений

Общая идея применения нейронных сетей для решения плохо формализо­ванных задач основана не на выполнении предписанного алгоритма, а на запоминании сетью предъявленных ей примеров на этапе создания сети и выработке результатов, согласованных с запомненными примерами, на эта­пе решения нейросетью задачи.

Практическая реализация этих положений подразумевает, во-первых, мини­мизацию объема памяти, требуемой для запоминания примеров, и, во-вторых, быстрое использование запомненных примеров, исключающее при­менение традиционных типов памяти.

В нейронных сетях принято следующее представление решаемых задач. Ис­ходя из постановки задачи, выявляется набор n входных параметров, от ко­торых, по мнению исследователя, зависит ее решение. Этот набор в даль­нейшем может многократно уточняться в ходе экспериментов по обучению нейросети. Каждому входному параметру хi, i=1,...,n, задачи сопоставля­ется измерение i многомерного пространства, размерность которого равна числу n параметров. Для каждого параметра используется некоторая шкала, задающая возможные значения этого параметра. Тем самым постановка за­дач сводится к определению свойств точек хj = { xj1, xj2, …. xjn } n-мерного пространства, где xji, — значение входного параметра i точки j при известных свойствах точек, принадлежащих примерам, использованным при обучении.

Итак, пусть имеется обучающий набор примеров:

<X1, D1> = <(х11,..., х1n), D1 >;

<X2, D2> = <(х21,..., х2n), D2 >;

 

<Xm, Dm> = <(хm1,..., хmn), Dm >;

Xj = (хj1 ,..., хjn) — входные значения j -го примера, Dj — требуемое выходное значение при подаче на входы j -го примера, j = 1,..., т. Считается, что сеть правильно обучена, если выполняется критерий окончания обучения. В качестве этого критерия обычно используют следующие, хотя могут быть и другие:

─ для всех j: max | D j Y j |< δ, где δ — заданная величина ошибки; Y j — выход­ное значение, выдаваемое сетью при подаче на ее входы j -го примера, j = 1,..., m.

.

В задачах, эффективно решаемых нейросетями, точки многомерного про­странства, в котором сформулирована задача, образуют области точек, обла­дающих одним и тем же свойством, например, принадлежащих одному классу объектов, имеющих одинаковое значение заданной на них некоторой функции и т. д. Нейронные сети запоминают подобные области, а не от­дельные точки, представляющие предъявленные при обучении примеры.

Используются различные способы реализации запоминания областей. Наи­более употребляемые в настоящее время способы — это выделение областей гиперплоскостями и покрытие областей гипершарами. На рисунке показано выделение областей в двумерном пространстве.


Для запоминания одной гиперплоскости из ограничивающих область доста­точно сохранения n + 1 значения, где n — размерность пространства. Соот­ветственно для запоминания одного гипершара также требуется n + 1 значе­ние: координаты центра и радиус. В нейронных сетях для запоминания каждой гиперплоскости или гипершара используется отдельный элементарный вычислитель, называемый нейроном, а для запоминания всех гиперплоскостей или гипершаров используется объединение составляющих нейронов в параллельную структуру — нейросеть. Именно параллельная согласованная работа всех нейронов обеспечивает бы­строе решение задачи о принадлежности точки n-мерного пространства вы­деляемой при создании сети области.

<== предыдущая лекция | следующая лекция ==>
Проблемная ориентация нейросетевых вычислений | З. Основные понятия теории нейронных сетей
Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 281; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.