Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Основы организации нейросетевых вычислений

Читайте также:
  1. Aрхитектурныe основы построения нейросистем на базе нейрочипа
  2. I. Понятие и основы правового регулирования государственных и муниципальных доходов
  3. I. Теоретические основы организации логопедических занятий.
  4. I. Теоретические основы формирования артикуляционной моторики у детей.
  5. II. Основы конституционного строя
  6. II. ОСНОВЫ МОЛЕКУЛЯРНОЙ ФИЗИКИ И ТЕРМОДИНАМИКИ
  7. II. ОСНОВЫ МОЛЕКУЛЯРНОЙ ФИЗИКИ И ТЕРМОДИНАМИКИ
  8. II. Основы определения страхового тарифа.
  9. III. Международные организации по охране окружающей среды.
  10. III. Методическое обоснование и рекомендации по организации работы по формированию физиологичесого и речевого дыхания у дошкольников с речевой патологией.
  11. III. Организация вахты на мостике. Общие принципы организации вахты
  12. III. Цели организации.

Общая идея применения нейронных сетей для решения плохо формализо­ванных задач основана не на выполнении предписанного алгоритма, а на запоминании сетью предъявленных ей примеров на этапе создания сети и выработке результатов, согласованных с запомненными примерами, на эта­пе решения нейросетью задачи.

Практическая реализация этих положений подразумевает, во-первых, мини­мизацию объема памяти, требуемой для запоминания примеров, и, во-вторых, быстрое использование запомненных примеров, исключающее при­менение традиционных типов памяти.

В нейронных сетях принято следующее представление решаемых задач. Ис­ходя из постановки задачи, выявляется набор n входных параметров, от ко­торых, по мнению исследователя, зависит ее решение. Этот набор в даль­нейшем может многократно уточняться в ходе экспериментов по обучению нейросети. Каждому входному параметру хi , i=1, ...,n, задачи сопоставля­ется измерение i многомерного пространства, размерность которого равна числу n параметров. Для каждого параметра используется некоторая шкала, задающая возможные значения этого параметра. Тем самым постановка за­дач сводится к определению свойств точек хj = { xj1, xj2, … . xjn } n-мерного пространства, где xji, — значение входного параметра i точки j при известных свойствах точек, принадлежащих примерам, использованным при обучении.

Итак, пусть имеется обучающий набор примеров:

<X1, D1> = <(х11 , ..., х1n ), D1 >;

<X2, D2> = <(х21 , ..., х2n ), D2 >;

 

<Xm, Dm> = <(хm1 , ..., хmn ), Dm >;

Xj = (хj1 , ..., хjn) — входные значения j-го примера, Dj — требуемое выходное значение при подаче на входы j-го примера, j = 1, ..., т. Считается, что сеть правильно обучена, если выполняется критерий окончания обучения. В качестве этого критерия обычно используют следующие, хотя могут быть и другие:

─ для всех j: max | Dj Yj |< δ, где δ — заданная величина ошибки; Yj — выход­ное значение, выдаваемое сетью при подаче на ее входы j-го примера, j = 1, ..., m.

.

В задачах, эффективно решаемых нейросетями, точки многомерного про­странства, в котором сформулирована задача, образуют области точек, обла­дающих одним и тем же свойством, например, принадлежащих одному классу объектов, имеющих одинаковое значение заданной на них некоторой функции и т. д. Нейронные сети запоминают подобные области, а не от­дельные точки, представляющие предъявленные при обучении примеры.

Используются различные способы реализации запоминания областей. Наи­более употребляемые в настоящее время способы — это выделение областей гиперплоскостями и покрытие областей гипершарами. На рисунке показано выделение областей в двумерном пространстве.




Для запоминания одной гиперплоскости из ограничивающих область доста­точно сохранения n + 1 значения, где n — размерность пространства. Соот­ветственно для запоминания одного гипершара также требуется n + 1 значе­ние: координаты центра и радиус. В нейронных сетях для запоминания каждой гиперплоскости или гипершара используется отдельный элементарный вычислитель, называемый нейроном, а для запоминания всех гиперплоскостей или гипершаров используется объединение составляющих нейронов в параллельную структуру — нейросеть. Именно параллельная согласованная работа всех нейронов обеспечивает бы­строе решение задачи о принадлежности точки n-мерного пространства вы­деляемой при создании сети области.

<== предыдущая лекция | следующая лекция ==>
| Основы организации нейросетевых вычислений

Дата добавления: 2014-01-11; Просмотров: 58; Нарушение авторских прав?;


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



ПОИСК ПО САЙТУ:


Читайте также:



studopedia.su - Студопедия (2013 - 2017) год. Не является автором материалов, а предоставляет студентам возможность бесплатного обучения и использования! Последнее добавление ip: 54.80.77.124
Генерация страницы за: 0.007 сек.