Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Общий алгоритм оценки измеряемого параметра




 

Сформулированный в разд. 2.3 идентфикационно- редукционный метод оценивания, позволяет сформировать следующий АОЭИ при минимизации риска:

1. Имеются исходные экспериментальные данные, полученные в результате эксперимента по соответствующему плану x N 0 = { x 1,..., xN 0}, для которого матрица M(x N 0, q) выражена при всех qÎQ. Полагаем j = 0.

2. Определяют на основании полученных данных оценку i (y) в соответствии с соотношением (3.5).

3. Вычисляют оценки, удовлетворяющие минимуму эмпирического риска оценивания результатов измерения для выбранного плана эксперимента N j=Arg Nj –1–h(xi, q))2, и для оценки определяют матрицу М(x N j, Nj)= Nj –1(xi, N j) f T(xi, Nj).

4. Отыскивается новая точка xNj +1 = Arg (x, Nj, x N j), где

y(x, q, x) = f T(x, q) f (x, q).

5. Определяется риск стратегии, включающий как стоимость С (x 1, x 2,..., xn), так и точность оценки параметра gn (x 1, x 2,..., xn) по основному функциональному уравнению, определяющему бесконечную последовательность функций потерь gn (x 1, x 2,..., xN), которая задает соответствующий риск вида [40]:

Rn (x 1, x 2,.., xN)=

=.

6. В случае, если достигнута заданная точность оцениваемого параметра, то алгоритм завершается. В противном случае осуществляется постановка эксперимента в точке xN j+1 и получают наблюдение y (xNj +1); при этом

x Nj +1=[1–(Nj +1)–1]x Nj +(Nj +1)–1x(xNj +1),

где Nj +1= Nj +1, заменяется j на j + 1 и переходят к пункту 3.

Данный алгоритм доставляет на каждом N – м шаге приближенно максимальное уточнение оценок N (в смысле выбранного критерия Y). Причем на каждом шаге может определяться несколько опорных точек xN +1,..., xN + q, повторяя п.п. 4 – 6 с одними и теми же значениями оценок N. При этом в одной опорной точке проводятся серии наблюдений, длина которых близка к величине g sN /(1 – g s).

Таким образом, при минимизации риска и оценивании параметра x в методах локального поиска получается последовательность точек 0, 1,..., ( i ÎW), при некоторых предположениях сходящаяся к x, для которой риск минимален. Выбор способа построения этой последовательности и минимизация риска зависит от свойств функции f, от информации, которая используется на каждой итерации и от технических средств, которыми располагает исследователь для реализации вычислительных методов. Даже при сравнительно небольшом количестве “избыточных” данных, эффективность найденных правил решения близка к эффективности соответствующих оптимальных байесовых правил, а при увеличении объема полной совокупности данных наблюдения y происходит достаточно быстрая сходимость к результатам, которые имели бы место при отсутствии априорной неопределенности. Общая блок - схема программы формирования оценки, в соответствии с предложенным методом, приведена на рис. 3.1. На структурном этапе формирования оценки в предлагаемом методе синтезируется структура ММИ. Для этого, в соответствии с главой 3, на основании полученных исходных экспериментальных данных, осуществляется выбор количества переменных в исходной ММИ, обеспечивающих предельное значение пропускной способности эксперимента, в котором получены используемые данные.

В соответствии с разд. 3.3 (при последовательном накоплении экспериментальных данных) вычисляются области определения переменных ММИ и риск выбора каждой компоненты ММИ, а в соответствии с разд. 3.6 осуществляется вычисление разделяющей функции между переменными ММИ. Первая итерация алгоритма формирования ММИ является априорной и включает [82]: разбиение признаков на классы (составление априорного алфавита классов); определение наилучших границ классов в априорном признаковом пространстве; выбор алгоритма распознавания, который определяет рабочий алфавит классов и их границы.

При решении сформулированной задачи формирования ММИ целесообразно использовать датчик, важной особенностью которой является возможность обучаться. Формирование ММИ в этом случае сводится к процессу обучения и осуществляется по простым, хорошо отработанным алгоритмам. При этом решаются задачи управления проведением физических экспериментов, задачи распознавания и классификации образов, выявления закономерностей в разных предметных областях.

При обучении осуществляется выработка в обучаемом датчике той или иной реакции на группы внешних идентичных сигналов путем многократного воздействия на датчик внешней корректировки в виде “поощрений” и “наказаний”. Механизм генерации этой корректировки практически полностью определяет алгоритм обучения. Самообучение отличается от обучения тем, что здесь дополнительная информация о верности реакции датчика не сообщается.

 

Ввод данных контроля для обучающей выборки

Выбор из них данных и признаков для анализа на основании пропускной способности модели  

 

Вычисление разделяющей функции  

Вычисление интервальных оценок

Определение риска оценки Rdi

 

Вывод оценки

D = Rdi – Rdi– 1

Определение риска модели контроля R M i
>0 (>e) =0 (=e)

D

M = RMi – RMi– 1

 

Постановка дискриминирующего эксперимента

>0 (>d)

M

=0 (=d)

Постановка отсеивающего эксперимента

 

Объединение новых данных и обучающей выборки

 

Рис. 3.1. Общая схема алгоритма формирования оценки

Причем результат самообучения характеризует пригодность выбранного пространства для конкретной задачи обучения распознаванию. Если абстрактные образы, выделяемые в процессе самообучения, совпадают с реальными, то пространство выбрано удачно. Чем сильнее абстрактные образы отличаются от реальных, тем “неудобнее” выбранное пространство для конкретной задачи.

При адаптации осуществляется изменение параметров и структуры датчика, а возможно и управляющих воздействий на основе текущей информации, с целью достижения определенного состояния датчика при начальной неопределенности и изменяющихся условиях эксперимента для получения требуемого качества оценивания результатов измерения. При этом осуществляется обучение, в результате которого датчик постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий.

На параметрическом этапе формирования ММИ, на основании полученных исходных данных измерения, осуществляется, в соответствии с разд. 3.10, определение параметров исходной ММИ с заданным риском. Полученная ММИ позволяет осуществлять постановку дискриминирующего эксперимента, по результатам которого уточняется первичная модель. После этого на базе полученной первичной дискриминированной модели, ставится отсеивающий эксперимент, по результатам которого осуществляется формирование “отсеянной” модели, которая обеспечивает минимизацию в ней количества значимых факторов.

Общая модель адаптивной стратегии статистического оценивания результатов измерения сводится к последовательности одинаковых статистических задач оценивания с измеримым пространством решений (W , D), определяемых в соответствии с последовательностью статистических экспериментов, в каждом из которых истинное значение x трактуется как реализация случайной величины J с некоторым априорно фиксированным распределением G на (W x, В). При этом адаптивная стратегия характеризуется решением об остановки эксперимента s 0 и решением о его продолжении s 1. Относительно распределения G известно только, что оно принадлежит некоторому классу априорных распределений G. Если p(x) – априорная плотность параметра x по мере c на (W x, В), то можно ввести образ правила j d, как Y(D | x) = M x j(D | y ( v )), и его безусловный образ Y(D) = MpY(D |J) с плотностями распределения f(d| x) и f(d) соответственно. Величина средних потерь при апостериорном подходе определяется как условное математическое ожидание функции потерь L (d, J) относительно решающей функции d = d n (Y ( n )) [8], то есть апостериорный риск при стратегии оценивания Ф = <j s, j d > равен

R (d) = R (d|Ф) = E { L (d,J)|d} =, d Î D,

где p(x |d) = f(d| x) p(x)/f(d), если f(d) > 0 и p(x |d) = 0 при f(d) = 0.

 

 




Поделиться с друзьями:


Дата добавления: 2014-01-05; Просмотров: 458; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.027 сек.