Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Оценка информационного объема и риска модели измерения




 

 

Определение количества информационных переменных ММИ. Пропускная способность П статистического эксперимента, полученная в соответствии с его теоретико-информационной моделью [3], позволяет определить количество информационных переменных ММИ, необходимых для получения достаточной входной информации. Для этого определим объём передачи информации модели как разность между энтропией входов (априорной неопределенностью) и средней условной энтропией входов на выходе (апостериорная неопределенность), причем в общем случае каждый из входных параметров характеризуется вероятностью его появления на i -м входе Pi:

П(Pi, f 1,..., fn) = H (y) – H (y | x),

где априорная неопределенность H (y) и апостериорная неопределенность H (y | x) определяются следующими выражениями:

H (y)=– P (H 1)log P (H 1)–....– P (Hn)log P (Hn)= – P 1log p 1–...– Pn log pn, (2.16)

H (y | x)=– P (H 1| x)log P (H 1| x)+ P (Hn | x)log(Hn | x)) f (x) d l(x), (2.17)

в которых f (x) = P 1 f 1(x) + P 2 f 2(x) +...+ Pnfn (x). Мера связи между входными и выходными переменными, используя последние выражения для (2.16) и (2.17), определяется в виде

П(Pi; fi) = P 1 f 1(x)log+... + Pnfn (x)log} d l(x) ³ 0,

где P (H, x) d l(x) = P (H | x) f (x) d l(x) – совместная вероятность H и x. Отметим, что i (H, x)log d l(x) может быть определена как средняя информация в X относительно H.

Исследуем выражения для априорной информации в виде пропускной способности модели. Пусть fi (x), i = 1, 2,..., n – плотности распределений, принадлежащих однородному семейству вероятностных мер, а Pi, i = 1, 2,..., n, таковы, что

P 1 + P 2 +...+ Pn = 1. (2.18)

Теорема 2.5.1. Максимум величины

П(Pi; fi) = Pifi (x)log] d l(x)

по всевозможным наборам Pi достигается для таких Pi, что

1(x)log d l(x) =2(x)log d l(x)=...= n (x)log] d l(x) (2.19)

и П(Pi, fi) = n равен этой общей величине.

Доказательство. Взяв производную от d П(Pi; fi)/ dPi (учтя выражение (2.18)) и приравняв ее к нулю получаем, что

j (x)log d l = ifi (x)[logd l. =

= ifi (x) fi (x) fj (x) d l. = j (x) d l = 1.

Из данного выражения и следует условие (2.19). Из данной теоремы вытекает следствие, которое связывает структуру ММИ и пропускную способность эксперимента, соответствующего ММИ.

Следствие 2.5.1. Многопараметрическая модель измерения, включающая n признаков с плотностями распределения f 1(x),..., fn (x), i = 1, 2,..., n, характеризуется максимальной пропускной способностью при условии равенства расхождений между моделью и каждым её признаков.

Определение риска синтеза многопараметрической линейной ММИ. Пусть в общем случае fi (xi), i = 1, 2,..., n – плотности распределения признаков xi ММИ, а f (x 1, х 2,..., хn) – плотность распределения, порожденная линейной ММИ

y = a 1 x 1 + a 2 х 2 +...+ anхn + a 0,

причем p (x 1, х 2,..., хn) есть плотность распределения, порожденная истинной ММИ, принадлежащая к тому же семейству вероятностных мер [84]. При этом ММИ определяет теорема эмерджентности, доказательство которой приведено в [3].

Теорема (эмерджентности) 2.5.2. Для различения истинной модели измерения, заданной посредством плотности распределения p (x 1, х 2,..., хn), линейная модель, которая состоит из n признаков с плотностями распределения f 1(x 1),..., fn (xn), данная посредством плотности распределения f (x 1, х 2,..., хn), содержит информацию меньшую или равную сумме информации, доставляемой признаками модели, т.е.

fi (xi)log fi (xi)/ p (x 1, х 2,..., хn)] d l(xi) ³

³ f (x 1, х 2,..., хn)log f (x 1, х 2,..., хn)/ p (x 1, х 2,..., хn)] d l(x 1, х 2,..., хn)

с равенством при условии .

Поскольку многопараметрическая ММИ, удовлетворяющая данной теореме, обладает максимальной пропускной способностью, то она характеризуется минимальным риском для линейной модели. В связи с этим, воспользовавшись введенным в разд. 2.1 понятием риска ММИ параметра и используя свойство аддитивности функционала риска, можно сформулировать следствие.

Следствие 2.5.2. Минимальный риск R ЛМ многопараметрической линейной ММИ для признаков с интенсивностью риска каждой компоненты модели m i характеризуется интенсивностью риска:

.

Риск многопараметрической линейной модели измерения задается предельным значением риска выбора модели измерения параметра, которое получено в разд. 1.5 и определяется интегральными вероятностными параметрами.

 

 




Поделиться с друзьями:


Дата добавления: 2014-01-05; Просмотров: 346; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.012 сек.