КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Определение начальных условий алгоритмаЯзвинского при оценке результатов измерения
Алгоритм Язвинского предназначен для определения оценки нестационарных результатов измерения путем адаптивной фильтрации по последовательности скалярных измерений yk [18, 94]. При этом в качестве модели измерений выбирается модель Гаусса – Маркова [75] yk = H k x k + vk, априорные данные для которой задаются ошибками, сопровождающими измерение, а также начальными условиями x н. Причем ошибки описываются нормальным законом распределения с нулевым математическим ожиданием и дисперсией D k, т. е. vk ~ N (0, D k). Эти элементы математической постановки задачи оценивания задаются как Q = . При этом в качестве критерия оптимизации выбирается критерий максимального правдоподобия для совместной плотности распределения вероятностей xk и Y 1 k ), который совпадает с минимумом среднего риска оценивания алгоритма фильтрации. Значения данного алгоритма определяются соотношениями x (k | k) = M[ xk | Y 1 k, ] = x (k | k – 1) + Kk vk; vk = yk – H k x (k | k – 1). Данный алгоритм является квазиоптимальным, т.е. вид решения уравнения будет меняться в зависимости от дополнительных ограничений, накладываемых по условию каждой конкретной задачи. Оценка диагональной матрицы Q требует значительного объема вычислений, связанных с обращением матрицы A. Алгоритм не предусматривает оценивание матрицы измерительных шумов R. Для повышения качества полученных оценок используют адаптивный алгоритм с обратной связью по обновленной последовательности, который имеет вид x (k +1| k +1) = x (k +1| k) + Kk +1 v (k +1| k); v (k +1| k) = yk +1 – H x (k +1| k); Kk +1 = s + Mv (v (k +1| k) v T(k +1| k)-1; s + = (s T s)-1 s T; Мv = ; s = . Как первичный алгоритм Язвинского, так и его модификация требует задания начального условия x н. Выбор данного параметра алгоритма оценивания является важным этапом определения оцениваемого параметра. Вследствие ограниченности априорных данных на начальных этапах оценивания, а также отсутствия апостериорных данных выбора качественной начальной оценки x н, критерием ее выбора не может быть точность ее задания. Однако эта оценка должна обеспечивать максимальную сходимость алгоритма уже на начальных этапах его функционирования. Таким образом, задача выбора начального условия x н сводится к тому, чтобы при одинаковой дисперсии исходной оценки необходимо выбрать ту начальную оценку, которая при одинаковом объеме статистики обеспечивает максимальную сходимость алгоритма. Для конкретизации выбора начального значения x 0 учтем, что аналогично экстремальному свойству нормального закона распределения случайной величины при заданной дисперсии для энтропии Шеннона [96] можно сформулировать экстремальное свойство и для энтропии Кульбака – Лейблера, в соответствии с которым величина нормированного риска R 1(x, ) достигает свое максимальное значение для нормального закона распределения. Для доказательства этого положения учтем, что плотность вероятности нормально распределенной случайной величины в выражении ее энтропии Шеннона вне знака логарифма может быть замена произвольной плотностью вероятности, поскольку законы распределения сравниваются при нулевом математическом ожидании и при одинаковых дисперсиях: D = =. Следовательно, для нормального закона распределения экстремальная энтропия Шеннона равна HN [ X ] = = . Вычтя из данного выражения величину энтропии для произвольного закона распределения, отличающегося от нормального, H [ X ]= , получаем максимальное значение для энтропии Кульбака – Лейблера: HN [ X ] – H [ X ] = . Как показано в работе [3], величина нормированного риска совпадает с выражением для энтропии Кульбака – Лейблера при условии, что величина fN (x) равна интенсивности риска: , где f (x) – плотность распределения начальной оценки оцениваемой случайной величины; S (x 0) = 1 – F (x 0), F (x 0) = . В связи с этим интенсивность риска должна иметь вид нормального закона распределения, т.е. fN (x) = , что возможно при условии, когда плотность распределения случайной величины должна носить нормальный закон распределения. Учтя экстремальное свойство нормального закона распределения нормированного риска, из формулы (1) следует, что в качестве начальной оценки алгоритма Язвинского, при определении оценки по результатам измерения, следует выбирать оценку с нормальным законом распределения x н ~ N ((0|0), D (0|0)), которая обладает предельной асимптотической эффективностью, т.е. обеспечивает уже на первых шагах функционирования алгоритма оценивания предельную скорость его сходимости.
Дата добавления: 2014-01-05; Просмотров: 384; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |