КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Энтропия объединения
Объединением называется совокупность двух и более взаимозависимых ансамблей дискретных случайных переменных. Рассмотрим объединение, состоящее из двух ансамблей Х и У, например из двух дискретных измеряемых величин, связанных между собой вероятностными зависимостями. Схема ансамблей Х: Х1 Х2 Хi Хn p(x1) p(x2) … p(xi) …p(xn) Схема ансамблей У: У1 У2 Уj Уm p(у1) p(у2) … p(уj) …p(уm) Схема ансамблей Х и У: Х1 Х2 Хi Хn у1 p(x1,у1) p(x2, у1) … p(xi, у1) …p(xn, у1) у2 p(x1,у2) p(x2, у2) … p(xi, у2) …p(xn, у2) : уj p(x1,уj) p(x2, уj) … p(xi, уj) …p(xn, уj) уm p(x1,уm) p(x2, уm) … p(xi, уm) …p(xn, уm) Вероятность произведения (совпадения) совместных зависимых событий Х и У равна произведению безусловной вероятности Р(Х) или Р(У) на условные вероятности Р(У/Х) или Р(Х/У). Таким образом, имеем: Р(Х) Р(У) =Р(Х) Р(У/Х)=Р(У) Р(Х/У) Отсюда находятся условные вероятности: В случае дискретных переменных Х и У частные условные вероятности могут быть записаны для х=хn как Р(У1/ХК)=Р(У2/ХК)= Р(Уm/Хn)= С объединением связаны понятия: 1. Безусловной энтропии 2. Условной энтропии 3. Совместной энтропии 4. Взаимной энтропии
Различные виды энтропии в данной таблице имеют следующий смысл: н(х)-безусловная энтропия источника или среднее количество информации на символ, выдаваемое источником. н(у)-безусловная энтропия приемника или среднее количество информации на символ, получаемое приемником. н(х у)-взаимная энтропия системы передачи-приема в целом или средняя информация на пару символов (переданного и принятого). н(х/у)-условная энтропия х относительно у или мера количества информации от источников, когда известно, что принимается у. н(у/х)-условная энтропия у относительно х или мера количества информации в приемнике, когда известно, что принимается х. н(х,у)-совместная энтропия х и у или среднее количество информации выдаваемое источником и принятое приемником. На основании статистических данных могут быть установлены вероятности событий у1,у2,…,уm при условии, что имеют место события хi, a именно р(у1/х1), р1(у2/хi),…, р(уm/хi) Тогда частная энтропия равна н(у/хi)=- Энтропия для всех переданных сигналов равна: н(у/х)=- Аналогично получается условная энтропия: н(х/у) н(х/у)=- Безусловная энтропия ансамбля х равна: н(х)=- Безусловная энтропия ансамбля у равна н(у)=-
Дата добавления: 2014-01-13; Просмотров: 509; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |