КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Энтропия источника с попарной зависимостью сообщений
Учебные вопросы занятия Лекция № 4. Информационные характеристики источников сообщений. ЛЕКЦИЯ Защиты информации
по учебной дисциплине "Теория информации " для студентов специальности 075500 (090105) – Комплексное обеспечение информационной безопасности автоматизированных систем .
Ставрополь 2009 г.
Цель занятия: Изучить информационные характеристики дискретных источников сообщений. Ознакомиться с энтропией зависимых и непрерывных событий. Изучить информационные пределы избыточности.
1.Энтропия источника с попарной зависимостью сообщений. 2. Информационные пределы избыточности .
Количество информации, содержащейся в одном элементе Аi выбираемого из алфавита {Ai}где i = 1..n, где n объем алфавита, определяется следующим выражением
J(Аi) =-log2P(Аi) = H(Аi), (1). где Р(Аi) – вероятность появления i-го элемента алфавита, H(Аi) - частная энтропия. Частная энтропия определяет информативность элемента алфавита для «неподготовленного» получателя, и совершенно не учитывает как смыслового содержания, так и субъективную ценность передаваемого сообщения. Таким образом, в основе информационной характеристики дискретного источника лежит только вероятностный характер источника сообщений. Тогда средняя частная энтропия источника сообщения, приходящая на один элемент, выдаваемый дискретным источником независимых элементов с объемом алфавита М, можно найти как математическое ожидание дискретной случайной величины H(Аi), т.е.будет определяться следующим равенством
Данное выражение справедливо при условии, что все элементы алфавита независимы. На самом деле элементы алфавита генерируются взаимозависимыми, ограничимся рассмотрением парной зависимости. Пусть заданы вероятности появления элементов АiI и AjII т.е. Р(АiI) Р(AjII) причем эти вероятности равны если i = j. Также дана условная вероятность появления элемента AjII при условии, что ранее был передан элемент АiI, т.е. Р(AjII/AiI) тогда условная энтропия приходящаяся на пару символов алфавита определяется следующим образом где Р(AjIIAiI) вероятность парного появления (AjIIAiI).
Известно что Р(AjIIAiI) = P(AiI) Р(AjII/AiI) подставляя данное выражение в предыдущее, получаем
Полученное выражение соответствует энтропии на сочетание элементов во взаимозависимых источниках. Для вычисления энтропии источника с взаимозависимыми элементами необходимо разделить полученный результат на два.
Дата добавления: 2014-01-13; Просмотров: 843; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |