Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Теорема 5.3

Следствие 5.2

Пусть и — независимые случайные величины. Тогда

i.

ii.

iii.

Доказательство. Для того, чтобы доказать утверждение i), повторим доказательство теоремы 5.1, используя равенство.

 

Утверждения ii) и iii) непосредственно следуют из i) и цепного правила.

 

Рассмотрим разность между количеством информации (см. 5.1), содержащейся в сообщении, и количеством информации, содержащейся в том же сообщении при заранее известном условии. Эту разность естественно считать количеством информации о том, что, содержащейся в сообщении. Обозначим это через. Тогда выполняется равенство

 

Заметим, что имеет место симметрия.

Взаимная информация случайных величин определяется как математическое ожидание величины, т.е.

 

 

 

 

 

Доказательство. Из равенства (5.8) следует, что

 

 

Остальные равенства следуют из теоремы 5.1.

 

Величину можно интерпретировать как среднее количество информации, которое дает об (или, наоборот, об).

 

Продублируем понятия собственной энтропии, условной энтропии, совместной энтропии и средней взаимной информации.

На рис. 2 условно показана собственная энтропия H(X) и H(Y), условные энтропии H(Y/X) и H(X/Y) и совместная энтропия H(X,Y).

H(X/Y)
H(Y)
H(X,Y)
H(X)
H(Y/X)
I(X,Y)

Рис. 2

Часть рисунка, отмеченная штриховкой, называется средней взаимной информацией I( X,Y ), содержащейся в ансамблях Х и Y. Она показывает, какое (в среднем) количество информации содержит сообщение X о сообщении Y (или наоборот, сообщение Y о сообщении X).

Как следует из рис. 2,

 

Если сообщения X и Y полностью независимы (рис. 3), то взаимная информация отсутствует и,

 

H(Y)
H(X,Y)
H(X)

Рис. 3

Если сообщения X и Y частично зависимы (рис. 2), то взаимная информация,

 

Если X и Y полностью зависимы (X и Y ‑ содержат одну и ту же информацию) и, то,

 

Если X является подмножеством Y (рис. 4), то.

H(Y)
H(X,Y)
H(X)
H(Y/X)
I(X,Y)

Рис. 4

 

<== предыдущая лекция | следующая лекция ==>
Взаємна інформація | Теорема 5.4. Безумовно безпечні системи
Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 919; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.012 сек.