Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Энтропия, избыточность и расстояние единственности

Пусть — случайная величина, распределение которой на множестве задается вероятностями

 

Разумеется, и для всех. Покажем, что величина

 

хорошо подходит для измерения количества информации, содержащейся в сообщении о том, что произойдет событие. В основании логарифма число 2 можно заменить на любое другое, но, как будет видно ниже, двойка лучше всего отражает наше интуитивное понимание информации. В случае, когда в основании логарифма стоит 2, единица информации называется бит.

Пусть, т.е.; тогда. Теперь событие достоверно, и сообщение о том, что оно произойдет, не несет никакой информации (как, например, фраза "Солнце завтра снова взойдет"). Это прекрасно соответствует формуле (5.1), поскольку.

Теперь рассмотрим событие, происходящее с вероятностью, типа рождения ребенка определенного пола. Тогда. В предположении, что дети обоих полов рождаются с одинаковой вероятностью, ясно, что сообщение о поле новорожденного дает ровно один бит информации.

Например, 1 означает рождение мальчика, а 0 — рождение девочки. Это вновь согласуется с формулой (5.1), поскольку.

Если некоторое событие происходит с вероятностью, то сообщение о том, что оно происходит, дает два бита информации. Это очевидно в ситуации с четырьмя равновозможными исходами. Каждому из этих исходов можно сопоставить свою двоичную последовательность длины два. С другой стороны, количество информации, которую несет сообщение о событии, происходящем с вероятностью, не должно зависеть от вероятностей других возможных событий. Таким образом, значение, вычисленное по формуле (5.1), вновь согласуется с нашей интуицией. Продолжая подобным образом, получаем, что

 

Математическое ожидание случайной величины, определенной на множестве, называется энтропией и обозначается либо через, либо через, где.Следовательно,

 

 

При принято обозначать, и писать вместо.

 

Поскольку стремится к при, не возникает проблем с определением функции энтропии при равенстве нулю (или 1) некоторых из вероятностей.

График функции изображен ниже при помощи функции Plot пакета "Matnematica".

p =.;

Entrop[p_] = -p*Log[2, p] - (1 - p)*Log[2, 1 - p];

 

Plot[Entrop[x], {x, 0, 1}]

 

Функцию энтропии можно вычислить следующим образом.

MultiEntropy[p_List]:=

 

p = {1/4, 1/4, 1/4, 1/4};

MultiEntropy[p]

|| 2

 

Можно дать следующие интерпретации энтропии случайной величины.

• среднее количество информации, которое дает сообщение о значении,

• неопределенность,

• среднее количество битов, необходимое для реализации.

Помня эти интерпретации, можно ожидать, что функция энтропии обладает следующими свойствами.

, т.е. добавление к множеству невозможного события не влияет на неопределенность величины.

для любой перестановки множества, т.е. перенумерование различных событий множества оставляет энтропию неизменной.

, т.е. неопределенность величины максимальна, если все события равновероятны.

, т.е. среднее количество двоичных разрядов, необходимое для описания результата из множества равно числу битов, необходимых при объединении событий и в одно событие, обозначаемое как, плюс число битов, необходимых для того, чтобы различить события и при условии, что событие произошло. Например, если, то и

 

Можно показать (см. [3]), что функция, определяемая формулой (5.1), — единственная непрерывная функция, удовлетворяющая условию (5.2) и порождающая функцию энтропии, обладающую приведенными выше свойствами.

 

<== предыдущая лекция | следующая лекция ==>
Ентропія, надлишковість і відстань одиничності | Определение 5.1
Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 319; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.012 сек.