Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

На самостоятельную работу. Задача 1.Распределение знаков алфавита имеет вид р(х1) = 0,1, р(x2) = 0,1, р(x3) = 0,1, р(x4) = 0,7.Определить число знаков другого алфавита

Задача 1. Распределение знаков алфавита имеет вид р(х1) = 0,1, р(x2) = 0,1, р(x3) = 0,1, р(x4) = 0,7. Определить число знаков другого алфавита, у которого все знаки равновероятны, а энтропия такая же, как и у заданного алфавита.

 

Особый интерес представляют бинарные сообщения, использующие алфавит из двух знаков: (0,1). При m = 2 сумма вероятностей знаков алфавита: p1+p2 = 1. Можно положить p1 = p, тогда p2 = 1‑p.

Энтропию можно определить по формуле:

,

Энтропия бинарных сообщений достигает максимального значения, равного 1 биту, когда знаки алфавита сообщений равновероятны, т.е. при p = 0,5, и ее график симметричен относительно этого значения (рис.2.2).

 

Рис. 2.2. График зависимости энтропии Н двоичных сообщений и ее составляющих:
и от

 

Задача 2. Сравнить неопределенность, приходящуюся на букву источника информации (алфавита русского языка), характеризуемого ансамблем, представленным в таблице 2.2, с неопределенностью, которая была бы у того же источника при равновероятном использовании букв.

Для большинства реальных источников сообщения имеют разные вероятности. Например, в тексте буквы А, О, Е встречаются сравнительно часто, а Щ, Ы – редко. Согласно экспериментальным данным, для букв русского алфавита характерны безусловные вероятности, сведенные в табл. 2.2.

Таблица 2.2. Безусловные вероятности букв русского алфавита

буква вероятность буква вероятность буква вероятность
пробел 0,175 М 0,026 Ч 0,012
О 0,090 Д 0,025 Й 0,010
Е 0,072 П 0,023 Х 0,009
А 0,062 У 0,021 Ж 0,007
И 0,062 Я 0,018 Ю 0,006
Т 0,053 Ы 0,016 Ш 0,006
Н 0,053 З 0,016 Ц 0,004
С 0,045 Ь,Ъ 0,014 Щ 0,003
Р 0,040 Б 0,014 Э 0,003
В 0,038 Г 0,013 Ф 0,002
Л 0,035 К 0,028    

 

Решение.

1. При одинаковых вероятностях появления любой из всех m = 32 букв алфавита неопределенность, приходящуюся на одну букву, характеризует энтропия

.

2. Энтропию источника, характеризуемого заданным табл. 2.2 ансамблем, находят по формуле:

 

Таким образом, неравномерность распределения вероятностей использования букв снижает энтропию источника с 5 до 4,35 бит

<== предыдущая лекция | следующая лекция ==>
Властивості ентропії | Ентропія при безперервному повідомленні
Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 1248; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.