Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Ентропія при безперервному повідомленні

На самостоятельную работу

На самостоятельную работу

Задача 1. Распределение знаков алфавита имеет вид р(х1) = 0,1, р(x2) = 0,1, р(x3) = 0,1, р(x4) = 0,7. Определить число знаков другого алфавита, у которого все знаки равновероятны, а энтропия такая же, как и у заданного алфавита.

 

Особый интерес представляют бинарные сообщения, использующие алфавит из двух знаков: (0,1). При m = 2 сумма вероятностей знаков алфавита: p1+p2 = 1. Можно положить p1 = p, тогда p2 = 1‑p.

Энтропию можно определить по формуле:

,

 

Энтропия бинарных сообщений достигает максимального значения, равного 1 биту, когда знаки алфавита сообщений равновероятны, т.е. при p = 0,5, и ее график симметричен относительно этого значения.(рис.2.2).

 

Рис. 2.2. График зависимости энтропии Н двоичных сообщений (1) и ее составляющих (2,3): (1‑ p) log (1‑p) и ‑p log p от p

 

Задача 2. Сравнить неопределенность, приходящуюся на букву источника информации (алфавита русского языка), характеризуемого ансамблем, представленным в таблице 2.2, с неопределенностью, которая была бы у того же источника при равновероятном использовании букв.

Для большинства реальных источников сообщения имеют разные вероятности. Например, в тексте буквы А, О, Е встречаются сравнительно часто, а Щ, Ы – редко. Согласно экспериментальным данным, для букв русского алфавита характерны безусловные вероятности, сведенные в табл. 2.2.

 

Таблица 2.2. Безусловные вероятности букв русского алфавита

буква вероятность буква вероятность буква вероятность
пробел 0,175 М 0,026 Ч 0,012
О 0,090 Д 0,025 Й 0,010
Е 0,072 П 0,023 Х 0,009
А 0,062 У 0,021 Ж 0,007
И 0,062 Я 0,018 Ю 0,006
Т 0,053 Ы 0,016 Ш 0,006
Н 0,053 З 0,016 Ц 0,004
С 0,045 Ь,Ъ 0,014 Щ 0,003
Р 0,040 Б 0,014 Э 0,003
В 0,038 Г 0,013 Ф 0,002
Л 0,035 К 0,028    

 

 

Решение.

1. При одинаковых вероятностях появления любой из всех m = 32 букв алфавита неопределенность, приходящуюся на одну букву, характеризует энтропия

H = log m = log 32 = 5 бит.

2. Энтропию источника, характеризуемого заданным табл. 2.2 ансамблем, находят по формуле:

» 4,35 бит.

Таким образом, неравномерность распределения вероятностей использования букв снижает энтропию источника с 5 до 4,35 бит

В задаче 2 проверить полученные результаты, написав программу расчета в Excel, MathCad.

Задача 3. Заданы ансамбли Х и Y двух дискретных величин:

 

Таблица 2.3.

Случайные величины хi 0,5 0,7 0,9 0,3
Вероятности их появления 0,25 0,25 0,25 0,25

 

Таблица 2.4.

Случайные величины уj        
Вероятности их появления 0,25 0,25 0,25 0,25

 

Сравнить их энтропии.

Решение. Энтропия не зависит от конкретных значений случайной величины. Так как вероятности их появления в обоих случаях одинаковы, то

Н(Х) = Н(Y) = ‑ 4(0,25 log 0,25) = ‑4(1/4 log 1/4) = log 4 = 2 бита

 

Ранее была рассмотрена мера неопределенности выбора для дискретного источника информации. На практике в основном встречаются с источниками информации, множество возможных состояний которых составляет континуум. Такие источники называют непрерывными источниками информации.

Во многих случаях они преобразуются в дискретные посредством использования устройств дискретизации и квантования. Вместе с тем существует немало и таких систем, в которых информация передается и преобразуется непосредственно в форме непрерывных сигналов. Примерами могут служить системы аналоговой телефонной связи и телевидения.

Оценка неопределенности выбора для непрерывного источника информации имеет определенную специфику.

Во-первых, значения, реализуемые источником, математически отображаются случайной непрерывной величиной.

Во-вторых, вероятности значений этой случайной величины не могут использоваться для оценки неопределенности, поскольку в данном случае вероятность любого конкретного значения равна нулю.

Естественно, однако, связывать неопределенность выбора значения случайной непрерывной величины с плотностью распределения вероятностей этих значений.

Учитывая, что для совокупности значений, относящихся к любому сколь угодно малому интервалу случайной непрерывной величины, вероятность конечна, попытаемся найти формулу для энтропии непрерывного источника информации, используя операции квантования и последующего предельного перехода при уменьшении кванта до нуля.

 

<== предыдущая лекция | следующая лекция ==>
Из этого следует, что при равновероятности знаков алфавита энтропия определяется исключительно числом знаков m алфавита и по существу является характеристикой только алфавита | 
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 196; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.017 сек.