Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

В общем случае каждый из знаков появляется в сообщении с различной вероятностью




Кількість інформації за К. Шеноном

Рассмотренная выше оценка информации по Р.Хартли основана на предположении о равновероятности всех знаков алфавита источника сообщения.

К. Шеннон рассматривал порождение знаков сообщений в условиях вероятностной схемы:

,,,

где каждый знак сообщения, а значит и само сообщение, имеет разную вероятность появления.

Относительно количества информации, содержащегося в сообщении длины, составленном по схеме независимых испытаний, К. Шеннон высказал следующие требования:

a. Пустое сообщение не содержит информации.

b. Количество информации, содержащееся в сообщении, пропорционально его длине.

 

Пусть на основании статистического анализа известно, что в сообщении длины n знак ai появляется ni раз, т.е. вероятность появления знака из m- значного алфавита в сообщении длины n:

, i = 1,2,3,..., m

Все знаки алфавита составляют полную систему случайных событий, поэтому:

.

Найдем оценку среднего значения количества информации знака алфавита в сообщении длины в виде:

 

где ni ‑ частота появления i -го знака в заданном множестве A;

n – длина сообщения;

m ‑ количество знаков в алфавите сообщения;

Ii ‑ количество информации i -го сообщения.

 

Тогда при, получим:

 

Переходя к произвольным основаниям логарифмов, получают формулы Шеннона для энтропии источника сообщения и количества информации в сообщении длины:


Таким образом, энтропия источника сообщения является суммой с противоположным знаком всех произведений вероятности появления i -го знака (элементарного сообщения источника), умноженных на их же двоичные логарифмы.

 

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n -ого порядка) встречаются очень редко, то неопределённость ещё более уменьшается.




Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 437; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.007 сек.