КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
В общем случае каждый из знаков появляется в сообщении с различной вероятностью
Кількість інформації за К. Шеноном Рассмотренная выше оценка информации по Р.Хартли основана на предположении о равновероятности всех знаков алфавита источника сообщения. К. Шеннон рассматривал порождение знаков сообщений в условиях вероятностной схемы: ,,, где каждый знак сообщения, а значит и само сообщение, имеет разную вероятность появления. Относительно количества информации, содержащегося в сообщении длины, составленном по схеме независимых испытаний, К. Шеннон высказал следующие требования: a. Пустое сообщение не содержит информации. b. Количество информации, содержащееся в сообщении, пропорционально его длине.
Пусть на основании статистического анализа известно, что в сообщении длины n знак ai появляется ni раз, т.е. вероятность появления знака из m- значного алфавита в сообщении длины n: , i = 1,2,3,..., m Все знаки алфавита составляют полную систему случайных событий, поэтому: . Найдем оценку среднего значения количества информации знака алфавита в сообщении длины в виде:
где ni ‑ частота появления i -го знака в заданном множестве A; n – длина сообщения; m ‑ количество знаков в алфавите сообщения; Ii ‑ количество информации i -го сообщения.
Тогда при, получим:
Переходя к произвольным основаниям логарифмов, получают формулы Шеннона для энтропии источника сообщения и количества информации в сообщении длины: Таким образом, энтропия источника сообщения является суммой с противоположным знаком всех произведений вероятности появления i -го знака (элементарного сообщения источника), умноженных на их же двоичные логарифмы.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. Энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n -ого порядка) встречаются очень редко, то неопределённость ещё более уменьшается.
Дата добавления: 2013-12-12; Просмотров: 456; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |