Пример 5. Совпадение оценок количества информации по Шеннону и по Хартли свидетельствует о полном использовании информационной емкости
Тогда
Н=log2L, бит Н=I’
Совпадение оценок количества информации по Шеннону и по Хартли свидетельствует о полном использовании информационной емкости. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости системы.
Энтропия для двух неравновероятных состояний одного элемента (h=2) равна:
Н=-(р1log2p1+p2log2p2)
Оно меньше информационной емкости двоичной ячейки составляющей бит. Эта видно из следующих расчетов.
studopedia.su - Студопедия (2013 - 2025) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав!Последнее добавление