2.Энтропия равна нулю (Н=0) в том случае, когда событие равно единице, а все остальные нулю. Это тот случай, когда об опыте или величине все известно заранее и результат не приносит никакой новой информации.
3. Энтропия имеет наибольшие значение в том случае, когда все вероятности равны между собой
Р1=р2=…=рi=…=pk=1/k
В этом случае
Н=-log2
Н=-
Статистическая мера информации совпадает с логарифмической мерой Хартли
Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет
studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав!Последнее добавление