Информация - не сами объекты и процессы, или их свойства, а представляющие характеристики предметов и процессов, их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов и других абстрактных характеристик.
Неопределенность ситуации принято характеризовать величиной, которая называется энтропия. Исходя из этого, энтропия определяется суммой произведений вероятностей различных реализаций сигнала Х на логарифм этих вероятностей, взятых с обратным знаком:
i=n
H(X)= - ∑ P1 log Pi,где:
i=1
H(X) – энтропия сигнала Х,
Pi – вероятность i – ой реализации случайного сигнала,
n - общее возможное количество реализаций.
Измерение состоит в сужении интервала неопределенности от значения, известного до его проведения, до величины d, называемой энтропийным интервалом неопределенности, ставшей известной после измерения. Энтропийный интервал определяется по формуле
Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет
studopedia.su - Студопедия (2013 - 2025) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав!Последнее добавление