Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Меры информации синтетического уровня




Меры информации прагматического уровня

Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. (А.А. Харкевич). Если до получения информации вероятность достижения цели равнялась p0, а после ее получения — р1, то ценность информации определяется как логарифм отношения р10: I=log2 р1 - log2 р0 = log2 1/ р0).

Таким образом, ценность информации при этом измеряется в единицах информации, в данном случае в битах.

Дальнейшее развитие данного подхода базируется на статистической теории информации и теории решений. Сущность метода состоит в том, что, кроме вероятностных характеристик неопределенности объекта, после получения информации вводятся функции штрафов или потерь и оценка информации производится в результате минимизации потерь.

Количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Для измерения информации на синтаксическом уровне вводятся два параметра:

1) объем информации (данных) — V (объемный подход) и

2) количество информации — I (энтропийный подход).

Объем информации V (объемный подход). Информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Единица измерения информации (данных) соответственно будет меняться, например для разных алфавитов.

В десятичной СС единицей измерения информации будет дит (десятичный разряд). Cообщение в виде n-разрядного числа имеет объем данных Vд = n дит.(2003 => Vд = 4 дит).

В двоичной CC единицей измерения информации будет — бит (bit — binary digit — двоичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных V = n бит. (11001011 => V = 8 бит)

Укрупненная единица измерения «байт»=8 бит. Более крупные единицы измерения:

1 Кбайт = 1024 байт = 210 байт;

1 Мбайт = 1024 Кбайт = 220 байт = 1 048 576 байт;

1 Гбайт = 1024 Мбайт = 230 байт = 1 073 741 824 байт;

1 Тбайт = 1024 Гбайт = 240 байт = 1 099 511 627 776 байт;

Далее Пета (P), Экса (E), Зета (Z), Йотта (Y).

Количество информации I (энтропийный или вероятностный подход). Факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.

Примеры использования вероятностного подхода:

1) Подбрасывание игральной кости, имеющей N граней. Результаты: выпадение каждой грани со знаками 1, 2…N Þ вероятность выпадения одной любой стороны равновероятны. энтропия по формуле Хартли: H=log2N.

2) Вероятность выпадения различных букв в тексте для каждой буквы разные, т.е. не равновероятно.

Формула Шеннона:

Если алфавит состоит из двух знаков: 0 или 1 Þ выпадение этих знаков равновероятно. Т.о. количество информации в двоичном слове = числу знаков в нем.

Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т. д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия Н, а количество информации равно:

I = Нарr - Haps, (1)

где Нарr — априорная энтропия о состоянии исследуемой системы или процесса.

Haps— апостериорная энтропия.

Апостериори (от лат. a posteriori — из последующего) — происходящее из опыта (испытания, измерения). Априори — (от лат. a priori — из предшествующего) — понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него.

В случае когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат), т. е. Haps = 0, количество полученной информации совпадает с первоначальной энтропией.

Н(А) = logmN – мера была предложена американским ученым Р. Хартли в 1928 г. В зависимости от основания логарифма m применяют следующие единицы измерения:

1. Биты — при этом основание логарифма равно 2:
Н(А) = log2N. (2.4)

2. Наты — при этом основание логарифма равно е:
H = lnN;

3. Диты — при этом основание логарифма равно 10:
H = lgN.

Мера Хартли позволяет решать определенные практические задачи, когда все возможные состояния источника информации имеют одинаковую вероятность.

В общем случае степень неопределенности реализации состояния источника информации зависит не только от числа состояний, но и от вероятностей этих состояний. Если источник информации имеет, например, два возможных состояния с вероятностями 0,99 и 0,01, то неопределенность выбора у него значительно меньше, чем у источника, имеющего два равновероятных состояния, так как в этом случае результат практически предрешен.




Поделиться с друзьями:


Дата добавления: 2014-01-20; Просмотров: 392; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.