КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Меры информации синтетического уровня
Меры информации прагматического уровня Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. (А.А. Харкевич). Если до получения информации вероятность достижения цели равнялась p0, а после ее получения — р1, то ценность информации определяется как логарифм отношения р1/р0: I=log2 р1 - log2 р0 = log2 (р1/ р0). Таким образом, ценность информации при этом измеряется в единицах информации, в данном случае в битах. Дальнейшее развитие данного подхода базируется на статистической теории информации и теории решений. Сущность метода состоит в том, что, кроме вероятностных характеристик неопределенности объекта, после получения информации вводятся функции штрафов или потерь и оценка информации производится в результате минимизации потерь. Количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Для измерения информации на синтаксическом уровне вводятся два параметра: 1) объем информации (данных) — V (объемный подход) и 2) количество информации — I (энтропийный подход). Объем информации V (объемный подход). Информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. Если теперь количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении. Единица измерения информации (данных) соответственно будет меняться, например для разных алфавитов. В десятичной СС единицей измерения информации будет дит (десятичный разряд). Cообщение в виде n-разрядного числа имеет объем данных Vд = n дит.(2003 => Vд = 4 дит). В двоичной CC единицей измерения информации будет — бит (bit — binary digit — двоичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных V = n бит. (11001011 => V = 8 бит) Укрупненная единица измерения «байт»=8 бит. Более крупные единицы измерения: 1 Кбайт = 1024 байт = 210 байт; 1 Мбайт = 1024 Кбайт = 220 байт = 1 048 576 байт; 1 Гбайт = 1024 Мбайт = 230 байт = 1 073 741 824 байт; 1 Тбайт = 1024 Гбайт = 240 байт = 1 099 511 627 776 байт; Далее Пета (P), Экса (E), Зета (Z), Йотта (Y). Количество информации I (энтропийный или вероятностный подход). Факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной. Примеры использования вероятностного подхода: 1) Подбрасывание игральной кости, имеющей N граней. Результаты: выпадение каждой грани со знаками 1, 2…N Þ вероятность выпадения одной любой стороны равновероятны. энтропия по формуле Хартли: H=log2N. 2) Вероятность выпадения различных букв в тексте для каждой буквы разные, т.е. не равновероятно. Формула Шеннона: Если алфавит состоит из двух знаков: 0 или 1 Þ выпадение этих знаков равновероятно. Т.о. количество информации в двоичном слове = числу знаков в нем. Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т. д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия Н, а количество информации равно: I = Нарr - Haps, (1) где Нарr — априорная энтропия о состоянии исследуемой системы или процесса. Haps— апостериорная энтропия. Апостериори (от лат. a posteriori — из последующего) — происходящее из опыта (испытания, измерения). Априори — (от лат. a priori — из предшествующего) — понятие, характеризующее знание, предшествующее опыту (испытанию), и независимое от него. В случае когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат), т. е. Haps = 0, количество полученной информации совпадает с первоначальной энтропией. Н(А) = logmN – мера была предложена американским ученым Р. Хартли в 1928 г. В зависимости от основания логарифма m применяют следующие единицы измерения: 1. Биты — при этом основание логарифма равно 2: 2. Наты — при этом основание логарифма равно е: 3. Диты — при этом основание логарифма равно 10: Мера Хартли позволяет решать определенные практические задачи, когда все возможные состояния источника информации имеют одинаковую вероятность. В общем случае степень неопределенности реализации состояния источника информации зависит не только от числа состояний, но и от вероятностей этих состояний. Если источник информации имеет, например, два возможных состояния с вероятностями 0,99 и 0,01, то неопределенность выбора у него значительно меньше, чем у источника, имеющего два равновероятных состояния, так как в этом случае результат практически предрешен.
Дата добавления: 2014-01-20; Просмотров: 414; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |