Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Определение информации как меры изменения неопределенности




Измерение количества информации.

Выделение единиц измерения информации можно проводить по логическому и по физическому (с точки зрения размещения на материальных носителях) критериям. С точки зрения размещения на материальных носителях количество информации можно измерять в битах. В соответствии с положениями теории информации в качестве эталона меры выбирается некоторый объект, который может находиться в одном из двух состояний (бинарный объект). Говорят, что с помощью такого объекта можно записать информацию в 1 бит. Такой метод измерения связан с хранением информации в технических устройствах, находящихся либо в намагниченном, либо в размагниченном состояниях. Машинная единица информации – байт (1 байт = 8 бит). Это основная единица хранения информации в вычислительной машине. Информация в 1 байт содержится в системе из 8 -ми бинарных объектов (которая может находиться в 28 различных состояниях). Байт включает одну букву или типографский знак, две десятичные цифры. Машинные слова составляются из нескольких байтов. Из слов составляются фразы (например, фразой является запись в книгу учета кадров – данные о сотруднике).

Показатель (который выше фигурировал как логическая единица) также может использоваться как физическая единица измерения. Показатель может содержать различное число двоичных, десятичных или алфавитных знаков информации. Выразив среднее значение показателя через определенное число десятичных знаков, он может выступать в качестве единицы количества информации.

Объем ЭИ может также измеряться в следующих единицах: сообщение, слово, строка, и пр.

Следует отметить, однако, что рассмотренные способы измерения информации еще не дают возможности судить о действительном количестве информации в сообщении. Одну и ту же реальную информацию можно оформить в виде краткого содержательного отчета или же в многотомном красиво оформленном виде. Таким образом, число страниц в документе, число байтов, битов, показателей не отражает объем реальной информации, содержащейся в сообщении. Широкое распространение получила мера количества информации, связанная с мерой неопределенности некоторой ситуации. В рамках этого подхода количество информации определяется как числовая характеристика сообщения, отражающая ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения.

Рассмотрим пример бросания монеты. До получения информации о результате имеется два равновозможных варианта (орел, решка). После получения информации об исходе броска неопределённость исчезает. Количество информации, получаемое в подобном случае, называется битом.

Количественно выраженная неопределенность в теории информации получила название энтропии. При энтропии, равной нулю, имеется полная информация о системе. Количество информации может быть определено как разность значений энтропии до и после получения информации.

В простом варианте, пусть имеется N возможных вариантов, Аi, состояния рассматриваемой системы. Обозначим через P(А i) вероятность того (в рамках имеющейся у нас информации о системе до получения сообщения), что система находится в состоянии Аi. Энтропия H (мера степени неосведомленности о состоянии системы) полагается равной:

H = - P(А1)*log2(Р(А1)) - P(А2)*log2(Р(А2)) … - P(АN)*log2(Р(АN)).

Можно показать, что выбор основания, 2, логарифма определяет единицу измерения - бит. Значения логарифмов в данных выражениях £ 0, так как вероятность любого события не превосходит единицу. Следовательно, значение Н всегда неотрицательно. Обозначим через Н0 значение до получения информации и через Н1.- после.

Количество полученной информации дается выражением:

I = Н0 - Н1




Поделиться с друзьями:


Дата добавления: 2017-01-13; Просмотров: 716; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.007 сек.