КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Понятие количества информации
Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию, и необходимости в получении дополнительной информации нет. Если после получения сообщения неопределенность осталась, значит, получена нулевая информация. Сообщения обычно содержат информацию о каких – либо событиях. Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность. Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю). Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit — сокращенное от binary digit — двоичная единица). Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит. Количество информации для событий с различными вероятностями определяется по формуле: , (1)
где I – количество информации N – количество возможных событий pi – вероятности отдельных событий.
Если события равновероятны, то количество информации определяется по формуле: I = log2 N (2) или из показательного уравнения: N = 2I (3) Если количество возможных вариантов информации не является целой степенью числа 2, т.е. количество информации число вещественное, то необходимо воспользоваться калькулятором или следующей таблицей:
Единицы измерения количества информации. Принята следующая система единиц измерения количества информации: 1 байт = 8 бит 1 Кбайт = 210 байт = 1024 байт 1 Мбайт = 220 байт = 1024 Кбайт 1 Гбайт = 230байт = 1024 Мбайт 1 Тбайт = 240 байт = 1024 Гбайт 1 Пбайт = 250 байт = 1024 Тбайт
Определение количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений (событий) N, то количество информации, которое несет один знак, можно определить из формулы (1). Если считать появление каждого знака алфавита в тексте событиями равновероятными, то для определения количества информации можно воспользоваться формулой (2) или уравнением (3). Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входят в этот алфавит, то есть чем больше мощность алфавита. Количество информации, содержащейся в сообщении, закодированном с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.
Дата добавления: 2015-04-24; Просмотров: 521; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |