Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Содержательный подход к измерению информации




Измерение количества информации.

Двоичное кодирование информации в компьютере

В компьютере для представления информации используется двоичное кодирование, так как удалось создать надежно работающие технические устройства, которые могут со стопроцентной надежностью сохранять и распознавать не более двух различных состояний (цифр):

• электромагнитные реле (замкнуто/разомкнуто), широко использовались в конструкциях первых ЭВМ;

• участок поверхности магнитного носителя информации (намагничен/размагничен);

• участок поверхности лазерного диска (отражает/не отражает);

• триггер (см. п. 3.7.3), может устойчиво находиться в одном из двух состояний, широко используется в оперативной памяти компьютера.

Все виды информации в компьютере кодируются на машинном языке, в виде логических последовательностей нулей и единиц.

Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр (0 и 1)

1 бит – это количество информации в сообщении, состоящем из 1 символа двоичного алфавита 0 или 1. Это наименьшая единица информации.

Как же измерить количество информации?

Можно измерить количеством слов, букв. Но единица измерения информации должна быть универсальной, т.е. быть понятными не только человеку, но и машине.

Поскольку ПК понимает только цифровую информацию и его язык состоит только из двух цифр 0 и 1, то за самую маленькую единицу договорились брать количество информации в сообщении, состоящем из 1 символа двоичного алфавита (0;1). Эту единицу информации называют битом.

На практике существует два подхода к измерению информации: содержательный или вероятностный (Шеннон) и алфавитный (кибернетический).

Содержательный подход. Здесь возможна качественная оценка информации: новая, срочная, важная и т.д.

Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией – той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации.

По Шеннону, информация – уменьшение неопределенности наших знаний.

Неопределенность некоторого события – это количество возможных исходов данного события.

Например, перед броском монеты существует неопределенность наших знаний (два исхода, возможны два события) так как невозможно предсказать, как упадет монета. Но после броска неопределенность уменьшается в два раза. Неопределенность равна 2.

Так, например, если из колоды карт наугад выбирают карту, то неопределенность равна количеству карт в колоде.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Если сообщение уменьшило неопределенность знаний ровно в два раза, то говорят, что сообщение несет 1 бит информации.

1 бит – объем информации такого сообщения, которое уменьшает неопределенность знания в два раза.

Рассмотрим, как можно подсчитать количество информации в сообщении, используя содержательный подход.

Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных (равновозможных) событий. Тогда количество информации i, заключенное в этом сообщении, и число событий N связаны формулой:

N = 2i

Эта формула носит название формулы Хартли. Получена она в 1928 г. американским инженером Р. Хартли.

Если N равно целой степени двойки (2, 4, 8, 16 и т.д.), то вычисления легко произвести "в уме". В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей логарифмов либо определять значение логарифма приблизительно (ближайшее целое число, большее).

Например, если из 256 одинаковых, но разноцветных шаров наугад выбрали один, то сообщение о том, что выбрали красный шар несет 8 бит информации (28=256).

При игре «Крестики-нолики» на поле 8 на 8 перед первым ходом существует 64 возможных события и формула Хартли примет вид 64 = 2i, так 64 = 26, то получим 26=2i, т.о i = 6 битов.

В корзине лежат 16 шаров разного цвета. Сколько информации несет сообщение, что достали шар белого цвета: 16=2i, 24=2i, i=4 бита.

Для угадывания числа (наверняка) в диапазоне от 0 до 100, если разрешается задавать только двоичные вопросы (с ответом "да" или "нет"), нужно задать 7 вопросов, так как объем информации о загаданном числе больше 6 и меньше 7 (26<100>27)




Поделиться с друзьями:


Дата добавления: 2014-11-18; Просмотров: 2182; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.