Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Количество и единицы измерения информации

Определить понятие количество информации довольно сложно.

В решении этой проблемы существ уют два подхода. Исторически

они возникли почти одновременно. В конце 40-х годов 20 века один

из основоположников кибернетики американский математик Клод

Шеннон развил вероятностный подход к измерению количества

информации, а работы по созданию ЭВМ привели к объемному

подходу.

Вероятностный подход

Рассмотрим передачу сообщения по каналу связи, представляю-

щего собой буквы некоторого алфавита (n символов). Вероятность

появления в сообщении разных символов различна. Обозначим ве-

роятность появления i-го символа через pi, i=1, 2,..., n. За количест-

во информации, приходящейся на один символ i выбирается вели-

чина log (1/p i). Сложив количество информации для всех n симво-

лов и, разделив на n, получим среднее количество информации, пе-

редаваемой одним символом.

Этот подход связан с понятием энтропии, как меры неопределен-

ности. Неопределенность совокупность случайных событий из n-

возможных можно получить усреднением по всем событиям:

H p p i i

i

n

log2

В случае равной вероятности событий p

n i

,

i=1, 2,..., n, H

n n

n

i

n 1 1

2 2

log log.Эта формула впервые пред-

ложена Хартли в 1928 году. При n=2 и p1 p2 0..5 I=H=1.

Чем больше разнообразие состояний объекта, тем больше его н е-

определенность, а, следовательно, и энтропия. При таком подходе

за единицу измерения количества информации принимается 1 бит –

количество информации, получаемое в результате опыта, имею-

щего только два возможных исхода.

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называть би-

тами (от английского BInary digiTs – двоичные цифры). Отметим,

что создатели компьютеров отдают предпочтение именно двоичной

системе счисления потому, что, в техническом устройстве наиболее просто реализовать два противоположных физических состояния. В компьютере бит является наименьшей возможной единицей инфор-мации. Объем информации, записанной двоичными знаками в памя-ти компьютера или на внешнем носителе, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом невозможно нецелое число битов. Для удобства использования введены и более крупные единицы информации. 1 байт = 8 бит, 1 килобайт = 1024 байт, 1 мегабайт = 1024 килобайта и т.д. При та-ком подходе за единицу измерения количества информации прини-мается 1 бит – количество информации, предаваемое одним двоич-ным символом.

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Если некоторое сообщение допускает измеримость количества ин-формации в обоих смыслах, то они не обязательно совпадают, при этом вероятностное количество информации не может быть боль-ше объемного.

При измерении информации, передаваемой по каналам связи, мера информации Шеннона является наилучшей. Однако при оцен-ке информативности текстов, алгоритмов, отдельных высказываний эта мера не пригодна.

<== предыдущая лекция | следующая лекция ==>
Информационные системы и их функционирование Информационная деятельность человека | Кодирование информации. Представление информации в ЭВМ
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 509; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.009 сек.