Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Меры и единицы количества и объема информации




1.2.1. Информационный объем

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний об объекте или явлении, т.е. узнавая что-то новое, знания пополняются, а неопределенность уменьшается.

Передача информации, сжатие информации, обработка информации. Здесь всегда подразумевается некое сообщение, закодированное и переданное тем или иным способом. Поскольку любое сообщение (любая физическая информация) в ЭВМ представляется в форме электрических сигналов, причём 1 означает наличие сигнала, 0 – отсутствие сигнала и может быть закодировано в двоичном виде, будем рассматривать только сообщения, составленные из битов, т. е. нулей и единиц.

В теории кодирования бит – это знак двоичного алфавита («0», «1»)
Если сообщение несет 1 бит информации, то оно уменьшает неопределенность знаний в 2 раза.

Информационный объём сообщения (количество бит информации в сообщении), представленного символами естественного или формального языка, складывается из информационных весов составляющих его символов.
Информационный объём сообщения l равен произведению количества символов в сообщении K на информационный вес символа алфавита i;
l = K * i

Подсчет информационного объема сообщения является чисто технической задачей, так как при этом подсчете смысл сообщения не играет никакой роли.

Для определения количества информации используют 2 основных подхода: объемный (алфавитный) и вероятностный
Чтобы вычислить информационный объем сообщения надо количество символов умножить на число бит, которое требуется для хранения одного символа.

Например, для вычисления информационного объема текста, из которого состоит книга, нужно определить начальные данные: количество страниц в книге, среднее количество строк текста на каждой странице и число символов с пробелами в каждой строке текста. Пусть книга содержит 150 страниц, по 40 строк на странице, по 60 символов в строке.

Количество символов в книге = 150 страниц * 40 строк * 60 символов = 360 тыс. символов в книге.

Исходя из того, что один символ весит один байт (8 бит), информационный объем книги = 360 тысяч символов * 1 байт = 360 тысяч байт.

Можно перейти к более крупным единицам измерения: 1 Кб (килобайт) = 1024 байт, 1 Мб (мегабайт) = 1024 Кб. Тогда 360 тысяч байт / 1024 = 351,56 Кб или 351,56 Кб / 1024 = 0,34 Мб.

 

Чтобы найти информационный объем графического файла, также определяются начальные данные. Пусть изображение содержит точечную черно-белую фотографию 10 х 15 см. Каждый квадратный сантиметр содержит 600 точек, каждая точка описывается 4 битами.
Вычислим общее количество точек, содержащихся в фотографии. Обратите внимание, что 600 точек содержит не линейный сантиметр, а квадратный. Таким образом общее число точек будет 10 х 15 х 600 = 9000 точек. Поскольку точка описывается 4 битами, то общее число бит 9000 х 4 = 36000 бит.
Переведем биты в байты и получим 36000: 8 = 4500 байт

Переведем байты в килобайты 4500: 1024 = 4,39 килобайт.

 

1.2.2. Определение количества информации с равновероятностными событиями (формула Хартли)

Вероятностный (содержательный) подход к измерению количества информации развил американский инженер Хартли, в 1928г. (для равновероятностных событий)

Хартли процесс получения информации рассматривал как выбор одного события из конечного множества N количества равновероятных событий (мощность алфавита), а количество информации(информационный вес символа алфавита) I определил как двоичный логарифм N

I =log2 N

т.е. количество равновероятных событий

N= 2 I

(орел/решка, вкл./выкл., чет./нечет.)

Примечание

(из курса информатики, log ab = x, ax=b логарифм числа b по основанию a определяется как показатель степени, в которую нужно возвести основание a чтобы получить число b )

Например, рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:
I = log2 4 = 2 (бит).

1.2.3. Определение количества информации с событиями разной вероятности (формула Шеннона)

Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются

Для неравновероятных событий формулу для определения количества информации предложил американский математик Клод Шеннон в конце 40-х годов XX века.

N

I = - ∑pilog2pi

i=1

где pi – вероятности отдельных событий, т.е. именно i -е событие выделено из числа N




Поделиться с друзьями:


Дата добавления: 2017-02-01; Просмотров: 125; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.