Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Количественная мера информации

Динамические свойства информации

Динамические свойства информации, как следует из самого названия, характеризуют динамику развития информации во времени.

Рост информации. Прежде всего, необходимо отметить свойство роста информации. Движение информации в информационных коммуникациях и постоянное ее распространение, и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком, ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам.

Старение. Среди динамических свойств необходимо также отметить свойство старения информации.

 

Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

 

 

Каждый предмет или явление человек пытается охарактеризовать, для сравнения с подобными, его величиной. Не всегда это можно просто и однозначно сделать. Даже величины физических предметов можно оценивать по-разному: по объему, весу, массе, количеству составляющих его элементов, стоимости. Поэтому, например, понятно, что даже на простой вопрос: "Что больше, килограммовая гиря или детский воздушный шарик? "- можно ответить по-разному. Чем явление более сложно и многопланово и чем больше характеристик у этого явления, тем труднее подобрать для него удовлетворяющее всех, кто занимается этим явлением, определение его величины. Так и количество информации можно мерить по-разному: в количествах книг, страниц, знаков, метрах кинопленки, тоннах архивных материалов, килобайтах оперативной памяти ЭВМ, а также оценивать по эмоциональному восприятию человека, по полученной пользе от обладания информацией, по необходимым затратам на обработку, систематизацию информации и т.д. В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли: I = log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100» 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Приведем другие примеры равновероятных сообщений:

1. при бросании монеты: "выпала решка", "выпал орел";

2. на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

 

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений. А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

· 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

· 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

· 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

· 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

· 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Введенное таким образом понятие количество информации не совпадает с общепринятым понятием количества информации, как важности полученных сведений, но оно с успехом используется в вычислительной технике и связи.

<== предыдущая лекция | следующая лекция ==>
Прагматические свойства информации | Экспертные методы оценки информации и становление новых мер информации
Поделиться с друзьями:


Дата добавления: 2014-01-07; Просмотров: 595; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.015 сек.