Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Информация и ее измерение




ИНФОРМАЦИОННЫЕ АСПЕКТЫ УПРАВЛЕНИЯ

 

 

Имеется множество определений понятия информации в различных областях знаний [15, 16]: в философии – информация есть отражение реального мира; в теории управления – мера раскрытой неопределенности; в теории связи – информация есть все сведения, являющиеся объектом хранения, передачи и преобразования.

Нужно отметить, что понятие информации связано с некоторыми моделями реальных объектов, отражающими их сущность в той степени, в какой это необходимо в соответствии с поставленными целями.

Таким образом, под информацией нужно понимать не сами физические объекты и процессы, а их представительные характеристики, отражения или отображения в виде чисел, формул, описаний, чертежей, символов, образов и других абстрактных характеристик.

Сама по себе информация может быть отнесена к области абстрактных категорий, однако проявляется она всегда в материально-энергетической форме в виде сигналов.

Виды информации

Информацию можно различать:

v по областям знаний:

биологическая, техническая, экономическая и др.;

v по физической природе восприятия:

зрительная, слуховая, вкусовая и др.;

v по структурно-метрическим свойствам.

Важнейшим вопросом теории информации является установление меры количества и качества информации.

В теории информации можно выделить три основных направления: структурное, статистическое и семантическое.

Структурная теория рассматривает дискретное строение массивов информации и их измерение простым подсчетом информационных элементов (квантов) или комбинаторным методом, предполагающим простейшее кодирование массивов информации.

Статистическая теория оперирует понятием энтропии как меры неопределенности, учитывающей вероятность появления, а, следовательно и информативность тех или иных сообщений.

Семантическая теория учитывает целесообразность, ценность, полезность или существенность информации.

Прежде чем переходить к мерам информации укажем, что источники информации и создаваемые им сообщения разделяются на дискретные и непрерывные. Дискретные сообщения слагаются из счетного множества элементов, создаваемых источником последовательно во времени. Набор элементов называется алфавитом источника, а элементы – буквами. Понятие буквы в данном случае шире, чем в письменности, оно включает цифры и другие знаки. Число букв в алфавите называется объемом алфавита.

Дискретный источник в конечное время создает конечное множество сообщений. Типичными дискретными сообщениями являются текст, записанный с помощью какого-либо алфавита, последовательность чисел, представленных знаками.

Непрерывные сообщения отражаются какой-либо физической величиной, изменяющейся в заданном интервале времени. Получение конечного множества сообщений за конечный промежуток времени достигается путем дискретизации (во времени) и квантованию (по уровню).

При использовании структурных мер учитывается только дискретное строение информационной системы, в особенности количество содержащихся в ней информационных элементов, связей между ними или комбинаций из них.

Под информационными элементами понимаются неделимые части – кванты – информации в дискретных моделях реальных информационных систем.

К структурным мерам относятся геометрическая, комбинаторная и аддитивная меры информации.

Геометрическая мера. Геометрическим методом определяется потенциальное, т.е. максимально возможное количество информации в заданных структурных габаритах. Это количество называют информационной емкостью исследуемой части информационной системы. Информационная емкость может быть представлена числом, показывающим, какое количество квантов содержится в полном массиве информации.

Комбинаторная мера. В комбинаторной мере количество информации представляется как количество комбинаций элементов, то есть в данном случае оценке подвергается комбинаторное свойство потенциального структурного разнообразия информационных систем.

Комбинирование возможно в системах в неодинаковыми элементами, переменными связями или разнообразными позициями.

К комбинаторной мере целесообразно прибегать тогда, когда требуется оценить возможность передачи информации при помощи различных комбинаций информационных элементов. Образование комбинаций есть одна из форм кодирования информации.

В отличии от геометрической меры, где осуществляется простой подсчет квантов, количество информации Q в комбинаторной мере заключается в определении количества возможных или действительно осуществленных комбинаций, т.е. в оценке структурного разнообразия.

При применении комбинаторной меры возможное количество информации Q совпадает с числом возможных соединений (сочетаний, перестановок, размещений).

Аддитивная мера (мера Хартли). Введем понятие глубины h и длины l числа.

l – длина числа – количество повторений алфавита, необходимых и достаточных для представления чисел нужной величины.

Аддитивная мера позволяет вычислить количество информации в виде:

Q = hl,

где h – глубина числа – количество различных элементов (знаков), содержащихся в принятом алфавите, оно также соответствует основанию системы счисления и кодирования.

Вследствие показательного закона зависимости Q от l число Q не является удобной мерой для оценки информационной емкости. Поэтому Хартли ввел аддитивную двоичную логарифмическую меру, позволяющую вычислять количество информации I в двоичных единицах – битах.

I = log2 Q = log2 h l = log2 h бит;

log22 = 1 бит.

1 бит – единица информации в принятой системе оценки, соответствующая одному элементарному событию, которое может произойти или не произойти.

В битах и байтах (log216 = 4log22 = 4 бит) оценивается информационная емкость запоминающих устройств.

Аддитивная мера измеряет объем информации (обычно в битах или байтах).




Поделиться с друзьями:


Дата добавления: 2015-04-29; Просмотров: 1346; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.014 сек.