Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Количество и качество информации

Исследованием методов передачи, хранения и приема информа­ции занимается теория информации, инструментами которой служат теория случайных процессов, теория кодирования, математическая статистика, теория вероятностей. Внимание к проблеме передачи и количественной оценки информации было привлечено фундамен­тальными работами Н. Винера и К. Шеннона (США), положившими начало теории информации. Значительный вклад в теорию инфор­мации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников, работы которых хорошо известны специали­стам во всем мире.

Важнейшим этапом в теории развития информации явилась ко­личественная оценка информации. Только принимая за основу но­визну сведений, можно дать количественную оценку информации, так как новизна сведений является следствием неопределенности сведений об объекте, процессе, явлении, а неопределенность подда­ется измерению. Например, сообщение имени победившего на вы­борах в президенты, если было всего два кандидата, несет меньшее количество информации по сравнению со случаем, если бы выборы происходили и конкурентной борьбе пяти кандидатов.

Основываясь на идее, что информация устраняет некоторую не­определенность, т. е. незнание, описание любого события или объекта формально можно рассматривать как указание на то, в каком из воз­можных состояний находится описываемый объект. Тогда протека­ние событий во времени есть не что иное, как смена состояний, выб­ранных с некоторой вероятностью из числа всех возможных. Чем выше уровень неопределенности выбора, тем требуется больший объем информации, и результат выбора имеет значительную степень неожиданности. Вот почему в теории информации количество ин­формации является мерой снятия неопределенности одной случай­ной величины в результате наблюдения задругой. Если величины не­зависимы, то количество информации равно нулю.

Самым простейшим случаем является выбор альтернативы из двух событий. Поэтому за единицу информации целесообразно принять количество информации, заключенное в выборе одного из двух рав­новероятных событий. Эта единица называется двоичной единицей, или битом {binary digit, bit). Итак, при любой неопределенности сужение области выбора вдвое дает одну единицу информации. В физике су­ществует понятие энтропии, которая характеризует степень неупоря­доченности (хаотичности) физической системы. Неупорядоченность может быть интерпретирована в смысле того, насколько мало извест­но наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, так энтропия системы снизилась, ибо для наблюдателя система стала более упорядоченной. И если мак­симум энтропии соответствует абсолютно случайному состоянию системы, то максимум информации характеризует полностью упоря­доченную (детерминированную) систему. Одним словом, энтропия системы выражает степень ее неупорядоченности, а информация дает меру ее организации.

Формулу измерения количества информации можно получить эмпирически: для снятия неопределенности в ситуации из двух рав­новероятных событий необходим один бит информации; при неопре­деленности, состоящей из четырех событий, достаточно двух бит информации, чтобы угадать искомый факт. Это рассуждение можно продолжить: 3 бита информации соответствуют неопределенности из 8 равновероятных событий, 4 бита - 16 равновероятных событий и т. д. Таким образом, если сообщение указывает на один из п рав­новероятных вариантов, то оно несет количество информации, рав­ное log2n. Действительно, из наших примеров log 216 =4, log 28 =3 и т. д. Ту же формулу можно словесно выразить иначе: количество информации равно степени, в которую необходимо возвести 2, что­бы получить число равноправных вариантов выбора, т.е. 2'= 16, где i = 4 бита.

Будем различать понятия «информация» и «сообщение». Под сообщением обычно подразумевают информацию, выраженную в оп­ределенной форме и подлежащую передаче. Сообщение — это форма представления информации. Есть одна особенность, которая связана с количеством хранимой или переданной информации, представленной в двоичных единицах, и количеством информации, заключенным в данном сообщении. С точки зрения теории информации, неопре­деленность, снимаемая в результате передачи одной страницы текста примерно из 2000 знаков, может составлять всего несколько бит (неин­формативное сообщение), в то время как эта же страница при кодиро­вании букв 8-элементными кодовыми комбинациями будет содержать 16 х 103 бит, хотя это не есть количество информации, заключенное в данном тексте.

Измерение только количества информации не отвечает насущ­ным потребностям современного общества — необходима мера цен­ности информации. Проблема определения ценности информации исключительно актуальна в настоящее время, когда уже трудно даже с помощью компьютеров обрабатывать мощные информационные потоки. Разработанные методы определения ценности информации призваны сыграть существенную роль в получении человеком необ­ходимой информации.

Вообще, оценка значимости информации производится челове­ком часто интуитивно на основе использования интеллекта и опыта. Информация называется полезной, если она уменьшает неопределен­ность решающего алгоритма. По мнению М.М. Бонгарда, не имеет смысла говорить о полезной информации, содержащейся в сигнале, если не указаны задача, которая решается, начальное состояние ре­шающего алгоритма и свойства декодирующего алгоритма. Амери­канским ученым Н. Винером предпринята попытка построить се­мантическую теорию информации. Суть ее состоит и том, что для понимания и использования информации ее получатель должен об­ладать определенным запасом знаний. Действительно, полное незна­ние предмета не позволяет извлечь существенной научной информа­ции из принятого сообщения об этом предмете. По мере роста наших знаний о предмете растет и количество научной информации, извле­каемой из сообщения.

Если назвать имеющиеся у получателя знания о данном предмете тезаурусом (т. е. неким сводом слов, понятий, названий объектов, связанных смысловыми связями), то количество информации, со­держащейся в некотором сообщении, можно оценить степенью из­менения индивидуального тезауруса под воздействием данного со­общения. Иными словами, количество семантической информации, извлекаемой получателем из поступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой ин­формации. В связи с этим появилось понятие общечеловеческого тезауруса, относительно которого можно было бы измерять семан­тическую ценность научной информации. Это сделано в попытках найти такую меру ценности информации, которая не зависела бы от состояния ее индивидуального приемника.

Пока можно сделать вывод, что задача определения ценности информации при достаточной степени формализации, которая тре­буется при компьютеризованной оценке, еще не решена, однако это не означает невозможности ее решения в будущем.

<== предыдущая лекция | следующая лекция ==>
Решение. Образование Опыт Данные | 
Поделиться с друзьями:


Дата добавления: 2014-01-07; Просмотров: 298; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.