Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Меры информации

Понятие информации.

Лекция №2. Общие сведения об информации

Понятие информации является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами науки - информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Информация – это неопределяемое понятие.

Первоначально термин «информация» использовался как прямой перевод латинского informatio – осведомлять, изображать или составлять понятие о чем-либо. Затем К. Шеннон и Н. Винер ввели его для вероятностно-статистического представления коммуникативных процессов в технике и живых организмах на Земле. Н. Винер считал, что информация не материя и не энергия, а обозначение содержания, черпаемого нами из внешнего мира в процессе приспособления к нему и приведения в соответствие с ним нашего мышления» В настоящее время понятие «информация» трактуется значительно шире. Однако оно остается одним из наиболее дискуссионных вопросов современной науки и предлагаемых моделей мироздания, несмотря на значительное продвижение методологических проблем, связанных с информатикой, информациологией и их различными направлениями.

В широком смысле информация – отражение реального мира. В узком смысле информация – любые сведения, являющиеся объектом хранения, передачи и преобразования.

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином Информация – это фундаментальная категория.

Анализ существующих толкований понятия «информация» позволяет предложить две его формулировки. С философской точки зрения информация – содержание сущностей реального мира, проявляемое в ходе взаимодействий и фиксируемое как результата отражения этих свойств и динамики. В узком смысле, опирающемся на сознание, информация – это сведения (факты, понятия и др.) о чем-либо, представленные в определенной форме, нужной для использования по назначению в нужное время.

Информационные меры можно рассмотреть в трех аспектах: синтаксическом, семантическом и прагматическом.

1.Синтаксическая мера информации: эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных (VД) измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных: в двоичной системе счисления единица измерения бит (bit – binary digit – двоичный разряд); в десятичной системе счисления единица измерения – дит (десятичный разряд).

ПРИМЕР. Сообщение в двоичной системе в виде 8-ми разрядного двоичного кода 10110111 имеет объем данных VД= 8 бит.

Сообщение в десятичной системе в виде 6-ти разрядного числа 451231 имеет объем 6 дит.

Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Получение информации о какой-либо системе всегда связано с измерением степени неосведомленности получателя о состоянии этой системы. Рассмотрим это понятие.

Энтропияобщее количество незнания.

Количество информации, уменьшающее неопределенность в 2 раза равно 1 биту.

ПРИМЕР: При падении монеты мы не знаем, с какой стороны она упадет. После падения неопределенность уменьшается в 2 раза.

В 1928 году Р. Хартли предложил такую формулу измерения количества информации.

N=2I

где I –количество информации, а N – количество равновероятных событий, которые ожидаются при проведении эксперимента.

Эта формула в 1948 году была расширена К. Шенноном на случай неравновероятных событий.

I=-Spklog2pk

где N – количество возможных исходов, p – вероятность наступления k-того события, I – количество информации.

2. Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне большое признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

Тезаурус – это совокупность сведений, которыми располагает пользователь или система.

В зависимости от отношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Iс, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.

· При пользователь не воспринимает, не понимает поступающую информацию;

· При пользователь все знает и поступающая информация ему не нужна.

Максимальное количество семантической информации Ic пользователь приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp когда информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе сведения).

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

При оценке семантического (содержательного) аспекта информации необходимо стремится к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему.

<== предыдущая лекция | следующая лекция ==>
Структура информатики | Свойства информации
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 213; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.