Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Понятие неопределенности. Энтропия и ее свойства. Количество информации




Информация и энтропия. Энтропия характеризует недостающую информацию. В изучение любых систем вводится человеческий фактор, что приводит к неточностям. Для измерения, определения этих неточностей и существует понятие неопределённости. Первым понятием теории информации является понятие неопределённости случайного объекта. Для количественной оценки этой неопределённости было введено понятие, называемое энтропией, т.е. энтропияэто количественная мера неопределённости.

Например, некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятность соответственно 0,5 и 0,5. Очевидно, что в первом случае результатом опыта, эксперимента почти наверняка является наступление события, а во втором случае неопределённость так велика, что от прогноза следует воздержаться.

В качестве меры неопределённости в теории информации было введено понятие, называемое энтропией случайного объекта или системы. Если какой-либо объект А имеет состояние А1, …, Аn а вероятность каждого из этих состояний p1, …, pn, то энтропия этого события

Рассмотрим свойства этой энтропии:

1) Если вероятность наступления одного из n-событий = 1, то энтропия этого состояния = 0

2) Энтропия достигает своего небольшого значения в том случае, если вероятности равны между собой, т.е. , если:

3) Если объекты А и В независимы, то их энтропия равна сумме энтропий каждого объекта

.

4) Если объекты А и В зависимы, то энтропия их

т.е. при условии наступления события А.

5) Энтропия события энтропии события А при событии В т.е. информация об объекте В всегда уменьшает неопределённость события А, если А и В зависимы, и не изменяются, если события А и В независимы.

Вывод: свойства функционала Н возможно использовать в качестве меры неопределённости, причём следует отметить, что если пойти в обратном направлении, т.е. задать желаемые свойства меры неопределённости и искать обладающий указанными свойствами функционал, то условия 2 и 4 позволяют найти этот функционал, причём единственным образом.

Количество информации можно интерпретировать как изменение неопределённости в результате передачи сигналов. При этом полезный или отправляемый сигнал является последовательностью независимых символов с вероятностью , принимаемый сигнал является также набором символов того же кодирования (алфавита), и если у нас отсутствует шум, воздействующий на эту передачу, то принимаемые и отправляемые сигналы , но поскольку при любой передаче у нас есть помехи, т.е. идёт искажение сигнала, то на приёмной, так и на передающей сторонах системы у нас появится неопределённость. На передающей стороне априорная энтропия, а на приёмной стороне апостприорная.

Чтобы оценить количество информации, которое было передано от одного объекта к другому, берётся разность априорной и апостприорной информации. И количество информации в этом случае – разница между энтропиями

Свойства количества информации:

1) Количество информации в случайном объекте Х относительно объекта Y равно количеству информации в Y относительно Х

2) Количество информации всегда неотрицательно

3) Для дискретных объектов Х справедливо равенство

Таким образом, количество информации требует единицы измерения, за единицу энтропии принимают неопределённость случайного объекта, у которого энтропия его равна 1

Для конкретизации берётся k = 2 и основание log m = 2, тогда получается тождество

.

Решением этого тождества является частный случай

За единицу информации принята величина, называемая битом («БИТ»). Если мы берём за основание

log е (ln) (натуральный log), то единица информации – «НИТ».

 

 




Поделиться с друзьями:


Дата добавления: 2015-04-24; Просмотров: 2058; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.014 сек.