КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Понятие неопределенности. Энтропия и ее свойства. Количество информацииИнформация и энтропия. Энтропия характеризует недостающую информацию. В изучение любых систем вводится человеческий фактор, что приводит к неточностям. Для измерения, определения этих неточностей и существует понятие неопределённости. Первым понятием теории информации является понятие неопределённости случайного объекта. Для количественной оценки этой неопределённости было введено понятие, называемое энтропией, т.е. энтропия – это количественная мера неопределённости. Например, некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятность соответственно 0,5 и 0,5. Очевидно, что в первом случае результатом опыта, эксперимента почти наверняка является наступление события, а во втором случае неопределённость так велика, что от прогноза следует воздержаться. В качестве меры неопределённости в теории информации было введено понятие, называемое энтропией случайного объекта или системы. Если какой-либо объект А имеет состояние А1, …, Аn а вероятность каждого из этих состояний p1, …, pn, то энтропия этого события Рассмотрим свойства этой энтропии: 1) Если вероятность наступления одного из n-событий = 1, то энтропия этого состояния = 0 2) Энтропия достигает своего небольшого значения в том случае, если вероятности равны между собой, т.е. , если: 3) Если объекты А и В независимы, то их энтропия равна сумме энтропий каждого объекта . 4) Если объекты А и В зависимы, то энтропия их т.е. при условии наступления события А. 5) Энтропия события энтропии события А при событии В т.е. информация об объекте В всегда уменьшает неопределённость события А, если А и В зависимы, и не изменяются, если события А и В независимы. Вывод: свойства функционала Н возможно использовать в качестве меры неопределённости, причём следует отметить, что если пойти в обратном направлении, т.е. задать желаемые свойства меры неопределённости и искать обладающий указанными свойствами функционал, то условия 2 и 4 позволяют найти этот функционал, причём единственным образом. Количество информации можно интерпретировать как изменение неопределённости в результате передачи сигналов. При этом полезный или отправляемый сигнал является последовательностью независимых символов с вероятностью , принимаемый сигнал является также набором символов того же кодирования (алфавита), и если у нас отсутствует шум, воздействующий на эту передачу, то принимаемые и отправляемые сигналы , но поскольку при любой передаче у нас есть помехи, т.е. идёт искажение сигнала, то на приёмной, так и на передающей сторонах системы у нас появится неопределённость. На передающей стороне – априорная энтропия, а на приёмной стороне – апостприорная. Чтобы оценить количество информации, которое было передано от одного объекта к другому, берётся разность априорной и апостприорной информации. И количество информации в этом случае – разница между энтропиями Свойства количества информации: 1) Количество информации в случайном объекте Х относительно объекта Y равно количеству информации в Y относительно Х 2) Количество информации всегда неотрицательно 3) Для дискретных объектов Х справедливо равенство Таким образом, количество информации требует единицы измерения, за единицу энтропии принимают неопределённость случайного объекта, у которого энтропия его равна 1 Для конкретизации берётся k = 2 и основание log m = 2, тогда получается тождество . Решением этого тождества является частный случай За единицу информации принята величина, называемая битом («БИТ»). Если мы берём за основание log е (ln) (натуральный log), то единица информации – «НИТ».
Дата добавления: 2015-04-24; Просмотров: 2058; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |