Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Информационные пределы избыточности




Сравнивая полученные значения, можно сделать следующий вывод

Hmax(A) > H(A) > HЭ(A). (3).

Как отмечалось выше, средняя энтропия источника сообщений может быть различной в зависимости от статистических характеристик элементов сообщения. Энтропия максимальна и определяется выражением

I(X) = log2 M

если элементы сообщений являются равновероятными и взаимно независимыми. Если поступление элементов сообщений не равновероятно, то энтропия в этом случае определяется выражением (2).

Еще меньшей будет энтропия при наличии коррелятивных связей между элементами сообщений (см. неравенство 3). Причем энтропия уменьшается при усилении коррелятивных связей.

Сообщение, энтропия которых является максимальной, считается оптимальным с точки зрения передачи наибольшего количества информации.

Мерой количественной оценки того, насколько данное реальное сообщение по своей энтропии отличается от соответствующего ему оптимального сообщения, является коэффициент сжатия

(4)

где Н(А) – реальная энтропия, Нмах(А) – максимальная энтропия.

Если неоптимальное и оптимальное сообщения характеризуются одинаковой энтропией, то справедливо равенство

 

(5)

где n, n1 – число разрядов неоптимального и оптимального сообщений соответственно.

При этом число разрядов неоптимального сообщения всегда будет больше числа разрядов оптимального. Таким образом, коэффициент сжатия можно выразить

 

(6)

Другой информационной характеристикой, являющейся мерой информационного предела избыточности, является коэффициент избыточности

(7).

Избыточность источника зависит как от протяженности статистических связей между последовательно выбираемыми элементами, так и от степени неравновероятности отдельных элементов. Если источник «без памяти», то последовательно передаваемые элементы являются независимыми, и все элементы – равновероятны, то коэффициент избыточности равен нулю.

Избыточность приводит к увеличению времени передачи сообщений, излишней загрузке канала связи. Однако не всегда надо стремиться избавиться от избыточности. Некоторая избыточность вводится специально, чтобы обеспечить требуемую достоверность передачи информации по каналу связи с помехами (избыточное помехоустойчивое кодирование).

 




Поделиться с друзьями:


Дата добавления: 2014-01-13; Просмотров: 547; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.