Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Передача информации по каналу связи

Количество информации и избыточность

Количество информации только тогда равно энтропии,
когда неопределенность ситуации снимается полностью. В общем случае нужно считать, что количество информации есть уменьшение энтропии вследствие опыта или какого-
либо другого акта познания. Если неопределенность снимается полностью, то информация равна энтропии

I = Н.

В случае неполного разрешения имеет место частичная
информация, являющаяся разностью между начальной и
конечной энтропией:

I =Н 1 — Н 2. (1-25)

Наибольшее количество информации получается тогда,
когда полностью снимается неопределенность, причем эта
неопределенность была наибольшей- вероятности всех
событий были одинаковы. Это соответствует максимально
возможному количеству информации I', оцениваемому
мерой Хартли,

I' = log2Q = log2(1/p) = log2p, (1-26)

 

где Q — число событий, а p — вероятность их реализации
в условиях равной вероятности всех событий. Таким образом

I' = Н makc (1-27)

Абсолютная избыточность информации D,q, представляет собой разность между максимально возможным количеством информации и энтропией

D абс = I' — Н, или D абс = Нм акс — Н. (1-28)

Пользуясь также понятием относительной избыточности,

D =макс - H)/Нмакс = 1 — H/Нмакс. (1-29)

Иллюстрируя понятие избыточности, ограничимся рас-
смотрением упрощенной модели: допустим, что статистические свойства информации косвенно учитываются через
постоянные и переменные составляющие какого-либо физического процесса. Тогда, выражая относительную избы-
точность, можно определять информацию в любых единицах, например, подсчитывать кванты в данном комплексе информации.

Всякая информация, прежде чем достичь потребителя должна пройти по каналу связи между её источником и абонентом. Канал передачи информации в общем виде состоит из линии связи, модулятора и демодулятора (кроме случая, когда для передачи используется простая модуляция, при которой сигнал в линии совпадает с сигналом датчика), кодирующего и декодирующего, а также решающего устройств, позволяющих с высокой достоверностью принять и передать сообщение.

 

 

 

Р ис. 1.4. Цифровые и аналоговые каналы передачи

<== предыдущая лекция | следующая лекция ==>
Понятие энтропии | Информационная модель канала
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 435; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.