Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Модели источников

 

Чем меньше вероятность появления знака, тем больше количество информации в нем содержится, тем он ценнее.

В самом деле, если учесть, что количество информации, содержащейся в одном любом знаке:

I(ai)=-log2h(ai), (бит/знак)

 

то нетрудно видеть, что число двоичных посылок, содержащейся в знаке aiс вероятностью р(ai)=1/16больше (в 4 раза), чем в знаке аj с р(аj)=1/2 потому что I(ai)=-log21/16=4 бита, а I(aj) =-log21/2=14 бит

Чем большая взаимозависимость знаков, тем меньшее количество информации несет сообщение, составленное из них.

Пример: в английских текстах вслед за буквой q всегда идет u(т.е. qu). Если не учитывать эту взаимозависимость, то количество информации, заключенное о данных двух буквах будет:

 

I(qu)=-[log2h(q)+log2(u)]=-(log1/32+log1/32)=5+5=10 бит

 

Если же учитывать, то передавать следует по каналу связи только первую букву, а вторую бессмысленно (ведь абсолютно известно, что за q последует только u, а передача известного не несет, по теории связи, никакой информации, тогда)

I(qu)=5 бит

 

Деления источников по стабильности вероятностей появления знаков ai на выходе источников. Они делятся на 4 типа:

· нестационарные

· стационарные

· эргодические

· детерминированные

1. Источники для которых р(ai) резко меняются во времени.

Примером такого рода источников может служить дискретный источник, знаками которого являются спортсмены на олимпийских играх. Вероятность победы каждого на данных играх одна (в зависимость от степени подготовки), но на следующих играх (через 4 года) она будет другая, а через 8 лет вообще будет отличаться.

2. Стационарные составляют источники, вероятность появления знаков которых слабо меняется во времени (практически не меняется)

3. Эргодические образуют источники, вероятность появления знаков которых оказывается одними и теми же. Стационарные и эргодические источники объединяют почти все реальные источники, например, состоящие из буквенных текстов (телеграф, телефон и др.). Мы будем заниматься только эргодическими.

4. Детерминированные с стопроцентными известными вероятностными характеристиками. При этом взаимозависимости их знаков найдена (рассчитана): она известна до появления едва ли не бесконечного по счету знака, следующего за данным.

Примером их могут служить движения небесных объектов (планет, звезд, галактик и т.д.) здесь вес известно (их траектория) на тысячелетия вперед.

Второе деление:

· с равновероятными независимыми знаками

· с неравновероятными независимыми знаками

· с неравновероятными зависимыми знаками

это источники, для которых вероятности появления каждого знака (на выходе источника сообщений) равны друг другу.

 

 

и нет взаимозависимости знаков

 

 

Для таких источников количество информации заключенное в одном любом знаке, одинаковы:

 

 

Здесь количество информации, заключенное в одном любом знаке, совпадает с энтропией.

 

Такие источники нереальные (в периоде появления знаков источников информации).

Источники информации с независимыми неравновероятными знаками:

Вероятности появления знаков не равны между собой:

 

и нет взаимозависимости знаков:

Количество информации:

 

 

Энтропия:

Энтропия здесь меньше, чем в первой модели. Энтропия определяет неопределенность ситуации. Если известно, какой знак будет выдан в данное мгновение (это в первой модели), энтропия будет максимальной. Если же абсолютно известно сообщений (вероятность равна единице) – энтропия равна нулю, р(аi)=1, Н1(а)=0.

т.е. для определения первой модели было ничего неизвестного, для второго что – то пояснялось, поэтому энтропия для второй модели будет лежать в пределах:

Н0(а)> Н1(а)>0

Источники с неравновероятными зависимыми знаками.

взаимозависимость:

 

 

<== предыдущая лекция | следующая лекция ==>
Дискретный источник сообщений | Избыточность
Поделиться с друзьями:


Дата добавления: 2014-01-13; Просмотров: 332; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.