Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Случайные переменные




Для напоминания

Пусть случайная переменная Х(А) представляет функциональное отношение между случайным событием А и действительным числом. Для удобства записи обозначим случайную переменную через X, а ее функциональную зависимость от А будем считать явной. Случайная переменная может быть дискретной или непрерывной. Функция распределения FX(x) случайной переменной X описывается выражением

FX(x) = P(X £ x), (1)

где Р(Х £ x) — вероятность того, что значение, принимаемое случайной переменной X, меньше действительного числа х или равно ему. Функция распределения FX(x) имеет следующие свойства:

1. 0 £ FX(x)£ 1

2. FX(x1) £ FX(x2), если х1 £ х2

3. FX(-∞) = 0

4. FX(+∞) = 1

Еще одной полезной функцией, связанной со случайной переменной X, является плотность распределения вероятности (плотность вероятности), которая записывается следующим образом:

. (2, а)

Как и в случае функции распределения, плотность вероятности — это функция действительного числа х. Название "функция плотности" появилось вследствие того, что вероятность события x1 £ X £ x2 равна следующему:

(2, б)

Используя уравнение (2, б), можно приближенно записать вероятность того, что случайная переменная X имеет значение, принадлежащее очень узкому промежутку между х и х + Δх:

(2, в)

Таким образом, в пределе при Δх®0, мы можем записать следующее:

Р(Х=х) = pX(х)dх. (2, г)

Плотность вероятности имеет следующие свойства:

·.

·.

 

Для обобщения формулы Шеннона разобьем интервал возможных состояний случайной непрерывной величины на равные непересекающиеся отрезки и рассмотрим множество дискретных состояний с вероятностями. Тогда энтропию можно вычислить по формуле:

 

В пределе при с учетом соотношения:

 

Получим

 

Первое слагаемое в правой части соотношения имеет конечное значение, которое зависит только от закона распределения непрерывной случайной величины и не зависит от шага квантования. Оно имеет точно такую же структуру, как энтропия дискретного источника.

Поскольку для определения первого слагаемого используется только функция плотности вероятности, т.е. дифференциальный закон распределения, она получила название дифференциальной или приведенной энтропии непрерывного источника информации (непрерывного распределения случайной величины)и целиком определяет информативность сообщений, обусловленных статистикой состояний их элементов. Таким образом, дифференциальная или приведенная энтропия равна

 

Величина зависит только от выбранного интервала, определяющего точность квантования состояний, и при она постоянна.

 

Энтропия и количество информации зависят от распределения плотности вероятностей

В теории информации большое значение имеет решение вопроса о том, при каком распределении обеспечивается максимальная энтропия?

а) Если единственным ограничением для случайной величины является область ее возможных значений, то максимальной энтропией обладает равномерное распределение вероятностей в этой области.

Найдем значение энтропии, когда состояния элементов распределены внутри интервала их существования по равномерному закону, т.е

 

Дисперсия равномерного распределения, поэтому. С учетом этого можно записать

 

б) Если ограничения на область значений непрерывной случайной величины отсутствуют, но известно, что дисперсия ее ограничена, то максимальной энтропией обладает нормальное распределение величины.

Можно показать, что при заданной дисперсии:

 

наибольшей информативностью сообщение обладает только тогда, когда состояния его элементов распределены по нормальному закону:

 

Так как дисперсия определяет среднюю мощность сигнала, то отсюда следуют практически важные выводы.

Передача наибольшего количества информации при заданной мощности сигнала (или наиболее экономичная передача информации) достигается при такой обработке сигнала, которая приближает распределение плотности вероятности его элементов к нормальному распределению.

В то же время, обеспечивая нормальное распределение плотности вероятности элементам помехи, обеспечивают ее наибольшую “информативность”, т.е. наибольшее пагубное воздействие на прохождение сигнала. Значение энтропии, когда состояния элементов источника сообщений распределены по нормальному закону, определяется из выражения:

 

 

Сравнивая между собой сообщения с равномерным и нормальным распределением вероятностей при условии, получаем:

 

Это значит, что при одинаковой информативности сообщений средняя мощность сигналов для равномерного распределения их амплитуд должна быть на 42% больше, чем при нормальном распределении амплитуд.




Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 287; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.007 сек.