Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Условная энтропия. Объединение зависимых систем




 

Пусть имеются две системы X и Y, в общем случае зависимые. Предположим, что система X приняла состояние xi. Обозначим через P (yi | xi) условную вероятность того, что система Y примет состояние yi при условии, что система X находится в состоянии xi:

P (yj | xi) = P (Y ~ yj | X ~ xi).

Определим теперь условную энтропию системы Y при условии, что система X находится в состоянии xi. Обозначим ее H (Y | xi). По общему определению имеем:

(12.7)

или

Формулу (12.7) можно также записать в форме математического ожидания:

где знаком обозначено условное математическое ожидание величины, стоящей в скобках, при условии X ~ xi.

Условная энтропия зависит от того, какое состояние xi приняла система X; для одних состояний она будет больше, для других — меньше. Определим среднюю, или полную, энтропию системы Y с учетом того, что система может принимать разные состояния. Для этого нужно каждую условную энтропию (2.4.1) умножить на вероятность соответствующего состояния pi и все такие произведения сложить. Обозначим полную условную энтропию H (Y | X):

или, пользуясь формулой (12.7),

Внося pi под знак второй суммы, получим

или

Но по теореме умножения вероятностей pi P (yj | xi) = Pij, следовательно,

(12.8)

Выражению где (2.4.2) тоже можно придать форму математического ожидания:

H (Y | X) = M [-log P (Y | X)]. (12.9)

Величина H (Y | X) характеризует степень неопределенности системы Y, остающуюся после того, как состояние системы X полностью определилось. Будем называть ее полной условной энтропией системы Y относительно X.

Пользуясь понятием условной энтропии, можно определить энтропию объединенной системы через энтропию ее составных частей.

Докажем следующую теорему:

Если две системы X и Y объединяются в одну, то энтропия объединенной системы равна энтропии одной из ее составных частей плюс условная энтропия второй части относительно первой:

H (X, Y) = H (X) + H (Y | X). (12.10)

Для доказательства запишем H (X, Y) в форме математического ожидания:

H (X, Y) = M [-log P (X, Y)].

По теореме умножения вероятностей

P (X, Y) = P (X) P (Y | X),

следовательно,

log P (X, Y) = log P (X) + log P (Y | X),

откуда

H (X, Y) = M [-log P (X)] + M [-log P (Y | X)],

или

H (X, Y) = H (X) + H (Y | X),

что и требовалось доказать.

В частном случае, когда системы X и Y независимы, H (Y | X) = H (Y), и мы получаем уже доказанную в предыдущем пункте теорему сложения энтропий:

H (X, Y) = H (X) + H (Y).

В общем случае

H (X, Y) £ H (X) + H (Y). (12.11)

Соотношение где (2.4.5) следует из того, что полная условная энтропия H (Y | X) не может превосходить безусловной:

H (Y | X) £ H (Y). (12.12)

Неравенство интуитивно представляется довольно очевидным: ясно, что степень неопределенности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным.

Из соотношения следует, что энтропия сложной системы достигает максимума в крайнем случае, когда ее составные части независимы.

Рассмотрим другой крайний случай, когда состояние одной из систем (например X) полностью определяет собой состояние другой (Y). В этом случае H (Y | X) = 0, и формула дает

H (X, Y) = H (X).

Если состояние каждой из систем X, Y однозначно определяет состояние другой (или, как говорят, системы X и Y эквивалентны), то

H (X, Y) = H (X) = H (Y).

Теорему об энтропии сложной системы легко можно распространить на любое число объединяемых систем:

H (X1, X2,…, XS) = H (X1) + H (X2 | X1) + H (X3 | X1, X2) + … + H (XS | X1, X2,…, XS-1),

где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.




Поделиться с друзьями:


Дата добавления: 2014-12-27; Просмотров: 1318; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.014 сек.