Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Энтропия сложной системы. Теорема сложения энтропий




На практике часто приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем.

Под объединением двух систем X и Y с возможными состояниями x 1, …, x n; y 1, …, ym понимается сложная система (X, Y), состояния которой (xi, yi) представляют собой все возможные комбинации состояний xi, yi систем X и Y.

Очевидно, число возможных состояний системы (X, Y) равно n ´ m. Обозначим через Pij вероятность того, что система (X, Y) будет в состоянии (xi, yj):

Pij = P ((X ~ xi)(Y ~ yj)).

Вероятности Pij удобно расположить в виде таблицы (матрицы).

yj xi x1 x2 xn
y1 P11 P21 Pn1
y2 P12 P22 Pn2
. . . . . . . . . . . .
ym P1m P2m Pnm

Найдем энтропию сложной системы. По определению она равна сумме произведений вероятностей всех возможных ее состояний на их логарифмы с обратным знаком:

,

или в других обозначениях:

Энтропию сложной системы, как и энтропию простой, тоже можно записать в форме математического ожидания:

H (X, Y) = M [- log P (X, Y)], (12.6)

где log P (X. Y) — логарифм вероятности состояния системы, рассматриваемый как случайная величина (функция состояния).

Предположим, что системы X и Y независимы, т.е. принимают свои состояния независимо одна от другой, и вычислим в этом предположении энтропию сложной системы. По теореме умножения вероятностей для независимых событий

P (X, Y) = P (X)P(Y),

откуда

log P(X, Y) = log P(X)+ log P(Y).

Подставляя в (12.6), получим

H (X, Y) = M [- log P (X) – log P (Y)],

или

H (X, Y) = H (X) + H (Y),

т.е. при объединении независимых систем их энтропии складываются.

Доказанное положение называется теоремой сложения энтропий.

Теорема сложения энтропии может быть легко обобщена на произвольное число независимых систем:

Если объединяемые системы зависимы, простое сложение энтропий уже неприменимо. В этом случае энтропия сложной системы меньше, чем сумма энтропий ее составных частей. Чтобы найти энтропию системы, составленной из зависимых элементов, нужно ввести новое понятие условной энтропии.




Поделиться с друзьями:


Дата добавления: 2014-12-27; Просмотров: 1200; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.