КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Энтропия сложной системы. Теорема сложения энтропий
На практике часто приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем. Под объединением двух систем X и Y с возможными состояниями x 1, …, x n; y 1, …, ym понимается сложная система (X, Y), состояния которой (xi, yi) представляют собой все возможные комбинации состояний xi, yi систем X и Y. Очевидно, число возможных состояний системы (X, Y) равно n ´ m. Обозначим через Pij вероятность того, что система (X, Y) будет в состоянии (xi, yj): Pij = P ((X ~ xi)(Y ~ yj)). Вероятности Pij удобно расположить в виде таблицы (матрицы).
Найдем энтропию сложной системы. По определению она равна сумме произведений вероятностей всех возможных ее состояний на их логарифмы с обратным знаком: , или в других обозначениях: Энтропию сложной системы, как и энтропию простой, тоже можно записать в форме математического ожидания: H (X, Y) = M [- log P (X, Y)], (12.6) где log P (X. Y) — логарифм вероятности состояния системы, рассматриваемый как случайная величина (функция состояния). Предположим, что системы X и Y независимы, т.е. принимают свои состояния независимо одна от другой, и вычислим в этом предположении энтропию сложной системы. По теореме умножения вероятностей для независимых событий P (X, Y) = P (X)P(Y), откуда log P(X, Y) = log P(X)+ log P(Y). Подставляя в (12.6), получим H (X, Y) = M [- log P (X) – log P (Y)], или H (X, Y) = H (X) + H (Y), т.е. при объединении независимых систем их энтропии складываются. Доказанное положение называется теоремой сложения энтропий. Теорема сложения энтропии может быть легко обобщена на произвольное число независимых систем: Если объединяемые системы зависимы, простое сложение энтропий уже неприменимо. В этом случае энтропия сложной системы меньше, чем сумма энтропий ее составных частей. Чтобы найти энтропию системы, составленной из зависимых элементов, нужно ввести новое понятие условной энтропии.
Дата добавления: 2014-12-27; Просмотров: 1257; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |