КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Ланцюги Маркова та їх основні характеристики
Марковський випадковий процес з дискретними станами та дискретним часом називається ланцюгом Маркова. Як уже відзначалося, для такого процесу моменти часу коли система може змінювати свій стан, розглядають як послідовні кроки процесу, а в якості аргумента, від якого залежить процес, виступає не час , а номер кроку . Випадковий процес у цьому випадку характеризується послідовністю станів , де – початковий стан системи (перед першим кроком), – стан системи після першого кроку, – стан системи після -го кроку,.... Якщо через позначити подію, яка полягає в тому, що відразу після -го кроку система знаходиться в стані , тобто , то випадковий процес з дискретним часом можна розглядати як випадкову послідовність (за індексом ) цих подій , яку називають також ланцюгом. Означення. Випадкова послідовність називається ланцюгом Маркова, якщо для кожного кроку ймовірність переходу з будь-якого стану в будь-який стан не залежить від того, коли і як система виявилася в стані . Очевидно, що реалізацію дискретного випадкового процесу з дискретним часом за будь-який (скінчений) проміжок часу можна представити невипадковою скінченною послідовністю (за індексом ) розглядуваних подій . Наприклад, припустимо, що граф станів системи , в якій відбувається випадковий процес з дискретним часом, має вигляд, зображений на рис. 3. Спостереження за системою показало, що в початковий момент система знаходилася в стані ; в момент першого кроку перейшла з нього стрибком у стан , з якого на другому кроці перейшла в , на третьому кроці перейшла в , на четвертому кроці перейшла в , після п’ятого кроку знаходилася в стані . Тоді реалізація випадкового процесу блукання по станах має такий вигляд: . Зауваження. Для того, щоб при фіксованому можна було інтерпретувати як (дискретну) випадкову величину, потрібно кожний стан охарактеризувати кількісно. Це можна зробити різними способами. Наприклад, приписати кожному стану в якості кількісної характеристики його номер , тобто . Тоді переріз випадкового процесу буде представляти дискретну випадкову величину з множиною значень . Далі, , означає подію «після -то кроку ланцюг Маркова знаходиться в стані », а послідовність станів, , які приймає випадковий процес визначає реалізацію або траєкторію процесу. Враховуючи дане зауваження, більш змістовне означення ланцюга Маркова можна сформулювати так. Означення. Послідовність випадкових величин , називається ланцюгом Маркова з множиною станів , якщо і для будь-яких , будь-яких та будь-яких підмножин множини виконується рівність . (3) Властивість (3) означає, що при фіксованому значенні системи в даний момент часу поведінка системи в майбутньому не залежить від поведінки системи в минулому , або більш коротко: при фіксованому теперішньому майбутнє не залежить від минулого. Властивість (3) називають марковською властивістю. Надалі ми будемо використовувати обидві термінології щодо інтерпретації ланцюга Маркова. З означення ланцюга Маркова і формули (48) випливає, що ланцюг Маркова може бути заданий розподілом ймовірностей переходу за один крок. Означення. Ймовірністю переходу (перехідною ймовірністю) на -му кроці із стану в стан називається умовна ймовірність того, що система після -го кроку виявиться в стані за умови, що безпосередньо перед цим (після -го кроку) вона знаходилася в стані : . (4) Якщо множину станів позначити через , то можна трактувати як ймовірність того, що ланцюг Маркова, знаходячись після -го кроку в стані , після наступного -то кроку виявиться в стані : (5) У випадку, коли , то перехідна ймовірність називається ймовірністю затримки системи у стані. Якщо на -му кроці безпосередній перехід системи із стану в інший стан неможливий або неможливою є затримка в стані , то . Означення. Якщо перехідні ймовірності не залежать від номера кроку (від часу), а залежать лише від того, з якого стану в який здійснюється перехід, то відповідний ланцюг Маркова називається однорідним. Якщо хоча б одна ймовірність змінюється зі зміною кроку , то ланцюг Маркова називається неоднорідним. Надалі ми будемо розглядати лише однорідні ланцюги Маркова. У цьому випадку перехідні ймовірності будемо позначати через замість . Сукупність ймовірностей переходу утворює матрицю , (6) вона називається однорідною матрицею переходів (перехідних ймовірностей). За означенням всі елементи матриці невід’ємні. Крім цього, оскільки для будь-якої події , яка наступила після -го кроку, для наступного -го кроку одна з подій обов’язково відбудеться, то елементи кожного рядка матриці задовольняють умову . (7) Означення. Квадратна матриця називається стохастичною, якщо її елементи невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці. Отже, матрицею переходів ланцюга Маркова зі скінченним числом станів називається стохастична матриця з порядком , елементами якої є відповідні перехідні ймовірності . Часто також задаються ймовірності станів ланцюга Маркова на початковому нульовому кроці: або (8) На ймовірності накладаються очевидні умови невід’ємності і нормування: . (9) У частковому випадку, якщо початковий стан системи відомий і , то початкова ймовірність , а всі решта дорівнюють нулю. За допомогою формул (3), (5) із врахуванням (8) можна обчислити ймовірність будь-якої конкретної траєкторії ланцюга Маркова: . (10) Легко показати, що формула (55) задає ймовірності на просторі всіх траєкторій довжини . Зокрема, виконується умова нормування для ймовірностей: . (11)
Корисним зображенням ланцюга Маркова є її розмічений граф станів системи, де біля кожної стрілки, яка веде зі стану в стан (зі стану в стан ) відзначена перехідна ймовірність . Взірець такого розміченого графа станів показано на рис. 2. Наявність на розміченому графі стрілок і відповідних їм ймовірностей з одного стану в інший означає, що ці перехідні ймовірності відмінні від нуля. Навпаки, відсутність стрілок з одного стану в інший вказує на те, що відповідні їм перехідні ймовірності дорівнюють нулю. Наприклад, , а . Перехідні ймовірності, які відповідають стрілкам, що виходять із станів розміщені в -му рядку матриці перехідних ймовірностей, а тому їх сума, внаслідок (7), дорівнює одиниці. Тому ймовірності затримок можна обчислити за формулою (12) Внаслідок цього стрілки – петлі та відповідні їм ймовірності затримок на графі, як правило, не відзначаються.
Ймовірність переходу за кроків. Розглянемо ймовірність переходу із стану , який реалізований, наприклад, після -го кроку, в стан за кроків, тобто в стан після -го кроку. Зрозуміло, що внаслідок однорідності ланцюга Маркова ця ймовірність залежить тільки від (і не залежить від ). Позначимо її . Тоді – ймовірність переходу за кроків із стану в стан та – ймовірність переходу за кроків із стану в . Використовуючи формулу повної ймовірності та враховуючи, що проміжні стани на – у кроці утворюють повну групу попарно несумісних подій, знайдемо , (13) де – будь-яке ціле значення від до . Позначимо через матрицю, яка складається з ймовірностей , отже – матриця переходів через кроків . Враховуючи формулу для перемноження квадратних матриць, рівність (13) можна записати в матричному вигляді: . (14) Застосовуючи послідовно (59), одержимо , (15) тобто для того, щоб отримати матрицю ймовірностей переходів за кроків, потрібно просто піднести до -го степеня вихідну матрицю ймовірностей переходів . Неважко переконатися в тому, що при будь-якому натуральному матриця є стохастичною. Безумовна (абсолютна) ймовірність того, що система після -го кроку знаходиться в стані , обчислюється також з використанням формули повної ймовірності: . (16) Простим наслідком формули (61) є наступне співвідношення . (17) Рекурентні формули (16), (17) можна записати також у матричному вигляді. Справді, якщо абсолютні ймовірності станів визначені у векторній формі як , то на підставі рівностей (14) - (17) маємо . (18) або . (19) Ймовірності першого досягнення стану при виході зі стану . Введемо до розгляду ймовірність того, що, починаючи зі стану , ланцюг Маркова вперше досягає стан у на -му кроці. , тобто . Спираючись на формулу повної ймовірності, можуть бути обчислені через ймовірності внаслідок рекурентного застосування наступних формул: (20) За допомогою ймовірностей можна визначати значення деяких інших характеристик, які використовуються при аналізі ланцюга Маркова. Зокрема, через ці ймовірності можуть бути обчислені: • ймовірність того, що, починаючи зі стану , система коли-небудь потрапить в стан : ; (21) • середнє число кроків до першого досягнення стану при виході зі стану : . (22)
Зауваження. Для знаходження вектора в прикладі 9 можна було б замість формули (19) чотири рази послідовно використати формулу (18), а саме, спочатку за цією формулою знайти вектор ймовірностей станів у першому кварталі , потім, у другому кварталі і т. д., поки не дійдемо до четвертого кварталу .
Дата добавления: 2014-01-04; Просмотров: 3949; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |