Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Ланцюги Маркова та їх основні характеристики




Марковський випадковий процес з дискретними станами та дискретним часом називається ланцюгом Маркова.

Як уже відзначалося, для такого процесу моменти часу коли система може змінювати свій стан, розглядають як послідовні кроки процесу, а в якості аргумента, від якого залежить процес, виступає не час , а номер кроку . Випадковий процес у цьому випадку характеризується послідовністю станів , де – початковий стан системи (перед першим кроком), – стан системи після першого кроку, – стан системи після -го кроку,....

Якщо через позначити подію, яка полягає в тому, що відразу після -го кроку система знаходиться в стані , тобто , то випадковий процес з дискретним часом можна розглядати як випадкову послідовність (за індексом ) цих подій , яку називають також ланцюгом.

Означення. Випадкова послідовність називається ланцюгом Маркова, якщо для кожного кроку ймовірність переходу з будь-якого стану в будь-який стан не залежить від того, коли і як система виявилася в стані .

Очевидно, що реалізацію дискретного випадкового процесу з дискретним часом за будь-який (скінчений) проміжок часу можна представити невипадковою скінченною послідовністю (за індексом ) розглядуваних подій . Наприклад, припустимо, що граф станів системи , в якій відбувається випадковий процес з дискретним часом, має вигляд, зображений на рис. 3. Спостереження за системою показало, що в початковий момент система знаходилася в стані ; в момент першого кроку перейшла з нього стрибком у стан , з якого на другому кроці перейшла в , на третьому кроці перейшла в , на четвертому кроці перейшла в , після п’ятого кроку знаходилася в стані . Тоді реалізація випадкового процесу блукання по станах має такий вигляд: .

Зауваження. Для того, щоб при фіксованому можна було інтерпретувати як (дискретну) випадкову величину, потрібно кожний стан охарактеризувати кількісно. Це можна зробити різними способами. Наприклад, приписати кожному стану в якості кількісної характеристики його номер , тобто . Тоді переріз випадкового процесу буде представляти дискретну випадкову величину з множиною значень . Далі, , означає подію «після -то кроку ланцюг Маркова знаходиться в стані », а послідовність станів, , які приймає випадковий процес визначає реалізацію або траєкторію процесу.

Враховуючи дане зауваження, більш змістовне означення ланцюга Маркова можна сформулювати так.

Означення. Послідовність випадкових величин , називається ланцюгом Маркова з множиною станів , якщо

і для будь-яких , будь-яких та будь-яких підмножин множини виконується рівність

. (3)

Властивість (3) означає, що при фіксованому значенні системи в даний момент часу поведінка системи в майбутньому не залежить від поведінки системи в минулому , або більш коротко: при фіксованому теперішньому майбутнє не залежить від минулого. Властивість (3) називають марковською властивістю.

Надалі ми будемо використовувати обидві термінології щодо інтерпретації ланцюга Маркова.

З означення ланцюга Маркова і формули (48) випливає, що ланцюг Маркова може бути заданий розподілом ймовірностей переходу за один крок.

Означення. Ймовірністю переходу (перехідною ймовірністю) на -му кроці із стану в стан називається умовна ймовірність того, що система після -го кроку виявиться в стані за умови, що безпосередньо перед цим (після -го кроку) вона знаходилася в стані :

. (4)

Якщо множину станів позначити через , то можна трактувати як ймовірність того, що ланцюг Маркова, знаходячись після -го кроку в стані , після наступного -то кроку виявиться в стані :

(5)

У випадку, коли , то перехідна ймовірність називається ймовірністю затримки системи у стані. Якщо на -му кроці безпосередній перехід системи із стану в інший стан неможливий або неможливою є затримка в стані , то .

Означення. Якщо перехідні ймовірності не залежать від номера кроку (від часу), а залежать лише від того, з якого стану в який здійснюється перехід, то відповідний ланцюг Маркова називається однорідним.

Якщо хоча б одна ймовірність змінюється зі зміною кроку , то ланцюг Маркова називається неоднорідним. Надалі ми будемо розглядати лише однорідні ланцюги Маркова. У цьому випадку перехідні ймовірності будемо позначати через замість . Сукупність ймовірностей переходу утворює матрицю

, (6)

вона називається однорідною матрицею переходів (перехідних ймовірностей). За означенням всі елементи матриці невід’ємні. Крім цього, оскільки для будь-якої події , яка наступила після -го кроку, для наступного -го кроку одна з подій обов’язково відбудеться, то елементи кожного рядка матриці задовольняють умову

. (7)

Означення. Квадратна матриця називається стохастичною, якщо її елементи невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці.

Отже, матрицею переходів ланцюга Маркова зі скінченним числом станів називається стохастична матриця з порядком , елементами якої є відповідні перехідні ймовірності .

Часто також задаються ймовірності станів ланцюга Маркова на початковому нульовому кроці:

або (8)

На ймовірності накладаються очевидні умови невід’ємності і нормування:

. (9)

У частковому випадку, якщо початковий стан системи відомий і , то початкова ймовірність , а всі решта дорівнюють нулю.

За допомогою формул (3), (5) із врахуванням (8) можна обчислити ймовірність будь-якої конкретної траєкторії ланцюга Маркова:

. (10)

Легко показати, що формула (55) задає ймовірності на просторі всіх траєкторій довжини . Зокрема, виконується умова нормування для ймовірностей:

. (11)

 

Корисним зображенням ланцюга Маркова є її розмічений граф станів системи, де біля кожної стрілки, яка веде зі стану в стан (зі стану в стан ) відзначена перехідна ймовірність . Взірець такого розміченого графа станів показано на рис. 2.

Наявність на розміченому графі стрілок і відповідних їм ймовірностей з одного стану в інший означає, що ці перехідні ймовірності відмінні від нуля. Навпаки, відсутність стрілок з одного стану в інший вказує на те, що відповідні їм перехідні ймовірності дорівнюють нулю. Наприклад, , а .

Перехідні ймовірності, які відповідають стрілкам, що виходять із станів розміщені в -му рядку матриці перехідних ймовірностей, а тому їх сума, внаслідок (7), дорівнює одиниці. Тому ймовірності затримок можна обчислити за формулою

(12)

Внаслідок цього стрілки – петлі та відповідні їм ймовірності затримок на графі, як правило, не відзначаються.

 

Ймовірність переходу за кроків. Розглянемо ймовірність переходу із стану , який реалізований, наприклад, після -го кроку, в стан за кроків, тобто в стан після -го кроку. Зрозуміло, що внаслідок однорідності ланцюга Маркова ця ймовірність залежить тільки від (і не залежить від ). Позначимо її . Тоді ймовірність переходу за кроків із стану в стан та ймовірність переходу за кроків із стану в .

Використовуючи формулу повної ймовірності та враховуючи, що проміжні стани на – у кроці утворюють повну групу попарно несумісних подій, знайдемо

, (13)

де – будь-яке ціле значення від до .

Позначимо через матрицю, яка складається з ймовірностей , отже – матриця переходів через кроків .

Враховуючи формулу для перемноження квадратних матриць, рівність (13) можна записати в матричному вигляді:

. (14)

Застосовуючи послідовно (59), одержимо

, (15)

тобто для того, щоб отримати матрицю ймовірностей переходів за кроків, потрібно просто піднести до -го степеня вихідну матрицю ймовірностей переходів .

Неважко переконатися в тому, що при будь-якому натуральному матриця є стохастичною.

Безумовна (абсолютна) ймовірність того, що система після -го кроку знаходиться в стані , обчислюється також з використанням формули повної ймовірності:

. (16)

Простим наслідком формули (61) є наступне співвідношення

. (17)

Рекурентні формули (16), (17) можна записати також у матричному вигляді. Справді, якщо абсолютні ймовірності станів визначені у векторній формі як , то на підставі рівностей (14) - (17) маємо

. (18)

або

. (19)

Ймовірності першого досягнення стану при виході зі стану . Введемо до розгляду ймовірність того, що, починаючи зі стану , ланцюг Маркова вперше досягає стан у на -му кроці. , тобто

.

Спираючись на формулу повної ймовірності, можуть бути обчислені через ймовірності внаслідок рекурентного застосування наступних формул:

(20)

За допомогою ймовірностей можна визначати значення деяких інших характеристик, які використовуються при аналізі ланцюга Маркова. Зокрема, через ці ймовірності можуть бути обчислені:

ймовірність того, що, починаючи зі стану , система коли-небудь потрапить в стан :

; (21)

середнє число кроків до першого досягнення стану при виході зі стану :

. (22)

 

Зауваження. Для знаходження вектора в прикладі 9 можна було б замість формули (19) чотири рази послідовно використати формулу (18), а саме, спочатку за цією формулою знайти вектор ймовірностей станів у першому кварталі , потім, у другому кварталі і т. д., поки не дійдемо до четвертого кварталу .

 




Поделиться с друзьями:


Дата добавления: 2014-01-04; Просмотров: 3899; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.045 сек.