Ланцюги Маркова та їх основні характеристики

Марковський випадковий процес з дискретними станами та дискретним часом називається ланцюгом Маркова.

Як уже відзначалося, для такого процесу моменти часу коли система може змінювати свій стан, розглядають як послідовні кроки процесу, а в якості аргумента, від якого залежить процес, виступає не час , а номер кроку . Випадковий процес у цьому випадку характеризується послідовністю станів , де – початковий стан системи (перед першим кроком), – стан системи після першого кроку, – стан системи після -го кроку, ....

Якщо через позначити подію, яка полягає в тому, що відразу після -го кроку система знаходиться в стані , тобто , то випадковий процес з дискретним часом можна розглядати як випадкову послідовність (за індексом ) цих подій , яку називають також ланцюгом.

Означення. Випадкова послідовність називається ланцюгом Маркова, якщо для кожного кроку ймовірність переходу з будь-якого стану в будь-який стан не залежить від того, коли і як система виявилася в стані .

Очевидно, що реалізацію дискретного випадкового процесу з дискретним часом за будь-який (скінчений) проміжок часу можна представити невипадковою скінченною послідовністю (за індексом ) розглядуваних подій . Наприклад, припустимо, що граф станів системи , в якій відбувається випадковий процес з дискретним часом, має вигляд, зображений на рис. 3. Спостереження за системою показало, що в початковий момент система знаходилася в стані ; в момент першого кроку перейшла з нього стрибком у стан , з якого на другому кроці перейшла в , на третьому кроці перейшла в , на четвертому кроці перейшла в , після п’ятого кроку знаходилася в стані . Тоді реалізація випадкового процесу блукання по станах має такий вигляд: .

Зауваження. Для того, щоб при фіксованому можна було інтерпретувати як (дискретну) випадкову величину, потрібно кожний стан охарактеризувати кількісно. Це можна зробити різними способами. Наприклад, приписати кожному стану в якості кількісної характеристики його номер , тобто . Тоді переріз випадкового процесу буде представляти дискретну випадкову величину з множиною значень . Далі, , означає подію «після -то кроку ланцюг Маркова знаходиться в стані », а послідовність станів, , які приймає випадковий процес визначає реалізацію або траєкторію процесу.

Враховуючи дане зауваження, більш змістовне означення ланцюга Маркова можна сформулювати так.

Означення. Послідовність випадкових величин , називається ланцюгом Маркова з множиною станів , якщо

і для будь-яких , будь-яких та будь-яких підмножин множини виконується рівність

. (3)

Властивість (3) означає, що при фіксованому значенні системи в даний момент часу поведінка системи в майбутньому не залежить від поведінки системи в минулому , або більш коротко: при фіксованому теперішньому майбутнє не залежить від минулого. Властивість (3) називають марковською властивістю.

Надалі ми будемо використовувати обидві термінології щодо інтерпретації ланцюга Маркова.

З означення ланцюга Маркова і формули (48) випливає, що ланцюг Маркова може бути заданий розподілом ймовірностей переходу за один крок.

Означення. Ймовірністю переходу (перехідною ймовірністю) на -му кроці із стану в стан називається умовна ймовірність того, що система після -го кроку виявиться в стані за умови, що безпосередньо перед цим (після -го кроку) вона знаходилася в стані :

. (4)

Якщо множину станів позначити через , то можна трактувати як ймовірність того, що ланцюг Маркова, знаходячись після -го кроку в стані , після наступного -то кроку виявиться в стані :

(5)

У випадку, коли , то перехідна ймовірність називається ймовірністю затримки системи у стані. Якщо на -му кроці безпосередній перехід системи із стану в інший стан неможливий або неможливою є затримка в стані , то .

Означення. Якщо перехідні ймовірності не залежать від номера кроку (від часу), а залежать лише від того, з якого стану в який здійснюється перехід, то відповідний ланцюг Маркова називається однорідним.

Якщо хоча б одна ймовірність змінюється зі зміною кроку , то ланцюг Маркова називається неоднорідним. Надалі ми будемо розглядати лише однорідні ланцюги Маркова. У цьому випадку перехідні ймовірності будемо позначати через замість . Сукупність ймовірностей переходу утворює матрицю

, (6)

вона називається однорідною матрицею переходів (перехідних ймовірностей). За означенням всі елементи матриці невід’ємні. Крім цього, оскільки для будь-якої події , яка наступила після -го кроку, для наступного -го кроку одна з подій обов’язково відбудеться, то елементи кожного рядка матриці задовольняють умову

. (7)

Означення. Квадратна матриця називається стохастичною, якщо її елементи невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці.

Отже, матрицею переходів ланцюга Маркова зі скінченним числом станів називається стохастична матриця з порядком , елементами якої є відповідні перехідні ймовірності .

Часто також задаються ймовірності станів ланцюга Маркова на початковому нульовому кроці:

або (8)

На ймовірності накладаються очевидні умови невід’ємності і нормування:

. (9)

У частковому випадку, якщо початковий стан системи відомий і , то початкова ймовірність , а всі решта дорівнюють нулю.

За допомогою формул (3), (5) із врахуванням (8) можна обчислити ймовірність будь-якої конкретної траєкторії ланцюга Маркова:

. (10)

Легко показати, що формула (55) задає ймовірності на просторі всіх траєкторій довжини . Зокрема, виконується умова нормування для ймовірностей:

. (11)

 

Корисним зображенням ланцюга Маркова є її розмічений граф станів системи, де біля кожної стрілки, яка веде зі стану в стан (зі стану в стан ) відзначена перехідна ймовірність . Взірець такого розміченого графа станів показано на рис. 2.

Наявність на розміченому графі стрілок і відповідних їм ймовірностей з одного стану в інший означає, що ці перехідні ймовірності відмінні від нуля. Навпаки, відсутність стрілок з одного стану в інший вказує на те, що відповідні їм перехідні ймовірності дорівнюють нулю. Наприклад, , а .

Перехідні ймовірності, які відповідають стрілкам, що виходять із станів розміщені в -му рядку матриці перехідних ймовірностей, а тому їх сума, внаслідок (7), дорівнює одиниці. Тому ймовірності затримок можна обчислити за формулою

(12)

Внаслідок цього стрілки – петлі та відповідні їм ймовірності затримок на графі, як правило, не відзначаються.

 

Ймовірність переходу за кроків. Розглянемо ймовірність переходу із стану , який реалізований, наприклад, після -го кроку, в стан за кроків, тобто в стан після -го кроку. Зрозуміло, що внаслідок однорідності ланцюга Маркова ця ймовірність залежить тільки від (і не залежить від ). Позначимо її . Тоді ймовірність переходу за кроків із стану в стан та ймовірність переходу за кроків із стану в .

Використовуючи формулу повної ймовірності та враховуючи, що проміжні стани на – у кроці утворюють повну групу попарно несумісних подій, знайдемо

, (13)

де – будь-яке ціле значення від до .

Позначимо через матрицю, яка складається з ймовірностей , отже – матриця переходів через кроків .

Враховуючи формулу для перемноження квадратних матриць, рівність (13) можна записати в матричному вигляді:

. (14)

Застосовуючи послідовно (59), одержимо

, (15)

тобто для того, щоб отримати матрицю ймовірностей переходів за кроків, потрібно просто піднести до -го степеня вихідну матрицю ймовірностей переходів .

Неважко переконатися в тому, що при будь-якому натуральному матриця є стохастичною.

Безумовна (абсолютна) ймовірність того, що система після -го кроку знаходиться в стані , обчислюється також з використанням формули повної ймовірності:

. (16)

Простим наслідком формули (61) є наступне співвідношення

. (17)

Рекурентні формули (16), (17) можна записати також у матричному вигляді. Справді, якщо абсолютні ймовірності станів визначені у векторній формі як , то на підставі рівностей (14) - (17) маємо

. (18)

або

. (19)

Ймовірності першого досягнення стану при виході зі стану . Введемо до розгляду ймовірність того, що, починаючи зі стану , ланцюг Маркова вперше досягає стан у на -му кроці. , тобто

.

Спираючись на формулу повної ймовірності, можуть бути обчислені через ймовірності внаслідок рекурентного застосування наступних формул:

(20)

За допомогою ймовірностей можна визначати значення деяких інших характеристик, які використовуються при аналізі ланцюга Маркова. Зокрема, через ці ймовірності можуть бути обчислені:

ймовірність того, що, починаючи зі стану , система коли-небудь потрапить в стан :

; (21)

середнє число кроків до першого досягнення стану при виході зі стану :

. (22)

 

Зауваження. Для знаходження вектора в прикладі 9 можна було б замість формули (19) чотири рази послідовно використати формулу (18), а саме, спочатку за цією формулою знайти вектор ймовірностей станів у першому кварталі , потім, у другому кварталі і т. д., поки не дійдемо до четвертого кварталу .