Ланцюги Маркова та їх основні характеристики
Марковський випадковий процес з дискретними станами та дискретним часом називається ланцюгом Маркова.
Як уже відзначалося, для такого процесу моменти часу коли система
може змінювати свій стан, розглядають як послідовні кроки процесу, а в якості аргумента, від якого залежить процес, виступає не час
, а номер кроку
. Випадковий процес у цьому випадку характеризується послідовністю станів
, де
– початковий стан системи (перед першим кроком),
– стан системи після першого кроку,
– стан системи після
-го кроку, ....
Якщо через позначити подію, яка полягає в тому, що відразу після
-го кроку система знаходиться в стані
, тобто
, то випадковий процес з дискретним часом можна розглядати як випадкову послідовність (за індексом
) цих подій
, яку називають також ланцюгом.
Означення. Випадкова послідовність називається ланцюгом Маркова, якщо для кожного кроку ймовірність переходу з будь-якого стану в будь-який стан
не залежить від того, коли і як система
виявилася в стані
.
Очевидно, що реалізацію дискретного випадкового процесу з дискретним часом за будь-який (скінчений) проміжок часу можна представити невипадковою скінченною послідовністю (за індексом ) розглядуваних подій
. Наприклад, припустимо, що граф станів системи
, в якій відбувається випадковий процес з дискретним часом, має вигляд, зображений на рис. 3. Спостереження за системою показало, що в початковий момент
система знаходилася в стані
; в момент першого кроку перейшла з нього стрибком у стан
, з якого на другому кроці перейшла в
, на третьому кроці перейшла в
, на четвертому кроці перейшла в
, після п’ятого кроку знаходилася в стані
. Тоді реалізація випадкового процесу блукання по станах має такий вигляд:
.
Зауваження. Для того, щоб при фіксованому
можна було інтерпретувати як (дискретну) випадкову величину, потрібно кожний стан
охарактеризувати кількісно. Це можна зробити різними способами. Наприклад, приписати кожному стану
в якості кількісної характеристики його номер
, тобто
. Тоді переріз випадкового процесу буде представляти дискретну випадкову величину з множиною значень
. Далі,
, означає подію «після
-то кроку ланцюг Маркова знаходиться в стані
», а послідовність станів,
, які приймає випадковий процес
визначає реалізацію або траєкторію процесу.
Враховуючи дане зауваження, більш змістовне означення ланцюга Маркова можна сформулювати так.
Означення. Послідовність випадкових величин , називається ланцюгом Маркова з множиною станів
, якщо
і для будь-яких , будь-яких
та будь-яких підмножин
множини
виконується рівність
. (3)
Властивість (3) означає, що при фіксованому значенні системи в даний момент часу поведінка системи в майбутньому
не залежить від поведінки системи в минулому
, або більш коротко: при фіксованому теперішньому майбутнє не залежить від минулого. Властивість (3) називають марковською властивістю.
Надалі ми будемо використовувати обидві термінології щодо інтерпретації ланцюга Маркова.
З означення ланцюга Маркова і формули (48) випливає, що ланцюг Маркова може бути заданий розподілом ймовірностей переходу за один крок.
Означення. Ймовірністю переходу (перехідною ймовірністю) на
-му кроці із стану
в стан
називається умовна ймовірність того, що система
після
-го кроку виявиться в стані
за умови, що безпосередньо перед цим (після
-го кроку) вона знаходилася в стані
:
. (4)
Якщо множину станів позначити через , то
можна трактувати як ймовірність того, що ланцюг Маркова, знаходячись після
-го кроку в стані
, після наступного
-то кроку виявиться в стані
:
(5)
У випадку, коли , то перехідна ймовірність
називається ймовірністю затримки системи
у стані. Якщо на
-му кроці безпосередній перехід системи із стану
в інший стан
неможливий або неможливою є затримка
в стані
, то
.
Означення. Якщо перехідні ймовірності не залежать від номера кроку
(від часу), а залежать лише від того, з якого стану в який здійснюється перехід, то відповідний ланцюг Маркова називається однорідним.
Якщо хоча б одна ймовірність змінюється зі зміною кроку , то ланцюг Маркова називається неоднорідним. Надалі ми будемо розглядати лише однорідні ланцюги Маркова. У цьому випадку перехідні ймовірності будемо позначати через
замість
. Сукупність ймовірностей переходу
утворює матрицю
, (6)
вона називається однорідною матрицею переходів (перехідних ймовірностей). За означенням всі елементи матриці невід’ємні. Крім цього, оскільки для будь-якої події
, яка наступила після
-го кроку, для наступного
-го кроку одна з подій
обов’язково відбудеться, то елементи кожного рядка матриці
задовольняють умову
. (7)
Означення. Квадратна матриця називається стохастичною, якщо її елементи невід’ємні і сума елементів будь-якого її рядка дорівнює одиниці.
Отже, матрицею переходів ланцюга Маркова зі скінченним числом станів
називається стохастична матриця з порядком
, елементами якої є відповідні перехідні ймовірності
.
Часто також задаються ймовірності станів ланцюга Маркова на початковому нульовому кроці:
або
(8)
На ймовірності накладаються очевидні умови невід’ємності
і нормування:
. (9)
У частковому випадку, якщо початковий стан системи відомий і , то початкова ймовірність
, а всі решта дорівнюють нулю.
За допомогою формул (3), (5) із врахуванням (8) можна обчислити ймовірність будь-якої конкретної траєкторії ланцюга Маркова:
. (10)
Легко показати, що формула (55) задає ймовірності на просторі
всіх траєкторій довжини
. Зокрема, виконується умова нормування для ймовірностей:
. (11)
Корисним зображенням ланцюга Маркова є її розмічений граф станів системи, де біля кожної стрілки, яка веде зі стану в стан
(зі стану
в стан
) відзначена перехідна ймовірність
. Взірець такого розміченого графа станів показано на рис. 2.
Наявність на розміченому графі стрілок і відповідних їм ймовірностей з одного стану в інший означає, що ці перехідні ймовірності відмінні від нуля. Навпаки, відсутність стрілок з одного стану в інший вказує на те, що відповідні їм перехідні ймовірності дорівнюють нулю. Наприклад, , а
.
Перехідні ймовірності, які відповідають стрілкам, що виходять із станів розміщені в
-му рядку матриці
перехідних ймовірностей, а тому їх сума, внаслідок (7), дорівнює одиниці. Тому ймовірності затримок
можна обчислити за формулою
(12)
Внаслідок цього стрілки – петлі та відповідні їм ймовірності затримок на графі, як правило, не відзначаються.
Ймовірність переходу за кроків. Розглянемо ймовірність переходу із стану
, який реалізований, наприклад, після
-го кроку, в стан
за
кроків, тобто в стан
після
-го кроку. Зрозуміло, що внаслідок однорідності ланцюга Маркова ця ймовірність залежить тільки від
(і не залежить від
). Позначимо її
. Тоді
– ймовірність переходу за
кроків із стану
в стан
та
– ймовірність переходу за
кроків із стану
в
.
Використовуючи формулу повної ймовірності та враховуючи, що проміжні стани на
– у кроці утворюють повну групу попарно несумісних подій, знайдемо
, (13)
де – будь-яке ціле значення від
до
.
Позначимо через матрицю, яка складається з ймовірностей
, отже
– матриця переходів через
кроків
.
Враховуючи формулу для перемноження квадратних матриць, рівність (13) можна записати в матричному вигляді:
. (14)
Застосовуючи послідовно (59), одержимо
, (15)
тобто для того, щоб отримати матрицю ймовірностей переходів за кроків, потрібно просто піднести до
-го степеня вихідну матрицю ймовірностей переходів
.
Неважко переконатися в тому, що при будь-якому натуральному матриця
є стохастичною.
Безумовна (абсолютна) ймовірність того, що система після
-го кроку знаходиться в стані
, обчислюється також з використанням формули повної ймовірності:
. (16)
Простим наслідком формули (61) є наступне співвідношення
. (17)
Рекурентні формули (16), (17) можна записати також у матричному вигляді. Справді, якщо абсолютні ймовірності станів визначені у векторній формі як , то на підставі рівностей (14) - (17) маємо
. (18)
або
. (19)
Ймовірності першого досягнення стану при виході зі стану
. Введемо до розгляду ймовірність
того, що, починаючи зі стану
, ланцюг Маркова вперше досягає стан у на
-му кроці.
, тобто
.
Спираючись на формулу повної ймовірності, можуть бути обчислені через ймовірності
внаслідок рекурентного застосування наступних формул:
(20)
За допомогою ймовірностей можна визначати значення деяких інших характеристик, які використовуються при аналізі ланцюга Маркова. Зокрема, через ці ймовірності можуть бути обчислені:
• ймовірність того, що, починаючи зі стану
, система коли-небудь потрапить в стан
:
; (21)
• середнє число кроків до першого досягнення стану
при виході зі стану
:
. (22)
Зауваження. Для знаходження вектора в прикладі 9 можна було б замість формули (19) чотири рази послідовно використати формулу (18), а саме, спочатку за цією формулою знайти вектор ймовірностей станів у першому кварталі
, потім, у другому кварталі
і т. д., поки не дійдемо до четвертого кварталу
.