Академический Документы
Профессиональный Документы
Культура Документы
Марковские цепи
Марковские цепи
Т. В. Крупкина
СЛУЧАЙНЫЕ ПРОЦЕССЫ
Часть 1
МАРКОВСКИЕ ЦЕПИ
β – версия
СФУ 2008
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
2
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
(n)
то есть вероятность pij — это вероятность перехода из состояния с номе-
ром «i» в состояние с номером «j» на n-м шаге.
(n)
Определение 1.2. Матрица P (n) с элементами pij называется мат-
рицей вероятностей перехода на n-м шаге.
Итак, для цепи Маркова используются следующие интерпретации:
1) система с возможными состояниями;
2) последовательность зависимых случайных величин;
3) последовательность зависимых испытаний.
Покажем, что в цепи Маркова при фиксированном настоящем буду-
щее не зависит от прошлого.
Предположим, что время t дискретно и принимает значения t =
0, 1, 2, . . . , T , а число состояний равно r. Цепь Маркова описывается тра-
екторией X = (X0 , X1 . . . , XT ), где Xt = i, i = 1, . . . , r, если в момент
t система находится в состоянии i. Вероятностное пространство (Ω, F, P)
определяется пространством траекторий Ω, алгеброй F всевозможных под-
множеств Ω и вероятностью P, задаваемой элементарными вероятностями
P (X). События Ai (t) = {(X : Xt = i}, i = 1, . . . , r, при каждом t опреде-
ляют разбиение At , которое порождает алгебру событий At . В последова-
тельности испытаний зафиксируем какой-нибудь момент времени t. Алгеб-
ру событий At назовем настоящим, алгебру At−1 0 , порожденную алгебрами
A0 , A1 , . . . , At−1 , назовем прошлым, алгебру ATt+1 , порожденную алгебрами
At+1 , At+2 , . . . , AT , назовем будущим. Любые события из соответствующей
алгебры также будут называться настоящим, прошлым или будущим. Пусть
A ∈ At−1 T
0 , B ∈ At+1 . По определению,
P (B/A, At ) = P (B/At ).
Таким образом при фиксированном настоящем любые события из прошлого
и будущего независимы.
Определение 1.3. Марковская цепь {Xn } называется однородной,
(n) (n)
если вероятности pij не зависят от n. (pij — вероятность пере-
хода из εi в εj на n-м шаге.) В этом случае матрица P (n) = P и назы-
вается матрицей переходных вероятностей.
В матрице переходных вероятностей P любой элемент pij > 0, nj pij = 1
P
для любого i. Такие матрицы называются стохастическими.
3
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
Пример 1.4. (По условиям примера ??.) Пусть студента в конце года
могут: исключить с вероятностью r, оставить на второй год с ве-
роятностью s, перевести на следующий курс с вероятностью p; ве-
роятность поступления q, вероятность выпуска p. Тогда матрица
переходных вероятностей имеет вид
1−q q 0 0
r s p 0
P =
r 0 s p
0 0 0 1
4
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
(j − 2)! 1
P(εi , εj ) = (два элемента фиксированы) = = .
j! j(j − 1)
i
P(εj /εi ) = , i < j 6 m.
j(j − 1)
P(εm+1 , εi ) 1/m i
P(εm+1 /εj ) = = = .
P(εj ) 1/i m
5
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
Рассмотрим матрицу P (k) = (pij (k)). Тогда равенство (??) можно записать
как
p1 p2 . . . pn p1 p2 . . . pn
P P P
p1 P pi p2 P pi . . . pn P pi p1 p2 . . . pn
p1 pi p2 pi . . . pn pi P pi =1 p1 p2 . . . pn
= ...
=
. . . . . . . . . . . . = P.
P .P. . . . . .
P . .
p1 pi p2 pi . . . pn pi p1 p2 . . . pn
Пример 1.7.
0 1/2 1/2 0
1/2 0 0 1/2
P =
0
0 1/2 1/2
0 0 1/2 1/2
Состояние ε1 — несущественное, так как из ε1 можно попасть в ε3 ,
а из ε3 уже только в ε3 , ε4 . Состояние ε2 — несущественное, так как
p24 > 0, p42 (t) = 0. Состояния ε3 и ε4 — существенные и сообщающие-
ся, так как p34 = p43 > 0.
6
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
7
1. Последовательности зависимых случайных
величин, образующих цепи Маркова
8
2. Классификация состояний в неразложимой цепи Маркова
9
2. Классификация состояний в неразложимой цепи Маркова
10
2. Классификация состояний в неразложимой цепи Маркова
11
2. Классификация состояний в неразложимой цепи Маркова
Доказательство. Для n = 0, 1, . . .
2n
X (2n)! 1
p00 (2n + 1) = 0, p00 (2n) = ,
i!i!j!j!(n − i − j)!(n − i − j)! 6
Умножим числитель и знаменатель на (n!)2 , получим:
2 n
1 n X n! 1
p00 (2n) = 2n C2n .
2 i!j!(n − i − j)! 3
n
n! Cn n 1
Если max 6 Cn , то p00 (2n) 6 2n C2n . Мы использо-
i!j!(n − i − j)! 2 3
вали то, что
n X i j n−i−j
X n! 1 n! 1 1 1
= = 1.
i!j!(n − i − j)! 3 i!j!(n − i − j)! 3 3 3
12
2. Классификация состояний в неразложимой цепи Маркова
n
Max Cn достигается (при больших n) при i = j ∼ , тогда
3
n! (2n)!
C n ∼ 2 , p00 (2n) 6 2 .
n
3 ! n!22n n3 ! 3n
Применим,
как выше, формулу Стирлинга, и получим, что p00 (2n) ∼
1 P
O 3 . Тогда p00 (2n) < ∞, значит состояние невозвратное.
n2
Доказательство.
1 P
При k > 3: p00 (2n) = O , n p00 (2n) < ∞, состояние невозвратно.
(πn)k/2
Несимметричное случайное блуждание (при p 6= q) невозвратно для любого
n n
P
k (так как (4pq) = α , α < 1, n p00 (2n) < ∞).
Аналогично,
14
2. Классификация состояний в неразложимой цепи Маркова
P∞
Пусть εk — возвратное, т.е. n=1 pkk (n) = ∞. Тогда
∞
X ∞
X
pjj (n) > AB pkk (n − s − t)
n=s+t+1 n=s+t+1
∞
X X∞
pkk (n − s − t) = pkk (u) = ∞
n=s+t+1 u=1
∞
X ∞
X
=⇒ pjj (n) = ∞ =⇒ pjj (n) = ∞ =⇒ δj — возвратное.
n=s+t+1 n=1
kd + α + t1 = ad, s + t1 = bd
=⇒ kd + α + bd − s = ad, α = s + d(a − b − k) =⇒ α ≡ s (mod d).
15
2. Классификация состояний в неразложимой цепи Маркова
Поскольку из состояния
S ε1 можно с положительной вероятностью попасть
в любое εi , то α ψα содержит все множество состояний. Докажем те-
перь, что система из ψα за один шаг с вероятностью 1 переходит в ψα+1
(α +P1 понимается по модулю d). Для этого надо показать, что для εi ∈
ψα , εj ∈ψα+1 pij = 1. Достаточно получить, что pij = 0, если εi ∈ ψα ,
εj ∈
/ ψα+1 . От противного, пусть εi ∈ ψα , εj ∈
/ ψα+1 , pij > 0. Тогда
16
3. Эргодичность и стационарные распределения
17
3. Эргодичность и стационарные распределения
Замечание
P 3.2. Если для однородной цепи Маркова справедливо: aj =
ai pij , то {ak } — стационарное распределение.
i
18
3. Эргодичность и стационарные распределения
N
P
Доказательство. Рассмотрим случай б). Заметим, что Uk 6 1, так как
P k=1
для любого n справедливо: pjk (n) = 1, поэтому «обрезанная» сумма не
k
превышает 1, и это верно и в пределе. Так как lim pjk (n) = Uk , для любого
n→∞
N получаем, что U1 + · · · + UN 6 1. Далее, для любых j, k, m, n справедливо:
X
pjk (m + n) = pjν (m)pνk (n).
ν
P
Положим n = 1: pjk (m + 1) = pjν (m)pνk . Если мы сужаем множество
ν
индексов в правой части, то справедливо неравенство:
X X
pjk (m + 1) = pjν (m)pνk > pjν (m)pνk ,
ν ν∈A
19
3. Эргодичность и стационарные распределения
и просуммируем по j:
X X X X
Vj pjk = Vi pij (2)pjk , Vk = Vi pik (3), (13)
j i j i
P
и так далее по индукции. Пусть Vk = Vi pik (n − 1), покажем, что Vk =
P i
Vi pik (n).
i X
Vk pkj (n) = Vi pik (n − 1)pkj ,
i
P
просуммируем по k: Vj = Vi pij (n) для любого n. Заменим индекс j на k,
i
получим: X
Vk = Vi pik (n).
i
Пусть n → ∞; с учетом того, что lim pik (n) = Uk , в пределе получаем
n→∞
Vk = (V1 +. . . )·Uk = Uk (так как сумма вероятностей стационарного распре-
деления равна единице). Таким образом, стационарное распределение {Vk }
совпадает с {Uk }, то есть стационарное распределение единственно. В слу-
чае а), если все состояния или невозвратные, или нулевые, предположим,
что распределение {V Pk } стационарно. Тогда, как показано выше, имеет ме-
сто уравнение Vk = i Vi pik (n). Но pik (n) −→ 0 — противоречие. Поэтому
n→∞
стационарное распределение для неприводимой цепи может существовать
только в эргодическом случае.
Замечание 3.3. Поскольку показано, что lim pij (n) > 0, не зависящий
n→∞
от i, существует для любого возвратного состояния εj , не являюще-
гося ни нулевым, ни периодическим, то термин «эргодическое состо-
яние» — это синоним для «возвратное, не нулевое, не периодическое
состояние»
20
3. Эргодичность и стационарные распределения
= ∞
P
PjP k Pk pkj , j = 0, 1, . . .
∞
j Pj = 1.
Замечание 3.5. Таким образом, при выполнении условий 1), 2) цепь яв-
ляется эргодической, то есть существуют вероятности попадания
системы в состояние εj через большой промежуток времени, причем
они не зависят от начального состояния системы.
Приведем без доказательства еще одно часто применяемое достаточ-
ное условие эргодичности.
Теорема 3.4 (эргодическая теорема Маркова). Для эргодичности од-
нородной цепи Маркова с матрицей переходных вероятностей P до-
статочно, чтобы существовало n ∈ N, при котором все элементы
матрицы P n строго положительны.
21
3. Эргодичность и стационарные распределения
Пример 3.3.
0, 7 0, 3
P = .
0, 4 0, 6
J
λE − P = |λE − P | = (λ − 0, 7) · (λ − 0, 6) − 0, 42 = λ2 − 1, 3λ + 0, 3 = 0.
λ1 = 1, λ2 = 0, 3.
P11 (1) = 1 − 0, 6 = 0, 4, P22 (1) = 1 − 0, 7 = 0, 3.
P11 (1) 0, 4 4 P22 (1) 0, 3 3
P1 = = = , P2 = = = .
P11 (1) + P22 (1) 0, 7 7 P11 (1) + P22 (1) 0, 7 7
I
22
3. Эргодичность и стационарные распределения
23
Литература
24
Предметный указатель
матрица матрицы
переходных вероятностей, 3 характеристические, 22
на n-м шаге, 3
эргодическая
стохастическая, 3
теорема, 20
состояние теорема Маркова, 21
апериодическое, 9
возвратное, 9
невозвратное, 9
ненулевое, 9
несущественное, 6
нулевое, 9
периодическое, 9
поглощающие, 7
эргодическое, 17
существенное, 6
состояния
сообщающиеся, 6
теорема
Маркова
эргодическая, 21
эргодическая, 20
цепь Маркова, 2
апериодическая, 15
матрица характеристическая, 22
неразложимая, 7
однородная, 3
периодическая, 15
эргодическая, 17
разложимая, 7
распределение
стационарное, 17
числа
25
Оглавление
26