1
режиме требует много времени и внимания.
Введение
2
одним или несколькими случайными признаками (дискретными или
непрерывными), то приходим к понятию случайной функции.
Согласно строгому математическому определению случайный процесс
или случайная функция (эти понятия обычно считают равнозначными) – это
случайная величина, зависящая от параметра t, который условно будем
называть временем. Такую функцию можно обозначать X (t ).
3
Из этого примера, в частности, видно, что большое практическое
значение имеет изучение взаимосвязей между сечениями. Этим занимается
корреляционная теория случайных процессов.
Если все безусловные (то есть рассматриваемые изолированно, без связи
с остальными) сечения СП в каждый из допустимых моментов времени имеют
одинаковый закон распределения, то процесс называется однородным.
Дальнейшая классификация СП основана на том, что как время, так и
состояния системы могут быть как дискретными, так и непрерывными.
1. Наиболее общий случай собственно случайной функции реализуется
при непрерывных состояниях и времени. В качестве примера можно
рассмотреть тот же процесс изменения температуры воздуха.
2. Если эту температуру фиксировать не постоянно, а, скажем, с
интервалом в 10 минут, то фактически приходим к понятию СП с
непрерывными состояниями и дискретным временем. Математически удобно в
таких случаях нумеровать моменты времени целыми числами (например,
t=0,1,2,3, … ).
3. Примером СП с непрерывным временем и дискретными состояниями
может служить любая система, которая имеет несколько возможных состояний,
между которыми может переключаться в случайные моменты времени.
Например, автоматическая стиральная машина сама переключает режимы:
стирка, полоскание, отжим,… Если таких состояний всего 2, то систему
называют пуассоновским переключателем (подробнее такая система
рассмотрена в 9).
4. СП с дискретными временем и состояниями в простейшей форме
осуществляется в виде последовательных испытаний Бернулли [4, лекция 4].
Под «временем» в этом случае понимают номер испытания i=1,2, … .
Реализацией процесса является последовательность «успехов» и «неуспехов»,
например, 0,1,1,1,0,1,0, 0,1,0,… Сечением же – простейшее распределение для
любого номера испытания (напоминаем, испытания Бернулли считаются
независимыми):
4
X(i
0 1
)
P q p
Заметим, что этот процесс является однородным именно потому, что это
распределение одинаково для каждого момента времени.
Рассматривают также процессы с последействием и без последействия.
К последним относят процессы, для полного описания сечений которых в
любой будущий момент достаточно знать его состояние в текущий момент
времени, а предыдущее развитие процесса не играет роли. К таковым
относится, например, процесс азартной игры (скажем, на рулетке): все, что
может произойти с игроком в будущем, полностью определяется суммой денег
у него на руках в настоящий момент и не зависит от предыдущих перипетий
игры.
В качестве примера неоднородного СП без последействия рассмотрим те
же испытания Бернулли, но с накоплением успехов, т.е. заменим приведенную
выше последовательность нулей и единиц последовательностью
0,1,2,3,3,4,4,4,5,5,… (это возможная реализация процесса). Сечения этого
процесса описываются формулой Бернулли: для любого номера испытания
i=1,2, … и любого значения числа накопленных успехов k =0,1,2, …i
P ( X ( i ) =k ) =Cik pk qi−k .
5
Задачи
6
Рис. 2.1
Опишем ситуацию в общем виде (см. рис. 2.2). Состояния системы
изображаем квадратами или прямоугольниками, внутри каждого из которых
можно разместить символ состояния S i (иногда достаточно только номера i)
или описание состояния, возможные переходы – стрелками. В некоторых
случаях показывают и переходы из состояния в него же.
Рис. 2.2
Результатом является ориентированный граф состояний (его также
можно называть схемой СП).
Граф состояний считаем связным, т.е. не распадающимся на отдельные,
никак не связанные части (такие части следует рассматривать как различные
графы состояний различных МСП).
Определим понятия источника (И) и поглотителя (П). Так называются
(см. рис. 2.3) соответственно те состояния, в которые нет входов, и те, из
которых нет выходов:
7
Рис. 2.3
Те же названия можно перенести на подмножества состояний (см. рис.
2.4): если из подмножества есть только выходы, то это подмножество также
называют источником. Аналогично определяется и подмножество-поглотитель.
Во всех случаях подмножество считается собственным, то есть не пустым и не
совпадающим со всем множеством состояний.
Множество-источник Множество-поглотитель
Рис. 2.4
Замечание 2.1. Понятия источника и поглотителя не всегда определены
однозначно. Например, в следующей простой схеме (рис.2.5)
Рис. 2.5
8
источником можно считать как состояние 1, так и множество, включающее
состояния 1 и 2. То же относится и к поглотителям.
Очевидно, что любому множеству-источнику соответствует множество-
поглотитель, являющееся его дополнением (то есть включающее все остальные
состояния), и наоборот.
Отдельным классом МСП являются случайные блуждания. Например, в
случае двумерного случайного блуждания состояния совпадают с узлами
квадратной (треугольной, шестиугольной) сетки (ограниченной или
распространяющейся на всю плоскость), а переходы из каждого узла возможны
во все ближайшие к нему узлы и только в них. Например, для простейшей
квадратной сетки (рис.2.6):
Рис. 2.6
Одномерные случайные блуждания называют также процессами
рождения и гибели. В качестве примера рассмотрим (рис. 2.7) схему с тремя
транзитными узлами, одним отражающим (правый узел) и одним
поглощающим (левый узел):
Рис. 2.7
9
Процессы размножения и гибели рассматриваются, в частности, в теории
систем массового обслуживания (СМО). Рассмотрим (рис.2.8) в качестве
примера схему работы простейшей из них – одноканальной СМО с
неограниченной очередью (магазин с одним кассиром):
Рис. 2.8
Подробнее о процессах рождения и гибели, а также о СМО мы
поговорим в главах 11,12.
Задачи
Рис. 2.9
2.2. Проверить, что графы, представленные на рис.2.10, эквивалентны (т.е.
переходят друг в друга при некоторой перенумерации состояний).
10
Рис. 2.10
3. Цепь Маркова
возможных состояний S 1 , S2 , … , S i , … , S n .
Граф цепи Маркова (ГЦМ) отличается от общего случая указанием
переходных вероятностей.
За один шаг во времени (номер шага обозначим также буквой k, причем
шаги нумеруем от 1) можно перейти в другое состояние, либо остаться в этом
же (рис. 3.1):
Рис. 3.1
11
Каждому возможному переходу соответствует переходная вероятность
pi j , понимаемая как условная вероятность перехода за 1 ход (то есть за
удовлетворяющая свойствам:
а) все элементы неотрицательны;
б) выполняется условие (3.2) (стохастическое свойство).
Сама матрица, удовлетворяющая этим свойствам, также называется
стохастической.
Замечание 3.1. Стохастическое свойство сохраняется при перемножении
квадратных матриц (докажите это самостоятельно!).
Пример 3.1. ЦМ задана графом, представленным на рис. 3.2:
12
Рис. 3.2
Замечание 3.2. Для упрощения вида графа можно (как на этой схеме)
опускать стрелки, указывающие отсутствие перехода. Соответствующие им
вероятности легко вычислить, исходя из свойства б).
Соответствующая матрица перехода имеет вид:
( )
0 ,5 0 0 0,5
0 ,3 0 , 7 0 0
A=
0 ,1 0 , 2 0 , 4 0 , 3
0,6 0,4 0 0
13
определению И и П переходы из второй группы состояний в первую
отсутствуют, что и соответствует нулевым значениям вероятностей, входящих в
соответствующий угол матрицы.
В случае цепи Маркова под реализацией понимают список состояний,
соответствующих каждому моменту времени, например, S 1 , S 4 , S2 , S 2 , …
( )
0 ,5 0 0 0,5
0 ,3 0 , 7 0 0
ṕ ( k )= ṕ ( k −1 ) ,
0,1 0,2 0,4 0,3
0,6 0,4 0 0
p3 ( k )=¿ p3 ( k−1 ) 0 , 4 ;
Задачи
15
Рис. 3.3
составить матрицу перехода за 1 шаг. Найти матрицы перехода за 2 и 3 шага.
Сделать вывод.
3.3. В условиях примера 3.1 найти матрицы переходов за 2 и 3 шага.
Пусть известно, что в начальный момент состояние цепи S 3 . Найти
{ ṕ ¿ ( A−E )=0
∑ p ¿i =1
i
(4.2)
17
зависимы. Это значит, что по меньшей мере одно уравнение выражается через
остальные, т.е. его можно вычеркнуть из системы. Если ранг матрицы A−E
Рис. 4.1
( ) ( )
1− p−r p r −p−r p r
Легко сосчитать, что A= 0 1 0 , A−E= 0 0 0 . Таким
0 0 1 0 0 0
ṕ ( 0 ) , ṕ ( 1 ) , … , ṕ ( k ) … → q́ . (4.3)
Теорема 4.2. Любое стационарное распределение вероятностей является
финальным, и наоборот.
Доказательство.
¿
Пусть ṕ¿ – СРВ. Примем его за начальное: ṕ ( 0 )= ṕ . Из (4.1) вытекает,
¿
что и при любом k будет ṕ ( k )= ṕ . Пределом постоянной
последовательности векторов является тот же вектор, т.е. в (4.3) q́= ṕ¿ .
18
Пусть теперь q́ – ФРВ. Используем равенство (3.4) и учтем, что при
k →∞ будет и k −1→ ∞ :
q́=l ℑ ( ṕ ( 0 ) ∙ A k )=l ℑ ( ṕ ( 0 ) ∙ A k−1 ) A=q́ ∙ A ,
k→ ∞ k →∞
строго положительны, видим, что это равенство возможно, только если все
элементы первого столбца матрицы A , начиная с (m+1) -го, обращаются в
19
Условие « A k при некотором k не содержит нулей» называется
условием Маркова. Если оно выполнено при некотором k, то, очевидно,
выполняется и при всех дальнейших.
Задачи
Рис. 4.2
20
Если цепь содержит И и П, то очевидно, что условие доступности
нарушается, если S нач ∈ П , а S кон ∈ И .
Пусть теперь цепь не содержит И и П. Выберем любое состояние S нач и
рассмотрим множество U тех состояний, до которых вообще можно
добраться из него (за любое число шагов). Тогда дополнение U является
источником. Действительно, если бы существовал хотя бы один возможный
переход (стрелка) из U в U , то состояние, в котором эта стрелка
требовалось доказать.
Заметим здесь, что условие Маркова является более сильным, чем
условие доступности, так как оно требует, чтобы любые переходы между двумя
состояниями реализовывались за одно и то же число шагов k. Ниже на
примерах мы покажем эту разницу наглядно.
Но сначала докажем теорему о том, что из условия Маркова вытекает
сильная эргодичность ЦМ.
Теорема 5.2. Если для ЦМ выполнено условие Маркова, то:
1) Матрица Ak с ростом k стабилизируется к матрице A∞ ,
все строки которой одинаковы:
( )
q1 q2 . qn
∞
A =l ℑ A
k q1 q2 . qn
= ;
k→∞
. . . .
q1 q2 . qn
( ṕ ( 0 ) ∙ Ak ) =¿ q́
l ℑ ṕ ( k )=lim ¿
k →∞ k→∞
22
Условие Маркова нарушается не только для цепей с источниками и
поглотителями, но и для цепей с циклами.
Определение 5.2. Циклическое множество порядка k – состояние или
множество состояний, в которые система обязательно возвращается через
каждые k шагов. Совокупность связанных циклических множеств называется
циклом.
Пример 5.1. Рассмотрим (см. рис. 5.1) простейшую ЦМ – цикл,
содержащий 3 циклических множества порядка 3 (каждое включает 1
состояние):
Рис. 5.1
Очевидно, что
( ) ( )
0 1 0 0 0 1
2 3
A= 0 0 1 , A = 1 0 0 , A =E .
1 0 0 0 1 0
23
Цепь может содержать также состояния вне цикла, из которых в цикл
есть входы, но нет выходов (в этом случае цикл обладает свойством
поглотителя). Наконец, цепь может содержать и несколько циклов, в том числе
и разного порядка.
Очевидно, что переходы между разными циклическим множествами,
входящими в цикл порядка k, за k шагов невозможны. То же верно для 2 k ,3 k
и т.д. шагов, то есть условие Маркова выполняться не может. Таким образом,
доказано прямое утверждение следующей основной теоремы Маркова.
Теорема 5.3. Для любой ЦМ условие Маркова выполняется тогда и
только тогда, когда она не содержит источников, поглотителей и циклов.
Обратное утверждение этой теоремы (из отсутствия И, П и Ц вытекает
выполнение условия Маркова, а, следовательно, и сильная эргодичность)
доказывается достаточно сложно. Это доказательство мы опустим.
Задачи
( ) ( ) ( )
0 1 0 0 0 0,2 0 0 ,8 0 1 0 0
0 0 1 0 0,6 0 0,4 0 0,4 0 0,1 0,5
а) 0,3 0 0 0,7
; б)
0 0,8 0 0 ,2
; в)
0 1 0 0
0 1 0 0 0 0 0 1 0 1 0 0
Рис.6.1
С потоком событий можно связать следующие случайные величины (о
понятии, видах и свойствах случайных величин см. [4, лекции 5 – 8]).
Дискретная случайная величина X [τ 1 , τ 2 ] – число событий,
произошедших за указанный интервал времени.
Непрерывная случайная величина T (τ ) – время ожидания первого
события потока, начиная с данного момента времени τ .
26
автомобилей за одну «единицу движения» или считать гостей ресторана не по
одному, а «компаниями», которыми они приходят. Известны случаи, когда
астрономы открывали группы комет, движущихся вместе. Такое событие
считается за одно астрономическое открытие.
Определение 6.4. Отсутствие последействия в потоке событий
означает, что в каждый данный момент «будущее» потока никак не зависит от
его «прошлого». Более точная формулировка: если два интервала времени не
перекрываются (в частности, примыкают друг к другу), то любые связанные с
этими интервалами случайные величины независимы.
В частности, это свойство обозначает, что каждое отдельное событие
потока происходит независимо от остальных.
Пример 6.1. Поток пассажиров, входящих в метро, можно считать
пуассоновским. Но для потока выходящих пассажиров по понятным причинам
нарушаются все три определяющие свойства.
27
ожидание числа успехов (в данном случае событий потока на промежутке
времени [ 0 ,1 ] ) равно n p . Сравнивая с (6.1), получаем:
p=λ ∆ t
или
λ
p= .
n
(заметим, что на этом этапе формула является приближенной, так как для
конечного интервала длины ∆t правило ординарности выполняется не
абсолютно; но в дальнейшем мы устремим n к бесконечности и получим
точный результат).
Преобразуем последнюю формулу:
λ n λ n
pk ≈
( )
1−
n ( n−1 ) … ( n−k +1 ) λ k n
=
λk n n−1 n−k + 1
…
1−
n
=¿
( )
k k
k! n λ k! n n n λ k
( ) 1−
n
1−
n ( )
1 k−1
1− 1−
λk n
1 n n λ
¿
k! λ
1− 1−
λ
…
1−
λ
1−
n( )
n n n
и заметим, что при n→∞ каждая из k промежуточных дробей имеет
пределом 1, а последнее выражение представляет собой известный в
математическом анализе «второй замечательный предел» и дает в пределе e−λ
.
Теорема 6.1 доказана.
Замечание 6.3. Напомним, что, согласно свойству однородности формула
(6.2) верна для любого промежутка времени длиной 1. Нетрудно
распространить ее и на промежуток любой длины t . Он содержит nt
1
элементарных промежутков длины ∆ t= . Заменим в (6.3) n на nt
n
F ( t )= { 0,
− λt
t ≤0 ,
1−e , t > 0.
29
По определению [4, с.51], при любом значении t функция F ( t ) равна
вероятности того, что T <t (время ожидания случайного события окажется
меньшим, чем t ¿ . Перейдем к противоположному событию, вероятность
получить:
P (T ≥t )=e−λt . (6.5)
Отсюда имеем:
P (T <t )=F ( t ) = 1−e− λt , (6.6)
что и требовалось.
Напомним, что, согласно [5, с.66],
1 1
M ( T )= , D ( T )= 2 . (6.7)
λ λ
Например, в условиях примера 6.2 среднее время ожидания клиента
составляет 3 минуты 20 секунд. Этот пример показывает важность
распределений Пуассона и показательного для математического анализа так
называемых систем массового обслуживания (СМО). Ниже эти вопросы будут
рассмотрены более подробно.
30
Рис.6.2
На рис.6.2 указаны потоки плотностей λ и μ , а также суммарный
поток событий. Докажем, что для него также верна формула (6.2), но с
параметром λ+ μ . Обозначим число событий в единицу времени для
k (λ + μ) k
(λ+ μ) . Получили: P ( X=k )=e −(λ+μ )
, что и требовалось.
k!
Замечание 6.5. Так как суммарный поток вновь является потоком
Пуассона, то теорема 6.3 позволяет добавлять следующий независимый поток.
Таким образом, эта теорема распространяется на любое число независимых
пуассоновских потоков.
Теорема 6.4. Распределение величины T (времени ожидания) не
зависит от времени предыдущего ожидания.
31
Доказательство. Пусть от момента начала ожидания случайного события
(примем этот момент за 0) прошло уже время τ. Найдем условную
вероятность того, что ожидание продлится еще по меньшей мере t единиц
времени. Для краткости обозначим события: A :T ≥ τ , B :T ≥ τ +t . Используем
формулу условной вероятности [4, с.24](очевидно, в данном случае A B=B ):
P(B)
P A ( B )=
P(A )
и подставим (6.5):
e−λ(τ +t) −λt
P A ( B )= =e ,
e−λτ
что, согласно той же формуле (6.5), совпадает с безусловной вероятностью того,
что время ожидания не менее, чем t , без учета предыдущего времени
ожидания.
Заметим, что в доказательстве по существу использовано свойство именно
показательной функции.
Теорема 6.4 особенно наглядно демонстрирует правило отсутствия
последействия в ППС. Если бы городские маршрутные автобусы подчинялись
правилам ППС, то обычный на остановке вопрос: «Давно не было автобуса?»
был бы бессмысленным.
32
Аналогично можно рассмотреть знакомый многим процесс заполнения
маршрутного такси на конечной остановке.
Очевидно, что для потока Эрланга нарушаются свойства однородности и
отсутствия последействия. Даже для потока порядка 2 дальнейшее поведение
потока сильно зависит от того, какое из двух событий мы ждем – первое или
уже второе. Поэтому в качестве случайной величины TЭ (время ожидания)
будем рассматривать время, отсчитываемое не от произвольного момента
времени, а только от последнего события ПЭ, то есть интервал между двумя
его событиями. Этот интервал состоит из m «пуассоновских» интервалов:
T Э =T 1 +T 2+ …+T m ,
Задачи
основных свойств.
2. Исходя из вашего жизненного опыта, оцените, какими свойствами
34
ожидания T является равномерным на отрезке [ 0,t ] (о равномерном
распределении см. [4, с.63]).
6. Рассматриваются два ППС с плотностями 1 и 2. Найти вероятность
того, что первое событие первого из потоков наступит раньше, чем второго.
Найти в этом случае среднее время ожидания события.
У к а з а н и е. Рассмотрите двумерное распределение величины ( T 1 ; T 2 ) ,
считая компоненты независимыми (см. [4, лекция 15]).
7. Пуассоновский поток заряженных частиц средней плотностью 10
Рис 7.1
35
При этом ключевым понятием, связанным с этой стрелкой, является не
вероятность перехода в фиксированный момент, а время ожидания этого
перехода, если известно, что в данный момент система находится в состоянии
S i . Как объяснялось в предыдущей главе, это время является случайной
Рис.7.2
36
представляет собой среднее время пребывания в состоянии S i с учетом всех
возможных направлений выхода из него. Можно также записать
1
M ( T i )=
1 1
+ +…
M (T i 1) M (T i 2 )
( )
−λ1 λ1 2 .
Λ= λ 21 −λ 2 . .
. . −λn
Рис.7.3
Соответствующая ему матрица Колмогорова имеет вид:
( )
−1 1 0 0
Λ= 0 −4 4 0
0 2 −5 3
2 5 0 −7
37
1) стрелки, ведущие в то же состояние, становятся излишними,
так как в любом своем состоянии система и так находится в течение
определенного времени;
2) зацикливание системы исключено именно в силу случайных
времен ожидания переходов (то есть даже движение по тому же циклу
состояний будет каждый раз происходить за разное время).
Однако теорема 3.1 о матрице с нулевым углом полностью сохраняется.
Пример 7.2. Автоматическая метеостанция обслуживается двумя
электрическими генераторами. Средний срок безаварийной работы каждого
генератора 7 суток. При выходе из строя генератора немедленно включается
запасной, причем средний срок ремонта — 1 сутки.
Составим (рис. 7.4) граф возможных состояний системы, состоящей из
двух генераторов, учитывая, что за время ремонта основного генератора может
выйти из строя и запасной.
Рис.7.4
Дадим пояснения к рис.7.4.
Состояния системы: 0 – работает один генератор, второй исправен; 1 –
работает один генератор, второй в ремонте; 2 – оба генератора в ремонте
(аварийное состояние — система обесточена). Проще говоря, цифра в
квадратике обозначает число генераторов, находящихся в ремонте.
Переходы: 0→1 и 1→2 соответствуют поломке работающего генератора.
Так как, по условию, среднее время ожидания такого перехода
1
M ( T 0 1 )=M ( T 12 ) =7 , то, согласно формуле (7.1), λ0 1 = λ1 2 = . Из тех же
7
1
соображений λ1 0= =1 , но при одновременной работе ремонтников над
T 10
38
двумя агрегатами соответствующие потоки событий (окончание ремонта)
складываются, поэтому λ2 1=2.
Составить для этого примера матрицу Колмогорова для Вас не составит
труда.
Задачи
.
7.1. Заполните до конца следующую матрицу Колмогорова:
( )
? 0 2 0
Λ= ? −5 1 2 .
? ? 0 ?
? 1 1 −2
39
8. Вывод уравнений Колмогорова
∑ pi ( t ) =1. (8.2)
i=1
малых ∝ );
40
б) при i= j – вероятность отсутствия перехода за время Δ t из
состояния S j в любое из остальных состояний. Согласно (7.2), плотность
потока таких переходов есть λ j . Как и в случае а), вероятность выхода из
S j за время Δ t равна λ j Δt , соответственно, вероятность отсутствия перехода
равна 1−λ j Δt .
Учитывая все это, запишем:
p j ( t+ Δt )= p j ( t ) ( 1−λ j Δt ) + ∑ pi ( t ) ∙ λi j Δt ,
i≠ j
откуда и из (8.3)
Δ p j=−λ j p j Δt + ∑ λi p i Δt ,
i≠ j
Δ pj
=−λ j p j +∑ λi j pi .
Δt i≠ j
d pj
по времени = ṕ j и учтем, что равенство верно при каждом j , то есть мы
dt
получили систему уравнений Колмогорова:
ṕ j =−λ j p j + ∑ λi j p i , j=1, 2, … , n . (8.4)
i≠ j
( )
−1 1 0 0
´ṕ= ṕ 0 −4 4 0
,
0 2 −5 3
2 5 0 −7
а в скалярной:
{
ṕ 1=2 p 4− p1 ,
ṕ 2=p 1+ 2 p3 +5 p4 −4 p2 ,
ṕ3 =4 p2 −5 p3 ,
ṕ4 =3 p 3−7 p4
сумма остается постоянной (убедитесь в этом для случая в примере 8.1). Это
согласуется с равенством (8.2). Это равенство, как более простое, можно
присоединить к системе (8.4), что позволяет в некоторых случаях (см.,
например, ниже пример 9.1), упростить процесс решения системы
дифференциальных уравнений. Такую систему уравнений (дифференциальные
плюс одно алгебраическое) назовем расширенной системой уравнений
Колмогорова.
Задачи
1. Составьте систему уравнений Колмогорова для процесса, заданного в
примере 7.2.
42
2. То же – для процессов, описываемых в задачах 7.1 – 7.5.
Рис.9.1
Такая система называется пуассоновским переключателем. В некотором
приближении такой системой является стационарный или сотовый телефон,
если считать, что он может находиться только в двух состояниях: ожидание и
разговор.
Нетрудно составить матрицу Колмогорова
(
Λ= −λ λ
μ −μ )
и расширенную систему уравнений Колмогорова:
{
ṕ 1=μ p 2−λp1 ,
ṕ 2=λp1−μ p2 ,
p 1+ p 2=1.
ṕ1+ ( λ+ μ ) p1=μ .
43
λ
p2 ( t )=1−p 1=−c ∙ e− ( λ+ μ )t + .
λ +μ
В качестве упражнения запишите частное решение при начальных
условиях p1 ( 0 )=1, p 2 ( 0 )=0 (в начальный момент система находится в
состоянии S 1 ).
Однако очевидно, что независимо от начальных условий показательные
слагаемые быстро приближаются к нулю, то есть распределение вероятностей
μ λ
приближается к стационарному: p¿1= , p¿2= . Это значит, что со
λ+ μ λ+ μ
временем начальные условия процесса становятся несущественными и что в
каждом из состояний процесс проводит определенную долю времени. Такое
поведение характерно для любых эргодических марковских процессов, о чем
подробнее будет сказано далее.
Однако для процессов, более сложных, чем пуассоновский
переключатель, точное решение системы дифференциальных уравнений
вызывает существенные трудности. Рассмотрим некоторые возможные
подходы к решению.
1. Матричный метод.
dx
Известно, что обычное дифференциальное уравнение =a ∙ x ( a –
dt
45
Рассмотрим также методы численного моделирования поведения
марковских систем во времени.
3. Метод Эйлера.
Начиная снова с начального вектора ṕ ( 0 ) , выберем малое приращение
системы, и время перехода в него. Надо еще задать в момент t=0 любое
46
начальное состояние (например, S 1 ). Результатом вычислений является
Задачи
47
моделирования траекторий по вышеописанному методу. Проследите ее до 100
переходов. Найдите среднее время пребывания системы в каждом из состояний.
9.8. Проделайте то же в условиях примера 7.1.
{
ṕ¿ Λ=0́ ,
n
(10.1)
∑ p ¿i =1.
i=1
Рис.10.1
Составим для нее матрицу Колмогорова:
( )
−λ−μ−ν λ μ ν
0 0 0 0
Λ= .
0 0 0 0
0 0 0 0
{
¿
p 1=0,
¿ ¿ ¿ ¿
p 1+ p2 + p3 + p4 =1.
¿
эквивалентно покоординатной сходимости: l t →∞
ℑ pi ( t )= p i .
10.2. Убедиться, что СРВ, полученные выше при решении примера 9.1 и
задачи 9.1, совпадают с теми, которые можно получить, решая для этих случаев
50
систему уравнений (10.1).
10.3. Для СП, включающего 3 возможных состояния, дано: λ1 2=λ 3 1=1 ,
СРВ.
10.4. Найти СРВ для процессов, заданных в примере 7.2 и в задачах 7.1 –
7.5.
Рис.11.1
Очевидно, что графы, приведенные на рис. 7.3 и 10.1, привести к
линейному виду нельзя.
Замечание 11.2. Иногда нумерацию состояний удобнее начинать с нуля.
Рассматривают также бесконечные в одну или две стороны графы.
Замечание 11.3. Очевидно, что для процесса, заданного рисунком 11.1,
матрица Колмогорова имеет специальный вид: отличны от нуля только
элементы главной диагонали и двух соседних с ней. Такие матрицы называют
трехдиагональными. Они удобны для применения прямых вычислительных
методов, что мы сейчас и будем использовать.
51
Ясно, что, если хотя бы одно из чисел λi , μi обращается в ноль (или,
что то же самое, соответствующая стрелка отсутствует), то процесс перестает
быть эргодическим и содержит источники и поглотители. Фактически граф в
этом случае просто укорачивается. Этот случай неинтересен (см., впрочем
задачи 11.1, 11.2), поэтому в дальнейшем будем считать, что все λi , μ i> 0 . Это,
Для состояния S 2 :
¿ ¿ ¿ ¿
λ1 p 1+ μ 2 p3=μ 1 p2 + λ2 p2 ,
где
λ 1 λ1 λ2 λ λ … λn −1
S=1+ + +…+ 1 2 .
μ1 μ1 μ 2 μ1 μ 2 … μn−1
52
Вычислив эту величину, получим окончательно компоненты вектора ṕ¿ :
1
p¿1= , (11.4)
S
а p¿2 , p¿3 и последующие вычисляем последовательно по формулам (11.2),
(11.3)…
Пример 11.1. В расчетном центре стоят 4 одинаковых платежных
автомата. В час в среднем приходят 15 человек, желающих совершить оплату.
Среднее время работы с автоматом – 2 минуты. Найти вероятность того, что в
некоторый момент все автоматы заняты (считаем, что клиент, обнаруживший
это, не становится в очередь, а сразу уходит).
Составим (рис.11.2) граф МП:
Рис.11.2
Дадим необходимые пояснения.
1. Процесс имеет 5 возможных состояний. Цифра в квадратике
обозначает число занятых автоматов.
2. Плотность потока клиентов – 15 в час. Переводим в минуты:
1
λ= . Каждый клиент занимает свободный автомат (если он есть), то
4
1
плотность потока выходящих заявок μ= M (T ) (в знаменателе как раз
секунд.
Не составляя системы уравнений Колмогорова (сделайте это
самостоятельно), найдем по описанным выше формулам стационарное
распределение вероятностей. Сначала вычислим последовательно дроби,
1 1 1 1
входящие в формулы (11.2), (11.3),… Они равны 2 ; 4 ; 6 ; 8 . Затем вычислим
1 1 1 1 1 1 1 1 1 1 6 33 2 11
S=1+ + ∙ + ∙ ∙ + ∙ ∙ ∙ = = ,
2 2 4 2 4 6 2 4 6 8 3 84 128
128
p¿0= ≈ 0, 61
2 11
(вероятность того, что все автоматы свободны). Нетрудно вычислить и
остальные стационарные вероятности. Последняя из них
1
p¿4 = ≈ 0 , 0016.
6 33
Таким образом, даже при таких удобных для клиентов условиях остается
вероятность того, что кто-то «уйдет обиженным».
В завершение этой главы заметим, что для бесконечного линейного
процесса (рис.11.1 продолжается вправо неограниченно) процесс имеет СРВ,
если ряд
λ 1 λ 1 λ2 λ λ … λn −1
S=1+ + +…+ 1 2 … (11.5)
μ1 μ1 μ 2 μ1 μ 2 … μn−1
55
3) Организация работы канала над заявкой (время обслуживания
может быть фиксированным или иметь определенное распределение).
4) Организация очереди:
а) отсутствие очереди;
б) клиент может иметь или не иметь право отказаться встать в очередь;
в) ограничение длины очереди;
г) наличие приоритетов, то есть раздельных очередей для различных
видов заявок.
Примеры из жизни на все эти случаи каждый может привести сам.
В дальнейшем ограничимся изучением СМО с n=1,2,3,…
Рис.12.1
В данном случае цифры обозначают работающие каналы.
56
Итак, считаем, что производительность каждого канала одинакова. Тогда в
случае а), т.е. при отсутствии очереди, решение задачи в принципе не
отличается от случая, рассмотренного в примере 11.1. Единственное отличие
может состоять в числе n каналов в системе. В частности, при n=1
Рис.12.2
Пояснения к рисунку: для первых n+1 состояний цифра обозначает число
работающих каналов. При этом плотность обратного потока (выполнения
заявок), как уже объяснялось, пропорциональна этому числу. Далее, номер
n+ s следует читать: работают все n каналов, и s заявок в очереди. При
этом продвижение вправо (увеличение длины очереди) определяется потоком
входящих заявок (плотность λ ), а влево – работой всех имеющихся каналов
(плотность n μ ).
Составим для этого случая (пока формально) ряд (11.5). Начальные
множители содержат в числителе λi , а в знаменателе – μ ( 2 μ ) ( 3 μ ) … ( i μ )=i ! μi .
λ
Затем (после i=n ) множители
nμ
не меняются, и с этого места имеем
¿ 1
p0 = и т.д. не представляется возможным. Это значит, что система не имеет
S
57
входящего потока заявок. Практический урок создатели СМО (например, при
решении вопроса о необходимом количестве работающих касс в супермаркете)
могут вывести сами.
Если же λ< nμ , то бесконечно убывающая геометрическая прогрессия
суммируется по известной формуле:
λ λ2 λn nμ
S=1+ + 2 + …+
μ 2μ n
∙ ,
n ! μ nμ−λ
и это позволяет найти стационарное распределение вероятностей для данной
СМО, что опять же важно для практики. Например, формулы показывают, что
образование очередей за счет флуктуаций входного потока заявок неизбежно,
насколько бы суммарная мощность каналов обслуживания ни превосходила
плотность этого потока (см. решение задачи в примере 11.1). Практическая
задача может заключаться в минимизации вероятности образования очереди,
то есть перехода системы в состояния после (n+1) -го. Метод вычисления
Задачи
58
среднем по 4 сек. При входном потоке 30 человек в минуту найти вероятность
прохода на стадион, не стоя в очереди.
D X ( t )=D ( X ( t )) .
Можно записать обычные свойства этих величин [4, лекция 6], но с одной
поправкой: во всех случаях константу можно заменить любой обычной (не
случайной) функцией φ ( t ) , т.к. при фиксированном значении t она
становится константой:
1. m φ ( t ) ( t )=φ ( t ) ;
2. mφ ( t ) ∙ X ( t )=φ ( t ) ∙ m X ( t )
6. D X +φ ( t )=D X ( t ) ;
8. D X ± Y ( t )=D X ( t ) + DY ( t ) .
и коэффициента корреляции
60
K ( t 1 ,t 2 )
r ( t 1 , t 2 )= .
σ X ( t1 ) σ X ( t2 )
4. |K ( t 1 , t2 )|≤ σ X ( t1 ) σ X ( t2 ) , |r ( t 1 , t 2)|≤ 1 ;
5. Если два сечения X (t 1) и X (t 2) представляют собой
независимые случайные величины, например, в процессе испытаний
Бернулли (см. [11, гл.1, пример 4]), то K ( t 1 , t 2 ) =0 и r ( t 1 , t 2 )=0 .
61
Из (13.2) очевидно следует, что и l ℑ σ ( ΔX ) ¿ 0 , затем из свойства 4 –
Δt → 0
t
+ ΔX
M (X (¿)¿)
¿
2
D ( t+ Δt ) =M ( X ( t ) + ΔX ) −¿
t
( ΔX )
M¿
¿ .
X (¿) ¿2−2 M ( X ( t ) ) M ( ΔX ) −¿
M¿
2
¿ M ( X ( t ) ) +2 M ( X ∆ X )+ M ( ( ΔX )2 ) −¿
62
Рис.13.1
Пояснение: крестики на оси времени – события потока Пуассона. Процесс
каждый раз переключается в значение 0 или 1 (или остается в том же
положении, если так «решила» монета).
Как видно даже из графика, процесс не является непрерывным
(действительно, за сколь угодно малый промежуток времени может случиться
переключение, то есть ΔX =± 1¿ . Тем не менее (13.3) выполняется. Докажем
это.
Рассмотрим любое сечение X (t ). Оно определяется только последним
испытанием (в какой бы момент времени оно ни произошло), то есть имеет
распределение вероятностей
X(t 0 1
)
P q p
Отсюда независимо от t
m ( t )= p , D ( t ) =p q .
63
б) за это время произошло хотя бы одно событие из потока (с
вероятностью 1−P ( а ) ), но при последнем испытании был успех (с
вероятностью p ). Таким образом, P (б )=( 1−e−λ(t −t ) ) p . 2 1
Так как и P ( X ( t 1) =1 ) =p , то
M ( X ( t 1 ) X ( t 2 ) ) =p ( e−λ (t −t ) + ( 1−e−λ ( t −t ) ) p )= p ( e−λ (t −t ) q+ p ) ,
2 1 2 1 2 1
− λ (t 2−t1 )
K ( t 1 , t 2 ) =M ( X ( t 1 ) X ( t 2 ) )−m ( t 1 ) m ( t 2 )= p ( e q+ p )− p2 =¿
¿ p qe
−λ ( t2−t 1)
,
−λ t 2−t 1
p ∙ q ∙ e ( ) −λ (t −t )
r ( t1 , t2 ) = =e . 2 1
(13.4)
√ pq∙√pq
Очевидно, что при Δt=t 2−t 1 → 0 последняя величина приближается к 1.
Важнее то, что с ростом разницы во времени коэффициент корреляции убывает
экспоненциальным образом. Это характерно для обширного класса случайных
процессов (подробнее – в следующем параграфе).
Пример 13.3. Рассмотрим (дискретный во времени) обычный процесс
испытаний Бернулли, но с накоплением успехов, упомянутый в конце гл.1.
В любом сечении при t=n X (n) есть обычная случайная величина
типа Бернулли. Рассмотрим также сечение, соответствующее t=n+l . По
Теперь
64
K ( n , n+ l )=M ( X ( n ) , X ( n+ l ) )−M ( n ) ∙ M ( n+l )=¿
¿ n pq +n2 p 2+ nl p2−n p ∙ ( n+ l ) p=n pq ,
r ( n , n+l )=
n pq
=
n
√ n pq ( n+l ) ∙ p q n+l√.
Задачи
65
Процесс, описанный в примере 13.2, является однородным, а в примере
13.3 – нет.
Процессы, описываемые стационарным распределением вероятностей в
случае марковского процесса (в том числе и для случая цепи Маркова),
являются однородными, а если распределение еще не достигло стационарного
– нет. Однако такой процесс может быть асимптотически однородным.
Определение 14.2. Случайный процесс называется асимптотически
однородным, если с ростом времени распределение случайной величины
X (t ) стабилизируется к распределению финальной величины X (это
распределение также назовем финальным).
Понятие финального распределения для случая марковских процессов
подробно рассматривалось раньше. В общем случае сходимость распределения
сводится к поточечной сходимости интегральной функции распределения: если
функция F ( x ,t )=F X ( t ) ( x ) соответствует случайной величине (сечению) X (t ),
66
1) асимптотически однороден;
2) коэффициент корреляции любого сечения с последующими
67
( )
p1 ( k ) 0 …
l
K= 0 pi ( k ) … ∙A .
… … pn( k )
( ṕ ( 0 ) ∙ Ak ) =¿ q́
l ℑ ṕ ( k )=lim ¿
k →∞ k→∞
Задачи
68
смысле (14.1).
69