Вы находитесь на странице: 1из 22

ГЛАВА 5.

СЛУЧАЙНЫЕ ПРОЦЕССЫ

§1. Случайный анализ

Часто при исследовании различных явлений природы, экономических и


технических процессов приходится иметь дело со случайными величинами,
изменяющимися во времени.
Определение. Случайной функцией (СФ) называется множество случайных
величин, зависящих от параметра t , пробегающего произвольное множество
T.
Когда T – подмножество действительной прямой, а параметр t
интерпретируется как время, вместо термина случайная функция
используется термин случайный процесс.
Определение. Случайным процессом называется множество случайных
величин ξ (t , ω ) , заданных на одном вероятностном пространстве (Ω,Ω, P ) и
~

зависящих от параметра t , принимающего значения на действительной


прямой.
Если T – множество целых чисел, то совокупность (СВ) {ξ (t , ω ), t ∈ T }
называют процессом с дискретным временем. Если же T совпадает с
некоторым числовым интервалом T = [a, b], − ∞ ≤ a < b ≤ ∞ , то совокупность
(СВ) {ξ (t , ω ), t ∈ T } называют процессом с непрерывным временем. Например,
последовательность (СВ) ξ1, ξ 2 , ξ3 ,....ξ n ,..... является случайным процессом с
дискретным временем, так как T = {1,2,3.....}. Процессом с непрерывным
временем является случайная функция

∞ ⎛ξ ⎞
ξ (t , ω ) = ∑ ⎜⎜ kk ⎟ ⋅ sin (kt ), t ∈ T = [0,2π ] ,

k =0 ⎝ 2 ⎠

где (СВ) ξ k независимы и одинаково распределены. Отметим, что


интерпретация параметра t как времени не обязательна.
При фиксированном элементарном событии ω = ω0 неслучайная от t ∈ T
функция x(t ) = ξ (t , ω0 ) называется реализацией (СФ) или ее траекторией.
Известным примером случайного процесса является изменение
координаты частицы, совершающей, броуновское движение. Таким образом,
в основе теории случайных процессов лежит математический аппарат теории
вероятностей и теории случайных функций.
Полной характеристикой (СФ) является ее закон распределения.
Общий вид закона распределения (СФ) характеризуется многомерной
функцией распределения:

, ,.. , , ,.. , ,.. ,


где , ,.., – текущие значения величины в моменты времени
, , . . , , а может быть как угодно велико.
Общий анализ случайных функций требует установления
вероятностных зависимостей между значениями этой функции в различные
моменты времени. Для этого используются автоковариационная и
взаимная ковариационная функция.
Автоковариационной функцией (СФ) называется ковариация
значений этой функции при различных значениях ее аргумента

, , .

Пример. Найдем: а) математическое ожидание; б) автоковариационную


функцию; в) дисперсию случайной функции 2 , где –
случайная величина, причем

5, 6.

a) Найдем искомое математическое ожидание, вынося неслучайный


множитель 2 за знак математического ожидания,
  2 5 2 .

б) Найдем искомую автоковариационную функцию

, 5 2 5 2
  2 2 5 6 2 2 .

в) Найдем искомую дисперсию, для чего положим :

, 6 2 .

Автокорреляционной функцией (СФ) называется функция вида

,
, ,

где , – средние квадратичные отклонения значений (СФ) в


сечениях и .
Взаимной ковариационной функцией между двумя (СФ) и
называется ковариация значений этих функций в различные моменты
времени:
, , .
Пример. Найдем взаимную ковариационную функцию 2 случайных
функций: и ,  где – случайная величина, причем
5.
Найдем математические ожидания:

, . 
 
Найдем взаимную ковариационную функцию:

, ,  
5 .
 
Взаимной корреляционной функцией двух (СФ) и
называется функция двух аргументов

,
, .

Существенную роль в исследовании (СФ) играют стационарные


процессы.
(СФ) называется стационарной в узком смысле, если
вероятностные характеристики (СФ) Δ при любом Δ тождественно
совпадают с соответствующими характеристиками (СФ) .
(СФ) называется стационарной в широком смысле, если ее
математическое ожидание, дисперсия, автоковариационная и
автокорреляционная функция не меняются со временем.
Особенностью автоковариационной функции является то, что она
зависит только от разности значений аргумента

Пример. Задана случайная функция , где – случайная


величина, распределенная равномерно в интервале 0,2 . Доказать, что
– стационарная функция в широком смысле.
Найдем математическое ожидание :

,
где
0, 0,
так что окончательно 0. Найдем автоковариационную функцию
1 1 1
.
2 2 2

Итак, 0 при всех значениях t и автоковариационная функция


зависит только от разности аргументов. Следовательно, – стационарная
функция.

Сходимость

В теории вероятностей в отличие от обычного анализа нет одного


понятия сходимости, непрерывности, производной, интеграла и т.д.

1. Сходимость почти наверное.

Определение. Последовательность (СВ) {ξ n }, n ∈ N сходится почти наверное


к (СВ) ξ , если
⎡ ⎤
P ⎢ lim (ξ n (ω )) = ξ (ω )⎥ = 1 .
⎢⎣n → ∞ ⎥⎦
п.н
Кратко такая сходимость обозначается ξ n → ξ .
n →∞
2. Сходимость по вероятности.

Определение. Последовательность (СВ) {ξ n }, n ∈ N сходится по вероятности


к (СВ) ξ , если для любого ε > 0

lim P[ξ n (ω ) − ξ (ω ) ≤ ε ] = 1 .
n →∞
p
Кратко такая сходимость обозначается ξ n → ξ.
n →∞

3. Слабая сходимость.

Определение. Последовательность (СВ) {ξ n }, n ∈ N слабо сходится к (СВ) ξ ,


если последовательность функций распределения Fξ n слабо сходится к
функции распределения Fξ .
Кратко такая сходимость обозначается ξ n ⇒ ξ .
4. Сходимость в среднем порядка r

Определение. Последовательность (СВ) {ξ n }, n ∈ N сходится в среднем


порядка r > 0 к (СВ) ξ , если

⎡ r⎤
lim M ⎢⎣ ξ n − ξ ⎥⎦
= 0.
n →∞
r
Кратко такая сходимость обозначается ξ n → ξ.
n →∞
Между различными видами сходимости существуют следующие
соотношения:

⎛ п.н ⎞ ⎛ P ⎞
⎜ξ ⎟ ⇒ ⎜ξ ⎟ ⇒ (ξ ⇒ ξ ),
⎜ n → ⎟ ⎜ n → ⎟
ξ ξ n
⎝ n →∞ ⎠ ⎝ n →∞ ⎠
⎛ r ⎞ ⎛ P ⎞
⎜ξ ⎟ ⇒ ⎜ξ ⎟.
⎜ n → ⎟ ⎜ n → ⎟
ξ ξ
⎝ n →∞ ⎠ ⎝ n →∞ ⎠

Непрерывность

В (ТВ) существуют различные виды непрерывности.


Определение. Случайные процессы ξ (t ) и η (t ) называются стохастически
эквивалентными, если для всех t ∈ T

P(ξ (t ) = η (t )) = 1 .

Процесс η (t ) при этом называют модификацией ξ (t ) .


Определение. Если неслучайные функции траекторий x(t ) модификации
непрерывны, то случайный процесс ξ (t ) называют непрерывным.
Существование непрерывной модификации определяется с помощью
критерия Колмогорова.
Теорема Колмогорова. Если ξ (t ) – случайный процесс на T = [0,1] , и при всех
t , t + h ∈ [0,1] и при каких-нибудь a, b > 0, C < ∞

α
M ⎡ ξ (t + h ) − ξ (t ) ⎤ ≤ Ch1+ b ,
⎢⎣ ⎥⎦

то случайный процесс ξ (t ) имеет непрерывную модификацию.

Определение. Случайный процесс ξ (t ) называется стохастически


непрерывным, если при всех t , t + h ∈ T
lim P[ξ (t + h ) − ξ (t )] = 0 .
h→0

При стохастической непрерывности траектории x(t ) могут быть разрывны,


если x(t ) – непрерывны, то и ξ (t ) – непрерывна стохастически.
Определение. Случайный процесс ξ (t ) называется непрерывным в среднем
порядка r , если при всех t , t + h ∈ T

⎡ r⎤
lim M ⎢⎣ ξ (t + h) − ξ (t ) ⎥⎦
= 0.
h →0

При непрерывности в среднем траектории x(t ) могут быть разрывны.

Производные

Производная случайного процесса определяется как предел


(ξ (t + h ) − ξ (t )) при h → 0 в смысле соответствующей сходимости.
h
Определение. Случайный процесс ξ ′(t ) называется производной по
вероятности от случайного процесса ξ (t ) , если

⎡ ξ (t + h ) − ξ (t ) ⎤
lim P ⎢⎣ − ξ ′(t ) ≤ ε ⎥ = 1 .
h ⎦
h →0

Определение. Случайный процесс ξ ′(t ) называется производной в среднем


порядка r от случайного процесса ξ (t ) , если

⎡ ξ (t + h ) − ξ (t ) r⎤
lim ⎢
M ⎢ − ξ ′(t ) ⎥ = 0.
h →0 ⎣
h ⎥

Для производной в смысле сходимости в среднем случайная функция


однозначно с точностью до константы определяется производной в среднем,
что необходимо для вывода формулы Ньютона-Лейбница. Для производной в
смысле сходимости по вероятности такой однозначности нет. Поэтому
случайный анализ строится на основе дифференцирования в среднем.
Интегралы

Если случайный процесс непрерывен в смысле выбранного вида


b
сходимости, то определенный интеграл случайной функции ∫ ξ (t )dt
a
n −1
определяется как предел интегральных сумм ∑ ξ (~ti )(ti +1 − ti ) в смысле
i =0
соответствующей сходимости, где ~ti – неслучайная произвольная точка
между t i и ti +1 . Как и в случае дифференцирования, предпочтение отдается
интегралу в смысле сходимости в среднем.
b
Определение. Случайный процесс I (ξ ) ≡ ∫ ξ (t )dt называется интегралом в
a
среднем порядка r от случайного процесса ξ (t ) , если

⎡ n −1 r⎤
⎢ ⎥
lim M ⎢ ∑ ξ (ti )(ti +1 − ti ) − I (ξ ) ⎥ = 0 .
~
max(Δt i )→ 0 ⎢ i = 0 ⎥
⎣ ⎦

Несобственные интегралы (a = −∞ и/или b = ∞ ) определяются обычным


образом, как пределы соответствующих интегралов по меньшим отрезкам.
b
Следует различать интеграл в среднем I (ξ ) ≡ ∫ ξ (t )dt и интеграл вдоль
a
b
траектории ∫ x(t )dt :
a
1) в общем случае случайная функция может быть интегрируема в
среднем, а соответствующие ей некоторые траектории x(t ) могут быть не
интегрируемы;
2) интеграл в среднем является случайной величиной. Функция же,
ставящая в соответствие элементарному событию ω значение интеграла
b
вдоль траектории ∫ x(t )dt , вообще говоря, не является случайной величиной,
a
так как для нее может не выполняться условие измеримости. Если же все
траектории x(t ) интегрируемы по Риману, то интеграл в среднем будет
b
совпадать с вероятностью 1 с интегралом ∫ x(t )dt , вычисленным отдельно
a
вдоль каждой траектории.
Для исследования не дифференцируемых случайных функций ξ (t )
b
вводят стохастические интегралы ∫ f (t )dξ от неслучайных функций f (t ) ,
a
которые для дифференцируемых случайных функций ξ (t ) сводятся к
b
интегралам ∫ f (t )ξ ′dt от случайных функций.
a

§2. Марковские случайные процессы

Пусть имеется некоторая физическая система S, состояние которой


меняется с течением времени случайным образом. Это значит, что в системе
протекает случайный процесс.
Случайный процесс называется марковским процессом, если он
обладает следующим свойством: для каждого момента времени
вероятность любого состояния системы в будущем зависит только от
ее состояния в настоящем и не зависит от того, когда и каким образом
система перешла в это состояние, т.е. при любых и (τ < t0 ) условная
вероятность обладает свойством «отсутствия последействия»

P[ξ (t ) = x(t ) / (ξ (t0 ) = y (t0 ), ξ (τ ) = z (τ ))] = P[ξ (t ) = x(t ) / (ξ (t0 ) = y (t0 ))].

Состояния системы могут изменяться либо дискретно, либо


непрерывно. Случайный марковский процесс называется процессом с
дискретными состояниями, если возможные состояния можно представить
в виде числовой последовательности , , . . , …, а сам процесс состоит в
том, что время от времени система S мгновенно перескакивает из одного
состояния в другое.
Случайный марковский процесс с непрерывным изменением состояний
называется марковским процессом с непрерывными состояниями.
В системе с дискретными состояниями переход из состояния в
состояние может происходить либо в определенные моменты времени, либо
в случайные моменты.
Случайный процесс называется процессом с дискретным временем,
если переходы системы из состояния в состояние возможны только в
определенные моменты времени t1, t 2 ,....rr . В промежутки времени между
этими моментами система S сохраняет свое состояние.
Случайный процесс называется процессом с непрерывным временем,
если переходы системы из состояния в состояние возможны в любой наперед
неизвестный случайный момент времени.
Рассмотрим марковский случайный процесс с дискретным состоянием
и дискретным временем.
Пусть имеется система S, которая может находиться в состояниях
S1, S 2 ,....S r причем переходы из состояния в состояние возможны только в
определенные моменты t1, t 2 ,....rr . Каждый такой переход называется шагом
процесса. Случайный процесс, происходящий в системе, состоит в том, что в
последовательные моменты времени t1, t 2 ,....rr система оказывается в разных
состояниях, например, следующим образом:

где стрелками указано направление перехода из состояния в состояние.


Процесс, протекающий в такой схеме, можно рассматривать как
последовательность состояний

, , , , , , ,

где число в скобках обозначает номер шага, нижний индекс обозначает


номер состояния. Такую последовательность называют марковской цепью.
При этом в общем случае существует разная вероятность перехода из одного
состояния в другое. Для описания эволюции марковских цепей используется
последовательность случайных величин ξ 0 , ξ1, ξ 2 ,.... , индексы которых играют
роль времени, так что, если в момент времени n система находилась в
состоянии S j , то считается, что ξ n = j . Таким образом, последовательность
случайных величин ξ 0 , ξ1, ξ 2 ,.... образует цепь Маркова, если для любого n и
любых k0 , k1, k 2 ,....k n − 2 условные вероятности обладают марковским
свойством

P[ξ n = j / (ξ 0 = k0 , ξ1 = k1 , ...ξ n − 2 = k n − 2 , ξ n −1 = i )] = P[ξ n = j / ( ξ n −1 = i )].

т.е. марковская цепь с фиксированным шагом называется дискретной


марковской цепью, если для каждого шага вероятность перехода из любого
состояния в любое другое состояние не зависит от того, когда и как
система перешла в состояние .
В тех случаях, когда переход системы из одного дискретного состояния
в другое происходит в случайные моменты времени, применяется схема
марковского процесса с дискретными состояниями и непрерывным
временем. Такая схема и такой процесс называется непрерывной марковской
цепью.
При анализе случайных процессов с дискретными состояниями
оказывается удобным использование графов состояний. Граф состояний
геометрически изображает возможные состояния системы (изображаются
квадратом) и ее возможные переходы из состояния в состояние
(изображаются стрелками). Стрелками изображаются только
непосредственные переходы из состояния в состояние. В некоторых случаях
над стрелками ставят вероятности переходов из состояния в состояние. В
(ТМО) над стрелками ставят среднее число переходов в единицу времени. В
(ТМО) часто используется граф, изображающий процесс гибели и
размножения. Марковская непрерывная цепь называется процессом гибели
и размножения, если ее граф состояний имеет вид, когда каждое из
промежуточных состояний связано прямой и обратной связью с каждым
соседним состоянием. В такой схеме существует возможность перехода из
предыдущего состояния в последующее и обратно, но не возможен перескок
через состояние.

Вероятности состояний и переходные вероятности

Марковские случайные процессы обычно описывают с помощью


вероятностей состояний. Для марковских процессов с дискретным
временем вероятностями состояний системы на k-ом шаге (в k-й момент
времени) называются вероятности

(k ) (k ) (k )
P1(k ) = P⎛⎜ S1 ⎞⎟, P2 (k ) = P⎛⎜ S 2 ⎞⎟, ....Pr (k ) = P⎛⎜ S r ⎞⎟,
⎝ ⎠ ⎝ ⎠ ⎝ ⎠
r
здесь ∑ Pi (k ) = 1 .
i =1

Для марковских процессов с непрерывным временем вероятностями


состояний системы называются вероятности

, ,…. ,

т.е. аргументом вероятности состояния является не номер шага, а текущее


время.
В случае дискретной марковской цепи для любого шага существуют
еще вероятности перехода системы из одного состояния в любое другое
Pij (n ) ≡ P[ξ n = j / ( ξ n −1 = i )] . Эти вероятности Pij (n ) называют переходными
вероятностями марковской цепи. Если переходные вероятности не зависят
от номера шага n, то марковская цепь называется однородной. Если же они
зависят от номера шага, то цепь называется неоднородной. Переходные
вероятности представляются квадратными матрицами


…………. ,

где сумма членов, стоящих в каждой строке, равна единице, т.е. матрица
обладает свойствами
n
Pij ≥ 0, ∑ Pij = 1, для любых i.
j =1
Квадратные матрицы, для которых выполняются эти свойства, называют
стохастическими. Зная матрицу переходных вероятностей, можно построить
граф состояний с отмеченными на нем переходными вероятностями. Граф, на
котором отмечены переходные вероятности, называется размеченным
графом.
Имея матрицу переходных вероятностей или размеченный граф и зная
начальное состояние, можно найти вероятности состояний на любом k-ом
шаге для дискретной марковской цепи.
Вероятности Pij(n ) ≡ P[ξ n = j / ( ξ 0 = i )], i = 1,2...r называют вероятностями
перехода цепи Маркова за n шагов, соответствующие матрицы вида

⎛ P (n ) P (n ) P (n ) ...P (n ) ⎞
⎜ 11 12 13 1r ⎟

(n ) P (n ) P (n ) ...P (n ) ⎟⎟
P (n ) = ⎜ 21 22 23
⎜ P 2r ⎟
⎜ ............................... ⎟

⎜ P (n ) P (n ) P (n ) ...Prr (n ) ⎟⎟
⎝ r1 r 2 r 3 ⎠
называются матрицей вероятностей перехода за n шагов. Имеет место
следующая теорема.
Теорема. Матрица перехода за n шагов есть n-я степень матрицы перехода за
один шаг, т.е.
P (n ) = (P )n .
Доказательство. По определению P[ξ n = j / ( ξ 0 = i )] – вероятность перехода из
состояния Si в состояние S j . По формуле полной вероятности
r
P[ξ n = j / ( ξ 0 = i )] = ∑ P(ξ1 = k / ξ0 = i )P(ξ n = j / ξ1 = k , ξ 0 = i ) ,
k =1
откуда с учетом равенства

P(ξ n = j / ξ1 = k , ξ 0 = i ) = P(ξ n = j / ξ1 = k ) = P
(n −1)
kj
получаем

r
(n ) =
P ij ∑ Pik Pkj(n −1), n = 2,3.. (1)
k =1
В матричной записи доказанное соотношение имеет вид P (n ) = P(P )(n −1) .
Откуда по индукции следует P (n ) = (P )n , что и требовалось доказать.
Вектор a = {a1, a2 , ....ar } , где ai = P(ξ 0 = i ), i = 1,2..r называется вектором
начальных вероятностей. Имеет место следующее утверждение.
Утверждение 1. Свойства однородных марковских цепей полностью
⎛ P P P ...P ⎞
⎜ 11 12 13 1r ⎟
⎜ ⎟
⎜ P P P ...P ⎟
определяются вектором a = {a1, a2 , ....ar } и матрицей P = ⎜ 21 22 23 2r ⎟ .
⎜ ...............................⎟
⎜ ⎟
⎜ P P P ...Prr ⎟
⎝ r1 r 2 r 3 ⎠
Доказательство. Пусть в начальный момент времени система находится в
одном из состояний Si с вероятностью ai = P(ξ 0 = i ) . Через n шагов система
будет находиться в одном из состояний Si с вероятностью перехода
(n )
Pij ≡ P[ξ n = j / ( ξ 0 = i )]. Так как события ( ξ 0 = i ) образуют полную группу, то
по формуле полной вероятности

r r
( )
P(ξ n = j ) = ∑ 0 P (ξ = i )P (ξ n = j / ξ 0 = i ) = ∑ ai Pijn ,
i =1 i =1

где вероятности (n )
Pij вычисляются по рекуррентной формуле (1). Что и
требовалось показать.

Утверждение 2. Для однородной цепи Маркова при любом m выполняется


равенство

P[ξ n + m = j / ( ξ m = i )] = P[ξ n = j / ( ξ 0 = i )] .

Доказательство. Очевидно, что событие (ξ n + m = j / ( ξ m = i )) равносильно


сумме событий следующих событий

(ξ n + m = j / ( ξ m = i )) =
r r r
= ∑ ∑ .... ∑ [(ξ m +1 = k1, ξ m + 2 = k 2 , ξ m + 3 = k3 , ...ξ m + n = j ) / (ξ m = i )]
k1 =1 k 2 =1 k n −1

Откуда по теореме сложения вероятностей несовместных событий получим

P(ξ n + m = j / ( ξ m = i )) =
r r r (1)
= ∑ ∑ ∑ P[(ξ m +1 = k1, ξ m + 2 = k2 , ξ m +3 = k3 , ...ξ m + n = j ) / (ξ m = i )]
....
k1 =1 k 2 =1 k n −1

где по теореме умножения


P[(ξ m +1 = k1, ξ m + 2 = k 2 , ξ m + 3 = k3 , ...ξ m + n = j ) / (ξ m = i )] = P(ξ m +1 = k1 / (ξ m = i )) ⋅
(2)
⋅ P(ξ m + 2 = k 2 / (ξ m +1 = k1 ))....P(ξ m + n = j / (ξ m + n −1 = k n −1 ))

По свойству однородности

P(ξ m +1 = k1 / ( ξ m = i )) = P(ξ1 = k1 / ( ξ 0 = i )) ,
P(ξ m + 2 = k 2 / ( ξ m +1 = k1 )) = P(ξ 2 = k 2 / ( ξ1 = k1 )) , (3)
………………………………………………………..,
P(ξ m + n = j / ( ξ m + n −1 = k n −1 )) = P(ξ n = j / ( ξ n −1 = k n −1 ))

Так как события S1, S 2 ,.....S r образуют полную группу, то по формуле полной
вероятности

r
∑ P[ξ1 = k1 / ξ0 = i]P[ξ 2 = k2 / ξ1 = k1] = P[ξ 2 = k2 / ξ 0 = i], (4)
k1 =1
r
∑ P[ξ 2 = k2 / ξ0 = i]P[ξ3 = k3 / ξ 2 = k2 ] = P[ξ3 = k3 / ξ0 = i ], (5)
k 2 =1
……………………………………………………………………….,
r
∑ P[ξ n −1 = kn −1 / ξ0 = i ]P[ξ n = j / ξ n −1 = k n −1 ] = P[ξ n = j / ξ 0 = i ], (6)
k n −1 =1

Подставляя (2) и (3) в (1) и учитывая (4-6), получим

(n )
P[ξ n + m = j / ( ξ m = i )] = P[ξ n = j / ( ξ 0 = i )] = Pij ,
что и требовалось показать.
Теорема. Если при некотором n0 все элементы Pij(n0 ) матрицы P (n0 )
положительны, то существуют пределы

(n ) = b
lim Pij j , i, j = 1,2...r ,
n →∞

где предельные вероятности b j не зависят от начального состояния и


являются единственным решением системы уравнений

⎧ r
⎪ ∑ b j = 1,
⎪ j =1


⎪ r
⎪ ∑ bk Pkj = b j .
⎪⎩k =1
Физический смысл этой теоремы заключается в том, что нахождения
системы в состоянии S j практически не зависит от того, в каком состоянии
она находилась в далеком прошлом.

Исследование случайных процессов зависит от вида рассматриваемых


состояний. Состояние называется несущественным, если существует
такое и такое , что 0, но 0 для всех , где , – число
тактов перехода. Таким образом, несущественное состояние характеризуется
тем, что из него можно попасть в некоторое другое состояние, но вновь
вернуться в первоначальное состояние уже нельзя. Все состояния, отличные
от несущественных, называются существенными. Говорят, что система
обладает эргодическим свойством, если ее состояния принадлежат к одному
существенному классу состояний, т.е. это свойство заключается в том, что
объект, находящийся в момент t, в состоянии i, через достаточно большой
промежуток времени возвращается в это состояние, т.е. если существуют
вероятности b j . Эргодическое свойство играет большую роль при
исследовании стационарных случайных процессов. Эффективным
инструментом исследования таких процессов являются методики,
опирающиеся на теорему Биркхофа-Хинчина.
Теорема Биркхофа-Хинчина. Если непрерывный стационарный процесс
имеет конечное математическое ожидание, то с единичной
вероятностью существует предел

1
lim .

Эта теорема позволяет получать такие характеристики, как математическое


ожидание и дисперсия на основе обработки информации единственной
реализации процесса без проведения многократных испытаний других
реализаций этого процесса.

Уравнения Колмогорова для вероятностей состояний

Исследование непрерывной цепи Маркова основывается на уравнениях


Колмогорова. Пусть имеется непрерывная цепь Маркова, т.е. система может
находиться в дискретных состояниях S1, S 2 ,....S r переход в которые
осуществляется в любой случайный момент времени. Пусть –
вероятность того, что в момент t система находится в состоянии , и пусть
требуется найти алгоритм, описывающий изменение всех в любой
r
момент времени. В любой момент времени ∑ Pi (t ) = 1 . Введем понятие
i =1
плотности вероятности перехода из состояния в состояние.
Плотностью вероятности перехода из состояния в состояние
называется величина
Δ
lim ,
Δ

где Δ – вероятность того, что система, находящаяся в момент времени t


в состоянии , за время Δ перейдет в состояние  . С точностью до
бесконечно малых высшего порядка

Δ Δ .

Будем рассматривать однородные непрерывные марковские цепи


(  не зависят от времени), характеризующие процессы гибели и
размножения. Получим дифференциальные уравнения для
вероятностей   . Прежде всего, найдем дифференциальное уравнение для
вероятности начального состояния . Дадим t малое приращение Δ и
найдем вероятность того, что в момент Δ система будет находиться в
состоянии . Это событие может произойти двумя способами:
– в момент система была уже в состоянии и за время Δ не перешла в
состояние ;
– в момент система была в состоянии и за время Δ перешла в состояние
.
Вероятность первого события по теореме умножения равна
произведению безусловной вероятности на условную вероятность не
перехода из состояния в состояние 1 Δ , т.е.

1 Δ .

Аналогично, вероятность второго события равна

Δ .

Тогда по теореме сложения

Δ 1 Δ Δ ,

так что искомое дифференциальное уравнение имеет вид

lim . (1)

Найдем дифференциальное уравнение для вероятности промежуточного


состояния . Дадим t малое приращение Δ и найдем вероятность того, что в
момент Δ система будет находиться в состоянии . Это событие может
произойти тремя способами:
– в момент система была в состоянии и за время Δ не перешла ни в
состояние , ни в состояние ;
– в момент система была в состоянии и за время Δ перешла в
состояние .
– в момент система была в состоянии и за время Δ перешла в
состояние .
Как и в предыдущем случае, вероятность первого события
определяется как

1 , Δ , Δ ,

а вероятности второго и третьего событий равны

, Δ ,     , Δ ,

так что система линейных дифференциальных уравнений Колмогорова,


решение которой при заданных начальных условиях обеспечивает
возможность получения функций    , имеет вид

     , , , , , (2)

где i = 1,2...r .
Пример. Пусть система состоит из основного элемента и двух резервных:
, . При отказе элемента  в работу включается , при отказе – .
До включения каждый из резервных элементов находится в холодном
резерве и отказать не может. Интенсивность потока отказов основного
элемнта ; . Все потоки отказов пуассоновские. Требуется
определить надежность системы.
Решение. Представим процесс, протекающий в системе, как марковский
случайный процесс с непрерывным временем и с дискретными состояниями:
– работает элемент ,
– работает элемент ,
– работает элемент ,
– не работает ни один элемент.
Система уравнений Колмогорова для таких состояний имеет вид

,
,

причем, 1. При начальном условии 0 1 из первого


уравнения находим

Интегрирование второго уравнения с начальным условием 0 0 дает

Аналогично,

Из условия полноты находим

1 .

Тогда надежность системы равна сумме соответствующих вероятностей:

§3. Пуассоновский случайный процесс

Рассмотрим события, которые могут происходить в каждый момент


непрерывно меняющегося времени. Например, к таким событиям можно
отнести регистрацию частиц счетчиком Гейгера.т.е. рассмотрим марковский
процесс с дискретным множеством состояний и непрерывным временем,
называемый процессом Пуассона.
Пусть ξ (t ) – число появлений событий на промежутке [0, t ] . Будем
считать, что ξ (t ) определено для всех t и является неотрицательной
целочисленной случайной величиной. Тогда для t1 < t2 число появлений событий
на (t1, t2 ] равно ξ (t2 ) − ξ (t1) .
Пусть А – состояние системы, в котором за промежуток времени (t + Δt )
наступит m событий. Пусть H1, H 2 , H3 , ...., H m – состояния системы, в которых
за промежуток времени t наступает 0,1,2….m событий соответственно.
Введем некоторые предположения относительно совокупности
рассматриваемых событий.
1) Предположим, что H1, H 2 , H3 , ...., H m образуют полную группу событий
и событие А может наступить при условии появления только одного из них.
Тогда по формуле полной вероятности
m
p( A) = ∑ p(H i ) p( A / H i ) . (1)
i =0

Здесь предполагается, что условные вероятности p( A / H k ) не зависят от


развития процесса в моменты времени, меньшие выбранного t, т. е. числа
событий, появившихся на непересекающихся временных промежутках,
являются независимыми случайными величинами.
2) Предположим, что рассматриваемый марковский процесс обладает
свойством однородности, т.е. вероятность наступления k событий за любой
промежуток времени t зависит только от числа k и от длительности этого
промежутка времени t и не зависит от начала его отсчета

p( A) = pm (t + Δt ) , (2)
p(H k ) = pk (t ),
k = 0,1,2...m.

3) Предположим, что условные вероятности p( A / H k ) удовлетворяют


условию

p( A / H k ) = pm− k (Δt ) . (3)

Подставляя (2) и (3) в выражение (1), получим

m
pm (t + Δt ) = ∑ pm−i (t ) pi (Δt ) . (4)
i =0

4) Предположим, что за малый промежуток времени Δt вероятность


наступления 1 события приближенно пропорциональна Δt , а наступление 2
или более событий можно пренебречь, т.е.

p1(Δt ) = λΔt , (5)

p0 (Δt ) = 1 − λΔt ,

lim pm (Δt ) = 0, m ≥ 2,
Δt →0
где λ = const > 0.

Учитывая (5), из (4) получим


pm (t + Δt ) = pm (t )(1 − λΔt ) + pm −1(t )λΔt ,
и, значит,

pm (t + Δt ) − pm (t )
= −λpm (t ) + λpm −1(t ) . (6)
Δt

Переходя в (6) к пределу при Δt → 0 , получим последовательность


дифференциальных уравнений первого порядка

p0′ (t ) + λp0 (t ) = 0, (7)


p1′ (t ) + λp1(t ) = λp0 (t ), (8)
p2′ (t ) + λp2 (t ) = λp1(t ), (9)
…………………….
′ (t ) + λpm (t ) = λpm−1(t ).
pm (10)
Из (5) вытекает

lim p0 (Δt ) = p0 (0) = 1 . (11)


Δt →0

Решая уравнение (7) при начальном условии (11), находим вероятность


отсутствия событий за промежуток времени t

p0 (t ) = e −λt .

Согласно (5)

lim p1(Δt ) = p1(0) = 0 . (12)


Δt →0

Решим уравнение (8) с начальным условием (12)

p1′ (t ) + λp1(t ) = λp0 (t ) = λe −λt .

Решение этого линейного уравнения равно p1(t ) = u(t )v(t ) , где

v(t ) = e −λ ∫ dt = e −λt ,
u(t ) = λ ∫ dt + C1 = λt + C1.

Из начального условия (12) находим константу интегрирования p1(0) = 0 = C1.


Окончательно имеем
p1(t ) = λte−λt . (13)

Для уравнения (9) в соответствие с (5) начальное условие имеет тот же вид
p2 (0) = 0 . Решим уравнение (9) с этим условием с учетом (13).

p2′ (t ) + λp2 (t ) = λp1(t ) = λ2te−λt ,

v(t ) = e −λ ∫ dt = e −λt ,

u(t ) = λ ∫ tdt + C2 =
2 (λt )2
+ C2 ,
2

p2 (t ) =
(λt )2 e−λt . (14)
2

Поступая аналогично, находим

pm (t ) = (λt )m −λt
e . (15)
m!

Формула (15) описывает закон распределения (СВ) числа событий,


наступающих за промежуток времени t, который называют случайным
процессом Пуассона.
Пример. В наблюдениях Резерфорда и Гейгера радиоактивное вещество за
промежуток времени Δt = 7.5 c испускало в среднем nΔt = 3.87 α – частицы.
Найти вероятность того, что за t = 1c это вещество испустит хотя бы одну
частицу.
Решение. Найдем вероятность того, что за произвольное время t вещество не
испустит ни одной частицы

p0 (t ) = (λt )0 −λt
e = e − λt ,
0!

где по условию задачи

n 3.87
λ = Δt = = 0.516 .
Δt 7.5
Тогда вероятность того, что это вещество за t = 1 c испустит хотя бы одну
частицу равна

pm≥1(t = 1) = 1 − p0 (t = 1) = 1 − e −0.516 ≈ 0.403 .


Пример. Нерезервированная система состоит из двух элементов , и
может работать в одном из двух режимов , . Переход системы из режима
в режим происходит под действием пуассоновского потока событий с
интенсивностью 1; обратный переход – с интенсивностью 3. В
режиме интенсивность пуассоновского потока отказов элемента равна
1, второго – 2; в режиме эти интенсивности равны
2, 4. Требуется определить надежность системы.
Решение. Система может находиться в следующих состояниях:
и – режим , оба элемента исправны;
н – режим , хотя бы один элемент неисправен;
и – режим , оба элемента исправны;
н – режим , хотя бы один элемент неисправен.
Уравнения Колмогорова для интересующих нас вероятностей таких
состояний имеют вид:

и
и и,

и
и и.

Пусть система начинает работу в режиме с начальными условиями

0, и 1, и 0. 

Решение будем искать в виде , . Подстановка такой пары функций


в уравнения Колмогорова дает систему однородных алгебраических
уравнений:

4 3 0,
C λ 9 D 0.

Из условия обращения в нуль определителя алгебраической системы

13 33 0
находим
3.459, 9.541,

так что при решение системы алгебраических уравнений равно

4
0.180 ,
3
а при
4
1.847 .
3
Отсюда следует, что решение системы дифференциальных уравнений имеет
вид:
. .
и ,

. .
и 0.180 1.847 .

Из начальных условий 0, и 1, и 0 находим

0.912, 0.088,

так что окончательно


. .
и 0.912 0.088 ,
. .
и 0.164 0.164 .

Тогда надежность системы для начального режима равна:

и и .

Аналогично, для начального режима :

. .
и 0.493 0.493 ,

. .
и 0.089 0.911 ,

и и .

Если начальный режим в точности не известен, а известны только их


вероятности, то надежность системы находится по формуле полной
вероятности

Вам также может понравиться