Вы находитесь на странице: 1из 128

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ

РОССИЙСКОЙ ФЕДЕРАЦИИ
ТОМСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
Кафедра теории вероятностей и математической статистики

О.Н. Галажинская, С.П. Моисеева

Теория случайных процессов


Часть 1
Учебное пособие

Томск
Издательский Дом Томского государственного университета
2015
Теория случайных процессов

УДК 519.22
ББК 22.172
Г15

Рецензент А.А. Назаров, д-р техн. наук, проф.

Галажинская О.Н., Моисеева С.П.


Г15 Теория случайных процессов : учеб. пособие. – Томск :
Издательский Дом Томского государственного
университета, 2015. – Ч. 1. – 128 с.
Пособие предназначено для оказания помощи студентам при выполне-
нии практических заданий в курсе «Теория случайных процессов». Пред-
ложены в большом количестве разнообразные задачи с разобранными ре-
шениями, а также задачи для самостоятельной работы студентов по каж-
дой из тем. Приводятся все необходимые теоретические сведения из тео-
рии случайных процессов. Методическое пособие составлено так, чтобы
студент смог выполнить задания без обращения к дополнительной литера-
туре.
Для студентов 3-го курса бакалавриата ФПМК, изучающих курс «Тео-
рия вероятностей и случайные процессы».

УДК 519.22
ББК 22.172

© Галажинская О.Н., Моисеева С.П., 2015


© Томский государственный университет, 2015
1. Определение и описание случайных процессов

Содержание

1. Определение и описание случайных процессов. Классификация


случайных процессов ...……………………………….............................……… 4
Задачи по теме для самостоятельного решения ...........…………………… 14

2. Законы распределения случайных процессов ……………………………… 16


Задачи по теме для самостоятельного решения ...........…………………… 37

3. Основные характеристики случайных процессов ……………………....… 41


Задачи по теме для самостоятельного решения ...........…………………… 56

4. Стационарные случайные процессы. Эргодические процессы ...……….... 58


Задачи по теме для самостоятельного решения ...........…………………… 73

5. Линейные преобразования случайных процессов ………......................….. 76


Задачи по теме для самостоятельного решения ...........…………………… 86

6. Спектральная плотность .................................................................................. 88


Задачи по теме для самостоятельного решения ...........…………………… 94

7. Сходимость, непрерывность, дифференцируемость


и интегрируемость случайных процессов .......................................................... 95

8. Основные классы случайных процессов ........................................................ 105


Гауссовские случайные процессы ................................................................ 105
Процессы с ортогональными и независимыми приращениями ................ 109
Винеровский процесс .................................................................................... 110
Пуассоновский процесс ................................................................................. 113

Задачи для самостоятельного решения по всем темам ..................................... 116

Литература ............................................................................................................ 121

Приложения .......................................................................................................... 122

3
Теория случайных процессов

ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ

1. Определение и описание случайных процессов.


Классификация случайных процессов

Одним из основных понятий теории вероятностей является понятие случайного испытания.


Под случайным испытанием, или случайным опытом, понимается любое действие, кото-
рое можно повторить большое количество раз в приблизительно одинаковых условиях и ре-
зультаты которого предсказать невозможно.
Исторически в самом начале теория вероятностей имела дело с такими случайными испыта-
ниями как: подбрасывание кубика, подбрасывание монеты, раскладывание карт и пр.
В результате проведения таких опытов появлялись случайные явления (события), наступле-
ние или не наступление которых и изучалось. Далее естественным образом появилось поня-
тие случайной величины, которое позволило уже количественно описывать результаты слу-
чайных испытаний, например, число очков при подбрасывании кубика, размер выигрыша в
казино, рост случайного выбранного человек, число детей в семье и т.д. И наконец, в слу-
чайные испытания был введен фактор времени t , т.е. появилась возможность строить и изу-
чать модели, которые описывают динамику развития изучаемого случайного явления. Мож-
но сказать, что случайная величина соответствует случайному явлению как бы в «статике» (в
неизменных условиях опыта), а случайный процесс «в динамике» (в изменяющихся условиях
опыта).

Наука, которая изучает закономерности случайных явлений в динамике их развития, называ-


ется теорией случайных процессов.

Случайным (стохастическим) процессом   ,t  называется процесс, значение которого

при любом фиксированном значении t  t 0 является случайной величиной   ,t0  .

Величину   ,t0  называют сечением случайного процесса.

Так как случайный процесс может иметь бесконечное множество сечений, а в каждом из се-
чений мы получаем случайную величину, то случайный процесс можно рассматривать как

4
1. Определение и описание случайных процессов

совокупность случайных величин   t  , или бесконечномерный случайный вектор. Т.е. поня-

тие случайного процесса является обобщением такого понятия как система случайных вели-
чин, в том случае если этих величин бесконечное множество.

Например:

1. Число звонков, поступающих в единицу времени на телефонную станцию, являясь слу-


чайной величиной, зависит от времени суток.
2. Численность населения города меняется с течением времени случайным образом под вли-
янием различных факторов: рождаемость, смертность, миграция и т.д.
3. Расход электроэнергии в единицу времени – тоже функция времени со случайными значе-
ниями.
4. Координаты броуновской частицы меняются со временем и принимают случайные значе-
ния.
5. Курсы валют или акций меняются со временем и принимают случайные значения.
6. Выручка или прибыль организации случайная величина, изменяющаяся с течением време-
ни.
7. Длина очереди в супермаркете – функция времени со случайными значениями.

Возможно и другое истолкование случайного процесса, не только как совокупности (систе-


мы) случайных величин, а и как совокупности его возможных реализаций.

Реализацией (траекторией) случайного процесса называют неслучайную функцию аргумен-


та t , равной которой может оказаться случайный процесс в результате проведенного испы-
тания.

Например, снимается кардиограмма сердца, в результате измерения получаем функцию


(электрокардиограмму), которая является лишь одной из всех возможных реализаций слу-
чайного сердечного процесса. Если мы повторим измерение, получится уже другая кардио-
грамма, которая будет другой реализацией случайного процесса. Теоретически мы можем
получить бесконечное множество таких реализаций.

Итак, случайный процесс можно рассматривать как совокупность его возможных реализаций
или как пучок траекторий.

5
Теория случайных процессов

Замечание 1: Если в опыте наблюдают случайный процесс, то в действительности наблюда-


ют одну из его возможных реализаций.

Дадим теперь строгое математическое определение случайного процесса.

Пусть задано вероятностное пространство  , F , P  , где  – пространство элементарных

событий, F –  -алгебра подмножеств множества  (  -алгебра событий) и P – вероят-

ностная мера, приписывающая каждому событию из F число из отрезка 0,1.

Случайная величина – это функция    ( ) из  в R , которая является измеримой, что


означает, что множество :  (  )  x принадлежит  -алгебре F при любом x , т.е. прообраз

любого борелевского множества  1 ( B )  : ( )B принадлежит  -алгебре F событий.

Рассмотрим теперь функцию, зависящую от двух аргументов:  (, t ) ,   , t  T .

Замечание 2: Совокупностью значений t  T может быть:

1. Любой интервал на прямой.


2. Вся прямая R .
3. Множество целых точек  0,  1,  2,... .

4. Множество целых положительных чисел 0, 1, 2,... .

Определение 1. Функцию (, t ) называют случайным процессом, если при t  T она яв-
ляется измеримой функцией аргумента  , то есть случайной величиной  ( , t  )   (  ) .

Зафиксируем некоторое элементарное событие 1 . Это означает, что опыт, в ходе которого

случайный процесс протекает, уже произведен и произошло элементарное событие 1   .


Случайный процесс уже не случаен, и зависимость его от t примет определенный вид: в ре-
зультате получим неслучайную (детерминированную) функцию времени –  ( 1 , t )    t  , ко-
торую будем называть реализацией случайного процесса. Иногда говорят выборочной
функцией, соответствующей элементарному событию 1   .

Совокупность всех реализаций случайного процесса называется ансамблем реализаций.

6
1. Определение и описание случайных процессов

Можно сказать, что случайный процесс – это однопараметрическое семейство случайных


величин (, t ) , заданных на одном и том же пространстве элементарных событий  , зави-
сящих от значений параметра t .

Замечание 3: Часто случайный процесс (, t ) обозначается как  ( t ) , т.е. зависимость от 


не указывается.

Классификация случайных процессов

Случайные процессы принято классифицировать по разным признакам, учитывая плавность


или скачкообразность реализаций, фиксированность или случайность моментов, в которые
происходят скачки, вид закона распределения отдельного сечения процесса или совокупно-
сти сечений и т.д. Мы рассмотрим элементарную классификацию случайных процессов по
времени и по состояниям.

1. Случайный процесс  ( t ) называется процессом с дискретным временем, если система, в


которой он протекает, может менять свои состояния только в моменты времени t1 , t 2 ,..., t n , ... ,

и множество значений ti конечно или счетно, т.е. T  ti  , i  1, n – дискретное множество.

7
Теория случайных процессов

Примеры:

1.а. Будем считать системой какого-либо человека, данная система может находиться в двух
состояниях: здоров, болен. Состояние системы можно фиксировать так: в 8.00 утра и в 20.00
вечера. Т.е. смена состояний системы может происходить в дискретные моменты времени
t1 , t 2 ,...

1.б. Процесс изменения роста человека, который может менять свои состояния в моменты
времени t1 , t 2 ,..., t n , ... определяемые, например, днем рождения человека.

2. Случайный процесс  ( t ) называется процессом с непрерывным временем, если переходы


системы из состояния в состояние могут происходить в любой момент времени t наблюдае-
мого периода T , т.е. множество значений t  T континуально.

Примеры:

2.а. Случайный процесс: число покупателей пришедших от момента открытия магазина, до


произвольного момента времени t .

2.б. Случайный процесс: число несданных предметов студентом задолжником, в течение го-
да сдающего сессию и закрывающего долги. Состояние системы может измениться в любой
произвольный момент времени t  T , где T – время обучения в университете.

3. Случайный процесс  ( t ) называется процессом с непрерывным множеством состоя-


ний, если в любом сечении t получаем непрерывную случайную величину, множество зна-
чений которой бесконечно и несчетно.

Примеры:

3.а. Случайный процесс: регистрируется температура воздуха на горнолыжном курорте в


фиксированные моменты времени. В любом сечении будем получать непрерывную случай-
ную величину.
3.б. Изменение напряжения в сети в момент t .

4. Случайный процесс  ( t ) называется процессом с дискретным множеством состояний,


если любое его сечение характеризуется дискретной случайной величиной, множество зна-
чений которой конечно или бесконечно, но счетно.

8
1. Определение и описание случайных процессов

Примеры:

4.а. Случайный процесс: число покупателей пришедших от момента открытия магазина, до


произвольного момента времени t . В любом сечении дискретная случайная величина.
4.б. Процесс изменения состояний человека: здоров, не здоров, если считать, что смена со-
стояния человека может произойти в любой произвольный момент времени

Таким образом, в зависимости от природы множества T значений аргумента t , моментов


времени, в которые возможны переходы системы из состояния в состояние, а также природы
множества самих состояний, все случайные процессы делят на 4 основных класса:

1. Процессы с дискретным множеством состояний и дискретным временем (при-


мер 1.а).

2. Процессы с дискретным множеством состояний и непрерывным временем (при-


мер 2.а).

9
Теория случайных процессов

3. Процессы с непрерывным множеством состояний и дискретным временем (при-


мер 3.а).

4. Процессы с непрерывным множеством состояний и непрерывным временем (при-


мер 3.б).

Пример 1.1. Пусть случайный процесс задается формулой (t )  U  arcsin (t ) , где U – слу-
чайная величина. Найти сечения, соответствующие фиксированным значениям аргумента
1
t : а) t  1 ; б) t  .
2

Решение. Сечением случайного процесса (, t ) является случайная величина  ( , t 0 ) , соот-

ветствующая фиксированному значению аргумента t  t 0 , т.е.

10
1. Определение и описание случайных процессов

a) при t  1 получаем в сечении случайную величину:



 ( , t )   ( ,1)  U  arcsin 1  U ;
2
1
b) при t  получаем в сечении другую случайную величину:
2
1 1 
( , t )  ( , )  U arcsin    U.
2 2 6

Пусть, например, U  дискретная случайная величина, заданная рядом распределения:

ui 1 2

pi 12 12


Тогда обозначим V   (,1)  U  arcsin 1   U – это случайная величина, функционально
2
связанная с U и имеющая следующий закон распределения:

vi  2 

pi 12 12

Или положим, что U – непрерывная случайная величина с плотностью вероятности:

1
 ,4x6
pU ( x )   2 ;
0, else


тогда т.к. V   U – случайная величина, связанная функциональной зависимостью сU ,
2

найдем плотность распределения вероятностей V . Пары точек U ,V  лежат на прямой


y  
 x    x  , данная функция монотонна в интервале 4,6 , поэтому обратная функция,
2
2
находится однозначно: x  y    y  , тогда плотность случайной величины V можем

' 2
найти по известной формуле: pV ( y)  pU (( y))   ( y ) , т.к.  '  y   , можем записать:

11
Теория случайных процессов

2 2 1
pV ( y )   
 pU (  y )  , где y  2,3 . Таким образом, V – непрерывная, равномерно
  
распределенная случайная величина, для которой можем записать окончательно:

1
 , 2   y  3
pV ( y )    .
0, else

 2

Пример 1.2. Случайный процесс задается формулой (, t )  t  2t  1   , где t  0 и  –

случайная величина, возможные значения которой принадлежат интервалу 1,3 .


Найти реализации случайного процесса  (, t ) , полученных при проведении двух испыта-
ний, в которых величина  приняла значения: а)   1 ; б)   2 .

Решение. Реализацией является неслучайная функция  (  0 , t ) , которая получается при фик-

сированном значении случайной величины, в нашем случае  , т.е.


а) при   1 получаем такую реализацию: (1, t )  t  2t  1 ;
2

б) при   2 такую:  (2, t )  2 t 2  4 t  2 .
Очевидно, что все возможные реализации представляют собой параболы, ветви которых
направлены вверх и ось симметрии параллельна оси O (t ) . Параметр у каждой из парабол
разный, поэтому они все будут различаться между собой размерами, точнее размахом ветвей.

Пример 1.3. Пусть случайный процесс  ( , t )  U  t  5, t  0,2  , где U  R 0,1 – случайная

величина, равномерно распределенная на отрезке 0,1 . Описать множество сечений и реа-


лизаций случайного процесса  (, t ) .

Решение:

1. Так как известно, что U  R 0,1 , можем записать ее плотность распределения:

1, 0  x  1
pU (x)   .
0, else

Зафиксируем значение параметра t  t1  1 , получаем в сечении случайную величину


( ,1)  U ()  5 , найдем закон распределения полученной случайной величины V  U  5 .

12
1. Определение и описание случайных процессов

Пары точек U ,V  лежат на прямой y  x  5   x  , данная функция строго монотонна в

интервале 0,1 , поэтому обратная функция, находится однозначно: x  y  5    y  , тогда

плотность случайной величины V можем найти по известной формуле:


'
pV ( y )  pU (( y ))   ( y ) , т.к. '  y   1 , можем записать: pV ( y )  1  pU (y  5)  1, где

y  5,6 .

Возьмем другое значение параметра t  t 2  2 , получаем в сечении случайную величину

 ( , 2)  V  2  U  5 , найдем ее закон распределения. Пары точек U ,V  лежат на прямой

y  2  x  5    x  , данная функция строго монотонна в интервале 0,1 , обратная функция,


y 5
находится однозначно: x     y  , поэтому плотность случайной величины V также
2
' 1
находим по формуле: pV ( y)  pU (( y))   ( y ) , т.к.  '  y   , можем записать:
2

pV ( y ) 
1
p (
2 U 2
y 5 1
 
)  , где y  5,7 .
2
1
Зафиксируем значении параметра t  t 3  , получаем в сечении случайную величину
2
1 U U
( , )   5 , найдем закон распределения полученной случайной величины V   5.
2 2 2
x
Пары точек U ,V  лежат на прямой y   5    x  , функция также строго монотонна в
2
интервале 0,1 , обратная функция: x  2 y  10    y  , тогда плотность случайной величины

'
V : pV ( y)  pU (( y))   ( y ) , т.к.   y   2 , можем записать: pV ( y )  2  pU (2 y  10)  2 ,
'

1
где y  5,5  .
 2
Таким образом, путем нехитрых рассуждений приходим к выводу, что любая случайная ве-
личина, получающаяся в сечении процесса, при фиксации t  0,2  , будет иметь равномерное

распределение в интервале 5,5  t  , t   0,2 . Т.е. преобразование V  U  t   5 переводит

1
 , y  5,5  t 
отрезок 0,1 в отрезок 5,5  t  и pV ( y )   t .
0, y  5,5  t 
 

13
Теория случайных процессов

2. Как указывалось выше, реализацией является детерминированная функция  (  0 , t ), кото-

рая получается при фиксированном значении случайной величины, в нашем случае U . Реа-
лизациями рассматриваемого процесса  ( , t )  U  t  5, t  0,2  будут прямые (уравнение
прямой с угловым коэффициентом выглядит так: y  kx  b , где k – угловой коэффициент,
b – отрезок, отсекаемый прямой от оси Oy ). Все реализации выходят из точки, с координа-

тами  0,5 , и имеют случайный угловой коэффициент, равный U ( ) . Сверху все реализа-

ции будут ограничены прямой  (1, t )  t  5 , снизу прямой, параллельной оси Ot : (0, t )  5 .

Задачи по теме для самостоятельного решения

1. Описать семейство реализаций элементарного случайного процесса


 (, t )  t  U , t   0,2  , где U – случайная величина, принимающая только положитель-

ные значения.

2. Пусть случайный процесс задается формулой  ( t )  U  ln t , t  1,e 2  , где U – дискрет-


1
ная случайная величина, принимающая значения 1 и 2 с вероятностью . Найти законы
2

распределения случайных величин, соответствующих фиксированным значениям аргу-


2
мента t : а) t  e ; б) t  e .

14
1. Определение и описание случайных процессов

3. Пусть случайный процесс  ( , t )  U  t , t   0,2  , где U  R 0,2  – случайная величина,

равномерно распределенная на отрезке 0,2 . Описать множество сечений и реализаций


случайного процесса (, t ) .

4. Пусть случайный процесс  (, t )  U  t , t   0,1 , где U – случайная величина, имею-


щая экспоненциальное распределение с параметром   1 . Описать семейство реализа-
ций случайного процесса (, t ) . Найти закон распределения случайной величины, со-
2
ответствующей фиксированному значению аргумента t : а) t  e ; б) t  e .

5. Описать семейство реализаций элементарного случайного процесса  (t )  e  t U , t  0 ,


где U – случайная величина, имеющая экспоненциальное распределение с параметром
  1 . Найти закон распределения случайной величины, соответствующей фиксирован-
ному значению аргумента t  1 .

6. Описать семейство реализаций элементарного случайного процесса

Y  , t   X   e , где X – равномерно распределенная на отрезке 0,1 случайная


t

величина, а  и t – положительные параметры.

7. Описать семейство реализаций элементарного случайного процесса


X (t )  U cos at  V sin at , где U ,V  – система случайных величин, а – неслучайная ве-
личина.

8. Случайный процесс  ( t ) формируется так: на оси Ot имеется простейший поток собы-


тий с интенсивностью  . Случайный процесс попеременно принимает значения +1 и –
1, при наступлении очередного события в простейшем потоке случайный процесс скач-
ком меняет свое состояние с +1 на –1 или наоборот. Описать семейство реализаций
данного случайного процесса.

9. Случайный процесс  ( t ) формируется так: на оси Ot имеется простейший поток собы-


тий с интенсивностью  . В момент наступления i-го события случайный процесс при-
нимает случайное значение X i , сохраняя его до следующего события в потоке. В

начальный момент времени t  0 : X (0)  X 0 . Описать семейство реализаций данного


случайного процесса.

15
Теория случайных процессов

2. Законы распределения случайных процессов

В теории вероятностей обсуждалось, что универсальной и полной характеристикой любой


случайной величины является ее функция распределения F ( x)  P  x .

В предыдущем разделе 1 мы обсудили, что при фиксации аргумента t , получаем в сечении


случайную величину, которая имеет свой закон распределения.
Рассмотрим сечение  ( , t1 ) случайного процесса (, t ) в момент времени t1 .

Определение 1. Функция вида: F ( x1 , t1 )  P  (t1 )  x1 называется одномерной функцией

распределения случайного процесса.

Замечание 1: Одномерная функция распределения это вероятность такой реализации слу-


чайного процесса, которая в момент времени t1 принимает значение не превосходящее x1 .
Одномерный закон распределения, конечно, не является полной характеристикой случайного
процесса. Одномерная функция распределения характеризует закон распределения каждого
(одного) произвольно выбранного сечения случайного процесса, но не учитывает взаимную
зависимость между различными сечениями. Поэтому определим двумерный закон распреде-
ления, являющийся совместным законом распределения двух случайных величин, получен-
ных при фиксации соответственно двух моментов времени t .

Зафиксируем два произвольных значения t : t1 и t 2 .

Определение 2. Функция вида:


F ( x1 , x2 , t1 , t 2 )  P  (t1 )  x1 , ( t2 )  x2 

называется двумерной функцией распределения случайного процесса.

Двумерная функция распределения дает более полное представление о процессе, чем одно-
мерная, но существо процесса все же не исчерпывает. Увеличивая число сечений, и рассмат-
ривая совместное распределение получающихся в сечениях случайных величин, мы все точ-
нее и точнее будем характеризовать процесс.

Для n сечений случайного процесса, полученных фиксацией n моментов времени t :


t1 , t 2 , ...., t n .

16
2. Законы распределения случайных процессов

Определение 3. Функция вида:


F ( x1 ,..., xn , , t1 ,...., t n )  P  (t1 )  x1 ,...., (tn )  xn  (1.1)

называется n -мерной функцией распределения случайного процесса (, t ) .

Замечание 2: n -мерная функция распределения случайного процесса (, t ) это вероятность


того, что любая из реализаций случайного процесса, в моменты времени t1 , ...., t n принимает

значения, которые не превосходят соответственно величин x1 ,..., x n .

Будем считать, что случайный процесс (, t ) задан, если задано семейство функций распре-
делений (1.1) для n .

Замечание 3: В общем случае случайный процесс не может быть полностью определенным,


потому что совокупность сечений является несчетной, и поэтому совместный закон распре-
деления всех сечений построить не представляется возможным. Но к счастью очень часто
для задач практики достаточно знать конечномерный закон распределения случайного про-
цесса, причем не очень высокого порядка, например, второго. Далее в последующих главах
будут более подробно обсуждаться эти вопросы.

Функция F ( x1 , t1 , , x n , t n ) должна удовлетворять очевидным соотношениям, которые назы-

ваются условиями согласованности:

17
Теория случайных процессов

F ( x1 , t1 ,  , xn , t n )  F ( x1 , t1 , , xn , t n ,  , t n1 , ,  , t n p ) , (1.2)

F ( x1 , t1 , , xn , t n )  F ( xi1 , ti1 ,  , xin , tin ) , (1.3)

где i1 , i2 ,...in – любая перестановка индексов1, 2,...n для n .

Сформулируем ещё одно определение случайного процесса.

Определение 4. Случайным процессом (, t ) , заданным на множестве T (t  T ) называется


семейство распределений (1.1), удовлетворяющих условиям согласованности (1.2) и (1.3).

Набор функций F ( x1 , t1 ,..., xn , tn ) для n  1, 2,... называют конечномерным распределением

случайного процесса (, t ) .

Определение 5. Если функция F ( x1 , t1 ,..., xn , tn ) допускает такое представление:


x1 xn

F ( x1 , t1 ,..., xn , tn )     p ( y1 , t1 ,..., yn , tn ) dy1...dyn ;


 

где p ( y1 , t1 ,..., yn , t n ) – некоторая измеримая неотрицательная функция такая, что


 

   p ( y , t ,..., y , t ) dy ...dy
 
1 1 n n 1 n 1,

то p ( y1 , t1 ,..., yn , t n ) называется n -мерной плотностью распределения случайного процес-

са (, t ) .

Другими словами: Если существует смешанная частная производная от n -мерной функции


распределения случайного процесса:

 n F ( x1 ,...xn , t1 ,..., tn )
 p ( x1 ,...xn , t1 ,..., tn )
x1x2 ....xn

То она называется n -мерной плотностью распределения случайного процесса.

При этом условия согласованности имеют вид:

 
p ( x1 , t1 ,..., xn , tn )     p ( y1 , t1 ,..., yn , tn , yn1 , tn1 ,..., yn p , tn  p ) dyn1...dyn p ,
 

p ( x1 , t1 ,..., xn , tn )  p ( xi 1 , ti 1 ,..., xin , tin ) .

18
2. Законы распределения случайных процессов

Замечание 4: Условия согласованности, это по сути условия симметрии, т.е. плотность


распределения (равно как и функция распределения) должна быть одной и той же при любом
выборе значений аргумента t1 , t2 ,..., tn . Для любой перестановки i1 , i2 ,...in из чисел 1, 2,..., n

должны выполняться соотношения p ( x1 , t1 ,..., xn , tn )  p ( xi 1 , ti 1 ,..., xin , tin ).

Замечание 5: Из курса теории вероятностей известно, что вероятность попадания одномер-


ной случайной величины Y в бесконечно малый интервал y пропорциональна произведе-
нию одномерной плотности pY ( y) на величину интервала y . Рассмотрим небольшой про-

межуток  y, y  y  . Вероятность того, что непрерывная случайная величина Y примет зна-

чение из этого промежутка, равна (используя свойство функции распределения):


P  y  Y  y   y   F ( y  y )  F ( y )

Рассмотрим отношение этой вероятности к длине промежутка, т.е. среднюю вероятность,


приходящуюся на единицу длины. Устремив y  0 , в пределе получим производную от
функции распределения:
F  y  y   F  y  P  y  Y  y  y 
lim  lim  F ' ( y )  p ( y ),
y  0 y y  0 y

где p( y)  F ' ( y) функция плотности распределения вероятностей случайной величины.


P  y  Y  y  y 
Отношение можно трактовать как количество вероятности, приходящееся
y
на промежуток длиной y . А в пределе при y  0 , как количество вероятности, приходя-
щееся на бесконечно малый промежуток y . Используя известную теорему математического
P  y  Y  y  y 
анализа, можем из выражения: lim  pY ( y ) записать:
y  0 y

P  y  Y  y  y 
 pY ( y )   ( y ) , где  ( y) – бесконечно малая функция, или
y

P  y  Y  y   y   p ( y )  y .

Давайте разберемся, что описывает совместная n-мерная плотность распределения


p ( y1 , t1 ,..., yn , t n ) случайного процесса (, t ) ?

Эта функция пропорциональна вероятности попадания траектории случайного процесса в


«малые ворота» y1 около значения y1 в момент времени t1 , в «малые ворота» y2 около

19
Теория случайных процессов

значения y2 в момент времени t2 , и т.д. в «малые ворота» yn около значения yn в момент

времени tn , или математически:

P  y1  (t1 )  y1  y1 ,...., yn  (tn )  yn  yn   p ( y1 , t1 ,..., yn , tn )  y1  y2  ....  yn

В курсе теории вероятностей рассматривались характеристические функции, которые яв-


ляются удобным способом задания случайных величин. Описание на языке характеристиче-
ских функций часто является более предпочтительным способом задания для случайных
процессов.

Характеристическая функция конечномерного распределения вероятностей случайного


процесса определяется также как для многомерных случайных величин:

 
  n   n 
g (u1 , t1 ,..., un , tn )  M exp  i   (tk )uk     exp i xk uk  p ( x1 , t1 ,..., xn , tn ) dx1...dxn .
  k 1  k 1 

При решении многих задач приходится иметь дело с несколькими случайными процессами.
Так, например, при изучении погоды приходится совместно рассматривать такие случайные
процессы: изменение температуры воздуха, изменение влажности, изменение давления и т.д.

20
2. Законы распределения случайных процессов

Для задания, например, двух случайных процессов (, t ) и (, t ) определяется  n m -


мерная функция распределения:

F ( x1 , t1 , , xn , t n , y1 , t1, , ym , t m )  P  (t1 )  x1 , ,  (t n )  xn , (t1)  y1 ,  , (t m )  ym  .

Замечание 6:  n m - мерная функция распределения двух случайных процессов в общем


случае не обладает свойством симметрии относительно всех перестановок аргументов.

Пример 2.1. Пусть случайный процесс   , t  задан на вероятностном пространстве

, F , P , где:   1, 2 , F – множество всех подмножеств множества  , P приписыва-

ет вероятности, равные1 2 , множествам 1 и 2 . Пусть множество значений парамет-

ра t есть отрезок  0,1 и    , t     t . Найти реализации случайного процесса   , t  и его

семейство конечномерных распределений.

Решение.
1. Нам дан случайный процесс    , t     t , который определен на вероятностном про-

странстве , F , P , где   1, 2  1 , 2  . Зафиксируем значения 1  1 и 2  2 . В ре-

зультате получим реализации случайного процесса  ( 1 , t )  t и  (  2 , t )  2 t , которые явля-

ются неслучайными функциями параметра t . Таким образом ансамбль реализаций состоит


всего из двух прямых, выходящих из нуля.

21
Теория случайных процессов

2. Найдем семейство конечномерных распределений. Согласно определению, сформулиро-


ванному выше, n-мерная функция распределения случайного процесса записывается так:

F ( x1 , x 2 ,... x n ; t1 , t 2 ,...., t n )  P  (t1 )  x1 ,...., (tn )  xn  .


Подставим в выражение для функции распределения вместо  ( ti )  xi , i  1, n заданное нам

выражение процесса X   , t     t , получим следующее:

 x x   x  
F ( x1 , x2 ,... xn ; t1 , t2 ,...., t n )  P t1  x1 ,....,tn  xn   P   1 ,....,  n   P   i ,i 1, n  .
 t1 tn   ti 

 

xi
ti
– это событие, которое заключается в том, что  меньше
xi
ti
, для всех i  1, n , это


событие эквивалентно событию   min


  i 1, n
xi
ti 
, поэтому окончательно:


F ( x1 , x2 ,... xn ; t1 , t2 ,...., t n )  P   min

i 1,n
xi
ti
.
В каждом из сечений ti  0,1 мы имеем дискретную случайную величину, имеющую два

1
значения 1  t i и  2  ti , которые принимаются с равными вероятностями .
2

В теории вероятностей мы записывали функцию распределения одномерной дискретной


случайной величины так: F ( x)  P :    x   pk , где x k – это возможные значе-
k: xk  x
ния случайной величины, а p k – соответствующие им вероятности.

В аналогии можем записать:


F ( x1 , x2 ,...xn ; t1 , t 2 ,...., t n )  P   min

i 1,n
xi
ti


 k :k  min
xi 
 
pk , т.к. значения  k , k  1, 2 , у нас раз-

 i 1, n ti 

1
ные, но соответствующие им вероятности обе равны , то окончательно:
2


F ( x1 , x2 ,... xn ; t1 , t2 ,...., tn )  P   min

i 1, n 
xi
ti



 k :k  min

xi 

pk 


 k :k  min
xi 
 
1
2
.

 i 1,n ti   i 1,n ti 

22
2. Законы распределения случайных процессов

Запишем одномерную функцию распределения в привычном развернутом виде. При ее по-


 x 
строении рассуждаем так: F ( x1 , t1 )  P (t1 ) x1  P t1  x1  P  1  . Так как  прини-
 t1 

мает всего два значения 1 и 2, то «барьерное значение» x1 t1 относительно которого мы бу-


дем оценивать вероятность попадания в тот или иной интервал, задаем так:
x1 t1    ,1 , x1 t1  1,2  , x1 t1   2,  или окончательно:

 x1
0, 1
 t1
1  1 x
F ( x1 , t1 )     , 1 1  2 ;
 x  2  2 t1
 k:k  1   x
 t1 
1, 1  2
 t1

Двумерная функция распределения будет выглядеть так:

 x x 
0, min  1 , 2 1
  t1 t2 
1 1 
x x 
F ( x1 , t1 , x2 , t 2 )     , 1 min  1 , 2   2.
 xi  2  2  t1 t2 
 k :k  min
  
i 1,2 ti 
1, min  x1 , x2   2

  
 t1 t2 

И для n -мерной функции распределения случайного процесса можем окончательно записать:

 x x x 
0, min  1 , 2 ,... n  1
  t1 t2 tn 
1 1
x x x 
F ( x1 , x2 ,...xn ; t1 , t2 ,...., t n )     , 1 min  1 , 2 ,... n   2.
 xi  2 2  t1 t2 tn 
 k:k  min
  
 i 1, n ti 
1, min  x1 , x2 ,... xn   2
  t1 t2 tn 

Пример 2.2. Пусть случайный процесс   ,t  определен на вероятностном пространстве

1 2
, F , P , где   0,1 , P 1   и P  2   . Пусть t   0,1 и    , t   1 при t   ,
3 3
  , t   0 при t   . Найти реализации случайного процесса   ,t  и его семейство конеч-

номерных распределений.

23
Теория случайных процессов

Решение:
1. Аналогично как и в предыдущей задаче имеем две реализации, в случае если 1  0 , то

любое значение параметра t   0,1 будет больше 1 и в этом случае получаем реализацию

  0, t   0 , в случае же если 2  1 , то опять же любое значение параметра t   0,1 будет

меньше  и в этом случае получаем реализацию  1, t   1 . Таким образом ансамбль реали-

заций представляет собой две параллельные (оси Ot ) прямые.

2. Найдем семейство конечномерных распределений. Для произвольного n и при


t1  0 , t 2  0 ,...., t n  0 для n -мерной функции распределения случайного процесса можем

записать:
F ( x1 , x2 ,... xn ; t1 , t2 ,...., t n )  P (t1 ) x1 ,...., (tn ) xn   P  x1 ,....,  xn   P  xi , i 1, n 
.
 P   min xi , i 1, n

И, используя рассмотренную форму записи для функции распределения в предыдущем при-


мере, окончательно:

F ( x1 , x2 ,... xn ; t1 , t 2 ,...., tn )  P   min xi , i 1, n   pk


 
 k:k  min xi 
 i 1, n 

В каждом из сечений мы имеем дискретную случайную величину, имеющую два значения


1 2
1  0 и 2  1 , которые имеют соответствующие вероятности p1  и p2  .
3 3

Запишем одномерный закон распределения случайного процесса   ,t  :

24
2. Законы распределения случайных процессов

0, x 0

1
F ( x, t )   pk   , 0 x 1.
k:k  x 3
1, x 1

Двумерная функция распределения будет выглядеть так:

0, min  x1 , x2  0

1
F ( x1 , t1 , x2 , t 2 )   pk   , 0 min  x1 , x2  1.
  3
 k:k  min
 xi  1, min  x1 , x2  1
 i 1,2 

И для n -мерной функции распределения случайного процесса можем окончательно запи-


сать:

0, min  x1 , x2 ,... xn   0



1
F ( x1 , x2 ,...xn ; t1 , t2 ,...., tn )   pk   , 0  min  x1 , x2 ,...xn   1.
  3
 k :k  min
 xi  1, min  x1 , x2 ,... xn  1
 i 1, n 

Пример 2.3. Пусть случайный процесс    ,t  определен на вероятностном пространстве

, F , P , где    0,1 , F -  – алгебра борелевских подмножеств, P – мера Лебега. Пусть

t   0,1 ,    , t   1 при t   и   , t   0 при t   . Найти реализации случайного процесса

   ,t  и его семейство конечномерных распределений.

Решение:

1. В силу того, что множества возможных значений  и t лежат в интервале  0,1 , то воз-

можные реализации процесса могут иметь следующий вид: реализации представляют собой
ступеньки разной длины, но одинаковой высоты равной 1, подошва (под ней понимается
собственно 2 нижняя ступенька) находится на оси Ot и тоже имеет разную длину. Напри-
1 1 1
мер, при   , длина верхней ступеньки равна , но и длина подошвы равна . При
2 2 2
1 1 2
  , длина верхней ступеньки равна , длина подошвы равна .
3 3 3

25
Теория случайных процессов

Можно легко представить ансамбль реализаций случайного процесса. При любом фиксиро-
ванном t в сечении мы получаем дискретную случайную величину, значения которой 0 и 1.

2. Найдем семейство конечномерных распределений. Для произвольного n и при


t1  0 , t 2  0 ,...., t n  0 для n -мерной функции распределения случайного процесса можем за-

писать:
F ( x1 , x2 ,... xn ; t1 , t 2 ,...., tn )  P  (t1 )  x1 ,...., (tn )  xn  ,

Найдем выражение для одномерной функции распределения.

Замечание 7: В силу того, что пространство элементарных исходов    0,1 , и P – мера

Лебега, то вероятность попадания любой точки  в какой либо интервал находим, используя
геометрическое определение вероятности, то есть:

mes  0, t1  t1  0
P    0, t1     t1 .
mes  1

Нам нужно выражение для одномерной функция распределения. При ее построении рассуж-
даем так: F ( x, t1 )  P ((t1 )  x ) , а это вероятность того, что любая из реализаций i (t ) слу-

чайного процесса, пересечет сечение t ниже уровня x . Положим x  0 , очевидно, что при
таком x событие (t1 )  x является невозможным и P ((t1 )  x )  0 . При x  1, событие

(t1 )  x является достоверным, т.е. P ((t1 )  x )  1 . И, наконец, оценим P ((t1 )  x ) при

26
2. Законы распределения случайных процессов

0  x  1 , представим прямую параллельную оси Ot и зададим себе вопрос: с какой вероят-


ностью любая из реализаций случайного процесса пересечет сечение t1 ниже такого уровня

x . Пересечь сечение t1 , строго ниже уровня 0  x 1 , может только эта часть ансамбля реа-

лизаций:   , t   0 . То есть ответ такой: P ((t1 )  x )  P ((t1 )  0)  P (  t )   вероят-

ности попадания случайной точки  в интервал  0, t1   и согласно сделанному выше заме-

чанию, эта вероятность равна P    0, t1   t1 , таким образом собираем все вместе и окон-

чательно записываем:
0, x0

F ( x , t1 )  P ( (t1 )  x )  t1 , 0  x 1

1, x 1

Запишем двумерную функцию распределения.

При построении функции рассуждаем так. Пусть x1  0, x2  0 , нам нужно найти вероятность

того, что и  ( t1 )  x1 , и  (t 2 )  x2 , поскольку каждое из этих событий является невозможным,


то и произведение тоже невозможное событие. Поэтому значение функции распределения
будет равно 0. Пусть наши 0  x1 , x 2  1 , нам нужно опять оценить вероятность произведения

двух событий: наступили и  ( t1 )  x1 , и  (t 2 )  x2 . Если t1  t 2 , то вероятность произведения

P  (t1 )  x1 ,  (t 2 )  x2  равна t1 , потому что равна вероятности попадания в меньший интер-


вал (из двух), а его мера Лебега равна t1 . При t 2  t1 , вероятность произведения равна t 2 .

Обобщая можем записать, что при 0  x1 , x 2  1, вероятность P (  (t1 )  x1 ,  (t 2 )  x2 ) будет

равна min  t1 , t2  .

Если x1  1, 0  x2  1 , тогда нам нужно найти вероятность того, что и случайная величина

 ( t1 )  x1 и случайная величина  (t 2 )  x2 . При x1  1 , вероятность того, что  ( t1 )  x1 будет

меньше такого x1 , равна 1, т.к. это достоверное событие, тогда нам остается найти вероят-

ность произведения достоверного события и события  (t 2 )  x2 . Это произведение очевидно

равно событию  (t 2 )  x2 . Чему равна вероятность этого события? Рассуждаем так: при

0  x2  1 , вероятность того, что наша случайная величина  ( t 2 ) окажется ниже уровня x2 ,

равна вероятности попадания в интервал  0,t2  , мера Лебега которого равна t 2 . Аналогично

27
Теория случайных процессов

рассуждая, для случая x2  1, 0  x1  1 , получаем значение функции распределения t1 . При

min  x1 , x2   1 наша функция распределения принимает значение равное 1. Так как событие

(t )  x , (t )  x  в этом случае является достоверным.


1 1 2 2

0, min  x , x  0
 1 2

t1 , 0 x1 1, x2 1

F ( x1 , t1 , x2 , t 2 )  P ((t1 )  x1 , (t 2 )  x2 )  t2 , 0  x2 1, x1 1 .

min  t1 ,t2 , 0 x1 , x2 1
1, min  x , x  1
 1 2

На самом деле идея построения уже ясна, но можем продолжить и построим трехмерную
функцию распределения.

0, min  x1 , x2 , x3 0



min  t1 ,t2 ,t3 , 0 x1 , x2 , x3 1

t1 , 0 x1 1,  x2 , x3  1
t , 0 x2 1,  x1 , x3  1
2

F ( x1 , t1 , x2 , t2 , x3 , t3 )  P ((t1 )  x1 , (t 2 )  x2 , (t3 )  x3 )  t3 , 0 x3 1,  x1 , x2  1 .

min  t1 ,t2 , 0 x1 , x2 1, x3 1
min  t ,t , 0 x2 , x3 1, x2 1
 1 3
min  t2 ,t3 , 0 x2 , x3 1, x1 1

1, minx1 , x2 , x31

Выражение для конечномерной функции распределения слишком громоздкое, но оно может


быть получено аналогичными рассуждениями.

Пример 2.4. Дан случайный процесс   t   X  t   Y  t  , где  X , Y  система случайных вели-

чин, заданная законом распределения:

X
1 2 3
Y
–1 14 18 18

1 18 14 18

Найти реализации случайного процесса   t  и вероятность того, что они при t  0 возрас-

тают.

28
2. Законы распределения случайных процессов

Решение:
1. Перепишем случайный процесс в виде   t   X  t   Y  t   t 2  t  Y  X . Очевидно, что

каждая из реализаций процесса, проходит через случайную точку с координатами  0, X  . Т.е.

каждая из реализаций пересекает ось   t  , либо в точке  0,1 , либо в точке  0, 2  , либо в

 0,3 .

Преобразуем вид случайного процесса. Выделим полный квадрат в выражении:

2 2 2
Y Y  Y   Y Y2
  t   t  t Y  X  t  2   t        X   t    X  .
2 2

2 2 2  2 4

2
 Y2   Y 
Тогда можем записать:   t    X     t   .
 4   2

Или иначе:

1  Y 2 
2
 Y 
 t    2      t    X  
 2 2   4 

 x  x0   2  p   y  y0 
2

Внизу к полученному выражению приписано уравнение параболы, записанное в канониче-


ском виде, с координатами вершины O  x0 , y0  и параметром параболы p . Из полученного

 Y Y2 
выражения видно, что у нас координаты вершины параболы O  x0 , y0   O   , X   и
 2 4 

1 1
параметр p   0 . Так как p   0 , то заключаем, что ветви параболы направлены вверх.
2 2
Таким образом делаем первый вывод, что ансамбль реализаций представляет собой семей-
ство парабол, ось симметрии каждой из которых параллельна оси O  t  , координата верши-

 Y Y2  p Y2 1
ны случайна: O   , X   . Уравнение семейства директрис:   t   y0   X   ,
 2 4  2 4 4

каждая из директрис представляет собой прямую параллельную оси Ot . Координата фоку-

 p  1  Y Y2 1
сов: F  x0 , y0    F  x0 , y0    F   , X    . Форма параболы, определяется
 2  4  2 4 4

только параметром p , в нашем случае она будет у всех реализаций одинакова.

29
Теория случайных процессов

Координаты вершин семейства парабол:

1 3  1 3 1 3  1 3 1 3  1 3
O1   ,  ; O2    ,  ; O3   ,1  ; O4    ,1  ; O5   , 2  ; O6    , 2  .
 2 4  2 4 2 4  2 4 2 4  2 4

2. Введем обозначение. Пусть событие G    t  возрастают при t  0 . Так как каждая из

реализаций случайного процесса дифференцируема по аргументу t , то используя критерий


возрастания функции на интервале, (для того, чтобы дифференцируемая функция f  t  на

интервале  a , b  была возрастающей, необходимо и достаточно, чтобы для каждого

t   a , b  , f '  t   0 ). То есть для нашей случайной функции можем записать:  '  t   0 или

 '  t   2  t  Y  0 . А для этого необходимо и достаточно, чтобы случайная величина Y была


неотрицательной, т.е. Y  0 , потому что если значение случайной величины Y  0 , то мож-

но подобрать такое значение параметра t при котором  '  t   2  t  Y  0 . Другими словами,

условие  '  t   0 должно выполняться для всех t из указанного интервала, но при Y  0 оно

выполняется не для всех t   0,   .

30
2. Законы распределения случайных процессов

И теперь найдем вероятность события P (G )  P   t  возрастают при t  0  P Y  0 . Ис-

пользуя одномерный закон распределения случайной величины Y :

Yi –1 1

pi 12 12

1
Можем окончательно записать: P Y  0  P Y  1  .
2
Замечание 8: Так как понятие дифференцируемости для случайных функций определяется
особым образом. Далее в разделе, где будут рассматриваться вопросы сходимости, непре-
рывности, дифференцируемости и интегрируемости случайных процессов будет показано,

что  ' t   2  t  Y действительно является производной случайного процесса

  t   t 2  t  Y  X в среднем квадратическом.

Пример 2.5. Дан случайный процесс   t   X  t   Y  t  , где X и Y – случайные величины.

Причем Y имеет симметричное относительно нуля распределение и P  Y  0   0 . Найти

вероятность того, что реализации случайного процесса при t  0 возрастают.

Решение:

1. Введем обозначение, пусть событие G    t  возрастают при t  0 . Так как каждая из

реализаций случайного процесса дифференцируема по аргументу t , то используя критерий


возрастания функции на интервале, (для того, чтобы дифференцируемая функция f  t  на

интервале  a , b  была возрастающей, необходимо и достаточно, чтобы для каждого


t   a , b  , f '  t   0 ).

То есть для нашей случайной функции можем записать:  ' t   0 или

 '  t   2  t  Y  0  Y  2  t . А для этого необходимо и достаточно, чтобы случайная ве-


личина Y была неотрицательной, т.е. Y  0 , потому что если Y могла бы быть отрицатель-

ной, то можно подобрать такое значение параметра t при котором  '  t   2  t  Y  0 . Други-

31
Теория случайных процессов

ми словами, условие  '  t   0 должно выполняться для всех t из указанного интервала, но

при Y  0 оно выполняется не для всех t   0,   .

И теперь найдем вероятность события P (G )  P   t  возрастают при t  0 . Из условия за-

дачи известно, что Y имеет симметричное относительно нуля распределение (например, та-
ковым является стандартное нормальное распределение с параметрами a  0,   1 )

и также известно, что значение вероятности P  Y  0   0 , поэтому окончательно можем за-

1
писать: P Y  0  P Y  0  P Y  0  .
2

2 вариант решения: (решение взято из сборника задач авторы: Прохоров, Ушаков)

В математическом анализе было дано следующее определение возрастающей функции на


некотором промежутке:

Если для любых значений x1 , x2 из некоторого промежутка, таких, что x1  x2 , выполняется

неравенство: f  x1     то функция
f x2 y  f  x  называется возрастающей функцией на

данном промежутке.

32
2. Законы распределения случайных процессов

Используем это определение. Рассмотрим события  t1   t2  для любых t1  t 2 0 и

Y  0 . Покажем, что событие случайная величина Y  неотрицательна Y  0 , эквива-

лентно событию  t1 t2 .


t1 t2  0

 t1   2 2
  2
  t2  t1  t1  Y  X  t 2  t 2  Y  X  t1  t1  Y  X  t2  t 2  Y  X  0 
2

 2 2
 t1  t1  Y  t2  t2  Y  0    t
 2
1
 t 2  Y   t1  t2   0 
2

  t 1  t  t  t   Y   t  t   0   t
2 1 2 1 2 1  t2 Y  t1  t2   0 

Когда  t1  t2  t1  t2  Y   0 ? Если  t1  t2  Y   0 , т.к.  t1  t2   0 всегда при t1  t 2 .


Рассмотрим событие Y  t1  t2  0  Y    t1  t2  , это должно выполняться для любых 
пар точек t1  t 2 0. Т.е. если мы объединим по всем таким t1  t 2 0, то получим событие

 t1 t2 , которое эквивалентно событию, что Y  0 .


t1  t2  0

Реализации процесса возрастают при всех t1  t 2 0 только те, у которых в уравнении

 i  t   X i  t   Yi  t  значение Y неотрицательно.

Окончательно можем записать:


Y  0   t1 t2 .
t1 t 2  0

Так как известно, что Y имеет симметричное относительно нуля распределение и


1
P  Y  0   0 . Вероятность P Y  0  .
2

Пример 2.6. Поток покупателей является простейшим потоком с параметром  . Для дан-
ного потока вероятность того, что за время  появится ровно k покупателей, определя-

   
k

ется формулой Пуассона Pk     e   .


k!
Процесс   t  представляет собой число покупателей пришедших от 0 до t (например, от

начала рабочего дня и до момента времени t ). Найти одномерную функцию распределения


этого процесса.

33
Теория случайных процессов

Решение: Реализации процесса   t  с дискретным множеством состояний и непрерывным

временем, могут выглядеть так:

Любое из сечений такого процесса дискретная случайная величина, множество значений ко-
торой 0,1, 2, 3,.., n . У нас дан пуассоновский процесс, у которого в любой момент времени

может быть скачок реализации равный единице.

Найдем одномерную функцию распределения. Согласно определению:


F ( x, t1 )  P((t1 )  x ), а это на самом деле вероятность того, что любая из реализаций  i  t 

случайного процесса   t  , пересечет сечение t1 , ниже уровня x . Т.е. нам нужно найти веро-

ятность тех значений, дискретной случайной величины, получающейся в сечении случайного


процесса, которые лежат ниже какого-то наперед заданного x . И очевидно, эта вероятность
может быть найдена так:

 x t i
F ( x, t1 )  P((t1 )  x)   Pi   P(t1 ) i  P(t1 )  0  P (t1 )  1  ...     et
i x , i x i 0 i !

34
2. Законы распределения случайных процессов

Пример 2.7. Случайный процесс задан соотношением   t   X    t , t  0 , где X – случайная

величина с непрерывной функцией распределения, а   1 – детерминированная постоянная.

Найти вероятность события: P   t   0 хотя бы для одного t   0,1 .

Решение: Введем обозначение. Пусть A   :   , t   0 хотя бы для одного t   0,1 . Это

событие заключается в том, что функция   , t  имеет на интервале  0,1 по крайней мере

один корень, т.е. можем записать: A   X   t  0 хотя бы для одного t   0,1 .

X
Так как X   t  0 , когда  t   X , или t   . Поскольку 0  t  1 , следовательно должно

X
выполняться 0    1 , или 0   X   , что очевидно выполняется только в случае, если

случайная величина X : и X  0 , и X   . Т.е. вероятность нашего события равна вероят-
ности попадания случайной величины X в интервал   , 0  . Теперь можем найти искомую

вероятность: P  A  P   X  0 . Из условия известно, что X – случайная величина с

непрерывной функцией распределения FX ( x) , тогда

0
P  A  P   X  0   dFX ( x) .

Пример 2.8. Случайный процесс представляет собой   t   V , где V – непрерывная случай-

ная величина с плотностью pV  x  . Найти одномерную и двумерную плотности распределе-

ния процесса   t  .

Решение:
1. Найдем одномерную функцию распределения случайного процесса и его одномерную
плотность. Согласно определению F ( x, t )  P((t )  x)  P(V  x)  FV ( x ) , т.е. функция

распределения случайного процесса   t  совпадает с функцией распределения случайной

величины V . Очевидно, что и плотности распределения случайного процесса   t  : p ( x, t ) и

dFV ( x )
случайной величины V : pV  x  будут совпадать. По определению плотности pV ( x)  ,
dx
x dFV ( x)
где FV ( x)   pV ( y ) dy , т.к. F ( x , t )  FV ( x ) , то и p  x, t   pV  x   .
 dx

35
Теория случайных процессов

2. Попробуем найти двумерную плотность случайного процесса. Запишем по определению


функцию распределения:

F ( x1 , x2 , t1 , t2 )  P((t1 )  x1 , (t2 )  x2 )  P(V  x1 ,V  x2 )  P(V  min( x1 , x2 ))  FV  min( x1 , x2 ) 

По определению двумерной плотности:

 2 F ( x1 , x2 ,t1 ,t2 )  2 FV (min ( x1 , x2 ))


p ( x1 , x2 , t1 , t 2 )  
x1x2 x1x2

Найдем первую частную производную:

FV (min ( x1 , x2 ))  (min ( x1 , x2 )) 0, x  x


 pV (min ( x1 , x2 ))   pV (min ( x1 , x2 ))   1 2 
x1 x1 1, x1  x2
0, x1  x2 0, x1  x2
  
 pV (min ( x1 , x2 )), x1  x2  pV ( x1 ), x1  x2

Запишем полученное выражение в более компактном виде, используя функцию Хэвисайда,


которая определяется так:

0, x  0 0, x  x  0 0, x  x


( x )   или ( x2  x1 )   2 1   1 2
1, x  0 1, x2  x1  0 1, x1  x2

F (min ( x1 , x2 )) 0, x1  x2
Т.е. можем переписать:   pV ( x1 )  ( x2  x1 );
x1  pV ( x1 ), x1  x2

 2 F ( x1 , x2 ,t1 ,t2 )   pV ( x1 )( x2  x1 )  ( x2  x1 )


Теперь можем найти:   pV ( x1 )  ;
x1x2 x2 x2

Т.к. производной от функции Хэвисайда является дельта функция, определяющаяся так:

 , x2  x1
( x2  x1 )   ;
0, x2  x1

То можем переписать окончательно выражение для двумерной плотности:

 2 F ( x1 , x2 ,t1 ,t2 )
p ( x1 , x2 , t1 , t2 )   pV ( x1 )  ( x2  x1 );
x1x2

36
2. Законы распределения случайных процессов

На самом деле очевидно, что это формальное выражение для двумерной плотности. Двумер-
ной плотности в обычном ее смысле конечно же не существует.

Можно иначе рассуждать, показывая, что двумерной плотности не существует.

По определению двумерной плотности:

Px1 (t1 ) x1 x1 , x2 (t2 ) x2 x2 


p ( x1 , x2 , t1 , t 2 )  lim 
x1 ,x2 0 x1 x2
Px1 V  x1 x1 , x2 V  x2 x2  PV  x1 , x1 x1   x2 , x2 x2 
 lim  lim
x , x  0
1 2 x1 x2 x , x  0
1 2 x1 x2

Рассмотрим событие V   x1 , x1 x1    x2 , x2 x2  , т.е. случайная величина V , должна при-


надлежать пересечению двух интервалов, но указанные интервалы пересекаются тогда и
только тогда, когда x1  x2 , во всех других случаях пересечение пусто. Пусть например,

x1  x2 , тогда x1  x1  x2 в силу малости x1 . Поэтому продолжаем оценивать предел по-

ложив: x1  x2  x .

PV  x1 , x1 x1  x2 , x2 x2  PV  x, x x 


lim  lim 2   , где x  min   x1 , x2 
x , x 0
1 2 x1 x2  1 2 
min  x1 , x2  0 min( x , x )

Т.е. двумерная функция плотности действительно не существует.

Пример 2.9. Пусть случайный процесс   t     t   V , t  0,1 , где V – гауссовская случай-

ная величина с параметрами a и  2 , t  – неслучайная функция. Найти характеристиче-

скую функцию случайного процесса   t  .

Решение. Согласно определению, характеристическая функция конечномерного распределе-


  n 
ния случайного процесса: g (u1 , t1 ,..., un , tn )  M exp  i   (tk )uk  .
  k 1 

n
Введем обозначение, пусть    u k  (tk ) , тогда в силу того, что  (tk )   (tk ) V , можем запи-
k 1
n n n
сать    uk   (t k )   u k  (t k )  V , выносим V за знак суммы:   V  u k   (t k ) ,  – гаус-
k 1 k 1 k 1

совская случайная величина, ее математическое ожидание и дисперсия равны:

37
Теория случайных процессов

 n
  n  k
M    M V   u k  (t k )   M V   M   uk  (t k )   a  u k   (t k )  m
 k 1   k 1  k 1

2
 n
  n 
D   D V   uk (tk )   т.к. D V    t    DV    2 t    2  uk   (tk )   D .
 k 1   k 1 

Учитывая, что для нормально распределённой случайной величины  с параметрами распре-


деления m и D   2 характеристическая функция имеет вид:

 D 
 
g  (u)  M e iu  expium  u 2
2 
,

получаем выражение для характеристической функции (t):

  n 
   1 
g  (u1 , t1 ,, u n , t n )  M exp i  (t k )u k   M e i  g  (1)  expim  D  .
2 
  k 1  

Задачи по теме для самостоятельного решения

1. Случайный процесс (t ) формируется так: на оси Ot имеется простейший поток собы-
тий с интенсивностью  . Случайный процесс попеременно принимает значения +1 и –
1, при наступлении очередного события в простейшем потоке случайный процесс скач-
ком меняет свое состояние с +1 на –1 или наоборот. Записать одномерный закон рас-
пределения этого процесса в виде функции распределения.

2. Пусть U – случайная величина, заданная функцией распределения FU  x  . Найти се-

мейство конечномерных распределений случайного процесса   t   U  t , t  0 .

3. Случайный процесс задан соотношением   t   X    t , t  0 , где X – случайная вели-

чина с непрерывной функцией распределения, а   1 – детерминированная постоян-


ная. Пусть D   0,   – некоторое конечное или счетное подмножество. Найти вероят-

ность события: P   t   0 хотя бы для одного t  D .

38
2. Законы распределения случайных процессов

4. Случайный процесс задан в виде   t   V  t 2 , где V – непрерывная случайная величина,

распределенная по нормальному закону с параметрами a и  2 . Найти многомерную


плотность распределения случайного процесса   t  .

5. Случайный процесс   t  представляет собой аддитивную смесь некоррелированных

между собой процессов: сигнала s  t  и помехи n  t  , т.е.   t   s (t )  n(t ). Известно,

что сигнал есть детерминированная функция s  t   A  cos  B  t    , а помеха n  t  –

нормальный стационарный шум с нулевым средним и дисперсией  2 . Записать одно-


мерный закон распределения этого процесса.

6. Пусть   , t     t , где t  0 и  – случайная величина, плотность распределения ко-

торой имеет вид p  x   e  x , x  0 . Найти n -мерные функции распределения данного

случайного процесса. При каких n существуют n -мерные плотности распределения?

7. Пусть случайный процесс   t     t   V , t   0,1 , где V – некоторая случайная вели-

чина, с функцией распределения F V


 x  , а   t   0 . Найти многомерную функцию
распределения случайного процесса   t  .

8. Пусть случайный процесс   t  , t  0 , определяется соотношением:   t   U  t  V , где

U и V – независимые случайные величины с функциями распределения FU  x  и

F V
 y  . Определить вид реализаций данного процесса   t  и его одномерную и n -
мерную функции распределения.

9. В условиях задачи 8 построить пучок траекторий процесса   t  , если U  R  1, 0  и

V  R  0,1 .

10. Случайный процесс   t   X  t 2  Y  t , t  0, где X , Y – независимые случайные величи-

ны с одинаковым гауссовским распределением N  0,1 . Найти вероятности следующих

событий:
a) A   траектория процесса монотонно не убывает
1 ;

 
b) A  min   t   0 .
2
t 0

39
Теория случайных процессов

11. Найти плотность вероятности гармонического колебания   t   A  sin  t    . Имею-

щего постоянными амплитуду A и частоту  , но случайную начальную фазу  , рас-

пределенную равномерно на интервале   ,   .

12. Случайный процесс задан соотношением   t   X  2t  Y  t , t  0, где


2 2
X ,Y -

независимые случайные величины, имеющие гауссовское распределение N  0,1 .

Найти вероятности следующих событий:

a) A    t  монотонно не убывает
1 ;
b) A    t  неотрицателен
2 ;
c) A    t   0 хотя бы для одного t  D , где D   0,   – некоторое конечное или
3

счетное подмножество.

d) A    t   0 хотя бы для одного t   0,   .


4

40
3. Основные характеристики случайных процессов

3. Основные характеристики случайных процессов

Конечномерные распределения дают исчерпывающее описание случайного процесса. Одна-


ко существует большое число задач, для решения которых оказывается достаточным исполь-
зование основных характеристик случайного процесса, которые в более краткой и сжатой
форме, отражают основные свойства случайного процесса. Такими характеристиками явля-
ются моменты первых двух порядков. В отличие от случайных величин, для которых мо-
менты являются числами и поэтому их называют числовыми характеристиками, моменты
случайной функции являются неслучайными (детерминированными) функциями, их назы-
вают характеристиками случайной функции (процесса).

Математическое ожидание случайного процесса

Определение 1. Математическим ожиданием случайного процесса X (t ) или его стати-


стическим средним значением называется неслучайная (детерминированная) функция
mX (t ), t  T , определяемая соотношением:


m X (t )  M  X (t )   xdF ( x, t ).


Значение этой функции при любом t равно математическому ожиданию соответствующего


сечения случайного процесса.

Математическое ожидание, есть «средняя» функция, вокруг которой происходит разброс


реализаций случайного процесса.

41
Теория случайных процессов

Свойства математического ожидания случайного процесса

1. Математическое ожидание неслучайной функции  (t ) равно самой неслучайной функции:

M  (t )  (t ) .

2. Неслучайный множитель  (t ) можно выносить за знак математического ожидания:

M (t )  X (t )  (t )  M  X (t )  (t )  mX (t ) .

3. Математическое ожидание суммы двух случайных функций равно сумме математических


ожиданий слагаемых:

M  X1 (t )  X 2 (t )  M  X1 (t )  M  X 2 (t ) ;

4. Математическое ожидание произведения двух случайных функций X 1 (t ) и X 2 (t ) , равно

произведению математических ожиданий, если сечения X 1 (t ) и X 2 (t ) некоррелирова-

ны при каждом t    ,   :

M  X 1 (t )  X 2 (t )  M  X1 (t )  M  X 2 (t ).

5. Математическое ожидание суммы случайной и неслучайной функций равно сумме мате-


матического ожидания случайной X (t ) и неслучайной функции  (t ) :

M  X (t )  (t )  M  X (t )  (t ).

Пример 3.1. Найти математическое ожидание случайного процесса (t )  U cos t , где U –
случайная величина, математическое ожидание которой MU  2 .

Решение: Множитель cos t неслучайная функция, которую, используя свойство 2 можно


вынести за знак математического ожидания:

M  (t )  M U cos  t   cos  t  M U   2cos  t  .

42
3. Основные характеристики случайных процессов

Дисперсия случайного процесса

Определение 2. Дисперсией случайного процесса X (t ) называется неслучайная (детерми-

нированная) неотрицательная функция DX (t ) , которая при любом значении аргумента t рав-


на дисперсии соответствующего сечения случайного процесса:

D X (t )  M  X (t )  m X (t ) 
2
    x m

X (t )  dF ( x,t ) .
2

Дисперсия характеризует разброс реализаций относительно средней траектории m X (t ) .

Свойства дисперсии случайного процесса

1. Дисперсия неслучайной функции равна нулю:

D (t )  0 .
2. Дисперсия суммы случайной функции X (t ) и неслучайной функции (t ) равна дисперсии
случайной функции:

D  X (t )    t   DX (t ) .

3. Дисперсия произведения случайной функции X (t ) на неслучайную функцию  ( t ) равна


произведению квадрата неслучайного множителя на дисперсию случайной функции:

D (t )  X (t )   (t )  DX (t ) .
2

4. Дисперсия суммы двух случайных функций X 1 (t ) и X 2 (t ) равно сумме дисперсий слага-

емых, если сечения X 1 (t ) и X 2 (t ) некоррелированы при каждом t    ,   :

  
D X1 (t )  X 2 (t )  D X 1 (t )  D X 2 (t ) .   

Пример 3.2. Найти дисперсию случайного процесса (t )  U  sin(t ) , где U – случайная вели-
чина, дисперсия которой D (U )  6 .

Решение: Множитель sin ( t ) детерминированная функция, которую, используя свойство 3

можно вынести за знак дисперсии: D  (t )  D U  sin  t   sin  t   D U   6sin  t  .
2 2

43
Теория случайных процессов

U V
Пример 3.3. Пусть случайный процесс, определяется соотношением (t )  , где U и
t
 1
V  независимые случайные величины, имеющие гауссовское распределение N   0,  .
 2
Найти математическое ожидание и дисперсию случайного процесса ( t ) и вероятность

 3
P  (t )   для произвольного t  0 .
 t

Решение. Найдем основные характеристики случайного процесса ( t ) . В силу того, что U и


V гауссовские с параметрами распределения MU  MV  0; DU  DV  1 2 и независимые
случайные величины, можем записать:

U  V  1 1
M  (t )  M    M U   M V   0 ,
 t  t t

U  V  1 1 1
D  (t )  D    2 D U   2 D V   2 .
 t  t t t

Так как сумма гауссовских случайных величин U  V имеет гауссовское распределение с


параметрами a  0,  2  1 , то

U  V 
F ( x, t )  P  (t )  x  P   x   P U  V  xt   ( xt ) ,
 t 
где ( z ) – функция Лапласа:

z
1
(z)   exp u du.
2

2 

Тогда искомая вероятность определяется следующим образом:

 3 3 3
P   (t )    F ( , t )  F (  , t )   (3)   ( 3)  0.997 .
 t t t

Среднеквадратическое отклонение случайного процесса

Определение 3. Среднеквадратическим или стандартным отклонением случайного про-


цесса X  t  называют неслучайную функцию   t   DX (t ) .

Размерность функции  x (t ) равна размерности случайного процесса X (t ) . Значения реали-


заций случайного процесса при каждом t отклоняются от математического ожидания mx (t )
на величину порядка  x (t ) .

44
3. Основные характеристики случайных процессов

Центрированный случайный процесс



Определение 4. Центрированным случайным процессом  (t ) называется процесс, который

получится, если из случайного процесса   t  вычесть его математическое ожидание:



(t )  (t )  m (t ) ;

Свойства центрированного случайного процесса

1. Прибавление к случайной функции  (t ) неслучайного слагаемого  (t ) не изменяет ее


 
центрированной функции, т.е. если 1 (t )   2 (t )   (t ) , то 2 (t )  1 (t ) .

2. При умножении случайной функции (t ) на неслучайный множитель  (t ) ее центриро-

ванная функция умножается на этот же множитель, т.е. если 1 (t )   (t )   (t ) , то



1 (t )   (t )   (t )  M  (t )   (t )   (t )   (t )   (t )  M  (t ) 

  (t )   (t )  M  (t )    (t )   (t )

3. Математическое ожидание центрированного случайного процесса тождественно равно

 

нулю: M  2 (t )   M (t )  m (t )   0 .
 

Реализации центрированного случайного процесса (t ) представляют собой отклонения
случайного процесса (t ) от его математического ожидания. Значения отклонений могут
иметь как положительные, так и отрицательные значения, а в среднем равны нулю. Как ука-
зывалось выше, дисперсия представляет собой неслучайную функцию, характеризующую
степень разброса реализации случайного процесса около его математического ожидания, т.е.

степень разброса реализаций центрированного случайного процесса  ( t ) .

Математическое ожидание и дисперсия – важные, но недостаточные характеристики для


описания основных свойств случайных процессов. В этом можно убедиться, обратившись к
рисунку, на котором изображены реализации двух случайных процессов X (t ) и Y (t ), мате-
матические ожидания и дисперсии которых равны.

45
Теория случайных процессов

Внутренняя структура процессов совершенно различна. Первый процесс Х(t) имеет более
«нервный» характер, Y (t ) – изменяется более «плавно». Но это не отражает ни математиче-
ское ожидание, ни дисперсия. Для описания динамики изменения случайных процессов вво-
дится специальная характеристика – корреляционная функция. Она характеризует степень
сходства между сечениями процесса X ( t1 ) и X (t 2 ). Эта функция описывает процесс в целом.

Функция корреляции случайного процесса

Определение 5. Функцией корреляции случайного процесса (t) называется математическое


ожидание произведения сечений случайного процесса в моменты времени t1 и t2 .
 
R (t1 , t 2 )  M  (t1 )   (t 2 )    x x
1 2
dF ( x1 , t1 , x2 , t 2 ) .
 

Она определяется двумерной функцией распределения F ( x1 , t1 , x2 , t2 ) и в общем случае зави-

сит от двух аргументов: t1 и t2 . Эту функцию R (t , t ) называют также функцией автокор-


1 2

реляции.

Очевидно, что для процесса Y (t ) , изображенного на рисунке (б) выше, зависимость между
сечениями будет более тесной, чем для X (t ) . У процесса X (t ) эта зависимость затухает
очень быстро по мере увеличения расстояния между сечениями. Для Y (t ) характерна боль-
шая предсказуемость реализаций. Можно с большой вероятностью утверждать, что если реа-
лизация процесса Y (t ) была в какой-то момент времени t выше его математического ожи-

дания mY (t ) , то и ее продолжение будет лежать выше кривой mY (t ) . Между сечениями про-

цесса X (t ) : X (t1 ) и X (t2 ) практически нет вероятностной зависимости при достаточном

46
3. Основные характеристики случайных процессов

удалении сечений друг от друга (эта зависимость быстро уменьшается по мере увеличения
разности t1  t2 ). Очевидно, что корреляционные функции случайных процессов Y (t ) и X (t )

различны. Корреляционная функция RY (t1 , t2 ) убывает намного медленнее (с увеличением

разности t1  t 2 ), чем корреляционная функция RX (t1 , t2 )

Свойства функции корреляции

Рассмотрим основные свойства функции корреляции RX (t1 , t2 ) случайного процесса X (t ).

1. Функция корреляции является симметрической функцией своих аргументов, т.е. при пере-
становке аргументов корреляционная функция не изменяется: R (t1 , t2 )  R (t2 , t1 ) .
Для стационарных процессов функция корреляции – чётная функция
R ( )  R (t2  t1 )  R (t1  t2 )  R ( ) .

2. Для корреляционной функции выполняется неравенство:

R (t1 , t2 )  R (t1 , t1 ) R (t2 , t2 ) .


Для стационарных случайных процессов это неравенство означает, что в нуле функция
корреляции достигает наибольшего значения.

3. Если случайный процесс задан соотношением X (t )   (t )  Y (t ) где  (t ) – неслучайная


функция, Y (t ) - случайный процесс, то
RX (t1 , t2 )   (t1 )   (t2 )  RY (t1 , t2 ).

4. Если случайный процесс задан соотношением  (t )   (t )   (t ) т.е. является суммой двух


случайных процессов, тогда его корреляционная функция равна сумме корреляционных
функций слагаемых R (t1 , t 2 ) , R (t1 , t2 ) и взаимной корреляционной функции R (t1 , t2 ),

которая прибавляется дважды с разным порядком следования аргументов:

R (t1 , t2 )  R (t1 , t2 )  R (t1 , t2 )  R  (t1 , t2 )  R  (t1 , t2 )

5. Если случайный процесс задан соотношением  (t )   (t )   (t )   (t )  (t ) , то

R (t1 , t 2 )  (t1 )  (t 2 )  R (t1 , t 2 )   (t1 )   (t 2 )  R (t1 , t2 ) 


 (t1 )   (t 2 )  R (t1 , t 2 )  (t1 )   (t 2 )  R (t1 , t 2 )

где  (t ) и  (t ) – неслучайные функции.

47
Теория случайных процессов

6. Если для стационарного случайного процесса при    случайные величины  (t ) и


 (t   ) стохастически независимы, то:

lim R( )  lim M  (t )   (t   )  M  (t )  M  (t   )  m2  R()


   

В этом случае среднее значение процесса можно выразить через его функцию корреля-

ции: m  R() .

Используя определение дисперсии процесса, запишем:

 2  R (0)  m2  R (0)  R ( ) .

Таким образом, среднее значение и дисперсию стационарного случайного процесса


можно найти, если известна его функция корреляции.

7. Функция корреляции случайного процесса является положительно определённой, то есть


для любых n произвольных действительных чисел 1 , 2 ,..., n выполняется неравен-
ство:
2
   
 R (t j , t k ) j  k  M  (t j )(t k ) j  k   M  (t k ) k   0 .
j ,k  j ,k  k 

8. Корреляционная функция суммы случайных процессов равна сумме корреляционных


функций слагаемых плюс сумма всех взаимных корреляционных функций этих слагае-
n
мых. Т.е. для  (t )   i (t ) :
i 1

R (t1 , t 2 )   Ri (t1 , t 2 )   Ri  j (t1 , t 2 ) .


i i j

Для некоррелированных слагаемых с нулевыми средними значениями имеем:

R (t1 , t 2 )   Ri (t1 , t 2 ) .


i

Для двух случайных процессов (t) и (t) вводится понятие взаимной функции корреляции
или функции кросс-корреляции:

R  (t1 , t2 )  M (t1 ), (t2 ) .

48
3. Основные характеристики случайных процессов

она характеризует степень сходства сечений одного случайного процесса с различными


сечениями другого случайного процесса.

Совместная корреляционная функция двух случайных процессов (t) и (t) определяется


как матричная функция:

 R (t1 , t 2 ) R (t1 , t 2 ) 


 R (t , t ) R (t , t )  ,
  1 2  1 2 

все элементы которой определены выше.

Пример 3.4. Найти функцию корреляции случайного процесса (t )  U sin(t ) , где U – слу-
чайная величина, числовые характеристики которой: MU  0; DU  1 .

Решение: По определению R (t1 , t2 )  M  (t1 )   (t2 ) , тогда у нас

R (t1 , t2 )  M  (t1 )   (t2 )  M U sin t1 U sin t2   M U 2 sin t1  sin t2   sin t1  sin t2  M U 2  


 sin t1  sin t2

Использовали: DU  MU 2  M 2U  MU 2 , т.к. MU  0.

Пример 3.5. Пусть случайный процесс (t )  (t )  V , t  T , где V  некоторая случайная
величина, с математическим ожиданием MV  mV и дисперсией DV , а  (t ) – неслучайная

функция. Найти математическое ожидание m (t ) и функцию корреляции случайного про-

цесса R (t1 , t2 ) .

Решение. Согласно определению и свойствам математического ожидания случайного про-


цесса: m (t )  M  (t )  M  (t )  V    (t )  M V   m   (t ) .
V

Можем найти функцию корреляции:

R (t1 , t2 )  M  (t1 )   (t2 )  M V   (t1 ) V    (t2 )   (t1 )   (t2 )  M V 2    (t1 )   (t2 )   DV  mV2 
2 2 2 2
т.к. DV  MV  M V , MV  DV  M V .

Частным случаем корреляционной функции является функция ковариации, она представ-


ляет собой статистически усредненное произведение значений центрированной случайной

49
Теория случайных процессов


функции (t )  (t )  m (t ) в моменты времени t1 и t2 . В терминах теории вероятностей ко-

вариационная функция является вторым центральным моментом случайного процесса.

Функция ковариации случайного процесса

Определение 6. Функцией ковариации (ковариационной функцией или автоковариации) слу-


чайного процесса (t) называется математическое ожидание произведения центрированных
сечений случайного процесса в моменты времени t1 и t2 :

  
 (t )  m (t )    (t )  m (t )  

K (t1 , t2 )  M   (t1 )  (t2 )   M  
 
1 1 2 2

 
.
    x  m  x
 
1 1 2
 m2  dF ( x1 , t1 , x2 , t2 )

Ковариационная функция K  (t , t ) характеризует не только степень зависимости между


1 2

двумя сечениями, но и разброс этих сечений относительно математического ожидания


m (t ) .

Замечание 1. Для центрированных случайных процессов функция автоковариации тожде-


ственна функции автокорреляции.

Нетрудно показать, что

K  (t1 , t 2 )  R (t1 , t 2 )  m ( t1 ) m (t 2 )

Замечание 2. При t1  t2  t функция ковариации совпадает с дисперсией D (t ) случайного

процесса:

K  ( t , t )  D ( t )    ( t ) .
2

Из этого следует, что для случайных процессов и функций основными характеристиками яв-
ляются функции математического ожидания и корреляции (ковариации), особой необходи-
мости в отдельной функции дисперсии нет.

50
3. Основные характеристики случайных процессов

Свойства функции ковариации

1. При перестановке аргументов ковариационная функция не изменяется (свойство симмет-


рии):
K  (t1 , t 2 )  K  (t 2 , t1 ).

2. Прибавление к случайному процессу  ( t ) неслучайного слагаемого  ( t ) не изменяет его


ковариационной функции. Т.е. если 1 (t )   (t )   (t ) , то

K1 (t1 , t2 )  K (t1 , t2 ).

3. При умножении случайной функции  ( t ) на неслучайный множитель  ( t ) ее ковариаци-

онная функция умножается на произведение  (t1 )   (t2 ) . Т.е. если 1 (t )   (t )   (t ) , то

K1 (t1 , t2 )  K (t1 , t2 )   (t1 )   (t2 ).

4. Абсолютное значение ковариационной функции не превышает среднего геометрического


дисперсий соответствующих сечений:

K  (t1 , t2 )  D (t1 ) D (t2 ) .

5. Функция ковариации случайного процесса является положительно определённой:

 a (t1 ) a (t2 ) K   t1 ,t2  dt1 dt2  0


 B  B 

где a ( t ) – произвольная функция аргумента t , B – произвольное подмножество множества


T , на котором определен случайный процесс  (t ).

График ковариационной функции может выглядеть так:

Кроме того, этот рисунок иллюстрирует свойство 1 (симметрии) ковариационной функции:


K  (t1 , t 2 )  K  ( t 2 , t1 )

51
Теория случайных процессов

На рисунке ковариационная функция изображена в виде поверхности и эта поверхность


симметрична относительно вертикальной плоскости, проходящей через биссектрису угла
t1Ot2 .

Нормированная функция ковариации

Определение 7. Величину
K (t1 , t2 ) K (t1 , t2 )
r (t1 , t2 )  
  (t )  (t )
1 2 K (t1 , t1 ) K (t2 , t2 )

называют коэффициентом корреляции случайного процесса или нормированной функци-


ей ковариации.

В общем случае коэффициент корреляции является мерой линейной зависимости двух сече-
ний  (t1 ) и (t 2 ) случайного процесса, то есть он показывает, с какой точностью одна из

случайных величин (t1 ), может быть линейно выражена через другую (t 2 ) .

Замечание 3: Абсолютное значение нормированной функции ковариации для любых t 1 , t2

не превосходит единицы: r (t 1 , t 2 )  1 . Значение нормированной функции ковариации для

t 1  t2  t равно единице: r (t , t )  1

Взаимная функция ковариации

Определение 8. Взаимной функцией ковариации двух случайных процессов  (t ) и  (t )

  

называется неслучайная функция K  (t1 , t2 )  M (t1 ) (t2 ) .
 

Некоррелированными называют два случайных процесса, взаимная ковариационная функ-


ция которых тождественно равна нулю:

K   (t1 , t2 )  0

Коррелированными в противоположном случае.

52
3. Основные характеристики случайных процессов

Свойства взаимной функции ковариации

Пусть даны случайные процессы X ( t ), Y (t ) и (t ),  ( t ) – неслучайные функции.

1. K X (t 1 , t2 )  M  X (t1 )  Y (t1 )   mX (t1 )  mY (t2 )

2. K X ,Y (t 1 , t2 )  K Y , X (t 1 , t 2 )

3. K X , Y   (t 1 , t2 )  K X ,Y (t 1 , t2 )

4. K  X , Y (t 1 , t2 )  (t1 )  (t2 )  K X ,Y (t 1 , t2 )

5. K X ,Y (t 1 , t2 )   X  t1   Y  t2 

Нормированная взаимная функция ковариации

Определение 9. Нормированной взаимной функцией ковариации случайных процессов


называется неслучайная функция:

K X ,Y (t1 , t2 )
rX ,Y (t1 , t2 ) 
 X (t )   Y (t )
1 2

Замечание 4: Абсолютное значение нормированной взаимной функции ковариации для лю-

бых t 1 , t2 не превосходит единицы: rX ,Y (t 1 , t2 )  1 .

Пример 3.6. Найти функцию ковариации случайного процесса ( t )  U sin(t ) , где U – слу-
чайная величина, числовые характеристики которой: MU  0; DU  1 .

Решение: По определению ковариационной функции:

K  (t1 , t 2 )  M   (t1 )  (t 2 )   M  (t )  m (t )    (t )  m (t )  ,


 

 
 
1 1 2 2

Найдем значение m (t1 ) и m (t2 ) :

m (t1 )  M U sin (t1 )  MU  M sin (t1 )  0; m (t 2 )  M U sin (t2 )  MU  M sin (t 2 )  0.

  
Тогда: K (t1 , t2 )  M  (t1 )  m (t1 )   (t2 )  m (t2 )  M  (t1 )   (t2 )  R (t1 , t2 ) .

Ранее было найдено:

53
Теория случайных процессов

R (t1 , t2 )  M  (t1 )   (t2 )  M U sin t1 U sin t2   M U 2 sin t1  sin t2   sin t1  sin t2  M U 2  


 sin t1  sin t2

Использовали DU  MU 2  M 2U  MU 2 , т.к. MU  0.

Таким образом, ковариационная и корреляционная функции тождественны для любых мо-


ментов времени t1 и t2 :

K (t1 , t2 )  R (t1 , t2 )  sin t1  sin t2

Пример 3.7. Пусть случайный процесс  (t )  (t )  V , t  T , где V  некоторая случайная


величина, с математическим ожиданием MV  mV и дисперсией DV , а (t )  неслучайная

функция. Найти дисперсию D (t ) и функцию ковариации случайного процесса K  (t1 , t 2 ) .

Решение. Согласно определению математического ожидания случайного процесса:


m (t )  M  (t )  M  (t )  V    (t )  M V   mV   (t ) .

Найдем функцию корреляции:

R (t1 , t2 )  M  (t1 )   (t2 )  M V   (t1 ) V   (t2 )   (t1 )   (t2 )  M V 2    (t1 )   (t2 )   DV  mV 2 

 
K (t1 , t2 )  M  (t1 )  m (t1 )    (t2 )  m (t2 )   R (t1 , t2 )  m (t1 )m (t2 ) 

  (t1 )   (t2 )   DV  mV 2   mV 2   (t1 )   (t2 )  DV   (t1 )   (t2 ) .

Откуда можем найти дисперсию случайного процесса, т.к.


K  (t , t )  D (t )

тогда у нас:
D (t )  K (t , t )  DV   2 (t ) .

Пример 3.8. Пусть задан случайный процесс  (t )  U  t , t  T , где U – некоторая случайная

величина, с математическим ожиданием mU  4 и дисперсией DU  10 . Найти дисперсию

D (t ) и функцию ковариации случайного процесса K  (t1 , t 2 ) .

Решение. Найдем математическое ожидание: m (t )  M (t )  M U  t   t  M (U )  4t .

54
3. Основные характеристики случайных процессов


Найдем центрированную функцию: (t )  (t )  m (t )  U  t  4t  (U  4)  t ;
 
Откуда  (t1 )  U  4   t1 ,  (t2 )  U  4   t2 ;

Находим функцию ковариации:

K  (t1 , t2 )  M  (t1 )  (t2 )   M U  4  t1 U  4  t2   t1  t2 M U  4    t1  t2 DU  10t1  t 2


 
2

   
2
Теперь можем найти дисперсию, для чего положим t1  t2  t : K (t , t )  D (t )  10t ;

Пример 3.9. Найти нормированную функцию ковариации случайного процесса  ( t ) по его из-
вестной функции ковариации случайного процесса K  (t1 , t 2 )  5 cos (t 2  t1 ) .

Решение. Искомая нормированная ковариационная функция будет иметь вид:

K  (t1 , t2 ) K  (t1 , t2 )
r (t1 , t2 )   
  (t1 )    (t 2 ) K  (t1 , t1 )  K  (t 2 , t 2 )
5cos (t 2  t1 )
  cos (t 2  t1 )
5 cos (t1  t1 )  5cos (t 2  t2 )

n
Пример 3.10. Пусть случайный процесс  (t )   Yi  i (t ), t  T , где Yi – некоррелированные
i 1

случайные величины с математическими ожиданиями mi и дисперсиями Di , а i (t )  за-

данные на T детерминированные функции. Найти m (t ) , D (t ) и R (t1 , t2 ) .

Решение. Согласно определениям математического ожидания и ковариационной и корреля-


ционной функций имеем:

n  n n
m (t )  M  (t )  M  Yi i (t )   M Yi   i (t )   mi  i (t ) ,
 i 1  i 1 i 1

 n n
 n n 
R (t1 , t2 )  M  (t1 )   (t2 )  M  Yi i (t1 ) Yi i (t2 )   M  Yi Yi  i (t1 )i (t2 )  
 i 1 i 1   i 1 i 1 
n n n n n
   M Yi  Y j    i (t1 )   i (t 2 )    M Yi   M Yi    i (t1 )   i (t 2 )   M Yi 2   i (t1 )   i (t 2 ) 
i 1 i 1 i 1 i 1 i 1
i j

55
Теория случайных процессов

n n n
   mi  m j  i (t1 )   i (t 2 )    Di  mi 2   i (t1 )   i (t 2 ) ,
i 1 i 1 i 1

n n n
K (t1 , t2 )  R (t1 , t2 )  m (t1 )  m (t2 )   mi  m j i (t1 )  i (t2 )    Di  mi 2  i (t1 )  i (t2 ) 
i 1 j 1 i 1
n n n n
 mi  i (t1 ) mi  i (t2 )    Di  i (t2 )   j (t2 ) ,
i 1 i 1 i 1 j 1

n
D (t )  K  (t , t )   Di   i 2 (t 2 ) .
i 1

Задачи по теме для самостоятельного решения

1. Найти математическое ожидание, ковариационную функцию и дисперсию случайного


процесса (t )  U sin 3t ; где U  случайная величина, mU  10, DU  0, 2 .

2. Дан случайный процесс (t )  t  ,   const , t  0,  дискретная случайная вели-


чина, заданная рядом распределения:

i –1 0 1
pi 0,25 0,5 0,25

Найти математическое ожидание, дисперсию и ковариационную функцию случайного


процесса (t )  t  . .

3. Случайный процесс выражается через элементарную случайную функцию, которая


имеет вид Y (t )  X  cos t , где X – дискретная случайная величина, закон распределе-
ния которой дан таблицей:

xi 1 2 3 4
pi 0,5 0,1 0,2 0,2

Найти значение корреляционной функции K Y ( t1 , t 2 ) , при t1  0 , t 2   .

4. Найти нормированную взаимную ковариационную функцию случайных процессов


(t )  Ut и (t )  U  t 1 ; где U - случайная величина, DU  10 .

56
3. Основные характеристики случайных процессов

5. Известны математические ожидания m ( t )  2t  1, m (t )  t  1 и ковариационные функ-

4 t2 t1 2
ции K  (t1 , t 2 )  t1  t2 , K  (t1 , t2 )  e некоррелированных случайных процессов

 (t ), (t ) . Найти математическое ожидание, ковариационную функцию случайного

процесса   t     t     t  .

6. Найти математическое ожидание m (t ) , ковариационную функцию K  (t1 , t 2 ) , диспер-

сию D (t ) случайного процесса (t )  U sin t  V cos t , где U , V - некоррелированные

случайные величины, mU  1, mV  8, DU  DV  4 .

7. Заданы случайные функции (t )  U cos t  V sin t , (t )  U cos 3t  V sin 3t , где U , V - не-
коррелированные случайные величины, mU  0, mV  0, DU  DV  5 . Найти нормирован-
ную взаимную ковариационную функцию.

8. Найти математическое ожидание m (t ) , ковариационную функцию K  (t1 , t 2 ) , диспер-


3 t 2
сию D (t ) случайного процесса (t )  U  sht  3e  V  t , где U , V  некоррелирован-

ные случайные величины, U  R  3;3 , V  P 1, 2 .

9. Найти ковариационную функцию K  ( t1 , t 2 ) и дисперсию D (t ) , если (t ), (t )  некор-


2
релированные случайные процессы,  (t )  t  (t )  (t )  sin 2t  cos 2t , и даны ковариа-

ционные функции K (t1 , t2 )  1  cos(t2  t1 ); K (t1 , t2 )  exp   t2 t1  .

10. Даны центрированные случайные процессы (t ), (t ). Для которых известно:

K (t1 , t2 )  4sin t1 sin t2 ; K (t1 , t2 )  81sin t1 sin t2 ; K (t1 , t2 )  18sin t1 sin t2 . Найти матема-

тическое ожидание m (t ) , ковариационную функцию K  ( t1 , t 2 ) , дисперсию D (t ) , нор-

мированную ковариационную функцию r (t1 , t 2 ) случайного процесса

 (t )  e
2 t t
 (t )  sin 4t  e  (t ).

57
Теория случайных процессов

4. Стационарные случайные процессы. Эргодические процессы

Важным классом случайных процессов являются стационарные случайные процессы. Стаци-


онарные случайные процессы – это такие процессы, которые на различных достаточно
больших участках времени протекают приблизительно одинаково.

Графики реализаций таких процессов – колеблющиеся линии примерно одинакового ха-


рактера. Причем средняя амплитуда, средняя частота колебаний, средний уровень, около
которого происходят колебания, вычисленные на достаточно большом промежутке време-
ни, существенно не меняются при сдвиге промежутка по оси времени.

Можно сказать, что все характеристики описанных процессов не меняются с изменени-


ем начала отсчета времени. В частности, математическое ожидание и дисперсия такого
процесса должны быть постоянными, иначе процесс вел бы себя различно при переходе
от сечения к сечению.

К таким процессам относятся: колебания самолета при «автопилоте», колебания напря-


жения в электрической цепи, давление газа в газопроводе, процесс качки корабля на стацио-
нарной волне и т.д.

Стационарные процессы проще для изучения, поскольку описываются более простыми ма-
тематическими зависимостями. Понятие стационарности случайного процесса отражает
идею неизменности (стационарности) условий, в которых он протекает.

Свойство стационарности означает независимость некоторых характеристик сечений про-


цесса от времени. Для реальных процессов это условие дает жесткие ограничения, поэтому
на практике, чтобы применять свойства стационарных процессов к исследуемому явлению,
рассматривают процесс на достаточно коротком интервале времени, в течение которого ве-
роятностные характеристики изменяются мало.

58
4. Стационарные случайные процессы

Определение 1: Случайный процесс  (t ) называется стационарным в узком смысле или


строго стационарным, если его конечномерная функция распределения (или плотность
распределения вероятностей) инвариантны относительно сдвига всех моментов времени
ti i  1, 2,..., n на одну и ту же величину  .

F ( x1 , t1 ,....., xn , t n )  F ( x1 , t1   ,..., xn , t n   ) ,

p ( x1 , t1 ,  , xn , t n )  p ( x1 , t1   ,  , xn , t n   ),   , n  1, 2, .

Другими словами, статистические (вероятностные) свойства стационарного случайного


процесса не зависят от начала наблюдения.

При n  1 , из условия стационарности следует:

p ( x, t )  p ( x, t   ) .

Полагая t   , получим:
p( x, t )  p ( x) ,

то есть одномерное распределение стационарного случайного процесса не зависит от времени.

Замечание 1: Одномерное распределение определяет среднее значение и дисперсию случай-


ного процесса, следовательно, для строго стационарного случайного процесса среднее и дис-
персия не зависят от времени:

m  ( t )  m   const ,

D (t )   2  const .

При n  2 , из условия стационарности, получим равенство:

p( x1 , t1 , x2 , t2 )  p( x1 , t1   , x2 , t2   ) ,

полагая в котором t   , запишем:


p( x1 , t1 , x2 , t2 )  p( x1 , x2 , t2  t1 ) ,
то есть двумерное распределение зависит лишь от разности моментов времени, следова-
тельно, функция корреляции стационарного случайного процесса зависит только от одного
аргумента:

59
Теория случайных процессов

   
R (t1 , t 2 )  
 
x1 x2 p ( x1 , t1 , x2 , t 2 ) dx1dx2     xx
 
1 2 p ( x1 , x2 , t 2  t1 ) dx1dx2  R (t 2  t1 ) .

Определение 2. Случайный процесс называется стационарным в широком смысле, если его


среднее значение и дисперсия не зависят от времени, а функция корреляции (и ковариации)
зависят лишь от разности моментов времени.
Т.е. выполняются свойства:

1) m  t   M   t   M   0  const ;

2) D  t   const ;

3) R  t1 , t2   R  t2  t1   R   , т.е. R  t1 , t2  зависит от разности аргументов   t 2  t1

4) K  t1 , t2   K  t2  t1   K    , т.е. K t1 , t2  зависит от   t2  t1 .

5) D (t )  K  t , t   K  t  t   K  0  .

Замечание 2. Из стационарности в узком смысле следует стационарность в широком смысле.


Обратное утверждение, вообще говоря, не верно, но для гауссовских процессов (которые бу-
дут рассмотрены ниже) верно и обратное утверждение.

Пример 4.1. Пусть дан случайный процесс  (t )  1  sin  t   2  cos  t , где   const 1 , 2 
независимые случайные величины, с законом распределения:

i 1 1

pi 12 12

Показать, что процесс стационарен в широком смысле, но не стационарен в узком.

Решение:
1. Найдем математическое ожидание и дисперсию  i , i  1, 2 : M  i  0,

2 2 1 1
D i  M   M     1.
2 2
2. Найдем математическое ожидание и ковариационную функцию процесса ( t ) :

60
4. Стационарные случайные процессы

M (t )  M 1  sin  t   2  cos  t  sin  t  M 1  cos  t  M  2  0

K  (t1 , t2 )  R (t1 , t 2 )  M ((t1 ), (t2 ))  M  1 sin t1 2 cos t1  1 sin t2 2 cos t2  


 cos  t1  t 2   cos 
Т.е. процесс является стационарным в широком смысле.

3. Для стационарных в узком смысле процессов конечномерные законы распределения не


меняются при сдвиге на одну и ту же величину . Рассмотрим распределение при t  0 :
 (0)  1  sin 0  2  cos 0   2

Рассмотрим теперь распределение, сдвинув на величину   :
4
     2
( )  1  sin     2  cos    1  sin   2  cos 
2
 1   2 
4 4 4 4 4
Случайная величина   1   2 принимает значения:

 1  1   2   1  1   2 ;  2  1   2   1  1  0;  3  1   2  1  1  2;

с вероятностями:
1 1 1 1 1 1
P 1  2  P 1  1,  2  1    ; P 1  2  P 1  1,  2  1    ;
2 2 4 2 2 4
1 1 1
P 1  0  P 1  1,  2  1  P 1  1,  2  1    ;
4 4 2
Очевидно, что при сдвиге закон распределения изменился, поэтому процесс не является ста-
ционарным в узком смысле.

Свойства ковариационной функции стационарного случайного процесса

1. Ковариационная функция стационарного случайного процесса есть четная функция:

K     K   ;
2. Абсолютное значение ковариационной функции стационарного случайного процесса не

превышает ее значения в начале координат: K    K  0 ;

Определение 3. Нормированной ковариационной функцией стационарного случайного про-


цесса называют неслучайную функцию аргумента, определяемую по формуле:

K  ()
r (  ) 
K  (0)

61
Теория случайных процессов

Свойства нормированной ковариационной функции


стационарного случайного процесса

1. Абсолютное значение нормированной ковариационная функции стационарного случайно-


го процесса не превышает единицы:

K  ( ) K  (0)
r ()   1
K  (0) K  (0)

2. При   0 нормированная ковариационная функция равна единице:


K  (0)
r (  )   1.
K  (0)

Стационарно связанные случайные процессы

Определение 4. Стационарно связанными называют два случайных процесса (t ), (t ) ,


если их взаимная ковариационная функция зависит только от разности аргументов   t 2  t1 .

K  (t1 , t 2 )  K  (t 2  t1 )  K  (  ) .

Замечание 3: Взаимная ковариационная функция стационарно связанных случайных про-


цессов обладает следующим свойством: K  ( )  K  (  ) .

Пример 4.2: Пусть задан случайный процесс ( t )  cos( t  ) , где  – случайная величина,

  R  0,2  . Доказать, что  ( t ) – стационарный случайный процесс в широком смысле.

Решение:
1. Найдем математическое ожидание процесса:
m  M  cos(t )   M  cos t cos sin t sin    M  cos t cos    M  sin t sin   
 cos t  M  cos    sin t  M  sin   ;

Найдем M  cos   и M  sin   , т.к.   R  0,2  , то функция плотности для равномерно рас-
1
пределенной случайной величины: p ( x )  , где x  0,2   , тогда
2

62
4. Стационарные случайные процессы

2 2
1 1
M  cos     cos   d   0 и M  sin    2 sin   d   0
0
2 0

откуда следует, что m (t )  0 .

2. Найдем ковариационную функцию:

K  (t1 , t 2 )  cov  (t1 ),  (t 2 )   M ( (t1 )  m (t1 ))( (t 2 )  m (t 2 ))

(t1 )  m (t1 )  (t1 ), (t 2 )  m (t 2 )  (t 2 ) т.к. m (t )  0

Тогда можем записать,

 
M ((t1 )  m (t1 ))((t2 )  m (t2 ))  M cos(t1 )cos(t2 ) .

Используя известные тригонометрические формулы, получаем:

M cos(t1 )cos(t2 )  M cos(t t )cos(


2
2
t t  2)
1 2
.1

В силу того, что

M cos(t 2t 2)  0.


2 1

Окончательно имеем:

K  (t1 , t 2 )  M cos(t2 t ).


2 1

Таким образом, получили, что математическое ожидание случайного процесса постоянно


m ( t )  0 при всех значениях аргумента t , а ковариационная функция зависит только от раз-

ности аргументов t 2  t1 . Окончательно делаем вывод, действительно  ( t ) – стационарный


случайный процесс в широком смысле.

1
Пример 4.3: Задана ковариационная функция K  ( )  cos  стационарного случайного про-
2
цесса  ( t ) . Найти нормированную ковариационную функцию.

Решение: Используя определение нормированной ковариационной функции стационарного


случайного процесса, найдем:

63
Теория случайных процессов

1
cos 
K  ( )
r ( )   2  cos .
K  (0) 1 cos0
2

Пример 4.4: Заданы два стационарных случайных процесса ( t )  cos( t  ) и

(t )  sin (t  ), где  – случайная величина,   R  0,2  . Доказать, что  ( t ) и ( t ) – ста-
ционарно связаны.

Решение:
1. В примере 4.1. было показано, что математическое ожидание случайного процесса (t ) :

m (t )  0 , аналогично можно показать и для случайного процесса ( t ) : m (t )  0 .


 
2. Можем записать выражение для центрированных случайных процессов  ( t ) и ( t ) :
 
(t )  cos  t   , (t )  sin  t   .

3. Взаимная ковариационная функция имеет вид:

     sin  t2  t1   sin  t2  t1  2   
K  (t1 , t2 )  M  ( t1 ) ( t2 )   M cos t1  sin  t2    M  
   2 

Найдем значение:

M
 sin  t2  t1  2 
 2
M


sin(t2 t1 )cos 2 cos(t2 t1 )sin 2
2
 
sin(t2 t1 ) cos(t2 t1 )
 M cos 2  M sin 2;
2 2
2
1 1 2
M  cos 2    cos 2 d 2   cos 2 d 2  0;
0
4 4 0

2
1 1 2
M  sin 2    sin 2 d 2   sin 2 d 2  0.
0
4 4 0

 sin  t2 t1  2  
Окончательно получаем, что: M    0;
 2 
Поэтому из выражения ковариационной функции:
     sin  t2 t1   sin  t2  t1  2     sin  t2 t1    sin  t2  t1  2   
K  (t1 , t2 )  M ( t1 ) (t2 )   M  M M  
   2   2   2 

64
4. Стационарные случайные процессы

можем окончательно записать:

 
 sin  t2  t1   sin t 2  t1
K  (t1 , t2 )  M   ,
 2  2

т.е. взаимная ковариационная функция зависит только от разности аргументов, следователь-


но,  ( t ) и (t )  стационарно связанные случайные процессы.

Эргодические случайные процессы

На практике довольно редко удается получить большое количество реализаций. Часто быва-
ет, что для исследования предлагается всего одна реализация, а повторение опыта по тем или
иным причинам невозможно.

Поэтому возникает вопрос: Нельзя ли найти характеристики случайного процесса путем


усреднения соответствующих величин по времени?

Ответ: В общем случае отрицательный.

Но: Можно выделить классы случайных процессов, для которых поставленный вопрос реша-
ется полностью или частично.

Например: Для некоторых стационарных процессов каждая реализация достаточно хорошо


представляет весь процесс в целом. Поэтому значения рассматриваемого сечения такого
процесса можно заменить значениями какой-либо одной реализации.

Определение 5. Стационарные процессы, для которых временные средние случайных вели-


чин, определяемых процессом, совпадают со средними этих же величин по множеству всех
реализаций, называются эргодическими случайными процессами.

Эргодическая теория выясняет, при каких условиях возможна замена одних средних други-
ми и в каком смысле средние по времени на промежутке  T ,T  приближаются к оценивае-
мым величинам, т.е. в каких случаях можно предположить, что одна-единственная реализа-
ция достаточной продолжительности может служить опытным материалом для получения
характеристик всего случайного процесса.

Название «эргодический» происходит от греческих слов  – работа и  – путь. Оно
появилось впервые в статистической физике в теориях, где приходится сравнивать средние ве-

65
Теория случайных процессов

личины физической системы (температура, давление), найденные по всем фазовым состояниям


системы, со средними в пределах одного эксперимента, т.е. по одной реализации. Эргодическая
гипотеза о замене фазовых средних временными была выдвинута в начале 70-х гг. XIX в. ав-
стрийским физиком Л. Больцманом. Первые исследования в эргодической теории принадлежат
американскому математику Г. Биркхофу и российскому математику А.Я. Хинчину.

Большинство стационарных случайных процессов обладают важным для практики эргодиче-


ским свойством, т.е. каждая отдельная реализация случайного процесса является предста-
вителем всей совокупности возможных реализаций; одна реализация достаточной продол-
жительности может заменить при обработке множество реализаций той же общей продол-
жительности. И отдельные характеристики таких процессов, могут быть определены как
соответствующие средние по времени для одной реализации достаточно большой продолжи-
тельности.

Таким образом для стационарных случайных процессов кроме средних статистических


характеристик вводятся ещё характеристики: средние по времени.

Выберем k -ю реализацию –   k  (t ) случайного процесса и будем наблюдать её в течение


времени 2T .

Рассмотрим среднее по времени значение этой реализации:


1 T

  lim  (t ) dt  m 
(k) (k)

T 
2T T

Замечание 4. Здесь символ  обозначает усреднение по времени, в отличие от символа мате-


матического ожидания M – усреднения по распределению, или статистического усредне-
ния.

Это среднее по времени можно рассматривать как постоянную составляющую случайного


процесса (t).

Аналогично можно определить усреднённую по времени функцию корреляции для стацио-


нарного процесса:
1 T

R ( )   ( k ) (t )   ( k ) (t   )  lim 
(k )
(t )   ( k ) (t   ) dt .
T  2T
T

66
4. Стационарные случайные процессы

Определение 6. Случайный процесс будем называть эргодическим, если любая его статисти-
ческая характеристика, равна соответствующей характеристике, полученной усреднением по
времени одной единственной реализации.

Определение 7. Случайный процесс  (t ) называется эргодическим по отношению к мате-


матическому ожиданию, если:

1) математическое ожидание постоянно m (t )  const ;

2) временное среднее по промежутку  T ,T  в среднем квадратическом сходится к матема-


1 T

тическому ожиданию  ( k )  lim  (t ) dt  m  .


(k)

T 
2T T

Условия, при выполнении которых можно проверить эргодичность процесса по отношению


к математическому ожиданию, сформулированы в следующей теореме.

Теорема 1. Для того, чтобы случайный процесс  (t ) , имеющий постоянное математическое


ожидание, был эргодическим по отношению к математическому ожиданию, достаточно вы-
D (t )
полнения условий: lim  0 , lim K (t1 , t2 )  0 .
t  t t1 t2 

Первое условие теоремы означает ограниченность или слабый рост дисперсии при t   .
Второе условие означает ослабление до нуля корреляционной связи между сечениями при
неограниченном увеличении промежутка времени между моментами t1 и t2 .

Пример 4.5. Известны математическое ожидание и корреляционная функция случайного


процесса  (t ) : m (t )  t  1 , K  (t1 , t2 )  e t2  t1 . Проверить, будет ли центрированный процесс
2

эргодическим по отношению к математическому ожиданию.

Решение:

1. Поскольку математическое ожидание случайного процесса  (t ) не является постоян-


ным, то сам процесс не эргодический.

2. По определению, для центрированного случайного процесса  (t ), математическое

ожидание равно нулю, поскольку  (t )   (t )  m (t ) , следовательно, центрированный про-

цесс может оказаться эргодическим по отношению к математическому ожиданию.

67
Теория случайных процессов

Проверим достаточные условия эргодичности по отношению к математическому ожиданию.


 t t D (t ) 1
Дисперсия процесса D (t )  K (t, t )  e  1 , поэтому lim  lim  0 . Проверка
t  t t  t

условия эргодичности для корреляционной функции lim K  (t1 , t2 )  lim e  t2 t1  0 пока-
t1  t 2  t1 t 2 

зывает, что достаточные условия выполнены, следовательно, центрированный случайный


процесс является эргодическим по отношению к математическому ожиданию.

Для стационарных в широком смысле случайных процессов достаточные условия эргодич-


ности процесса по отношению к математическому ожиданию могут быть записаны в более
простой форме.

Теорема 2. Для того, чтобы стационарный в широком смысле случайный процесс был эрго-
дическим по отношению к математическому ожиданию, достаточно выполнения условия
lim K ( )  0 .
 

Пример 4.6. Стационарный в широком смысле случайный процесс  (t ) имеет корреляцион-


2
ную функцию K ( )  . Проверить, является ли процесс эргодическим по отношению к
1 2
математическому ожиданию.

Решение. Для стационарного в широком смысле процесса математическое ожидание и дис-


D (t )
персия постоянны, поэтому условия m (t )  const и lim  0 выполнены. Проверим
t  t
2
условие lim K ( )  0 . Действительно, lim K ( )  lim  0 , откуда и следует эргодич-
      1   2

ность процесса по отношению к математическому ожиданию.

Рассмотрим пример стационарного, но неэргодического процесса.

Пример 4.7. Пусть дан случайный процесс  (t )   (t )   , где  (t ) – эргодический случай-


ный процесс с характеристиками M   m , K  ( ) , а  – некоторая случайная величина с

числовыми характеристиками M   m  const , D  D  const  0 . Для любого момента

времени t :  (t ) и  некоррелированы. Показать, что случайный процесс не является эргоди-


ческим.

68
4. Стационарные случайные процессы

Решение: Найдем характеристики случайного процесса  (t ):

Так как величины  (t ) и  для любого t некоррелированы, то характеристики случайного

процесса  (t ) будут следующими: M  (t )     m  M  , K ( )  K ( )  D . для нахожде-

ния ковариационной функции случайного процесса  (t ) , который является суммой, восполь-


зовались таким свойством: если имеется процесс  (t )   (t )   (t ) , то его ковариационная
функция равна K  (t1 , t 2 )  K  (t1 , t 2 )  K (t1 , t 2 )  K  (t1 , t 2 )  K ( t1 , t 2 ) , в силу того, что  (t ) и 

некоррелированы: K  (t1 , t 2 )  K (t1 , t 2 )  0 и K  ( t , t )  D , поэтому K ( )  K ( )  D .

Можем сделать заключение, что случайный процесс  (t )   (t )   является стационарным в


широком смысле, т.к. математическое ожидание константа и ковариационная функция зависит
лишь от   t1  t 2 .

Но к сожалению этот процесс не будет эргодическим, т.к. каждая его реализация будет по ха-
рактеру отличаться от других в зависимости от того, какое значение приняла случайная вели-
чина  .

Рассмотрим ковариационную функцию случайного процесса  (t )   (t )   . Она отличается


от ковариационной функции случайного процесса  (t ) наличием постоянного слагаемого D

. Поэтому при    получаем lim K ( )  lim  K ( )  D   lim  0  D   D  0 . И стало


     

быть условие эргодичности не выполняется.

Таким образом, неэргодичность случайного процесса может быть связана с наличием в его со-
ставе слагаемого в виде обычной случайной величины.

Замечание 5:

1. Необходимым и достаточным условием эргодичности процесса по отношению к


1 l l

дисперсии является: lim   K (t , t


1 2 ) dt1dt2  0, t  T   0, l  .
l l 2
0 0

2. Достаточным условием эргодичности стационарного случайного процесса по отно-


шению к дисперсии: lim K  (t1 , t2 )  0.
t1 t2 

69
Теория случайных процессов

Итак, если случайный процесс эргодический, то любая его реализация определяет свойства
всего ансамбля и поэтому результат усреднения по времени, выполненный по одной реали-
зации, совпадает с соответствующей статистической характеристикой процесса, то есть

m (t )  m  , K  ( )  K  , R ( )  R .

Можно ввести и другие средние по времени характеристики эргодического процесса.

Так, среднее время пребывания процесса ниже уровня x совпадает с вероятностью того,
что значения случайного процесса в любой момент времени меньше, чем x , то есть

T
1
F ( x )  lim  C x  (t )  dt  P{ (t )  x} ,
(k)

T   2T
T

здесь
1, y0
C ( y)  
0, y0

Одномерная характеристическая функция определяется: как среднее по времени значение


процесса exp i ( k ) (t )u , то есть в виде:
T
1
g  (u )  lim  exp  i (t )u dt .
(k)

T 
2T T

Пример 4.8. Дан случайный процесс X (t )  (U  2)  cos 7t  V  sin 7t , где U  N 2, 3 и  


V  R  3,3  . Показать, что случайный процесс стационарен в широком смысле. Проверить

свойство эргодичности для математического ожидания и корреляционной функции.

Решение:

1. Запишем числовые характеристики для случайных величин U и V , т.к. известны законы


распределения обеих: MU  2, DU  3 и

 b  a   36  3
2
a  b 3  3
MV    0, DV 
2 2 12 12

2. Найдем математическое ожидание случайного процесса X (t )  (U  2)  cos 7t  V  sin 7t :

70
4. Стационарные случайные процессы

MX (t )  M (U  2)  cos 7t  V  sin 7t  cos 7t  M (U  2)  sin 7t  MV 


cos 7t  MU  2  sin 7t  MV  cos 7t  2  2  sin 7t  0  0  const

Т.к. математическое ожидание процесса равно нулю, то функции ковариации и корре-


ляции тождественны, т.е. RX  t1 , t2   K X  t1 , t2  .

3. Найдем ковариационную функцию случайного процесса X (t )  (U  2)  cos 7t  V  sin 7t по


определению:

  


K X  t1 , t2   M X (t1 ) X (t2 )  M  (U  2)  cos 7t1  V  sin 7t1    (U  2)  cos 7t2  V  sin 7t2  

 (U  2)2 cos 7t1  cos 7t2   V  (U  2) sin 7t1  cos 7t2   


 
M  
  V  (U  2) sin 7 t 2  cos 7 t1   V 2
 sin 7 t1 sin 7 t 2 
M  (U  2) 2
cos 7t1  cos 7t2   V  (U  2) sin 7  t1  t2    V 2  sin 7t1 sin 7t2  
т.к. M (U  2) 2  DU и DV  MV 2  M 2V  MV 2  0  MV 2

можем переписать выражение для K X  t1 , t2  :

K X  t1 , t2   cos 7t1  cos 7t2  M  (U  2) 2   sin 7  t1  t2   M V  (U  2)   sin 7t1 sin 7t2 M V 2  


 cos 7t1  cos 7t2  DU  sin 7  t1  t2   M V  (U  2)   sin 7t1 sin 7t2  DV 
 3  cos 7t1  cos 7t2  3  sin 7t1 sin 7t2  sin 7  t1  t2   M V  (U  2)  
 3  cos 7t1  cos 7t2  sin 7t1 sin 7t2   sin 7  t1  t2   M V  (U  2)  
 3  cos 7  t1  t2   sin 7  t1  t2   M V  (U  2) 

т.к.

M V  (U  2)   MV  M (U  2)  0

то окончательно:

K X  t1 , t 2   3  cos 7  t1  t2   sin 7  t1  t2   M V  (U  2)   3  cos 7  t1  t2 

Заключение: т.к. MX (t )  const и K X  t1 , t2   3  cos 7  t1  t2   3  cos 7   процесс стационарен

в широком смысле.

71
Теория случайных процессов

4. Проверим свойство эргодичности для математического ожидания и корреляционной


функции случайного процесса:

Пусть x(t )  u  cos 7t  v  sin 7t – реализация случайного процесса, преобразуем выражение

для x (t ) по формуле: x(t )  u  cos 7t  v  sin 7t  a cos  7t    , где a  u 2  v2 ,

u v
cos   , sin  
a a
1 T

Подставим в равенство: m    ( k )  lim  (t ) dt


(k)

T 
2T T

1 a a
 
T T T

m   lim
T 
2T  a  cos  7t    dt  lim
T
T 
14  T  cos  7t    d  7t     lim
T
T 
14  T
 sin 7t  
T
0

Т.е. можем сделать вывод, что случайный процесс эргодичен относительно математического
ожидания.

5. Для корреляционной функции исследуемого случайного процесса:

1 T

R ( )   ( k ) (t )   ( k ) (t   )  lim
T  2T  a  cos  7t     a  cos  7(t   )    dt 
T

a2 T

 lim
T  2T  cos  7t     cos  7(t   )    dt
T

1
используем формулу произведение косинусов cos    cos     cos      cos      :
2
1
cos  7t     cos  7(t   )      cos  7t     7(t   )     cos  7t      7(t   )      
2
1
 cos 14t  2     cos  
2

Подставим полученное в интеграл:

1 T

R ( )   ( k ) (t )   ( k ) (t   )  lim
T  2T  a  cos  7t     a  cos  7(t   )    dt 
T

a2 T
a2  T T

 lim
T  4T T cos 14t  2  7   cos 7  dt  Tlim
 4T
  cos 14t  2  7   dt   cos  7   dt  
T T 
a 1
   a  cos 7 a  cos 7 a  cos 7
2 T T  2 2 2
 lim  sin 14 t  2  7  cos 7 t   lim  2T  lim 
T  4T 14 4T 2 2
 T T
 T  T 

72
4. Стационарные случайные процессы

Полученный результат не совпадает с ранее полученным выражением для корреляционной

функции:

RX  t1 , t2   K X  t1 , t2   3  cos 7  

следовательно, процесс не является эргодическим относительно корреляционной функции.

Задачи по теме для самостоятельного решения

1. Задана случайный процесс X (t )  cos  t   , где  – случайная величина, распреде-

ленная равномерно в интервале  0, 2 . Доказать, что X (t ) – строго стационарный

процесс.

2. Является ли стационарным случайный процесс X (t )  U sin t  V cos t , где U , V – не-

коррелированные случайные величины mU  mV  0, DU  DV  D.

3. Известна ковариационная функция K ( ) стационарного процесса  ( t ) . Доказать, что

если (t )  a   (t ) , то K ( )  a 2  K  ( ) .

4. Задана случайный процесс (t )  A  cos  t   , где  – случайная величина, распре-

 
деленная равномерно в интервале ,  , A  const ,   const.

Определить, является ли процесс эргодическим относительно математического ожида-


ния и дисперсии.

5. Заданы два стационарных случайных процесса X (t )  cos  t   , Y (t )  sin  t   , где

 – случайная величина, распределенная равномерно в интервале  0, 2 . Доказать,


что эти функции стационарно связаны.

6. Значения случайного процесса X (t ) изменяются скачками в случайные моменты вре-


мени t k , k  0,1, 3,... . Моменты скачков образуют простейший (пуассоновский) поток

событий интенсивности  , т.е. вероятность того, что за время  произойдет k скачков

k 
равна: e .
k!

73
Теория случайных процессов

В интервале  tk , tk 1  между двумя скачками процесс X (t ) может принимать лишь два

значения 0 или 1 с вероятностями соответственно 1  p  q и p . Значения X (t ) в раз-


личных интервалах независимы (такой процесс называют фототелеграфным сигналом.)
Выяснить является ли этот процесс стационарным в широком смысле.

7. Случайный процесс  ( t ) формируется так: на оси Ot имеется простейший поток собы-


тий с интенсивностью  . Случайный процесс попеременно принимает значения +1 и –
1, при наступлении очередного события в простейшем потоке случайный процесс скач-
ком меняет свое состояние с +1 на –1 или наоборот, оба значения равновероятны.
Найти характеристики случайного процесса и выяснить является ли этот процесс ста-
ционарным в широком смысле и эргодическим.

8. Случайный процесс  ( t ) формируется так: на оси Ot имеется простейший поток собы-


тий с интенсивностью  . В момент наступления i -го события случайный процесс при-
нимает случайное значение X i , сохраняя его до следующего события в потоке. В

начальный момент времени t  0 : X (0)  X 0 . Найти характеристики случайного про-


цесса и выяснить является ли этот процесс стационарным и эргодическим.

9. U и V – независимые случайные величины, распределенные по экспоненциальному


закону с параметрами 1 и 2 , соответственно. Найти математическое ожидание, дис-

персию и функцию корреляции процесса S (t )  U  Vt . Выяснить является ли этот про-


цесс стационарным?

10. Случайный процесс S ( t )  U  e   t  V  e   t , где U и V – некоррелированные случай-


ные величины с нулевым математическим ожидание,  и  неслучайные величины.
Найти математическое ожидание, дисперсию и функцию корреляции процесса S (t ) .
Определить, является ли данный процесс стационарным, по крайней мере, в широком
смысле.

11. Пусть X (t ), t  0 пуассоновский случайный процесс с параметром  . Доказать, что

случайный процесс Y (t )  X  t  1  X  t  , t  1. является стационарным в широком

смысле.

74
4. Стационарные случайные процессы

12. Случайный процесс X  t  имеет вид X  t   b  sin  t    , где b,   известные числа,

 – случайная величина с плотностью распределения вероятностей f ( x), t  0. Иссле-

довать случайный процесс X  t  на стационарность и на эргодичность в следующих

случаях:

a) f ( x)  cos x при x   0,  2

1
b) f ( x)   при x   0, 2  и f ( x )  0 при x   0, 2 
2
13. Случайный процесс   t  задан четырьмя равновероятными реализациями:

  t   1,
1
  t   2,   t   sin  t ,
2 3
  t   cos  t ,
4

Найти математическое ожидание, дисперсию и функцию корреляции процесса   t  .

Является ли этот процесс стационарным, по крайней мере в широком смысле?

14. Доказать, что сумма независимых стационарных случайных процессов является стаци-
онарным случайным процессом.
15. Пусть X и Y  независимые одинаково распределенные случайные величины, прини-
мающие значения 1 и 1 с вероятностями 1 2 . Исследовать на стационарность случай-
ный процесс  (t )  X  cos  t  Y  sin  t , t  0

75
Теория случайных процессов

5. Линейные преобразования случайных процессов

Представим, что имеется некая динамическая система L (прибор, механизм, система автома-
тического управления и т.д.), на вход которой поступают непрерывно определенные данные
(входной случайный процесс). Система обрабатывает данные и после обработки, они преоб-
разуются в некоторый результат (выходной случайный процесс).

Входной случайный процесс называют воздействием, а выходной – реакцией системы, или


ее откликом.

Будем считать, что на вход системы подается случайный процесс X  t  , а на выходе получа-

ется процесс Y  t  . Т.е. система L выполняет некоторое преобразование входного сигнала:

 
Y (t )  L X (t ) .

Задача относительно этой ситуации формулируется так: если входной процесс X  t  задан и

известны его характеристики: математическое ожидание и корреляционная функция,


требуется найти аналогичные характеристики для выходного процесса Y  t  , т.е. необходимо

определить реакцию (или отклик) системы.

Преобразование L может быть любой сложности и любого характера. Поэтому в общем слу-
чае решить задачу нахождения характеристик выходного сигнала затруднительно. Но данная
задача может быть решена совершенно точно в случае, когда преобразование L принадле-
жит к классу линейных преобразований и соответственно система L принадлежит к классу
линейных систем.
Пусть X 1  t  и X 2  t  – два случайных процесса, C1 , C2 – произвольные константы.

Определение 1. Линейным однородным преобразованием (линейным оператором) L


называется преобразование (отображение), обладающее следующими свойствами:
1) L  C  X 1 (t )   C  L  X 1 (t )  – постоянную величину можно выносить за знак оператора;

2) L  X 1 (t )  X 2 (t )   L  X 1 (t )   L  X 2 (t )  – к сумме функций оператор L может применяться

почленно.

76
5. Линейные преобразования случайных процессов

Свойства однородного линейного преобразования можно объединить в одно:

L  C1 X 1 (t )  C 2 X 2 (t )   C1 L  X 1 (t )   C2 L  X 2 (t )  .

Примерами линейных однородных операторов являются: оператор дифференцирования, опе-


ратор интегрирования, оператор умножения на заданную функцию и др.

Линейные преобразования называются неоднородными, если они состоят из линейных од-


нородных операций с прибавлением заданной неслучайной функции:

Ln  X (t )   L  X (t )    (t ) .

dY (t )
Примерами линейных неоднородных операторов являются: X (t )   f (t ),
dt
t
X (t )   Y ( ) d  f (t ) ; X (t )  f (t )  Y (t )   (t ) .
0

Мы будем рассматривать в основном линейные однородные операторы: дифференцирования


t
dY (t )
X (t )  и интегрирования X (t )   Y ( ) d .
dt 0

Теорема 1. Если X (t ) – случайный процесс, имеющий математическое ожидание mx (t ) и

корреляционную функцию K x (t1 , t2 ) , преобразуется линейным однородным оператором L в

 
случайный процесс Y (t ) : Y (t )  L X (t ) , то его математическое ожидание m y ( t ) получается

из математического ожидания mx (t ) при помощи того же линейного оператора

 
m y (t )  L m x (t ) , а для нахождения корреляционной функции K y ( t1 , t 2 ) нужно применить к

функции K y ( t , t ) соответствующий линейный однородный оператор L один раз по t1 , дру-


1 2

гой раз, к вновь полученному выражению, – по t2 : K y (t1 , t2 )  L(t2 ) L 1 K x (t1 ,t 2 )  (t )



Теорема 2. Для дифференцируемого на множестве T случайного процесса (t ), t  T с ма-

тематическим ожиданием m (t ) и ковариационной функцией K  (t1 , t 2 ) определен случайный

' '
процесс  (t ), t  T , и при этом, если случайный процесс (t )   (t ) , то

77
Теория случайных процессов

d
1) m (t )  m (t ) ;
dt
2

2) K  (t1 , t 2 )  K  (t1 , t 2 ) .
t1t2

Если к тому же  ( t ) еще и стационарный процесс, то


1) m (t )  0 ;

'
2) K  (t1 , t2 )   K  ( ) .

Теорема 3. Для интегрируемого на множестве T случайного процесса (t ), t  T с матема-

тическим ожиданием m (t ) и ковариационной функцией K  (t1 , t 2 ) определен случайный


b b

процесс  (t ) dt ,  a,b  T , и при этом, если случайный процесс (t )   (t )dt , то
a a

b  b
1) M   M  (t ) dt
  
  m (t ) dt ,

a  a

t1 t2
2) K  (t1 , t 2 )    K ( , ) d 
 1 2 1 d 2
0 0

b  b

3) cov   (t ) dt , ()    K  (t ,) dt ,   T


a  a

b d  b d


4) cov  (t ) dt , 

(  ) d     K  (t ,  ) dt d , a ,b  , c, d   T
 a c  a c

d  b b
 
 c

5) D   (t ) dt  

 K
a a
 (t ,  ) dt d 

Рассмотрим примеры.

2
Пример 5.1. Зная математическое ожидание m (t )  t  t случайного процесса  ( t ) , найти

математическое ожидание ее производной m' (t )  m (t ) .

'
' 2
Решение: Искомое математическое ожидание m' (t )  m (t )  m (t )  t  t  2t  1 .  
78
5. Линейные преобразования случайных процессов

Пример 5.2. Случайный процесс определяется формулой  (t )   (t )  e  t , t  0,  (t )  N  3,1 .

Найти математическое ожидание и ковариационную функцию случайного процесса


' d ( t )
 (t )  .
dt
Решение:
t t
1. Найдем математическое ожидание случайного процесса (t ) : m (t )  M (  e )  e  M  ;
t
но т.к. (t )  N (3,1) , то получаем m (t )  3  e ; найдем математическое ожидание

 
m' (t ) : m' (t )  M '  t    M   t      3e t   3e  t .
' '

2. Найдем ковариационную функцию случайного процесса (t ) :


K  (t1 , t2 )  M  e t1 3e t1  e t2 3e t2   M   e  2  t1
e
 t2
 6  e
 t1
e
 t2
 9e
 t1
e
 t2

M e   t1
e   M 3  e  e ;
 t2
  3
2 2  t1  t2

Т.к. из условия M   3   D  1 ; то окончательно имеем:


2

K   t1 ,t2   M  3 e  2
  t1
e
 t2
e
  t1  t2 
;

d ( t )
3. Найдем ковариационную функцию случайного процесса ' (t )  ;
dt

K  (t1 , t2 )


 e
  t1  t 2 
 e   t1  t 2 
.
t1t2 t1t 2

Пример 5.3. Зная ковариационную функцию K x (t1 , t 2 )  2t1  t2  t12  t 22 случайного процесса

X (t ) , найти ковариационную функцию ее производной K x' (t1 , t2 ) .

Решение:
1. Найдем частную производную от заданной ковариационную функции по t1 :

K x (t1 , t2 )


 2t1  t2  t1  t2
2 2
  2t  2t1  t 2 .
2
2
t1 t1

2. Найдем частную производную от полученного результата по t2 :

79
Теория случайных процессов


 K x (t1 , t2 )  2t 2  2t1  t 2
2

  2  4t1  t 2 .
2

t1t 2 t 2

Таким образом, искомая ковариационную функция: K x' (t1 , t2 )  2  4t1  t2

Пример 5.4. Зная математическое ожидание m ( t )  2t  1 случайного процесса  ( t ) ,


t

найти математическое ожидание интеграла (t )   ( s ) ds .


0

t t

Решение: M (t )   m ( s )ds   (2 s 1) ds  t  t .


2

0 0

t
Пример 5.5. Зная математическое ожидание m (t )  3e случайного процесса  ( t ) и кова-
 t1 t2
риационную функцию K (t1 , t2 )  e , найти математическое ожидание и корреляцион-
t

ную функцию случайного процесса (t )   ( s ) ds .


0

Решение: Найдем математическое ожидание процесса (t ) :

t t
t
M (t )   m ( s )ds   3e s ds  3e s 0  3  3e .
t

0 0

t t1 t2
Если (t )   ( s ) ds , то K  (t1 , t2 )    K ( , )d  d 
 1 2 1 2 , т.е. корреляционная функция инте-
0 0 0

грала от случайного процесса равна двойному интегралу от корреляционной функции слу-


чайного процесса  ( t ) :

t1 t2 t1 t2 t1
K  (t1 , t 2 )   e  1  2
d 1d 2   e d 1  e  1  2
d 2  1e  t2
  e 1 d 1  1et2   1et1 
0 0 0 0 0

Метод канонических разложений

Идея метода канонических разложений состоит в том, что случайный процесс, над которым
нужно произвести преобразование, представляется в виде суммы элементарных случайных
функций.

80
5. Линейные преобразования случайных процессов

Рассмотрим элементарные случайные функции вида:

 (t )  A   (t )

где A  случайная величина, а   произвольная неслучайная функция.

Все возможные реализации элементарной случайной функции  (t )  A   (t ) получаются из


графика функции  (t ) изменением масштаба по оси ординат.

Математическое ожидание определяется формулой:

m (t )  M  (t )   M  A  (t )  M ( A)   (t ) .

В частности, если M ( A)  0 , то и m ( t )  0 , т.е. элементарная случайная функция

 (t )  A   (t ) представляет собой центрированный случайный процесс. Если m (t )  0 , то ко-


вариационная функция тождественна корреляционной и определяется выражением:

  

K (t1 , t2 )  M  (t1 )  (t2 )   R (t1 , t2 )  M  (t1 )  (t2 )  M ( A (t1 )  A (t2 )) 
 
  (t1 )   (t2 )  M ( A2 )   (t1 )   (t2 )  D( A)

Линейные преобразования с элементарными случайными функциями указанного вида вы-


полняются очень просто:

   
 (t )  L  (t )   L А (t )  А  L  (t )

Следовательно, если входной случайный процесс можно представить в виде суммы эле-
ментарных случайных функций, то описание выходного процесса упрощается.

Пусть задан случайный процесс: X (t )  mx (t )  X (t ) , где mx (t ) – математическое ожидание

случайного процесса, X (t ) – центрированный случайный процесс, представленный в виде
 n
суммы X (t )   Ak   k (t ) , где Ak – центрированные некоррелированные случайные величи-
k 1

ны с дисперсиями Dk ; k (t ) – неслучайные функции.

Определение 2: Представление случайного процесса X (t ) в виде:


n
X (t )  mx (t )   Ak   k (t )
k 1

Называется каноническим разложением случайного процесса.

81
Теория случайных процессов

Случайные величины Ak называются коэффициентами разложения.

Функции k (t )  координатными функциями разложения.

n
Замечание 1: В сумме A
k 1
k   k (t ) возможно, что n   .

Таким образом, каноническое разложение случайного процесса представляет собой разло-


жение по системе функций в виде конечной суммы или функционального ряда. В качестве
координатных функций разложения обычно используются тригонометрические функции
(синус, косинус), а в случае комплексного переменного – экспоненциальное представление
этих функций.

Определим реакцию линейной системы на случайный процесс, заданный каноническим раз-


ложением:
 n

Y (t )  L  X (t )   L  mx (t )   Ak  k (t ) 
 k 1 
В силу линейности преобразования получим:

  n
 k 1

Y (t )  L mx (t )    Ak L(k (t )) 

 
Обозначим L m x (t )  my (t ) , L(k (t ))   k (t ) и запишем выходной случайный процесс в ви-

де разложения по системе элементарных случайных функций:

n
Y (t )  m y (t )   Ak k (t ) .
k 1

Если случайный процесс X (t ) допускает каноническое разложение, то его корреляци-


онная функция также выражается суммой вида:
n
K x (t1 , t2 )   Dk  k (t1 ) k (t 2 )
k 1

которая называется каноническим разложением корреляционной функции.

Линейное преобразование случайного процесса, заданного каноническим разложением, под-


чиняется следующему правилу:

82
5. Линейные преобразования случайных процессов

Если случайная функция X (t ) , заданная разложением по элементарным функциям, подвер-


гается линейному преобразованию L ( X (t )) , то коэффициенты разложения остаются неиз-
менными, а математическое ожидание и координатные функции подвергаются тому же ли-
нейному преобразованию L ( X (t )) .

Пример 5.6. Входной случайный процесс X (t ) задан каноническим разложением

X (t )  sin t  A1  sin 2t  A2  cos 2t. Известны дисперсии случайных величин: D( A1 )  0, 2,

D( A2 )  0,3. Найти каноническое разложение и характеристики случайного процесса

Y (t )  2  t  X (t )  t 3  1 .

Решение. Найдем характеристики входного случайного процесса X (t ) . В соответствии с

определением канонического разложения mx (t )  sin t . Чтобы определить корреляционную


функцию входного сигнала

K x (t1 , t2 )  M  X (t1 )  X (t2 ) 


 

 
Запишем соответствующий центрированный случайный процесс:

X (t )  X (t )  mX (t )  sin t  A1  sin 2 t  A2  cos 2 t  sin t  A1  sin 2 t  A2  cos 2 t

Тогда
K X (t1 , t2 )  M  A1  sin 2 t1  A2  cos 2 t1    A1  sin 2 t2  A2  cos 2 t2  
 sin 2 t1  sin 2 t2  M  A12   sin 2  t1  t2   M  A1  A2   cos 2 t1  cos 2 t2  M  A22 

Так как А1 , A2 – центрированные некоррелированные случайные величины, то

M ( A1 A2 )  0 ,

M ( A12 )  D( A1 )  M 2 ( A1 )  0, 2

M ( A22 )  D( A2 )  M 2 ( A2 )  0,3
Тогда корреляционная функция случайного процесса X (t ) равна:

K x (t1 , t2 )  0, 2  sin 2t1  sin 2t2  0,3  cos 2t1  cos 2t2

Оператор, преобразующий случайный процесс X (t ) в процесс Y (t ) , является линейным и


неоднородным, так как имеет вид:

83
Теория случайных процессов

Y (t )  Ln  X (t )   L  X (t )    (t )

где L ( X (t ))  2t  X (t ) и  (t )  t 3  1 .

В этом случае математическое ожидание выходного процесса определяется соотношением

m y (t )  ( L ( m x (t ))   ( t ) , а корреляционная функция K y (t1 , t2 ) будет такой же, как и для од-


нородного линейного преобразования L ( X (t ))  2t  X (t ) :

my (t )  ( L(mx (t ))   (t )  2t  sin t  t 3  1 ;

K у (t1 , t2 )  4  t1  t2 (0, 2  sin 2t1  sin 2t2  0,3  cos 2t1  cos 2t2 ) .

Вычислим дисперсию, положив в корреляционной функции выходного случайного процесса


t1  t2  t :

DY (t )  4t 2   0, 2  sin 2 2t  0,3  cos 2 2t 

Каноническое разложение выходного случайного процесса имеет вид:

Y (t )  L( X (t ))   (t )  2t  X (t )  t 3  1  2t   sin t  A1  sin 2 t  A2  cos 2 t   t 3  1

или
Y (t )  2t  sin t  t 3  1  A1  2t  sin 2 t  A2  2t  cos 2 t

Замечание 2: Число членов канонического разложения случайного процесса может быть не


только конечным, но и бесконечным. Кроме того, в ряде случаев применяются интегральные
канонические представления случайных функций, в которых сумма заменяется интегралом.

Линейные преобразования стационарных случайных процессов

Рассмотрим несколько теорем, полезных при работе со стационарными случайными процес-


сами.

Теорема 4: Ковариационная функция производной  ' (t ) дифференцируемого стационарно-


го случайного процесса  ( t ) равна второй производной от ее ковариационной функции, взя-
''
той со знаком минус: K' ()  K () .

84
5. Линейные преобразования случайных процессов

Теорема 5: Взаимная ковариационная функция дифференцируемого стационарного случай-

ного процесса  ( t ) и ее производной  ' (t ) равна первой производной от ковариационной

функции K   , взятой со своим (противоположным) знаком, если индекс  ' стоит на вто-

'

ром (первом) по порядку месте: K ' ( )  K ( ) K ' ( )   K ' ( ) . 
Т.к. взаимная ковариационная функция K ' ( ) зависти только от  , то стационарный слу-

чайный процесс и его производная стационарно связаны.


t

Теорема 6: Ковариационная функция интеграла (t )   ( s ) ds от стационарного случай-


0

ного процесса  ( t ) , вычисляется по формуле:


t2 t2 t1 t1
K  (t1 , t2 )   (t2 ) K  () d    (t2 t1 ) K  ( ) d    (t1 ) K  ()d  .
0 0 0

Следствие 1: Дисперсия интеграла (t )   ( s ) ds от стационарного случайного процесса


0

 ( t ) , вычисляется по формуле: D (t )  2  (t ) K  () d  .


0

Пример 5.7. Пусть задана ковариационная функция K      2e


 0,5 2
стационарного случай-

'
ного процесса  ( t ) . Найти ковариационную функцию и дисперсию производной  (t ) .
''
Решение: Согласно теореме 1 K' ()  K () , продифференцируем дважды данную ковари-

ационную функцию, откуда дисперсия

'      K       2e 
''
D' (   0)  K'  0  2 . K '' 0,5 2
 2e 0,5  12 
2

 

Пример 5.8. Задана ковариационная функция K      e



1   , стационарного случайного
процесса  ( t ) . Найти взаимную ковариационную функцию K ' ( ) случайного процесса  ( t )

и его производной.

Решение: Используем формулу K ' ( )  K ( ) .


'

85
Теория случайных процессов

'
1) Пусть   0 , тогда    и K ( )  e 1 , K  ()  e , окончательно имеем при
 


  0 : K' ( )  e ;

2) Пусть   0 , тогда    и K ()  e 1  , K ' ( )  e , окончательно имеем при



  0 : K' ()  e ;

1
Пример 5.9. Задана ковариационная функция K  ( )  2
стационарного случайного про-
1 
t

цесса  ( t ) . Найти дисперсию интеграла (t )   ( s ) ds .


0

Решение: По следствию из теоремы 6 дисперсия интеграла (t )   ( s ) ds от стационарно-


0

го случайного процесса  ( t ) , вычисляется по формуле: D (t )  2  (t )K  ()d  . Тогда можем


0

записать:
t
1 t t
2
t
d  2 1
d  
1
D (t )  2 (t ) d   2t  d   2tarctgt    2tarctgt  ln  t 2 1 .
0 1 
2
0
1 2
0
1 2
0
1  2

Задачи по теме для самостоятельного решения

1. Задано математическое ожидание m X (t )  t 3  2t  1 случайного процесса X (t ) . Найти


математическое ожидание ее производной.

2. Задано математическое ожидание m X (t )  t 2  4 случайного процесса X (t ) . Найти ма-


' 2
тематическое ожидание случайного процесса: Y (t )  t  X (t )  t .

2
Задана ковариационная функция K  (t1 , t 2 )  5 e  2 1  случайного процесса X (t ) . Найти
 t t
3.

ковариационную функцию его производной.

4. Зная математическое ожидание m X (t )  3t 2  1 случайного процесса X (t ) , найти мате-


t

матическое ожидание интеграла Y (t )   X ( s ) ds .


0

86
5. Линейные преобразования случайных процессов

t
5. Задан случайный процесс X (t )  U  e  cos t , где U – случайная величина, mU (t )  5.
t

Найти математическое ожидание интеграла Y (t )   X ( s ) ds .


0

6. Дан случайный процесс (t )  ch 2t  U  sh 2t , случайная величина U  E  0,4 ,


'
(t )   (t ). Найти математическое ожидание m ( t ) , ковариационную функцию

K  (t1 , t 2 ) , дисперсию D ( t ) , нормированную ковариационную функцию r (t1 , t 2 ) слу-

чайного процесса ( t ) , не дифференцируя  ( t ) . Найти взаимную ковариационную


функцию K  , ( t1 , t2 ) и нормированную взаимную ковариационную функцию r , (t1 , t2 ) .

Дан случайный процесс (t )  (t  1)  U , где U  N  3,5 , и случайный процесс


2
7.
t

(t )   ( s ) ds . Найти математическое ожидание m ( t ) , ковариационную функцию


0

K  (t1 , t 2 ) , дисперсию D ( t ) , взаимные ковариационные функции K  , (t1 , t 2 ), K , (t1 , t2 )

не интегрируя  ( t ) .
t
U
8. Дан случайный процесс (t )  , где U  P  2 и случайный процесс (t )   ( s ) ds .
(t  4)
2
0

Найти ковариационную функцию K  ( t1 , t 2 ) , дисперсию D (t ) , нормированную ковариа-

ционную функцию r (t1 , t2 ) случайного процесса  (t )  (t )  (t ) , не интегрируя  ( t ) .

9. Дана ковариационная функция K ()  exp  3  1sin3   стационарного случайного

'
процесса  ( t ) . Найти ковариационную функцию, дисперсию производной  (t ) , взаим-

ную ковариационную функцию K '    .

10. Дана ковариационная функция K  (  ) стационарного случайного процесса  ( t ) . Найти

ковариационную функцию K  (t1, t 2 ), дисперсию D ( t ) случайного процесса


t

(t )   ( s ) ds , взаимную ковариационную функцию K  , ( t1 , t2 ) (в случае б лишь при


0

72
0  t 2  t1 ): а) K    2 ; б) K      e .

19

87
Теория случайных процессов

6. Спектральная плотность

Информацию о случайном процессе, которую дают корреляционная и ковариационная функции,


можно получить и через так называемую спектральную плотность S  ( ) , которая широко

используется для стационарных случайных процессов. Рассмотрим подробнее этот вопрос.

Спектральное разложение стационарного случайного процесса

В предыдущем разделе 5 было сформулировано понятие канонического разложения случайно-


го процесса, заданного на конечном интервале, и указано, что если случайный процесс  (t )
допускает каноническое разложение, то его ковариационная функция также имеет канониче-
ское разложение. Следовательно, существует связь между характером ковариационной функ-
ции и внутренней структурой соответствующего ей случайного процесса. Рассмотрим подроб-
нее этот вопрос.

Пусть дан  (t ) стационарный случайный процесс.


Для стационарного случайного процесса  (t ) , заданного на конечном интервале

Т ; Т  каноническое разложение имеет вид:


 (t )  m (t )   Ak cos ( k t )  Вk sin ( k t ) ,
k 0

где

2 
k  k1 , 1   ,
2T T

Коэффициенты Ak и Вk ( k  1, 2,..., n,... ) – центрированные некоррелированные случай-


ные величины, причем дисперсии одинаковы для каждой пары случайных величин с од-
ним и тем же индексом k : D( Ak )  D( Bk )  Dk .

Дисперсии Dk при различных k определяются формулами:

T T
1 2
D0  
T 0
K ( ) d , Dk   K ( )  cos (k ) d при k  0 .
T 0

88
6. Спектральная плотность

Координатными функциями канонического разложения являются функции cos ( k t ) и

sin ( k t ) при различных  k .

Разложение такого рода называется спектральным разложением стационарного случай-


ного процесса.

Спектральное разложение изображает стационарный случайный процесс в виде разложения


на гармонические колебания различных частот: 1 , 2 ,..., k ,... , причем амплитуды этих ко-

лебаний Ak и Вk являются случайными величинами.

Спектральному разложению стационарного процесса соответствует разложение в ряд его


корреляционной функции, которая, по определению, является четной, т.е. K  ( )  K  (  ) :


K  ( )   Dk cos ( k ) .
k 0

Определим дисперсию случайного процесса  (t ) , заданного спектральным разложением.

Используя свойство дисперсии суммы некоррелированных случайных величин и свойства ко-


вариационной функции, можем записать:

 
D ( )  K  (t , t )  K (0)   Dk cos ( k  0)   Dk
k 0 k 0

Совокупность дисперсий Dk называют спектром стационарного случайного процесса. Ор-

динаты Dk – спектральными линиями, соответствующими частотам k .

89
Теория случайных процессов

Таким образом, дисперсия стационарного случайного процесса равна сумме дисперсий всех
гармоник ее спектрального разложения.


Замечание 1: Из формулы K ( )   Dk cos ( k ) видно, что дисперсия стационарного слу-
k 0

чайного процесса  (t ) , некоторым образом распределена по различным частотам: одним ча-


стотам соответствуют бóльшие дисперсии, другим – мéньшие.

Спектральное разложение на конечном интервале дает только приближенное описание ста-


ционарного процесса. При построении разложения мы получаем спектр дисперсий случайно-
го процесса в виде ряда отдельных дискретных линий, разделенных равными промежутками
(«прерывистый» или «линейчатый» спектр). Чем больший участок времени мы будем рас-
сматривать, тем полнее будут наши сведения о случайном процессе. Поэтому от спектраль-
ного разложения на конечном участке предельным переходом при T   можем получить
спектральное разложение на бесконечном интервале.

Если T   , то 1    0 , поэтому расстояния между частотами k , на которых строится


Т
спектр, будут неограниченно уменьшаться. При этом дискретный спектр будет приближать-
ся к непрерывному, в котором каждому сколь угодно малому интервалу частот  соответ-
ствует элементарная дисперсия D( ) .

Dk
Отношение S (k )  представляет собой среднюю плотность дисперсии на участке .


Если выполнить графическое построение, то получим ступенчатую фигуру, напоминающую


гистограмму статистического распределения. Будем неограниченно увеличивать интервал T ,
тогда   0 , и ступенчатая кривая будет неограниченно приближаться к плавной кривой
S  ( ) . Эта кривая изображает плотность распределения дисперсии по частотам непрерывного

спектра, а сама функция S  ( ) называется спектральной плотностью дисперсии, или спек-

тральной плотностью стационарного случайного процесса  (t ) .

Определение 1. Предел отношения дисперсии, приходящейся на данный интервал частот, к


длине этого интервала, когда длина интервала стремится к нулю, называется спектральной
плотностью стационарного случайного процесса  (t ) .

90
6. Спектральная плотность

Дискретный спектр разложения переходит в непрерывный, и вместо дисперсии амплитуды


гармоники каждой частоты рассматривается плотность дисперсии амплитуды на единицу
частоты.

Дисперсия случайного процесса вычисляется по формуле: D  S ( )d  . 


0

Спектральная плотность описывает частотный состав стационарного процесса. Эта характе-


ристика полностью определяется корреляционной функцией данного процесса.

Подобно тому как ординаты дискретного спектра Dk выражаются через корреляционную

функцию K  ( ) , спектральная плотность S ( ) также может быть выражена через корреля-

ционную функцию.

Рассмотрим каноническое разложение корреляционной функции на конечном интервале.


K  ( )   Dk cos ( k  ) ,
k 0

где соответствующая частоте k дисперсия:

T
2
Dk 
T 0  
K ( )cos (k )d .

Разделим обе части последнего выражения на    .


Т

Dk
Поскольку S (k )  , то получим:


T
2
S (k ) 
 K
0

( ) cos (k  )d

Переходя в полученном выражении к пределу при T   , запишем выражение спектраль-


ной плотности через корреляционную функцию:


2
S ( ) 
 K
0

( )cos ( )d

91
Теория случайных процессов

Теперь выполним аналогичные преобразования и получим выражение для корреляционной


функции через спектральную плотность.

Выразим дисперсии Dk через спектральную плотность:

Dk  S (k )   ,

подставим в формулу:


K  ( )   Dk cos ( k  ) ,
k 0

перейдем к пределу при T   и получим:


K ( )  S ( )cos ( )d 
0

Полученные интегралы представляют собой интегралы Фурье. Таким образом, корреляцион-


ная функция и спектральная плотность выражаются одна через другую с помощью преобра-
зований Фурье.

В действительной форме эти преобразования имеют вид:

 2
 0 
S
  ( )  K ( ) cos ( ) d

 
 K ( )  S ( ) cos ( ) d 
   
 0

Эти формулы называются формулами Винера – Хинчина.

Свойства спектральной плотности S ( ) :

1. S ()  0 – неотрицательность.

2. Если положить в выражении K ( )   S ( ) cos ( ) d  :  0 , то получим:
0

  

K  (0)  D   S ()  cos(  0) d    S  ()  1 d    S  ()  d  , т.е. интеграл от спектральной


0 0 0

плотности в пределах от 0 до  равен дисперсии стационарного случайного процесса.

92
6. Спектральная плотность

Для того, чтобы упростить математические выкладки удобно использовать спектральное


разложение стационарного случайного процесса в комплексной форме, при этом считается,

что частоты изменяются в пределах от  ,   , но надо понимать, что частоты   0 физи-

ческого смысла не имеют.

Спектральной плотностью стационарного случайного процесса в комплексной форме назы-


вается функция:

1
S ( )  S (  )
2

Тогда формулы Винера – Хинчина в комплексной форме, выглядят так:

  1   i
 S ( )  2  K  ( ) e d
 
 
 K ( )  S  ( ) e i d 
   
 

Свойства спектральной плотности S ( ) :

1. S  ( )  S () – четность спектральной плотности на интервале  ,   .


 

1
2. S ( )  S ( ) на участке  0, .
2

Пример 6.1. Корреляционная функция случайного процесса (t ) задана в виде

    ,  0
K ( )  D  e , где    . Определить спектральную плотность соответствую-
 ,  0
щего случайного процесса.

Решение. Спектральная плотность S ( ) определяется по формуле:



1  i
S ( )   K  ( ) e d
2 

93
Теория случайных процессов

Можем записать:
 
1 1
S ( )   K ( ) e
 i
d   D  e
 
 ei d .
2  2 

Исходя из условий задачи, представим этот интеграл в виде суммы двух интегралов:

D  0  i 
 D  0  i  

    e   d  .
   i 
S ( )  e d  e  i
d   e d 
2   0  2   0 
Вычислим входящие в выражение интегралы:

D 1  i 
0 D 1    i 
 D  1 1 
S ( )   e   e    
2 (  i )  2 (  i ) 0 2  (  i ) (  i ) 
D 2   D
 
2 ( 2   2 )  ( 2   2 )

1 2    D
Или окончательно из соотношения S ( )  S (  ) , находим S ( )  .
2  ( 2   2 )

Задачи по теме для самостоятельного решения

1. K     – ковариационная функция стационарного случайного процесса   t  . Найти его

спектральную плотность.
sin 2 4
a) K      64 ;
2

b) K     12exp  4    14   .

2. Найти ковариационную функцию стационарного случайного процесса   t  , если его

спектральная плотность S  ( ) :

 2
1  , при   4
a) S  ()   16 ;
0 , при   4

10  1 1 
.
b) S  ( )   
  4   32 4  3 2 
 

94
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов

7. Сходимость, непрерывность, дифференцируемость


и интегрируемость случайных процессов

В разделе 5 были рассмотрены воздействия линейных операторов на случайные процессы, в


частности воздействие операторов дифференцирования и интегрирования.
При этом не уточнялось, как эти операции определяются для случайных процессов.

Рассмотрим подробнее вопросы сходимости, непрерывности, дифференцируемости и инте-


грируемости случайных процессов.

Понятие сходимости является базовым в стохастическом (вероятностном) анализе, также,


как и в математическом анализе.

Стохастический анализ – это раздел математики, в котором случайные функции изучают


методами математического анализа. Теория стохастического анализа объединяет теорию
пределов, дифференциального и интегрального исчисления и их непосредственные прило-
жения.

В теории случайных процессов, также, как и в теории вероятностей рассматривают различ-


ные виды сходимости и вследствие этого различные виды непрерывности, дифференцируе-
мости и интегрируемости.

Наиболее удобно и просто ввести все эти понятия для процессов, которые удовлетворяют

условию M 2  t    , так называемых процессов второго порядка, или гильбертовых

процессов.

Замечание 1: Физически условие M 2  t    означает, что процесс имеет конечную мощ-

ность, что выполнимо для всех реальных процессов.

Сходимость случайных процессов

В теории вероятностей были рассмотрены следующие виды сходимости случайных последо-


вательностей:

95
Теория случайных процессов

1. Сходимость по вероятности: если для любого   0 , существует lim P  k () ()    0 .


k 

2. Сходимость в среднем квадратическом: если lim M  k () ()    0 .


2
k 


3. Сходимость почти наверное: если P lim  k ()  ()  1 .
k 

4. Сходимость по распределению (слабая сходимость): если lim Fk  F ( x) во всех точках
k 

непрерывности функции распределения F ( x ) .

При изучении теории случайных процессов мы будем использовать только сходимость в


смысле среднего квадратического, потому что она является наиболее приемлемой с точки
зрения приложений.

Сформулируем определение сходимости в среднем квадратическом для случайных процес-


сов.

Определение 1: Последовательность s (t ) сходится к (t ) в среднем квадратическом при

s  s0 , если lim M   s (t ) (t )    0 ,


2

ss 0

ср . кв .
Обозначение:  s (t )  (t ) ; или l.i.m  s (t )  (t ) .
s  s0 s  s0

Пример 7.1. Найти предел в среднеквадратическом X (t )  lim


n 
X n (t ) , если последователь-

 t
ность X n (t ) распределена нормально X n (t )  N  0,  .
 n
Решение: По определению, необходимо найти такой процесс X (t ) , чтобы

M  X n (t )  X (t )   0 . Покажем, что предельным является процесс X (t )  0 .


2
lim
n

Распишем подробно M  X n (t )  X (t )  :
2


lim M  X n2 (t )  2  X n (t )  X (t )  X 2 (t )   lim M  X n2 (t )   2  M  X n (t )  X (t )   M  X 2 (t ) 
n  n 

Предположим, что все три предела существует, т.е.:

96
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов

 
lim M  X n2 (t )   2  M  X n (t )  X (t )   M  X 2 (t )  
n 

 lim M  X n2 (t )   2  lim M  X n (t )  X (t )   lim M  X 2 (t ) 


n  n  n 

Оценим значение каждого из пределов:

 t  x 2  n2 
1. lim M  n 
X 2
(t ) , т.к. X (t )  N  0,  , то lim M  X n (t )   lim  x  exp 
2 2
2 
dx 
 2 t 
n
n
 n n  n 
R

 (используем терему Лебега о предельном переходе под знаком интеграла) =

 x 2  n2 
=  lim( x 2  exp   2 
)dx  0;
R
n 
 2t 
Или здесь можно легче найти этот интеграл: т.к. M  X n2 (t )   DX n (t )  M 2 X n (t ) , а у нас из-
 t t
вестно, что X n (t )  N  0,  , то есть M 2 X n (t )  0 и M  X n2 (t )   DX n (t )  , поэтому
 n n
t
lim M  X n2 (t )   lim  0
n  n  n

2. lim M  X n (t )  X (t )   0;
n


3. lim M X 2 (t)  0
n

lim M  X n (t )  X (t )   0,
2
Таким образом: а, следовательно, последовательность
n

 t
X n (t )  N  0,  сходится в среднем квадратическом к процессу X (t )  0 .
 n

Непрерывность случайных процессов

2
Определение 2. Случайный процесс второго порядка (, t ) , t  T (т.е. M (, t )   )

называется непрерывным в точке t  t0 , если существует предел:

lim M  (, t )  (, t0 )   0


2

t t0  

т.е. случайный процесс сходится в точке t  t0 к случайной величине ( )  ( , t0 ) .

Определение 3. Говорят, что скалярный случайный процесс второго порядка (, t )  ( , t ) ,

t T непрерывен на T , если он непрерывен в каждой точке t  T .

97
Теория случайных процессов

Пример 7.2. Пусть дан случайный процесс вида: X ( , t )    t , где   N  0,1 – стандарт-

ная нормально распределенная случайная величина. Показать, что X (t ) – непрерывен в


среднем квадратическом.

Решение: Найдем значение предела lim M  X ( , t )  X ( , t0 )  :


2

t t0  

lim M  X ( , t )  X ( , t0 )   lim M    t    t0    lim M  2  t  t0    lim M  2   t  t0  


2 2 2 2

t t0   t t0   t t0   t t0  

Т.к. известно, что   N  0,1 , т.е. M   0, D  1  M  2 , окончательно можем записать:

lim M  X ( , t )  X ( , t0 )   lim M  2   t  t0    lim  t  t0    0


2 2 2

t t0   t t0   t t0  

Т.е. действительно случайный процесс X (t ) непрерывен в среднем квадратическом.

Пример 7.3. Показать, что пуассоновский случайный процесс непрерывен в среднем квадра-
тическом.

Решение: Покажем его непрерывность в некоторой произвольной точке t  t 0  T . Исполь-


зуем при решении свойство пуассоновского процесса:

  t 
k
 t1   t2 t1 
P   , t2     , t1   k 

2
e ;
k!

Найдем значение предела lim M  X ( , t )  X ( , t0 )  :


2

t  t0  


[ (t  t0 )]   (t t )
 k
M   ( , t )   ( , t0 )    k 2  P   ( , t )   ( , t0 )  k    k 2 
2
e  0

k 1 k! k 1


  (t  t0 )  e   (t t0 )  k 
  (t  t0 ) k 1

.
k 1 (k  1)!

  ( t  t0 ) 
k 1

Для дальнейшего упрощения полученного выражения найдем сумму ряда 
k 1
k
(k  1)!
.

Обозначим  (t  t0 )  x . Вначале проинтегрируем ряд почленно:

   
x k 1 xk x k 1 xk
  k  ( k 1)!dx   ( k 1)! x (k 1)!  x k !  x  e
x
.
k 1 k 1 k 1 k 0

98
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов


x k 1
Продифференцировав полученное выражение, найдем сумма ряда 
k 1
k
( k 1)!
:

 k 1 d
 k (kx1)!  dx ( x  e
k 1
x x x x
)  x  e  e  e  ( x  1) .

Таким образом,


M  (, t )  (, t0 )   (t  t0 )  e ( t t0 )  k   (t t0 ) 
2 k 1

k 1 (k 1)!
 (t  t0 )e
 ( t t0 )
e
 ( t t0 )

   (t  t0 ) 1  (t  t0 )  (t  t0 )  1  
t t0
 0,

И согласно определению 2 непрерывности процесса в точке, исследуемый процесс непреры-


вен в точке t  t 0 . В силу произвольности выбора этой точки можем заключить, что процесс

непрерывен в среднем квадратическом в каждой точке t  T .

Замечание 2. Процесс Пуассона, реализации которого кусочно-постоянны, является приме-


ром, того, что стохастическая непрерывность и непрерывность в среднем квадратическом не
означает, что реализации случайного процесса непрерывны.

Теорема 1: Для того, чтобы случайный процесс был непрерывным в среднем квадратическом
в точке t , необходимо и достаточно, чтобы его ковариационная функция K X (t1 , t2 ) была не-

прерывна в точке t1  t 2  t .


Пример 7.4. Пусть дан случайный процесс вида: X ( , t )  , где   N  0,1 – стандартная
t
нормально распределенная случайная величина. Показать, что X (t ) – не является непрерыв-

ным процессом в среднем квадратическом в точке t  t 0  0 .

Решение:

1. Найдем математическое ожидание случайного процесса:

  1
M  X ( , t )  M    M  , т.к. известно, что   N  0,1 , поэтому окончательно
t  t

M  X ( , t )  0

2. Найдем ковариационную функцию случайного процесса:

99
Теория случайных процессов

  


K X (t1 , t2 )  M X (t1 ) X (t 2 )  RX (t1 , t2 )  M  X (t1 )  X (t2 ) т.к. M  X ( , t )  0

    1 
M  X (t1 )  X (t2 )  M       M  , т.к. D  M   M   M   0  1 , то
2 2 2 2

 t1 t2   t1  t2 

 1   1 
M  2  1, т.е. K X (t1 , t2 )  M  X (t1 )  X (t2 )     M  
2
;
 t1  t2   t1  t2 

В силу теоремы 1, для того, чтобы случайный процесс был непрерывным в среднем квад-
ратическом в точке t , необходимо и достаточно, чтобы его ковариационная функция
K X (t1 , t2 ) была непрерывна в точке t1  t 2  t .

Покажем, что функция K X (t1 , t2 ) в точке t1  t2  t  0 терпит разрыв. Хотя это и очевидно.

 1  1
K X (t1 , t2 )    при t1  t 2  t : K X (t , t )  DX (t )  2
 t1  t2  t

В курсе математического анализа, формулировалось определение непрерывности функции


в точке t  t0 , одним из условий непрерывности, было, то что функция должна быть

1
определена в точке t  t0 и некоторой ее окрестности. У нас функция K X (t , t )  при
t2
t  0 неопределена, поэтому окончательно заключаем, что случайный процесс вида:

X ( , t )  не является непрерывным процессом в среднем квадратичном в точке
t
t  t0  0 .

Дифференцируемость случайного процесса

Определение 4. Случайный процесс (, t ) t  T называется дифференцируемым в среднеквад-


'
ратическом в точке t  t0 , если существует такая случайная величина  (, t0 ) , для которой

  ( , t )  ( , t ) ' 2

lim M  0
  (, t0 )   0 .
t t0
 t  t0 

При этом случайная величина  ' ( , t ) называется его производной в этой точке.

100
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов

Определение 5. Производной случайного процесса в точке t0 называют среднеквадратич-

ный предел отношения приращения функции к приращению аргумента t  t  t0 при

t  0 :

' (, t )  (, t0 )


 (, t )  lim
t t0 t  t0

Определение 6. Если случайный процесс (, t ), t  T является дифференцируемым в каждой

точке открытого множества T0  T , то его называют дифференцируемым на множестве T0 .

Рассмотрим еще раз задачу, которая обсуждалась в разделе 2.

Пример 7.5. Дан случайный процесс   t   X  t   Y  t  , где X и Y – случайные величины.

Причем Y имеет симметричное относительно нуля распределение и P  Y  0   0 . Найти

вероятность того, что реализации случайного процесса при t  0 возрастают.


При решении была указана производная процесса. Покажем, что процесс   t   X  t   Y  t 

дифференцируем в среднем квадратическом и имеет среднеквадратическую производную

 ' t   2  t  Y .

Решение: По определению можем записать:

 (, t  t )  (, t ) ' 2



lim M    (, t )   0
t  0
 t 

Тогда запишем для нашего процесса:

(, t  t )   t t    t t   Y  X и  (, t )  t 2  Yt  X


2

(, t  t )  (, t )
Рассмотрим предел отношения :
t

t t   t t Y  X t 2 Yt  X


2
(, t  t )  (, t ) t 2  2t t t 2 Yt Y t  X  t 2 Yt  X
  
t t t
2t t t 2 Y t
  2  t  Y  t ,
t

101
Теория случайных процессов

Тогда:

 (, t  t )  (, t ) ' 2



  (, t )   lim M  2  t  Y  t  2  t  Y   lim M  t   0
2 2
lim M 
t  0 t      
 
t 0 t 0

Таким образом показали, что процесс действительно дифференцируем в среднем квадрати-


ческом.

Теорема 2. (необходимое и достаточное условие дифференцируемости случайного про-


цесса). Для того, чтобы скалярный случайный процесс (, t ) t  T был дифференцируемым
'
в точке t 0  T , а для случайной величины  (, t0 ) существовало математическое ожидание и

дисперсия, необходимо и достаточно, чтобы функция m (t ) была дифференцируема в этой

точке и существовала вторая обобщенная смешанная производная от ковариационная функ-


ции K  (t1 , t 2 ) при t1  t2  t0 .

Пример 7.6. Задан случайный процесс X (t )    cos(  t )    sin(  t ), где ,  - независимые


2 2 2
случайные величины, числовые характеристики, которых m  m  0,      . Пока-

зать, что это дифференцируемый процесс.

Решение:
1. Найдем математическое ожидание и ковариационную функцию процесса:
m X (t )  M  cos( t ) sin( t )   M  cos(t )   M  sin( t )  
 m cos(   t )  m sin(   t );

K X (t1 , t2 )  M  X (t1 ) X (t2 )   mX (t1 )mX (t2 );

2. Откуда

M  X (t1 ) X (t 2 )   m X (t1 ) mX (t2 ) 


M [(  cos(  t1 )    sin(  t1 )  (  cos(  t 2 )    sin(  t 2 )]  m X (t1 ) m X (t2 ) 
2 2
 M   cos(  t1 ) cos(  t2 )  M   M   sin(  (t1  t 2 ))  M   sin(  t1 ) sin(  t 2 ) 
 m cos(  t1 ) cos(  t 2 )  m  m  cos(t1 )sin(t2 )  sin(t1 )cos(t2 )  
2

 m  sin(   t1 )  sin(   t 2 )   cos(   (t1  t2 ));


2 2

Сокращаем M   M   sin(   (t1  t2 )) и m  m  cos(t1 )sin(t2 )sin(t1 )cos(t2 ) 

102
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов

M  X (t1 ) X (t 2 )   m X (t1 )m X (t 2 )  M   cos(  t1 ) cos(  t 2 )  M   sin(  t1 )sin(  t 2 ) 


2 2

 m cos(  t1 ) cos(  t2 )  m  sin(  t1 )  sin(  t 2 ) 


2 2

  M  2  m2   cos(  t1 ) cos(  t 2 ))   M 2  m2  sin(  t1 )  sin(  t2 ))


2 2 2 2 2 2
учитывая, что M     m ; M     m записываем окончательно:

K X (t1 , t2 )    cos(  t1 ) cos(  t2 ))  sin(  t1 )  sin(  t2 )   cos  (t1  t2 ) 


2 2

2
Таким образом получили: m X (t )  m cos(   t )  m sin(   t ); K X ( t1 , t 2 )   cos(   (t1  t2 ));

откуда

' dm X
m X (t )     [m cos(  t )  m sin(  t )];
dt
2
 KX 2 2 2 2
   cos (t 2  t1 ) t1t2 t0   
t1t2

И согласно теореме о необходимом и достаточном условии дифференцируемости случайного


процесса: случайный процесс X (t )    cos(  t )    sin(  t ) – дифференцируем.

Интегрируемость случайного процесса

Понятие интеграла от случайного процесса будем также рассматривать в среднеквадратиче-


ском смысле. Пусть случайный процесс (t ) определен на T  R . На отрезке a,b  T по-

строим некоторое разбиение a  t0  t1  ....  t n 1  tn  b , а на каждом из промежутков этого

разбиения выберем произвольную точку i  ti 1 , ti  , i  1,..., n .

Определение 7: Если при n   и max(ti  ti 1 )  0 существует предел в среднеквадрати-


i 1,..., n

n
ческом  (  )  (t
i i
c.k
 ti 1 )    , не зависящий от способа разбиения ti   и выбора точек
i 1
  n b
 
2

i  , т.е. maxlim


ti 0
M     ( i )  (ti  ti 1 )    (t ) dt    0, то случайный процесс (t ) называет-
  i 1 a  
ся интегрируемым в среднеквадратическом, а случайная величина  называется ее сред-
b

неквадратическим интегралом по a,b и обозначается   (t ) dt . 


a

103
Теория случайных процессов

b
Теорема 3. Для существования среднеквадратического интеграла    (t ) dt необходимо и
a
достаточно, чтобы существовали следующие интегралы Римана:
b b b

I1   m (t ) dt ; и I 2    K (t , ) dt d  ,

a a a

где m (t )  M  (t ) , K (t , )  cov  (t ), ( ) 

2
Пример 7.7. Задан случайный процесс X (t )  V  t , где V – случайная величина, числовые
2
характеристики, которой mV  2, V  1 . Показать, что X (t ) интегрируемый в среднем

квадратическом процесс на 1,2 .

Решение:
1. Найдем математическое ожидание и ковариационную функцию процесса:

mX (t )  M V t 2   t  MV  2t
2 2

K X (t1 , t2 )  M  X (t1 )  X (t 2 )   mX (t1 )mX (t 2 )  M V  t1  t 2   MV   t1  t2   2 2 2


 2 2 2

  t12  t 22  MV 2   MV  2  t12  t 22   t12  t22    MV 2   MV 2   t 2


1
2

 t2  DV  t1  t 2
2 2

2. Для существования среднеквадратического интеграла    (t ) dt необходимо и доста-


a

точно, чтобы существовали следующие интегралы Римана:


b b b

I1   m (t ) dt и I2   K  (t1 , t 2 ) dt1 dt2


a a a

У нас:
2 2
2t 3 16 2 14
1

I1  2t dt 
2
3
1
   ;
3 3 3

2 2 2 2 2
 t23 2  7 2
7 7 49
I2    t12 t 22 dt1 dt2   t12 dt1  t22 dt 2   t12 dt1   t 2
1 dt1   
1 1 1 1 1  3 1 3 1 3 3 9

Т.е. согласно теореме 3, о необходимом и достаточном условии существования средне-


b

   (t )dt случайный процесс X (t )  V  t интегрируем


2
квадратического интеграла
a

на 1,2 .

104
8. Основные классы случайных процессов

Гауссовские случайные процессы

Важную роль во многих прикладных задачах играют гауссовские случайные процессы, кото-
рые возникают в результате сложения большого числа независимых или слабо зависимых
случайных процессов примерно одинаковой мощности. В этом случае, с увеличением числа
слагаемых сумма сходится к гауссовскому случайному процессу независимо от того, как
распределены отдельные слагаемые.

 
Пусть    1 ,  2 ,,  n  - n-мерный случайный вектор, и u   u1 , u2 ,, un   R n .
T T

   
i ( u , ) i (u  unn )
Характеристическая функция  определяется как: g n (u )  Me  Me 1 1 ,
 
 
где u,  – скалярное произведение векторов.


Напомним, что n-мерный случайный вектор     ,  ,  ,   имеет нормальное распреде-
T

1 2 n

ление, если его характеристическая функция имеет вид:

   1  T 
  1 n
g n (u1 , u 2 , , un )  exp i  m, u   u K u  exp i  mk u k   K jk u j uk ,
2
n

k 1 2 j , k 1 
 T
где u   u1 , u2 ,, un  , m   M 1 , M 2 , , M n    m1 , m2 , , mn  ,
T


K  ( K jk ) – ковариационная матрица случайного вектора    1 ,  2 , ,  n  :
T

___
K jk  M    j  m j    k  mk    M   j   k  , j , k  1, n .
  

 

Определение 1. Действительный случайный процесс  ( , t ), t  T называется гауссовcким


или нормальным, если все его конечномерные законы распределения являются нормальны-
ми, т.е. n-мерная плотность распределения и характеристическая функция совместного рас-

пределения вероятностей случайных величин  (, t1 ),  (, t2 ),....,  (, tn ) 


 ti  T i  1, n 
имеют вид:

105
Теория случайных процессов

 1
1 
p( x1 , x2 ,..., xn , t1 , t2 ,..., tn )  exp   Kij1  xi  mi   x j  m j   ;
n 2
 2  det K  i, j 

  n
  n n

g n  u1 , u 2 , , u n ; t1 , t 2 , , t n   M exp  i  xk uk   exp i  mk uk 
1
 K u u .
2 k , j 1 kj k j 
  k 1   k 1
Характеристическая функция полностью определяет распределение совокупности случайных
величин, и с ее помощью может быть задано полное семейство конечномерных распределе-
ний.

Пример 8.1. Найти характеристическую функцию гауссовского случайного процесса при


n  1.

Решение: Пусть n 1 , тогда по определению характеристической функции


   x  m 2  1
g1  u   M e    e p1  x  dx ,где p1  x  
iu  iu x
exp  2  – плотность одномер-
 2 
2
 2 
ного нормального распределения.

1
Плотность p1  x  находится по формуле обращения: p1  x   e  iu x
g1  u  du .
2 

1
iu m  2 u 2
Покажем, что: g1  u   e 2
;

Имеем:

  x  m 2 x m  y  y2  1
1 
i  y  m u 1  eiu m iu y  y2

e    dy   dy 
iu x 2 2 2 2 2 2
e dx e e e
 2 2  2 2 2 2 

 z  y i  2 u  2
 2u 2   i  u z2
 1
 y i  u   2u 2
2
ei u m  2
  
ei u m  
 e   dz 
2
2 2 2
e 2
dy e 2
e
2 2  2 2   i  2u

1
iu m   2 u2
e 2 .

Пример 8.2. Найти одномерную и двумерную плотности распределения вероятностей про-


цесса  (t )    cos   t    sin   t  , где  – постоянная угловая частота;  и  -взаимно не-

106
8. Основные классы случайных процессов

зависимые случайные величины с нулевыми математическими ожиданиями m  m  0 и

дисперсиями D  D   2 .

Решение: При любом фиксированном значении t , будем иметь в сечении случайную вели-
чину, которая будет являться гауссовской величиной, т.к. она представляет собой линейную
комбинацию гауссовских случайных величин. Для определения одномерной и двумерной
плотностей распределения вероятностей процесса, нам нужно определить его математиче-
ское ожидание m (t ) и ковариационную функцию K (t1 , t2 ) .

По определению:

m (t )  M   cos  t    sin   t    cos  t   M   M   sin   t   0 ;

K (t1 , t2 )  M   cos t1     sin t1     cos  t2     sin  t2   


 M ( 2  cos  t1   cos t2     cos  t1    sin  t2  
   sin  t1     cos t2    2  sin  t1   sin t2 )

Из условия задачи известно, что  и   взаимно независимые случайные величины с нуле-


выми математическими ожиданиями m  m  0 , поэтому M      M   M   0 (свой-

ство математического ожидания для независимых случайных величин).


Упростим выражение для K (t1 , t2 ) :

K (t1 , t2 )  M   cos t1    sin t1     cos  t2    sin  t2   


 M  2 cos  t1   cos t2    2 sin t1   sin t2    M  2   cos t1   cos  t2   
 M  2   sin t1   sin t2     2  cos  t1   cos t2     2  sin t1   sin t2   
  2  cos  t1   cos  t2   sin  t1   sin  t2     2 cos   t2  t1   K ( ),   t2  t1.

Запишем ковариационную матрицу:


 2  2 cos  
K  2 
  cos  2 
найдем ее определитель:
2  2 cos 
K  2   4  1  cos2     4  sin 2   0
 cos   2

Найдем обратную матрицу:

107
Теория случайных процессов

1 1  2  2 cos   1  2  2 cos  
K    4  2 
det K   2 cos  2    sin    cos  2
2

1  1  cos    1   sin 
2 2
 cos    sin  
2 2
 2     
  sin 2    cos  1    cos    sin 
2 2
1  2  sin 2  
 K111 K121 
  1 1 
 K 21 K 22 

Теперь можем записать искомые плотности распределения вероятностей, используя выше-


указанную формулу:

1  1 
p( x1 , x2 ,..., xn , t1 , t2 ,..., tn )  exp    Kij1  xi  ai   x j  a j   ;
n 2
 2  det K  i , j 

Одномерная плотность распределения вероятностей процесса  (t )    cos   t    sin  t  :

1  1 x2 
p( x, t )  exp   2  ;
 2  2  

Двумерная плотность распределения вероятностей процесса  (t )    cos  t    sin  t  :

1  1 
p( x1 , x2 , t1 , t2 )  exp   K ij1  xi  ai   x j  a j   
 2 i, j
2
 2   4  sin 2  

1  1 
 exp    K111  x12  K121  x1  x2  K 211  x1  x2  K 221  x22   
2
 2 
 2   4  sin 2 
1  1  x2 x  x  cos  x1  x2  cos  x22  
 exp    2 1 2  122 2  2   
2

 2    sin    sin    sin 2
  2
 sin 2
  
 2    sin 
4 2

1  1  x12 2  x1  x2  cos  x22  


 exp        
 2     sin   2    sin    sin 
2 2 2 2 2
  sin   
2 2

 1  x1  2  x1  x2  cos   x2  
2 2
1
 exp     ,  t2  t1
 2    2  sin   2   2  sin 2   

Замечание 1: Гауссовские процессы обладают рядом хороших свойств:

1. Гауссовский случайный процесс исчерпывающим образом определяется двумя момент-


ными функциями: математическим ожиданием m (t ) и ковариационной функцией K  ( ) .

108
8. Основные классы случайных процессов

2. Для гауссовских случайных процессов понятия стационарности в широком и узком смыс-


ле совпадают. По определению, случайный процесс является стационарным в широком
смысле, если его математическое ожидание не зависит от времени, а ковариационная функ-
ция зависит лишь от абсолютных значений интервалов между рассматриваемыми моментами
времени. Одновременно он будет стационарным в узком смысле, т.к. многомерные плотно-
сти вероятности и характеристические функции не будут изменяться при сдвиге всей группы
точек вдоль оси времени на произвольную постоянную величину.

Процессы с ортогональными и независимыми приращениями

Определение 2. Приращением случайного процесса на промежутке  t1 , t 2  , где 0  t1  t2

называется случайная величина   t1 , t2     t2     t1 

Определение 3. Случайный процесс называется процессом с ортогональными приращени-


ями, если для произвольных моментов времени 0  t1  t2  t3  t4 выполняется соотношение:

cov  (t2 )   (t1 ),  (t4 )   (t3 )  cov  (t1 , t2 ),  (t3 , t4 )  0

Ковариация двух случайных величин имеет смысл скалярного произведения. Поэтому усло-
вие некоррелированности приращений часто называют условием их ортогональности, т.е.
равенства нулю скалярного произведения этих приращений.

Замечание 2: Из всего вышеизложенного следует, что случайный процесс   t     t     0

тоже процесс с ортогональными приращениями. Для любого промежутка  t1 , t2  :

109
Теория случайных процессов

  t     t  , т.е. все свойства приращений процесса   t  переносятся на приращения

процесса   t  . Поэтому далее будем предполагать, что   0   0 . В таком случае говорят,

что процесс выходит из нуля.

Частным случаем процессов с ортогональными приращениями являются процессы с неза-


висимыми приращениями.

Определение 4. Случайный процесс называется процессом с независимыми приращениями,


если для любых сечений 0  t1  t2  ...  tn , n  1 случайные величины

  0  ,   0, t1  ,   t1 , t2  ,.....,   tn1 , tn  независимы в совокупности.

  t  ,   t     t  ,   t     t .....,   t     t  ,   t     t  
0 1 0 2 1 n n 1 n 2 n 1

и конечномерное распределение имеет вид:

p( x1 , x2 ,..., xn , t1 , t2 ,..., tn )  p ( xn , tn xn1 , tn1 )  ..........  p ( x2 , t2 x1 , t1 )  p ( x1 , t1 )

Процессы с независимыми приращениями полностью описываются одномерными и дву-


мерными законами распределения, т.е. для задания такого процесса достаточно знать только
p( x, t ) , p( x1 , x2 , t1 , t2 ) или F  x , t  , F ( x1 , x2 , t1 , t2 ) .

Замечание 3: В случае процесса с конечной мощностью, т.е. если M   2 (t )    , при всех

t  0 процесс с независимыми приращениями также является процессом с ортогональными


приращениями. Обратное в общем случае неверно, но гауссовские процессы с ортогональ-
ными приращениями также является и процессом с независимыми приращениями, в предпо-
ложении, что   0   0 .

Винеровский процесс
(частный случай процесса с независимыми приращениями)

Определение 5: Винеровским процессом W  , t  называют случайный процесс, для которо-

го выполнены следующие аксиомы:


1. Для любого разбиения временного интервала 0,T  точками 0  t0  t1  t2 ...  tn1  tn  T

Приращения: W (t1 )  W (t0 ), W (t2 )  W (t1 ), W (t3 )  W (t2 ), ..., W (tn )  W (tn1 ) независимы.

110
8. Основные классы случайных процессов

2. Пусть 0  ti 1  ti  T . Тогда случайная величина W  ti   W  ti 1  распределена нормально с

нулевым математическим ожиданием M W  ti   W  ti 1   0 и дисперсией

M W  ti   W  ti1     ti  ti 1  .
2

3. Реализации W  0 , t  непрерывны по t на 0,T  .

Винеровский случайный процесс является одновременно и процессом с независимыми при-


ращениями, и гауссовским случайным процессом. Если   1 , то винеровский процесс назы-
вается стандартным.

Некоторые полезные свойства винеровского процесса

Винеровский процесс инвариантен относительно некоторых преобразований фазовой и вре-

менной шкал. Так, если W  , t  – винеровский случайный процесс, то для

   0 и s  0 случайные процессы:

 t 
W  , t     W  , 2 
  
 1
X   , t   t W   , 
 t
X  , t   W  , t  s  W  , s 
Также являются винеровскими.

Пример 8.3. Показать, что корреляционная функция винеровского процесса имеет вид:

Rw (t1 , t2 )   2 min t1 , t2 

Решение:
1. Пусть t1  t2 . По определению корреляционной функции: Rw (t1 , t2 )  M W  t1   W  t2  Про-

ведем искусственные преобразования под знаком математического ожидания, добавим


W 2  t1  и вычтем его же:

Rw (t1 , t2 )  M W  t1   W  t2   M W  t1   W  t2   W 2  t1   W 2  t1 

Далее проводим простые алгебраические преобразования:

111
Теория случайных процессов

 
Rw (t1 , t2 )  M W  t1   W  t2   M W  t1   W  t2   W 2  t1   W 2  t1  


 M W  t1   W  t2   W  t1   W 2  t1  
Распишем последнее выражение, используя свойство математического ожидания суммы
случайных процессов:

   
Rw (t1 , t2 )  M W  t1   W  t2   W  t1    W 2  t1   M W  t1   W  t2   W  t1   MW 2  t1 


Можем переписать так: Rw (t1 , t2 )  M W  t1   W  t0    W  t2   W  t1   MW 2  t1  
В силу того, что все приращения винеровского процесса независимы, используем опять
свойство математического ожидания произведения случайных процессов:

 
M W  t1   W  t0    W  t2   W  t1    M W  t1   W  t0   M W  t2   W  t1 


Т.к. M W  ti   W  ti 1   0 , то M W  t1   W  t0    W  t2   W  t1    0 

И тогда Rw (t1 , t2 )  MW 2  t1  или иначе Rw (t1 , t2 )  M W  t1   W  t0   


2

Т.к. по определению M W  ti   W  ti 1     ti  ti 1  , то у нас окончательно:


2

Rw (t1 , t2 )  M W  t1   W  t0      t1  t0     t1  0     t1
2

2. Пусть t2  t1 . Тогда проведя аналогичные предыдущему рассуждения, получим:

Rw (t1 , t2 )  M W  t1   W  t2   M W  t1   W  t2   W 2  t2   W 2  t2  

 
 M W  t2   W  t1   W  t2    W 2  t2   M W  t2   W  t0   M W  t1   W  t2    M W 2  t2  

 M W  t   M W  t   W  t     2   t 2  t0    2  t 2
2 2
2 2 1

Объединяя оба выражения в одно, окончательно можем записать:

Rw (t1 , t2 )   2 min  t1 , t2 

Это корреляционная функция винеровского процесса.

Пример 8.4. Показать, что винеровский процесс не дифференцируем в среднем квадратиче-


ском.

112
8. Основные классы случайных процессов

Решение: По определению производная слева:

 W (, t  t )  W (, t ) 2  1
lim M    lim M  W(,t t ) W (,t ) 2 
t  0   t t0 t 2
 

Т.к. приращения винеровского процесса распределены нормально, то

M  W(,t t ) W (,t )     t  t  t     t


22 2

1 1 2
Тогда lim M  W(,t t ) W (,t ) 2   lim  
2
 t  lim  
t 0  t 2 t 0  t 2 t 0  t

Аналогично для правой производной:

 W (, t  t )  W ( , t ) 2  1
lim M    lim M  W( ,t t ) W ( ,t ) 2  
t  0   t t 0  t 2
 
1 2 2
 lim     t  lim  
t  0  t 2 t 0  t

Действительно винеровский процесс не дифференцируем в среднем квадратическом.

Пуассоновский процесс
(частный случай процесса с независимыми приращениями)

Определение 6. Пуассоновским процессом с параметром   0 называется скалярный слу-

чайный процесс   , t  , t  R , обладающий следующими свойствами:

1.   ,0  0

2.  n  1, tk  T , k 1, n, t1  t2  ...  tn случайные величины

 (t1 ),  (t2 )   (t1 ),  (t3 )   (t2 ), ...,  (tn )   (tn 1 ) являются независимыми;
3.  t1 , t 2  T : 0  t1  t 2 случайная величина  (t2 )   (t1 ) распределена по закону Пуассона с

параметром    t2  t1  :

   t  t1  
k

P  (t2 )   (t1 )  k  e    t2 t1 


2

k!

113
Теория случайных процессов

В разделе непрерывность случайных процессов в примере 4.3 было показано, что Пуассо-
новский процесс непрерывен в среднем квадратическом. Покажем теперь, что он не диффе-
ренцируем в среднем квадратическом.

Пример 8.5. Показать, что пуассоновский процесс не дифференцируем в среднем квадрати-


ческом.

Решение:
1. Согласно теореме о необходимом и достаточном условии дифференцируемости случайно-
го процесса: для того, чтобы случайный процесс (, t ) t  T был дифференцируемым в каж-
'
дой точке t  T , а для случайной величины  (, t ) существовало математическое ожидание

и дисперсия, необходимо и достаточно, чтобы функция m (t ) была дифференцируема в каж-

дой точке t  T и существовала вторая обобщенная смешанная производная от ковариацион-


ная функции K  (t1 , t 2 ) при t1  t 2  t .

2. Найдем характеристики случайного процесса:



m (t )   k 
 t k e t   t    t k 1 e t   t  e  t   t k 1   t  e t  e t    t
k 0 k!

k  0  k 1!

k  0  k 1 !

По определению: K  (t1 , t2 )  M  t1  t2   M   t1   M   t 2 

Тогда у нас при t1  t2 :

K  (t1 , t2 )  M  (t1 )   (t2 )   m (t1 )  m (t2 )  M   (t1 )   (t2 )   2 (t1 )   2 (t1 )   m (t1 )  m (t2 ) 
 M  (t1 )   (t2 )   (t1 )    2 (t1 )  m (t1 )  m (t2 ) 
 M  (t1 )    (t2 )   (t1 )    M  2 (t1 )  m (t1 )  m (t2 )

В преобразованиях использовали свойство, что математическое ожидание суммы случайных


величин равно сумме их математических ожиданий.
При проведении дальнейших преобразований учтем, что для Пуассоновского процесса:
 (t )  0, M  (t )   (t )      t  t  , M  2 (t )  D (t )  M 2 (t ) , M  (t )  D (t )    t , т.е.
0 2 1 2 1 1 1 1 1 1 1

M  2 (t1 )    t1   2  t12 . Также используем свойство математического ожидания: математиче-


ское ожидание произведения независимых случайных величин, равно произведению их ма-
тематических ожиданий. У нас независимыми являются приращения Пуассоновского про-
цесса   (t1 )   (t0 )  и   (t2 )   (t1 )  .

114
8. Основные классы случайных процессов

Используя все вышесказанное, продолжим:


K (t1 , t2 )  M  (t1 )   (t2 )   (t1 )    M  2 (t1 )  m (t1 )  m (t2 ) 
 M  (t1 )   (t0 )  M  (t2 )   (t1 )    M  2 (t1 )  m (t1 )  m (t2 ) 
  t1     t2  t1     t1   2  t12   2  t1  t2   2  t1  t2   2  t12    t1   2  t12   2  t1  t2    t1

Таким образом получили, что K (t1 , t2 )    t1

Аналогично рассуждая, при t2  t1 , получим:

K  (t1 , t2 )  M  (t1 )   (t2 )   m (t1 )  m (t2 )  M   (t1 )   (t2 )   2 (t2 )   2 (t2 )   m (t1 )  m (t2 ) 
 M  (t2 )    (t1 )   (t2 )    2 (t2 )  m (t1 )  m (t2 ) 
 M  (t2 )    (t1 )   (t2 )    M  2 (t2 )  m (t1 )  m (t2 )

Т.к.  (t0 )  0, M   (t1 )   (t2 )      t1  t2  , M  (t2 )  D (t2 )  M  (t2 ) , M  (t2 )  D (t2 )    t2 ,


2 2

т.е. M  2 (t2 )    t2   2  t 22 .

K  (t1 , t2 )  M  (t2 )    (t1 )   (t2 )    M  2 (t2 )  m (t1 )  m (t2 ) 


 M  (t2 )   (t0 )  M   (t1 )   (t2 )    M  2 (t2 )  m (t1 )  m (t2 ) 
  t2     t1  t2     t2   2  t22   2  t1  t2   2  t2  t1   2  t22    t2   2  t22   2  t1  t2    t2

Следовательно, K  (t1 , t2 )    min  t1 , t2 

3. Покажем по определению, что не существует второй обобщенной смешанной производной


от ковариационная функции K  (t1 , t 2 ) при t1  t2  t :

 2 K (t1 , t2 )  2 K (t , t )
  lim K  (t  t , t  t )  K  (t , t  t )  K (t  t , t )  K (t , t ) 
t1t2 t 2 t 0

1
 lim
t 0 t 2
D (t  t , t  t )  K (t, t  t )  K (t  t, t )  D (t, t ) 
1
 lim 2    t  t   t  t  t
t 0 t

Использовали, полученный результат, что при t1  t 2 : K (t1 , t2 )    t1 , тогда т.к. t  t  t , то

K  (t , t  t )  K (t  t , t )   t , и K  (t , t  t )  K  (t  t , t ) , поэтому окончательно:

 2 K  (t , t ) 1   t 
 lim 2    t  t    t   t   t  lim  lim 
t 2  t  0 t t  0 t 2 t  0 t

Т.е. показали, что Пуассоновский процесс не дифференцируем в среднем квадратическом.

115
Теория случайных процессов

Задачи для самостоятельного решения по всем темам

1. Дан случайный процесс  (t )   (t  t0 )  b, t   ,   , где  - произвольная одномерная

случайная величина, t0 и b – некоторые фиксированные числа. Записать одномерную

функцию распределения случайного процесса  (t ) .

2. Случайный процесс  (t ) состоит из горизонтальных отрезков единичной длины, орди-



x
наты которых независимые случайные величины с плотностью p ( x)  e x .
   1

Найти математическое ожидание, дисперсию и функцию корреляции процесса  (t ) .


Определить, является ли данный процесс стационарным, по крайней мере, в широком
смысле.

3. U и V независимые случайные величины, равномерно распределенные в интервале

 a, b и  c, d  соответственно. Найти математическое ожидание, дисперсию и функцию

корреляции процесса  (t )  U  V  t . Является ли этот процесс стационарным?

4. Случайный процесс задан в виде  (t )  U  cos  t  V  sin  t , где  – неслучайная вели-


чина, U и V  некоррелированные случайные величины, равномерно распределенные
в интервалах  1,1 и  2, 2 соответственно. Найти математическое ожидание, диспер-

сию и функцию корреляции данного процесса. Является ли данный процесс стационар-


ным?

5. Найти функцию ковариации процесса виде  (t )   (t )  cos   t    , где  – неслучай-

ная величина,  (t ) – стационарный случайный процесс с математическим ожиданием


m и функцией ковариации K  ( ) ,  – случайная величина, равномерно распределен-

ная на отрезке  0, 2  ,  (t ) и  независимые. Является ли этот процесс стационар-

ным?

6. Является ли стационарной последовательность попарно независимых одинаково рас-


пределенных случайных величин?

116
Задачи для самостоятельного решения по всем темам

7. Найти функцию взаимной ковариации процесса и его второй производной, если про-
цесс  (t ) имеет математическое ожидание равное  t и функцию ковариации

K  (t , s )  e  ( t  s ) .

8. Пусть 1 (t ) и  2 (t ) – независимые случайные процессы с корреляционными функция-

ми R1 (t , s ) и R2 (t , s ) , соответственно. Найти корреляционную функцию процесса

 (t )  1 (t ) 2 (t ) .

9. Найти математическое ожидание, дисперсию и функцию корреляции случайного про-


цесса  (t )  X  cos  t  Y  , где X имеет нормальное распределение с нулевым матема-

тическим ожиданием и единичной дисперсией, Y – случайная величина, равномерно


распределенная на отрезке  0, 2  .
xa
10. Пусть  – нормальная случайная величина с функцией распределения   .
  
Найти двумерное распределение случайного процесса  (t )    t , где t  R.

11. Случайный процесс  (t )  t  U  e t  V  e  t , где U и V  некоррелированные случай-


ные величины с нулевыми математическими ожиданиями и дисперсиями U и
DU  DV  2 ,  и   неслучайные величины. Найти математическое ожидание, дис-

персию и функцию корреляции процесса  (t ) . Определить, является ли данный про-


цесс стационарным, в широком смысле.

12. Случайная величина  распределена равномерно в интервале  0, 2  . Для случайного

процесса  (t )    t  a, где a – неслучайная величина, найти математическое ожида-


ние, дисперсию и функцию корреляции. Является ли этот процесс стационарным?

13. Задан случайный процесс (t )  V  t 2 , где V – непрерывная случайная величина, рас-
2
пределенная по нормальному закону с параметрами a и  . Найти характеристики
процесса (t ) (математическое ожидание, дисперсию и функцию корреляции). Прове-
рить является ли этот процесс стационарным в широком смысле?

14. Доказать строгую стационарность процесса  (t )    cos   t    , где  и   неслу-

чайные величины,   случайная величина равномерно распределенная на отрезке  0, 2  .

117
Теория случайных процессов

15. Случайный процесс представляет собой (t )  V , где V  непрерывная случайная ве-

личина с плотностью pV ( x ) . Найти математическое ожидание, дисперсию и функцию

корреляции процесса (t ) . Является ли этот процесс стационарным?

16. Входной случайный процесс X (t ) задан каноническим разложением

X (t )  1  2t  At1  A2 t 2  A3t 3 . Известны дисперсии коэффициентов разложения:

D( A1 )  4 , D( A2 )  3 , D( A3 )  2 . Выходной случайный процесс определяется соотно-


dX (t )
шением Y (t )  . Найти математическое ожидание, корреляционную функцию и
dt
дисперсию случайного процесса Y (t ) .

17. Поток покупателей является простейшим Пуассоновским с параметром  , это значит,


что вероятность того, что за время  появится ровно k покупателей определяется
формулой Пуассона:

   
k

Pk    e  
k!
Процесс  (t ) представляет собой число покупателей пришедших от 0 до t (например,
совпадает с началом рабочего дня). Найти математическое ожидание, дисперсию и
функцию корреляции процесса  (t ) .
Указание. При вычислении функции корреляции воспользоваться тем, что при s  t
 ( s )   (t )   , где   число событий наступивших за время от t до s .

18. Пусть   случайная величина, имеющая нормальное распределение с математическим

ожиданием m и дисперсией  2 . Найти функцию корреляции случайного процесса

 (t )   2  t  b, где b  вещественное число, t  0.

19. Имеется пуассоновский поток случайных событий с интенсивностью  . Случайный


процесс  (t ) образуется следующим образом: в момент времени i-го события

 i  1, 2,.. процесс принимает случайное значение Vi и сохраняет его до появления

следующего события в потоке. В начальный момент времени  (0)  V0 . Случайные ве-

личины V0 ,V1 ,....  независимы и одинаково распределены с плотностью pV  x  . Найти

основные характеристики процесса.

118
Задачи для самостоятельного решения по всем темам

n
20. Найти корреляционную функцию случайного процесса  (t )   Yi  qi  t  , где
i 1

q1  t  , q2  t  ,...., qn  t   неслучайные функции, Y1 , Y2 , ...., Yn  некоррелированные слу-

чайные величины математическими ожиданиями m1 , m2 , ...., mn и дисперсиями

d1 , d 2 , ...., d n соответственно.

21. Пусть R (t , s )  корреляционная функция некоторого случайного процесса, полином с


положительными коэффициентами. Доказать, что функция R (t , s )  Q ( R (t , s )) является
корреляционной функцией некоторого случайного процесса.

22. Пусть X  N  m,  2  , b  вещественное число. Найти функцию корреляции случайного

процесса Y (t )  X  t  b, t  0.

23. Пусть   t   непрерывная периодическая функция с периодом T , X  случайная ве-

личина, равномерно распределенная на отрезке 0,T  . Исследовать случайный процесс

Y (t )    t  X  на стационарность.

24. Найти функцию ковариации процесса  (t )  X  cos  t  Y  , где X , Y независимы,

X  N  0,1 , а Y  R   ,  

25. Пусть X  t   стационарный случайный процесс, Y  случайная величина. Является ли

случайный процесс Z  t   X  t   Y стационарным?

Показать, что функция R  t     e


  t
26.
2
 cos  t , где  ,  ,  – некоторые положительные

постоянные, может быть функцией корреляции непрерывного в среднем квадратиче-


ском и стационарного в широком смысле случайного процесса. Определить спектраль-
ную плотность, соответствующую такой функции корреляции.
sin nt
27. Найти предел в среднеквадратическом X (t )  lim X n (t ) , если X n (t )  причем
n  nt
X n (t ) распределена равномерно на интервале  0,1 .

28. Найти предел в среднеквадратическом при n   :

119
Теория случайных процессов

 t  ti   Wi   ti 1  t   Wi 1 , t  ti , ti 1 
X n (t )   ,
0, t   ti , ti 1 

ba
где ti  a  i   точки разбиения отрезка  a, b . Будет ли предельный процесс
n
?
W (t )  lim X n (t ) винеровским?
n 

29. Найти предел в среднеквадратичном при n   последовательности случайных про-


1
цессов: X n (t )  sin n  n  t , где  n  последовательность нормально распределенных
n
случайных величин со средним нуль и дисперсией единица, t   0,1.

30. Найти предел в среднеквадратичном при n   последовательности случайных про-


1
цессов: X n (t )  2
exp   n2  t  , где  n  последовательность нормально распределенных
n
случайных величин со средним нуль и дисперсией единица, t   0, 4 .

sin 5n
31. Будет ли процесс X (t )  lim X n (t ) , где X n (t )  exp  n  t , t   0,1 ,  n  распре-
n  n2  t
делены нормально с нулевым средним и дисперсией единица, непрерывным в средне-
квадратическом?
sin 5n  sin 3n
32. Будет ли процесс X (t )  lim X n (t ) , где X n (t )  exp n  t , t   0,1 ,  n 
n  n2  t
распределены нормально с нулевым средним и дисперсией единица, дифференцируе-
мым в среднеквадратическом?
k
sin  n 2t
33. Доказать, что процесс X k (t )   сходится к винеровскому процессу W (t ) .
n 1 n2

34. Случайный процесс  (t )  t  U  e at , где U случайная величина с нулевым математи-

ческим ожиданием и дисперсией DU  1 , a  неслучайная величина. Является ли дан-


ный процесс непрерывным и дифференцируемым в среднем квадратическом?
35. Случайная величина  распределена равномерно в интервале  0, 2 . Для случайного

процесса  (t )    t  a, где a – неслучайная величина. Является ли данный процесс не-


прерывным и дифференцируемым в среднем квадратическом?

120
Литература

Литература

1. Волков И.К., Зуев С.М., Цветкова Г.М. Случайные процессы : учеб. для вузов. М. : Изд-во
МГТУ им. Н.Э. Баумана, 1999. 448 с.
2. Маталыцкий М.А. Элементы теории случайных процессов : учеб. пособие. Гродно : ГрГУ,
2004. 326 с.
3. Вентцель Е.С., Овчаров Л.А. Теория случайных процессов и ее инженерные приложения.
М. : Наука. Гл. ред. физ.-мат. лит., 1991. 384 с.
4. Миллер Б.М., Панков А.Р. Теория случайных процессов в примерах и задачах. М. : ФИЗ-
МАТЛИТ, 2002. 320 с.
5. Гнеденко Б.В., Коваленко И.Н. Введение в теорию массового обслуживания. 3-е изд., испр.
и доп. М. : КомКнига, 2005. 400 с.
6. Назаров А.А., Терпугов А.Ф. Теория вероятностей и случайных процессов : учеб. пособие.
Томск : Изд-во НТЛ, 2006. 204 с.
7. Гнеденко Б.В. Курс теории вероятностей. М. : Наука, 1969. 448 с.
8. Письменный Д.Т. Конспект лекций по теории вероятностей, математической статистике и
теории случайных процессов. 3-е изд. М. : Айрис-пресс, 2008. 290 с.
9. Прохоров А.В., Ушаков В.Г., Ушаков Н.Г. Задачи по теории вероятностей : учеб. пособие.
М. : Наука. Гл. ред. физ.-мат. лит, 1986. 328 с.
10. Донской Е.Н. Курс теории вероятностей с элементами случайных процессов и математи-
ческой статистики. Саров : РФЯЦ-ВНИИЭФ, 2000. 288 с.
11. Максимов Ю.Д. Математика. Теория вероятностей и случайных процессов. СПб. : Изд-во
Политех. ун-та, 2008. 384 с.
12. Сборник задач по теории вероятностей, математической статистике и теории случайных
функций / под общ. ред. А.А. Свешникова. СПб. : Лань, 2007. 448 с.
13. Власенков В.М. Основы теории случайных процессов в практическом изложении.
Комсомольск-на-Амуре : Изд-во КнАГТУ, 2004. 99 с.
14. Марченко Л.В. Случайные процессы : учеб. пособие. Хабаровск : Изд-во ДВГУПС, 2013.
75 с.
15. Храмов А.Г. Теория случайных процессов : электронное учебное пособие. Самара : Са-
марский аэрокосмический университет, .
16. Крупин В.Г, Павлов А.Л., Попов Л.Г. Теория вероятностей, математическая статистика,
случайные процессы : учеб. пособие. М. : Издательский дом МЭИ, 2013. 368 с.
17. Син Л.И. Элементы теории случайных процессов : методическое пособие. Шахты :
ЮРГУЭС, 2002. 32 с.
18. Крицкий О.Л. Введение в теорию случайных процессов : учеб. пособие. Томск : Изд-во
ТПУ, 2009. 110 с.

121
Теория случайных процессов

Приложения

Приложение 1

Некоторые распределения случайных величин

1. Распределение Бернулли. Случайная величина   число наступлений некоторого собы-


тия в одном испытании. P(  1)  p, P(  0)  q, M   p, D  p  q , характеристи-
ческая функция: g (u )  q  p  eiu .

2. Биномиальное распределение. Случайная величина   число наступлений некоторого


события в n независимых испытаниях. P (  m)  Cnm  p m  q n m , m  0, n , p  вероят-
ность успеха в одном испытании, q  вероятность неудачи. M   n  p , D  n  p  q , ха-

 
n
рактеристическая функция: g (u )  q  p  eiu .

3. Геометрическое распределение. В схеме Бернулли   число испытаний до первого


1 q
наступления события. P(  m)  p  qm 1 , m  1, 2,...; q  1  p , M   , D  2 ; ха-
p p
p  eiu
рактеристическая функция: g (u )  .
1  q  eiu

4. Распределение Пуассона. Случайная величина   число событий, наступивших в пуас-


 m e 
соновском потоке, P (  m)  , m  0,1,...; M   D   характеристическая
m!
iu
функция: g (u )  e ( e 1)
.

5. Равномерное распределение на конечном множестве. Случайная величина   принима-


ет любое из значений некоторого интервала с одинаковыми вероятностями. Закон рас-
пределения и числовые характеристики:
1
 , akb ab n2 1
P (  m)   n n  b  a  1; k  a, a  1,...., b  1, b ; M   ; D 
0 , else 2 12

eia u  ei ( b1)u
характеристическая функция: g (u )  .
n  (1  eiu )

122
Приложения

6. Непрерывное равномерное распределение. Распределение случайной величины  с плот-


ностью вероятностей и числовыми характеристиками:
 1
b  a
2
 , a xb ab
P ( x )   b  a M  , D 
0 , else 2 12

eibu  eiau
характеристическая функция: g (u )  .
iu  (b  a)

7. Экспоненциальное распределение. Плотность вероятности случайной величины  с та-


ким распределением и числовые характеристики:

  e  x , x  0 1 1
P ( x)     0, M   , D 
0 , x0  2


характеристическая функция: g (u)  .
  iu

8. Распределение Коши. Распределение случайной величины  с плотностью вероятностей:


1 
p ( x)   ,  , a  0, x   ,   .
   ( x  a )2
2

Данное распределение не имеет конечных математического ожидания и дисперсии,


iau  u
характеристическая функция: g (u)  e .

9. Нормальное распределение. Распределение случайной величины  с плотностью вероят-


ностей:

1   x  a  2 
p ( x)   exp   , M   a, D   2 , x   ,  
 2  2 2

  2u 2 
характеристическая функция: g (u )  exp ia u  .
 2 
10. Двумерное нормальное распределение. Распределение случайной величины  ,  с
совместной плотностью вероятностей:
   x  a 2  y  a 2  x  a    y  a  
1  1   
p ( x, y )   exp  2 
  2r   ,
 2 1  r      2   
2
2     1  r 2 

M   a , M  a , D   2 , D   2
r – коэффициент корреляции случайных величин  и  .

123
Теория случайных процессов

11. Распределение Лапласа. Распределение случайной величины  с плотностью вероятно-


1 x 1
стей: p ( x)   e M   0, D  2 характеристическая функция: g (u )  .
2 1 u2

12. Гамма распределение. Распределение интервала времени, необходимого для появления k


событий в пуассоновском потоке интенсивности  , имеет плотность вероятностей и
числовые характеристики:
    1   x
 x e , x0   
p ( x)   ( )  ,   0, M   , D  2 ,  ( )   z  1 e z dz
0  
 , x0 0


 iu 
характеристическая функция: g (u )  1   .
 

124
Приложения

Приложение 2
Табличные интегралы


cos mx   ma
1.
a
0
2
x 2
dx 
2a
e , a  0, m  0


sin 2 mx 
2.
0
a x
2 2
dx 
4a
1  e2 ma  , a  0, m  0


sin mx  sin nx   ma
3.
0
a x
2 2
dx 
2a
e  sh (na), a  0, m  n  0


cos mx  cos nx   ma
4.
0
a x
2 2
dx 
2a
e  ch (na ), a  0, m  n  0

   ma
 2 e  ch (na), a  0, m  n  0

x sin mx  cos nx
5.
0
a 2  x2
dx  
  e  na  sh (ma ), a  0, m  n  0
 2

x  sin mx 
6.
a
0
2
x 2
dx  e  ma ,
2
a  0, m  0


x  sin mx m
7.
 a
0
2
x 
2 2
dx 
4a
 e ma , a  0, m  0


sin mx 
dx  2  1  e  ma  ,
8.
 x a
0
2
x 
2
2a
a  0, m  0


sin mx   2  ma  ma 
9.
 xa  x 
0
2 2 2
dx   1 
2a  4
2
e ,

a  0, m  0


x 2  cos mx 
10.
 a  x 
0
2 2 2
dx 
4a
1  ma   e ma , a  0, m  0


cos mx 
11.
 a  x 
0
2 2 2
dx 
4a 3 1  ma   e ma , a  0, m  0


cos mx   e  mb e ma 
12.

0
dx  
 a2  x 2  b2  x 2  2  a 2  b2   b a 
 , a, b  0, a  b, m  0


x  sin mx  e  mb  e ma
13.

0
dx  
 a 2  x 2  b2  x2  2 a 2  b2
, a, b  0, a  b, m  0

125
Теория случайных процессов


2, mn0
 
sin mx  cos nx 
14.
0
 x
dx   ,
 4
mn0

0 , nm0


  m m
   a  , a 0
sin ax  cos mx
2
2 2  2
15.
 x2
dx  
 m
0
0, a0
2

1  cos mx  m
16.

0
x 2
dx 
2

1
 xe
 x
17. dx  ,  0
2
0

m
e
 ax
18.  sin mx dx  , a0
a  m2
2
0

a
19.

0
e ax  cos mx dx 
a  m2
2
, a0


a2  m2
20.

0
x  e  ax  cos mx dx 
a 2
 m2 
2
, a0

m   a 2  m2  n2 

e
 ax
21.  sin mx  cos nx dx  , a0
0  a2   m  n 
2
 a2   m  n 
2

a   a 2  m2  n 2 

e
 ax
22.  cos mx  cos nx dx  , a0
0  a2   m  n
2
 a2   m  n 
2

 m2

e

 ax 2
23.  cos mx dx  e 4a
, a0
0
2 a

1
24.
 x  cos ax dx  a 2  cos ax  ax sin ax   C , a0

25.
 x 2  cos ax dx 
1
a3

2ax cos ax   a 2 x 2  2  sin ax  C , a  0 
x 1 
 xe dx  e ax   2   C , a  0
ax
26.
a a 
 x2 2 x 2 
27.
 x 2  e ax dx  e ax   2  3   C , a  0
 a a a 

126
Приложения

Приложение 3
Сведения из теории вычетов

 (z)
Пусть z0  простой полюс функции , функции  ( z ) ,  ( z ) аналитичны в точке z0 и
 ( z)
  z0   0 . Тогда

Res  ( z )   ( z )
z0  ( z )  ' ( z ) z z 0

Пусть z0  полюс второго порядка функции f ( z ) . Тогда

 
'
 z  z0  f ( z )
2
Res f ( z )  lim
z z
z0 0

Вычисление несобственных интегралов с помощью вычетов

Пусть P ( z ), Q( z ) многочлены от z степени n и m соответственно, причем m  n  1 . Кроме


P( z)
того, пусть дробь не имеет особых точек на оси Ox , а z1 , z2 ,...., zn  все ее полюса с по-
Q( z )
ложительными мнимыми частями. Тогда


N
P( x) P( z )


Q( x)
dx  2 i  Res Q( z)
k 1
zk


P ( x)eia x N
P ( z )  eia z


Q( x)
dx  2 i  Res
k 1
zk Q( z )
, a0

127
Теория случайных процессов

Учебное издание

Оксана Николаевна Галажинская


Светлана Петровна Моисеева

ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ

Часть 1

Учебное пособие

Издание подготовлено в авторской редакции

Компьютерная верстка А.И. Лелоюр


Дизайн обложки Л.Д. Кривцовой

Подписано к печати 2.09.2015 г. Формат 60×841/8.


Бумага для офисной техники. Гарнитура Times.
Усл. печ. л. 14,8.
Тираж 100 экз. Заказ № 1217.

Отпечатано на оборудовании
Издательского Дома
Томского государственного университета
634050, г. Томск, пр. Ленина, 36
Тел. 8+(382-2)–53-15-28
Сайт: http://publish.tsu.ru
E-mail: rio.tsu@mail.ru

128