Вы находитесь на странице: 1из 59

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ

РОССИЙСКОЙ ФЕДЕРАЦИИ
ТОМСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
Факультет прикладной математики и кибернетики
Кафедра теории вероятностей и математической статистики

УТВЕРЖДАЮ
Декан ФПМК
А.М. Горцев
25 мая 2014 г.

ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ


Часть 1
Учебно-методическое пособие для студентов ФПМК

Томск
2014
РАССМОТРЕНО И ОДОБРЕНО методической комиссией факультета
прикладной математики и кибернетики

Председатель комиссии
д-р физ.-мат. наук, профессор А.Г. Дмитренко

Методические пособие предназначено для оказания помощи студен-


там при выполнении практических заданий курса «Теория случайных
процессов». Предложены в большом количестве разнообразные задачи с
разобранными решениями, а также задачи для самостоятельной работы по
каждой теме. Приведены необходимые сведения из теории случайных
процессов. Методическое пособие составлено так, чтобы студент смог
выполнить задания, не обращаясь к дополнительной литературе.
Для студентов 3-го курса ФПМК, изучающих курс «Теория вероятно-
стей и случайные процессы».

Составители:
О.Н. Галажинская, канд. физ.-мат. наук, доцент
С.П. Моисеева, канд. техн. наук, доцент

2
СОДЕРЖАНИЕ

1. Определение и описание случайных процессов .............................................. 4


Задачи по теме 1 для самостоятельного решения ........................................ 6
2. Законы распределения случайных процессов .................................................. 7
Задачи по теме 2 для самостоятельного решения ........................................ 10
3. Основные характеристики случайных процессов ............................................ 12
Задачи по теме 3 для самостоятельного решения ........................................ 22
4. Стационарные случайные процессы ................................................................. 24
Задачи по теме 4 для самостоятельного решения ........................................ 32
5. Спектральная мощность ..................................................................................... 34
Задачи по теме 5 для самостоятельного решения ........................................ 36
6. Сходимость, непрерывность, дифференцируемость
и интегрируемость случайных процессов .......................................................... 37
Задачи по теме 6 для самостоятельного решения ........................................ 44
7. Основные классы случайных процессов ........................................................... 46
Задачи для самостоятельного решения по всем темам ……………………........ 51
Литература ............................................................................................................... 55
Приложение …………………………........………………………………………. 56

3
ЭЛЕМЕНТЫ ТЕОРИИ
СЛУЧАЙНЫХ ПРОЦЕССОВ
1. Определение и описание случайных процессов
Теорией случайных процессов называется математическая наука, изу-
чающая закономерности случайных явлений в динамике их развития.
Случайные процессы являются удобной математической моделью функ-
ций времени, значения которых случайные величины.
Например:
1. Число звонков, поступающих в единицу времени на телефонную
станцию, являясь случайной величиной, зависит от времени суток.
2. Численность населения города меняется с течением времени слу-
чайным образом под влиянием различных факторов: рождаемость,
смертность, миграция и т.д.
3. Расход электроэнергии в единицу времени – тоже функция времени
со случайными значениями.
4. Координаты броуновской частицы меняются со временем и прини-
мают случайные значения.
5. Курсы валют или акций меняются со временем и принимают слу-
чайные значения.
6. Выручка или прибыль организации случайная величина, изменяю-
щаяся с течением времени.
7. Длина очереди в супермаркете – функция времени со случайными
значениями.
Дадим математическое определение случайного процесса.
Пусть задано вероятностное пространство , F , P.
Случайная величина   () – это измеримая функция, отобража-
ющая это вероятностное пространство на борелевскую прямую R, B.
Рассмотрим теперь функцию, зависящую от двух аргументов
( , t ) ,  , t  T .
Определение. Функцию (, t ) называют случайным процессом, ес-
ли при t  T она является измеримой функцией аргумента , то есть
случайной величиной.

4
При фиксированном значении параметра t, функция t ( ) является
случайной величиной, которую будем называть сечением случайного
процесса в момент времени t.
Зафиксируем некоторое элементарное событие . Это означает, что
опыт, в ходе которого случайный процесс протекает, уже произведен и
произошло элементарное событие . Случайный процесс уже не слу-
чаен, и зависимость его от t примет определенный вид: в результате по-
лучим неслучайную функцию времени – (t), которую будем называть
реализацией случайного процесса.
Совокупность всех реализаций случайного процесса называется ан-
самблем реализаций.
Можно сказать, что случайный процесс – это однопараметрическое
семейство случайных величин (,t), заданных на одном и том же про-
странстве элементарных событий , зависящих от значений параметра t.
Часто случайный процесс (,t) обозначается как (t), где аргумент t
имеет смысл времени.
Пример 1.1. Пусть случайный процесс задается формулой
(t )  U sin(t ),

где U – случайная величина.


Найти сечения, соответствующие фиксированным значениям аргу-
 
мента: а) t1  ; б) t1  .
6 2
Решение. Сечением случайного процесса является случайная величи-
на, соответствующая фиксированному значению аргумента, т.е.
  1
а) при t1  сечение 1 (t )  U sin( )  U ;
6 6 2
 
б) при t2  сечение 2 (t )  U sin( )  U .
2 2
 
Пример 1.2. Случайный процесс задается формулой (t )  t 2  1 U ,
где U – случайная величина, возможные значения которой принадлежат
интервалу 0,10 .
Найти реализацию функции (t ) в двух испытаниях, в которых вели-
чина U приняла следующие значения: а) u1  2 ; б) u2  3,5 .
Решение. Реализацией является неслучайная функция, которая полу-
чается при фиксированном значении случайной величины, т.е.

5
 
а) при u1  2 реализация 1 (t )  2 t 2  1 ;

 
б) при u1  3,5 реализация 2 (t )  3,5 t 2  1 .
Пример 1.3. Пусть случайный процесс   t  U , t   0,1 где
U  R  0,1 – случайная величина, равномерно распределенная на отрез-
ке  0,1 . Описать множество сечений и реализаций случайного процес-
са  (t ) .
Решение. При фиксированном t0 сечение t() = t0U() является слу-
чайной величиной, имеющей равномерное распределение на отрезке [0,t0].
Реализации случайного процесса (t), то есть неслучайные функции
0(t) = U(0)t, являются прямыми линиями, выходящими из начала ко-
ординат со случайным угловым коэффициентом (тангенсом угла накло-
на), равным U(0).

Задачи по теме 1 для самостоятельного решения

1. Описать семейство реализаций элементарного случайного процесса


(t )  e  tU , t  0 , где U – случайная величина, принимающая только по-
ложительные значения.
2. Описать семейство реализаций элементарного случайного процесса
Y  , t   X  et , где X – равномерно распределенная на отрезке 0,1
случайная величина, а α и t – положительные параметры.
3. Описать семейство реализаций элементарного случайного процесса
X (t )  U cos at  V sin at , где U ,V  – система случайных величин, a –
неслучайная величина.

6
2. Законы распределения случайных процессов

Рассмотрим сечение (t1) случайного процесса (t) в момент времени


t1. Функцию
F ( x1, t1 )  P (t1) x1
называют одномерной функцией распределения случайного процесса в
момент времени t1 .
Если зафиксировать два значения моментов времени t1 и t2, то функ-
ция
F(x1,t1;x2,t2) = P{(t1)<x1,(t2)<x2}
называется двумерной функцией распределения случайного процесса.
Для n сечений случайного процесса функция
F ( x1, t1 ; .....; xn , tn )  P (t1) x1,....,(tn ) xn  (1.1)

называется n-мерной функцией распределения случайного процесса.


Будем считать, что случайный процесс (t) задан, если задано семей-
ство функций распределений (1.1) для n.
Функция F(x1,t1;…;xn,tn) должна удовлетворять очевидным соотноше-
ниям, которые называются условиями согласованности:
F ( x1 , t1 ,, x n , t n )  F ( x1 , t1 ,, x n , t n , , t n 1 ,, , t n  p ) , (1.2)
F ( x1 , t1 , , x n , t n )  F ( xi1 , t i1 ,, xin , t in ) , (1.3)

где i1, i2,…,in – любая перестановка индексов 1,2,…n для n. Теперь мож-
но сформулировать ещё одно определение случайного процесса.
Определение. Случайным процессом (t), заданным на множестве
T (t  T ) называется семейство распределений (1.1), удовлетворяющих
условиям согласованности (1.2) и (1.3).
Набор функций F(x1,t1;…;xn,tn) для n = 1,2,… называют конечномер-
ным распределением случайного процесса (t).
Если функция F(x1,t1;…;xn,tn) допускает представление
x1 xn

F ( x1 , t1 ,..., x n , t n )     p  ( y1 , t1 ,..., y n , t n )dy n ...dy1


 

7
где p(x1,t1;…;xn,tn) – некоторая измеримая неотрицательная функция та-
кая, что
 

   p ( y1 , t1 ,..., y n , t n )dy n ...dy1  1 ,


 
то p(x1,t1;…;xn,tn) называется n-мерной плотностью распределения слу-
чайного процесса (t).
При этом условия согласованности примут вид
 
p ( x1 , t1 ,..., x n , t n )     p  ( y1 , t1 ,..., y n , t n , y n 1 , t n 1 ,..., y n  p , t n  p )dy n  p ...dy n 1 ,
 

p ( x1 , t1 ,..., xn , tn )  p ( xi , ti ,..., xin , tin ) .

Рассмотрим примеры на нахождение конечномерных функций рас-


пределения.
Пример 2.1. Пусть случайный процесс (t) = (t)V, t[0,1], где V – не-
которая случайная величина, с функцией распределения FV(x), а (t) > 0.
Найти многомерную функцию распределения случайного процесса (t).
Решение. В соответствии с определением
F ( x1 , t1 ,..., x n , t n )  P(t1 )  x1 ,..., (t n )  x n   P(t1 )V  x1 ,..., (t n )V  x n  
 x x   xi   xi  .
 P V  1 ,...,V  n   P V  min   FV  i min 
1, 2 ,..., n (t ) 
 (t1 ) (t )
n   i 1, 2 ,..., n (t )
i   i 

Если функция распределения FV(x) имеет плотность pV(x), то существует


и одномерная плотность случайного процесса (t). Так как для n = 1 имеем
 x  x 1  z 
F ( x, t )  FV     pV  dz ,
 (t )   (t )  (t ) 
1  x .
то p ( x, t )  pV  
(t )  (t ) 
Пример 2.2. Пусть случайный процесс, определяется соотношением
(t) = Ut+V, где U и V – независимые случайные величины с функциями
распределения FU(x), FV(y). Определить вид реализаций данного процесса
и найти закон распределения.
Решение. Реализации этого случайного процесса представляют собой
прямые линии со случайным наклоном и случайным начальным значени-
ем при t = 0.

8
Одномерная функция распределения случайного процесса (t) при
t > 0 имеет вид

F ( x, t )  P(t )  x  PUt  V  x   PUt  V  x V  ydF

V ( y) 
  
 x  y x y
  PUt  y  xdFV ( y) 

PU  t dFV ( y)  FU  t dFV ( y) .
Если же t = 0, то F(x,t) = FV(x).
Для n-мерной функции распределения, аналогично предыдущему
примеру, получаем вид

 x  y
F ( x1 , t1 ,..., xn , tn )  P(t1 )  x1 ,..., (tn )  xn   F  min i dFV ( y ) .
ti 
U
i 1, 2 ,..., n
 
Характеристическая функция конечномерного распределения веро-
ятностей случайного процесса определяется также как для многомерных
случайных величин
  n 
g  (u1 , t1 ,..., u n , t n )  M exp i  (t k )u k  
  k 1 
 
 n 
    exp i  x k u k  p  ( x1 , t1 ,..., x n , t n )dx1 ...dx n .
   k 1 
При решении многих задач приходится иметь дело с несколькими
случайными процессами. Для задания, например, двух случайных про-
цессов (t) и (t) определяется (n+m)-мерная функция распределения:
F ( x1 , t1 , , x n , t n , y1 , t1 , , y m , t m ) 
 P(t1 )  x1 ,  , (t n )  x n , (t1 )  y1 ,  , (t m )  y m 
Эта функция распределения в общем случае не обладает свойством
симметрии относительно всех перестановок аргументов.
Пример 2.3. Пусть случайный процесс (t) = (t)V, t[0,1], где V –
гауссовская случайная величина с параметрами a и 2, (t) – неслучайная
функция. Найти характеристическую функцию случайного процесса (t).
n
Решение. Пусть    u k (t k ) , тогда в силу (tk) = (tk)V, получаем
k 1
nk
  V  u k (t k ) , поэтому  – гауссовская случайная величина с матема-
k 1
тическим ожиданием и дисперсией:

9
k 2
n 
M   a  u k (t k )  m D    u k (t k )  D .
2

k 1  k 1 
Учитывая, что для случайной величины  характеристическая функ-
ция имеет вид

 D 
 
g  (u )  M e iu  expium  u 2
2 
,

получаем выражение для характеристической функции (t):
  n 
   1 
g  (u1 , t1 , , u n , t n )  M exp i  (t k )u k   M e i  g  (1)  expim  D  .
2 
  k 1  

Задачи по теме 2 для самостоятельного решения

1. Пусть случайный процесс X(,t) задан на вероятностном пространстве


,F,P, где:  = 1,2, F – множество всех подмножеств множества , P
приписывает вероятности, равные 1/2, множествам {1} и {2}. Пусть множе-
ство значений параметра t есть отрезок [0,1] и X(,t) = t. Найти реализации
случайного процесса X(,t) и его семейство конечномерных распределений.
2. Пусть случайный процесс X(,t) определен на вероятностном про-
странстве ,F,P, где  = 0,1, P – мера Лебега. Пусть t(0,1) и
X(,t) = 1 при t  , X(,t) = 0 при t > . Найти реализации случайного
процесса X(,t) и его семейство конечномерных распределений.
3. Пусть U – случайная величина, заданная функцией распределения
FU ( x ) , t > 0. Найти семейство конечномерных распределений случайно-
го процесса (t) = U+t.
4. Пусть X и Y – случайные величины такие, что Y имеет симметричное
относительно нуля распределение, P(Y = 0) = 0. Найти вероятность того, что
реализации случайного процесса (t) = X+t(Y+t) при t  0 возрастают.
5. Случайный процесс представляет собой (t) = V, где V – непрерыв-
ная случайная величина с плотностью pv(x). Найти одномерную и дву-
мерную плотности распределения процесса.
6. Поток покупателей является простейшим Пуассоновским с пара-
метром , это значит, что вероятность того, что за время  появится ровно
k покупателей, определяется формулой Пуассона Pk () 
() k  .
e
k!

10
Процесс (t) представляет собой число покупателей пришедших от 0
до t (например, совпадает с началом рабочего дня). Найти одномерный
закон распределения этого процесса.
7. Случайный процесс задан соотношением (t) = X+t, t > 0, где X –
случайная величина с непрерывной функцией распределения, а  > 0 –
детерминированная постоянная. Пусть D[0,) – некоторое конечное
или счетное подмножество. Найти вероятности событий:
а) P{(t) = 0 хотя бы для одного tD};
б) P{(t) = 0 хотя бы для одного t[0,1]}.
8. Случайный процесс задан в виде (t) = Vt2, где V – непрерывная
случайная величина, распределенная по нормальному закону с парамет-
рами a и 2. Найти многомерную плотность распределения случайного
процесса (t).
9. Случайный процесс (t) представляет собой аддитивную смесь не-
коррелированных между собой сигнала s(t) и помехи n(t). Известно, что
сигнал есть детерминированная функция s(t) = Acos(Bt+), а помеха n(t) –
гауссовский белый шум с дисперсией 2. Записать одномерный закон
распределения этого процесса.

11
3. Основные характеристики случайных процессов
Конечномерные распределения дают полное и исчерпывающее опи-
сание случайного процесса. Однако существует большое число задач, для
решения которых оказывается достаточным использование основных
характеристик случайного процесса, которые в более краткой и сжатой
форме, отражают основные свойства случайного процесса. Такими ха-
рактеристиками являются моменты первых двух порядков. В отличие от
случайных величин, для которых моменты являются числами и поэтому
их называют числовыми характеристиками, моменты случайной функ-
ции являются неслучайными функциями (их называют характеристика-
ми случайной функции (процесса)).
Определение. Математическим ожиданием случайного процесса
или его средним значением называется неслучайная функция m(t),
t  T , определяемая соотношением

m (t )  M (t )   xdF ( x, t ) .


Значение этой функции при любом t равно математическому ожида-


нию соответствующего сечения случайного процесса. Математическое
ожидание, есть «средняя» функция, вокруг которой происходит разброс
реализаций случайного процесса.
Свойства математического ожидания случайного процесса
1. Математическое ожидание неслучайной функции (t ) равно самой
неслучайной функции M (t )  (t ) .
2. Неслучайный множитель (t ) можно выносить за знак математи-
ческого ожидания M (t )(t )  (t ) M (t )  (t )m (t ) .
3. Математическое ожидание суммы двух случайных функций равно
сумме математических ожиданий слагаемых
M 1 (t )  2 (t )  M 1 (t )  M 2 (t ) .
4. Математическое ожидание суммы случайной и неслучайной функ-
ций равно сумме математического ожидания случайной (t ) и неслучай-
ной функции (t ) :
M (t )  (t )  M (t )  (t ).

12
Пример 3.1. Найти математическое ожидание случайного процесса
(t )  U cos t  , где U – случайная величина, математическое ожидание
которой M (U )  2 .
Решение. Множитель cos(t ) неслучайная функция, которую, исполь-
зуя свойство 2 можно вынести за знак математического ожидания:
M  (t )   M U cos  t    cos  t  M U   2 cos  t  . ;
Определение. Дисперсией случайного процесса (t) называется не-
случайная неотрицательная функция D (t ) , которая при любом значе-
нии аргумента t равна дисперсии соответствующего сечения случайного
процесса:

 

D (t )  M (t )  m (t )    x  m (t ) dF ( x, t ).
2 2



Дисперсия характеризует разброс реализаций относительно средней


траектории m (t ).
Свойства дисперсии случайного процесса
1. Дисперсия неслучайной функции равна нулю D  t   0. ;
2. Дисперсия суммы случайной функции   t  и неслучайной функ-
ции   t  равна дисперсии случайной функции D (t )   t   D (t ).
3. Дисперсия произведения случайной функции  t  на неслучайную
функцию  t  равна произведению квадрата неслучайного множителя
на дисперсию случайной функции D  t  (t )  2 t  D (t ).
Пример 3.2. Найти дисперсию случайного процесса (t )  U sin t  , где
U – случайная величина, математическое ожидание которой D(U )  6.
Решение. Множитель sin(t ) неслучайная функция, которую, исполь-
зуя свойство 3 можно вынести за знак дисперсии:
D (t )  D U sin t   sin 2 t  D U   6sin 2 t  .
Пример 3.3. Пусть случайный процесс, определяется соотношением
(t) = (U+V)/t, где U и V – независимые случайные величины, имеющие
гауссовское распределение N(0;1/2). Найти математическое ожидание и
дисперсию случайного процесса (t) и вероятность P{(t) < 3/t} для про-
извольного t > 0.

13
Решение. В силу того, что U и V гауссовские и независимые,
U  V  1 1
M (t )  M    M U   M V   0 ,
 t  t t
U  V  1 1 1
D(t )  D    2 DU   2 DV   2 .
 t  t t t
Так как сумма гауссовских случайных величин (U+V) имеет гауссов-
ское распределение с параметрами a = 0, 2 = 1, то
U  V 
F ( x, t )  P(t )  x  P   x   PU  V  xt   ( xt ) ,
 t 
где (z) – функция Лапласа
z
( z ) 
1
 
 exp  u du .
2

2  
Тогда искомая вероятность определяется следующим образом
 3 3 3
P  (t )    F ( , t )  F ( , t )   (3)   (3)  0.997 .
 t t t
Определение. Среднеквадратическим или стандартным отклоне-
нием случайного процесса   , t  называют неслучайную функцию
 t   D t .
Размерность функции  t  равна размерности случайного процесса
t  . Значения реализаций случайного процесса при каждом t отклоня-
ются от математического ожидания m t  на величину порядка  t  .

Центрированный случайный процесс



Центрированным случайным процессом (t ) называется процесс, ко-
торый получится, если из случайного процесса  t  вычесть его матема-
тическое ожидание:

(t )  (t )  m (t ).

14
Свойства центрированного случайного процесса

1. Прибавление к случайной функции  t  неслучайного слагаемого


 t  не изменяет ее центрированной функции: если
 
1 t   2 t   (t ) , то 2 (t )  1 (t ) .
2. При умножении случайной функции  t  на неслучайный множи-
тель  t  ее центрированная функция умножается на этот же множи-
 
тель: если 1 t   2 t  (t ) , то 2 (t )  1 (t )(t ) .
3. Математическое ожидание центрированного случайного процесса
  
тождественно равно нулю: M 2 (t )  M (t )  m (t )  0.
 

Реализации центрированного случайного процесса (t ) представляют
собой отклонения случайного процесса  t  от его математического
ожидания. Значения отклонений могут иметь как положительные, так и
отрицательные значения, а в среднем равны нулю. Как указывалось вы-
ше, дисперсия представляет собой неслучайную функцию, характеризу-
ющую степень разброса реализаций случайного процесса около его ма-
тематического ожидания, т.е. степень разброса реализаций центрирован-

ного случайного процесса (t ) .
Математическое ожидание и дисперсия – важные, но недостаточные
характеристики для описания основных свойств случайных процессов.
В этом можно убедиться, обратившись к рисунку.

15
На рисунке изображены реализации двух случайных процессов Х(t),
Υ(t), математические ожидания и дисперсии которых равны, но внутрен-
няя структура процессов совершенно различна. Первый процесс Х(t) име-
ет более «нервный» характер, Υ(t) – изменяется более «плавно». Но это не
отражает ни математическое ожидание, ни дисперсия. Для описания ди-
намики изменения случайных процессов вводится специальная характе-
ристика – корреляционная (другой встречающийся термин автокорреля-
ционная) функция. Она характеризует степень сходства между сечениями
процесса X t1  и X t2  .
Определение. Функцией корреляции случайного процесса (t) назы-
вается математическое ожидание произведения сечений случайного про-
цесса в моменты времени t1 и t2.
 
R (t1 , t 2 )  M (t1 )(t 2 )    x x dF ( x , t , x
1 2 1 1 2 , t2 ) .
  

Она определяется двумерной функцией распределения F(x1,t1;x2,t2) и в


общем случае зависит от двух аргументов – t1 и t2. Эту функцию R(t1,t2)
называют также функцией автокорреляции.
Очевидно, что для процесса Υ(t), изображенного на рисунке (б) выше,
зависимость между сечениями случайного процесса будет более тесной,
чем для Х(t), для которого эта зависимость затухает очень быстро по мере
увеличения расстояния между сечениями. Для Υ(t) характерна большая
предсказуемость реализаций. Можно с большой вероятностью утвер-
ждать, что если реализация процесса Υ(t) была в какой-то момент време-
ни t больше его математического ожидания mY (t ) , то и ее продолжение
будет лежать выше кривой mY (t ) . Между сечениями процесса Y (t ) :
Y (t1 ) и Y (t2 ) практически нет вероятностной зависимости при достаточ-
ном удалении сечений.
Функцией ковариации (ковариационной функцией) случайного про-
цесса (t) называется математическое ожидание произведения центриро-
ванных сечений случайного процесса в моменты времени t1 и t2.
K  (t1 , t 2 )  cov(t 1 ), (t 2 )   M ((t1 )  m (t1 ))((t 2 )  m (t 2 )).
K (t1, t2 ) характеризует не только степень линейной зависимости
между двумя сечениями, но и разброс этих сечений относительно мате-
матического ожидания m (t ) .
Нетрудно показать, что

16
K  (t1 , t 2 )  R (t1 , t 2 )  m (t1 )m (t 2 ) .
При t1 = t2 = t функция ковариации совпадает с дисперсией D(t) слу-
чайного процесса K  (t , t )  D (t )    2 (t ) .
Величину
K  (t1 , t 2 ) K  (t1 , t 2 )
r (t1 , t 2 )  
  (t1 )  (t 2 ) K  (t1 , t1 ) K  (t 2 , t 2 )

называют коэффициентом корреляции случайного процесса или норми-


рованной функцией ковариации. В общем случае коэффициент корреляции
является мерой линейной зависимости двух сечений (t1) и (t2) случайного
процесса, то есть он показывает с какой точностью одна из случайных ве-
личин (t1) может быть линейно выражена через другую (t2).
Для двух случайных процессов (t) и (t) вводится понятие взаимной
функции корреляции или функции кросс-корреляции
R (t1 , t 2 )  M (t1 )(t 2 ) .

Она характеризует степень сходства сечения одного случайного процесса


с различными сечениями другого случайного процесса.
Взаимной функцией ковариации двух случайных процессов (t) и
    
(t) называется неслучайная функция K  (t1, t2 )  M  (t1 ) (t2 )  .
 
Некоррелированными называют два случайных процесса, взаимная
ковариационная функция которых тождественно равна нулю. Коррелиро-
ванными в противоположном случае.
Совместная корреляционная функция двух случайных процессов
(t) и (t) определяется как матричная функция
 R (t1 , t 2 ) R (t1 , t 2 ) 
 R (t , t ) R (t , t ) ,
  1 2  1 2 

все элементы которой определены выше.


Пример 3.4. Пусть задан случайный процесс (t )  U  t , tT, где U –
некоторая случайная величина, с математическим ожиданием mU  4 и
дисперсией DU  10 . Найти дисперсию D(t) и функцию ковариации слу-
чайного процесса K  (t1 , t2 ).

17
Решение. Найдем математическое ожидание:
m (t )  M  (t )  M U  t   t  M (U )  4t.
Найдем центрированную функцию:

(t )  (t )  m (t )  U  t  4t  (U  4)  t.
 
Откуда (t1 )  U  4  t1, (t2 )  U  4  t2 .
Находим функцию ковариации
  

K (t1, t2 )  M (t1 ) (t2 )  M U  4 t1 U  4 t2  
 
 t1  t2 M U  4  t1  t2 DU  10t1  t2 .
2
 
Можем найти дисперсию, для чего положим t1  t2  t :
K  (t, t )  D (t )  10t 2 .
Пример 3.5. Пусть случайный процесс (t) = (t)V, tT, где V – неко-
торая случайная величина, с математическим ожиданием mV и дисперси-
ей DV, а (t) – неслучайная функция. Найти математическое ожидание
m(t), дисперсию D(t) и функцию корреляции случайного процесса
R(t1,t2).
Решение. Согласно определениям имеем:
m (t )  M (t )  M (t )V   (t ) M V   mV (t ) ,
  
R (t1 , t 2 )  M (t1 )(t 2 )  M V(t1 )V(t 2 )  (t1 )(t 2 ) M V 2  (t1 )(t 2 ) DV  mV ,
2

K  (t1 , t 2 )  M (t1 )  m (t1 ) (t 2 )  m (t 2 )   R (t1 , t 2 )  m (t1 )m (t 2 ) 

 (t1 )(t 2 ) DV  mV
2
 m V
2
(t1 )(t 2 )  DV (t1 )(t 2 ) ,
D (t )  K  (t , t )  DV  2 (t ) .

Пример 3.6. Найти нормированную функцию ковариации случайного


процесса (t ) по его известной функции ковариации случайного процес-
са K (t1, t2 )  5cos(t2  t1 ) .
Решение. Искомая нормированная ковариационная функция будет
иметь вид:

18
K (t1, t2 ) K (t1, t2 )
r (t1, t2 )   
 (t1 ) (t2 ) K (t1, t1 ) K (t2 , t2 )
5cos(t2  t1 )
  cos(t2  t1 )
5cos(t1  t1 )5cos(t2  t2 )
Свойства функции корреляции
Рассмотрим основные свойства функции корреляции R(t1,t2)
случайного процесса (t).
1. Функция корреляции является симметрической функцией своих ар-
гументов, т.е. при перестановке аргументов корреляционная функция не
изменяется R(t1 , t 2 )  R(t 2 , t1 ) , для стационарных процессов функция
корреляции – чётная функция R()  R (t 2  t1 )  R (t1  t 2 )  R() .
2. Для корреляционной функции выполняется неравенство:
R(t1 , t 2 )  R(t1 , t1 ) R(t 2 , t 2 ) .
Для стационарных случайных процессов это неравенство означает,
что в нуле функция корреляции достигает наибольшего значения.
3. Если случайный процесс задан соотношением (t )  (t )  (t ), где
  t  – неслучайная функция, (t ) – случайный процесс, то

R (t1, t2 )  (t1 ) (t2 )  R (t1, t2 ).


4. Если случайный процесс задан соотношением (t )  (t )  (t ),
т.е. является суммой двух случайных процессов, тогда его корреляцион-
ная функция равна сумме корреляционных функций слагаемых
R (t1, t2 ); R (t1, t2 ) и взаимной корреляционной функции R (t1, t2 ) , ко-
торая прибавляется дважды с разным порядком следования аргументов:
R (t1 , t2 )  R (t1 , t2 )  R (t1 , t2 )  R (t1 , t2 )  R (t1 , t2 ) .
5. Если случайный процесс задан соотношением
(t )  (t )(t )  (t )(t ) , то
R (t1, t2 )  (t1 )(t2 ) R (t1 , t2 )  (t1 ) (t2 )  R (t1, t2 ) 
 (t1 ) (t2 )  R (t1, t2 )  (t1 ) (t2 )  R (t1, t2 )
где   t  и   t  – неслучайные функции.

19
6. Если для стационарного случайного процесса при    случайные
величины (t) и (t+) стохастически независимы, то
lim R()  lim M (t )(t  )  M(t ) M(t  )  m2  R() .
   

Тогда среднее значение процесса можно выразить через его функцию


корреляции m  R ( ) .
Далее, используя определение дисперсии процесса, запишем
 2  R (0)  m2  R (0)  R () .
Таким образом, среднее значение и дисперсию стационарного случайно-
го процесса можно найти, если известна его функция корреляции.
7. Функция корреляции случайного процесса является положительно
определённой, то есть для n произвольных действительных чисел
1,2,…,n, выполняется неравенство
2
   
 R (t j , t k ) j  k  M  (t j )(t k ) j  k   M  (t k ) k   0 .
k 
j ,k  j ,k 
8. Корреляционная функция суммы случайных процессов равна сумме
корреляционных функций слагаемых плюс сумма всех взаимных корре-
ляционных функций этих слагаемых.
n
Это означает, что для (t )    i (t )
i 1

R (t1 , t 2 )   Ri (t1 , t 2 )   Ri  j (t1 , t 2 ) .


i i j

Для некоррелированных слагаемых с нулевыми средними значениями


имеем

R (t1 , t 2 )   Ri (t1 , t 2 ) .


i

Свойства функции ковариации


1. При перестановке аргументов ковариационная функция не изменя-
ется (свойство симметрии) K  (t1 , t2 )  K  (t2 , t1 ).
2. Прибавление к случайному процессу (t ) неслучайного слагаемого
(t ) не изменяет его ковариационной функции:
если 2 (t )  1 (t )  (t ) , то K 2 (t1, t2 )  K 1 (t1, t2 ).

20
3. При умножении случайной функции (t ) на неслучайный множитель
(t ) ее ковариационная функция умножается на произведение (t1 )(t2 ) :
если 2 (t )  1 (t ) (t ) , то K2 (t1, t2 )  K1 (t1, t2 )(t1 )(t2 ).
4. Абсолютное значение ковариационной функции не превышает
среднего геометрического дисперсий соответствующих сечений:
K (t1, t2 )  D (t1 ) D (t2 ) .
5. Функция ковариации случайного процесса является положительно
определённой,
 a t1  a t2  K t1, t2  dt1dt2  0,
 B  B 
где a  t  – произвольная функция аргумента t, В – произвольное под-
множество множества Т, на котором определен случайный процесс (t ).
n
Пример 3.7. Пусть случайный процесс (t )  Y i 1
i i (t ), tT, где Yi –

некоррелированные случайные величины с математическими ожидания-


ми mi и дисперсиями Di, а i(t) – заданные на T детерминированные
функции. Найти m(t), D(t) и R(t,s).
Решение. Согласно определениям имеем
n  n n
m (t )  M (t )  M  Yi  i (t )   M Yi  i (t )   mi  i (t ) ,
 i 1  i 1 i 1

n n
 n n 
R (t1 , t 2 )  M (t1 )(t 2 )  M  Yi  i (t1 ) Yi  i (t 2 )   M  Yi Yi  i (t1 ) i (t 2 ) 
 i 1 i 1   i 1 i 1 
  M Yi Y j  i (t1 ) i (t 2 )   M Yi M Yi  i (t1 ) i (t 2 )   M Yi  i (t1 ) i (t 2 )   
n n n n n
2

i 1 i 1 i 1 i 1 i 1
i j

 
n n n
  mi m j  i (t1 ) i (t 2 )   Di  mi  i (t1 ) i (t 2 ) ,
2

i 1 i 1 i 1

 
n n n
K  (t1 , t 2 )  R (t1 , t 2 )  m (t1 )m (t 2 )   mi m j  i (t1 ) i (t 2 )   Di  mi  i (t1 ) i (t 2 ) 
2

i 1 j 1 i 1
n n n n
  mi  i (t1 ) mi  i (t 2 )   Di  i (t 2 ) j (t 2 ) ,
i 1 i 1 i 1 j 1
n
D (t )  K  (t , t )   Di  i (t 2 ) .
2

i 1

21
Задачи по теме 3 для самостоятельного решения

1. Найти математическое ожидание, ковариационную функцию и дис-


персию случайного процесса
(t )  U sin 3t ;
где U – случайная величина, mU  10, DU  0, 2.
2. Найти нормированную взаимную ковариационную функцию слу-
чайных процессов
(t )  Ut и (t )  U  t 1 ;
где U – случайная величина, DU  10.
3. Известны математические ожидания m (t )  2t  1, m (t )  t  1 и ко-
2
вариационные функции K  (t1 , t2 )  t1  t2 , K  (t1 , t2 )  e4 t2 t1  некоррели-
рованных случайных процессов (t ), (t ) . Найти математическое ожида-
ние, ковариационную функцию случайного процесса   t     t     t  .
4. Найти математическое ожидание m (t ) , ковариационную функцию
K (t1 , t2 ), дисперсию D (t ) случайного процесса (t )  U sin t  V cos t ,
где U, V – некоррелированные случайные величины,
mU  1, mV  8, DU  DV  4 .
5. Заданы случайные функции (t )  U cos t  V sin t ,
(t )  U cos 3t  V sin 3t , где U, V – некоррелированные случайные вели-
чины, mU  0, mV  0, DU  DV  5 . Найти нормированную взаимную ко-
вариационную функцию.
6. Найти математическое ожидание m (t ) , ковариационную функцию
K  (t1 , t 2 ) , дисперсию D (t ) случайного процесса
(t )  Usht  3e 3tV  t 2 ,
где U, V – некоррелированные случайные величины,
U  R  3;3 ,V  1;2  .
7. Найти ковариационную функцию K  (t1 , t 2 ) и дисперсию D (t ) , ес-
ли (t ), (t ) – некоррелированные случайные процессы,

22
(t )  t 2 (t )  (t ) sin 2t  cos 2t , и даны ковариационные функции
K  (t1 , t2 )  1  cos(t2  t1 ); K  (t1 , t2 )  exp   t2 t1  .
8. (t ), (t ) – центрированные случайные процессы;
K (t1 , t2 )  4sin t1 sin t2 ; K (t1 , t2 )  81sin t1 sin t2 ; K, (t1 , t2 )  18sin t1 sin t2 .
Найти математическое ожидание m (t ) , ковариационную функцию
K  (t1 , t2 ) , дисперсию D (t ) , нормированную ковариационную функцию
r (t1 , t2 ) случайного процесса (t )  sin 4t  e 2t (t )  e  t (t ) .

23
4. Стационарные случайные процессы
Важным классом случайных процессов являются стационарные слу-
чайные процессы, т.е. процессы, которые не изменяют свои характери-
стики с течением времени. Они имеют вид непрерывных случайных ко-
лебаний вокруг некоторого среднего значения. К таким процессам отно-
сятся: колебания самолета при «автопилоте», колебания напряжения в
электрической цепи и т.д.
Случайный процесс (t) называется стационарным в узком смысле
или строго стационарным, если его конечномерная функция распреде-
ления инвариантна относительно сдвига всех моментов времени ti,
i=1,2,…n на одну и ту же величину .
F ( x1 , t1 , , x n , t n )  F ( x1 , t1  , , x n , t n  ) ,
p  ( x1 , t1 , , x n , t n )  p  ( x1 , t1  ,, x n , t n  ), , n  1,2, .
Другими словами, статистические (вероятностные) свойства стацио-
нарного случайного процесса не зависят от начала наблюдения. Для ста-
ционарного процесса   , t  смещение начала момента отсчета времени
не меняет его функцию распределения.
При n = 1, из условия стационарности следует
p ( x, t )  p ( x, t  ) .
Полагая t  , получим

p ( x, t )  p ( x ) ,
то есть одномерное распределение стационарного случайного процесса не
зависит от времени. А одномерное распределение определяет среднее значе-
ние и дисперсию случайного процесса, следовательно, для строго стацио-
нарного случайного процесса среднее и дисперсия не зависят от времени
m (t )  m  const ,
D (t )   2  const .

При n  2, из условия стационарности, получим равенство:


p( x1 , t1 , x2 , t 2 )  p( x1 , t1  , x2 , t 2  ) ,

24
полагая в котором   t , запишем
p( x1, t1 , x2 , t2 )  p( x1, x2 , t2  t1 ) ,
то есть двумерное распределение зависит лишь от разности моментов
времени, следовательно, функция корреляции стационарного случайного
процесса зависит только от одного аргумента
 
R (t1 , t 2 )   x x

1 2 p( x1 , t1 , x2 , t 2 )dx1dx2 
 
  x x
 
1 2 p ( x1 , x2 , t 2  t1 )dx1dx2  R (t 2  t1 ) .

Случайный процесс называется стационарным в широком смысле,


если его среднее значение и дисперсия не зависят от времени, а функция
корреляции зависит лишь от разности моментов времени. Т.е. выполня-
ются свойства:
1. m t   M  t   M  0  const .


2. D t  const .
3. R t , t   R t
1 2  2
 t1   R    , т.е. R  t1 , t2  зависит от разности
аргументов   t 2  t1 .
4. K t1 , t2   K t2  t1   K   , т.е. K  t1 , t2  зависит от разности ар-
гументов   t2  t1 .
5. D (t )  K t , t   K t  t   K  0 .

Свойства ковариационной функции стационарного случайного процесса

1. Ковариационная функция стационарного случайного процесса есть


четная функция: K      K     .
2. Абсолютное значение ковариационной функции стационарного
случайного процесса не превышает ее значения в начале координат:
K     K   0 .
Нормированной ковариационной функцией стационарного случай-
ного процесса называют неслучайную функцию аргумента, определяе-
мую по формуле:

25
K  ( )
r ( )  .
K  (0)

Свойства нормированной ковариационной функции


стационарного случайного процесса
1. Абсолютное значение нормированной ковариационная функции
стационарного случайного процесса не превышает единицы:
K ( ) K  (0)
r ( )    1.
K (0) K  (0)
2. При   0 нормированная ковариационная функция равна единице:
K (0)
r ( )   1.
K (0)
Стационарно связанными называют две случайные функции
(t ), (t ), если их взаимная ковариационная функция зависит только от
разности аргументов   t2  t1 .
K  (t1 , t2 )  K  ( t2  t1 )  K  ( ).
Взаимная ковариационная функция стационарно связанных случай-
ных процессов обладает следующим свойством: K ( )  K () .
Теорема 1. Ковариационная функция производной ' (t ) дифференци-
руемого стационарного случайного процесса (t ) равна второй произ-
водной от ее ковариационной функции, взятой со знаком минус:
''
K ' ( )   K  ( ) .

Теорема 2. Взаимная ковариационная функция дифференцируемого


'
стационарного случайного процесса (t ) и ее производной  (t ) равна
первой производной от ковариационной функции K     , взятой со своим
(противоположным) знаком, если индекс  ' стоит на втором (первом) по
порядку месте: K ' ( )  K ' ( )
  K' ( ) K' ( ) .
Т.к. взаимная ковариационная функция K ' ( ) зависти только от  , то


стационарный случайный процесс и его производная стационарно связаны.

26
t
Теорема 3. Ковариационная функция интеграла (t )    ( s ) ds от
0
стационарного случайного процесса (t ) , вычисляется по формуле:
t2 t2 t1 t1
K  (t1 , t 2 )   (t2 )K  ( ) d    (t2 t1 )K  ( ) d    (t1 )K  ( ) d  .
0 0 0
t
Следствие. Дисперсия интеграла (t )   ( s ) ds от стационарного
0
случайного процесса  (t ) , вычисляется по формуле:
t
D (t )  2  (t )K  ( ) d  .
0
Пример 4.1. Пусть задан случайный процесс (t )  cos(t  ) , где –
случайная величина,   R  0,2   . Доказать, что (t ) – стационарный
случайный процесс.
Решение. Математическое ожидание процесса
m  M cos(t )  M cost cossin t sin  
 M cost cos  M sin t sin   cos t  M cos  sin t  M sin  .
Найдем M  cos  и M  sin  , так как   R  0, 2   , то функция
плотности для равномерно распределенной случайной величины:
1 2
1
p ( x )  , при x  0,2  , тогда M  cos     cos d   0 и
2 0 2
2
1
M  sin    sin d   0 , откуда следует, что m (t )  0 .
0 2
Найдем ковариационную функцию:

K (t1, t2 )  cov  (t1 ), (t2 )   M ((t1 )  m (t1 ))((t2 )  m (t2 )) 
(t1 )  m (t1 )  (t1 ), и (t2 )  m (t2 )  (t2 ).
То,
M ((t1 )  m (t1 ))((t2 )  m (t2 ))  M cos(t1 )cos(t2 ) .
Используя известные тригонометрические формулы получаем:

M cos( t1  )cos( t2  )  M  cos( t2 t1 )  cos( t2  t1  2  )


2 .

В силу того, что

27
M  2 
cos( t2  t1  2  )
 0.
Окончательно имеем:
cos(t2 t1 )
K  (t1 , t 2 )  M
2
.  
Таким образом, получили, что математическое ожидание случайного
процесса постоянно m (t )  0 при всех значениях аргумента, а ковариа-
ционная функция зависит только от разности аргументов. Окончательно,
(t ) – стационарный случайный процесс.
1
Пример 4.2. Задана ковариационная функция K  ( )  cos  стаци-
2
онарного случайного процесса (t ) . Найти нормированную ковариаци-
онную функцию.
Решение. Используя определение нормированной ковариационной
функции стационарного случайного процесса, найдем
1
cos 
K  ( )
r ( )   2  cos .
K  (0) 1 cos0
2
Пример 4.3. Заданы два стационарных случайных процесса
(t )  cos(t  ), (t )  sin(t  ), где  – случайная величина,
  R  0, 2   . Доказать, что (t ) и (t ) – стационарно связаны.
Решение. В примере 1 было показано, что m (t )  0 , аналогично
можно показать и для (t ) : m (t )  0 . Центрированные случайные про-
цессы, для (t ) и (t ) :
 
 (t )  cos  t   , (t )  sin  t   .
Взаимная ковариационная функция:
   

K  ( t1 , t2 )  M ( t1 ) ( t2 )   M cos t1  sin  t2    
 
 sin  t2 t1  sin  t2  t1  2  
M .
 2 

28
Найдем значение
M
 sin  t2 t1  2  
 2
M


sin(t2 t1 )cos 2 cos(t2 t1 )sin 2
2
 
sin(t2 t1 ) cos(t2 t1 )
 M cos 2  M sin 2;
2 2
2
1 1 2
M  cos2   cos 2d 2   cos 2d 2  0;
0 4 4 0
2
1 1 2
M  sin 2    sin 2d 2   sin 2d 2  0.
0 4 4 0
 sin  t2 t1  2  
Окончательно получаем: M    0.
 2 
 sin t t  sin t 2  t1
Тогда K  (t1 , t 2 )  M   2 1   
 
, т.е. взаимная ковари-
 2  2
ационная функция зависит только от разности аргументов, следователь-
но, (t ) и (t ) – стационарно связаны.
Пример 4.4. Пусть задана ковариационная функция K      2e 0,5 
2

стационарного случайного процесса (t ) . Найти ковариационную функ-


цию и дисперсию производной ' (t ) .
''
Решение. Согласно теореме 1 K ' ( )   K  ( ) , продифференциру-

K '      K     
''
ем дважды данную ковариационную функцию:

   2e
''
  2e
0,5 2 0,5 2
12  , откуда дисперсия D' (   0)  K '  0  2 .
Пример 4.5. Задана ковариационная функция K    e  
1   ,
стационарного случайного процесса (t ) . Найти взаимную ковариаци-
онную функцию K ' ( ) случайного процесса (t ) и его производной.

'
Решение. Используем формулу K
'
( )  K  ( ) .

29
1. Пусть   0 , тогда    и K  ( )  e

1  , K ' ( )  e  ,

окончательно имеем при   0 : K ' ( )  e .



2. Пусть   0 , тогда    и K  ( )  e  1  , K  ( )  e , окон-
'

чательно имеем при   0 : K ' ( )  e  .




Пример 4.6. Задана ковариационная функция K ( )  1 стационар-


 2
1 
t
ного случайного процесса (t ) . Найти дисперсию интеграла ( t )   ( s ) ds.
0
Решение. По следствию из теоремы 3 дисперсия интеграла
t
(t )   ( s ) ds от стационарного случайного процесса (t ) , вычисля-
0
t
ется по формуле: D (t )  2  (t )K  ( ) d  .
0
t
D (t )  2  (t )
1
d   2t 
t
1 t
2
2t arctg t 
t d 2 1 
2 2
d    2
d    2

0 1  0 1 0 1 0 1

 2tarctgt  ln  t 2 1 .
Очевидно, что из стационарности в узком смысле следует стационар-
ность в широком смысле. Обратное утверждение, вообще говоря, не вер-
но, но для гауссовских процессов (которые будут рассмотрены ниже)
верно и обратное утверждение.

Эргодические случайные процессы

Большинство стационарных случайных процессов обладают важным


для практики эргодическим свойством. Суть которого в том, что по од-
ной, достаточно длинной, отдельной реализации можно судить о всех
свойствах процесса также как по любому количеству реализаций. Други-
ми словами отдельные характеристики стационарного случайного про-
цесса, могут быть определены как соответствующие средние по времени
для одной реализации достаточно большой продолжительности. Таким
образом для стационарных случайных процессов кроме средних стати-

30
стических характеристик вводятся ещё характеристики, средние по вре-
мени.
Выберем k-ю реализацию – (k)(t) случайного процесса и будем
наблюдать её в течение времени 2T. Рассмотрим среднее по времени зна-
чение этой реализации
T
1 ~ .
T  2T 
 ( k )  lim  ( k ) (t )dt  m
T

Здесь символ   обозначает усреднение по времени, в отличие от сим-


вола математического ожидания M – усреднения по распределению, или
статистического усреднения. Это среднее по времени можно рассматри-
вать как постоянную составляющую случайного процесса (t). Аналогич-
но можно определить усреднённую по времени функцию корреляции
для стационарного процесса
T
~ 1
R ()   ( k ) (t ) ( k ) (t  )  lim  (t ) ( k ) (t  )dt .
(k )
T  2T
T

Заметим, что не для любого стационарного случайного процесса, при-


ведённые средние по времени характеристики имеют конечные значения.
Но даже если такие характеристики существуют, то они могут быть раз-
личны для разных реализаций случайного процесса. Исключение состав-
ляют эргодические процессы, для которых эти характеристики одинако-
вы для всех реализаций и, кроме того, совпадают с соответствующими
статистическими средними.
Определение. Случайный процесс будем называть эргодическим, ес-
ли любая его статистическая характеристика, равна соответствующей
характеристике, полученной усреднением по времени одной единствен-
ной реализации.
Из эквивалентности двух способов усреднения эргодического случай-
ного процесса по распределению и по времени следует, что нет необхо-
димости изучать свойства всего ансамбля реализаций, но достаточно од-
ной реализации для определения всех характеристик рассматриваемого
процесса.
Необходимыми и достаточными условиями эргодичности случайного
процесса являются: строгая стационарность и, так называемая, мет-
рическая транзитивность, состоящая в том, что любая часть ансамбля
реализаций случайного процесса, вероятностная мера которого отлична
от 0 или 1, уже не является строго стационарным случайным процессом.

31
Рассмотрим пример строго стационарного, но неэргодического про-
цесса. Пусть (t) = (t)+, где (t) – эргодический случайный процесс, а
 – некоторая случайная величина. Очевидно, процесс (t) является стро-
го стационарным, но его средние по времени характеристики различны
для различных реализаций, поэтому такой случайный процесс будет не-
эргодическим.
Итак, если случайный процесс эргодический, то любая его реализация
определяет свойства всего ансамбля и поэтому результат усреднения по
времени, выполненный по одной реализации, совпадает с соответствую-
щей статистической характеристикой процесса, то есть
~ , R ()  R~ () .
m (t )  m  

Можно ввести и другие средние по времени характеристики эргоди-


ческого процесса. Так, среднее время пребывания процесса ниже уровня
x совпадает с вероятностью того, что значения случайного процесса в
любой момент времени меньше, чем x, то есть
T
~ 1
T  2T 
F ( x)  lim  
C x   ( k ) (t ) dt  P{(t )  x} ,
T

1, y  0,
здесь C ( y )  
0, y  0.
Одномерная характеристическая функция определяется как среднее
по времени значение процесса expi(k)(t)u, то есть в виде
T

 expi 
1
g~ (u )  lim (k )
(t )u dt .
T  2T
T

Основное преимущество средних по времени характеристик состоит в


том, что для их вычисления требуется наблюдение за одной единствен-
ной реализацией, чем чаще всего и располагает исследователь.

Задачи по теме 4 для самостоятельного решения

1. Задана случайный процесс X (t )  cos  t    , где φ – случайная ве-


личина, распределенная равномерно в интервале  0, 2  . Доказать, что
X (t ) – стационарный процесс.

32
2. Является ли стационарным случайный процесс
X (t )  U sin t  V cos t , где U, V – некоррелированные случайные ве-
личины mU  mV  0, DU  DV  D .
3. Известна ковариационная функция K  ( ) стационарного процесса
2
(t ) . Доказать, что если (t )  a  (t ) , то K  ( )  a K  ( ) .
4. Заданы два стационарных случайных процесса
X (t )  cos  t    
, Y (t )  sin t   , 
где φ – случайная величина, рас-
пределенная равномерно в интервале  0, 2  . Доказать, что эти функции
стационарно связаны.
5. Доказать, что случайный процесс
 
X (t )  (U  2) cos 7t  V sin 7t , U  N 2, 3 , V  R  3, 3
стационарен в широком смысле. Проверить свойство эргодичности для
математического ожидания и ковариационной функции.
6. Дана ковариационная функция K  ( )  exp  3  1sin 3   стацио-
нарного случайного процесса (t ) . Найти ковариационную функцию, дис-
персию производной ' (t ) , взаимную ковариационную функцию k '    .


7. Дана ковариационная функция K  ( ) стационарного случайного


процесса (t ) . Найти ковариационную функцию K  (t1,t 2 ) , дисперсию
t
D (t ) случайного процесса (t )   ( s ) ds , взаимную ковариационную
0
функцию k  t1 ,t2  (в случае б) – лишь при 0  t 2  t1 .
; б) k     e .

а) k     72
19 
2

33
5. Спектральная плотность

Информацию о случайном процессе, которую дают корреляционная и


ковариационная функции, можно получить и через так называемую
спектральную плотность S(), которая широко используется для ста-
ционарных случайных процессов.
Пусть (t ) – стационарный случайный процесс, R ( ) его корреляци-
онная функция, интегрируемая абсолютно на интервале  ;  , тогда
преобразование Фурье:

S  ()   R ( ) exp( i) d 

называется спектральной плотностью случайного процесса (t ) . Что-
бы определить корреляционную функцию R ( ) по известной спектраль-
ной плотности S  () используется обратное преобразование Фурье:

1 
R ( )   S () exp(i) d  .
2   

Спектральная плотность S  () стационарного случайного процесса


(t ) – это частотная функция, характеризующая спектральный (частот-
ный) состав процесса, и представляет собой частотную характеристику
для средних значений квадратов амплитуд гармоник, на которые может
быть разложен случайный процесс. По своему физическому смыслу
спектральная плотность есть величина, которая пропорциональна сред-
ней мощности процесса в интервале частот от ω до ω + dω.
Или иначе: спектральная плотность описывает мощность случайного
процесса, приходящуюся, на заданный интервал частот, поэтому часто
эту функцию называют спектральной плотностью мощности случай-
ного процесса.
На нижеследующих рисунках графики спектральных плотностей и
корреляционных функций для различных случайных процессов:

34
Линии 4 соответствуют чисто случайному процессу, когда связь меж-
ду последующими значениями (t ) совсем отсутствует. Такой случай-
ный процесс называется белым шумом, т.е. при   0 , R ( )  0 , а
S  ()  const .

Свойства спектральной плотности

1. S  ()  S  ( ) – четность спектральной плотности.


2. S  ()  0 – неотрицательность.
1 
3. Если положить в выражении R ( )   S () exp(i) d  ;
2   
1 
  0 , то получим: R (0)  D (t )   S () d  .
 2   
Пример 5.1. Корреляционная функция случайного процесса (t ) за-
   ,   0
дана в виде R ( )  D e , где    . Определить спектраль-
 ,   0
ную плотность соответствующего случайного процесса.
Решение. Спектральная плотность определяется по формуле:
 
1 1
 
 
S ( w)  R ()eiw d  De eiwd .
2   2  
Исходя из условий задачи, представим этот интеграл в виде суммы
двух интегралов:

35
D  0  iw 

S  ( w)   e d   e  iw d .
2    0 
Вычислим
D 1 D 1 D  1 1 
S  ( w)   e  iw 0
  e  iw 
   
2  (  iw) (  iw) 
 0
2 (  iw) 2 (  iw)
D  1 1  D 
    .

2  (  iw) (  iw)  ( 2  w 2 )

Задачи по теме 5 для самостоятельного решения

1. k    – ковариационная функция стационарного случайного про-


цесса   t  . Найти его спектральную плотность.
sin 2 4 
а) k     64
2
; б) k     12 exp 4  1 4  .   
2. Найти ковариационную функцию стационарного случайного про-
цесса   t  , если его спектральная плотность S  ( w) :
 2
a) S ( w)  1  16 , при   4 ;
0 , при   4

10  1 1 
b) S  ( w)    .
  4 3 4 3 
2 2
 

36
6. Сходимость, непрерывность, дифференцируемость
и интегрируемость случайных процессов
Понятие сходимости является базовым не только в математическом
анализе, но и в стохастическом (вероятностном) анализе. Стохастиче-
ский анализ – это раздел математики, в котором случайные функции изу-
чают методами математического анализа. Теория стохастического анали-
за объединяет теорию пределов, дифференциального и интегрального
исчисления и их непосредственное приложение.
В теории случайных процессов рассматривают различные виды схо-
димости и вследствие этого различные виды непрерывности, дифферен-
цируемости и интегрируемости. Наиболее удобно и просто ввести все эти

понятия для процессов, удовлетворяющих условию M 2  t    , так 
называемых процессов второго порядка, или гильбертовых процессов.
 
Физически условие M 2  t    означает, что процесс имеет конеч-
ную мощность, что выполнимо для всех реальных процессов.
В теории вероятностей были рассмотрены следующие виды сходимости:
1. По вероятности: если для любого   0 , существует
lim P  k ()()    0 .
k 

2. В среднем квадратичном: если lim M  k ( )  ( )    0 .


2
k 


3. Почти наверное: если P lim k ()  ()  1 .
k 

4. По распределению (слабая сходимость): если lim F  F ( x ) во
 k  k

всех точках непрерывности функции распределения F ( x ) .


Мы будем использовать только сходимость в смысле среднего квад-
ратичного, потому что оно является наиболее приемлемым с точки зре-
ния приложений.
Сформулируем сходимость в среднем квадратичном для случайных
процессов.
Определение 1. Последовательность  s (t ) сходится к  (t ) в среднем
квадратичном при s  s0 , если lim M   s (t ) (t )    0 .
2
s s0

37
ср.кв.
Обозначение s (t )  (t ) ; или l.i.m  s (t )  (t ) .
s  s0 s  s0

Непрерывность случайных процессов

Определение 2. Случайный процесс второго порядка (, t ) , t  T


2
(т.е. M (, t )   ) называется непрерывным в точке t  t0 , если су-
ществует предел:

lim M  (, t )  (, t0 )   0 ,


2

t t0  
т.е. случайный процесс сходится в точке t  t0 к случайной величине
()  (, t0 ) .
Определение 3. Говорят, что скалярный случайный процесс второго
порядка (, t) , t  T непрерывен на Т, если он непрерывен в каждой
точке t  T .
Пример 6.1. Покажем, что пуассоновский случайный процесс непре-
рывен.
Покажем его непрерывность в некоторой точке t  t 0  T .


M  ( , t )   ( , t 0 )
2
   k P (, t)   (, t )  k    k

k 1
2
0

k 1
2 [ (t  t 0 )]k  ( t t0 )
k!
e 

  (t  t 0 )e  ( t t0 )  k

 (t  t 0 ) k 1

.
k 1 ( k  1)!

Для дальнейшего упрощения полученного выражения найдем сумму



ряда  k
 (t  t 0 )k 1 . Для этого проинтегрируем его почленно
k 1 (k  1)!
k 1 k k
 x  x  x x
k dx    x  xe .
k 1 ( k  1)! k 1 ( k  1)! k 0 k!
Отсюда
k 1
 x d x x x x
k  ( xe )  xe  e  e ( x  1) .
k 1 ( k  1)! dx

38
Таким образом,
 (t  t0 )
k 1
M  (, t )  (, t0 )   (t  t0 )e ( t t0 )  k
2

  k 1 (k  1)!
 (t  t0 ) (t  t0 )  1  0,
t t0
и, согласно определению 1, пуассоновский процесс непрерывен в любой
точке множества Т и, следовательно, согласно определению 2, непреры-
вен на Т.

Дифференцируемость случайного процесса

Определение 4. Случайный процесс второго порядка ( , t ) t  T


называется дифференцируемым в среднеквадратичном в точке t  t0 ,
'
если существует такая случайная величина  (, t0 ) , для которой

 (, t )  (, t ) ' 2



lim M  0
  (, t0 )   0 . (3.7)
t t0  t  t0 

При этом случайная величина ' (, t ) называется его производной в
этой точке.
Производной случайного процесса в точке t0 называют среднеквадра-
тичный предел отношения приращения функции к приращению аргумен-
та t  t  t0 при t  0 :
' (, t )  (, t0 )
 (, t )  lim .
t t0 t  t0
Определение 5. Если случайный процесс второго порядка (, t )
t  T является дифференцируемым в каждой точке открытого множе-
ства T0  T , то его называют дифференцируемым на множестве T0 .
Теорема 1 (необходимое и достаточное условие дифференцируемо-
сти случайного процесса). Для того, чтобы скалярный случайный про-
цесс второго порядка (, t ) t  T был дифференцируемым в точке
'
t0  T , а для случайной величины  (, t0 ) существовало математиче-

39
ское ожидание и дисперсия, необходимо и достаточно, чтобы функция
m (t ) была дифференцируема в этой точке и существовала вторая обоб-
щенная смешанная производная от ковариационная функции K  (t1 , t 2 )
при t1  t 2  t0 .
Следствие. Для дифференцируемого на множестве T случайного
процесса второго порядка (, t ) t  T с математическим ожиданием
m (t ) и ковариационной функцией K  (t1 , t 2 ) определен случайный про-
'
цесс  (, t ) t  T , и при этом, если случайный процесс
'
(, t )   (, t ) есть процесс второго порядка, то
d
1) m (t )  m (t ) ;
dt
2

2) K  (t1 , t 2 )  K  (t1 , t 2 ) .
t1t 2
Если к тому же (, t ) еще и стационарный процесс, то
1) m (t )  0 ;

2) K  (t1 , t2 )   K ' ( ) .
Пример 6.2. Зная математическое ожидание m (t )  t 2  t случайного

процесса (t ) , найти математическое ожидание ее производной
m ' (t )  m (t ) .

Решение. Искомое математическое ожидание
'
'
 
m ' (t )  m (t )  m (t )  t  t  2t  1 .

2

Пример 6.3. Случайный процесс определяется формулой


t
(t )   (t )  e , t  0,  (t )  N (3,1) .
Найти математическое ожидание и ковариационную функцию слу-
' d ( t )
чайного процесса  (t )  .
dt

40
Решение. Найдем математическое ожидание случайного процес-
t t
са (t ) : m (t )  M (   e )  e  M  ; но так как (t )  N (3,1) , то по-
t
лучаем m (t )  3  e ; найдем математическое ожидание m ' (t ) :
 

    ' '
m ' (t )  M '  t   M   t     3e t   3e .
t

Найдем ковариационную функцию случайного процесса (t ) :

K  ( t1 , t2 )  M e  t1

 3e  t1  e  t2  3e  t2   M   e t e  t 2 1 2 t
 6  e 1 e
 t2

9 e
 t1
e
 t2

M e
 t1
e
 t2
   3   M   3  e e .
2 t t 2 1 2

Так как из условия M   3   D  1 ;


2
то окончательно имеем

K   t1 ,t2   M  3  2
 e t e t
1 2
e
 t1t2 
.
Найдем ковариационную функцию случайного процесса

'
 (t ) 
d (t ) K  (t1 , t 2 )
; 
 e   t1 t2 
 e   t1 t2 
.
dt t1t 2 t1t 2
Пример 6.4. Зная ковариационную функцию
2 2
K x (t1 , t 2 )  2t1  t 2  t1  t2 случайного процесса X (t ) , найти ковариаци-
онную функцию ее производной K ' (t1 , t2 ) .
x
Решение. Найдем частную производную от заданной ковариацион-
ную функции по t1 :

K x (t1 , t 2 )   2t1  t 2  t12  t 22 


  2t 2  2t1  t 22 ;
t1 t1

найдем частную производную от полученного результата по t 2 :


2



 K x (t1 , t 2 )  2t 2  2t1  t 2
 2  4t1  t 2 .
2

t1t 2 t 2

41
Таким образом, искомая ковариационную функция
K x' (t1 , t2 )  2  4t1  t2 .
Пример 6.5. Задан случайный процесс
X (t )    cos(  t )    sin(  t ), где α, β – независимые случайные
2 2 2
величины, числовые характеристики, которых m , m ,      . До-
казать, что это дифференцируемый процесс.
Решение. Найдем математическое ожидание процесса, используя
свойства математического ожидания:
mX (t )  M    cos(  t )    sin(  t )   M    cos(  t )   M    sin(  t )  
 m cos( t )  m sin( t );
K X (t1 , t 2 )  M [( X (t1 )  m X (t1 ))( X (t 2 )  m X (t2 ))  M  X (t1 ) X (t 2 )  
 m X (t1 ) M  X (t2 )   m X (t2 ) M  X (t1 )   m X (t1 ) m X (t2 ) 
 M  X (t1 ) X (t2 )   m X (t1 ) m X (t2 );
Откуда
M  X (t1 ) X (t2 )   mX (t1 )mX (t2 )  M [(  cos( t1 )   sin( t1 )( cos( t2 ) 
 sin( t2 )]  mX (t1 )mX (t2 )  M  2  cos( t1 )cos( t2 ) 
 M  M  sin( (t1  t2 ))  M 2  sin( t1 )sin( t2 ) 
m2 cos( t1 )cos( t2 )  m m  cos(t1) sin(t2 )sin(t1)cos(t2 ) 
'' ''
 2e0,52   2e0,52
12    2e0,5   2e0,52
12  m2 sin( t1 )sin( t2 ) 
2
  
  
 т.к. M  2  2  m2 ; M 2  2  m2   2 cos( (t1  t2 ));
Таким образом получили
m X (t )  m cos(  t )  m sin(  t ); K X (t1 , t 2 )   2 cos(  (t1  t 2 ));
откуда
' dm X
m X (t )     [ m cos(  t )  m sin(  t )];
dt
2
 KX 2 2 2 2
   cos (t2  t1 ) t1 t2 t0   
t1t 2

42
И согласно теореме о необходимом и достаточном условии диффе-
ренцируемости случайного процесса: случайный процесс
X (t )    cos(  t )    sin(  t ) – дифференцируем.

Интегрируемость случайного процесса

Понятие интеграла от случайной процесса будем также рассматривать


в среднеквадратическом смысле. Пусть случайный процесс (t ) опреде-
лен на T  R . На отрезке  a ,b  T построим некоторое разбиение
1

a  t0  t1  ....  t n1  t n  b , а на каждом из промежутков этого разби-


ения выберем произвольную точку i  ti 1 , ti  , i  1,..., n .
Определение 6. Если при n   и max(ti  ti 1 )  0 существует
i 1,...,n
n
предел в среднеквадратическом  ( i )(ti  ti 1 ) 
  , не зависящий c.k

i 1

от способа разбиения ti  и выбора точек   , то случайный процесс


i

(t ) называется интегрируемым в среднеквадратическом, а случайная


величина  называется ее среднеквадратическим интегралом по  a,b  и
b
обозначается    (t ) dt .
a
Теорема 2. Для существования среднеквадратического интеграла
b
   (t ) dt необходимо и достаточно, чтобы существовали следующие
a
интегралы Римана:
b b b
I1   m (t ) dt ; и I 2    K (t , ) dtd  ,
a a a

где m (t )  M (t ) K  (t , )  cov (t), ( ) .  


Теорема 3. Если случайный процесс (t ) интегрируем на Т, то

 b

a
 b
M   M  (t ) dt   m (t ) dt ,
a
 b

 b
cov  (t ) dt ,( )   K (t ,) dt ,   T ;
a a

 b d  b d d  b b
cov   (t ) dt ,  ( ) d      K (t ,) dtd ,  c,d   T ; D   (t ) dt     K (t ,)dtd  .
 a c  a c  c  a a

43
Пример 6.6. Зная математическое ожидание m (t )  2t  1 случайного
процесса (t ) , найти математическое ожидание интеграла
t
(t )   ( s ) ds .
0
t t
Решение. M (t )   m ( s ) ds   (2 s 1) ds  t 2  t .
0 0

Пример 6.7. Зная математическое ожидание m (t )  3e t случайного



процесса (t ) и ковариационную функцию K  (t1 , t 2 )  e
t1 t2 , найти
математическое ожидание и корреляционную функцию случайного про-
t
цесса (t )   ( s ) ds .
0
Решение. Найдем математическое ожидание процесса (t ) :
t t
s t t
M (t )   m ( s ) ds   3e s ds  3e 0  3  3e .
0 0
t t1 t2
Если (t )    ( s ) ds , то K  (t1 , t 2 )    K ( 1 ,2 ) d 1d 2 , т.е. корре-
0 0 0
ляционная функция интеграла от случайного процесса равна двойному
интегралу от корреляционной функции случайного процесса:
t1 t2 t1 t2
K  ( t1 , t2 )    e1 2 d 1d 2   e1 d 1  e2 d 2 
0 0 0 0
.
    
t1
 1 e  t2  e 1 d 1  1 e  t2  1 e  t1 .
0

Задачи по теме 6 для самостоятельного решения

3
1. Задано математическое ожидание m X (t )  t  2t  1 случайного
процесса X (t ) . Найти математическое ожидание ее производной.
2. Задано математическое ожидание mX (t )  t 2  4 случайного про-
цесса X (t ) . Найти математическое ожидание случайного процесса
Y (t )  t  X ' (t )  t 2 .

44
3. Задана ковариационная функция K  (t1 , t 2 )  5e  t2 t1 
2
случайного
процесса X (t ) . Найти ковариационную функцию ее производной.
4. Зная математическое ожидание m X (t )  3t 2  1 случайного процес-
t
са X (t ) , найти математическое ожидание интеграла Y (t )   X ( s ) ds .
0
t
5. Задан случайный процесс X (t )  Ue cos  t , где U – случайная
величина, mU (t )  5. Найти математическое ожидание интеграла
t
Y (t )   X ( s ) ds .
0

6. (t )  ch 2t  Ush 2t , случайная величина U  E  0; 4  , (t )  ' (t ) .


Найти математическое ожидание m (t ) , ковариационную функцию
K  (t1 , t 2 ) , дисперсию D (t ) , нормированную ковариационную функцию
r (t1 , t 2 ) случайного процесса (t ) , не дифференцируя (t ) . Найти вза-
имную ковариационную функцию K  , (t1 , t 2 ) и нормированную взаим-
ную ковариационную функцию r , (t1 , t 2 ) .
t
7. Дан случайный процесс (t )  (t 2  1)U , U  N ( 3, 5), (t )   ( s )ds .
0

Найти математическое ожидание m (t ) , ковариационную функцию


K  (t1 , t 2 ) , дисперсию D (t ) , взаимные ковариационные функции
K  , (t1 , t 2 ); K , (t1 , t2 ) не интегрируя (t ) .
U t
8. Дан случайный процесс (t )  2 , U  P (2), (t )    ( s )ds .
(t  4) 0

Найти ковариационную функцию K  (t1 , t 2 ) , дисперсию D (t ) , нормиро-


ванную ковариационную функцию r (t1 , t 2 ) случайного процесса
(t )  (t )  (t ) , не интегрируя (t ) .

45
7. Основные классы случайных процессов

Гауссовские случайные процессы

Важную роль во многих прикладных задачах играют гауссовские


случайные процессы, которые возникают в результате сложения большо-
го числа независимых или слабозависимых случайных процессов при-
мерно одинаковой мощности. В этом случае, с увеличением числа слага-
емых сумма сходится к гауссовскому случайному процессу независимо
от того, как распределены отдельные слагаемые.

Пусть    1, 2 , , n 
T
– n-мерный случайный вектор, и

   1 ,  2 ,,  n T  R n .

Характеристическая функция  определяется как
  
gn ()  Mei (,)  Mei (11 nn ) ,
 

где ,   – скалярное произведение векторов.

Напомним, что n-мерный случайный вектор    1, 2 , , n  имеет
T

нормальное распределение, если его характеристическая функция имеет


вид
   1   n 1 n 
gn ()  exp i  m, v   v T K v   exp i  mk vk   K jk v j vk  ,
 2   k 1 2 j , k 1 
 T 
где v   v1 , v2 , , vn  , mT   M 1 , M 2 ,, M n  , K  ( K jk ) – кова-

риационная матрица случайного вектора    1 , 2 ,, n  :
T

   ___
K jk  M    j  m j   k  mk    M   j k  , j, k  1, n .
 

Определение. Действительный случайный процесс   , t   t  T 


называется гауссовским или нормальным, если все его конечномерные
законы распределения являются нормальными, т.е. характеристическая

46
функция совместного распределения вероятностей случайных величин
  , t1  ,  , t2  ,,  , tn   ti  T i  1, n имеет вид  

g n  v1 , v2 , , vn ; t1 , t2 , , tn   exp i  m  tk  vk   n

k 1
1
 K  t k , tl  vk vl .
n

2 k , l 1 
Характеристическая функция полностью определяет распределение
совокупности случайных величин, и с ее помощью может быть задано
полное семейство конечномерных распределений.
Пример 7.1. Пусть n  1 . Тогда

g1  v   M ei  v    ei x v p1  x  dx ,


1   x  m   2
где p1  x   exp   – плотность одномерного нормаль-
2 2
 22 
ного распределения. Плотность p1  x  находится по формуле обращения

1 
p1  x   g1  v  dv .
i xv
e
2  
Покажем, что
1
i mv  2 v 2
g1  v   e 2 .

Имеем:
  x  m 2 xm y  y2  1
1 
i  y  m v 1  ei m v i y v y2
 2 2
  2 2 dy
e 2 2
i xv
e e dx e e  dy 
 2 2  2 2 2 2 

ei m v
 
1
 y i  v 
2 2

 2v 2 z  y i  2v
ei m v 
 2 v 2   i  2 v 
z2

 e   dz 
2
2 2 2
e 2
dy e 2
e
2 2
 2 2
 i  2v
1
i m v   2 v2
 e 2 .
Для случайного процесса вводят последовательность характеристиче-
ских функций

47
g1  v1; t1   M  ei  , t1  v1  ,
g 2  v1 , v2 ; t1 , t2   M  ei  , t1  v1  , t2  v2  ,
 
 3
  
i   , t j v j

g3  v1 , v2 , v3 ; t1 , t2 , t3   M e
j 1
,
 

Гауссовские процессы обладают рядом хороших свойств:
1. Гауссовский случайный процесс исчерпывающим образом опреде-
ляется двумя моментными функциями: математическим ожиданием
m (t ) и ковариационной функцией K  (t ) .
2. Для гауссовских случайных процессов понятия стационарности в
широком и узком смысле совпадают. По определению, случайный про-
цесс является стационарным в широком смысле, если его математическое
ожидание не зависит от времени, а ковариационная функция зависит
лишь от абсолютных значений интервалов между рассматриваемыми
моментами времени. Одновременно он будет стационарным в узком
смысле, т.к. многомерные плотности вероятности и характеристические
функции не будут изменяться при сдвиге всей группы точек вдоль оси
времени на произвольную постоянную величину.

Процессы с независимыми приращениями

Определение. Векторный случайный процесс называется процессом с


независимыми приращениями, если для любых сечений t1  t2  ...  tn
для последовательности случайных величин
 t1  ,  t2    t1  ,  t3    t2  , ....,  tn    tn 1  ,
выполняются следующие условия:
cov  t1  ,  t2    t1   0 ; cov  t2    t1  ,  t3    t2   0 ; …;
cov  tn  2    tn 1  ,  tn 1    tn   0 ;…
и конечномерное распределение имеет вид:
p (t1 , x1 , t2 , x2 ,..., tn , xn )  p (tn , xn tn 1 , xn 1 )  ....  p (t2 , x2 t1 , x1 )  p (t1 , x1 ) .

48
Рассмотрим основные свойства процессов с независимыми прираще-
ниями:
1. Процессы с независимыми приращениями полностью описываются
одномерными и двумерными законами распределения, т.е. для задания
такого процесса достаточно знать только p(t , x) , p(t1 , x1 , t2 , x2 ) или
Ft  x  , Ft 1, t 2
 x1, x2  .
2. Ковариационная функция такого процесса обладает следующим
свойством:
K t1 , t2   K t1  ,
где K  t1  – это матрица ковариаций сечения t1.
Для скалярного случайного процесса K  t1  – это дисперсия случай-
ной величины в данном сечении, а для векторного процесса – это матри-
ца ковариаций данного сечения.

Винеровский процесс (частный случай процесса


с независимыми приращениями)

Определение. Случайный процесс   , t  t  T  называется выхо-


дящим из нуля винеровским процессом с параметром   0 , если вы-
полняются три условия:
1.   , 0  0.
2.  n  1 и tk  : tk  T , k  1, n : 0  t1  t2    tn случайные
величины   , t1  ,   , t2     , t1  ,,   , tn     , tn 1  яв-
ляются независимыми.
3. Для  0  ti 1  ti : случайная величина   , ti     , ti 1  рас-
пределена по нормальному закону с нулевым математическим ожидани-
ем и дисперсией D    ti  ti 1  2 (  называется коэффициентом
диффузии).
Таким образом, винеровский случайный процесс является одновре-
менно и процессом с независимыми приращениями, и гауссовым случай-
ным процессом. Если   1 , то винеровский процесс называется стан-
дартным.

49
Некоторые полезные свойства винеровского процесса
Винеровский процесс инвариантен относительно некоторых преобра-
зований фазовой и временной шкал. Так, если w  , t  – винеровский
случайный процесс, то для    0 и s  0 случайные процессы

 t 
X  , t    w  , 2  ,
  
 1
X  , t   t w  ,  ,
 t
X  , t   w  , t  s   w  , s 

также являются винеровскими.

Пуассоновский процесс (частный случай процесса


с независимыми приращениями)

Определение. Пуассоновским процессом с параметром   0 назы-


вается скалярный случайный процесс   , t  , t  R , обладающий сле-
дующими свойствами:
1.   , 0  0.
2.  n  1, tk  T , k  1, n : t1  t2    tn случайные величины
  , t1  ,   , t2     , t1  ,,   , tn     , tn 1  являются неза-
висимыми.
3.  t1, t2  T : 0  t1  t2 случайная величина   , t2     , t1 
распределена по закону Пуассона с параметром  t2  t1 

 t2  t1  et2 t1  .


k
P   , t2     , t1   k  
k!

50
Задачи для самостоятельного решения по всем темам

1. Случайный процесс (t) принимает два значения +1 и –1. Число пе-


ремен знаков за время  подчиняется распределению Пуассона с пара-
метром . В начальный момент времени оба значения равновероятны.
Найти математическое ожидание, дисперсию и функцию корреляции это-
го процесса и определить является ли этот процесс стационарным.
2. Случайный процесс (t) состоит из горизонтальных отрезков еди-
ничной длины, ординаты которых независимые случайные величины с
| x | | x|
плотностью p( x)  e . Найти математическое ожидание, дис-
(  1)
персию и функцию корреляции процесса (t). Определить, является ли
данный процесс стационарным, по крайней мере, в широком смысле.
3. U и V независимые случайные величины, равномерно распределен-
ные в интервале [a,b] и [c,d] соответственно. Найти математическое ожи-
дание, дисперсию и функцию корреляции процесса S(t) = U+Vt. Является
ли этот процесс стационарным?
4. Случайный процесс задан в виде (t) = Ucosat+Vsinat, где a – неслу-
чайная величина, U и V – некоррелированные случайные величины, рав-
номерно распределенные в интервале [–1,1] и [–2,2] соответственно.
Найти математическое ожидание, дисперсию и функцию корреляции
данного процесса. Является ли данный процесс стационарным?
5. Найти функцию ковариации процесса виде (t) = (t)cos(Bt+), где
B – неслучайная величина, (t) – стационарный случайный процесс с ма-
тематическим ожиданием m и функцией ковариации K(),  – случайная
величина, равномерно распределенная на отрезке [0,2], (t) и  незави-
симые. Является ли этот процесс стационарным?
6. Найти функцию взаимной ковариации процесса и его второй про-
изводной, если процесс (t) имеет математическое ожидание равное t и
функцию ковариации K(t,s) = e–(t+s).
7. Пусть 1(t) и 2(t) – независимые случайные процессы с корреляци-
онными функциями R1(t,s) и R2(t,s), соответственно. Найти корреляцион-
ную функцию процесса (t) = 1(t)2(t).
8. Найти математическое ожидание, дисперсию и функцию корреляции
случайного процесса (t) = Xcos(t+Y), где X имеет нормальное распределение
с нулевым математическим ожиданием и единичной дисперсией, Y – слу-
чайная величина, равномерно распределенная на отрезке [0,2].

51
9. Пусть  – нормальная случайная величина с функцией распределе-
 xa
ния    . Найти двумерное распределение случайного процесса
  
(t) = +t, где t  R.
10. U и V – независимые случайные величины, распределенные по
экспоненциальному закону с параметрами 1 и 2, соответственно. Найти
математическое ожидание, дисперсию и функцию корреляции процесса
S(t) = U+Vt. Является ли этот процесс стационарным?
11. Случайный процесс S(t) = Ue–t+Ve–t, где U и V – некоррелиро-
ванные случайные величины с нулевым математическим ожидание,  и 
неслучайные величины. Найти математическое ожидание, дисперсию и
функцию корреляции процесса (t). Определить, является ли данный
процесс стационарным, по крайней мере, в широком смысле.
12. Случайный процесс S(t) = t+Ue–t+Ve–t, где U и V – некоррелиро-
ванные случайные величины с нулевым математическим ожидание и
дисперсиями D1 = D2 = 2,  и  неслучайные величины. Найти математи-
ческое ожидание, дисперсию и функцию корреляции процесса (t). Опре-
делить, является ли данный процесс стационарным, в широком смысле.
13. Случайная величина  распределена равномерно в интервале
[0,2]. Для случайного процесса (t) = t+a, где a – неслучайная величи-
на, найти математическое ожидание, дисперсию и функцию корреляции.
Является ли этот процесс стационарным?
14. Случайный процесс задан в виде (t) = Vt2, где V – непрерывная
случайная величина, распределенная по нормальному закону с парамет-
рами a и 2. Найти вероятностные характеристики процесса (t) (матема-
тическое ожидание, дисперсию и функцию корреляции). Проверить явля-
ется ли этот процесс стационарным в широком смысле?
15. Доказать строгую стационарность процесса (t) = cos(t+), где
, – неслучайные величины,  – случайная величина равномерно рас-
пределенная на отрезке [0,2].
16. Случайный процесс представляет собой (t) = V, где V– непрерыв-
ная случайная величина с плотностью pV ( x) . Найти вероятностные ха-
рактеристики процесса (t) (математическое ожидание, дисперсию и
функцию корреляции). Является ли этот процесс стационарным?
17. Поток покупателей является простейшим Пуассоновским с пара-
метром , это значит, что вероятность того, что за время  появится ровно
k покупателей определяется формулой Пуассона:

52
() k 
Pk ()  e .
k!
Процесс (t) представляет собой число покупателей пришедших от 0
до t (например, совпадает с началом рабочего дня). Найти математиче-
ское ожидание, дисперсию и функцию корреляции процесса (t). Указа-
ние. При вычислении функции корреляции воспользоваться тем, что при
s>t (s) = (t)+, где  – число событий наступивших за время от t до s.
18. Пусть  – случайная величина, имеющая нормальное распределе-
ние с математическим ожиданием m и дисперсией 2. Найти функцию
корреляции случайного процесса (t) = 2t+b, где b – вещественное чис-
ло, t > 0.
19. Имеется пуассоновский поток случайных событий с интенсивно-
стью . Случайный процесс (t) образуется следующим образом: в мо-
мент времени i-го события (i = 1,2…) процесс принимает случайное зна-
чение Vi и сохраняет его до появления следующего события в потоке.
В начальный момент времени (0) = V0. Случайные величины V0, V1,… –
независимы и одинаково распределены с плотностью pV(x). Найти основ-
ные характеристики процесса.
20. Найти корреляционную функцию случайного процесса
n
(t )  Y q (t ), где q1(t),q2(t),…,qn(t) – неслучайные функции, Y1, Y2, …,
i 1 i i

Yn – некоррелированные случайные величины математическими ожида-


ниями m1, m2, …, mn и дисперсиями d1, d2, …, dn соответственно.
21. Пусть R(t,s) – корреляционная функция некоторого случайного
процесса, Q(z) – полином с положительными коэффициентами. Доказать,
что функция R(t,s) = Q(R(t,s)) является корреляционной функцией неко-
торого случайного процесса.
22. Пусть XN(m,), b – вещественное число. Найти функцию корре-
ляции СП случайного процесса Y(t) = Xt+b, t > 0.
23. Случайный процесс X(t) имеет вид X(t) = U+Vt, где U и V – незави-
симые случайные величины, равномерно распределенные на отрезке
[0,1], t  0 . Вычислить вероятность P(A) случайного события

 1  1 3 1  1 3
A  0  X (1)      X (2)      X (1)  1    X (2)  .
 2 2 4 2  4 4
24. Пусть X и Y – независимые одинаково распределенные случайные
величины, принимающие значения –1 и +1 с вероятностями 1/2. Исследо-
вать на стационарность случайный процесс (t) = Xcost+Ysint, t  0.

53
25. Пусть X(t), t  0 – пуассоновский случайный процесс с параметром
. Доказать, что случайный процесс Y(t) = X(t+1)–X(t), t  1 является ста-
ционарным в широком смысле.
26. Является ли стационарной последовательность попарно независи-
мых одинаково распределенных случайных величин?
27. Пусть (t) – непрерывная периодическая функция с периодом T,
X – случайная величина, равномерно распределенная на отрезке [0, T].
Исследовать случайный процесс Y(t) = (t+X) на стационарность.
28. Доказать, что сумма независимых стационарных случайных про-
цессов является стационарным случайным процессом.
29. Найти функцию ковариации процесса (t) = Xcos(t+Y), где X, Y не-
зависимы, X имеет нормальное распределение N(0;1), а Y имеет равно-
мерное распределение на [–;].
30. Пусть X(t) – стационарный случайный процесс, Y – случайная ве-
личина. Является ли случайный процесс Z(t) = X(t)+Y стационарным?
31. Показать, что функция R (t )  2 e a|t| cos  t , где a, ,  – некото-
рые положительные постоянные, может быть функцией корреляции не-
прерывного в среднем квадратическом и стационарного в широком
смысле случайного процесса. Определить спектральную плотность, соот-
ветствующую такой функции корреляции.
32. Случайный процесс X(t) имеет вид X (t )  b sin ( t  ) , где b, –
известные числа,  – случайная величина с плотностью распределения
вероятностей f(x), t  0. Исследовать случайный процесс X(t) на стацио-
нарность и на эргодичность в следующих случаях:
a) f(x) = cos х при х  [0, /2];
б) f (x) = 1/2 при x  [0,2], f(x) = 0 при x  [0, 2].
33. Случайный процесс (t) задан четырьмя равновероятными реали-
зациями:
1 (t )  1 ; 2 (t )  2 ;  (t )  sin t ; 4 (t )  cos t .
3
Найти вероятностные характеристики процесса (t) (математическое
ожидание, дисперсию и функцию корреляции). Является ли этот процесс
стационарным, по крайней мере в широком смысле?

54
Литература

1. Баруча-Рид А.Т. Элементы теории марковских процессов и их при-


ложения. М. : Наука, 1969. 512 с.
2. Волков И.К., Зуев С.М., Цветкова Г.М. Случайные процессы : учеб.
для вузов. М. : Изд-во МГТУ им. Н.Э. Баумана, 1999. 448 с.
3. Гнеденко Б.В., Коваленко И.Н. Введение в теорию массового об-
служивания. 3-е изд., испр. и доп. М. : КомКнига, 2005. 400 с.
4. Гнеденко Б.В. Курс теории вероятностей. М. : Наука, 1969. 448 с.
5. Маталыцкий М.А. Элементы теории случайных процессов : учеб.
пособие. Гродно : ГрГУ, 2004. 326 с.
6. Миллер Б.М., Панков А.Р. Теория случайных процессов в примерах
и задачах. М. : ФИЗМАТЛИТ, 2002. 320 с.
7. Назаров А.А., Терпугов А.Ф. Теория вероятностей и случайных про-
цессов : учеб. пособие. Томск : Изд-во НТЛ, 2006. 204 с.
8. Назаров А.А., Терпугов А.Ф. Теория массового обслуживания : учеб.
пособие. Томск : Изд-во НТЛ, 2004.
9. Саати Т.Л. Элементы теории массового обслуживания и ее прило-
жения. М. : Сов. радио, 1971.
10. Лунгу К.Н., Письменный Д.Т., Федин С.Н., Шевченко Ю.А. Сбор-
ник задач по высшей математике. 2 курс 7-е изд. М. : Айрис-пресс, 2009.
592 с.

55
Приложение
Некоторые распределения случайных величин

1. Распределение Бернулли. Случайная величина  – число наступ-


лений некоторого события в одном испытании.
P    1  p, P    0   q , M   p, D  pq , характеристическая функ-

ция g (u )  q  peiu .
2. Биномиальное распределение. Случайная величина  – число
наступлений некоторого события в n независимых испытаниях.
P    m   Cnm p m q n  m ; m  0,1,.., n , р – вероятность успеха в одном
испытании, q – вероятность неудачи. M   np, D  npq , характеристи-

 
n
ческая функция g (u )  q  peiu .
3. Геометрическое распределение. В схеме Бернулли  – число ис-
пытаний до первого наступления события.
m 1 1 q
P    m   pq ; m  1, 2,..; q  1  p , M   , D  ; характери-
p p2
peiu
стическая функция g (u )  .
1  qeiu
4. Распределение Пуассона. Случайная величина  – число событий,
наступивших в пуассоновском потоке,
 m e
P   m  ; m  0,1, 2,..; M   D   , характеристическая
m!

функция g (u )  e
 
 eiu 1
.
5. Равномерное распределение на конечном множестве. Случайная
величина  – принимает любое из значений некоторого интервала с оди-
наковыми вероятностями:
1
 , ak b ab n2  1
P   k   n ; M  ; D  ;
0, 2 12
, else

56
eiau  ei (b 1)u
характеристическая функция g (u )  .
n(1  eiu )
6. Экспоненциальное распределение. Плотность вероятности случай-
ной величины с таким распределением:
ex , x  0 1 1
p ( x)   ;   0, M   , D  ; характеристическая
 0, , x  0  2

функция g (u )  .
  iu

7. Непрерывное равномерное распределение. Распределение с плот-


ностью вероятностей:
 1

p ( x)   b  a
a xb
; M 
ab
, D 
 b  a 2 ,
0, 2 12
, else

характеристическая функция g (u ) 
eibu  eiau .

iu (b  a)

8. Распределение Коши. Распределение с плотностью вероятностей:


1 
p ( x)   ; , a  0, x   ,   .
  2  ( x  a )2
Данное распределение не имеет конечных математического ожидания
и дисперсии, характеристическая функция
iau  u
g (u )  e .

9. Нормальное распределение. Распределение с плотностью вероят-


ностей:


 x  2
1 22 ,  и  параметры распределения,
p ( x)  e
 2
x   ,   , M   , D  2 ,
 2u 2
iau 
характеристическая функция g (u )  e 2 .

57
10. Распределение Лапласа. Распределение с плотностью вероятно-
1 x
стей: p ( x)   e , M   0, D  2, характеристическая функция
2
1
g (u )  .
1  u2

11. Гамма распределение. Распределение интервала времени, необ-


ходимого для появления k событий в пуассоновском потоке интенсивно-
сти λ, имеет плотность вероятностей:
   1 x
 x e , x0 p p
p ( x)   Г () ; ,   0; M   , D  ,
  2
0, , x0
p
 iu 
характеристическая функция g (u )  1   .
 

58
Корректор – А.В. Воробьева
Оригинал-макет А.И. Лелоюр

Отпечатано на участке цифровой печати


Издательского Дома Томского государственного университета

Заказ № 414 от «9» июня 2014 г. Тираж 100 экз.

59

Вам также может понравиться