Открыть Электронные книги
Категории
Открыть Аудиокниги
Категории
Открыть Журналы
Категории
Открыть Документы
Категории
РОССИЙСКОЙ ФЕДЕРАЦИИ
ТОМСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
Кафедра теории вероятностей и математической статистики
Томск
Издательский Дом Томского государственного университета
2015
Теория случайных процессов
УДК 519.22
ББК 22.172
Г15
УДК 519.22
ББК 22.172
Содержание
3
Теория случайных процессов
Так как случайный процесс может иметь бесконечное множество сечений, а в каждом из се-
чений мы получаем случайную величину, то случайный процесс можно рассматривать как
4
1. Определение и описание случайных процессов
тие случайного процесса является обобщением такого понятия как система случайных вели-
чин, в том случае если этих величин бесконечное множество.
Например:
Итак, случайный процесс можно рассматривать как совокупность его возможных реализаций
или как пучок траекторий.
5
Теория случайных процессов
Определение 1. Функцию (, t ) называют случайным процессом, если при t T она яв-
ляется измеримой функцией аргумента , то есть случайной величиной ( , t ) ( ) .
Зафиксируем некоторое элементарное событие 1 . Это означает, что опыт, в ходе которого
6
1. Определение и описание случайных процессов
7
Теория случайных процессов
Примеры:
1.а. Будем считать системой какого-либо человека, данная система может находиться в двух
состояниях: здоров, болен. Состояние системы можно фиксировать так: в 8.00 утра и в 20.00
вечера. Т.е. смена состояний системы может происходить в дискретные моменты времени
t1 , t 2 ,...
1.б. Процесс изменения роста человека, который может менять свои состояния в моменты
времени t1 , t 2 ,..., t n , ... определяемые, например, днем рождения человека.
Примеры:
2.б. Случайный процесс: число несданных предметов студентом задолжником, в течение го-
да сдающего сессию и закрывающего долги. Состояние системы может измениться в любой
произвольный момент времени t T , где T – время обучения в университете.
Примеры:
8
1. Определение и описание случайных процессов
Примеры:
9
Теория случайных процессов
Пример 1.1. Пусть случайный процесс задается формулой (t ) U arcsin (t ) , где U – слу-
чайная величина. Найти сечения, соответствующие фиксированным значениям аргумента
1
t : а) t 1 ; б) t .
2
10
1. Определение и описание случайных процессов
ui 1 2
pi 12 12
Тогда обозначим V (,1) U arcsin 1 U – это случайная величина, функционально
2
связанная с U и имеющая следующий закон распределения:
vi 2
pi 12 12
1
,4x6
pU ( x ) 2 ;
0, else
тогда т.к. V U – случайная величина, связанная функциональной зависимостью сU ,
2
y
x x , данная функция монотонна в интервале 4,6 , поэтому обратная функция,
2
2
находится однозначно: x y y , тогда плотность случайной величины V можем
' 2
найти по известной формуле: pV ( y) pU (( y)) ( y ) , т.к. ' y , можем записать:
11
Теория случайных процессов
2 2 1
pV ( y )
pU ( y ) , где y 2,3 . Таким образом, V – непрерывная, равномерно
распределенная случайная величина, для которой можем записать окончательно:
1
, 2 y 3
pV ( y ) .
0, else
2
Пример 1.2. Случайный процесс задается формулой (, t ) t 2t 1 , где t 0 и –
а) при 1 получаем такую реализацию: (1, t ) t 2t 1 ;
2
б) при 2 такую: (2, t ) 2 t 2 4 t 2 .
Очевидно, что все возможные реализации представляют собой параболы, ветви которых
направлены вверх и ось симметрии параллельна оси O (t ) . Параметр у каждой из парабол
разный, поэтому они все будут различаться между собой размерами, точнее размахом ветвей.
Решение:
1, 0 x 1
pU (x) .
0, else
12
1. Определение и описание случайных процессов
y 5,6 .
pV ( y )
1
p (
2 U 2
y 5 1
) , где y 5,7 .
2
1
Зафиксируем значении параметра t t 3 , получаем в сечении случайную величину
2
1 U U
( , ) 5 , найдем закон распределения полученной случайной величины V 5.
2 2 2
x
Пары точек U ,V лежат на прямой y 5 x , функция также строго монотонна в
2
интервале 0,1 , обратная функция: x 2 y 10 y , тогда плотность случайной величины
'
V : pV ( y) pU (( y)) ( y ) , т.к. y 2 , можем записать: pV ( y ) 2 pU (2 y 10) 2 ,
'
1
где y 5,5 .
2
Таким образом, путем нехитрых рассуждений приходим к выводу, что любая случайная ве-
личина, получающаяся в сечении процесса, при фиксации t 0,2 , будет иметь равномерное
1
, y 5,5 t
отрезок 0,1 в отрезок 5,5 t и pV ( y ) t .
0, y 5,5 t
13
Теория случайных процессов
рая получается при фиксированном значении случайной величины, в нашем случае U . Реа-
лизациями рассматриваемого процесса ( , t ) U t 5, t 0,2 будут прямые (уравнение
прямой с угловым коэффициентом выглядит так: y kx b , где k – угловой коэффициент,
b – отрезок, отсекаемый прямой от оси Oy ). Все реализации выходят из точки, с координа-
тами 0,5 , и имеют случайный угловой коэффициент, равный U ( ) . Сверху все реализа-
ции будут ограничены прямой (1, t ) t 5 , снизу прямой, параллельной оси Ot : (0, t ) 5 .
ные значения.
14
1. Определение и описание случайных процессов
15
Теория случайных процессов
Двумерная функция распределения дает более полное представление о процессе, чем одно-
мерная, но существо процесса все же не исчерпывает. Увеличивая число сечений, и рассмат-
ривая совместное распределение получающихся в сечениях случайных величин, мы все точ-
нее и точнее будем характеризовать процесс.
16
2. Законы распределения случайных процессов
Будем считать, что случайный процесс (, t ) задан, если задано семейство функций распре-
делений (1.1) для n .
17
Теория случайных процессов
F ( x1 , t1 , , xn , t n ) F ( x1 , t1 , , xn , t n , , t n1 , , , t n p ) , (1.2)
p ( y , t ,..., y , t ) dy ...dy
1 1 n n 1 n 1,
са (, t ) .
n F ( x1 ,...xn , t1 ,..., tn )
p ( x1 ,...xn , t1 ,..., tn )
x1x2 ....xn
p ( x1 , t1 ,..., xn , tn ) p ( y1 , t1 ,..., yn , tn , yn1 , tn1 ,..., yn p , tn p ) dyn1...dyn p ,
18
2. Законы распределения случайных процессов
P y Y y y
pY ( y ) ( y ) , где ( y) – бесконечно малая функция, или
y
P y Y y y p ( y ) y .
19
Теория случайных процессов
значения y2 в момент времени t2 , и т.д. в «малые ворота» yn около значения yn в момент
P y1 (t1 ) y1 y1 ,...., yn (tn ) yn yn p ( y1 , t1 ,..., yn , tn ) y1 y2 .... yn
n n
g (u1 , t1 ,..., un , tn ) M exp i (tk )uk exp i xk uk p ( x1 , t1 ,..., xn , tn ) dx1...dxn .
k 1 k 1
При решении многих задач приходится иметь дело с несколькими случайными процессами.
Так, например, при изучении погоды приходится совместно рассматривать такие случайные
процессы: изменение температуры воздуха, изменение влажности, изменение давления и т.д.
20
2. Законы распределения случайных процессов
Решение.
1. Нам дан случайный процесс , t t , который определен на вероятностном про-
21
Теория случайных процессов
Подставим в выражение для функции распределения вместо ( ti ) xi , i 1, n заданное нам
x x x
F ( x1 , x2 ,... xn ; t1 , t2 ,...., t n ) P t1 x1 ,....,tn xn P 1 ,...., n P i ,i 1, n .
t1 tn ti
xi
ti
– это событие, которое заключается в том, что меньше
xi
ti
, для всех i 1, n , это
F ( x1 , x2 ,... xn ; t1 , t2 ,...., t n ) P min
i 1,n
xi
ti
.
В каждом из сечений ti 0,1 мы имеем дискретную случайную величину, имеющую два
1
значения 1 t i и 2 ti , которые принимаются с равными вероятностями .
2
F ( x1 , x2 ,...xn ; t1 , t 2 ,...., t n ) P min
i 1,n
xi
ti
k :k min
xi
pk , т.к. значения k , k 1, 2 , у нас раз-
i 1, n ti
1
ные, но соответствующие им вероятности обе равны , то окончательно:
2
F ( x1 , x2 ,... xn ; t1 , t2 ,...., tn ) P min
i 1, n
xi
ti
k :k min
xi
pk
k :k min
xi
1
2
.
i 1,n ti i 1,n ti
22
2. Законы распределения случайных процессов
x1
0, 1
t1
1 1 x
F ( x1 , t1 ) , 1 1 2 ;
x 2 2 t1
k:k 1 x
t1
1, 1 2
t1
x x
0, min 1 , 2 1
t1 t2
1 1
x x
F ( x1 , t1 , x2 , t 2 ) , 1 min 1 , 2 2.
xi 2 2 t1 t2
k :k min
i 1,2 ti
1, min x1 , x2 2
t1 t2
x x x
0, min 1 , 2 ,... n 1
t1 t2 tn
1 1
x x x
F ( x1 , x2 ,...xn ; t1 , t2 ,...., t n ) , 1 min 1 , 2 ,... n 2.
xi 2 2 t1 t2 tn
k:k min
i 1, n ti
1, min x1 , x2 ,... xn 2
t1 t2 tn
1 2
, F , P , где 0,1 , P 1 и P 2 . Пусть t 0,1 и , t 1 при t ,
3 3
, t 0 при t . Найти реализации случайного процесса ,t и его семейство конеч-
номерных распределений.
23
Теория случайных процессов
Решение:
1. Аналогично как и в предыдущей задаче имеем две реализации, в случае если 1 0 , то
любое значение параметра t 0,1 будет больше 1 и в этом случае получаем реализацию
меньше и в этом случае получаем реализацию 1, t 1 . Таким образом ансамбль реали-
записать:
F ( x1 , x2 ,... xn ; t1 , t2 ,...., t n ) P (t1 ) x1 ,...., (tn ) xn P x1 ,...., xn P xi , i 1, n
.
P min xi , i 1, n
24
2. Законы распределения случайных процессов
0, x 0
1
F ( x, t ) pk , 0 x 1.
k:k x 3
1, x 1
0, min x1 , x2 0
1
F ( x1 , t1 , x2 , t 2 ) pk , 0 min x1 , x2 1.
3
k:k min
xi 1, min x1 , x2 1
i 1,2
Решение:
1. В силу того, что множества возможных значений и t лежат в интервале 0,1 , то воз-
можные реализации процесса могут иметь следующий вид: реализации представляют собой
ступеньки разной длины, но одинаковой высоты равной 1, подошва (под ней понимается
собственно 2 нижняя ступенька) находится на оси Ot и тоже имеет разную длину. Напри-
1 1 1
мер, при , длина верхней ступеньки равна , но и длина подошвы равна . При
2 2 2
1 1 2
, длина верхней ступеньки равна , длина подошвы равна .
3 3 3
25
Теория случайных процессов
Можно легко представить ансамбль реализаций случайного процесса. При любом фиксиро-
ванном t в сечении мы получаем дискретную случайную величину, значения которой 0 и 1.
писать:
F ( x1 , x2 ,... xn ; t1 , t 2 ,...., tn ) P (t1 ) x1 ,...., (tn ) xn ,
Лебега, то вероятность попадания любой точки в какой либо интервал находим, используя
геометрическое определение вероятности, то есть:
mes 0, t1 t1 0
P 0, t1 t1 .
mes 1
Нам нужно выражение для одномерной функция распределения. При ее построении рассуж-
даем так: F ( x, t1 ) P ((t1 ) x ) , а это вероятность того, что любая из реализаций i (t ) слу-
чайного процесса, пересечет сечение t ниже уровня x . Положим x 0 , очевидно, что при
таком x событие (t1 ) x является невозможным и P ((t1 ) x ) 0 . При x 1, событие
26
2. Законы распределения случайных процессов
x . Пересечь сечение t1 , строго ниже уровня 0 x 1 , может только эта часть ансамбля реа-
чанию, эта вероятность равна P 0, t1 t1 , таким образом собираем все вместе и окон-
чательно записываем:
0, x0
F ( x , t1 ) P ( (t1 ) x ) t1 , 0 x 1
1, x 1
При построении функции рассуждаем так. Пусть x1 0, x2 0 , нам нужно найти вероятность
равна min t1 , t2 .
Если x1 1, 0 x2 1 , тогда нам нужно найти вероятность того, что и случайная величина
меньше такого x1 , равна 1, т.к. это достоверное событие, тогда нам остается найти вероят-
равно событию (t 2 ) x2 . Чему равна вероятность этого события? Рассуждаем так: при
равна вероятности попадания в интервал 0,t2 , мера Лебега которого равна t 2 . Аналогично
27
Теория случайных процессов
min x1 , x2 1 наша функция распределения принимает значение равное 1. Так как событие
0, min x , x 0
1 2
t1 , 0 x1 1, x2 1
F ( x1 , t1 , x2 , t 2 ) P ((t1 ) x1 , (t 2 ) x2 ) t2 , 0 x2 1, x1 1 .
min t1 ,t2 , 0 x1 , x2 1
1, min x , x 1
1 2
На самом деле идея построения уже ясна, но можем продолжить и построим трехмерную
функцию распределения.
X
1 2 3
Y
–1 14 18 18
1 18 14 18
Найти реализации случайного процесса t и вероятность того, что они при t 0 возрас-
тают.
28
2. Законы распределения случайных процессов
Решение:
1. Перепишем случайный процесс в виде t X t Y t t 2 t Y X . Очевидно, что
каждая из реализаций пересекает ось t , либо в точке 0,1 , либо в точке 0, 2 , либо в
0,3 .
2 2 2
Y Y Y Y Y2
t t t Y X t 2 t X t X .
2 2
2 2 2 2 4
2
Y2 Y
Тогда можем записать: t X t .
4 2
Или иначе:
1 Y 2
2
Y
t 2 t X
2 2 4
x x0 2 p y y0
2
Y Y2
выражения видно, что у нас координаты вершины параболы O x0 , y0 O , X и
2 4
1 1
параметр p 0 . Так как p 0 , то заключаем, что ветви параболы направлены вверх.
2 2
Таким образом делаем первый вывод, что ансамбль реализаций представляет собой семей-
ство парабол, ось симметрии каждой из которых параллельна оси O t , координата верши-
Y Y2 p Y2 1
ны случайна: O , X . Уравнение семейства директрис: t y0 X ,
2 4 2 4 4
p 1 Y Y2 1
сов: F x0 , y0 F x0 , y0 F , X . Форма параболы, определяется
2 4 2 4 4
29
Теория случайных процессов
1 3 1 3 1 3 1 3 1 3 1 3
O1 , ; O2 , ; O3 ,1 ; O4 ,1 ; O5 , 2 ; O6 , 2 .
2 4 2 4 2 4 2 4 2 4 2 4
t a , b , f ' t 0 ). То есть для нашей случайной функции можем записать: ' t 0 или
условие ' t 0 должно выполняться для всех t из указанного интервала, но при Y 0 оно
30
2. Законы распределения случайных процессов
Yi –1 1
pi 12 12
1
Можем окончательно записать: P Y 0 P Y 1 .
2
Замечание 8: Так как понятие дифференцируемости для случайных функций определяется
особым образом. Далее в разделе, где будут рассматриваться вопросы сходимости, непре-
рывности, дифференцируемости и интегрируемости случайных процессов будет показано,
t t 2 t Y X в среднем квадратическом.
Решение:
ной, то можно подобрать такое значение параметра t при котором ' t 2 t Y 0 . Други-
31
Теория случайных процессов
дачи известно, что Y имеет симметричное относительно нуля распределение (например, та-
ковым является стандартное нормальное распределение с параметрами a 0, 1 )
1
писать: P Y 0 P Y 0 P Y 0 .
2
неравенство: f x1 то функция
f x2 y f x называется возрастающей функцией на
данном промежутке.
32
2. Законы распределения случайных процессов
t1 2 2
2
t2 t1 t1 Y X t 2 t 2 Y X t1 t1 Y X t2 t 2 Y X 0
2
2 2
t1 t1 Y t2 t2 Y 0 t
2
1
t 2 Y t1 t2 0
2
t 1 t t t Y t t 0 t
2 1 2 1 2 1 t2 Y t1 t2 0
Рассмотрим событие Y t1 t2 0 Y t1 t2 , это должно выполняться для любых
пар точек t1 t 2 0. Т.е. если мы объединим по всем таким t1 t 2 0, то получим событие
i t X i t Yi t значение Y неотрицательно.
Пример 2.6. Поток покупателей является простейшим потоком с параметром . Для дан-
ного потока вероятность того, что за время появится ровно k покупателей, определя-
k
33
Теория случайных процессов
Любое из сечений такого процесса дискретная случайная величина, множество значений ко-
торой 0,1, 2, 3,.., n . У нас дан пуассоновский процесс, у которого в любой момент времени
случайного процесса t , пересечет сечение t1 , ниже уровня x . Т.е. нам нужно найти веро-
x t i
F ( x, t1 ) P((t1 ) x) Pi P(t1 ) i P(t1 ) 0 P (t1 ) 1 ... et
i x , i x i 0 i !
34
2. Законы распределения случайных процессов
событие заключается в том, что функция , t имеет на интервале 0,1 по крайней мере
X
Так как X t 0 , когда t X , или t . Поскольку 0 t 1 , следовательно должно
X
выполняться 0 1 , или 0 X , что очевидно выполняется только в случае, если
случайная величина X : и X 0 , и X . Т.е. вероятность нашего события равна вероят-
ности попадания случайной величины X в интервал , 0 . Теперь можем найти искомую
0
P A P X 0 dFX ( x) .
ния процесса t .
Решение:
1. Найдем одномерную функцию распределения случайного процесса и его одномерную
плотность. Согласно определению F ( x, t ) P((t ) x) P(V x) FV ( x ) , т.е. функция
dFV ( x )
случайной величины V : pV x будут совпадать. По определению плотности pV ( x) ,
dx
x dFV ( x)
где FV ( x) pV ( y ) dy , т.к. F ( x , t ) FV ( x ) , то и p x, t pV x .
dx
35
Теория случайных процессов
F (min ( x1 , x2 )) 0, x1 x2
Т.е. можем переписать: pV ( x1 ) ( x2 x1 );
x1 pV ( x1 ), x1 x2
, x2 x1
( x2 x1 ) ;
0, x2 x1
2 F ( x1 , x2 ,t1 ,t2 )
p ( x1 , x2 , t1 , t2 ) pV ( x1 ) ( x2 x1 );
x1x2
36
2. Законы распределения случайных процессов
На самом деле очевидно, что это формальное выражение для двумерной плотности. Двумер-
ной плотности в обычном ее смысле конечно же не существует.
x1 x2 , тогда x1 x1 x2 в силу малости x1 . Поэтому продолжаем оценивать предел по-
ложив: x1 x2 x .
n
Введем обозначение, пусть u k (tk ) , тогда в силу того, что (tk ) (tk ) V , можем запи-
k 1
n n n
сать uk (t k ) u k (t k ) V , выносим V за знак суммы: V u k (t k ) , – гаус-
k 1 k 1 k 1
37
Теория случайных процессов
n
n k
M M V u k (t k ) M V M uk (t k ) a u k (t k ) m
k 1 k 1 k 1
2
n
n
D D V uk (tk ) т.к. D V t DV 2 t 2 uk (tk ) D .
k 1 k 1
D
g (u) M e iu expium u 2
2
,
n
1
g (u1 , t1 ,, u n , t n ) M exp i (t k )u k M e i g (1) expim D .
2
k 1
1. Случайный процесс (t ) формируется так: на оси Ot имеется простейший поток собы-
тий с интенсивностью . Случайный процесс попеременно принимает значения +1 и –
1, при наступлении очередного события в простейшем потоке случайный процесс скач-
ком меняет свое состояние с +1 на –1 или наоборот. Записать одномерный закон рас-
пределения этого процесса в виде функции распределения.
38
2. Законы распределения случайных процессов
F V
y . Определить вид реализаций данного процесса t и его одномерную и n -
мерную функции распределения.
V R 0,1 .
событий:
a) A траектория процесса монотонно не убывает
1 ;
b) A min t 0 .
2
t 0
39
Теория случайных процессов
a) A t монотонно не убывает
1 ;
b) A t неотрицателен
2 ;
c) A t 0 хотя бы для одного t D , где D 0, – некоторое конечное или
3
счетное подмножество.
40
3. Основные характеристики случайных процессов
m X (t ) M X (t ) xdF ( x, t ).
41
Теория случайных процессов
M (t ) (t ) .
M X1 (t ) X 2 (t ) M X1 (t ) M X 2 (t ) ;
ны при каждом t , :
M X 1 (t ) X 2 (t ) M X1 (t ) M X 2 (t ).
M X (t ) (t ) M X (t ) (t ).
Пример 3.1. Найти математическое ожидание случайного процесса (t ) U cos t , где U –
случайная величина, математическое ожидание которой MU 2 .
42
3. Основные характеристики случайных процессов
D (t ) 0 .
2. Дисперсия суммы случайной функции X (t ) и неслучайной функции (t ) равна дисперсии
случайной функции:
D X (t ) t DX (t ) .
D (t ) X (t ) (t ) DX (t ) .
2
D X1 (t ) X 2 (t ) D X 1 (t ) D X 2 (t ) .
Пример 3.2. Найти дисперсию случайного процесса (t ) U sin(t ) , где U – случайная вели-
чина, дисперсия которой D (U ) 6 .
можно вынести за знак дисперсии: D (t ) D U sin t sin t D U 6sin t .
2 2
43
Теория случайных процессов
U V
Пример 3.3. Пусть случайный процесс, определяется соотношением (t ) , где U и
t
1
V независимые случайные величины, имеющие гауссовское распределение N 0, .
2
Найти математическое ожидание и дисперсию случайного процесса ( t ) и вероятность
3
P (t ) для произвольного t 0 .
t
U V 1 1
M (t ) M M U M V 0 ,
t t t
U V 1 1 1
D (t ) D 2 D U 2 D V 2 .
t t t t
U V
F ( x, t ) P (t ) x P x P U V xt ( xt ) ,
t
где ( z ) – функция Лапласа:
z
1
(z) exp u du.
2
2
3 3 3
P (t ) F ( , t ) F ( , t ) (3) ( 3) 0.997 .
t t t
44
3. Основные характеристики случайных процессов
нулю: M 2 (t ) M (t ) m (t ) 0 .
Реализации центрированного случайного процесса (t ) представляют собой отклонения
случайного процесса (t ) от его математического ожидания. Значения отклонений могут
иметь как положительные, так и отрицательные значения, а в среднем равны нулю. Как ука-
зывалось выше, дисперсия представляет собой неслучайную функцию, характеризующую
степень разброса реализации случайного процесса около его математического ожидания, т.е.
степень разброса реализаций центрированного случайного процесса ( t ) .
45
Теория случайных процессов
Внутренняя структура процессов совершенно различна. Первый процесс Х(t) имеет более
«нервный» характер, Y (t ) – изменяется более «плавно». Но это не отражает ни математиче-
ское ожидание, ни дисперсия. Для описания динамики изменения случайных процессов вво-
дится специальная характеристика – корреляционная функция. Она характеризует степень
сходства между сечениями процесса X ( t1 ) и X (t 2 ). Эта функция описывает процесс в целом.
реляции.
Очевидно, что для процесса Y (t ) , изображенного на рисунке (б) выше, зависимость между
сечениями будет более тесной, чем для X (t ) . У процесса X (t ) эта зависимость затухает
очень быстро по мере увеличения расстояния между сечениями. Для Y (t ) характерна боль-
шая предсказуемость реализаций. Можно с большой вероятностью утверждать, что если реа-
лизация процесса Y (t ) была в какой-то момент времени t выше его математического ожи-
46
3. Основные характеристики случайных процессов
удалении сечений друг от друга (эта зависимость быстро уменьшается по мере увеличения
разности t1 t2 ). Очевидно, что корреляционные функции случайных процессов Y (t ) и X (t )
1. Функция корреляции является симметрической функцией своих аргументов, т.е. при пере-
становке аргументов корреляционная функция не изменяется: R (t1 , t2 ) R (t2 , t1 ) .
Для стационарных процессов функция корреляции – чётная функция
R ( ) R (t2 t1 ) R (t1 t2 ) R ( ) .
47
Теория случайных процессов
В этом случае среднее значение процесса можно выразить через его функцию корреля-
ции: m R() .
Для двух случайных процессов (t) и (t) вводится понятие взаимной функции корреляции
или функции кросс-корреляции:
48
3. Основные характеристики случайных процессов
Пример 3.4. Найти функцию корреляции случайного процесса (t ) U sin(t ) , где U – слу-
чайная величина, числовые характеристики которой: MU 0; DU 1 .
Использовали: DU MU 2 M 2U MU 2 , т.к. MU 0.
Пример 3.5. Пусть случайный процесс (t ) (t ) V , t T , где V некоторая случайная
величина, с математическим ожиданием MV mV и дисперсией DV , а (t ) – неслучайная
цесса R (t1 , t2 ) .
R (t1 , t2 ) M (t1 ) (t2 ) M V (t1 ) V (t2 ) (t1 ) (t2 ) M V 2 (t1 ) (t2 ) DV mV2
2 2 2 2
т.к. DV MV M V , MV DV M V .
49
Теория случайных процессов
функции (t ) (t ) m (t ) в моменты времени t1 и t2 . В терминах теории вероятностей ко-
(t ) m (t ) (t ) m (t )
K (t1 , t2 ) M (t1 ) (t2 ) M
1 1 2 2
.
x m x
1 1 2
m2 dF ( x1 , t1 , x2 , t2 )
K (t1 , t 2 ) R (t1 , t 2 ) m ( t1 ) m (t 2 )
процесса:
K ( t , t ) D ( t ) ( t ) .
2
Из этого следует, что для случайных процессов и функций основными характеристиками яв-
ляются функции математического ожидания и корреляции (ковариации), особой необходи-
мости в отдельной функции дисперсии нет.
50
3. Основные характеристики случайных процессов
51
Теория случайных процессов
Определение 7. Величину
K (t1 , t2 ) K (t1 , t2 )
r (t1 , t2 )
(t ) (t )
1 2 K (t1 , t1 ) K (t2 , t2 )
В общем случае коэффициент корреляции является мерой линейной зависимости двух сече-
ний (t1 ) и (t 2 ) случайного процесса, то есть он показывает, с какой точностью одна из
случайных величин (t1 ), может быть линейно выражена через другую (t 2 ) .
t 1 t2 t равно единице: r (t , t ) 1
называется неслучайная функция K (t1 , t2 ) M (t1 ) (t2 ) .
K (t1 , t2 ) 0
52
3. Основные характеристики случайных процессов
2. K X ,Y (t 1 , t2 ) K Y , X (t 1 , t 2 )
3. K X , Y (t 1 , t2 ) K X ,Y (t 1 , t2 )
5. K X ,Y (t 1 , t2 ) X t1 Y t2
K X ,Y (t1 , t2 )
rX ,Y (t1 , t2 )
X (t ) Y (t )
1 2
Пример 3.6. Найти функцию ковариации случайного процесса ( t ) U sin(t ) , где U – слу-
чайная величина, числовые характеристики которой: MU 0; DU 1 .
1 1 2 2
Тогда: K (t1 , t2 ) M (t1 ) m (t1 ) (t2 ) m (t2 ) M (t1 ) (t2 ) R (t1 , t2 ) .
53
Теория случайных процессов
Использовали DU MU 2 M 2U MU 2 , т.к. MU 0.
K (t1 , t2 ) M (t1 ) m (t1 ) (t2 ) m (t2 ) R (t1 , t2 ) m (t1 )m (t2 )
тогда у нас:
D (t ) K (t , t ) DV 2 (t ) .
54
3. Основные характеристики случайных процессов
Найдем центрированную функцию: (t ) (t ) m (t ) U t 4t (U 4) t ;
Откуда (t1 ) U 4 t1 , (t2 ) U 4 t2 ;
2
Теперь можем найти дисперсию, для чего положим t1 t2 t : K (t , t ) D (t ) 10t ;
Пример 3.9. Найти нормированную функцию ковариации случайного процесса ( t ) по его из-
вестной функции ковариации случайного процесса K (t1 , t 2 ) 5 cos (t 2 t1 ) .
K (t1 , t2 ) K (t1 , t2 )
r (t1 , t2 )
(t1 ) (t 2 ) K (t1 , t1 ) K (t 2 , t 2 )
5cos (t 2 t1 )
cos (t 2 t1 )
5 cos (t1 t1 ) 5cos (t 2 t2 )
n
Пример 3.10. Пусть случайный процесс (t ) Yi i (t ), t T , где Yi – некоррелированные
i 1
n n n
m (t ) M (t ) M Yi i (t ) M Yi i (t ) mi i (t ) ,
i 1 i 1 i 1
n n
n n
R (t1 , t2 ) M (t1 ) (t2 ) M Yi i (t1 ) Yi i (t2 ) M Yi Yi i (t1 )i (t2 )
i 1 i 1 i 1 i 1
n n n n n
M Yi Y j i (t1 ) i (t 2 ) M Yi M Yi i (t1 ) i (t 2 ) M Yi 2 i (t1 ) i (t 2 )
i 1 i 1 i 1 i 1 i 1
i j
55
Теория случайных процессов
n n n
mi m j i (t1 ) i (t 2 ) Di mi 2 i (t1 ) i (t 2 ) ,
i 1 i 1 i 1
n n n
K (t1 , t2 ) R (t1 , t2 ) m (t1 ) m (t2 ) mi m j i (t1 ) i (t2 ) Di mi 2 i (t1 ) i (t2 )
i 1 j 1 i 1
n n n n
mi i (t1 ) mi i (t2 ) Di i (t2 ) j (t2 ) ,
i 1 i 1 i 1 j 1
n
D (t ) K (t , t ) Di i 2 (t 2 ) .
i 1
i –1 0 1
pi 0,25 0,5 0,25
xi 1 2 3 4
pi 0,5 0,1 0,2 0,2
56
3. Основные характеристики случайных процессов
4 t2 t1 2
ции K (t1 , t 2 ) t1 t2 , K (t1 , t2 ) e некоррелированных случайных процессов
процесса t t t .
случайные величины, mU 1, mV 8, DU DV 4 .
7. Заданы случайные функции (t ) U cos t V sin t , (t ) U cos 3t V sin 3t , где U , V - не-
коррелированные случайные величины, mU 0, mV 0, DU DV 5 . Найти нормирован-
ную взаимную ковариационную функцию.
10. Даны центрированные случайные процессы (t ), (t ). Для которых известно:
K (t1 , t2 ) 4sin t1 sin t2 ; K (t1 , t2 ) 81sin t1 sin t2 ; K (t1 , t2 ) 18sin t1 sin t2 . Найти матема-
(t ) e
2 t t
(t ) sin 4t e (t ).
57
Теория случайных процессов
Стационарные процессы проще для изучения, поскольку описываются более простыми ма-
тематическими зависимостями. Понятие стационарности случайного процесса отражает
идею неизменности (стационарности) условий, в которых он протекает.
58
4. Стационарные случайные процессы
F ( x1 , t1 ,....., xn , t n ) F ( x1 , t1 ,..., xn , t n ) ,
p ( x1 , t1 , , xn , t n ) p ( x1 , t1 , , xn , t n ), , n 1, 2, .
p ( x, t ) p ( x, t ) .
Полагая t , получим:
p( x, t ) p ( x) ,
m ( t ) m const ,
D (t ) 2 const .
p( x1 , t1 , x2 , t2 ) p( x1 , t1 , x2 , t2 ) ,
59
Теория случайных процессов
R (t1 , t 2 )
x1 x2 p ( x1 , t1 , x2 , t 2 ) dx1dx2 xx
1 2 p ( x1 , x2 , t 2 t1 ) dx1dx2 R (t 2 t1 ) .
2) D t const ;
5) D (t ) K t , t K t t K 0 .
Пример 4.1. Пусть дан случайный процесс (t ) 1 sin t 2 cos t , где const 1 , 2
независимые случайные величины, с законом распределения:
i 1 1
pi 12 12
Решение:
1. Найдем математическое ожидание и дисперсию i , i 1, 2 : M i 0,
2 2 1 1
D i M M 1.
2 2
2. Найдем математическое ожидание и ковариационную функцию процесса ( t ) :
60
4. Стационарные случайные процессы
K (t1 , t2 ) R (t1 , t 2 ) M ((t1 ), (t2 )) M 1 sin t1 2 cos t1 1 sin t2 2 cos t2
cos t1 t 2 cos
Т.е. процесс является стационарным в широком смысле.
1 1 2 1 1 2 ; 2 1 2 1 1 0; 3 1 2 1 1 2;
с вероятностями:
1 1 1 1 1 1
P 1 2 P 1 1, 2 1 ; P 1 2 P 1 1, 2 1 ;
2 2 4 2 2 4
1 1 1
P 1 0 P 1 1, 2 1 P 1 1, 2 1 ;
4 4 2
Очевидно, что при сдвиге закон распределения изменился, поэтому процесс не является ста-
ционарным в узком смысле.
K K ;
2. Абсолютное значение ковариационной функции стационарного случайного процесса не
K ()
r ( )
K (0)
61
Теория случайных процессов
K ( ) K (0)
r () 1
K (0) K (0)
K (t1 , t 2 ) K (t 2 t1 ) K ( ) .
Пример 4.2: Пусть задан случайный процесс ( t ) cos( t ) , где – случайная величина,
Решение:
1. Найдем математическое ожидание процесса:
m M cos(t ) M cos t cos sin t sin M cos t cos M sin t sin
cos t M cos sin t M sin ;
Найдем M cos и M sin , т.к. R 0,2 , то функция плотности для равномерно рас-
1
пределенной случайной величины: p ( x ) , где x 0,2 , тогда
2
62
4. Стационарные случайные процессы
2 2
1 1
M cos cos d 0 и M sin 2 sin d 0
0
2 0
M ((t1 ) m (t1 ))((t2 ) m (t2 )) M cos(t1 )cos(t2 ) .
Окончательно имеем:
1
Пример 4.3: Задана ковариационная функция K ( ) cos стационарного случайного про-
2
цесса ( t ) . Найти нормированную ковариационную функцию.
63
Теория случайных процессов
1
cos
K ( )
r ( ) 2 cos .
K (0) 1 cos0
2
(t ) sin (t ), где – случайная величина, R 0,2 . Доказать, что ( t ) и ( t ) – ста-
ционарно связаны.
Решение:
1. В примере 4.1. было показано, что математическое ожидание случайного процесса (t ) :
sin t2 t1 sin t2 t1 2
K (t1 , t2 ) M ( t1 ) ( t2 ) M cos t1 sin t2 M
2
Найдем значение:
M
sin t2 t1 2
2
M
sin(t2 t1 )cos 2 cos(t2 t1 )sin 2
2
sin(t2 t1 ) cos(t2 t1 )
M cos 2 M sin 2;
2 2
2
1 1 2
M cos 2 cos 2 d 2 cos 2 d 2 0;
0
4 4 0
2
1 1 2
M sin 2 sin 2 d 2 sin 2 d 2 0.
0
4 4 0
sin t2 t1 2
Окончательно получаем, что: M 0;
2
Поэтому из выражения ковариационной функции:
sin t2 t1 sin t2 t1 2 sin t2 t1 sin t2 t1 2
K (t1 , t2 ) M ( t1 ) (t2 ) M M M
2 2 2
64
4. Стационарные случайные процессы
sin t2 t1 sin t 2 t1
K (t1 , t2 ) M ,
2 2
На практике довольно редко удается получить большое количество реализаций. Часто быва-
ет, что для исследования предлагается всего одна реализация, а повторение опыта по тем или
иным причинам невозможно.
Но: Можно выделить классы случайных процессов, для которых поставленный вопрос реша-
ется полностью или частично.
Эргодическая теория выясняет, при каких условиях возможна замена одних средних други-
ми и в каком смысле средние по времени на промежутке T ,T приближаются к оценивае-
мым величинам, т.е. в каких случаях можно предположить, что одна-единственная реализа-
ция достаточной продолжительности может служить опытным материалом для получения
характеристик всего случайного процесса.
Название «эргодический» происходит от греческих слов – работа и – путь. Оно
появилось впервые в статистической физике в теориях, где приходится сравнивать средние ве-
65
Теория случайных процессов
lim (t ) dt m
(k) (k)
T
2T T
R ( ) ( k ) (t ) ( k ) (t ) lim
(k )
(t ) ( k ) (t ) dt .
T 2T
T
66
4. Стационарные случайные процессы
Определение 6. Случайный процесс будем называть эргодическим, если любая его статисти-
ческая характеристика, равна соответствующей характеристике, полученной усреднением по
времени одной единственной реализации.
T
2T T
Первое условие теоремы означает ограниченность или слабый рост дисперсии при t .
Второе условие означает ослабление до нуля корреляционной связи между сечениями при
неограниченном увеличении промежутка времени между моментами t1 и t2 .
Решение:
67
Теория случайных процессов
условия эргодичности для корреляционной функции lim K (t1 , t2 ) lim e t2 t1 0 пока-
t1 t 2 t1 t 2
Теорема 2. Для того, чтобы стационарный в широком смысле случайный процесс был эрго-
дическим по отношению к математическому ожиданию, достаточно выполнения условия
lim K ( ) 0 .
68
4. Стационарные случайные процессы
Но к сожалению этот процесс не будет эргодическим, т.к. каждая его реализация будет по ха-
рактеру отличаться от других в зависимости от того, какое значение приняла случайная вели-
чина .
Таким образом, неэргодичность случайного процесса может быть связана с наличием в его со-
ставе слагаемого в виде обычной случайной величины.
Замечание 5:
69
Теория случайных процессов
Итак, если случайный процесс эргодический, то любая его реализация определяет свойства
всего ансамбля и поэтому результат усреднения по времени, выполненный по одной реали-
зации, совпадает с соответствующей статистической характеристикой процесса, то есть
m (t ) m , K ( ) K , R ( ) R .
Так, среднее время пребывания процесса ниже уровня x совпадает с вероятностью того,
что значения случайного процесса в любой момент времени меньше, чем x , то есть
T
1
F ( x ) lim C x (t ) dt P{ (t ) x} ,
(k)
T 2T
T
здесь
1, y0
C ( y)
0, y0
T
2T T
Решение:
b a 36 3
2
a b 3 3
MV 0, DV
2 2 12 12
70
4. Стационарные случайные процессы
K X t1 , t2 M X (t1 ) X (t2 ) M (U 2) cos 7t1 V sin 7t1 (U 2) cos 7t2 V sin 7t2
т.к.
M V (U 2) MV M (U 2) 0
то окончательно:
в широком смысле.
71
Теория случайных процессов
u v
cos , sin
a a
1 T
T
2T T
1 a a
T T T
m lim
T
2T a cos 7t dt lim
T
T
14 T cos 7t d 7t lim
T
T
14 T
sin 7t
T
0
Т.е. можем сделать вывод, что случайный процесс эргодичен относительно математического
ожидания.
1 T
R ( ) ( k ) (t ) ( k ) (t ) lim
T 2T a cos 7t a cos 7(t ) dt
T
a2 T
lim
T 2T cos 7t cos 7(t ) dt
T
1
используем формулу произведение косинусов cos cos cos cos :
2
1
cos 7t cos 7(t ) cos 7t 7(t ) cos 7t 7(t )
2
1
cos 14t 2 cos
2
1 T
R ( ) ( k ) (t ) ( k ) (t ) lim
T 2T a cos 7t a cos 7(t ) dt
T
a2 T
a2 T T
lim
T 4T T cos 14t 2 7 cos 7 dt Tlim
4T
cos 14t 2 7 dt cos 7 dt
T T
a 1
a cos 7 a cos 7 a cos 7
2 T T 2 2 2
lim sin 14 t 2 7 cos 7 t lim 2T lim
T 4T 14 4T 2 2
T T
T T
72
4. Стационарные случайные процессы
функции:
RX t1 , t2 K X t1 , t2 3 cos 7
процесс.
если (t ) a (t ) , то K ( ) a 2 K ( ) .
деленная равномерно в интервале , , A const , const.
k
равна: e .
k!
73
Теория случайных процессов
смысле.
74
4. Стационарные случайные процессы
случаях:
a) f ( x) cos x при x 0, 2
1
b) f ( x) при x 0, 2 и f ( x ) 0 при x 0, 2
2
13. Случайный процесс t задан четырьмя равновероятными реализациями:
t 1,
1
t 2, t sin t ,
2 3
t cos t ,
4
14. Доказать, что сумма независимых стационарных случайных процессов является стаци-
онарным случайным процессом.
15. Пусть X и Y независимые одинаково распределенные случайные величины, прини-
мающие значения 1 и 1 с вероятностями 1 2 . Исследовать на стационарность случай-
ный процесс (t ) X cos t Y sin t , t 0
75
Теория случайных процессов
Представим, что имеется некая динамическая система L (прибор, механизм, система автома-
тического управления и т.д.), на вход которой поступают непрерывно определенные данные
(входной случайный процесс). Система обрабатывает данные и после обработки, они преоб-
разуются в некоторый результат (выходной случайный процесс).
Будем считать, что на вход системы подается случайный процесс X t , а на выходе получа-
Y (t ) L X (t ) .
Задача относительно этой ситуации формулируется так: если входной процесс X t задан и
Преобразование L может быть любой сложности и любого характера. Поэтому в общем слу-
чае решить задачу нахождения характеристик выходного сигнала затруднительно. Но данная
задача может быть решена совершенно точно в случае, когда преобразование L принадле-
жит к классу линейных преобразований и соответственно система L принадлежит к классу
линейных систем.
Пусть X 1 t и X 2 t – два случайных процесса, C1 , C2 – произвольные константы.
почленно.
76
5. Линейные преобразования случайных процессов
L C1 X 1 (t ) C 2 X 2 (t ) C1 L X 1 (t ) C2 L X 2 (t ) .
Ln X (t ) L X (t ) (t ) .
dY (t )
Примерами линейных неоднородных операторов являются: X (t ) f (t ),
dt
t
X (t ) Y ( ) d f (t ) ; X (t ) f (t ) Y (t ) (t ) .
0
случайный процесс Y (t ) : Y (t ) L X (t ) , то его математическое ожидание m y ( t ) получается
m y (t ) L m x (t ) , а для нахождения корреляционной функции K y ( t1 , t 2 ) нужно применить к
' '
процесс (t ), t T , и при этом, если случайный процесс (t ) (t ) , то
77
Теория случайных процессов
d
1) m (t ) m (t ) ;
dt
2
2) K (t1 , t 2 ) K (t1 , t 2 ) .
t1t2
'
2) K (t1 , t2 ) K ( ) .
процесс (t ) dt , a,b T , и при этом, если случайный процесс (t ) (t )dt , то
a a
b b
1) M M (t ) dt
m (t ) dt ,
a a
t1 t2
2) K (t1 , t 2 ) K ( , ) d
1 2 1 d 2
0 0
b b
b d b d
4) cov (t ) dt ,
( ) d K (t , ) dt d , a ,b , c, d T
a c a c
d b b
c
5) D (t ) dt
K
a a
(t , ) dt d
Рассмотрим примеры.
2
Пример 5.1. Зная математическое ожидание m (t ) t t случайного процесса ( t ) , найти
'
' 2
Решение: Искомое математическое ожидание m' (t ) m (t ) m (t ) t t 2t 1 .
78
5. Линейные преобразования случайных процессов
m' (t ) : m' (t ) M ' t M t 3e t 3e t .
' '
K (t1 , t2 ) M e t1 3e t1 e t2 3e t2 M e 2 t1
e
t2
6 e
t1
e
t2
9e
t1
e
t2
M e t1
e M 3 e e ;
t2
3
2 2 t1 t2
K t1 ,t2 M 3 e 2
t1
e
t2
e
t1 t2
;
d ( t )
3. Найдем ковариационную функцию случайного процесса ' (t ) ;
dt
K (t1 , t2 )
e
t1 t 2
e t1 t 2
.
t1t2 t1t 2
Пример 5.3. Зная ковариационную функцию K x (t1 , t 2 ) 2t1 t2 t12 t 22 случайного процесса
Решение:
1. Найдем частную производную от заданной ковариационную функции по t1 :
K x (t1 , t2 )
2t1 t2 t1 t2
2 2
2t 2t1 t 2 .
2
2
t1 t1
79
Теория случайных процессов
K x (t1 , t2 ) 2t 2 2t1 t 2
2
2 4t1 t 2 .
2
t1t 2 t 2
t t
0 0
t
Пример 5.5. Зная математическое ожидание m (t ) 3e случайного процесса ( t ) и кова-
t1 t2
риационную функцию K (t1 , t2 ) e , найти математическое ожидание и корреляцион-
t
t t
t
M (t ) m ( s )ds 3e s ds 3e s 0 3 3e .
t
0 0
t t1 t2
Если (t ) ( s ) ds , то K (t1 , t2 ) K ( , )d d
1 2 1 2 , т.е. корреляционная функция инте-
0 0 0
t1 t2 t1 t2 t1
K (t1 , t 2 ) e 1 2
d 1d 2 e d 1 e 1 2
d 2 1e t2
e 1 d 1 1et2 1et1
0 0 0 0 0
Идея метода канонических разложений состоит в том, что случайный процесс, над которым
нужно произвести преобразование, представляется в виде суммы элементарных случайных
функций.
80
5. Линейные преобразования случайных процессов
(t ) A (t )
m (t ) M (t ) M A (t ) M ( A) (t ) .
K (t1 , t2 ) M (t1 ) (t2 ) R (t1 , t2 ) M (t1 ) (t2 ) M ( A (t1 ) A (t2 ))
(t1 ) (t2 ) M ( A2 ) (t1 ) (t2 ) D( A)
(t ) L (t ) L А (t ) А L (t )
Следовательно, если входной случайный процесс можно представить в виде суммы эле-
ментарных случайных функций, то описание выходного процесса упрощается.
Пусть задан случайный процесс: X (t ) mx (t ) X (t ) , где mx (t ) – математическое ожидание
случайного процесса, X (t ) – центрированный случайный процесс, представленный в виде
n
суммы X (t ) Ak k (t ) , где Ak – центрированные некоррелированные случайные величи-
k 1
81
Теория случайных процессов
n
Замечание 1: В сумме A
k 1
k k (t ) возможно, что n .
n
k 1
Y (t ) L mx (t ) Ak L(k (t ))
Обозначим L m x (t ) my (t ) , L(k (t )) k (t ) и запишем выходной случайный процесс в ви-
n
Y (t ) m y (t ) Ak k (t ) .
k 1
82
5. Линейные преобразования случайных процессов
Y (t ) 2 t X (t ) t 3 1 .
Запишем соответствующий центрированный случайный процесс:
X (t ) X (t ) mX (t ) sin t A1 sin 2 t A2 cos 2 t sin t A1 sin 2 t A2 cos 2 t
Тогда
K X (t1 , t2 ) M A1 sin 2 t1 A2 cos 2 t1 A1 sin 2 t2 A2 cos 2 t2
sin 2 t1 sin 2 t2 M A12 sin 2 t1 t2 M A1 A2 cos 2 t1 cos 2 t2 M A22
M ( A1 A2 ) 0 ,
M ( A12 ) D( A1 ) M 2 ( A1 ) 0, 2
M ( A22 ) D( A2 ) M 2 ( A2 ) 0,3
Тогда корреляционная функция случайного процесса X (t ) равна:
K x (t1 , t2 ) 0, 2 sin 2t1 sin 2t2 0,3 cos 2t1 cos 2t2
83
Теория случайных процессов
Y (t ) Ln X (t ) L X (t ) (t )
где L ( X (t )) 2t X (t ) и (t ) t 3 1 .
my (t ) ( L(mx (t )) (t ) 2t sin t t 3 1 ;
K у (t1 , t2 ) 4 t1 t2 (0, 2 sin 2t1 sin 2t2 0,3 cos 2t1 cos 2t2 ) .
или
Y (t ) 2t sin t t 3 1 A1 2t sin 2 t A2 2t cos 2 t
84
5. Линейные преобразования случайных процессов
функции K , взятой со своим (противоположным) знаком, если индекс ' стоит на вто-
'
ром (первом) по порядку месте: K ' ( ) K ( ) K ' ( ) K ' ( ) .
Т.к. взаимная ковариационная функция K ' ( ) зависти только от , то стационарный слу-
'
ного процесса ( t ) . Найти ковариационную функцию и дисперсию производной (t ) .
''
Решение: Согласно теореме 1 K' () K () , продифференцируем дважды данную ковари-
' K 2e
''
D' ( 0) K' 0 2 . K '' 0,5 2
2e 0,5 12
2
и его производной.
85
Теория случайных процессов
'
1) Пусть 0 , тогда и K ( ) e 1 , K () e , окончательно имеем при
0 : K' ( ) e ;
1
Пример 5.9. Задана ковариационная функция K ( ) 2
стационарного случайного про-
1
t
записать:
t
1 t t
2
t
d 2 1
d
1
D (t ) 2 (t ) d 2t d 2tarctgt 2tarctgt ln t 2 1 .
0 1
2
0
1 2
0
1 2
0
1 2
2
Задана ковариационная функция K (t1 , t 2 ) 5 e 2 1 случайного процесса X (t ) . Найти
t t
3.
86
5. Линейные преобразования случайных процессов
t
5. Задан случайный процесс X (t ) U e cos t , где U – случайная величина, mU (t ) 5.
t
не интегрируя ( t ) .
t
U
8. Дан случайный процесс (t ) , где U P 2 и случайный процесс (t ) ( s ) ds .
(t 4)
2
0
'
процесса ( t ) . Найти ковариационную функцию, дисперсию производной (t ) , взаим-
72
0 t 2 t1 ): а) K 2 ; б) K e .
19
87
Теория случайных процессов
6. Спектральная плотность
(t ) m (t ) Ak cos ( k t ) Вk sin ( k t ) ,
k 0
где
2
k k1 , 1 ,
2T T
T T
1 2
D0
T 0
K ( ) d , Dk K ( ) cos (k ) d при k 0 .
T 0
88
6. Спектральная плотность
K ( ) Dk cos ( k ) .
k 0
D ( ) K (t , t ) K (0) Dk cos ( k 0) Dk
k 0 k 0
89
Теория случайных процессов
Таким образом, дисперсия стационарного случайного процесса равна сумме дисперсий всех
гармоник ее спектрального разложения.
Замечание 1: Из формулы K ( ) Dk cos ( k ) видно, что дисперсия стационарного слу-
k 0
Dk
Отношение S (k ) представляет собой среднюю плотность дисперсии на участке .
90
6. Спектральная плотность
ционную функцию.
K ( ) Dk cos ( k ) ,
k 0
T
2
Dk
T 0
K ( )cos (k )d .
Dk
Поскольку S (k ) , то получим:
T
2
S (k )
K
0
( ) cos (k )d
2
S ( )
K
0
( )cos ( )d
91
Теория случайных процессов
Dk S (k ) ,
подставим в формулу:
K ( ) Dk cos ( k ) ,
k 0
K ( ) S ( )cos ( )d
0
2
0
S
( ) K ( ) cos ( ) d
K ( ) S ( ) cos ( ) d
0
1. S () 0 – неотрицательность.
2. Если положить в выражении K ( ) S ( ) cos ( ) d : 0 , то получим:
0
92
6. Спектральная плотность
что частоты изменяются в пределах от , , но надо понимать, что частоты 0 физи-
1
S ( ) S ( )
2
1 i
S ( ) 2 K ( ) e d
K ( ) S ( ) e i d
1
2. S ( ) S ( ) на участке 0, .
2
, 0
K ( ) D e , где . Определить спектральную плотность соответствую-
, 0
щего случайного процесса.
93
Теория случайных процессов
Можем записать:
1 1
S ( ) K ( ) e
i
d D e
ei d .
2 2
Исходя из условий задачи, представим этот интеграл в виде суммы двух интегралов:
D 0 i
D 0 i
e d .
i
S ( ) e d e i
d e d
2 0 2 0
Вычислим входящие в выражение интегралы:
D 1 i
0 D 1 i
D 1 1
S ( ) e e
2 ( i ) 2 ( i ) 0 2 ( i ) ( i )
D 2 D
2 ( 2 2 ) ( 2 2 )
1 2 D
Или окончательно из соотношения S ( ) S ( ) , находим S ( ) .
2 ( 2 2 )
спектральную плотность.
sin 2 4
a) K 64 ;
2
b) K 12exp 4 14 .
спектральная плотность S ( ) :
2
1 , при 4
a) S () 16 ;
0 , при 4
10 1 1
.
b) S ( )
4 32 4 3 2
94
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов
Наиболее удобно и просто ввести все эти понятия для процессов, которые удовлетворяют
процессов.
Замечание 1: Физически условие M 2 t означает, что процесс имеет конечную мощ-
95
Теория случайных процессов
3. Сходимость почти наверное: если P lim k () () 1 .
k
4. Сходимость по распределению (слабая сходимость): если lim Fk F ( x) во всех точках
k
ss 0
ср . кв .
Обозначение: s (t ) (t ) ; или l.i.m s (t ) (t ) .
s s0 s s0
t
ность X n (t ) распределена нормально X n (t ) N 0, .
n
Решение: По определению, необходимо найти такой процесс X (t ) , чтобы
Распишем подробно M X n (t ) X (t ) :
2
lim M X n2 (t ) 2 X n (t ) X (t ) X 2 (t ) lim M X n2 (t ) 2 M X n (t ) X (t ) M X 2 (t )
n n
Предположим, что все три предела существует, т.е.:
96
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов
lim M X n2 (t ) 2 M X n (t ) X (t ) M X 2 (t )
n
t x 2 n2
1. lim M n
X 2
(t ) , т.к. X (t ) N 0, , то lim M X n (t ) lim x exp
2 2
2
dx
2 t
n
n
n n n
R
x 2 n2
= lim( x 2 exp 2
)dx 0;
R
n
2t
Или здесь можно легче найти этот интеграл: т.к. M X n2 (t ) DX n (t ) M 2 X n (t ) , а у нас из-
t t
вестно, что X n (t ) N 0, , то есть M 2 X n (t ) 0 и M X n2 (t ) DX n (t ) , поэтому
n n
t
lim M X n2 (t ) lim 0
n n n
2. lim M X n (t ) X (t ) 0;
n
3. lim M X 2 (t) 0
n
lim M X n (t ) X (t ) 0,
2
Таким образом: а, следовательно, последовательность
n
t
X n (t ) N 0, сходится в среднем квадратическом к процессу X (t ) 0 .
n
2
Определение 2. Случайный процесс второго порядка (, t ) , t T (т.е. M (, t ) )
t t0
97
Теория случайных процессов
Пример 7.2. Пусть дан случайный процесс вида: X ( , t ) t , где N 0,1 – стандарт-
t t0
Пример 7.3. Показать, что пуассоновский случайный процесс непрерывен в среднем квадра-
тическом.
t
k
t1 t2 t1
P , t2 , t1 k
2
e ;
k!
t t0
[ (t t0 )] (t t )
k
M ( , t ) ( , t0 ) k 2 P ( , t ) ( , t0 ) k k 2
2
e 0
k 1 k! k 1
(t t0 ) e (t t0 ) k
(t t0 ) k 1
.
k 1 (k 1)!
( t t0 )
k 1
Для дальнейшего упрощения полученного выражения найдем сумму ряда
k 1
k
(k 1)!
.
x k 1 xk x k 1 xk
k ( k 1)!dx ( k 1)! x (k 1)! x k ! x e
x
.
k 1 k 1 k 1 k 0
98
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов
x k 1
Продифференцировав полученное выражение, найдем сумма ряда
k 1
k
( k 1)!
:
k 1 d
k (kx1)! dx ( x e
k 1
x x x x
) x e e e ( x 1) .
Таким образом,
M (, t ) (, t0 ) (t t0 ) e ( t t0 ) k (t t0 )
2 k 1
k 1 (k 1)!
(t t0 )e
( t t0 )
e
( t t0 )
(t t0 ) 1 (t t0 ) (t t0 ) 1
t t0
0,
Теорема 1: Для того, чтобы случайный процесс был непрерывным в среднем квадратическом
в точке t , необходимо и достаточно, чтобы его ковариационная функция K X (t1 , t2 ) была не-
прерывна в точке t1 t 2 t .
Пример 7.4. Пусть дан случайный процесс вида: X ( , t ) , где N 0,1 – стандартная
t
нормально распределенная случайная величина. Показать, что X (t ) – не является непрерыв-
Решение:
1
M X ( , t ) M M , т.к. известно, что N 0,1 , поэтому окончательно
t t
M X ( , t ) 0
99
Теория случайных процессов
K X (t1 , t2 ) M X (t1 ) X (t 2 ) RX (t1 , t2 ) M X (t1 ) X (t2 ) т.к. M X ( , t ) 0
1
M X (t1 ) X (t2 ) M M , т.к. D M M M 0 1 , то
2 2 2 2
t1 t2 t1 t2
1 1
M 2 1, т.е. K X (t1 , t2 ) M X (t1 ) X (t2 ) M
2
;
t1 t2 t1 t2
В силу теоремы 1, для того, чтобы случайный процесс был непрерывным в среднем квад-
ратическом в точке t , необходимо и достаточно, чтобы его ковариационная функция
K X (t1 , t2 ) была непрерывна в точке t1 t 2 t .
Покажем, что функция K X (t1 , t2 ) в точке t1 t2 t 0 терпит разрыв. Хотя это и очевидно.
1 1
K X (t1 , t2 ) при t1 t 2 t : K X (t , t ) DX (t ) 2
t1 t2 t
1
определена в точке t t0 и некоторой ее окрестности. У нас функция K X (t , t ) при
t2
t 0 неопределена, поэтому окончательно заключаем, что случайный процесс вида:
X ( , t ) не является непрерывным процессом в среднем квадратичном в точке
t
t t0 0 .
( , t ) ( , t ) ' 2
lim M 0
(, t0 ) 0 .
t t0
t t0
При этом случайная величина ' ( , t ) называется его производной в этой точке.
100
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов
t 0 :
' t 2 t Y .
(, t t ) (, t )
Рассмотрим предел отношения :
t
101
Теория случайных процессов
Тогда:
Решение:
1. Найдем математическое ожидание и ковариационную функцию процесса:
m X (t ) M cos( t ) sin( t ) M cos(t ) M sin( t )
m cos( t ) m sin( t );
2. Откуда
102
7. Сходимость, непрерывность, дифференцируемость и интегрируемость случайных процессов
2
Таким образом получили: m X (t ) m cos( t ) m sin( t ); K X ( t1 , t 2 ) cos( (t1 t2 ));
откуда
' dm X
m X (t ) [m cos( t ) m sin( t )];
dt
2
KX 2 2 2 2
cos (t 2 t1 ) t1t2 t0
t1t2
n
ческом ( ) (t
i i
c.k
ti 1 ) , не зависящий от способа разбиения ti и выбора точек
i 1
n b
2
103
Теория случайных процессов
b
Теорема 3. Для существования среднеквадратического интеграла (t ) dt необходимо и
a
достаточно, чтобы существовали следующие интегралы Римана:
b b b
I1 m (t ) dt ; и I 2 K (t , ) dt d ,
a a a
2
Пример 7.7. Задан случайный процесс X (t ) V t , где V – случайная величина, числовые
2
характеристики, которой mV 2, V 1 . Показать, что X (t ) интегрируемый в среднем
Решение:
1. Найдем математическое ожидание и ковариационную функцию процесса:
mX (t ) M V t 2 t MV 2t
2 2
У нас:
2 2
2t 3 16 2 14
1
I1 2t dt
2
3
1
;
3 3 3
2 2 2 2 2
t23 2 7 2
7 7 49
I2 t12 t 22 dt1 dt2 t12 dt1 t22 dt 2 t12 dt1 t 2
1 dt1
1 1 1 1 1 3 1 3 1 3 3 9
на 1,2 .
104
8. Основные классы случайных процессов
Важную роль во многих прикладных задачах играют гауссовские случайные процессы, кото-
рые возникают в результате сложения большого числа независимых или слабо зависимых
случайных процессов примерно одинаковой мощности. В этом случае, с увеличением числа
слагаемых сумма сходится к гауссовскому случайному процессу независимо от того, как
распределены отдельные слагаемые.
Пусть 1 , 2 ,, n - n-мерный случайный вектор, и u u1 , u2 ,, un R n .
T T
i ( u , ) i (u unn )
Характеристическая функция определяется как: g n (u ) Me Me 1 1 ,
где u, – скалярное произведение векторов.
Напомним, что n-мерный случайный вектор , , , имеет нормальное распреде-
T
1 2 n
1 T
1 n
g n (u1 , u 2 , , un ) exp i m, u u K u exp i mk u k K jk u j uk ,
2
n
k 1 2 j , k 1
T
где u u1 , u2 ,, un , m M 1 , M 2 , , M n m1 , m2 , , mn ,
T
K ( K jk ) – ковариационная матрица случайного вектора 1 , 2 , , n :
T
___
K jk M j m j k mk M j k , j , k 1, n .
105
Теория случайных процессов
1
1
p( x1 , x2 ,..., xn , t1 , t2 ,..., tn ) exp Kij1 xi mi x j m j ;
n 2
2 det K i, j
n
n n
g n u1 , u 2 , , u n ; t1 , t 2 , , t n M exp i xk uk exp i mk uk
1
K u u .
2 k , j 1 kj k j
k 1 k 1
Характеристическая функция полностью определяет распределение совокупности случайных
величин, и с ее помощью может быть задано полное семейство конечномерных распределе-
ний.
1
iu m 2 u 2
Покажем, что: g1 u e 2
;
Имеем:
x m 2 x m y y2 1
1
i y m u 1 eiu m iu y y2
e dy dy
iu x 2 2 2 2 2 2
e dx e e e
2 2 2 2 2 2
z y i 2 u 2
2u 2 i u z2
1
y i u 2u 2
2
ei u m 2
ei u m
e dz
2
2 2 2
e 2
dy e 2
e
2 2 2 2 i 2u
1
iu m 2 u2
e 2 .
106
8. Основные классы случайных процессов
дисперсиями D D 2 .
Решение: При любом фиксированном значении t , будем иметь в сечении случайную вели-
чину, которая будет являться гауссовской величиной, т.к. она представляет собой линейную
комбинацию гауссовских случайных величин. Для определения одномерной и двумерной
плотностей распределения вероятностей процесса, нам нужно определить его математиче-
ское ожидание m (t ) и ковариационную функцию K (t1 , t2 ) .
По определению:
107
Теория случайных процессов
1 1 2 2 cos 1 2 2 cos
K 4 2
det K 2 cos 2 sin cos 2
2
1 1 cos 1 sin
2 2
cos sin
2 2
2
sin 2 cos 1 cos sin
2 2
1 2 sin 2
K111 K121
1 1
K 21 K 22
1 1
p( x1 , x2 ,..., xn , t1 , t2 ,..., tn ) exp Kij1 xi ai x j a j ;
n 2
2 det K i , j
1 1 x2
p( x, t ) exp 2 ;
2 2
1 1
p( x1 , x2 , t1 , t2 ) exp K ij1 xi ai x j a j
2 i, j
2
2 4 sin 2
1 1
exp K111 x12 K121 x1 x2 K 211 x1 x2 K 221 x22
2
2
2 4 sin 2
1 1 x2 x x cos x1 x2 cos x22
exp 2 1 2 122 2 2
2
2 sin sin sin 2
2
sin 2
2 sin
4 2
1 x1 2 x1 x2 cos x2
2 2
1
exp , t2 t1
2 2 sin 2 2 sin 2
108
8. Основные классы случайных процессов
Ковариация двух случайных величин имеет смысл скалярного произведения. Поэтому усло-
вие некоррелированности приращений часто называют условием их ортогональности, т.е.
равенства нулю скалярного произведения этих приращений.
109
Теория случайных процессов
t , t t , t t ....., t t , t t
0 1 0 2 1 n n 1 n 2 n 1
Винеровский процесс
(частный случай процесса с независимыми приращениями)
Приращения: W (t1 ) W (t0 ), W (t2 ) W (t1 ), W (t3 ) W (t2 ), ..., W (tn ) W (tn1 ) независимы.
110
8. Основные классы случайных процессов
M W ti W ti1 ti ti 1 .
2
0 и s 0 случайные процессы:
t
W , t W , 2
1
X , t t W ,
t
X , t W , t s W , s
Также являются винеровскими.
Пример 8.3. Показать, что корреляционная функция винеровского процесса имеет вид:
Решение:
1. Пусть t1 t2 . По определению корреляционной функции: Rw (t1 , t2 ) M W t1 W t2 Про-
Rw (t1 , t2 ) M W t1 W t2 M W t1 W t2 W 2 t1 W 2 t1
111
Теория случайных процессов
Rw (t1 , t2 ) M W t1 W t2 M W t1 W t2 W 2 t1 W 2 t1
M W t1 W t2 W t1 W 2 t1
Распишем последнее выражение, используя свойство математического ожидания суммы
случайных процессов:
Rw (t1 , t2 ) M W t1 W t2 W t1 W 2 t1 M W t1 W t2 W t1 MW 2 t1
Можем переписать так: Rw (t1 , t2 ) M W t1 W t0 W t2 W t1 MW 2 t1
В силу того, что все приращения винеровского процесса независимы, используем опять
свойство математического ожидания произведения случайных процессов:
M W t1 W t0 W t2 W t1 M W t1 W t0 M W t2 W t1
Т.к. M W ti W ti 1 0 , то M W t1 W t0 W t2 W t1 0
Rw (t1 , t2 ) M W t1 W t0 t1 t0 t1 0 t1
2
Rw (t1 , t2 ) M W t1 W t2 M W t1 W t2 W 2 t2 W 2 t2
M W t2 W t1 W t2 W 2 t2 M W t2 W t0 M W t1 W t2 M W 2 t2
M W t M W t W t 2 t 2 t0 2 t 2
2 2
2 2 1
Rw (t1 , t2 ) 2 min t1 , t2
112
8. Основные классы случайных процессов
W (, t t ) W (, t ) 2 1
lim M lim M W(,t t ) W (,t ) 2
t 0 t t0 t 2
1 1 2
Тогда lim M W(,t t ) W (,t ) 2 lim
2
t lim
t 0 t 2 t 0 t 2 t 0 t
W (, t t ) W ( , t ) 2 1
lim M lim M W( ,t t ) W ( ,t ) 2
t 0 t t 0 t 2
1 2 2
lim t lim
t 0 t 2 t 0 t
Пуассоновский процесс
(частный случай процесса с независимыми приращениями)
1. ,0 0
2. n 1, tk T , k 1, n, t1 t2 ... tn случайные величины
(t1 ), (t2 ) (t1 ), (t3 ) (t2 ), ..., (tn ) (tn 1 ) являются независимыми;
3. t1 , t 2 T : 0 t1 t 2 случайная величина (t2 ) (t1 ) распределена по закону Пуассона с
параметром t2 t1 :
t t1
k
113
Теория случайных процессов
В разделе непрерывность случайных процессов в примере 4.3 было показано, что Пуассо-
новский процесс непрерывен в среднем квадратическом. Покажем теперь, что он не диффе-
ренцируем в среднем квадратическом.
Решение:
1. Согласно теореме о необходимом и достаточном условии дифференцируемости случайно-
го процесса: для того, чтобы случайный процесс (, t ) t T был дифференцируемым в каж-
'
дой точке t T , а для случайной величины (, t ) существовало математическое ожидание
K (t1 , t2 ) M (t1 ) (t2 ) m (t1 ) m (t2 ) M (t1 ) (t2 ) 2 (t1 ) 2 (t1 ) m (t1 ) m (t2 )
M (t1 ) (t2 ) (t1 ) 2 (t1 ) m (t1 ) m (t2 )
M (t1 ) (t2 ) (t1 ) M 2 (t1 ) m (t1 ) m (t2 )
114
8. Основные классы случайных процессов
K (t1 , t2 ) M (t1 ) (t2 ) m (t1 ) m (t2 ) M (t1 ) (t2 ) 2 (t2 ) 2 (t2 ) m (t1 ) m (t2 )
M (t2 ) (t1 ) (t2 ) 2 (t2 ) m (t1 ) m (t2 )
M (t2 ) (t1 ) (t2 ) M 2 (t2 ) m (t1 ) m (t2 )
т.е. M 2 (t2 ) t2 2 t 22 .
2 K (t1 , t2 ) 2 K (t , t )
lim K (t t , t t ) K (t , t t ) K (t t , t ) K (t , t )
t1t2 t 2 t 0
1
lim
t 0 t 2
D (t t , t t ) K (t, t t ) K (t t, t ) D (t, t )
1
lim 2 t t t t t
t 0 t
K (t , t t ) K (t t , t ) t , и K (t , t t ) K (t t , t ) , поэтому окончательно:
2 K (t , t ) 1 t
lim 2 t t t t t lim lim
t 2 t 0 t t 0 t 2 t 0 t
115
Теория случайных процессов
ным?
116
Задачи для самостоятельного решения по всем темам
7. Найти функцию взаимной ковариации процесса и его второй производной, если про-
цесс (t ) имеет математическое ожидание равное t и функцию ковариации
K (t , s ) e ( t s ) .
(t ) 1 (t ) 2 (t ) .
13. Задан случайный процесс (t ) V t 2 , где V – непрерывная случайная величина, рас-
2
пределенная по нормальному закону с параметрами a и . Найти характеристики
процесса (t ) (математическое ожидание, дисперсию и функцию корреляции). Прове-
рить является ли этот процесс стационарным в широком смысле?
117
Теория случайных процессов
15. Случайный процесс представляет собой (t ) V , где V непрерывная случайная ве-
k
Pk e
k!
Процесс (t ) представляет собой число покупателей пришедших от 0 до t (например,
совпадает с началом рабочего дня). Найти математическое ожидание, дисперсию и
функцию корреляции процесса (t ) .
Указание. При вычислении функции корреляции воспользоваться тем, что при s t
( s ) (t ) , где число событий наступивших за время от t до s .
118
Задачи для самостоятельного решения по всем темам
n
20. Найти корреляционную функцию случайного процесса (t ) Yi qi t , где
i 1
d1 , d 2 , ...., d n соответственно.
процесса Y (t ) X t b, t 0.
Y (t ) t X на стационарность.
X N 0,1 , а Y R ,
119
Теория случайных процессов
t ti Wi ti 1 t Wi 1 , t ti , ti 1
X n (t ) ,
0, t ti , ti 1
ba
где ti a i точки разбиения отрезка a, b . Будет ли предельный процесс
n
?
W (t ) lim X n (t ) винеровским?
n
sin 5n
31. Будет ли процесс X (t ) lim X n (t ) , где X n (t ) exp n t , t 0,1 , n распре-
n n2 t
делены нормально с нулевым средним и дисперсией единица, непрерывным в средне-
квадратическом?
sin 5n sin 3n
32. Будет ли процесс X (t ) lim X n (t ) , где X n (t ) exp n t , t 0,1 , n
n n2 t
распределены нормально с нулевым средним и дисперсией единица, дифференцируе-
мым в среднеквадратическом?
k
sin n 2t
33. Доказать, что процесс X k (t ) сходится к винеровскому процессу W (t ) .
n 1 n2
120
Литература
Литература
1. Волков И.К., Зуев С.М., Цветкова Г.М. Случайные процессы : учеб. для вузов. М. : Изд-во
МГТУ им. Н.Э. Баумана, 1999. 448 с.
2. Маталыцкий М.А. Элементы теории случайных процессов : учеб. пособие. Гродно : ГрГУ,
2004. 326 с.
3. Вентцель Е.С., Овчаров Л.А. Теория случайных процессов и ее инженерные приложения.
М. : Наука. Гл. ред. физ.-мат. лит., 1991. 384 с.
4. Миллер Б.М., Панков А.Р. Теория случайных процессов в примерах и задачах. М. : ФИЗ-
МАТЛИТ, 2002. 320 с.
5. Гнеденко Б.В., Коваленко И.Н. Введение в теорию массового обслуживания. 3-е изд., испр.
и доп. М. : КомКнига, 2005. 400 с.
6. Назаров А.А., Терпугов А.Ф. Теория вероятностей и случайных процессов : учеб. пособие.
Томск : Изд-во НТЛ, 2006. 204 с.
7. Гнеденко Б.В. Курс теории вероятностей. М. : Наука, 1969. 448 с.
8. Письменный Д.Т. Конспект лекций по теории вероятностей, математической статистике и
теории случайных процессов. 3-е изд. М. : Айрис-пресс, 2008. 290 с.
9. Прохоров А.В., Ушаков В.Г., Ушаков Н.Г. Задачи по теории вероятностей : учеб. пособие.
М. : Наука. Гл. ред. физ.-мат. лит, 1986. 328 с.
10. Донской Е.Н. Курс теории вероятностей с элементами случайных процессов и математи-
ческой статистики. Саров : РФЯЦ-ВНИИЭФ, 2000. 288 с.
11. Максимов Ю.Д. Математика. Теория вероятностей и случайных процессов. СПб. : Изд-во
Политех. ун-та, 2008. 384 с.
12. Сборник задач по теории вероятностей, математической статистике и теории случайных
функций / под общ. ред. А.А. Свешникова. СПб. : Лань, 2007. 448 с.
13. Власенков В.М. Основы теории случайных процессов в практическом изложении.
Комсомольск-на-Амуре : Изд-во КнАГТУ, 2004. 99 с.
14. Марченко Л.В. Случайные процессы : учеб. пособие. Хабаровск : Изд-во ДВГУПС, 2013.
75 с.
15. Храмов А.Г. Теория случайных процессов : электронное учебное пособие. Самара : Са-
марский аэрокосмический университет, .
16. Крупин В.Г, Павлов А.Л., Попов Л.Г. Теория вероятностей, математическая статистика,
случайные процессы : учеб. пособие. М. : Издательский дом МЭИ, 2013. 368 с.
17. Син Л.И. Элементы теории случайных процессов : методическое пособие. Шахты :
ЮРГУЭС, 2002. 32 с.
18. Крицкий О.Л. Введение в теорию случайных процессов : учеб. пособие. Томск : Изд-во
ТПУ, 2009. 110 с.
121
Теория случайных процессов
Приложения
Приложение 1
n
рактеристическая функция: g (u ) q p eiu .
eia u ei ( b1)u
характеристическая функция: g (u ) .
n (1 eiu )
122
Приложения
eibu eiau
характеристическая функция: g (u ) .
iu (b a)
e x , x 0 1 1
P ( x) 0, M , D
0 , x0 2
характеристическая функция: g (u) .
iu
1 x a 2
p ( x) exp , M a, D 2 , x ,
2 2 2
2u 2
характеристическая функция: g (u ) exp ia u .
2
10. Двумерное нормальное распределение. Распределение случайной величины , с
совместной плотностью вероятностей:
x a 2 y a 2 x a y a
1 1
p ( x, y ) exp 2
2r ,
2 1 r 2
2
2 1 r 2
M a , M a , D 2 , D 2
r – коэффициент корреляции случайных величин и .
123
Теория случайных процессов
iu
характеристическая функция: g (u ) 1 .
124
Приложения
Приложение 2
Табличные интегралы
cos mx ma
1.
a
0
2
x 2
dx
2a
e , a 0, m 0
sin 2 mx
2.
0
a x
2 2
dx
4a
1 e2 ma , a 0, m 0
sin mx sin nx ma
3.
0
a x
2 2
dx
2a
e sh (na), a 0, m n 0
cos mx cos nx ma
4.
0
a x
2 2
dx
2a
e ch (na ), a 0, m n 0
ma
2 e ch (na), a 0, m n 0
x sin mx cos nx
5.
0
a 2 x2
dx
e na sh (ma ), a 0, m n 0
2
x sin mx
6.
a
0
2
x 2
dx e ma ,
2
a 0, m 0
x sin mx m
7.
a
0
2
x
2 2
dx
4a
e ma , a 0, m 0
sin mx
dx 2 1 e ma ,
8.
x a
0
2
x
2
2a
a 0, m 0
sin mx 2 ma ma
9.
xa x
0
2 2 2
dx 1
2a 4
2
e ,
a 0, m 0
x 2 cos mx
10.
a x
0
2 2 2
dx
4a
1 ma e ma , a 0, m 0
cos mx
11.
a x
0
2 2 2
dx
4a 3 1 ma e ma , a 0, m 0
cos mx e mb e ma
12.
0
dx
a2 x 2 b2 x 2 2 a 2 b2 b a
, a, b 0, a b, m 0
x sin mx e mb e ma
13.
0
dx
a 2 x 2 b2 x2 2 a 2 b2
, a, b 0, a b, m 0
125
Теория случайных процессов
2, mn0
sin mx cos nx
14.
0
x
dx ,
4
mn0
0 , nm0
m m
a , a 0
sin ax cos mx
2
2 2 2
15.
x2
dx
m
0
0, a0
2
1 cos mx m
16.
0
x 2
dx
2
1
xe
x
17. dx , 0
2
0
m
e
ax
18. sin mx dx , a0
a m2
2
0
a
19.
0
e ax cos mx dx
a m2
2
, a0
a2 m2
20.
0
x e ax cos mx dx
a 2
m2
2
, a0
m a 2 m2 n2
e
ax
21. sin mx cos nx dx , a0
0 a2 m n
2
a2 m n
2
a a 2 m2 n 2
e
ax
22. cos mx cos nx dx , a0
0 a2 m n
2
a2 m n
2
m2
e
ax 2
23. cos mx dx e 4a
, a0
0
2 a
1
24.
x cos ax dx a 2 cos ax ax sin ax C , a0
25.
x 2 cos ax dx
1
a3
2ax cos ax a 2 x 2 2 sin ax C , a 0
x 1
xe dx e ax 2 C , a 0
ax
26.
a a
x2 2 x 2
27.
x 2 e ax dx e ax 2 3 C , a 0
a a a
126
Приложения
Приложение 3
Сведения из теории вычетов
(z)
Пусть z0 простой полюс функции , функции ( z ) , ( z ) аналитичны в точке z0 и
( z)
z0 0 . Тогда
Res ( z ) ( z )
z0 ( z ) ' ( z ) z z 0
'
z z0 f ( z )
2
Res f ( z ) lim
z z
z0 0
N
P( x) P( z )
Q( x)
dx 2 i Res Q( z)
k 1
zk
P ( x)eia x N
P ( z ) eia z
Q( x)
dx 2 i Res
k 1
zk Q( z )
, a0
127
Теория случайных процессов
Учебное издание
Часть 1
Учебное пособие
Отпечатано на оборудовании
Издательского Дома
Томского государственного университета
634050, г. Томск, пр. Ленина, 36
Тел. 8+(382-2)–53-15-28
Сайт: http://publish.tsu.ru
E-mail: rio.tsu@mail.ru
128