Вы находитесь на странице: 1из 53

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

ПУТЕЙ СООБЩЕНИЯ (МИИТ) ПУТЕЙ СООБЩЕНИЯ (МИИТ)

Кафедра “Прикладная математика–2” Кафедра “Прикладная математика–2”

А.С.МИЛЕВСКИЙ
А.С.МИЛЕВСКИЙ

ВЫСШАЯ МАТЕМАТИКА
ЧАСТЬ 3.
ВЫСШАЯ МАТЕМАТИКА ТЕОРИЯ ВЕРОЯТНОСТЕЙ
ЧАСТЬ 3.
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Конспект лекций

Конспект лекций Рекомендовано редакционно-


издательским советом
университета в качестве
конспектов лекций для
студентов ИЭФ и ИУИТ

МОСКВА – 2008 МОСКВА – 2008


УДК-51
М-60
Милевский А.С. Высшая математика. Ч.3. Теория
вероятностей: конспект лекций. – М.: МИИТ, 2008.
– 105 c.
Конспект лекций предназначен для студентов, изу-
чающих курс математического анализа в институ-
тах ИЭФ и ИУИТ. Включает в себя материал по
теории вероятностей, марковским цепям и систе-
мам массового обслуживания.
Рецензенты:
Фролов Е.Б., д.т.н., профессор МГТУ Станкин,
Деснянский В.Н., к.ф.-м.н., зав. кафедрой “Вычис-
лительная математика” МИИТ.

© Московский государственный университет


путей сообщения (МИИТ), 2008
Св. план 2008 г.; поз.

Милевский Александр Станиславович


ВЫСШАЯ МАТЕМАТИКА. Ч. 3. ТЕОРИЯ ВЕРОЯТНОСТЕЙ.
Конспект лекций
Подписано в печать Формат 60x84 / 16
Заказ № Усл. печ. л. –
Тираж –
127994, Москва, ул. Образцова,15. Типография МИИТа
1. Случайные события

Всякое случайное событие представляет собой


некоторое подмножество множества элементарных
Теория вероятностей изучает случайные события. исходов
Случайными называются события, исход которых
Пример Пример
заранее предсказать нельзя: такое событие может Из колоды 36 карт достали
произойти, а может и не произойти. Бросили 2 игральных кубика.
2 карты
A: “В сумме выпало 10 очков”
A: “Обе карты – тузы”
Примеры:
Примеры: A = {46,55,64} A = {…}
A: “подброшенная монета три раза подряд упадёт (а сколько всего исходов?) (а сколько всего исходов?)
гербом”
B: “эта лампочка перегорит за ближайшие два часа” Пример
Наудачу выбрали двузначное число.
Математическая модель случайных событий строится A: “Это число делится на 5”
при помощи понятий A = {…}
• Множество элементарных исходов Ω. (а сколько всего исходов?)
• Алгебра событий.
событий.
• Вероятность события.
события

Сумма событий
Это понятие проще всего пояснить на примерах.
Пример A
Бросили 2 игральных кубика. A+B=“A или B”
Ω = {11,12,13,14,15,16,21,22,23,…}
(сколько всего элементарных исходов?) B
Пример
Измерили срок службы электрической лампочки
Ω =[0,+∞) Пример:
Пример:
(сколько всего элементарных исходов?) A: “Джонсона повесят в пятницу после обеда”
B: “Джонсона повесят в субботу до обеда”
Пример
Стрелок выстрелил по круглой мишени радиуса 10 см. A+B = “Джонсона повесят в пятницу после обеда или в
Ω = {все точки, куда может попасть пуля} субботу до обеда”
(сколько всего элементарных исходов?)

3 3 3 4
Произведение событий Свойства операций над событиями
Ω – достоверное событие,
A
A·B=“A и B” Ø– невозможное событие

B A + B = B + A; AB = BA,
( A + B ) + C = A + ( B + C ); ( AB )C = A( BC ),
Пример:
Пример
A( B + C ) = AB + AC ; A + BC = ( A + B )( A + C )
A: “Выбранное число делится на 11”
B: “Выбранное число нечётно” A + Ω = Ω; A⋅∅ = ∅
A·B= “Выбранное число делится на 11 и нечётно” A ⋅ Ω = A; A+∅ = A
Какая
Замечание A + A = Ω; A⋅ A = ∅ закономерность?
A B
Если AB= Ø, то говорят, что
события A и B A + B = A ⋅ B; A⋅B = A + B
A + A = A; A⋅ A = A
несовместны:

Противоположное событие

A =" не A" Вероятность – это числовая функция P


на множестве случайных событий,
A обладающая свойствами:
A
1) P (Ω ) = 1
2) AB = φ ⇒ P ( A + B ) = P ( A ) + P (B )
Пример:
A: “Спартак выиграет у Динамо с разницей в два мяча” Следствия:

Ā: “Спартак не выиграет у Динамо с разницей в два


мяча” ()
3) P A = 1 − P ( A) A Ω
A
4) P (φ ) = 0 ≤ P ( A ) ≤ 1

4 4 5 6
Число размещений

Это – количество способов выбрать m


Число перестановок различных предметов из n различных
предметов с учётом порядка.
Это - количество способов расставить
n различных предметов по порядку Anm − число размещений ( m ≤ n ).
Anm = n ⋅ ( n − 1) ⋅ ... ⋅ ( n − m + 1) (всего m множителей).
Pn − число перестановок
P2 = 2 : {ab,ba} Пример.

P3 = 6 : {abc, acb, bac , bca , cab, cba}


{a, b, c, d}
A40 = 1, A41 = 4,
A42 = 12 : {ab, ac , ad , ba , bc , bd , ca , cb, cd , da , db, dc}
Pn = n ⋅ ( n − 1) ⋅ ... ⋅ 1 = n! A43 = ?

Пример:
Пример: Пример:
Сколькими способами можно за стол президиума Из группы 25 человек выбирают старосту,
посадить 8 человек? профорга и культорга. Сколько всего способов?

P8 = 8! = 40320. A253 = 25 ⋅ 24 ⋅ 23 = 13800 .

5 5 7 8
Число сочетаний Свойства числа сочетаний.

Это – количество способов выбрать m


n!
различных предметов из n различных 1 . C nm = = C nn − m ,
предметов без учёта порядка. m!( n − m )!
C nm − число сочетаний ( m ≤ n ). 2 . C nm = C nm−−11 + C nm−1 ,
n ⋅ ( n − 1) n ⋅ ... ⋅ ( n − m + 1)
C nm = n

∑C
m!
3. m
n = 2 n.
Пример. m=0
{a , b , c , d }
C 40 = 1
C 42 = 6 : {ab, ac, ad, bc, bd, cd}
C 43 = ?

Бином Ньютона (a+b)n


Пример:
Сколькими способами можно из 25 человек
выбрать троих на конференцию? ( a + b ) 2 = a 2 + 2 ab + b 2 ,
( a + b ) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 ,
С = 3 25⋅24⋅ 23
1⋅2 ⋅3 = 2300 .
25
( a + b ) n = a n + C n1 a n −1b + C n2 a n − 2 b 2 + K + b n =
n
= ∑C
m=0
m
n a n−m b m .

1
1

6 6 9 10
Задача
Из колоды 36 карт достали три карты. Найти
вероятность того, что они одной масти
Если множество
Решение
1) Ω конечно и
1 способ (с учётом порядка взятия
2) элементарные исходы равновероятны, карт)
карт):
то вероятность события A можно вычислить по n=36·35·34,
Какой способ
формуле классической вероятности: m=36·8·7, здесь
P(A)=… удобнее?
Здесь
2 способ (без учёта порядка взятия карт)
карт):
m n = |Ω| - количество всех
P ( A) = элементарных исходов,
n = C 36
3
=
36 ⋅ 35 ⋅ 34
,
3 ⋅ 2 ⋅1
n m = |A| - количество
«благоприятных» исходов m = 4 ⋅ C 93 = ...,
P ( A) = ...

Задача Задача
Из колоды 36 карт достали четыре карты.
Монету бросили два раза. Найти вероятность
того, что оба раза выпадет герб. Найти вероятности событий
• A: все карты одной масти
• B: все карты разной масти
Решение • C: среди них два туза, одна дама и нет червей
Здесь
A: “оба раза выпадет герб”
герб” Решение (A- все карты одной масти)
масти)
n=…, 1 способ (с учётом порядка взятия карт)
карт):
n=36·35·
n=36·35·34·
34·33, m=36·
m=36·8·7·6, P(A)=…
P(A)=…
m=…,
P(A) = … 2 способ (без учёта порядка взятия
карт)
карт):
n = C 364 , m = 4 ⋅ C 94 , P ( A) = ...

Решение (B - все карты разной масти)


масти)
P(A)=1/4 1 способ (с учётом порядка взятия карт)
карт):
P(A)=1/4
n=…
n=…, m = …, P(B)=…
P(B)=…
36 ⋅ 27 ⋅ 18 ⋅ 9
P( B) = 2 способ (без учёта порядка взятия карт)
карт):
36 ⋅ 35 ⋅ 34 ⋅ 33
этим способом здесь труднее

7 7 11 12
Решение (С - среди них два туза,
туза, одна дама и нет червей)
червей) Задача
Эта задача решается проще,
проще, если не учитывать порядок взятия
карт.
карт. Бросили 5 игральных кубиков. Найти
Полезно нарисовать схему вероятность того, что ровно на трёх
выпадут одинаковые числа
Тузы без Дамы без Прочие
червового Черви Решение
червовой карты
3 шт 3 шт
9 шт
21 шт
Всего исходов: n=6·6·6·6·6.
Осталось найти количество благоприятных исходов m..

1) Сначала выбираем повторяющуюся цифру: 6


1 1 способов.
2
карта карта
карты
2) Затем выбираем 3 места, на которых размещена эта
n=C , 4
36
цифра.

m = C 32 ⋅ C 31 ⋅ C 21
1
= 3 ⋅ 3 ⋅ 21, C 53
P ( A) = ...

Задача
В партии из 100 изделий есть 5 бракованных. Найти
Затем выбираем

5⋅4
вероятность того, что из 10 отобранных для контроля цифры на
изделий будет ровно 2 бракованных. оставшиеся 2 места:
Решение. Нарисуйте схему и запишите ответ
Решение.
Таким образом,

C 52 ⋅ C 958 m = 6 ⋅ C 53 ⋅ 5 ⋅ 4
P ( A) = 10
≈ 0, 2015
C100 m 6 ⋅ C 53 ⋅ 5 ⋅ 4
P ( A) = = ≈ 0,154
n 6⋅6⋅6⋅6⋅6

8 8 13 14
Задача
Бросили 4 игральных кубикa. Найти В такой ситуации иногда можно представить
Вероятности событий: Ω и событие A в виде геометрических фигур и
A: выпадет ровно одна пара (например, «5636») найти вероятность P(A) как отношение длин,
B: на всех выпадут разные числа площадей или объёмов.
Пример:
Пример:
Решение площадь( A)
Для события A: 6 ⋅ C 42 ⋅ 5 ⋅ 4 5 P ( A) =
Всего исходов: n=…
P ( A) =
64
=
9 площадь( Ω )
Благоприятных исходов m=...
Ω A
Для события B: 6 ⋅5⋅4 ⋅3 5
P( B) = =
Всего исходов: n=… 64 18
Благоприятных исходов m=...

Задача
Решётка состоит из параллельных прутьев
толщиной 2 см. Расстояние между осями прутьев
Классическая
m равно 10 см. В неё бросили мяч диаметром 4 см.
P ( A) =
вероятность:
Если множество Ω
то Найти вероятность того, что мяч не заденет ни
конечно и n одного прута
элементарные исходы
равновероятны:

• Если множество Ω бесконечно


(n=∞), то эта формула
неприменима!

9 9 15 16
Каково здесь множество Ω? Задача
Его удобно описывать координатами центра мяча. То же самое, но решётка из тонких прутьев с
Точнее, координатой X, так как Y здесь роли не играет. квадратными ячейками 10x10 см. Найти
А так как решётка периодически повторяется с шагом вероятность того, что брошенный мяч не заденет
10, можно считать, что решётку.

0 ≤ X ≤10
Y

A • Каково здесь множество Ω?


2 см 2 см Ω


10 см
1 см
A
(Радиус мяча=2 см)

длина ( A) площадь( A)
P ( A) = =K 10 см P ( A) =
площадь(Ω )
длина ( Ω )

10 10 17 18

Задача
В землю вбито много тонких 25% 25%

колышков в вершинах
квадратной решётки со 20 см
стороной 20 см.
Случайным образом бросают
обруч диаметром 10 см.
Найти вероятность того, 25% 25%

что он наденется на какой-


нибудь колышек
20 см площадь( A)
P ( A) =
площадь( Ω )
2
2

Каково здесь множество Ω? Задача.


Задача.
Ω Танечка и Ванечка договорились встретиться в
Каково здесь следующий раз 1 апреля 2007 года у памятника
множество A? Грибоедову 14 и 15 часами. Но они забыли уточнить
время.
20 см Если каждый из них придёт в случайный момент
времени от 14.00 до 15.00 и будет ждать не более
20 минут, то какова вероятность встречи?
Решение.
Решение.
Обозначим через X момент прихода Танечки
(в минутах), Y – момент прихода Ванечки.
Ясно, что 0 ≤ X ≤ 60, 0 ≤ Y ≤ 60. Как выглядит
20 см множество A, т.е. при каких X, Y они встретятся?

11 11 19 20
 0 ≤ x ≤ 60
Ω: A : | x − y |≤ 20 .
60 0 ≤ y ≤ 60,
Обозначение:
y = x + 20 P(A|B) – вероятность события А при условии, что
A событие B произошло
y = x - 20
20
x Задача.
Задача.
Из колоды 36 карт достали 2 карты.
0 20 60
a)Найти вероятность того, что это две дамы, если
 y ≤ x + 20 известно, что обе карты – красные.
− 20 ≤ x − y ≤ 20, 
 y ≥ x − 20 . b)Найти вероятность того, что обе карты
красные, если известно, что это - дамы.
P = 3600 −1600
3600 = 36
20
= 95 .

Решение:
Решение:
a) Если известно, что обе карты красные, то чёрные карты из
колоды брать нельзя. То есть в колоде как бы только 18
красных карт, и только один способ взять из них двух дам.
Поэтому
P ( A + B ) = P ( A) + P ( B ) − P ( AB ), 1 1
P( A | B) = =
P ( A + B + C ) = P ( A) + P ( B ) + P (C ) − P ( AB ) − P ( AC ) − P ( BC ) + P ( ABC ) C182 153
P ( A + B + C + D ) = ...( напишите самостоятельно ) b) Если известно, что обе карты - дамы, то не дам брать нельзя.
То есть в колоде как бы только 4 карты (все - дамы), и только
Если события попарно несовместны, то AB=Ø и т.п., и один способ взять из них две красные. Поэтому
формулы упрощаются:
1 1
P( A | B) = =
C 42 6
P ( A + B ) = P ( A) + P ( B )
P ( A + B + C ) = P ( A) + P ( B ) + P (C ) P ( AB )
В случае, если P(B)≠0, для нахождения
P( A | B) =
P ( A + B + C + ...) = P ( A) + P ( B ) + P (C ) + ... условной вероятности также можно P(B)
использовать формулу:

12 12 21 22
Задача.
Задача.
События A и B называются независимыми, если
P(A|B)=P(A) В 1-ой урне 6 белых и 4 чёрных шара, во 2-ой – 3 белых и
7 чёрных. Вынимают по одному шару. Найти
Последнее равенство при условии P(B)≠0 можно вероятность того, что они одинакового цвета.
записать в симметричной форме:
Решение.
A и B независимы ↔P(AB)=P(A)P(B) Ai − из i − й урны извлечен белый шар,
Задача.
Задача. Bi − из i − й урны извлечен черный шар.
Кубик бросили 2 раза. Зависимы ли события С − шары одинакого цвета.
A: «в сумме 8 очков», C = A 1 A 2 + B1 B 2 .
B: «не было троек»? P(C) = P(A1 A2 ) + P ( B1 B2 ) = 0,6 ⋅ 0,3 + 0, 4 ⋅ 0,7 = 0,46 .

Решение:
Решение: Задача.
Задача.
P(A)=P(«в сумме 8 очков»)=P({26,35,44,53,62})=… В билете три вопроса из разных тем. Вероятность
ответить на первый вопрос равна 0,8, на второй
P(B)=P(«не было троек»)=… 0,5, на третий – 0,3. Четвёрка ставится, если дан
P(AB)= P(«в сумме 8 очков И не было троек» )=… правильный ответ на два вопроса. Найти
вероятность получить четвёрку.
Сравните P(AB) и P(A)P(B)
Решение
Надо как-то обозначить события.
Событие A (получение четвёрки) состоит из более
«мелких»:
B1-правильно ответить на первый вопрос
B2-правильно ответить на второй вопрос
B3-правильно ответить на третий вопрос

13 13 23 24
Задача
Как A выражается через B1,B2,B3?
Два стрелка по очереди стреляют по мишени.
A= («ответить на первый и второй вопрос») или …
Выигрывает тот, кто раньше попадет. Найти
A = A1 + A2 + A3 Совместны ли события A1,A2,A3? вероятность выигрыша 1-го. Вероятности
A1 = B1 B2 B3 Зависимы ли события B1,B2,B3? попадания для них p1=0,4, p2=0,7.
A2 = B1 B2 B3 Решение
A3 = B1 B2 B3
A – выигрыш первого стрелка
Аi = попадание первого стрелка при его i-м выстреле
P ( A) = ( так как несовместны) = P ( A1 ) + P ( A2 ) + P ( A3 ) Bi = попадание второго стрелка при его i-м выстреле
P ( A1 ) = P ( B1 B2 B3 ) = ( так как независимы) =
A = A1 + A1 B1 A2 + A1 B1 A2 B 2 A3 + K
= P ( B1 ) P ( B2 ) P ( B3 ) = 0,8 ⋅ 0,5 ⋅ (1 − 0,3) = 0, 28
P ( A2 ) = ... P ( A) = 0,4 + 0,6 ⋅ 0,3 ⋅ 0,4 + ( 0,6 ⋅ 0,3) 2 0, 4 + ... =
P ( A3 ) = ... = 0, 4
1− 0 ,18
= 20
41
P ( A) = 0, 28 + ...
3
3

Задача.
Задача.
pi - вероятность того, что
2
i-й путь занят.
1
3 Пусть всё множество элементарных
p1=0,1, p2=0,2, p3=0,3. H1 исходов Ω представлено как
Ω объединение попарно несовместных
Найти вероятность
событий-”гипотез”
беспрепятственного A H1,H2,…Hn:
проезда. Hn
Ω = H1 + H 2 + K + H n ,
Решение. H i H j = Ø для любых i, j
P ( A) = P ( A1 + A2 + A3 ) = 1 − P ( A1 + A2 + A 3 ) = Тогда справедлива “формула полной вероятности”:

n
= 1 − P ( A1 A2 A3 ) = 1 − 0,1 ⋅ 0, 2 ⋅ 0,3 = 0,994 . P ( A) = ∑ P ( H i ) P ( A | H i ).
i =1

14 14 25 26
Задача:
Задача:
Доказательство:
Доказательство:
Из полного набора костей домино достают 2
кости. С какой вероятностью их можно
A = A Ω = A ⋅ ( H 1 + H 2 + ...) = A ⋅ H 1 + A ⋅ H 2 + ... приставить друг к другу?
AH i и AH j несовместны ⇒ Решение.
Решение.
A: вторую кость можно приставить к первой.
P ( A) = P ( AH 1 ) + P ( AH 2 ) + ... = Гипотезы приходится выдвигать из-за того, что
= P ( H 1 ) P ( A | H 1 ) + P ( H 2 ) P ( A | H 2 ) + ... неизвестно, разные или одинаковые числа на
первой кости. Поэтому:
H1: первая кость – дубль;
H2: первая кость – не дубль.

P(H 1 ) = 7
28 , P(H 2 ) = 21
28 ,
P( A | H 1 ) = 6
27 , P( A | H 2 ) = 12
27 .
P ( A) = 7
28 ⋅ 276 + 21
28 ⋅ 12
27 =
7
18 .

Задача:
Задача:
В 1-ой урне 6 белых и 4 чёрных шара. Во 2-ой –
3 белых и 7 чёрных. Из 1-й во 2-ю переложили 1 шар H1 Пусть всё множество элементарных
и после этого из 2-й извлекают 1 шар. Какова Ω исходов Ω представлено как
вероятность того, что он белый? объединение попарно несовместных
A событий-”гипотез”
Решение.
Решение A: извлекли белый шар Hn H1,H2,…Hn:
Гипотезы приходится выдвигать из-за того, что неизвестен цвет
переложенного шара. Поэтому: Ω = H1 + H 2 + K + H n ,
H1: переложили белый шар;
H2: переложили чёрный шар. Тогда справедлива
“формула Байеса”:
H i H j = Ø для любых i, j
P ( H 1 ) = 0,6, P ( H 2 ) = 0, 4, P(H i )P( A | H i )
P ( H i | A) = =
P( A | H1 ) = 4
11 , P( A | H 2 ) = . 3
11
P ( A)
P(H i )P( A | H i )
P ( A) = 106 ⋅ 114 + 104 ⋅ 113 = 18
55 . P ( H 1 ) P ( A | H 1 ) + P ( H 2 ) P ( A | H 2 ) + ...

15 15 27 28
Задача:
Задача:
Задача:
Задача:
Из 1-й урны (6 белых и 4 чёрных шара) переложили В группе из 20 студентов 4 отличника, 8 хороших
во 2-ю (3 белых и 7 чёрных) случайно выбранный студентов, 5 троечников и 3 двоечника. Отличники
шар. После этого из 2-й извлекли 1 шар. Он знают ответы на все 30 экзаменационных вопросов,
оказался белым. Какова вероятность того, что хорошие - знают ответы на 25 вопросов, троечники - на
переложен был тоже белый шар? 15 вопросов, а двоечники - на 5. Вызванный студент
ответил на 3 вопроса и получил «отлично». Какова
вероятность того, что был вызван троечник?
Решение Похоже на формулу полной вероятности…
Решение.
A: извлекли белый шар Решение.
Решение.
Однако здесь не формула полной вероятности, так Опять результат эксперимента известен!
как результат эксперимента известен! A: студент ответил на три вопроса.
Гипотезы:
Требуется же определить вероятность гипотез. H1: был вызван отличник;
H1: переложили белый шар; H2: был вызван хороший студент;
H2: переложили чёрный шар. H3: …
Это – задача на формулу Байеса. H4 : …
Требуется найти P(…что тут?...) Требуется найти P(…что тут?...)

P ( H 1 ) = 0, 2; P( A | H1 ) = 1
A: извлекли белый шар C 253
H1: переложили белый шар; P ( H 2 ) = 0, 4; P( A | H 2 ) = = 0,567
H2: переложили чёрный шар. C 303
P(H1|A)=? C153
P ( H 3 ) = 0, 25; P( A | H 2 ) = = 0,064
C 303
C 53
P ( H 1 ) = 0 ,6 , P ( H 2 ) = 0 , 4 ,
P ( H 4 ) = 0,15; P( A | H 4 ) = = 0,0025
C 303
P( A | H 1 ) = 4
11 , P( A | H 2 ) = 3
11 ,

0 ,6 ⋅
4
11
P ( A) = 0,2 ⋅1 + 0,4 ⋅ 0,567 + 0,25 ⋅ 0,064 +
P ( H 1 | A) =
4
0, 6 ⋅ + 0, 4 ⋅
3
0,15 ⋅ 0,0025 = 0,4432 .
11 11
0,25 ⋅ 0,064
P ( H 3 | A) = ≈ 0,036
0,4432

16 16 29 30
2. Случайные величины

Дискретную случайную величину X


можно задать, указав вероятности
р1 ,р2 ,…,рn …, с которыми она X x1 x2 … xn …
Случайной величиной (СВ) называется числовая величина, которая принимает значения x1 ,x2 ,…,xn.
в процессе наблюдения принимает то или иное значение, заранее Это удобно записать в виде
неизвестное и зависящее от случайных обстоятельств. P p1 p2 … pn …
таблицы
Различают дискретные и непрерывные случайные величины.
(первая строчка – все возможные
Дискретная случайная величина может принимать лишь конечное
или счетное множество значений. значения, вторая – их
Например, число, которое выпадет при бросании игрального кубика, вероятности):
число покупателей, побывавших в магазине в течение дня,
количество аварий на электростанциях в течение года – дискретные
случайные величины. Сумма вероятностей во второй строке, конечно, равна 1:
Случайная величина, которая может принимать любые значения из
некоторого интервала, является непрерывной.
Например, размер экспорта за год, месячное количество осадков,
объём потребления электроэнергии – непрерывные случайные ∑p i = 1.
величины. Для непрерывной случайной величины вероятность того,
что она примет любое конкретное значение, равна нулю. Можно
лишь говорить о вероятности попадания в заданный интервал.

Задача:
Задача:
Бросили два игральных кубика. X – суммарное число
выпавших очков. Составить закон распределения этой
случайной величины (т.е. заполнить таблицу).

Решение.
Решение.
Какие значения может принимать эта случайная величина?
Заполните первую строку таблицы

X …
P …

Теперь надо заполнить вторую строку таблицы. Например,


P(X=4)=P(в сумме выпало 4 очка)=P(13 или 22 или 31)=…
P(X=6)=P(в сумме выпало 6 очков)=…
и т.д.

17 17 31 32
Задача:
Задача:
Ответ:
Ответ:
Из колоды 36 карт достали 6 карт. X – количество пик среди
2 3 4 5 6 7 8 9 10 11 12 них. Составить закон распределения этой случайной
X величины.
1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
P Решение.
Решение.
C 276
Задача:
Задача: P ( X = 0) = ≈ 0,15197 ,
C 366
В шкатулке 3 настоящих монеты и 2 фальшивые. Достают
по одной монете, пока не попадётся фальшивая. X – C 91C 275
P ( X = 1) = ≈ 0,37302,...
количество вынутых монет. Составить закон C 366
распределения этой случайной величины.
Ответ:
Ответ:
Решение.
Решение.
Какие значения может принимать эта случайная величина? 0 1 2 3 4 5 6
Заполните первую строку таблицы.
X
Заполните вторую строку таблицы. 0,15197 0,37302 0,32437 0,12614 0,02270 0,00175 0,00004
Например,
P
P(X=1)=P(уже первая монета - фальшивая)=…

2
P ( X = 1) = P ( ф ) = , Задача:
Задача:
5
3⋅ 2 В лотерее всего 100 билетов. Из них 10 содержат
P ( X = 2) = P (н, ф ) = ,
5⋅4 выигрыш 100 рублей, один – 1000 рублей,
3⋅ 2 ⋅ 2 остальные без выигрыша. Константин купил 2
P ( X = 3) = P ( н , н , ф ) = ,
5⋅4⋅3 билета. X – его выигрыш. Составить закон
P ( X = 4 ) = P ( н , н , н , ф ) = ... распределения этой случайной величины.

Решение.
Решение.
Проверьте, равна ли сумма вероятностей единице? Какие значения может принимать эта случайная
величина?
Заполните первую строку таблицы.
Заполните вторую строку таблицы.
Например,
P(X=0)=P(оба билета без выигрыша)=…
4
4

18 18 33 34
Задача:
Задача:
В задаче про лотерею найти средний выигрыш
Дискретные случайные величины X и Y называются Константина на 2 билета.
независимыми, если для любых a,b:
P(X=a и Y=b)=P(X=a) · P(Y=b) (*) Решение.
Решение.
Воспользуемся таблицей для X из той задачи
Пример.
Пример.
0 100 200 1000 1100
Из колоды 36 карт достали 2 карты. X-количество тузов, Y- X
количество пик среди них. Зависимы ли X и Y? 0,791111 0,179798 0,009091 0,01798 0,00202
Решение:
Решение: P
X принимает 3 значения, Y – тоже 3. Поэтому нужно проверить
9 равенств (*). Рассмотрим, например,
MX = 0·0,791111+100·0,179798+200·0,009091+
P(X=2 и Y=2)=(?)=P(X=2)· P(Y=2)
Верно ли это равенство? + 1000·0,01798+1100·0,00202 = 40 (рублей)
Чему равна левая часть?
Чему равна правая?
Какой ответ?

Для дискретной случайной величины X её математическим 1. Математическое ожидание константы с


ожиданием (или средним значением) называется: равно самой этой константе:
MX=x1p1+ x2p2+… M(c) = c
Если множество {x1, x2, …} значений X конечно, то в этой сумме 2. M(X+Y) = MX+MY
будет конечное число слагаемых, 3. M(c·X) = c·MX
если же множество значений счётно, математическое ожидание
вычисляется как сумма ряда. 4. Если X и Y независимы, то
M(XY) = MX·MY
Пример.
Пример.
Из колоды в 36 достали шесть карт. Сколько в среднем среди
них будет пик?
Здесь X – количество пик среди 6 карт, и требуется найти MX.
Ответ: MX=0·P(0п)+1·P(1п+5др)+2·P(2п+4др)+3·P(3п+3др)+ …≈
Ответ:
≈ 0·0,15197+1·0,37302+2·0,32437+3·0,12614+4·0,02207+5·0,00174+
+6·0,00004=1,5.

19 19 35 36
Дисперсией случайной величины называется 1. Дисперсия константы с равна нулю!
D(c) = 0
математическое ожидание квадрата разности между этой
величиной X и ее математическим ожиданием MX т.е. 2. D(X+c) = DX
DX = M(X–MX)2 = M(X2)-(MX)2 3. D(c·X) = c2·DX
4. Если X и Y независимы, то
Величина σ =√DX называется стандартным отклонением.
D(X+Y) = DX + DY
Она, также как и дисперсия, характеризует меру «разброса»
случайной величины относительно её среднего значения MX.
Задача:
Задача:
Дано: MX=3, DX=5, Y=3X-6. Найти MY,DY.

Решение.
Решение.
MY=M(3X-6)=… DY=D(3x-6)=…

5
5

Пример.
Пример.
-3 -2 1 4
X «Схема Бернулли»
Бернулли»:
0,5 0,1 0, 1 0,3
P Производятся повторные независимые
эксперименты. В каждом эксперименте может
быть либо
MX = ( − 3) ⋅ 0,5 + ( − 2 ) ⋅ 0,1 + 1 ⋅ 0,1 + 4 ⋅ 0,1 = − 0, 4  успех с вероятностью p,
M ( X 2 ) = ( − 3) 2 ⋅ 0,5 + ( − 2 ) 2 ⋅ 0,1 + 12 ⋅ 0,1 + 4 2 ⋅ 0,1 = 9,8 либо
DX = M ( X 2 ) − (MX ) = 9,8 − ( − 0, 4 ) 2 = 9,64
2  неудача с вероятностью q = 1 – p

σ = 9,64 Рассматривается случайная величина


X=количество попыток до первого успеха.
X=количество успеха
Такая величина имеет геометрический закон
распределения.
распределения.
Выпишем его…

20 20 37 38
X 1 (успех 2 (успех со 3 (…) …
сразу) второй X 0 (нет 1 (один 2 (два … N
попытки) успехов) успех) успеха)

P ? ? ? ? P ? ? ? ? ?

1 2 3 … X 0 1 2 … N
X
p q·p q2·p … P qN N·p·qN-1 … pN
P

P ( X = k ) = q k −1 ⋅ p , k = 1,2,... P ( X = k ) = C Nk p k q N − k , k = 0,1,..., N
1 q MX = Np , DX = Npq
MX = , DX = 2
p p

Задача:
Задача:
Проверяются 10 приборов. Вероятность того, что
любой отдельный прибор исправен, равна 0,9.
«Схема Бернулли»
Бернулли»:
Найти вероятности событий:
Производятся повторные независимые
эксперименты. В каждом эксперименте может быть A -- исправны ровно 8 приборов,
либо
B -- исправны не менее 8 приборов,
 успех с вероятностью p,
либо С -- исправен хотя бы один прибор.
 неудача с вероятностью q = 1 – p
Решение:
Решение:

Рассматривается случайная величина P ( X = 8) = C108 0,9 8 0,12 = 45 ⋅ 0,9 8 ⋅ 0,01 ≈ 0,19371 .


X=количество успехов в N экспериментах.
X=количество экспериментах
Такая величина имеет биномиальный закон P ( X ≥ 8) = P ( X = 8) + P ( X = 9 ) + P ( X = 10 ) ≈ 0,92981.
распределения B(N,p)
B(N,p)
Выпишем его… P ( X > 0 ) = 1 − P ( X = 0 ) = 1 − C100 0,110 = 0,9999999999.

21 21 39 40
Замечание.
Замечание. В качестве примера покажем, как получается
Вычисления по формуле Бернулли могут оказаться очень формула для математического ожидания:
громоздкими.
Например, вероятность того, что из 100 бросаний монеты
выпадет ровно 50 гербов, по этой формуле равна ∞
kλk − λ

MX = ∑ k ⋅ P ( X = k ) = ∑ e =
k =0 k!
50 50 k =0
1 1
P ( X = 50) = C     =
50
100 λλ k −1

2 2 =e ∑−λ
= ( замена m = k − 1) =
k =1 ( k − 1)!
100 ⋅ 99 ⋅ ... ⋅ 51 1
= ⋅ ≈? ∞
50 ⋅ 49 ⋅ ... ⋅ 1 2100 = λ e − λ ∑ λm! = λ e − λ e λ = λ .
m

Как это реально вычислить? m =0


Существуют различные приближённые формулы,
формулы которые будут
приведены позже. Одна из них связана с законом Пуассона.
Пуассона Две
другие – формулы Муавра-
Муавра-Лапласа – тоже будут приведены
позже.

Замечание.
Замечание.
Одно из основных приложений закона Пуассона – он
даёт приближённые значения вероятностей
биномиального закона при большом числе испытаний
X 0 1 2 3 4 … и малой вероятности успеха в каждом испытании.
А именно:
P p0 p1 p2 p3 p4 …

λk − λ Пусть в схеме Бернулли N велико, а p мало. Тогда


P ( X = k ) = e , k = 0,1, 2 ...
k! λk − λ
N −k
MX = λ , DX = λ P( X = k ) = C p q k
N
k
≈ e ,
k!
λ = Np
Число λ>0 – параметр закона Пуассона.

22 22 41 42
Задача.
Задача.
Вот как доказывается эта теорема:
В диспетчерскую поступает в среднем 20 заявок в час.
Найти вероятности событий:
λ
lim P ( X = k ) = lim C Nk p k q N − k = ( p = , q = 1 − p) = А: за 15 минут поступит не менее 2-х, но не более 4-х заявок,
N →∞ N →∞ N
В : за 12 минут поступит хотя бы одна заявка.
λ
k
N! N −k
= lim   ⋅ (1 − Nλ ) = Решение:
Решение:
N → ∞ k ! ( N − k )! N
 
λk N ⋅ ( N − 1) ⋅K ⋅ ( N − k + 1) A : λ = 20 ( заявок/час), ∆ t = 14 часа ⇒ λ ⋅ ∆ t = 5.
= lim ⋅ (1 − Nλ ) N − k =
k! N → ∞ Nk P ( A) = P∆t ( 2) + P∆t (3) + P∆t ( 4 ) =
λ k
− − λ ( N −k )
= ( 52 + + ) ⋅ e − 5 ≈ 0,3978.
2
N
53 54
= lim 1 ⋅ (1 − N1 ) ⋅ K ⋅ (1 − kN−1 ) ⋅ lim [(1 − Nλ ) λ ] N
= 6 24
k! N → ∞ N →∞

λk B : λ = 20 ( заявок/час), ∆ t = 15 часа ⇒ λ ⋅ ∆ t = 4
= e −λ .
k! P ( B ) = P∆t ( k ≥ 1) = 1 − P∆t (0) = 1 − e − 4 ≈
= 1 − 0,0183 = 0,9817.

Другое важное приложение –


“Пуассоновский поток событий”
событий”:
Здесь число λ – плотность потока – означает Напомним, что непрерывная случайная величина может
среднее количество событий в единицу принимать любые значения из некоторого
времени. интервала.
Для непрерывной случайной величины вероятность того,
что она примет любое конкретное значение, равна нулю!
P ( k событий за время ∆ t) = Можно лишь говорить о вероятности попадания в
заданный интервал.
( λ ∆ t ) k − λ ∆t Поэтому непрерывную случайную величину нельзя
= P∆t ( k ) = e , k = 0,1, 2,... описать таблицей её значений. Вместо этого применяют
k!
• функцию распределения (обозначается F(x)), либо
• плотность распределения (обозначается f(x)).

23 23 43 44
Замечание
Если случайная величина X – непрерывная, то
P(X=x1)=P(X=x2)=0, так что для непрерывных величин:
F ( x ) = P ( X < x ). P(x1 ≤ X ≤ x2) = P(x1 < X ≤ x2) =
P(x1 < X< x2) = P(x1 ≤ X< x2) =
Свойства F(x)
F(x): = F(x2) – F(x1)

1) 0 ≤ F(x) ≤ 1 В то время как для дискретных верно лишь, что:


2) F(x) – неубывающая функция

3) lim F ( x ) = 0, lim F ( x ) = 1, P(x1 ≤ X< x2) = F(x2) – F(x1)


x → −∞ x → +∞
4) F(x) – ”ступенчатая” для дискретной и
непрерывная для непрерывной
случайной величины X
6
6

А вот как вычисляются вероятности при помощи функции Замечание


распределения: Надо отметить, что функция распределения (в отличие от
Пусть x1 ≤ x2. Обозначим события плотности), имеет смысл и для дискретных случайных величин.
A: X < x1 Рассмотрим пример.
B: X < x2 Пример.
Пример.
Найти функцию распределения для дискретной с.в. X
B X –2 0 1

0,6 0,1 0, 3
A C P
○ ○
x1 x2 Решение.
Решение.
Сначала стоит найти несколько значений “на пробу”.
Тогда F(x1)=P(A), F(x2)=P(B), B=A+C, где
Вычислите, например, F(–1) = P(X < –1) = ?
С: x1 ≤ X< x2.. Поэтому При каких x функция F(x) будет принимать то же значение?

P(x1 ≤ X< x2) = F(x2) – F(x1) А чему равно F(1) = P(…)?


F(0,5) = P(…) =?

24 24 45 46
Свойства плотности распределения f(x)
f(x)
1 x Третье свойство означает, что
F(x) 1. F ( x ) = ∫
−∞
f (t ) dt , полная площадь под графиком
плотности равна 1:
2. f ( x ) ≥ 0 ,
0 при x ≤ − 2 +∞ S=1
0,6 при - 2 < x ≤ 0

3. ∫ f ( x ) dx = 1,
F ( x) =  −∞

0,7 при 0 < x ≤ 1 < < b

 1 4. P ( a X b ) = ∫ f ( x ) dx
при 1 < x ≤ ≤ a

Четвёртое свойство P(a<X<b)


означает, что
-2 -1 0 1 x вероятность равна
площади под графиком a b
плотности:

Задача.
Задача.
Плотность задана графиком. Найти h, написать
выражения для f(x), F(x) и найти P( – 0,5 < X < 0,5 ).

f ( x ) = F ′( x ). f(x) Решение:
По свойству плотности
h S=1, следовательно
Плотность распределения имеет смысл только для h=…
описания непрерывных случайных величин. x
Её свойства легко получить из свойств функции -1 0 1  0 при x < − 1
распределения F(x). 1 + x при − 1 ≤ x < 0

f ( x) = 
Например, из того, что F(x) неубывающая следует, что  1 − x при 0 ≤ x ≤ 1
её производная f(x) неотрицательна.  0 при x > 1

25 25 47 48
f(x)=0 f(x)=1+x f(x)=1-x f(x)=0

-∞ -1 +∞
0 1 Квантиль уровня α : P(X< tα ) = α
x
x ≤ −1 : F ( x ) = ∫ 0dt = 0.
−∞
S=α
f(x)

x −1 x x
(1+ t ) 2
− 1 < x ≤ 0 : F ( x) = ∫ = ∫ + ∫ = ∫ (1 + t ) dt =
−∞ −∞ 1 −1
2 | −x1 = x2
2 + x + 12 ,

x
Медиана:
Медиана medX=t0,5
(1− t ) 2 f(x)
0 < x ≤ 1 : F ( x ) = ... = + ∫ (1 − t ) dt = −
1
2
1
2 2 | =−
x
0
x2
2 +x+ ,1
2
S=0,5
0
x −1 0 1 x
x > 1 : F ( x) = ∫ = ∫ + ∫ + ∫ + ∫ =... = 1
−∞ −∞ −1 0 1
medX

 0 при x < − 1
Математическое ожидание
 x + x + 1 при − 1 ≤ x < 0
2

F ( x) =  2 x2 2

 − 2 + x + 2 при 0 ≤ x ≤ 1
1

 1 при x > 1
MX = ∫ xf ( x )dx
−∞

0,5
P ( − 0,5 < X < 0,5) = ∫ f ( x )dx =
−0 ,5
• ц.т.

0 0 ,5 MX
= ∫ (x + 1)dx + ∫ (1 − x )dx =...
−0 ,5 0

26 26 49 50
Дисперсия
DX = M ( X − MX ) 2 = M X 2 − (MX ) ( ) 2

∞ 1/(B-A) f(x)  0, x< A


M X ( )= ∫ x
2 2
f ( x ) dx  1
f ( x) =  B − A , A ≤ x ≤ B
−∞  0, x>B

1
 0, x<A
MX 1 = MX 2 = a , F(x)  x− A
F ( x) =  B− A , A ≤ x ≤ B
f2(x)
DX 1 > DX 2 .  1,
 x>B
f1(x) A B
a
P (a ≤ X < b) = b−a
B− A
при A ≤ a ≤ b ≤ B.

Задача. Найти MX и DX для


Задача. MX = A+ B
2 ,
распределения из предыдущего примера. B
( x − A +2 B ) 3 B
−1 0 1 ∞ DX = ∫ ( x − A+ B 2 1
) B− A dx = |A =
2
3( B − A )
MX = ∫ 0dx + ∫ x (1 + x ) dx + ∫ x (1 − x ) dx + ∫ 0dx = A

−∞ −1 0 1 ( B − A) 2
= .
= ( x2 + ) | 0−1 + ( x2 − ) |10 = − 12 + 13 + 12 − 13 = 0.
2
x3 2
x3
3 3 12
0 1 Пример. Интервал движения автобуса 20 минут. Найти
Пример.
M ( X ) = ∫ x (1 + x ) dx + ∫ x (1 − x ) dx =
2 2 2 вероятность того, что его придется ждать не менее 5, но не
более 12 минут.
−1 0
12 − 5
= ( x3 + ) | + ( x3 − ) | = 13 − 14 + 13 − 14 = 16 , P (5 ≤ X ≤ 12 ) = = 0,35 .
3 4 0 3 4 1
x x
4 −1 4 0
20
DX = M ( X ) − ( MX ) 2 = 16 .
2
7
7

27 27 51 52
Пример. Имеется простейший пуассоновский поток
Пример.
с плотностью потока λ, Найти закон
λ f(x) распределения времени ожидания Т следующего
 0, x < 0 события.
f ( x ) =  − λx
 λ e , x ≥ 0,
 0, x < 0
F (t ) = P (T < t ) = Pt ( k ≥ 1) = 1 − Pt ( 0) =
F(x) F ( x) =  − λx
1 − e , x ≥ 0. (λ t ) 0 − λt
1
1− e = 1 − e − λt , t > 0.
λ > 0. 0!
0
f (t ) = F ' (t ) = λ e − λ t , t > 0 .
P ( a ≤ X < b ) = e − λa − e − λb при 0 ≤ a ≤ b

+∞ +∞
−λx −λx
MX = λ ∫ xe dx = − xe | + ∫ e − λx dx =

0
Пример. При плотности потока λ=20
Пример.
0 0
заявок в час найти вероятность того, что
= − λ1 e − λx | ∞0 = λ1 . ждать следующую придется не менее 12
мин. (См. предыдущий пример).
+∞ +∞
−λx −λx
MX = λ ∫ x e
2 2
dx = − x e 2
| +∞
+ 2 ∫ xe − λx dx =
P (T ≥ 0,2) = 1 − P (T < 0,2) = 1 − F (0,2 ) =
0
0 0

= 2
λ2
. = 1 − 1 + e − 20⋅0 , 2 = e − 4 = 0,0183
DX = MX 2 − ( MX ) 2 = 2
λ2
− 1
λ2
= 1
λ2
.

28 28 53 54
Замена переменной позволяет
преобразовать выражение для F(x):

( x − m )2
f(x) 1 −
f ( x) = e 2σ 2
2π σ x−m
= t , x = σt + m , dx = σdt , t ∈ ( −∞ , x σ− m )
σ
x−m x−m
σ t2 σ t2
F(x) − −

m
F ( x) = 1
2π σ
−∞
∫e 2
σdt = 1
2π ∫e
−∞
2
dt .
x (t − m )2
1 −
F ( x) = ∫e 2σ 2
dt
2π σ −∞

∞ ( x−m )2 ∞ Функция Лапласа Φ(x)


− − t2
2

MX = 1
2π ∫ xe
−∞
2σ 2
dx = 1
2π ∫ (σt + m )e
−∞
dt =
1
x 2
−t
∞ 2
− t2
∞ 2
− t2
Φ ( x) =
2π ∫ e 2 dt.
−∞
Свойство: Φ(–x)=1–Φ(x)

= σ
2π ∫ te
−∞
dt + m

−∞
∫e dt = m.
x 0 0.1 0.2 0.3 0.4 0.5
Ф(x) 0.5 05398 0.5793 0.6179 0.6554 0.6915
∞ ( x−m )2 ∞
− 2
− t2
DX = ∫ ( x − m) dx = ∫σ dt =
1 2 2σ 2 1 2 2 x 0.6 0.7 0.8 0.9 1.0 1.1

e 2π
t e Ф(x) 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643
−∞ −∞
x 1.2 1.3 1.4 1.5 1.6 1.7

− t2 u =t2 du = dt2 Ф(x) 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554
σ2
2π ∫ tte
−∞
2
dt =
dv = te
− t2
dt v = − e
− t2 = x 1.8 1.9 2.0 2.2 2.4 2.6
Ф(x) 0.9641 0.9713 0.9772 0.9861 0.9918 0.9953
2 ∞ 2
− t2 − t2
dt = σ 2 .
x 2.8 3.0 3.4 3.6 3.8 4

− σ2

te | −∞ + σ2

−∞
∫e Ф(x) 0.9974 0.9984 0.9997 0.9998 0.9999 ≈1

29 29 55 56
P ( a ≤ X < b ) = Φ ( b σ− m ) − Φ ( a σ− m )
Чебышева). Если
Теорема (первое неравенство Чебышева).
случайная величина X неотрицательна и существует
f(x) MX, то для любого ε>0 верно неравенство

P(X ≥ ε ) ≤
MX
a b ε

Доказательство. Рассмотрим только случай


Доказательство.
Важное замечание.
замечание. непрерывной с.в. X.
В литературе встречается также другая функция Лапласа:
∞ ∞
Она связана с “нашей” формулой
1
x 2
− t2
MX = ∫ x ⋅ f ( x )dx = (так как X ≥ 0) = ∫ x ⋅ f ( x) dx ≥
Φ ( x) =
2π ∫e dt .
Φ”наша”(x)=Φ”другая”(x)+0,5
−∞
∞ ∞
0

0 ≥ ∫ x ⋅ f ( x ) dx ≥ ∫ ε ⋅ f ( x ) dx = ε ⋅ P ( X ≥ ε )
ε ε

Пример:
Пример: Систематическая ошибка измерения a=5 ед., а Следствие(
Следствие(второе неравенство Чебышева).
Чебышева).
среднеквадратическая σ=20 ед. Найти вероятность того, что
ошибка измерения по модулю не превзойдет 10 ед. Если для случайной величины X существуют
MX и DX, то для любого ε>0 верно неравенство
P (| X |≤ 10 ) = P ( − 10 ≤ X ≤ 10 ) =
= Φ ( 1020− 5 ) − Φ ( −1020− 5 ) = Φ ( 205 ) − Φ ( −2015 ) = P ( X − MX ≥ ε ) ≤
DX
ε2
= Φ ( ) − 1 + Φ ( ) = 0,3021 .
5
20
15
20 Доказательство.
Доказательство. Применим предыдущее неравенство к
Правило “трёх сигм”
сигм”. случайной величине Y=|X – MX|.

(
P (Y ≥ ε ) = P ( X − MX ≥ ε ) = P ( X − MX ) ≥ ε 2 ≤
2
)
P ( m − 3σ ≤ X ≤ m + 3σ ) = Φ (3) − Φ ( − 3) =

(
M ( X − MX )
2
) = DX
= Φ (3) − 1 + Φ (3) = 2 ⋅ 0,9984 − 1 = 0,9968 . ε 2
ε2

8
8

30 30 57 58
Пример.
Пример.

σ2
P (| X − MX |≥ 3σ ) ≤
DX 1 Теорема. Если выполнены условия
Теорема.
= = . 1. Случайные величины X1, X2, X3, … попарно независимы;
9σ 2 9σ 2 9 2. DXi<C для любого i,
то последовательность их средних арифметических сходится
( ср. с нормальным законом ). среднему арифметическому их математических ожиданий:

1 n P 1 n
∑ i n→ ∞ n ∑1 MX i
n 1
X →

Замечание. Эта теорема подсказывает путь


1 n P
“экспериментального”, статистического
определения MX. Пусть X – некоторая ∑
n 1
X i → MX
n→∞
случайная величина. Измерим её n раз, пусть
Xi – результат i-го измерения. Тогда

В частности, имеет место следующая теорема:

Бернулли. Частота успехов в n испытаниях


Теорема Бернулли.
Определение. Последовательность случайных величин
Определение. в схеме Бернулли сходится по вероятности к
X1, X2, X3, … называется сходящейся к случайной вероятности успеха в одном испытании:
величине X по вероятности при n→∞, если для любого
ε>0 X 1 + X 2 + ... + X n P
lim P ( X n − X ≥ ε ) = 0. ν= → p
n→ ∞
n n→∞

Обозначается это так: Например, если n раз подбросить кубик, n→∞, то


количество выпадений шестёрки будет
P стремиться к n/6 по вероятности.
Xn → X
n→∞

31 31 59 60
Пусть есть последовательность попарно независимых одинаково Пусть X – число успехов в N независимых
распределённых случайных величин { Xi }, (i =1,2,…) … Так как они
одинаково распределены, то у всех одинаковые математическое
испытаниях в схеме Бернулли, p – вероятность
ожидание =m и дисперсия = σ2.Обозначим успеха в одном испытании. Тогда X распределена по
биномиальному закону и
X 1 + X 2 + ... + X n
Xn =
n P ( X = k ) = C Nk p k q N − k , k = 0,1,..., N

Вычислим
Ранее уже отмечалось, что вычисления по этой
формуле при больших k и N затруднительны и нужны
M ( X 1 + ... + X n ) = (MX 1 + ... + MX n ) =
1 1 nm
MX n = =m приближённые формулы. Формулы Муавра-Лапласа
n n n
основаны на использовании нормального закона
nσ 2 σ 2
D X n = 2 D ( X 1 + ... + X n ) = 2 (DX 1 + DX 2 + ... + DX n ) = 2 =
1 1
n n n n

Xn −m
Обозначим Yn = . Локальная теорема Муавра- Лапласа. При
Муавра-Лапласа.
σ n
достаточно больших значениях Npq
Тогда
Xn −m n −
x m2
m − Np
P(X N = m ) ≈
MYn = 0, DYn = D = 2 DX n = 1 1
σ n σ e 2
, xm =
2π ⋅ Npq Npq
теорема. В указанных
Центральная предельная теорема.
обозначениях при любом x
x t2
− Интегральная теорема Муавра- Лапласа. При
Муавра-Лапласа.
lim Fn ( x ) = Φ ( x ) =
1
n→ ∞ 2π ∫e
−∞
2
dt . достаточно больших значениях Npq

где Fn(x) – функция распределения Yn. ( )


P (m1 ≤ X N < m 2 ) ≈ Φ x m 2 − Φ x m1 ( )
Говоря несколько упрощённо, эта теорема утверждает, что
закон распределения средних арифметических при большом
числе слагаемых “стремится” к нормальному закону !

32 32 61 62
3. Двумерные случайные величины
Задача. В страховой компании застраховано 10000
Задача.
автомобилей. Вероятность аварии для
автомобиля равна примерно p=0,006. Каждый
владелец застрахованного автомобиля платит в
год 4000 рублей страховых, и получает в случае Таблица совместного распределения двух
аварии 500000 рублей. Найти вероятность того,
что по истечении года страховая компания случайных величин.
величин.
окажется в убытке. pij = P ( X = xi ; Y = y j ).
Y y1 y2 ... yn
X
Решение. Обозначим через X количество аварий за
Решение.
год. Компания окажется в убытке, если X > … (?) x1 p11 p12 ... p1n ∑p
i, j
ij =1

x2 p21 p22 ... p2n


P ( X > 80 ) = P (80 < X N ≤ 10000 ) ≈ ... ... ... ... ...
≈ Φ ( x10000 ) − Φ ( x80 )
xm pm1 pm2 ... pmn

10000 − 10000 ⋅ 0,006


x10000 = ≈ 1287
10000 ⋅ 0,006 ⋅ 0,994
80 − 10000 ⋅ 0,006
x80 = ≈ 2,6
10000 ⋅ 0,006 ⋅ 0,994
Φ (1287 ) ≈ 1, Φ (2,6 ) ≈ 0,9953

Итак, вероятность убытка примерно равна


1–0,9953=0,0047.

9
9

33 33 63 64
Задача. Кубик бросили 2 раза. X – количество троек, Y –
Задача. Задача. Дана таблица распределения двух случайных
Задача.
наименьшее из выпавших чисел. Заполнить таблицу и найти по величин. Зависимы ли эти случайные величины?
ней P(2X>Y), MX, MY.
X\Y 10 20 30 Напоминание:
Решение.
Решение. Дискретные случайные величины
X и Y называются независимыми,
-1 0,3 0,1 0,1 если
Y 1 2 3 4 5 6 Для любых a и b:
X 2 0,1 0,1 0 P(X=a и Y=b)=P(X=a) · P(Y=b)
0
5 0,2 0 0,1
1
2 Решение.
Решение. Будем проверять для каждой клетки (всего 9
равенств, до первого неверного).
1)P(X= –1 и Y=10) =?= P(X= –1) · P(Y=10)
P(X=0 и Y=5)=P(“нет троек и наименьшее=5”) = …
0,3=?=0,5 · 0,6 верно.
P(X=1 и Y=2)=P(“одна тройка и наименьшее =2”) = … 2) P(X= –1 и Y=20) …

X\Y 1 2 3 4 5 6
0 9/36 7/36 0 5/36 3/36 1/36

1 2/36 2/36 6/36 0 0 0 cov(X,Y) = M(XY) – MX·MY


2 0 0 1/36 0 0 0 X\Y 1 6
Задача. Дана таблица распределения
Задача.
двух случайных величин. Вычислить -2 0,3 0,1
MX = 0·P(X=0)+1·P(X=1)+…=0·… коэффициент ковариации
1 0,2 0,4
MY = 1·P(Y=0)+…=
Решение.
Решение. 1)MX= –2·0,4+1·0,6= –0,2
X\Y 1 2 3 4 5 6
2)MY=…
P(2X>Y) = … 0 9/36 7/36 0 5/36 3/36 1/36
3) M(XY)=(каждый X на каждый Y)= (–2)·1·0,3+ (–2)·6·0,1+…=
1 2/36 2/36 6/36 0 0 0 4)cov(X,Y)=M(XY) – MX· MY=…
2 0 0 1/36 0 0 0

34 34 65 66
Свойства коэффициента ковариации Свойства коэффициента корреляции
1. Если X и Y независимы, то • -1 ≤ rXY ≤ 1
cov(X,Y)=M(XY)-MX·MY=0 • Если X и Y независимы, то rXY=0
2. D(X+Y) = DX+DY+2·cov(X,Y) • Чем ближе rXY по модулю к 1, тем сильнее
3. В частности, если X и Y независимы, то линейная зависимость между X и Y
D(X+Y)=DX+DY • Знак rXY совпадает со знаком этой зависимости.

Доказательство второго свойства: Вопрос. X – рост человека, Y – его вес. Какой знак имеет
Вопрос.
D(X+Y)=M((X+Y)2)–(M(X+Y))2= коэффициент корреляции между X и Y? Близок ли он по
=M(X2 + 2XY + Y2) – ((MX)2 + 2MXMY + (MY)2)= модулю к единице или к нулю?
=M(X2) – (MX)2 + M(Y2) – (MY)2 + 2M(XY) – 2MXMY
Вопрос. Из колоды 36 карт достали 6 карт. X – количество
Вопрос.
треф среди них, Y – количество пик среди них. Какой знак
имеет коэффициент корреляции между X и Y? Близок ли он по
модулю к единице или к нулю?

Если коэффициент корреляции по модулю достаточно близок


cov( X , Y ) M ( XY ) − MX ⋅ MY
rXY = = к единице, можно попробовать построить линейную
DX ⋅ DY DX ⋅ DY зависимость между X и Y в явном виде.
X\Y 1 6
Можно искать зависимость в виде
Задача. Дана таблица распределения
Задача. -2 0,3 0,1 Y=b0+b1X либо X=c0+c1Y.
двух случайных величин. Вычислить Полученные прямые называются линиями регрессии
коэффициент корреляции 1 0,2 0,4
соответственно Y на X и X на Y

Решение.
Решение. Формулы для линий регрессии имеют следующий вид:

MX= – 0,2; MY=3,5; cov(X,Y)=… cov( XY )


b1 = ; b0 = MY − b1 ⋅ MX
M(X2)=… DX=M(X2)-(MX)2=… DX
M(Y2)=… cov( XY )
DY=… c1 = ; c0 = MX − c1 ⋅ MY
rXY= DY

35 35 67 68
Задача. Дана таблица
Задача. X\Y 1 5
распределения двух случайных 0 0,3 0,1
величин. Найти уравнение для
линии регрессии Y на X 2 0,2 0,4 Одномерная Двумерная
непрерывная с.в. непрерывная с.в.
Решение.
Решение. Задаётся плотностью Задаётся плотностью
MX=… MY=… распределения f(x) распределения f(x,y)
M(XY)=… cov(X,Y)=…
+∞
M(X2)=… DX=M(X2) - (MX)2=…
∫ f(x)dx = 1
−∞
∫∫ f(x,y)dxdy = 1
b1=… b0=… по всей плоскости
b
Уравнение: P ( a ≤ X ≤ b ) = ∫ f(x)dx P((X,Y) ∈ A) = ∫∫ f(x,y)dxdy
a A

Пример. Равномерный закон в области D.


Пример.

 0 вне D
Задача. Дана таблица
Задача. X\Y 0 3  1
распределения двух случайных f ( x, y ) = 
величин. Найти условные 1 0,2 0,1 внутри D
математические ожидания 2 0,1 0,2  S(D)
M(X | Y=0), M(X | Y=3), M(Y | X ≥ 2) 4 0,3 0,1

Решение.
Решение.
1 ⋅ 0, 2 + 2 ⋅ 0,1 + 4 ⋅ 0,3 1 ⋅ 0,2 + 2 ⋅ 0,1 + 4 ⋅ 0,3
D
M ( X | Y = 0) = = = ...
P (Y = 0) 0,2 + 0,1 + 0,3
1 ⋅ 0,1 + ...
M ( X | Y = 3) = = ...
P (Y = 3)
...
M (Y | X ≥ 2 ) =
... 10
10

36 36 69 70
Пример. Двумерный нормальный закон.
Пример. Условные математические ожидания

+∞

( x − m X )2 + ( y − mY )2 ( x − m X )( y − mY )
∫ x ⋅ f ( x, b )dx
− 2⋅r ⋅ M ( X | Y = b) = −∞
+∞
σ X2 σ Y2 σ XσY

1 (
2 ⋅ 1− r ) ∫ f ( x, b )dx
f ( x, y ) =
2
e −∞

2πσ X σ Y 1 − r 2 M (Y | X = a ) = ...

∫∫ x ⋅ f ( x, y ) dxdy
M ( X | (X,Y) ∈ A) = A
P((X,Y) ∈ A)
M (Y | (X,Y) ∈ A) = ...

Математическое ожидание, дисперсия, Задача.


Задача.
коэффициент ковариации Найти с, P(Y>2X), M(Y | X=2)
 0 вне D
f ( x, y ) = 
MX = ∫∫ x ⋅ f(x,y)dxdy
по всей плоскости c ( x + 2 y ) внутри D
MY = ∫∫ y ⋅ f(x,y)dxdy
по всей плоскости
Решение.
Решение.
( )
DX = M X 2 − (MX ) ; M X 2 =
2
( ) ∫∫ x
2
⋅ f(x,y)dxdy; 3
1 = ∫∫ f ( x , y ) dxdy =
по всей плоскости

( )
X+Y=3
DY = M Y 2 − (MY ) = ∫∫ K + ∫∫K =
2

D
cov (X,Y) = M ( XY ) − MX ⋅ MY; M ( XY ) = ∫∫ xy ⋅ f(x,y)dxdy; D ост
по всей плоскости
3 = ∫∫ с(x + 2 y)dxdy = K
D

37 37 71 72
3 3− x
+∞
= c ∫ dx ∫ dy ( x + 2 y ) = ...
0 0
∫ y ⋅ f (2, y )dy
X=2 M (Y | X = 2) = −∞
+∞
= ...

3 -x
∫ f ( 2, y ) dy
( )
3 3 −∞

= c ∫ dx(xy + y 2 ) = c ∫ dx 3 x − x 2 + ( x − 3) = ...
2
3 1
2
27 ∫0
y ⋅ ( 2 + 2 y ) dy
0 0 0

D = 1
= ...
2
27 ∫0
 3 x 2 x 3 (x − 3)3 
3
( 2 + 2 y ) dy
 = c ⋅  − 9 + 9  = c ⋅
27 27
= c ⋅  − + 
3
 2 3 3 
0
 2  2
2
c=
27
11
11

P (Y > 2 X ) = ∫∫ f ( x, y ) dxdy = ...


{Y > 2 X }
Y=2x

Y>2X 1 3− x
dx dy ( x + 2 y ) =
2
27 ∫0 2∫x
=
3
Y<2x 1
2 3− x

27 ∫0
= dx ( xy + y 2 ) = ...
2x

38 38 73 74
4. Марковские цепи с конечным мно-  p11 p12 ... p1 n  Матрица
 
жеством состояний и дискретным p
P =  21
p 22 ... p2n  переходных
... ... ... ...  вероятностей за
 
временем p
 n1 pn2 ... p nn 
1 шаг

1
Задача
Выписать матрицу E1 0,4 E2
переходных вероятностей
для марковской цепи, 0,1 0,6
заданной графом: E3 0,7

 Цепь в каждый момент времени  0 1 0 


Описание   0,2
может находиться только в марковской P =  0 , 4 0 0 ,6 
одном из состояний E1,E2,…,En. цепи с  0,1 0,7 0, 2 
 
 Переходы из одного состояния в дискретным Сумма чисел в
другое могут происходить временем Свойство матрицы любой строке
только в моменты времени переходных вероятностей:
вероятностей: равна 1
t=1,2,3
t=1,2,3…

 Если система в момент времени
t находится в состоянии Ei, то Задача
вероятность оказаться в
Алиса и Боб играют матч в настольный теннис. Ставка
состоянии Ej в момент времени
t+1 не зависит от t и равна pij в каждой партии 10 пенсов. В начале у Алисы есть 30
пенсов, у Боба – 20 пенсов. Вероятность выигрыша
партии для Боба равна 0,6, ничьих нет.
Нарисовать граф для этой марковской цепи.

Решение. Сколько всего состояний и какие?


Решение.

0 10 20 30 40 50

0,6 0,6 0,6 0,6

0 10 20 30 40 50
1
1 0,4 0,4 0,4 0,4

39 39 75 76
Задача 0,6
1 Задача
Сейчас цепь находится в Сейчас система находится в 0,4
E2
состоянии E3. Найти E1 0,4 E2
состоянии E2. Найти самое E1
вероятность оказаться в E1 вероятное состояние через 4 1
через три шага. 0,1 0,6 шага.
E3 0,7
Решение Решение
P31(3 шага) = 0,2 · 0,7 · 0,4 + …
0,2 P ( 4) = P 4 = P 2 ⋅ P 2
Ответ.
Ответ. P31(3 шага) = 0,2 · 0,7 · 0,4 +  0, 4 0, 6   0, 4 0, 6   0,76 0, 24 
+ 0,2 · 0,2 · 0,1 + 0,1 · 1 · 0,4 + P 2 =   ⋅   = ... =  
+ 0,7 ·0,6 · 0,1 = 0,142  1 0   1 0   0, 4 0, 6 

Теорема.
Теорема.  0,76 0, 24   0,76 0,24   0,674 0,326 
P(m) = Pm = P·P·…·P P 4 =   ⋅   =  
Матрица переходных  0, 4 0,6   0, 4 0,6   0,544 0,456 
вероятностей за m шагов
находится по формуле Ответ.
Ответ. Самое вероятное состояние – E1.

Задача Решение Вектор


Найти матрицу P (3) = P 3 = P 2 ⋅ P
q = (q1 , q 2 , ..., q n ) вероятностей
состояний
переходных
вероятностей за 3
шага
 0 1 0   0 1 0 
    Свойство вектора
P = P ⋅ P =  0, 4 0 0,6  ⋅  0,4 0 0,6  = ...
2
Сумма всех qj равна 1
 0,1 0,7 0, 2   0,1 0,7 0,2  вероятностей состояний:
состояний:
   

 0, 4 0 0 ,6 
 
P =  0,06 0,82 0,12 
2

 0,3 0, 24 0, 46  Теорема. Вектор вероятностей состояний


Теорема.
 
через m шагов находится по формуле
 0, 4 0 0, 6   0 1 0   0,06 0,82 0,12 
     
P 3 = P 2 ⋅ P =  0,06 0,82 0,12  ⋅  0,4 0 0,6  = ... =  0,34 0,144 0,516  q(m) =q · Pm
 0,3 0, 24 0, 46   0,1 0,7 0, 2   0,142 0,622 0,236 
     

40 40 77 78
1
Задача Пример.
Пример. 0,5
0,4 E2
Сейчас все состояния E1 Рассмотрим эту цепь Маркова. 0,5
E2
равновероятны. Найти Пусть q(0)=(0;1). Тогда E1
самое вероятное 0,1 0,6
q(0)=(0;1) Пусть теперь 1
состояние через 3 E3 0,7
шага. q(1)=(1;0) q(0)=(1;0). Тогда
q(2)=(1/2;1/2) Пусть теперь
0,2
q(3)=(3/4;1/4) q(1)=(1/2;1/2) q(0)=(2/5;3/5).
Решение.
Решение. Тогда
q(4)=(5/8;3/8) q(2)=(3/4;1/4)
q(0)=(1/3;1/3;1/3), q(3)=? q(3)=(5/8;3/8)
… q(1)=(4/5;1/5)
… q(2)=(3/5;2/5)
 0,06 0,82 0,12 
1 1  
q (3 шага ) = q (0 ) ⋅ P = 
1 q(3)=(7/10;3/10)
 ⋅  0,34 0,144 0,516  =
3

3 3 3   Есть ли
Есть ли

 0,142 0,622 0, 236  предел?
предел?
предел?
предел? q(∞)=(2/3;1/3)
q (3 шага ) = (0,181 0,528 0,291)
q(∞)=(2/3;1/3) q(∞)=(2/3;1/3)
12
12

1
Пример.
Пример.
Рассмотрим эту цепь Маркова. E1 E2
Пусть q(0)=(0;1). Тогда
Наибольший интерес обычно представляет поведение 1
марковской цепи за большое количество шагов. Это q(0)=(0;1), q(1)=(1;0), q(2)=(0;1), q(3)=(1;0), …
требует возведения матриц в высокие степени, что Предел не существует.
существует. Цепь не эргодична.
эргодична.
сложно.
Но есть цепи, для которых ситуация при большом числе Пример.
Пример. 1/2 1/2
E1 E2 E3
шагов напротив, упрощается. Рассмотрим эту цепь Маркова.
Марковская цепь с дискретным временем Пусть q(0)=(1;0;0). Тогда
1 1
называется эргодической (или q(1)=(1;0;0) Пусть теперь
регулярной),
регулярной), если:
если: q(2)=(1;0;0) q(0)=(0;0;1).
 Для любого начального вектора q(0) … Тогда
существует предел
q(∞)=(1;0;0) q(∞)=(0;0;1)
lim q (n ) = q ∗
n→ ∞
Предел зависит от q(0),
q(0) так что цепь не
Это предел не зависит от q(0) эргодична

41 41 79 80
Пример (Алиса и Боб)
Задача.
Задача. E1 E5
0,6 0,6 0,6 0,6 Какие состояния
существенны? E2
0 10 20 30 40 50
1
1 0,4 0,4 0,4 0,4 E4
A теперь?
теперь? E3
Начальное
q(0)=(0;0;1;0;0;0), P=(…). количество
денег у Боба
q(1)= q(0)·P ≈ (0; 0,4; 0; 0,6; 0; 0)

q(3)= q(0)·P3 ≈ (0,16; 0,19; 0; 0,43; 0; 0,36)

q(10)= q(0)·P10 ≈ (0,33; 0; 0,07; 0; 0,07; 0,53) Если бы было


q(0)=(0;1;0;0;0;0), Теорема. Если состояние Ej несущественно, то
Теорема.
q(0)·P30 ≈ то
lim q (n ) = 0
q(30)= (0,36; 0; 0; 0; 0; 0,64)
q(∞)= j
(0,62; 0;0;0;0; 0,38) n→∞
q(∞) ≈ q(30)

Важную роль играют E1


длины циклических путей E2
в графе
Прежде чем сформулировать признак эргодичности,
Задача. Циклы какой длины
Задача. E4
введём несколько понятий
есть в данном графе? E3

Состояние Ej марковской цепи Ответ.


Ответ. 1,2,3,4,…
называется существенным,
существенным, если куда бы
мы ни ушли из него,
него, всегда есть эргодичности). Марковская цепь c
Теорема (признак эргодичности).
возможность вернуться.
вернуться. дискретным временем эргодична в том и только в том
случае, если
1) Из любого существенного состояния можно добраться
E2 E5
Задача.
Задача. до любого другого существенного
Какие состояния E1 и
существенны? 2) наименьший общий делитель длин всех циклических
путей по существенным состояниям равен 1
E4
A теперь?
теперь? E3
Вопрос. Эргодична ли цепь из предыдущего примера?
Вопрос.

42 42 81 82
Задача 1
0,4
Эргодична ли эта E4
E1 0,4 E2
марковская цепь?
0,6 Если цепь эргодична, то для любого начального
0,1
0,6 вектора q(0) существует (одно и то же) финальное
Решение.
Решение.
E3 0,9
распределение вероятностей q*=q(∞):
q ∗ = lim q (n )
1) Существенные
состояния E1, E2, E3 n→∞
2) Из любого существенного есть путь до Как его найти?
найти?
любого существенного
Теорема. Если цепь эргодична, то q* находится,
Теорема.
3) Длины циклов по существенным как (единственное) решение системы уравнений
состояниям: 2,3.
НОД(2,3)=1. q ∗ ⋅P = q ∗

Следовательно, цепь эргодична  ∑ qj∗ =1

Задача (Алиса и Боб). Задача. Дана марковская цепь.


Задача. 1
Проверить эргодичность при помощи признака. a) Эргодична ли эта цепь?
b) Если да, то найти финальное E1 0,5 E2
распределение вероятностей.
Решение.
Решение. 1 0,5
Решение.
Решение. E3
0,6 0,6 0,6 0,6

0 10 20 30 40 50 a) Существенные состояния – все.


1
1 0,4 0,4 0,4 0,4 Из любого существенного есть путь
до любого существенного
Какие состояния существенные? Следовательно,
Длины циклов по существенным
цепь эргодична
состояниям: 2,3.
Выполнены ли условия 1) и 2) теоремы? НОД(2,3)=1.

43 43 83 84
1 0,3
 0,6 0,3 0,1 
б) Матрица переходных  
вероятностей за 1 шаг: 0,5 E2
P =  0,5 0 0,5  E1 0,4 E2
E1
 0 1 0  0,6
 0 1 0  
  0,1 0,7
P =  0,5 0 0,5  1 0,5
 1 0 0    0,6 0,3 0,1  E3 1
  E3  
 q ∗ ⋅P = q ∗ 
(q1 q 2 q 3 ) ⋅  0,5 0 0,5  = (q1 q2 q3 )
Система уравнений:  
 ∑qj∗ =1
 0 0 
  1
q1 + q 2 + q 3 = 1
  0 1 0   − 0, 4 0,5 0 0
   
  0,3 − 1 1
(q1 q 2 q 3 ) ⋅  0,5 0 0,5  = (q1 q2 q3 ) 0
→ ...
0,6 q1 + 0,5 q 2 = q1  0,1 0,5 − 1
  1 0 0   0,3q + q
Метод Гаусса:
Гаусса: 0
   = q2  
  1 1 
q1 + q 2 + q 3 = 1 
1 3
 1 1
 0 ,1q + 0 ,5 q = q3
 0,5q 2 + q 3 = q1
1 2

 q1 = q 2
Ответ:
Ответ:  q1 + q 2 + q 3 =1 q∗ ≈ (0, 435, 0,348, 0, 217 )
q∗ = (..., ..., ..., )


 0,5 q 2 = q 3
q1 + q 2 + q 3 = 1
Ответ: Василий спит в среднем 10 часов 26 минут в
Ответ:
13
13
день

Задача. Кот Василий бывает в одном из трёх состояний:


Задача.
Спит (1), Ест (2), Гуляет (3). Изменение состояния может 5. Марковские цепи с конечным мно-
происходить примерно раз в час. Вероятности перехода:
P11=0,6, P12=0,3, P21=0,5, P23=0,5, P32=1. жеством состояний и непрерывным
Сколько в среднем часов в день Василий спит? временем
Решение. 1) Составьте граф этой цепи.
Решение.
2) Проверьте на эргодичность. 0,3

E1 0,5 E2
3) Нас интересует поведение “в
0,6
среднем”, то есть распределение
0,1 0,5
вероятностей состояний за
большой период времени. E3 1
Другими словами, нужно найти q*
Выпишите систему уравнений
для нахождения q*.

44 44 85 86
Задача
Имеется 4 локомотива и 2 ремонтные бригады.
Интенсивность поломок каждого локомотива примерно
1 раз в неделю. В случае поломки локомотив
 Цепь в каждый момент времени ремонтируется одной бригадой. Среднее время
может находиться только в
одном из состояний E1,E2,…,En.
ремонта 5 дней. Нарисовать граф для этой марковской
Описание
 Переходы из одного состояния в марковской цепи.
другое могут происходить в цепи с
произвольные моменты непрерывным Решение. Сколько всего состояний и какие?
Решение.
времени t временем
 Если система в момент времени 0 1 2 3 4
t0 находится в состоянии Ei, то
вероятность оказаться в
состоянии Ej в момент времени 4/7 3/7 2/7 1/7
t0+t не зависит от t0 и равна pij(t)
(t)
 Функция pij(t) 0 1 2 3 4
(t) дифференцируема
при t=0: pij/(0)=a
(0)=aij.
1/5 2/5 2/5 2/5

Числа aij при i≠j называются интенсивностями


перехода из Ei в Ej

Свойства матрицы интенсивностей:


интенсивностей:
q = (q1 , q 2 , ..., q n )
1) ∑p ij =1⇒ ∑a ij =0 Число bi= – aii Вектор
j j
называется вероятностей
интенсивностью состояний
2) a ij ≥ 0 при i ≠ j
выхода из Ei
3) a ii ≤ 0
5 Свойство вектора Сумма всех qj равна 1
Задача. Выписать матрицу
Задача. вероятностей состояний:
состояний:
интенсивностей для E1 2 E2
марковской цепи. (Петли не
рисуются!) 4 0,5 Теорема. Вектор вероятностей состояний q=q(t)
Теорема.
удовлетворяет система уравнений Колмогорова
E3 1
− 9 5 4 
  q′ = q ⋅ A
Ответ.
Ответ. A =  2 − 2,5 0,5 
 0 1 − 1 

45 45 87 88
1 3)Если в каком-то уравнении осталась
Задача  q ′ = 1 − 2 q
Сейчас система находится в E1 или  ′
1 1 одна неизвестная, решаем его. Если
1 E2
E1 q 3 = 1 − q1 − 4 q 3 нет, то выражаем из одного уравнения
E2 с равной вероятностью.
равновероятны. Найти самое неизвестную и подставляем в другое.
1 1
вероятное состояние в момент
E3
времени t=10. 2
y′ = 1 − 2 y ⇒ y′ + 2 y = 1 линейное
неоднородное
Решение.
Решение. 1) λ + 2 = 0 ⇒ λ = −2 ⇒ y 00 = Ce −2 t
уравнение с
1 постоянными
q(0)=(0,5; 0,5; 0), q(10)=? −1 1 0  2) y част = A ⇒ A ′ + 2A = 1 ⇒ A = коэффициентами
  2
A = 1 −2 1 
Матрица интенсивностей: 1
 1 2 − 3  3) q1 = y 00 + y част = + Ce − 2 t
 2  q1 (0 ) = 0,5

Уравнения Колмогорова: 1 q 2 (0 ) = 0,5
C = 0 ⇒ q1 =  q (0 ) = 0
−1 1 0  2 1  3
′ ′ ′   q1 =
q ′ = q ⋅ A ⇒  q1 , q 2 , q 3  = (q1 , q 2 , q 3 ) ⋅  1 − 2 1  ⇒ ... 2
   1
 2 − 3  4) Подставляем в
′ 1
оставшееся уравнение q3 = 1 − − 4q3
2

1
 q ′ = −q + q + q И ещё… y′ + 4 y = 1) y ′ + 4 y = 0
2
 1′ 1 2 3

 q 2 = q1 − 2 q 2 + 2 q 3 λ + 4 = 0 ⇒ λ = −4 ⇒ y 00 = C 1 e − 4 t
 q1 (0 ) = 0,5
Добавляется
 ′ всегда!
всегда!
 1
 q 3 = q 2 − 3q 3 q 2 (0 ) = 0,5 2) y ′ + 4 y =
 1= q +q +q  q (0 ) = 0 2 1 шаг
 1 2 3
 3 y част = A 1 2 шаг

Далее решаем систему


(A 1 )′ + 4(A 1 ) = 1
уравнений.
уравнений.  q ′ = −q + q + q 2
 1′ 1 2 3
1
1) Одно из уравнений (кроме  q 2 = q1 − 2 q 2 + 2 q 3 4 A1 = ⇒ ...
 ′ 2
последнего) выбрасываем.  q 3 = q 2 − 3q 3 1 1
 1= q +q +q A1 = ⇒ y част =  q1 (0 ) = 0,5
 1 2 3 8 8 
2) Из последнего уравнения 1 q 2 (0 ) = 0,5
q 3 = y = y част + y oo = C1 e − 4 t +  q (0 ) = 0
выражаем “выброшенное” q q 2 = 1 − q1 − q 3 8  3
и подставляем в остальные
1 1 1
C1 = − ⇒ q 3 = − e − 4t
8 8 8

46 46 89 90
1 1 1 −4t 3 1 −4t
q 2 = 1 − q1 − q 3 = 1 − − + e = + e
2 8 8 8 8
Напоминание:
 1 3 1 − 4 t 1 1 − 4t 
Итак, q (t ) = (q1 , q 2 , q 3 ) =  , + e , − e  Состояние Ej марковской цепи
2 8 8 8 8  называется существенным,
существенным, если куда бы
мы ни ушли из него,
него, всегда есть
При t=10: q (10 ) ≈ (0,5; 0,375; 0,125 ) возможность вернуться.
вернуться.

Ответ: При t=10 наиболее вероятное состояние – E1


Ответ: эргодичности). Марковская цепь c
Теорема (признак эргодичности).
непрерывным временем эргодична в том и только в том
случае, если
А при t = 100?
из любого существенного состояния можно добраться до
любого другого существенного.
14
14

Наибольший интерес обычно представляет поведение Если цепь эргодична, то для любого начального
марковской цепи за большой период времени. вектора q(0) существует (одно и то же) финальное
распределение вероятностей q*=q(∞):

Марковская цепь с непрерывным q ∗ = lim q (t )


t →∞
временем называется эргодической (или Как его найти?
найти?
регулярной),
регулярной), если:
если:
 Для любого начального вектора q(0)
существует предел Теорема. Если цепь эргодична, то q* находится,
Теорема.

lim q (t ) = q ∗
как (единственное) решение системы уравнений
t →∞
Это предел не зависит от q(0)  q ∗ ⋅A = 0

∑ q j ∗ = 1

47 47 91 92
1
Задача 6. Системы массового обслуживания
Эргодична ли марковская цепь из E1 1 E2
предыдущего примера? Если да, то
найти финальные вероятности. 1 1
E3
Решение.
Решение. 2

1) Существенные
Каналы обслуживания
состояния E1, E2, E3 Поток заявок

заявок
2) Из любого существенного есть путь до
любого существенного
−1 1 0 
  Примеры: Парикмахерская, магазин, билетная касса, очередь
Примеры:
Следовательно, цепь эргодична A = 1 −2 1 
автомобилей на светофоре, заготовки деталей на конвейере и т.п.
 1 2 − 3 

0 = − q1 + q 2 + q 3 Обычно нас интересуют:
интересуют:
 q ∗ ⋅A = 0 0 = q − 2 q + 2 q

 ⇒ 
1 2 3

∑ q j ∗ = 1 0 = q − 3 q 1) среднее время ожидания обслуживания;


 2 3 Решается методом
 1 = q1 + q 2 + q 3 Гаусса 2) средняя длина очереди;
3) среднее количество занятых каналов;
4) вероятность отказа в обслуживании
и т.п.
−1 1 1 0 0 2 2 1 0 8 0 3 
     
 1 − 2 2 0  0 − 3 1 − 1 0 − 3 1 −1
 0 0 0 1 − 3

1 −3
  0  0 − 8 0
 − 3 
 1 1 1 1  1 1 1  1 4 0 2 
  1 

0 1 0 3/8
 
 0 0 1 1/ 8 
1 0 0 4 / 8
 

Ответ:
Ответ: q ∗ = (4 / 8, 3 / 8, 1 / 8 )

Сравните с

 1 3 1 − 4t 1 1 − 4t 
q (t ) = (q1 , q 2 , q 3 ) =  , + e , − e 
2 8 8 8 8 

48 48 93 94
Системы массового обслуживания (СМО)СМО) бывают очень
разнообразны.
разнообразны. Возможные различия:
различия:
 характеристики входящего потока заявок;
 количество каналов обслуживания;
 распределение времени обслуживания заявки;
 количество фаз обслуживания;
S – продолжительность
 наличие или отсутствие приоритетных заявок (“дисциплина
обслуживания”); обслуживания одной заявки.
S – случайная величина,
 характеристики очереди
распределённая по показательному
и т.п.
закону с параметром µ:

P(S<t) = 1– e– µt M S = 1/ µ
– средняя
Мы
Мырассмотрим
рассмотримтолько
толькопростые
простыеСМО
СМОсс продолжительность
1)пуассоновским
1) (“простейшим”)потоком
пуассоновским(“простейшим”) потоком обслуживания заявки
заявок
заявокии
2)показательным
2) показательнымвременем
временемобслуживания.
обслуживания. интенсивность обслуживания”
µ – “интенсивность обслуживания
= среднее число заявок,
обслуживаемых в единицу времени
15
15

Моменты прихода заявок  Входной поток заявок – пуассоновский с параметром λ.


 Время обслуживания – показательное с параметром µ.
… … Время  Один канал обслуживания.
 Если канал занят, то пришедшая заявка ставится в
очередь.
 Размер очереди не ограничен.
I – интервал между заявками
I – случайная величина,
распределённая по показательному M I = 1/ λ Будем рассматривать такую СМО
закону с параметром λ: – средний интервал как марковскую цепь с Какие состояния?
состояния?
между заявками непрерывным временем
P(I<t)=1– e–λt Какие переходы?
переходы?
λ λ λ λ λ
λ – “интенсивность
интенсивность потока заявок”
заявок 0 1 2 3 4 …
= среднее число заявок в единицу времени µ µ
µ µ µ

49 49 95 96
λ λ λ λ λ
Найдём другие характеристики этой СМО.
СМО. Основные:
Основные:
0 1 2 3 4 … 1. Средняя длина очереди ML.
µ µ µ µ µ 2. Среднее количество заявок в системе Mn.
3. Среднее время ожидания обслуживания MW.
Матрица интенсивностей: − λ λ 0 0 ... 
 
 µ −λ −µ λ 0 ...  Средняя длина очереди
A= 0 µ −λ−µ λ ... 
 
 0 0 µ − λ − µ ...  Пусть L – длина очереди. Это случайная величина, и
 ... ... ... ... ...  надо найти её математическое ожидание ML.

Как правило, наиболее интересно поведение L 0 1 2 3 …


системы за большой период времени. То есть нас
интересуют финальные вероятности. P q0+q1 q2 q3 q4 …

 − λ q 0 + µ q1 = 0 q1 = ...
λ q − (λ + µ )q + µq = 0
q ⋅ A = 0 ⇒  0 q 2 = ... (
ML = 0 ⋅ ( q 0 + q1 ) + 1 ⋅ q 2 + 2 ⋅ q 3 + ... = q 0 ρ 2 + 2 ρ 3 + 3 ρ 4 + 4 ρ 5 + ... )
1 2

λ
 1 q − (λ + µ )q + µ q 3 = 0
q 3 = ...
′ 2 ρ 
( ) ( )
= q0 ρ 2 1 + 2 ρ + 3 ρ 2 + ... = q 0 ρ 2 ρ + ρ 2 + ρ 3 + ... = q0 ρ  1 − ρ  = ...
2

 ...
 

λ 
n
λ называется ρ2 Средняя длина
q n = q 0 ⋅   Число ρ = ML =
µ  µ «загрузка системы»
системы» 1− ρ очереди

λ λ λ λ λ
0 1 2 3 4 … Среднее число заявок в системе
µ µ µ µ µ
Пусть n – число заявок в системе. Надо найти Mn.
Если ρ≥1, то в системе будет неограниченно расти
очередь. Поэтому рассматривается случай ρ<1 n 0 1 2 3 …

P q0 q1 q2 q3 …
q n = q0 ⋅ ρ n
Mn = 0 ⋅ q 0 + 1 ⋅ q1 + 2 ⋅ q 2 + ...
(
q 0 + q1 + ... = 1 ⇒ q 0 ⋅ 1 + ρ + ρ 2 + ... = 1 )
ρ Среднее число
1 Вероятность Mn =
q0 ⋅ =1 q0 = 1 − ρ простоя системы 1− ρ заявок в системе
1− ρ

50 50 97 98
Среднее время ожидания обслуживания Всё выводится q n = q 0 ⋅ ρ n , n = 1, 2, ..., N + 1
аналогично
Теорема (формула Литла)
Литла). Среднее время
ожидания обслуживания равно произведению
(
q 0 + q1 + ... + q N +1 = 1 ⇒ q 0 ⋅ 1 + ρ + ρ 2 + ... + ρ N +1 = 1 )
средней длины очереди на средний интервал
 1− ρ
времени между приходящими заявками.
заявками при ρ ≠ 1 Вероятность
1 − ρ N + 2 простоя системы
q0 = 
MW = ML ⋅ MI  1 при ρ = 1
 N + 2

q N +1 = q 0 ⋅ ρ N +1 Вероятность отказа в
обслуживании
Для рассматриваемой СМО:
ρ 2 (1 + N ρ N +1 − (N + 1)ρ N ) Средняя длина очереди
ML =
ρ 2 (1 − ρ ) ⋅ (1 − ρ N +1 )
MW =
λ ⋅ (1 − ρ ) ML Среднее время
MW = ML ⋅ MI = ожидания
λ обслуживания

 Входной поток заявок – пуассоновский с параметром λ.  Входной поток заявок – пуассоновский с параметром λ.
 Время обслуживания – показательное с параметром µ.  m каналов обслуживания.
 Один канал обслуживания.  Время обслуживания каждым каналом – показательное с
 Размер очереди не превосходит N параметром µ.
 Если очередь заполнена, то пришедшая заявка отбрасывается  Размер очереди не ограничен

Какие состояния?
состояния?
Какие состояния?
состояния? Для
Длятакой
такойСМО
СМОнене
обязательно 0 1 2 … m m+1 m+2 …
обязательноρ<1
ρ<1
Какие переходы?
переходы?
Какие переходы?
переходы?
λ λ λ λ λ λ λ
λ λ λ λ
0 1 2 … N+1
0 1 2 … m m+1 m+2 …
µ µ 2µ 3µ mµ mµ mµ mµ
µ µ µ

51 51 99 100
Всё аналогично ρ Условие отсутствия
<1 перегрузки системы
Задача
m Составы поступают на техобслуживание. В среднем
поступает 3 поезда в час. Имеется две бригады.
q n = q 0 ⋅ ρ n , n = 1, 2, ..., m Среднее время обслуживания состава одной
n−m
бригадой равно 30 минут. Найти среднее время
ρm  ρ  ожидания обслуживания.
qn = q0 ⋅ ⋅  , n = m + 1, m + 2, ...,
m!  m 
Решение.
Решение.
−1
 ρ 1
ρ 2
ρ m
ρ m +1

q 0 = 1 + + + ... + + 
 1! 2 ! m ! m! ⋅ (m − ρ ) 
m = 2, λ = 3 (поезда/час), µ = 2 (поезда/час)
λ  ρ ρ2 ρ3 
−1
ρ= = 1,5 < m q 0 =  1 + + +  =
1
µ
ρm
ρ  1! 2! 2! ⋅ (m − ρ )  7
ML = q 0 ⋅ ⋅ m Средняя длина

1 −  ρ 
2
m! очереди
1 1,5 3 1
 m MW = ⋅ ⋅ = 0,64 (часа ) ≈ 39 мин
7 1! ⋅ (2 − 1,5 ) 3
2

16
16

ρ m +1 Другая формула
ML = q 0 ⋅
(m − 1)! ⋅ (m − ρ )2
для средней
длины очереди

Mr = ρ Среднее число занятых


каналов

Mn = ML + Mr Среднее число
заявок в системе

ρ m +1 1 Среднее время
MW = ML ⋅ MI = q 0 ⋅ ⋅
(m − 1)! ⋅ (m − ρ ) λ
2 ожидания
обслуживания

52 52 101 102
Список литературы Оглавление

1. Колемаев В.А. и др. Теория вероятностей и ма- 1. Случайные события 3


тематическая статистика. – М.: «Высш. школа»,
1991. 2. Случайные величины 31
2. Лагутин М.Б. Наглядная математическая стати- 3. Двумерные случайные величины 64
стика. – М.: .: БИНОМ. Лаборатория знаний, 2007.
4. Марковские цепи с конечным множеством
3. Краснов М.Л., Киселёв А.И., Макаренко Г.И., 75
состояний и дискретным временем
Шикин Е.В., Заляпин В.И. Вся высшая математика
– М.: Эдиториал УРСС, 2000-2002. 5. Марковские цепи с конечным множеством
86
4. Болгов В.А., Демидович Б.П., Ефимов А.В. и др. состояний и непрерывным временем
Сборник задач по математике для втузов. В 4-х
частях. – М.: .: «Наука», 1993. 6. Системы массового обслуживания 95
Список литературы 103

53 53 103 104

Вам также может понравиться