Открыть Электронные книги
Категории
Открыть Аудиокниги
Категории
Открыть Журналы
Категории
Открыть Документы
Категории
Босс
ПЕкqии по
МАТЕМАТИКЕ
ТlM
Вероиmносmь, uнформацuи,
4 сшашосmпка
моекм
- - URSS I~I
ББК 22.J71я73
Босс В.
1,I
НАУЧНАЯ И УЧЕБНАЯ ЛИТЕРАТУРА
JiIlIШ1~НI[II,IШ
Катаnor и:щаний В Интернвте:
htlp:IIURSS.ru
Твn./факс: 7 (095) 135-42-16
URSS ТвnJфакс: 7 (095) 135-42-46 >
Оглавление
Предисловие к .Лекциям- . . . . . . . . . . . . . . . . . . . . . . . . .. 7
Предисловие к тОму . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 9
Глава 1. Основы в задачах и парадоксах . . . . . . . . . . . . . . .. 10
1.1. Что такое вероятность . . . . . . . . . . . . . . . . . . . .. , 1О
1.2. Подводные рифы статистики 13
1.3. Комбинаторика 14
1.4. Условная вероятность . . . . . . . . . . . . . . . . . . . . .. 1б
1.5. Случайные величины 19
l.б. Континуальные пространства . . . . . . . . . . . . . . . .. 23
1.7. Независимость 28
1.8. Дисперсия и ковзриаuия . . . . . . . . . . . . . . . . . . .. 29
1.9. Неравенства 31
1.10. 'Случайные векторы. . . . . . . . . . . . . . . . . . . . . . .. 34
1.11. Вероятностные алгоритмы . . . . . . . . . . . . . . . . . .. 3б
1.12. Об истоках 37
1.13. Задачи и дополнения. . . . . . . . . . . . . . . . . . . . . . . 40
IЛава 4. Сходимость 84
4.1. Разновидности . . . . .. . . . . . . . . .. .... ....... 84
4.2. Сходимость по распределению . . . . . . . . . . . . . . .. 87
4.3. Комментарии ,88
4.4. Закон «нуля или единицы. . . . . . . . . . . . . . . . . . . . 90
4.5. Случайное блуждание 91
4.6. Сходимость рядов . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.7. Предельные распределения 94
4.8. Задачи и дополнения. . . . . . . . . . . . . . . . . . . . . . . 96
1) живой учитель;
2) обыкновенный nодр06ный учебник;
3) рядовой задачник;
4) учебник, освобожденный от рутины, но дающий общую картину, мотивы, связи,
«что зачем,..
Р(А) = L P("'i),
IoI;ЕА
1 t п!
p(CoIj) = Сl,' где СП = k!(n _ k)!
- число сочетаний из n элементов по k элементов.
Число различнbIX выборов, удовлетворяюших условиям задачи, равно
J 2 2 GG~
С4 С4 С28 • Искомая вероятность есть с 7 ~
J6
РА
() = Ifисло благоnриятныхвариантов.
Ifисло всех вариантов
сумма 9 {::> (3,6) (6,3) (4,5) (5,4), сумма 10 ~ (4,6) (6,4) (5,5).
Таким образом, из 36 возможных пар чисел 4 пары дают в сумме 9, и только 3 - 10.
Вероятности, соответственно, равны 4/36 и 3/36, что подтверждает эксперимент)).
~I + ~2 А. + А2
~I +"1 + ~2 + "2 > A1+ B1+ А'
2 + В2
1.3. Комбинаторика
0<8. < 1.
Сочетаиия, Если k предметов из al, '" ,а. выбираются без учета порядка (cКJIa
дываются в мешок). то число ра1llИЧНЫХ вариантов (число сочетаний из n по k)
равно
k п!
С. = k!(n _ k)!
... Всевозможные РОVlещеНUR получаются перестановками элементов в со
четаниях. Поэтому
A~ = C~k!.
что дает формулу для C~, с учетом того, что A~ = п!/(п - k)! •
II!
IP(5, 2, 2,1,1) = 5!2!2! = 83010
различных буквосочетаний.
Упражнении '1
Очевидно,
АВ А+В А-В
Рис.1.1
А !:J. В = (А U В) \ (А n В)
обозначает событие, состоя шее в наступлении одного из А, В, но не двух вместе.
Пустое множество 0, считается, принадлежит n и символизирует невозмож
ное событие. При этом Р(0) = О.
с учетом нормировки Р(n) = 1, очевидно, Р(А) + Р(А) = 1.
18 Глава 1. ОСНОВЫ В задачах и парадоксах
Р(АВ)
P(BIA) = Р(А) . ( 1.4)
= BA 1 + ... + ВА п ,
в
(1.6)
P(BIAj)P(Aj)
(1.7)
P(AjIB) = L: P(BIAk)P(A k)'
k
7) НепересекаЮШИХСR.
8) О необходимых yrочнеНИRХ см. главу 10.
20 Глава 1. ОСНОВЫ В задачах и парадоксах
Е (Х) = I: X(UJ)P(UJ),
I&IEfI
Х 6 6 2 2 2 2
У 5 5 5 1 1 1
Z 4 4 4 4 О О
W 3 3 3 3 3 3
если У = 1, что имеет вероятность 1/2 = 3/6. Поэтому, с учетом формул умно
жения вероятностей и суммы непересекаюшихся событий. итоговая вероятность
неравенства Х >у равна
1 2 1 2
3 + 3' 2 = з'
Аналогично подсчитывается, что У > Z, Z > W, - с той же вероятностью
2/3. Получается цепочка неравенств
откуда
• 1 1.
mo = 1 + 2 + 2 т ••
т~+т;
В конечном итоге это дает moo = = 6. Писать опровержения можно
2
80 многие адреса 12). ~
«и >V по верояmносmu~,
вообще говоря, не следует Е {И} > Е {V}, но U((IJ) > V((IJ), конеч
но, влечет за собой Е {И} > Е {V}.
Заслуживаетупоминаниятакже оборотная сторона медали. ТВ,
как сильнодействующеесредство, не только спасает от заблужде
ний, но и создает их.
Общепринятодумать, например, что в лотерею играть неразум
но, поскольку матожидание выигрыша меньше стоимости билета.
В результате покупать лотерейные билеты приходится, оглядываясь
по сторонам.
1 1 n 1
2 • 2 + 4· 4 + ... + 2 . 2n + ... = 1 + 1 + ... ,
бесконечно. Поэтому, с точки зрения ТВ (как бы), )8 уча~ие в игре денег можно
)8матить сколько угодно - казино в любом случае проиграет.
Хороший пример на тему того, как респектабельная теория направляет ход
мыслей не в то русло, тогда как реальная »дача не стоит выеденного яйца. Кази
но проигрывает в среднем, но в данном случае это не дает разумных оснований
судить об однораювой игре. Средние значения продуктивно работают в других
ситуациях, но не )Десь.
1.6. Континуальныепространства
1 1
2 < ж + у < 1; Ж,у < 2'
которым на рис. 1.2 удовлетворяют внутренние точки
треугольника EPG. Если все точки {ж, у} равнооероят
ны, то искомая вероятность
Р = St>f:PG = ~.
St>OCD 4
• во время боя в течение часа в корабль попадает два снаряда. Для заделки одной
nробоины требуется 15 минут. Если nробоина еще не заделана, а в корабль попа
дает второй снаряд, - корабль тонет. Какова вероятность потопить корабль?
.. Если времена поп:uаний снарядов tl и t2 равномерно распределены
110 квадрату S размера 60 мин х 60 мин, то искомую lIероятность дает отношение
площади многоугольника {It, - t 2 1~ 15} n S к площади S. ~
Р(А) = J
А
p.(UJ) dы,
Е (Х) = J
{}
X(UJ)p(UJ) dUJ. (1.8)
Разумеется,
Р(Х < х) = !
Х<Ж
IL(U)) dU),
! р(u)
ж
Из (1.9) следует
I р(х) = Р'(х). I
Понятно, что для дифференцируемости Р(х) нужны предположе
ния, но мы на этом не останавливаемся. Более того, далее исполь
зуются - в том числе - плотности, содержащие 5 -функиии 15), что
позволяет единообразно охватить дискретно и непрерывно распре
деленные случайные величины.
! ...!
I1 z"
F(xl, ... , X n ) = P(UI ..... un ) dUI о .. dun
-00 -iX)
вытекает
! I (х)
ж
I Е(Х) JXdF(X).!
=
значает
-00
функции, стояшеА под интегралом.
1.6. Континуальные пространства 27
!!(аж + Ру)р(ж, у) dж =
Е (аХ + РУ) = dy
Р(А) = Е [ХА(Х)]'
Разница подходов начинает ощущаться на высоких этажах теории вероятностей,
где круг дозволенных неприятностей достаточно широк.
Но помимо матемаmческой - есть разница психологическая. Для кого-то
поняmе среднего значения может быть предпочтительнее понятия вероятности.
Тогда
жdж
тж = I w(1 + ж2) = 00.
При переходе к моментам более высокого порядка СИ1}'ация только ухудшается.
28 Глава 1. ОСНОВЫ В задачах и парадоксах
1.7. Независимость
1 1
Р(А) = Р(В) = Р(С) = -,
2
Р(АВ) = Р(АС) = Р(ВС) = 4' (1.12)
с независимостью А и В интуиция согласна, но не с независимостью А и С (или
В и С). И У нее есть основания. Независимость (1.12) имеет как бы .. арифме
тический. характер, является результатом численного совпадения. Качественные
отличия взаимосвязей событий выявляются при нарушении симметрии монет.
Для несимметричных монет (с вероятностью выпадения герба :/: 1/2) свойство
независимости А и В вида (1.11) сохраняется, а вот равенства
нарушаются,
Р(Х, < XI, Х2 < Х2) = Р(Х 1 < XI)P(X2 < Х2),
что влечет за собой
и, как следствие,
1.8. Дисперсия и ковариация 29
Скаляр
(1% = JD (Х)
- среднеквадратическим отклонением Х от своего среднего значе
ния т х .
30 Глава 1. Основы в задачах и парадоксах
n
второй момент. Вообwе, Е (X ) именуется моментом n-го порядка случайной
величины Х, в соответствии с чем матожидание - первый момент.
Случайная величина Х - mr имеет нулевое матожидание, и ее Ha:JblвalOТ
центрированной, а моменты uентрированных величин - центральными. По этой
терминологии дисперсия - второй uентрanьный момент.
вариация
и коэффициент корреляции
cov (ху)
Т ЖIl =
UЖ U
Il
Очевидно,
2Е «У - аХ)Х) = О,
откуда
cov (ХУ)
а = О(Х) ,
т. е. при ненулевой ковариаuии (корреляuии) между Х и У сушеСТIlУет _линейная
:JaВИСИМОСТЬ. вида У =
аХ + W сненулевым коэффиuиентом а и случайной
величиной W, некоррелированной с Х, cov (XW) О. =
1.9. Неравенства 31
1
ж(ж2 - т,)
соУ(ХУ) = f
-1
2 dж = О,
поскольку линейная составляюШ8А взаимосвязи oTcyrcтByeт.
rжр= --о
R,.,
(0',.0',)
Это имеет свои минусы, но рй32ружает термиНОЛ02ию, и выглядит
nриe.wлемо.
YnpaJlDlеиия
1.9. Неравенства
Неравенство Коwн-Буняковскоro17):
(1.14)
А 2 Е (х 2 ) - 2АЕ (IXYI) + Е (у 2
) ~ О,
! 1р ! 1р !
00 00 00
откуда
О(Х)
P(IX - тжl ~ а) ~ -2-' (1.16)
а
или
1 n
Р{mах IX, + ... + Xkl ~ Е} ~
k~n
2"
Е
L.
D (Xj). (1.17)
. ,=I
.. Для выпуклоil вверх Функuии !р(ж) всегда найдется функuия 18) ф(z)
такая, что
k,j
r,j= ~' ki , = D(X,).
yk"k jj
т. е. к коэффиuиентамкорреляuии.
Обе матрицы К и R неотрицательно определены, поскольку
АналогичнодЛя R.
ческой ошибки:
Е (У - L CjXj) 2 -+ mjn .
j
1.11. Вероятностныеалгоритмы
aN - 1
= I(mod N), a<N. (1.21 )
Нарушение
(1.21) означает, что N - составное. Но для некото
рых составных чисел 24) условие (1.21) тоже выполняется, и поэтому
малая теорема Ферма - не очень хорошая лакмусовая бумажка для
различения простыIx и составных чисел. Однако возможна замена
(1.21) неким близким условием 25), нарушение которого хотя бы для
21) У может быть, напрнмер. котироакой акций либо параметром, карактериэуюшим эф
фектианость работы химического реактора, прокатного стана и т. П.
1.12. Об истоках
А, В СП=> А uВ с П, А nВ с П, (1.22)
и рассматривать совокупность А подмножеств П, куда ВХОдЯт: са
мо П, любое А принадлежит А вместе с дополнением, - и выпол
няется (1.22). Такая совокупность А множеств называется алгеброй
подмножеств П, и - и-алгеброй в более общем случае, когда в А
входят любые суммы и пересечения счетных совокупностей Ak С А:
Р(А) = !
А
p.(LtJ) dLtJ либо Е (Х) = !
fI
X(LtJ)p.(LtJ) dLtJ.
Е (Х) = J
fI
X((tJ)JL(df.u).
1+~
Р {{ IX - т .. 1~ Ul.. } U { IY - m,l ~ са, }} ~ с2 .
Функции распределения
р(ж) = -ЬI- ,
-а
F(ж) =
:r
I р(и) du I
= -Ь-а I :r
du ж-а
=- -
Ь-а
-~ о
10110 ...
При этом можно говорить о генерации двоичных чисел ВИда
0,10110 ....
В обшем случае в результате испытания (бросания, экспери
мента) единица появляется с вероятностью р Е (О, 1), нуль - с ве
роятностью q = 1- р. Появление единицы часто именуют успехом.
Проведение соответствуюших независимых испытаний называют
схемои, или последовательностью испытании Бернуми.
В силу независимости испытаний вероятности появления 1 или
О перемножаются. Поэтому вероятность в n испытаниях получить
k единиц в каком-либо определенном порядке (и, соответственно,
n - k нулей) - равна p"qn-". А поскольку k единиц расположить
44 Глава 2. ФУНКЦИИ распределения
Легко проверить:
Е {Sn} = пр, D {Sn} = пр(1 - р), Е ([Sn - пр])} = пр(1 - р)(l - 2р).
Р{Х = х} = pqX-I.
1 q
Е{Х} =-, О{Х} = 2'
Р р
биномиального.
k
а -о
Р(Х = k) =-е (k = 0,1, ...).
k!
а =L kP(X = k),
t=o
т. е. параметр а есть матожидание с. в. Х, распределенной по :JaKOHY Пуассона.
дисперсия Х тоже равна а.
n/Q
а _1 (1 - ~) . .. (1 - "~I)
1-;;) -4е, ..:......--:~-~~~ -4 1 при n -4 00.
(1 - ~)"
(
Рис. 2.1
! е-,2/2
z
Ф(х) = ~ ds. (2.2)
-00
..
Ф(х) =.ffi II е-' I f2 ds,
о
Упражнении
2.2. Дельта-функция
00 ak _
Р(Х) =L k! е 4б(х - k).
k=O
Такого сорта выгоды иногда трактуются как чиc;rо технические нюансы, спо
собствуюшие обозримocrи и единообразию результатов. Здесь можно добавить, что
удобства - это, как правило, вопрос жизни и смерти математической дисциплины.
f 6е (х)<р(х)
00
dx ~ 11'(0) при f ~ О,
-00
Рис. 2.2
!
(Х)
f 6(х)<р(х)
00
(6,11') = dx = 11'(0).
-00
! !
(Х) (Х)
f 6/(ж)'Р(Ж) dж = 'Р'(О).
00
-00
I 8'(ж) = 6(ж), I
где 8(ж) - функция Хэвисаuда, единичная ступенька:
8(ж) ={ 1, ж > О;
О, ж < О.
.... Действительно, для любой функции 'Р Е 1)
-00 -00 о
- а)'Р(Ж) dж = 'Р(а),
-00 -00
00
6(ж) = 2~ f
-00
e
iAz
d",
d1l
----,I ту = Е (У) = / j(x)p(x) dx.
____ IL _
I
I Аналогично,
I
dx
Рис. 2.3 Если У = j(X) вектор, подобным
образом определяется и ковариация:
а плотность7) -
(2.4)
где индексы х, у показывают, какие плотности подразумеваются.
то
un
! ...!
и.
rде
дh]
рж(h(у» det ду; [ = р.(у),
а индексы ж, У показывают, какие плотности имеются в виду.
Упражнении
! [1 - G(~)] ! G(~)
00
! {! р(u,
• а:>
откуда
! р(u, !
00 а:>
Р(АВ) :::: р(ж, у)6ж6у, Р(А) :::: р(ж)6ж, Р(ВIA) :::: р(уlж)6у.
Р(АВ)
Подставляя эти равенства в формулу P(BIA) = Р(А) и пере-
ходя к пределу при ~x, ~Y ~ О, получаем
_, ) _ р(х, У)
Р(11 х - р(х) , (2.5)
!
Р:r(Ж) = р(Ж, у) dy
L
Жо < ж < Жо + 6ж
при нормировании массы полосы на единицу и 6ж -+ О.
в любом случае с этим стоит немного повозиться, чтобы исходные поня
тия и тривиальные по сути соотношения не отвлекали при рассмотрении
<р(х) = Е (Ylx),
-
цию
!![у - 'Р(Z)]~'Р(Ж)Р(Уlz)Р(Z) dz dy = О,
откуда, в силу ПРОИЭ8ОЛЬНОСТИ вариации ~'Р(ж),
и, в силу
приводит К формуле
!
ру(у) = рх(х)6[у - f(x)] dx. (2.8)
2.5. Характеристическиефункции
I
(Х)
I
(Х)
Формула
(2.11) предстааляет собой свертку плотностей, в свя
зи с чем в ТВ оказываются эффективны 9) характеристические
функции (х. ф.) l!p(.\) = Е (е iЛХ ) 1, т. е.
!р(.\) = !е iЛz
dF(x),
8) Не:J8llИСИМО от тoro, коиечио или бесконечно число корней. Если мера множества
точек, rlle производнВJJ ,'(х) BыpoJКlleHB. - рввнв нулю, то это множесТ1lO МОJICИо просто
иrнорироввп. без ywербв .I1ЛJI решения 3В.I1Вчи.
9) О причинвх см. двлее.
2.5. Характеристические функции 55
либо
f р(х)еi>'Ж
00
f 1f'(,\)e-i>'Жd,\.
00
р(х) = 2~
-00
I - (r-'2.)1
нормальное р(ж) = --е т.
eim.A- !.. ~AI
(fr.,f[;
1 ei~ _ e iAiJ
равномерное р(ж) = -ь- -а
на (а, Ь)
iЛ(Ь - а)
а
e- аlА1
Коши
р(ж) = 1I"(ж 2 + а 2 )
а
показательное р(ж) = ae-ar , ж~О
а - iЛ
I _ I
показательное-2 р(ж) = -е Irl
2 I +Л 2
56 Глава 2. Функции распределения
'р('\) = f; k!
00(i,\)k k
Е (Х ), (2.13)
Е (X k ) = гklp(k)(о), (2.14)
но для этого, конечно, требуется сушествование моментов
Е (X k ). Однако, если моменты Е (X k
) сушествуют для k ~ j, то
можно утверждать, что (2.14) справедливо для тех же k ~ j. (?)
Таким образом, при известной х. ф. определение моментов
сводится к простому вычислению производных Ip(k)(o).
• Вместо характеристических функuий иногда удобнее рассмат
ривать их логарифмы. Соответственно, вместо моментов
(2.14) - коэффиuиенты
lIk =
·-k
Z
dk In 'р('\)
d,\k
I '
),=0
Если Z =Х +у и слага
емые распределены нормаль р
теристических функций
A(z) = L:: Qk zk .
k=O
58 Глава 2. ФУНКЦИИ распределения
n n
00
П(z) = LPk zk
k=O
П(z )
'"'
= Е {z Х} = ""'
L..J рч ж-I z ж = --.
pz
ж=1 1-qz
Р Р
геометрическое Pt = pq" 1- qe iA I-qz
t
a -о eO(.iA- 1) e-O(I-.)
пуассоновское
Pt = k! е
Упражнення
• Для независимых с. в. Х И у
• Если
"" = L""
п(z) = :~::>"zt, T(z) q"zt,
t=o "=0
где q" = РНI + РН2 + ... - вероятности .. хвостов" распределения, то
"" ""
Е{Х} = ЕА:р" = Lqt
"=1 11=1
Как это часто бывает, многое становится ясным при помещении эa.nачи
в более щирокий контекст.
Вместо случайной величины рассмотрим случайный вектор
ж = {жl •... , ж n }
С неЗQSUСUJIIЫJIIU координатами жj и плотностью распределения р(ж), не зависящей
от направления 12) ж.
Этих .. необременительных. предположений достаточно, чтобы гарантиро
вать нормальное распределение всех Жj. Обоснование несложно. Независимость
координат означает
(2.17)
а независимость р(ж) от направления ж - постоянство плотности р(ж), равно
как и ее логарифма
Iпр(ж) = IПРI(Ж) + ... + Iпрn(ж) (2.18)
на сферах ж~ + ... + ж~ const. =
Дрyrими словами, функиии (2.18) и ж 2 = ж~ + ... + ж~ имеют одни и те же
поверхности уровня, а это возможно, лищь когда их нормали (градиенты) колли
неарны (одинаково или противоположно направлены), т. е.
Vlпр(ж)=>.vж 2 ,
что дает n равенств
! JJje-А.,j dж = ! ж:
01> 00
Окончательно
Pi(Xi) =
1
.Jii ехр
{(Х;
-
- т2 жj )2 } •
q Жj 211' 2q Жj
Т.е.
1
ру(у)=-уехр { -2(у-а) К, (у-а)
т _1 }
,
при ограничениях
2.8. ПуассоновскиеПОТОКИ
... Разобьем интервал (О, t) на n равных частей ~I"'" ~n' И пусть Xt(~t)
обозначает число поступивших событий на промежyrке ~t,
J.& = ! ..\(Т)
О
dT. (2.21 )
р. = f '\(Т) dT.
n
Опыт обшения со С1)'дентами показывает, что закон Пуассона
часто остается «вешью В себе~, не находЯ путей к подсознанию.
Положение легко выправляется размышлением над задачами.
Допустим, случайная величина (, равномерно распределенная
на (О, Т), реализуется n раз, что приводит к появлению на проме
жутке n точек. Сколько точек попадает в область
n Е (О, Т)?
Конечно, это в чистом виде схема Бернулли с вероятностью
попадания отдельной точки в П, равной р = 1fT, где I длина (мера)
П. Вероятность попадания k точек в n определяется биномиальным
распределением C:pk(1 - р)п-k, и далее проторенным в разделе 2.1
путем можно переходить к распределению Пуассона.
для подсознания важна интерпретация этого пути в исходных
терминах. Интервал (О, Т) и количество «бросаний» n увеличива
ются согласованно. Так, чтобы среднее число точек на единицу
длины сохранялось. Вот, собственно, и вся специфика предельного
перехода. Значения Т и n увеличиваются в одинаковое число раз,
и тогда предельное распределение числа «попаданий~ в n оказыва
ется пуассоновским.
p(t) = '\e-~t, t ~ О.
придется ждать, т. е.
Т! -r
Р(т], ... , тп ) = n
TI!'" т п !
1:1 < 1,
14) Задача совсем просто решается переформулировкоА. Выстраиваем шары в ряд, и делим
их на n I1>УПП n - I ]Впиты""и. Число ра1JlИЧИМЫХ способов: С;+п-I .
66 Глава 2. ФУНКЦИИ распределения
(1 - z(n
"" B(r, n)z' .
=Е
• =0
В результате
1 ,!(п - l)!
P(r, п) = B(r, п) = (n+r-l)!'
называемое статистикой Бозе-ЭЙнштеЙна.
,!(п - ')!
Р (r
,
n) = -C~1 = ----'---'-
п!'
r ~ п.
(2.23)
Iпр(ж) =- L -,
I
1 Pk
где Pk обозначает k-e простое число.
В промежутке [ж, ж + ~жJ, в силу ~ж« ж, можно считать Pk ..... ж, И сумма
по этому промежутку
L -1 . . . -р(ж)~ж.
Рl
1
Ж
откуда
-du,
u
1 I
р'(ж) р(ж) dp dж
--=-- => р2 =-"Ж
р(ж) ж
I р(ж) ~ Iпж
I I
68 Глава 2. Функции распределения
",(ж) =
J du
2
%
-
1п u
= -
Z
1п Z
{1
1+ -
1п Z n
r!
+ ... + -1-'- +0
Z
(1) }.
---;::;:т-
ln Z
(2.24)
для примера, точное значение ",(4000) = 550. Первые три члена разложения
(2.24) дают приближение ",(4000) == 554.
• Будем считать в данном пункте, что речь Идет о случайных векторах с нулевы
ми матожиданиями. Любой случайный вектор Х линейным преобразованием
у = АХ приводится к вектору У с некоррелированными координатами 16).
действительно, матожидание матричного равенства
ууТ = АХХТАТ
дает К, = АК%А Т
• Неотрицательно определенная ковариационная матри
ца К% всегда может быть приведена 17) ортогональным преобразованием А
к диагональному ВИду К,.
не имеюших моментов.
I 1 ж
F(ж) = -2 + - arcsin -, ж Е (-r, r),
'" r
при естественном условии F(ж ~ -r) = О и F(ж ~ r) = 1. (?)
Соответствующая плотность:
, I
р(ж) = F (ж) = ~2' Ж Е (-r, r).
"'vr 2 - ж-
Следствие приведенных формул: при равномерном вращении коленчато
го вала порщни двигателя ВНуУреннего сгорания б6льщую часть времени
проводят в крайних положениях.
Аналогичное явление наблюдается при игре в -ОРЛЯНКУ •.
р(ж, у)
I!!#
= 211'и2е- 1-
Х = RсоsФ, У = RsiпФ
распределены: Ф равномерно на [0,2"'1, а R по закону Рэлея
r -.1/(2111)
р ()
r = и2е .
Х = min{X., .. _, X n }
имеет показательное распределение с параметром .л = .л. + ... + .л п •
• Залач на определение тех или иных вероятностных распределений имеется
великое множество, и 38 ними далеко ходить не нало. В любой стандартной
модели -шаг влево или вправо. - и возникают неясности. При бросании мо
неты (случайном блуждании) - биномиальное распределение, казалось бы,
исчерпывает проблематику. Но это далеко не так. Вопрос о первом успехе -
и появляется геометрическое распределение. Механика смены лидерства (пе
рехода блуждающей частицы слева направо или наоборот) - и дорога уводит
к 3IJконуарксuнуса. Вопрос о локальных экстремумахлибо попадании траекто
рии выигрыша на некоторую кривую - и опять новые 38коны распределения.
70 Глава 2. ФУНКЦИИ распределения
2
Н = Е П;jНij>
ц='
1 (N - 1)! 1
P{A t } = N!' P{A;A j } = N! = N'
(N - 2)! 1
P{A;AjA t } = N! = N(N - 1)'
EkPt = 1,
t
легко определяется окольным рассуждением. (?)
Sn Xt + ... +Х n
n = n
имеет то же самое матожидание р, и с ростом n при естественных
больших чисел.
D {S} (Т2
nn = -; -+ о при n -+ 00,
Поэтому
u
2
= (1 - ~у .~ + (о - ~у .~ = ~.
Предположения в 3.1.1, 3.1.2 о том, что величины Х; имеют
одинаковые матожидания и дисперсии, разумеется, необязательны.
Тот же метод доказательства работает и в более общих ситуациях.
Например, при некоррелированности Х 1, .•• ,ХП И
1 n
lim 2
п-+ех> n
L(71 = О,
;=1
. {IX +"'+X
11т Р
п-+ех> n
1 n
-
n
l }
1J1+ ... + lJn > Е = О,
А = n( U A t ).
n t~n
А поскольку
~ ехр {- L Р( А,,)} -+ о
n~t~N
р( 11т
. Х 1 +···+Хn = О
)
= 1. (3.2)
n-+оо n
... Число ненулевых слагаемых в Е (X 1 + ... + X n )4 - после раскрытия
скобок, - в силу некоррелированности, пропорuионально п 2 • А ограниченность
четвертых моментов raрантирует при этом существование константы С такой, что
Е (Х. + ... + X n )4 ~ сп 2 • Поэтому (см. раздел 1.9)
Сп 2 С
Р(lХ 1 + ... + Xnl ~ сп) ~ (сп)4 = (сп)2'
ао С
В силу L (сп)2 < 00 лемма 3.2.1 гарантирует конечность числа событий
Х\+"'+Хп J1.\+···+J1.n
------ --+0 (п --+ 00)
n n
с вероятностью единица.
равна
на градиент
afn afn }
Vfn(x) = { дх)'"'' дх •
п
Заметим, что дЛя гладких функций условие IIV /п(ж)11 ~ 'Уп эквивалентно
в Rn липшицевости /п(ж) с константой 'Уп.
(3.4)
Если же условию (3.4) удовлетворяет негладкая функция. то у нее существует
сколь угодно точная гладкая аппроксимация с модулем I])адиента ~ 'Уп'
Тогда при 'Уп < 'у < 00 дисперсия D {/п} ограничена некоторой
константой, не зависящей от n. Если же 'Уп стремится к нулю
с ростом n, то
! !
х х
(3.6)
т. е. р·(х) >
О там, где р(х) =
О. Компенсирующий эффект при этом ззключается
в следующем. Если бы, скажем, внеравенстве (3.6) вместо р. стояла исходная
плотность р, то такое неравенство было бы ззведомо ошибочно, поскольку '(х)
могла бы расти лишь там, где плотности Pi(Z) = о, и справа был бы О при
D (!) > О. Сопряженная же плотность -следит. за поведением градиента '(х)
на тех участках, где исходная плотность обнуляется.
D (Л ~ l!
8 [\7 f(x)] 2 dx\
СП
... dx n· (3.8)
fn(x) = m~x
I
IXil, х Е сп.
р;(х) []. }
/1 = sup { Pj(X): х Е 0,1 , 1= 1, ... , n < 00,
что, собственно, и обеспечиваеттребуемые выводы.
D {Л ! ""
= II(Х) -
-00
m,]l dP(x) = ~!
00
!
-00 -00
00
= ! ![!
"" 00 r 2
Учитывая s. ж 2 ж
ас (IJ , OD
IX) I
Очевидно,
= I D n - I (ж I
n ) dРII(ж n ) + [тn-l (ж n ) - т,)2 dРn(ж n ),
В' В'
Наконеи
Р 1-р
--+--,
1-р Р
Р
. Х 1 +"'+Хп
11т =р
)
= 1.
( n~1XI n
Если же матожuдание Х; не существует, то
р
(-.IX + ...n + ХП I= ) = 1.
11т
n.... tI)
1
00
• Снять в теореме 3.3.1 ограничение Pi(X) >Е >О без каких либо компенси
рующих предположений нельзя. При обнулении плотностей на множествах
ненулевой меры дисперсия In(x) может неограниченно возрастать при огра
ниченном по модулю градиенте. Рассмотрим, например, линейную функцию
(3.11 )
1 1
Р;(Х;) = 2 6 (х;) + 26(Х; - 1)
1 2
D ип} = D {lJ'n} = 4[VlJ'n(X)) -In п,