Вы находитесь на странице: 1из 6

ЛЕКЦИЯ 1. Введение. Примеры.

Пуассоновская аппроксимация.

1 Введение
Мы будем изучать методы оценивания вероятностей редких событий. Предположим,
что мы наблюдаем изменение страховых выплат, курсы валют, цены акций, другие
финансовые данные. Предположим также, что мы знаем значения критических уров-
ней наблюдаемых характеристик, при которых требуется необходимо предпринимать
контролирующие действия. Например, изменить размер страховой премии, купить или
продать валюту, акции, и т. п. Аналогичные вопросы возникают и в других областях че-
ловеческой деятельности. Скажем, с целью контроля неких технологических или при-
родных процессов мы наблюдаем значения различных числовых характеристик этого
процесса. Например, если речь идет о прогнозе и предотвращении наводнений (стро-
ительство дамб, например), мы можем наблюдать уровень воды в различных точках,
скорость ветра, температуру воздуха, если речь идет о контроле ядерной реакции,
мы наблюдаем уровень радиации в системе охлаждения, температуру воды, множе-
ство других характеристик. И здесь тоже мы знаем значение критического уровня ха-
рактеристики, при достижении которой необходимо предпринимать контролирующие
действия (повышать уровень дамб, включать насосы, эвакуировать население, менять
параметры ядерной реакции). Ясно, что контролируемые устройства и сооружения
должны быть такими, чтобы необходимость вмешательства была по возможности ред-
кой. Дамбы должны быть достаточно высокими, а реакторы - достаточно надежными.
В финансовые процессы мы зачастую можем вмешиваться чаще, и деланм это. Тем не
менее, всегда необходимо уметь оценивать вероятности ситуаций, ведущих к неблаго-
приятному развитию событий.
Прежде чем мы рассмотрим несколько примеров, иллюстрирующих сказанное, да-
дим несколько определений, важных для дальнейшего.

Определение 1 Вероятностное пространство: (Ω, F, P ).Случайная величина - из-


меримая функция ξ(ω) : Ω → F относительно (F, B). Независимые события. Неза-
висимые случайные величины. Распределение: Pξ (A) := P (ξ −1 (A)), A ∈ B. Функция
распределения F (x) := Pξ ((−∞, x]) = P (ξ ≤ x). p-квантиль:Q(p) := inf{x : F (x) > p}.
Копия случайной величины: случайная величина с таким же распределением. Выбор-
ка из распределения F : X :=(X1 , ..., Xn ) – независимые копии случайной величины ξ.
Эмпирическая (выборочная) функция распределения:
n
1X
Fn (x) = I(Xi ≤ x).
n i=1

Упорядоченная выборка (Порядковые статистики): (Xn,n ≤ ... ≤ X1,n ). Эмпи-


рическая плотность (гистограмма) : Пусть ∆ > 0, ak = ∆k, k ∈ Z, тогда функция
h n
1 X
hn (x) = I(Xi ∈ (ak−1 , ak ]), x ∈ (ak−1 , ak ], k ∈ Z,
∆n i=1
называется (нормализованной) гистограммой.

1
Начнем с картинки.
Пример 1.
Еще несколько примеров.
Пример 2.
Пример 3.
Пример 4.
Таким образом, мы видим, что математически рассмотренные модели обычно мо-
делируется вероятностью достижения характеристикой некоего критического уровня.
Сложность задачи состоит в том, что, как правило, статистика таких редких событий
достаточно бедна. Например, катастрофы, включая финансовые, происходят редко.
Логика постановки задачи требует нестандартного статистического подхода. Тем не
менее, поскольку речь у нас идет об оценивании вероятностей математическими ме-
тодами, мы обязаны подходить к этому как математики, и в первую очередь строить
математическую модель явления. Уже эта простая идея является плодотворной. За-
частую, построив математическую модель явления, можно имитировать исследуемое
явление на ЭВМ, и затем, прогоняя ее много раз на ЭВМ, оценить вероятность ката-
строфы. Несмотря на привлекательность такого подхода, он таит в себе определенную
опасность, связанную с неадекватностью модели. Любая математическая модель яв-
ляется приближенной, то есть, неадекватной. Что же касается исследования редких
событий, то построение модели на ЭВМ должно делаться с учетом процессов, приво-
дящих к таким событиям, то есть, модель должна быть достаточно сложной. Матема-
тики, имея, конечно, в виду такой прямой подход с помощью стохастического модели-
рования, идут другим путем, и начинают исследование с простейших моделей. Секрет
состоит в том, что простые модели более устойчивы, и описывают более широкий класс
процессов. Выводы, основанные на простых моделях, более устойчивы, принципиаль-
но безошибочные (не ведущие к принципиальным ошибкам), и речь может идти лишь
о точности оценивания. С таких моделей мы и начнем решать задачу об оценивании
вероятности редких случайных событий.

1.1 Зачем нужна отдельная теория?


Имеется огромное число статистических методов, направленных на извлечение инфор-
мации о свойствах и виде вероятностного распределения различных показателей, нахо-
дящихся под воздействием случая. В связи со спецификой вероятностного анализа без-
опасности мы остановимся на исследованиях статистического поведения экстремаль-
ных значений данных. Рассмотрим еще один пример, иллюстрирующий специфику
статистических методов исследования экстремальных значений.
Предположим, что нам необходимо построить ангар, при этом предлагаемый про-
ект рассчитан на скорость ветра примерно 48 км/час. У нас есть данные по дневной
максимальной скорости ветра. При помощи стандартных статистических расчетов по-
лучаем, что средняя скорость ветра EX, оцениваемая выборочным средним, равна
X̄ = 21.65, а 95% доверительный интервал (основанный на нормальном приближении)
равен (21.4, 21.9). Однако в нашем случае нас интересует так называемый хвост рас-
пределения, конкретно вероятность p = P (X > 30). Для оценки этой вероятности мы
строим эмпирическую функцию распределения, как оценку функции распределения,
для наших данных получаем следующую оценку для p:

p̂ = 1 − Fn (30) = 0.18.

2
Является ли полученное число основанием для принятия решения о строитель-
стве ангара? Сделаем по этому поводу несколько критических замечаний. Первое.
Может статься, что второй момент EX 2 не существует, даже первый момент E|X|
может быть бесконечным для многих распространенных типов распределений. Тогда
центральная предельная теорема неприменима, и построенный доверительный интер-
вал теряет смысл. Второе. Предполагаемая вероятность 0.18 разрушения ангара явно
служит основанием отвергнуть данный проект. Пользователь вполне может пожелать
вероятность p = P (X > x) столь малой, что x > Xn,n . Это крайне важно, чтобы избе-
жать катастрофы. Но в соответствии с нашим методом оценивания, p̂ = 0. Значит ли
это, что катастрофы никогда не будет? Это значит лишь то, что наш метод оценивания
не работает для столь малых вероятностей p и мы не получили в сущности никакой
важной информации о вероятности разрушения. В терминах эмпирической функции
квантилей
Qn (p) := inf{x : Fn (x) ≥ p}
вышеописанная проблема возникает для квантилей Qn (1 − p) с p < 1/n. Этот пример
показывает, наряду с примерами 1 и 3 с финансовыми данными, что нужны другие
статистические инструменты, направленные на исследование экстремальных значений
выборки, на экстремально высокие квантили, или, что то же самое, на экстремально
малые хвосты распределений.

2 Предельные теоремы для максимума случайной по-


следовательности
Пусть X1 , X2 , ... - последовательность независимых одинаково распределенных случай-
ных величин, и пусть F (x) - их общая функция распределения. Функция распределе-
ния непрерывна справа, поскольку она определяется как F (x) = P (X ≤ x). Основным
функционалом, распределение которого и методы оценивания этого распределения бу-
дут изучаться, является функционал максимума независимых одинаково распределен-
ных случайных величин X1 ,...Xn с функцией распределения F (x), то есть,

Mn = max(X1 , ..., Xn ) = X1,n .

Все, что мы сделаем в этом направлении будет применимо и к функционалу минимума,


поскольку
min(X1 , ..., Xn ) = − max(−X1 , ..., −Xn ).
Распределение функционала Mn легко вычислить,

P (Mn ≤ x) = P (X1 ≤ x, ..., Xn ≤ x) = F n (x),

то есть, мы собираемся исследовать степень функции распределения!


Введем важную характеристику распределения - его правую крайнюю точку

xF = sup{x ∈ R : F (x) < 1},

минимальное число, больше которого случайная величина быть не может.


Прежде всего заметим, что для любого x < xF , P (Mn ≤ x) → 0, n → ∞, а если
xF < ∞ и x ≥ xF , то P (Mn ≤ x) = F n (x) = 1. Однако эти свойства степени функ-
ции распределения мало информативны. Они годятся разве что для статистического

3
оценивания точки xF . Достаточно часто, например, xF = ∞, а вот определить, каким
образом растет Mn , приближаясь к xF , дает, как будет ясно дальше, важную инфор-
мацию для прогноза максимального значения.
Мы поступим так, как поступают при исследовании распределения сумм случайных
величин. В силу закона больших чисел, (при некоторых условиях на F , о которых
можно прочесть в учебниках по теории вероятностей)

X1 + ... + Xn
→ EX, a.s., n → ∞.
n
Однако если мы хотим знать, как происходит сходимость, с какой скоростью, в действие
вступает центральная предельная теорема, в силу которой, при условии конечности
второго момента, (EX 2 < ∞,)

n−1/2 (X1 + ... + Xn − nEX) → N (0, Var X).

То есть, скорость сходимости усредненной суммы к среднему определяется гауссовской


случайной величиной с дисперсией, равной дисперсии X1 , деленной на квадратный
корень из n. Итак, пользуясь этой аналогией, мы будем искать последовательности
cn > 0 и dn такие, чтобы для некоторого невырожденного распределения H имело
место соотношение
d
c−1
n (Mn − dn ) → H .

Итак, мы изучим последовательность вероятностей P (c−1


n (Mn − dn ) ≤ x) при n → ∞.
Обозначим
F = 1 − F.

Утверждение 1 (Пуассоновская аппроксимация) Пусть τ ∈ [0, ∞]. Для любой по-


следовательности un предельные соотношения

nF (un ) → τ, n → ∞ (1)

и
P (Mn ≤ un ) → e−τ , n → ∞. (2)
эквивалентны.

Доказательство: Пусть сначала τ < ∞. Предположим, что выполнено (1). Тогда,


пользуясь замечательным пределом, имеем, что
τ 1
P (Mn ≤ un ) = F n (x) = (1 − F (un ))n = (1 − + o( ))n → e−τ ,
n n
то есть, имеет место (2). Обратно, пусть выполнено (2). (Продолжаем предполагать, что
τ < ∞). Тогда, во-первых, F (un ) → 0 при n → ∞. Действительно, в противном случае
найдутся  > 0 и подпоследовательность unk ≥ 0, такая, что F (unk ) ≥ , следовательно

P (Mnk ≤ unk ) = (1 − F (unk ))nk → 0,

то есть, τ = ∞), что противоречит предположению о конечности τ . Беря логарифм от


обеих частей (2), получаем
−n ln(1 − F (un )) → τ.

4
Поскольку ln(1 − x) ∼ −x при x → 0, то

nF (un ) = τ + o(1),

и (1) имеет место в случае τ < ∞.


Осталось рассмотреть случай τ = ∞. Пусть (1) имеет место. Если при этом (2) не
имеет места, то найдется подпоследовательность такая, что
0
P (Mnk ≤ unk ) → e−τ

для некоторого τ 0 < ∞, по доказанному ранее, nk F (unk ) → τ 0 , что невозможно. Обрат-


ное утверждение доказывается аналогично.
Замечание: Пусть τ ∈ (0, ∞). Случайная величина
n
X
Bn = IXi >un
i=1

распределена по закону Бернулли, Bn ∼ Ber(n, F (un )). Пуассоновская предельная тео-


рема гласит, что
d
Bn → Poi(τ )
тогда и только тогда, когда
EBn = nF (un ) → τ.
Теперь заметим, что P (Mn ≤ un ) = P (Bn = 0) → e−τ . Таким образом, в случае конеч-
ного τ наше утверждение есть следствие пуасоновской предельной теоремы.
Замечание: Если для некоторой последовательности un и некоторого τ ∈ (0, ∞)
выполнены соотношения (1) и (2), то и для любого другого конечного и положительно-
го τ 0 найдется соответствующая последовательность u0n . Действительно, при помощи
простой замены переменной в (1) легко увидеть, что

u0n = u[nτ /τ 0 ] .

Следствие 1 Пусть xF < ∞ и пусть F (xF −) > 0. (Напомним, что по определению


F (x−) = limy↑x F (y)) Если найдется последовательность un такая, что

P (Mn ≤ un ) → ρ,

то ρ = 0 или 1.

Доказательство: Поскольку 0 ≤ ρ ≤ 1, можно сделать замену ρ = e−τ , где τ ∈


[0, ∞]. Имеем nF (un ) → τ, n → ∞. Если un < xF для бесконечно многих n, то для
некоторой подпоследовательности unk выполнено F (unk ) ≥ F (xF −) > 0, то есть τ = ∞.
Если наоборот, un ≥ xF для всех достаточно больших n, то nF (un ) = 0, то есть, τ = 0.
Таким образом, ρ = 0 или 1.
Это следствие ведет к некоторому пессимизму относительно универсальности пуас-
соновской аппроксимации. Действительно, для достаточно большого числа распреде-
лений утверждение о пуассоновской аппроксимации тривиально – τ может быть равно
или нулю или бесконечности, и ничего более. Следующая теорема, которую мы при-
водим без доказательства, дает исчерпывающий ответ на вопрос, когда пуассоновская
аппроксимация имеет место с нетривиальным τ.

5
Теорема 1 Для любого распределения F и любого τ ∈ (0, ∞) найдется последователь-
ность un такая, что nF (un ) → τ , тогда и только тогда, когда
F (x)
lim = 1.
x↑xF F (x−)
В частности, для дискретных распределений этот критерий существования после-
довательности un для нетривиальных τ выглядит следующим образом,
F (n)
lim = 1.
n↑∞ F (n − 1)

Пример 1. Пуассоновское распределение. Оно определяется как


λn −λ
P (X = n) = e
n!
Вычислим предел из теоремы:
F (n) F (n) − F (n − 1)
=1− =
F (n − 1) F (n − 1)

!−1 ∞
!−1
λn X λ r X n! r−n
1− =1− 1+ λ
n! r=n
r! r=n+1
r!

Для последней суммы получаем,


∞ ∞  s
X λs X λ λ/n
≤ = →0
s=1
(n + 1)...(n + s) s=1
n 1 − λ/n

при n → ∞, то есть, для пуассоновских случайных величин не найдется последова-


тельности un такой, чтобы пуассоновское приближение распределения ее екстремумов
имело место.
Пример 2 Геометрическое распределение. Оно определяется как время до первого
успеха в испытаниях Бернулли:
P (X = n) = p(1 − p)n−1 , n = 0, 1, 2, ...
Имеем для него

!−1
F (n) X
= 1 − (1 − p)n−1 (1 − p)r−1 = 1 − p ∈ (0, 1)
F (n − 1) r=n

То есть, вывод, аналогичный выводу предыдущего примера. Нет такой un .


Пример 3. Отрицательное биномиальное распределение. Оно определяется как
n−1
P (X = n) = Cν+n−1 pν (1 − p)n−1 , n = 1, 2, ..., 0 < p < 1
(Если ν целое, то это - распределение до ν-го успеха в серии испытаний Бернулли.)
Попробуйте проверить, что и в этом случае
F (n)
lim ≤ 1 − p < 1.
n↑∞ F (n − 1)