Вы находитесь на странице: 1из 16

ГУ-ВШЭ

Факультет экономики

Курсовая работа на тему:


«Выбор адекватных методов расчёта волатильности»

Загайнов Матвей, группа №210;


Москва, 2010 год
Выбор адекватных методов расчёта волатильности
Оглавление
Вступление……………………………………………………………………………………………………………………………1
1)Статистические методы…………………………………………………………………………………………………… 2
«Сугубо» статистические методы…………………………………………………………. 2
Utility-based методы……………………………………………………………………………… 3
Непараметрические методы………………………………………………………………… 6
Diebold and Mariano’s sign test…………………………………….. 6
Diebold and Mariano’s Wilcoxon sign-rank test……………… 6
«Простой» тест без конкретного авторства………………… 7
The Morgan-Granger-Newbold Test………………………………. 7
Регрессионный тест………………………………………………………………………………. 8
2)Стилизованные факты о волатильности…………………………………………………………………………. 8
3) Как же в итоге выбрать лучшую модель?......................................................................... 10
Вывод…………………………………………………………………………………………………………………………………… 13
Возможности дальнейших исследований………………………………………………………………………… 13
Список использованной литературы………………………………………………………………………………… 14

Вступление
«Выбор адекватных методов расчёта волатильностей курсов ценных бумаг». Прежде чем
переходить к анализу различных эконометрических моделей расчёта волатильности, нужно,
пожалуй, сначала понять, как и зачем они используются на практике.
Наиболее часто упоминаемое использование помимо случаев, когда, например, измерение
Value-at-risk или иного показателя, рассчитываемого в том числе исходя из волатильности,
является конечной целью – это использование моделей волатильности при опционной торговле
или торговле свопами (и вполне возможно другими деривативами, но чаще всего это, конечно,
опционы), которую часто называют торговлей волатильностью.1
Путь любого торговца волатильностью начинается с модели Блэка-Шоулза-Мёртона2, по
которой рынок, грубо говоря, устанавливает цену на опцион исходя из подразумеваемых (implied)
показателей базового актива так, чтобы для безрискового дельта-нейтрально-хэджированного (в
случае с наиболее распространённым портфелем, состоящим из опциона кол (пут) и короткой
(длинной) позиции по базовому активу) портфеля прибыль была равна нулю.

1
http://en.wikipedia.org/wiki/Volatility_(finance) в т.ч.
2
http://en.wikipedia.org/wiki/Black_Scholes
1
Несмотря на то, что базовая модель Блэка-Шоулза-Мёртона выведена исходя из некоторых,
зачастую несовместимых с реальностью предпосылок (eg абсолютная ликвидность базового
актива, дельта-нейтральный-хэджированный портфель, отсутствие дивидендов по базовому
активу, отсутствие трансакционных издержек, непрерывность процесса изменения, моментальное
получение доходов, возможность непрерывного рехеджирования + некоторые математические
упрощения наподобие использования разложения Тейлора только второго порядка в базовой
модели и т.д.), большинство из которых, правда, были так или иначе убраны в различных
модификациях модели, за неё всё равно была получена Нобелевская премия за саму идею
implicitly определяемых рынком параметров. Так или иначе, по-моему, использование модели
BSM и прочих подобных лучше всего характеризуется фразой практикующего трейдера Юана
Синклэйра: «We always need to remember that a pricing model is not meant to be an accurate
reflection of reality. It is a framework to think within, and a consistent intellectual backdrop that helps
us build intuition»3.
Расчёт волатильности для применения в опционной торговле в контексте модели Блэка-
Шоулза является одним из главных практических путей применения методов расчёта
волатильности, но именно эта сфера применения не является главной темой работы. Возвращаясь
к ней, нужно сказать, что методы расчёта волатильности можно в общем оценивать:
1) либо по сугубо статистическим методам (простой пример: средняя ошибка, доля
средней ошибки, R^2, различные формы out-of-sample тестов etc);
2) либо по соответствию стилизованным фактам (которые, важно заметить, в разной
степени могут проявляться для разных ценных бумаг);
3) либо исходя из эффективности практического применения – доходности/рисковости при
какой-либо стратегии(ях) торговли (скорее всего торговли опционами в контексте этой
работы), когда некая функция доходности/рисковости выступает аналогом функции
полезности – как раз в этом случае нужно отталкиваться от модели BSM; либо точности
измерений для принятия решений в риск-менеджменте;

1. Статистические методы
«Сугубо» статистические методы4
Вот некоторые наиболее часто упоминаемые в эконометрической литературе «сугубо
статистические» методы, с помощью которых можно оценить эффективность моделей
волатильности:

3
Euan Sinclair (2008): Volatility trading. Wiley, p.14
4
Ser-Huang Poon (2005): A Practical Guide to Forecasting Financial Market Volatility. Wiley, pp. 23-30
2
Mean Error (ME) – средняя ошибка:
𝑁 𝑁

1/𝑁 𝜀𝑡 = 1/𝑁 (𝜎𝑡 − 𝜎𝑡 ),


𝑡=1 𝑡=1

Mean Square Error (MSE) – среднеквадратическая ошибка


𝑁 𝑁

1/𝑁 𝜀𝑡2 = 1/𝑁 (𝜎𝑡 − 𝜎𝑡 )2 ,


𝑡=1 𝑡=1

Root Mean Square Error (RMSE) – корень средней квадратической ошибки:

𝑁 𝑁

1/𝑁 𝜀𝑡2 = 1/𝑁 (𝜎𝑡 − 𝜎𝑡 )2 ,


𝑡=1 𝑡=1

Mean Absolute Error (MAE) – средняя абсолютная ошибка:


𝑁 𝑁

1/𝑁 |𝜀𝑡 | = 1/𝑁 |𝜎𝑡 − 𝜎𝑡 |,


𝑡=1 𝑡=1

Mean Absolute Percent Error (MAPE) - средняя абсолютная ошибка в процентах (хотя здесь просто
доли):
𝑁 𝑁
|𝜀𝑡 | |𝜎𝑡 − 𝜎𝑡 |
1/𝑁 = 1/𝑁 ,
𝜎𝑡 𝜎𝑡
𝑡=1 𝑡=1

Bollerslev и Ghysels (1996) предложили вариант MSE с поправкой на гетероскедастичность,


которые называется HMSE:
𝑁
𝜎𝑡
𝐻𝑀𝑆𝐸 = 1/𝑁 [ − 1]2
𝜎𝑡
𝑡=1

Mean Logarithm of Absolute Errors (MLAE) – среднее логарифмов абсолютных ошибок:


𝑁 𝑁

1/𝑁 ln|𝜀𝑡 | = 1/𝑁 ln|𝜎𝑡 − 𝜎𝑡 |.


𝑡=1 𝑡=1

По всем вышеназванным моделям оценки возникает вопрос: что использовать в качестве


actual volatility – ведь в реальности волатильность ненаблюдаема. Есть два логичных варианта
ответа: либо 𝜎𝑡 для сравниваемых моделей волатильности рассчитывается исходя из какой-либо
третей модели (и тогда сразу закономерный вопрос – какой?), либо 𝜎𝑡 = 𝜎𝑡 |Ф𝑡 где 𝜎𝑡 |Ф𝑡 считается
по той же модели, которую мы оцениваем.

Utility-based методы
Загвоздка также в том, что ни один из вышеописанных методов не стал панацей к
выявлению в рамках какого-либо исследования «наилучшей» модели оценки волатильности, так
как, во-первых, некоторые тесты сами обладают своим «белым шумом» или ошибками иной
3
структуры, во-вторых, являя собой фактически агрегированные каким-либо образом ошибки
стандартных отклонений, они позволяют лишь сказать, что на какой-либо конкретной выборке эти
самые агрегированные ошибки одной модели больше или меньше другой. Насколько это самое
отклонение значимо – вопрос, который приводит нас к задаче составления аналога
микроэкономической функции полезности на основе тех же отклонений волатильности. Это
задача много более трудная и менее близкая к реальности, чем оценка доходности по конкретной
стратегии при применении разных моделей (нетрудно придумать/найти пример с большей
доходностью при модели A, чем при B, и при этом агрегированное отклонение волатильности в
модели A будет больше, чем в B; при этом критерий доходности, очевидно, для практиков важнее
«синтетического» критерия отклонений).
Правда, несмотря на эти потенциальные трудности, попытки оценок по синтетическим
функциям полезности предпринимались. Вест, Эдиссон и Чо в своей статье «A utility based
comparison of some methods of exchange rate volatility»5 (1993) показывают, во-первых, что
результаты применения чисто статистических методов (описанных выше) в общем будут
отличаться от utility-based, приводя к неправильному инвестиционному решению. Простой
пример этого, который дают Вест, Эдиссон и Чо:
Предположим, что у индивида экспоненциальная функция полезности
𝑈(𝑊𝑡+1) = −𝑒𝑥𝑝⁡
(−𝜃𝑊𝑡+1 ), где 𝜃 > 0, а 𝑊𝑡 + 1 – богатство периода t+1.Предположим, что
есть три актива, один из них безрисковый. Пусть 𝜇 ≡ (𝜇1 , 𝜇2 )и 𝐻, соответственно, среднее и
ковариационная матрица вектора доходностей (2Х1), 𝑓 ≡ 𝑓1 , 𝑓2 - вектор 2Х1 долей богатства,
1
вложенных в активы. Также 𝜇1 = 𝜇2 > 0. Максимизация U в этой задаче даст: 𝑓= 𝐻 −1 𝜇,
𝜃𝑊

где W – это W за период t. Предположим, что истинное значение H – единичная матрица.


Предположим также, что у нас есть две оценки матрицы H:

2 −1 1 0
𝐻1 = 𝐻2 =
−1 2 0 1,001

По простым статистическим методам, таким как среднее квадратов разностей между


невырожденными элементами истинной H и её оценок, H2 ближе к H, но простой подсчёт «в лоб»
показывает, что H1 даёт максимизурующие доли f1 и f2.
Далее в этой статье идёт пример, который более обще показывает разность концепций
«грубого» статистического счёта и utility-based, а уже после этого – пример, сравнивающий GARCH
(1,1), IGARCH, две спецификации ARIMA, простой AR и непараметрический критерий Паганна и
Улла (Pagan & Ullah), который в современной литературе вообще не упоминается и в практике,

5
West, K.D., H.J. Edison and D. Cho (1993) – A utility based comparison of some methods of exchange rate
volatility, Journal of International Economics
4
видимо, тоже не используется. Оценивали Вест, Эдиссон и Чо всё на данных относительных
курсов нескольких основных валют, используя лог-доходность в качестве основного уравнения и
некое биквадратное уравнение от богатства как функцию полезности. Как и у многих других
авторов конца 80-ых, начала 90-ых у них получилось (Pagan & Schwert в 1990 показали, что GARCH
и ARMA лучше непараметрических моделей и модели переключения режимов Маркова, Акгирэй
в 1989 – что GARCH лучше ARMA, Engle в 1990 – что GARCH лучше ARMA, Friedman & Kuttner в 1988
– что GARCH и AR однозначно не могут быть соотнесены), что GARCH’и работают лучше
исследованных альтернатив, но не в этом главный смысл - все вышеперечисленные
исследователи работали со специфическими данными, обобщённый вывод по всему фондовому
рынку по которым делать, строго говоря, нельзя. Главный смысл приведённого примера в том,
чтобы показать, что чисто статистический подход как интуитивно, так и с конкретными
численными примерами показывает свою неэффективность в качестве единственного средства
принятия инвестиционного решения.
Альтернативой введения полноценной отдельной функции полезности, может быть
включение в какой-либо форме весов в функции агрегированных средних ошибок, чтобы достичь
ассиметрии распределения значений показателей агрегированных средних ошибок аналогичной
той, которая была бы получена при введении функции полезности. Вот, например:
𝑁 2
𝑡=1 𝜎𝑡 − 𝜎𝑡
𝑇𝑕𝑒𝑖𝑙 − 𝑈 = 2,
𝑁
𝑡=1 𝜎𝑡𝐵𝑀 − 𝜎𝑡

где 𝜎𝑡𝐵𝑀 - прогноз-бенчмарк, который используется для устранения эффекта скалярных


преобразований 𝜎𝑡 в формуле и как раз получения аналога весов.
Более понятный и простой в этом плане показатель
𝑁
1
𝐿𝐼𝑁𝐸𝑋 = ∗ 𝑒𝑥𝑝 −𝑎(𝜎𝑡 − 𝜎𝑡 ) + 𝑎 𝜎𝑡 − 𝜎𝑡 − 1 ,
𝑁
𝑡=1

где a – субъективно определяемый вес. В работе Granger (1999) можно найти эти и некоторые
другие примеры агрегированных показателей с параметризированной ассиметричностью.
Перед тем, как переходить к непараметрическим тестам, нужно упомянуть немаловажное в
данном контексте деление out-of-sample тестов на recursive scheme тесты и rolling scheme тесты. В
recursive scheme тестах для предсказания n+1 будет использоваться информация {1,…,n}, для
предсказания n+2 – {1,…,n+1} и т.д. По такой схеме делались тесты в вышеуказанной работе Вэста,
Эдиссона и Чо. В rolling scheme тестах для предсказания n+1 будет использоваться информация
{1+a,…,n}, для предсказания n+2 будет использоваться информация {2+a,…,n+1} и т.д., где 0=<a<=n.
Тесты, которые будут описываться далее, предположительно могут использоваться для принятия
решения о переключении с одной модели предсказания волатильности на другую в случае

5
неадекватности поведения первой на каком-то ограниченном промежутке последнего времени,
поэтому понимание различия recursive scheme и recursive scheme здесь важно.

Непараметрические методы
Непараметрические тесты наподобие тех, что разработаны Diebold и Mariano6, решают
проблему того, отклонение волатильности какой величины считать значимым (проблема
отсутствия в явном виде функции полезности), сводя её к выбору т.н. уровня доверительности для
принятия/непринятия нулевой гипотезы. Хотя тут всё равно остаётся не совсем ясным – как
учитывать структуру отклонений волатильности, т.е. её распределение (это немаловажно, так как,
опять же, можно придумать пример с одновременно большим агрегированным отклонением и
большей доходностью). Так или иначе, вот модели:

Diebold and Mariano’s sign test


Пусть 𝑑𝑡 ≡ 𝑔 𝑒𝑖𝑡 − 𝑔 𝑒𝑗𝑡 , где 𝑔(∙)=𝜀 = 𝜎𝑡 − 𝜎𝑡 , например.
Нулевая гипотеза – равенство медианы разниц ошибок нулю, т.е.

𝑀𝑒𝑑 𝑑 = 𝑀𝑒𝑑 𝑔 𝑒𝑖𝑡 − 𝑔 𝑒𝑗𝑡 =0


𝑇
Если предположить, что 𝑑𝑡 ~𝑖𝑖𝑑, то статистика 𝑆2 = 𝑡=1 𝐼+ ( 𝑑𝑡 ),

1, 𝑑𝑡 > 0
где 𝐼+ (𝑑𝑡 ) = - распределена биномиально с параметрами T и ½. В непрерывном
0, иначе
случае, который, как пишут авторы, применим для больших выборок, эта статистика будет
выглядеть как
𝑆2 − 0,5𝑇
𝑆2𝑎 = ~𝑁 0,1 .
0,25𝑇
Здесь есть две больших проблемы: во-первых, для большого количества моделей волатильности
предпосылка 𝑑𝑡 ~𝑖𝑖𝑑 будет неверна. Исходя уже только из этого, предпосылка о симметричности
распределения dt относительно нуля, на основании которой делается предположение о p=1/2,
довольно-таки спорна. Несмотря на это, в общем, этот тест, как и тот, что ниже, применять можно.

Diebold and Mariano’s Wilcoxon sign-rank test


𝑇

𝑆3 = 𝐼+ ( 𝑑𝑡 )𝑟𝑎𝑛𝑘 𝑑𝑡 и
𝑡=1

6
Diebold, F.X., and R.S. Mariano (1995) - Comparing predictive accuracy, Journal of Business and Economic
Statistics, #13, pp. 253–263.
6
𝑇(𝑇 + 1)
𝑆3 − 4
𝑆3𝑎 = ~𝑁(0,1)
𝑇 𝑇 + 1 (2𝑇 + 1)
24
Проблема с коррелированностью ошибок, то есть тем, что предпосылка 𝑑𝑡 ~𝑖𝑖𝑑 не верна,
сохраняется и здесь. Мариано и Дибольд предлагают её решить посредством коррекции
Бонферрони7, чтобы проводить на выборке размером 𝛼 k тестов на подвыборках размером 𝛼/𝑘
по такой схеме:
𝑑𝑖𝑗 ,1 , 𝑑𝑖𝑗 ,1+𝑘 , 𝑑𝑖𝑗 ,1+2𝑘 , … ,
𝑑𝑖𝑗 ,2 , 𝑑𝑖𝑗 ,2+𝑘 , 𝑑𝑖𝑗 ,2+2𝑘 , … ,

𝑑𝑖𝑗 ,𝑘 , 𝑑𝑖𝑗 ,2𝑘 , 𝑑𝑖𝑗 ,3𝑘 , … .
Если нулевая гипотеза отвергается хоть в одной из подвыборок, то она отвергается для
совокупности в принципе.

«Простой» тест без конкретного авторства


𝑒𝑖′ 𝑒𝑖
𝑒𝑖′ 𝑒𝑖
𝐹= 𝑇′ = ′ ~𝐹 𝑇, 𝑇 ,
𝑒𝑗 𝑒𝑗 𝑒𝑗 𝑒𝑗
𝑇
где e – вектора размеров (Tx1), например, ошибок предсказаний, то есть 𝜀 в нашем случае.
Статистика называется «простой» (naïve в оригинале), так как является верной при довольно
строгих предпосылках, главная из которых - стандартная нормальность и некоррелированность
ошибок, что на практике невозможно. В принципе, здесь тоже можно применить коррекцию
Бонферрони, но тогда мы скорее всего с неприемлимо большой вероятностью всегда будем
отвергать нулевую гипотезу, или же придётся выбирать низкий уровень доверительности.

The Morgan-Granger-Newbold Test


Решение проблема коррелированности было предложено Granger и Newbold (1977). Пусть
𝑥 = 𝑒𝑖 + 𝑒𝑗 и 𝑧 = 𝑒𝑖 − 𝑒𝑗 . Тогда нулевая гипотеза об эквивалентности предсказаний моделей
будет аналогична условию отсутствия корреляции между x и z, следовательно,
𝜌𝑥𝑧
MGN = ~𝑡𝑡−1 ,
1− 2
𝜌𝑥𝑧
𝑇−1

то есть статистика MGN будет распределена как распределение Стьюдента с T-1 степенями
𝑥′ 𝑧
свободы, где 𝜌𝑥𝑧 = .
(𝑥 ′ 𝑥)(𝑧 ′ 𝑧)

7
http://en.wikipedia.org/wiki/Bonferroni_correction
7
Дибольд и Мариано исследовали все эти модели сравнения в своей статье на основе
экспериментов Монте Карло, где ошибки моделировались несколькими распределениями, в т.ч.
нормальным (но «реальных» моделей волатильности типа GARCH’a у них не было) + на курсе
волют доллара/гульдена. Опуская полученные ими некоторые характерные особенности моделей
сравнения, у них получилось, что использовать их все можно, одна другую однозначно не
доминирует. При этом они акцентируют внимание на том, что если по результатам одной из
вышеописанных статистик одна модель A по сравнению с моделью B даёт, например, меньшие
медианно ошибки, то это не значит, что модель A включает в себя информацию модели B.

Регрессионный тест
Доходность актива – переменная наблюдаемая, а волатильность – нет. Предположим, что
изначальная спецификация такова 𝑟𝑡2 = 𝑎 + 𝑏𝑕𝑡 + 𝑢𝑡 (это наиболее часто использующийся
вариант, хотя может быть и другая). Тогда регрессия в идеале должна давать a=0 и b=1. Правда,
как пишут Энгл и Паттон (2001), r скорее всего гетероскедастично, поэтому просто регрессия
методом наименьших квадратов здесь будет неэффективна – надо избавиться от
гетероскедастиности. Также проблема может быть в том, что r – «шумная» переменная, то есть
она является плохой оценкой h. Более подробно этот метод с его недостатками рассмотрен,
например, в работе Bollerslev, Engle and Nelson (1994).

Резюмируя, можно сказать, что сами по себе вне контекста более сложных моделей
различные агрегированные отклонения волатильности не могут использоваться как
исчерпывающий критерий выбора модели расчёта волатильности. Utility-based модели хороши
для построения теоретических моделей, абстрактного агрегирования ситуации, но на практике
трудно составить функцию полезности лучшую, чем доходность при конкретной стратегии.
Непараметрические статистики соответствия ошибок предсказания наподобие предложенных
Мариано и Дибольдом и прочих – готовый инструмент, с помощью которого можно ответить
превосходит ли одна модель другую на каком-либо ограниченном дата сете; непараметрические
статистики можно учитывать при принятии решения о переключении с одной модели
волатильности на другую в случае «неадекватного» поведения текущей на ограниченном отрезке
последнего времени.

2. Стилизованные факты о волатильности


Исследований о степени соответствия различных моделей стилизованным фактам о
волатильности не проводилось, тем не менее, как минимум перечислить сами факты для общего

8
понимания проблемы нужно (хотя бы потому что модели волатильности должны им
соответствовать; в какой степени – уже второй вопрос):

1)Кластеризация волатильности. За большими изменениями вероятно следуют большие, за


малыми – малые. В английской литературе при описании этого явления, а также эффекта
«длинной» памяти – одно с другим связано - используется термин «volatility persistence»
(~упорство). Энгл и Паттон (2001) 8 предлагают такое определение этого самого «volatility
persistence»:
𝜕𝑕𝑡+𝑘|𝑡
𝜃𝑡+𝑘|𝑡 = ,
𝜕𝑟𝑡2
где h – волатильность, а r – доходность. Также они приводят аналогичный показатель
кумулятивной (агрегированной) «volatility persistence»:
𝜕(1/𝑘(𝑕𝑡+𝑘|𝑡 + 𝑕𝑡+𝑘−1|𝑡 + ⋯ + 𝑕𝑡+1 ))
𝜑𝑡+𝑘|𝑡 = = 1/𝑘(𝜃𝑡+𝑘|𝑡 + 𝜃𝑡+𝑘−1|𝑡 + ⋯ + 𝜃𝑡+1|𝑡 ).
𝜕𝑟𝑡2
Ещё они приводят показатель той же группы «полураспада» волатильности – это время, которое
нужно, чтобы волатильность прошла полпути от своего текущего условного значения до
безусловного.
2)Высокий коэффициент эксцесса и толстые хвосты распределений показателей в
финансовых временных рядах
3)«Длинная» память показателей волатильности – высокая автокорреляция сохраняется при
больших значениях лагов.
4)Очевидная связь движения волатильности на одних рынках с движениями волатильности
на других. Этот стилизованный факт говорит о том, что модели многих переменных могут
оказаться эффективны. Также к этому факту можно отнести совместные одновременные
смещения в волатильности на разных рынках/по разным активам.
5)Волатильность возвращается к среднему, то есть есть какой-либо нормальный уровень
волатильности, к которому рано или поздно она возвращается. Более строго:
plim 𝑕𝑡+𝑘|𝑡 = 𝜎𝑡2 < ∞
𝑘→∞

или в терминах «volatility persistence»:


plim 𝜃𝑡+𝑘|𝑡 = 0.
𝑘→∞

6)Эффект рычага или ассиметричность воздействия инноваций.


Во-первых, что в англоязычной литературе в контексте временных рядов называют
инновацией? Инновация – это стохастическая часть изменения волатильности, иными словами –
шок. Стилизованный факт об ассиметричности воздействий инноваций – факт о том, что шоки

8
R.F. Engle and A.J. Patton (2001): What good is a volatility model? Quantitative Finance, vol. 1(2), pp. 237–245
9
волатильности разных знаков по-разному воздействуют на доходности базового актива, более
того шоки волатильности и доходности отрицательно коррелированны.
Множество ссылок на работы, подтверждающие вышеуказанные стилизованные факты
можно найти например у R.F. Engle и A.J. Patton (2001).
Все 6 фактов представимы в математической форме и не составит труда проверить какую-
либо модель на соответствие этим фактам (образец такой проверки на примере индекса Доу-
Джонс и модели GARCH и её спецификаций можно также найти в R.F. Engle and A.J. Patton (2001)).

3. Как же в итоге выбрать лучшую модель?


В первой части этой работы я не просто так рассмотрел некоторые методы, которые
применяются для out-of-sample contest’ов разных моделей волатильности – как правило, в
подавляющем большинстве работ по сравнению моделей волатильности авторы просто проводят
их эмпирические тесты на каком-либо дата сете, сравнивая результаты out-of-sample тестов по
одной из статистики наподобие тех, что я перечислил.
Ser-Huang Poon и Clive Granger (кстати, они же в 2003 составили самый полный на данный
момент обзор существующих моделей волатильности) в 2005 году рассмотрели9 набор таких
эмпирически направленных статей, чтобы агрегировано попытаться выяснить, превосходит ли
какая-либо модель другую. Прежде чем представлять итоги, нужно кратко перечислить, на какие
группы они разделили все модели:

HISVOL (historical volatility)


𝜎𝑡 = ф1 𝜎𝑡−1 + ф2 𝜎𝑡−2 + ⋯ + ф𝜏 𝜎𝑡−𝜏 , где
𝜎𝑡 − ожидаемое стандартное отклонение
ф𝜏 − параметр веса
𝜎𝑡−𝜏 − историческое стандартное отклонение
В эту группу они включили случайное блуждание, ARMA, некоторые формы
экспоненциального сглаживания.

Различные формы ARCH


В т.ч. нелинейные. Но в общем случае:
𝑟𝑡 = 𝜇 + 𝜀𝑡 или часто лог. доходность , где
𝑟𝑡 − дохоность
𝜇 − средняя доходность
𝜀𝑡 – в англоязычной литературе остаточные 𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙 доходности, проще говоря,

9
Ser-Huang Poon and Clive Granger (2005): Practical Issues in Forecasting Volatility. Financial Analysts Journal, Vol.
61, pp. 45-56
10
стохастическая часть доходности
𝜀𝑡 = 𝑕𝑡 𝑧𝑡 , где чаще всего 𝑧𝑡 ~𝑁 0,1 , а 𝑕𝑡 − условная дисперсия
𝑝 𝑞
2
𝑕𝑡 = 𝜔 + 𝛽𝑗 𝑕𝑡−𝑗 + 𝛼𝑘 𝜀𝑡−𝑘
𝑗 =1 𝑘=1

SV (Stochastic volatility)
𝑟𝑡 = 𝜇 + 𝜀𝑡 или часто лог. доходность
𝜀𝑡 = 𝑧𝑡 exp 0,5𝑕𝑡
𝑝

𝑕𝑡 = 𝜔 + 𝛽𝑗 𝑕𝑡−𝑗 + 𝑣𝑡 ,
𝑗 =1

где v – т.н. innovation, определение которого я писал ранее. v и z могут быть коррелированны.

ISD (implied standard deviation)


Система определения «подразумеваемой» волатильности описана более подробно во
вступлении. К этой группе Ser-Huang Poon и Clive Granger относили все модификации модели
Блэка-Шоулза. В общем виде:
𝑐 = 𝑔 𝑆, 𝑋, 𝜎, 𝑅, 𝑇, 𝜏 ,
где g – какая-либо функция ценообразования опциона, например, модель BSM, а с – собственно
цена опциона.
𝑆 − цена базового актива
𝑋 − цена исполнения контракта
𝜎 − волатильность
𝑅 − безрисковая ставка процента
𝑇 − время до исполнения контракта
𝜏 − трансакционные издержки

Но часто при использовании ISD моделей происходит переоценка или недооценка, поэтому их
дополняют вот такой вот регрессией
𝜎𝑡+1 =∝ +𝛽𝐼𝑆𝐷𝑡 + 𝑒𝑡 , для 𝑡 = 1,2, … , 𝑇 − 1 и, следовательно:
𝜎𝑇+1 =∝ +𝛽𝐼𝑆𝐷𝑇 ,
где 𝜎𝑡+1 - историческая волатильность.

В некоторых их вышеупомянутых моделей оценка волатильности также как-либо зависит от


значений исторической волатильности, которую, так как это ненаблюдаемая переменная, можно
посчитать по-разному. Правда, по Poon и Granger, лучшие результаты модели дают, когда

11
историческая волатильность считается исходя из квадратов внутредневных доходностей по
данным 5 или 15-минутной частоты.

Возвращаясь к работе Poon и Granger – в рамках неё они рассмотрели 93 наиболее


цитируемых статьи по сравнению моделей волатильности, отобрали из них только статьи с
эмпирическим содержанием и out-of-sample тестами какого-либо рода. В итоге статей осталось 66
и вот какие результаты агрегирование выводов по ним дало:
Количество исследований с
Вывод исследования Процент таких исследований
таким выводом
HISVOL>ARCH 22 56
ARCH>HISVOL 17 44
HISVOL>ISD 8 24
ISD>HISVOL 26 76
GARCH>ISD 1 6
ISD>ARCH 17 94
ARCH>SV 1
ISD>SV 1
SV>HISVOL 3
SV>ARCH 3

В общем, получилось, что лучшие прогнозы дают модели ISD, в след за ними с примерно
одинаковыми результатами HISVOL и GARCH. На момент 2005 года количество исследований по SV
было слишком малым, чтобы сделать однозначные выводы.
Неудивителен подавляющий успех ISD – ведь это модели, учитывающие значительно
больше факторов, чем модели временных рядов. Другое дело, что при использовании ISD (читай,
модификаций модели Блэка-Шоулза-Мёртона) мы наталкиваемся, например, при опционной
торговле на проблему, которую лучше всего описал Юан Синклейр: «…And never estimate the
magnitude of risks from within the same model that you priced them with…». Иначе говоря, чтобы не
приходить к бессмысленным выводам наподобие 0=0, нам всё равно придётся использовать в
опционной торговле для оценок потенциальных сделок какие-либо из моделей временных рядов.
Также ISD возможно применять только для тех акций, для которых есть активно торгующиеся
облигации, что уже само по себе сильное ограничение.
А вообще про эту таблицу: нужно учитывать, что все исследования в статьях проводятся по
разным дата сетам, с разными временными ограничениями, с разными критериями оценки
моделей. Поэтому нужно понимать, что вывод двумя параграфами ранее – это агрегирование на
основе довольно-таки разобщённых предпосылок. Более того, как я уже писал в первом блоке
12
этой работы, сугубо статистические методы оценок, которые используются в эмпирически
направленных статьях, не учитывают экономические мотивы.

Вывод
По результатам исследованной совокупности статей и книг, можно сказать, что оптимальной
последовательностью выбора модели волатильности для какого-либо конкретного актива будет
такая:
для определённого исходя из принципов фундаментального анализа временного
горизонта проводим out-of-sample тесты нескольких моделей, круг которых можно
также сузить, исходя из аналитических особенностей каждой модели (eg какой смысл
тестировать regime switching models, если интересующий нас базовый актив на
протяжении нескольких лет изменялся монотонно с поправками на шоки?). Out-of-
sample тесты проводим по какой-либо из статистик наподобие перечисленных в разделе
1.
Ввиду отличий поведения разных активов, нельзя разработать универсальный метод
определения волатильности – всегда нужно будет проводить какие-либо эмпирические тесты. В
нынешней же практике, насколько я понял, трейдеры руководствуются просто «сходу»
посчитанными прогнозными значениями волатильности «любимых» моделей, так как при
опционной торговле эти расчёты нужны в основном для определения разницы между implied
volatility и прогнозной realized volatility.

Возможности дальнейших исследований


Есть всего несколько работ, в которых рассматривается комбинация различных моделей
волатильности хотя бы на уровне банально линейной комбинации. Интуитивно, кажется это
перспективное направление.
Также, в плане сугубо статистических методов – никто не рассматривал статистики, которые
были бы индикаторами соответствия модели волатильности стилизованному факту. Я думаю,
технически нетрудно взять эмпирические данные, построить по ним распределение доходностей,
взять, например,GARCH и по методу максимального правдоподобия максимизировать функцию
правдоподобия при условии, чтобы получаемое распределение доходностей удовлетворяло
нулевой гипотезе об идентичности распределения, например, по критерию Колмогорова-
Смирнова.

13
Список использованных источников:
1. http://en.wikipedia.org/wiki/Volatility_(finance)
2. http://en.wikipedia.org/wiki/Black_Scholes
3. Euan Sinclair (2008): Volatility trading. Wiley
4. Ser-Huang Poon (2005): A Practical Guide to Forecasting Financial Market Volatility. Wiley
5. West, K.D., H.J. Edison and D. Cho (1993) – A utility based comparison of some methods of
exchange rate volatility. Journal of International Economics #35/ or International Finance
Discussion papers #441
6. Diebold, F.X., and R.S. Mariano (1995): Comparing predictive accuracy. Journal of Business and
Economic Statistics, #13, pp. 253–263
7. http://en.wikipedia.org/wiki/Bonferroni_correction
8. R.F. Engle and A.J. Patton (2001): What good is a volatility model? Quantitative Finance, vol. 1(2),
pp. 237–245
9. Ser-Huang Poon and Clive Granger (2005): Practical Issues in Forecasting Volatility. Financial
Analysts Journal, Vol. 61, pp. 45-56
10. Christopher Dougherty (2007): Introduction to econometrics. Oxford University Press, USA
11. Edited by John Knight & Stephen Satchell (2007): Forecasting Volatility in the Financial Markets.
Butterworth-Heinemann
12. Kevin B. Connolly (1997): Buying and sellilng volatility. Wiley

Ссылки на:
 Bollerslev, T., and E. Ghysels (1996): Periodic autoregressive conditional heteroskedasticity. Journal
of Business and Economic Statistics, #14.
 Pagan, Adrian R. and Aman Ullah (1990): "Chapter 3: Methods of Density Estimation," “Chapter 4:
Non-parametric estimation of conditional moments,” manuscript. University of Rochester.
 Adrian R. Pagan & G. William Schwert (1990): Alternative Models For Conditional Stock Volatility.
Journal of Economics, #45, pp. 267-290
 Akgiray, V. (1989): Conditional heteroscedasticity in time series of stock returns. Journal of Business
#62, pp. 55–80
 Engle, R. F., V. Ng and M. Rothschild (1990): Asset pricing with a factor-ARCH covariance structure:
Empirical estimates for Treasury Bills. Journal of Econometrics, #45, pp. 213–239.
 Benjamin M. Friedman & Kenneth N. Kuttner (1988): Time-Varying Risk Perceptions and the Pricing
of Risky Assets. NBER Working Papers 2694
 Granger, C.W.R. (1999): Empirical Modeling in Economics. Specification and Evaluation. Cambridge
University Press, Cambridge.
14
 Bollerslev, T., Engle, R.F. and Nelson, D.B. (1994): ARCH models, in R.F. Engle and D. McFadden
(eds), Handbook of Econometrics Vol. IV. Amsterdam: North-Holland, pp. 2959–3038.

15