Академический Документы
Профессиональный Документы
Культура Документы
Факультет экономики
Вступление
«Выбор адекватных методов расчёта волатильностей курсов ценных бумаг». Прежде чем
переходить к анализу различных эконометрических моделей расчёта волатильности, нужно,
пожалуй, сначала понять, как и зачем они используются на практике.
Наиболее часто упоминаемое использование помимо случаев, когда, например, измерение
Value-at-risk или иного показателя, рассчитываемого в том числе исходя из волатильности,
является конечной целью – это использование моделей волатильности при опционной торговле
или торговле свопами (и вполне возможно другими деривативами, но чаще всего это, конечно,
опционы), которую часто называют торговлей волатильностью.1
Путь любого торговца волатильностью начинается с модели Блэка-Шоулза-Мёртона2, по
которой рынок, грубо говоря, устанавливает цену на опцион исходя из подразумеваемых (implied)
показателей базового актива так, чтобы для безрискового дельта-нейтрально-хэджированного (в
случае с наиболее распространённым портфелем, состоящим из опциона кол (пут) и короткой
(длинной) позиции по базовому активу) портфеля прибыль была равна нулю.
1
http://en.wikipedia.org/wiki/Volatility_(finance) в т.ч.
2
http://en.wikipedia.org/wiki/Black_Scholes
1
Несмотря на то, что базовая модель Блэка-Шоулза-Мёртона выведена исходя из некоторых,
зачастую несовместимых с реальностью предпосылок (eg абсолютная ликвидность базового
актива, дельта-нейтральный-хэджированный портфель, отсутствие дивидендов по базовому
активу, отсутствие трансакционных издержек, непрерывность процесса изменения, моментальное
получение доходов, возможность непрерывного рехеджирования + некоторые математические
упрощения наподобие использования разложения Тейлора только второго порядка в базовой
модели и т.д.), большинство из которых, правда, были так или иначе убраны в различных
модификациях модели, за неё всё равно была получена Нобелевская премия за саму идею
implicitly определяемых рынком параметров. Так или иначе, по-моему, использование модели
BSM и прочих подобных лучше всего характеризуется фразой практикующего трейдера Юана
Синклэйра: «We always need to remember that a pricing model is not meant to be an accurate
reflection of reality. It is a framework to think within, and a consistent intellectual backdrop that helps
us build intuition»3.
Расчёт волатильности для применения в опционной торговле в контексте модели Блэка-
Шоулза является одним из главных практических путей применения методов расчёта
волатильности, но именно эта сфера применения не является главной темой работы. Возвращаясь
к ней, нужно сказать, что методы расчёта волатильности можно в общем оценивать:
1) либо по сугубо статистическим методам (простой пример: средняя ошибка, доля
средней ошибки, R^2, различные формы out-of-sample тестов etc);
2) либо по соответствию стилизованным фактам (которые, важно заметить, в разной
степени могут проявляться для разных ценных бумаг);
3) либо исходя из эффективности практического применения – доходности/рисковости при
какой-либо стратегии(ях) торговли (скорее всего торговли опционами в контексте этой
работы), когда некая функция доходности/рисковости выступает аналогом функции
полезности – как раз в этом случае нужно отталкиваться от модели BSM; либо точности
измерений для принятия решений в риск-менеджменте;
1. Статистические методы
«Сугубо» статистические методы4
Вот некоторые наиболее часто упоминаемые в эконометрической литературе «сугубо
статистические» методы, с помощью которых можно оценить эффективность моделей
волатильности:
3
Euan Sinclair (2008): Volatility trading. Wiley, p.14
4
Ser-Huang Poon (2005): A Practical Guide to Forecasting Financial Market Volatility. Wiley, pp. 23-30
2
Mean Error (ME) – средняя ошибка:
𝑁 𝑁
𝑁 𝑁
Mean Absolute Percent Error (MAPE) - средняя абсолютная ошибка в процентах (хотя здесь просто
доли):
𝑁 𝑁
|𝜀𝑡 | |𝜎𝑡 − 𝜎𝑡 |
1/𝑁 = 1/𝑁 ,
𝜎𝑡 𝜎𝑡
𝑡=1 𝑡=1
Utility-based методы
Загвоздка также в том, что ни один из вышеописанных методов не стал панацей к
выявлению в рамках какого-либо исследования «наилучшей» модели оценки волатильности, так
как, во-первых, некоторые тесты сами обладают своим «белым шумом» или ошибками иной
3
структуры, во-вторых, являя собой фактически агрегированные каким-либо образом ошибки
стандартных отклонений, они позволяют лишь сказать, что на какой-либо конкретной выборке эти
самые агрегированные ошибки одной модели больше или меньше другой. Насколько это самое
отклонение значимо – вопрос, который приводит нас к задаче составления аналога
микроэкономической функции полезности на основе тех же отклонений волатильности. Это
задача много более трудная и менее близкая к реальности, чем оценка доходности по конкретной
стратегии при применении разных моделей (нетрудно придумать/найти пример с большей
доходностью при модели A, чем при B, и при этом агрегированное отклонение волатильности в
модели A будет больше, чем в B; при этом критерий доходности, очевидно, для практиков важнее
«синтетического» критерия отклонений).
Правда, несмотря на эти потенциальные трудности, попытки оценок по синтетическим
функциям полезности предпринимались. Вест, Эдиссон и Чо в своей статье «A utility based
comparison of some methods of exchange rate volatility»5 (1993) показывают, во-первых, что
результаты применения чисто статистических методов (описанных выше) в общем будут
отличаться от utility-based, приводя к неправильному инвестиционному решению. Простой
пример этого, который дают Вест, Эдиссон и Чо:
Предположим, что у индивида экспоненциальная функция полезности
𝑈(𝑊𝑡+1) = −𝑒𝑥𝑝
(−𝜃𝑊𝑡+1 ), где 𝜃 > 0, а 𝑊𝑡 + 1 – богатство периода t+1.Предположим, что
есть три актива, один из них безрисковый. Пусть 𝜇 ≡ (𝜇1 , 𝜇2 )и 𝐻, соответственно, среднее и
ковариационная матрица вектора доходностей (2Х1), 𝑓 ≡ 𝑓1 , 𝑓2 - вектор 2Х1 долей богатства,
1
вложенных в активы. Также 𝜇1 = 𝜇2 > 0. Максимизация U в этой задаче даст: 𝑓= 𝐻 −1 𝜇,
𝜃𝑊
2 −1 1 0
𝐻1 = 𝐻2 =
−1 2 0 1,001
5
West, K.D., H.J. Edison and D. Cho (1993) – A utility based comparison of some methods of exchange rate
volatility, Journal of International Economics
4
видимо, тоже не используется. Оценивали Вест, Эдиссон и Чо всё на данных относительных
курсов нескольких основных валют, используя лог-доходность в качестве основного уравнения и
некое биквадратное уравнение от богатства как функцию полезности. Как и у многих других
авторов конца 80-ых, начала 90-ых у них получилось (Pagan & Schwert в 1990 показали, что GARCH
и ARMA лучше непараметрических моделей и модели переключения режимов Маркова, Акгирэй
в 1989 – что GARCH лучше ARMA, Engle в 1990 – что GARCH лучше ARMA, Friedman & Kuttner в 1988
– что GARCH и AR однозначно не могут быть соотнесены), что GARCH’и работают лучше
исследованных альтернатив, но не в этом главный смысл - все вышеперечисленные
исследователи работали со специфическими данными, обобщённый вывод по всему фондовому
рынку по которым делать, строго говоря, нельзя. Главный смысл приведённого примера в том,
чтобы показать, что чисто статистический подход как интуитивно, так и с конкретными
численными примерами показывает свою неэффективность в качестве единственного средства
принятия инвестиционного решения.
Альтернативой введения полноценной отдельной функции полезности, может быть
включение в какой-либо форме весов в функции агрегированных средних ошибок, чтобы достичь
ассиметрии распределения значений показателей агрегированных средних ошибок аналогичной
той, которая была бы получена при введении функции полезности. Вот, например:
𝑁 2
𝑡=1 𝜎𝑡 − 𝜎𝑡
𝑇𝑒𝑖𝑙 − 𝑈 = 2,
𝑁
𝑡=1 𝜎𝑡𝐵𝑀 − 𝜎𝑡
где a – субъективно определяемый вес. В работе Granger (1999) можно найти эти и некоторые
другие примеры агрегированных показателей с параметризированной ассиметричностью.
Перед тем, как переходить к непараметрическим тестам, нужно упомянуть немаловажное в
данном контексте деление out-of-sample тестов на recursive scheme тесты и rolling scheme тесты. В
recursive scheme тестах для предсказания n+1 будет использоваться информация {1,…,n}, для
предсказания n+2 – {1,…,n+1} и т.д. По такой схеме делались тесты в вышеуказанной работе Вэста,
Эдиссона и Чо. В rolling scheme тестах для предсказания n+1 будет использоваться информация
{1+a,…,n}, для предсказания n+2 будет использоваться информация {2+a,…,n+1} и т.д., где 0=<a<=n.
Тесты, которые будут описываться далее, предположительно могут использоваться для принятия
решения о переключении с одной модели предсказания волатильности на другую в случае
5
неадекватности поведения первой на каком-то ограниченном промежутке последнего времени,
поэтому понимание различия recursive scheme и recursive scheme здесь важно.
Непараметрические методы
Непараметрические тесты наподобие тех, что разработаны Diebold и Mariano6, решают
проблему того, отклонение волатильности какой величины считать значимым (проблема
отсутствия в явном виде функции полезности), сводя её к выбору т.н. уровня доверительности для
принятия/непринятия нулевой гипотезы. Хотя тут всё равно остаётся не совсем ясным – как
учитывать структуру отклонений волатильности, т.е. её распределение (это немаловажно, так как,
опять же, можно придумать пример с одновременно большим агрегированным отклонением и
большей доходностью). Так или иначе, вот модели:
1, 𝑑𝑡 > 0
где 𝐼+ (𝑑𝑡 ) = - распределена биномиально с параметрами T и ½. В непрерывном
0, иначе
случае, который, как пишут авторы, применим для больших выборок, эта статистика будет
выглядеть как
𝑆2 − 0,5𝑇
𝑆2𝑎 = ~𝑁 0,1 .
0,25𝑇
Здесь есть две больших проблемы: во-первых, для большого количества моделей волатильности
предпосылка 𝑑𝑡 ~𝑖𝑖𝑑 будет неверна. Исходя уже только из этого, предпосылка о симметричности
распределения dt относительно нуля, на основании которой делается предположение о p=1/2,
довольно-таки спорна. Несмотря на это, в общем, этот тест, как и тот, что ниже, применять можно.
𝑆3 = 𝐼+ ( 𝑑𝑡 )𝑟𝑎𝑛𝑘 𝑑𝑡 и
𝑡=1
6
Diebold, F.X., and R.S. Mariano (1995) - Comparing predictive accuracy, Journal of Business and Economic
Statistics, #13, pp. 253–263.
6
𝑇(𝑇 + 1)
𝑆3 − 4
𝑆3𝑎 = ~𝑁(0,1)
𝑇 𝑇 + 1 (2𝑇 + 1)
24
Проблема с коррелированностью ошибок, то есть тем, что предпосылка 𝑑𝑡 ~𝑖𝑖𝑑 не верна,
сохраняется и здесь. Мариано и Дибольд предлагают её решить посредством коррекции
Бонферрони7, чтобы проводить на выборке размером 𝛼 k тестов на подвыборках размером 𝛼/𝑘
по такой схеме:
𝑑𝑖𝑗 ,1 , 𝑑𝑖𝑗 ,1+𝑘 , 𝑑𝑖𝑗 ,1+2𝑘 , … ,
𝑑𝑖𝑗 ,2 , 𝑑𝑖𝑗 ,2+𝑘 , 𝑑𝑖𝑗 ,2+2𝑘 , … ,
⋮
𝑑𝑖𝑗 ,𝑘 , 𝑑𝑖𝑗 ,2𝑘 , 𝑑𝑖𝑗 ,3𝑘 , … .
Если нулевая гипотеза отвергается хоть в одной из подвыборок, то она отвергается для
совокупности в принципе.
то есть статистика MGN будет распределена как распределение Стьюдента с T-1 степенями
𝑥′ 𝑧
свободы, где 𝜌𝑥𝑧 = .
(𝑥 ′ 𝑥)(𝑧 ′ 𝑧)
7
http://en.wikipedia.org/wiki/Bonferroni_correction
7
Дибольд и Мариано исследовали все эти модели сравнения в своей статье на основе
экспериментов Монте Карло, где ошибки моделировались несколькими распределениями, в т.ч.
нормальным (но «реальных» моделей волатильности типа GARCH’a у них не было) + на курсе
волют доллара/гульдена. Опуская полученные ими некоторые характерные особенности моделей
сравнения, у них получилось, что использовать их все можно, одна другую однозначно не
доминирует. При этом они акцентируют внимание на том, что если по результатам одной из
вышеописанных статистик одна модель A по сравнению с моделью B даёт, например, меньшие
медианно ошибки, то это не значит, что модель A включает в себя информацию модели B.
Регрессионный тест
Доходность актива – переменная наблюдаемая, а волатильность – нет. Предположим, что
изначальная спецификация такова 𝑟𝑡2 = 𝑎 + 𝑏𝑡 + 𝑢𝑡 (это наиболее часто использующийся
вариант, хотя может быть и другая). Тогда регрессия в идеале должна давать a=0 и b=1. Правда,
как пишут Энгл и Паттон (2001), r скорее всего гетероскедастично, поэтому просто регрессия
методом наименьших квадратов здесь будет неэффективна – надо избавиться от
гетероскедастиности. Также проблема может быть в том, что r – «шумная» переменная, то есть
она является плохой оценкой h. Более подробно этот метод с его недостатками рассмотрен,
например, в работе Bollerslev, Engle and Nelson (1994).
Резюмируя, можно сказать, что сами по себе вне контекста более сложных моделей
различные агрегированные отклонения волатильности не могут использоваться как
исчерпывающий критерий выбора модели расчёта волатильности. Utility-based модели хороши
для построения теоретических моделей, абстрактного агрегирования ситуации, но на практике
трудно составить функцию полезности лучшую, чем доходность при конкретной стратегии.
Непараметрические статистики соответствия ошибок предсказания наподобие предложенных
Мариано и Дибольдом и прочих – готовый инструмент, с помощью которого можно ответить
превосходит ли одна модель другую на каком-либо ограниченном дата сете; непараметрические
статистики можно учитывать при принятии решения о переключении с одной модели
волатильности на другую в случае «неадекватного» поведения текущей на ограниченном отрезке
последнего времени.
8
понимания проблемы нужно (хотя бы потому что модели волатильности должны им
соответствовать; в какой степени – уже второй вопрос):
8
R.F. Engle and A.J. Patton (2001): What good is a volatility model? Quantitative Finance, vol. 1(2), pp. 237–245
9
волатильности разных знаков по-разному воздействуют на доходности базового актива, более
того шоки волатильности и доходности отрицательно коррелированны.
Множество ссылок на работы, подтверждающие вышеуказанные стилизованные факты
можно найти например у R.F. Engle и A.J. Patton (2001).
Все 6 фактов представимы в математической форме и не составит труда проверить какую-
либо модель на соответствие этим фактам (образец такой проверки на примере индекса Доу-
Джонс и модели GARCH и её спецификаций можно также найти в R.F. Engle and A.J. Patton (2001)).
9
Ser-Huang Poon and Clive Granger (2005): Practical Issues in Forecasting Volatility. Financial Analysts Journal, Vol.
61, pp. 45-56
10
стохастическая часть доходности
𝜀𝑡 = 𝑡 𝑧𝑡 , где чаще всего 𝑧𝑡 ~𝑁 0,1 , а 𝑡 − условная дисперсия
𝑝 𝑞
2
𝑡 = 𝜔 + 𝛽𝑗 𝑡−𝑗 + 𝛼𝑘 𝜀𝑡−𝑘
𝑗 =1 𝑘=1
SV (Stochastic volatility)
𝑟𝑡 = 𝜇 + 𝜀𝑡 или часто лог. доходность
𝜀𝑡 = 𝑧𝑡 exp 0,5𝑡
𝑝
𝑡 = 𝜔 + 𝛽𝑗 𝑡−𝑗 + 𝑣𝑡 ,
𝑗 =1
где v – т.н. innovation, определение которого я писал ранее. v и z могут быть коррелированны.
Но часто при использовании ISD моделей происходит переоценка или недооценка, поэтому их
дополняют вот такой вот регрессией
𝜎𝑡+1 =∝ +𝛽𝐼𝑆𝐷𝑡 + 𝑒𝑡 , для 𝑡 = 1,2, … , 𝑇 − 1 и, следовательно:
𝜎𝑇+1 =∝ +𝛽𝐼𝑆𝐷𝑇 ,
где 𝜎𝑡+1 - историческая волатильность.
11
историческая волатильность считается исходя из квадратов внутредневных доходностей по
данным 5 или 15-минутной частоты.
В общем, получилось, что лучшие прогнозы дают модели ISD, в след за ними с примерно
одинаковыми результатами HISVOL и GARCH. На момент 2005 года количество исследований по SV
было слишком малым, чтобы сделать однозначные выводы.
Неудивителен подавляющий успех ISD – ведь это модели, учитывающие значительно
больше факторов, чем модели временных рядов. Другое дело, что при использовании ISD (читай,
модификаций модели Блэка-Шоулза-Мёртона) мы наталкиваемся, например, при опционной
торговле на проблему, которую лучше всего описал Юан Синклейр: «…And never estimate the
magnitude of risks from within the same model that you priced them with…». Иначе говоря, чтобы не
приходить к бессмысленным выводам наподобие 0=0, нам всё равно придётся использовать в
опционной торговле для оценок потенциальных сделок какие-либо из моделей временных рядов.
Также ISD возможно применять только для тех акций, для которых есть активно торгующиеся
облигации, что уже само по себе сильное ограничение.
А вообще про эту таблицу: нужно учитывать, что все исследования в статьях проводятся по
разным дата сетам, с разными временными ограничениями, с разными критериями оценки
моделей. Поэтому нужно понимать, что вывод двумя параграфами ранее – это агрегирование на
основе довольно-таки разобщённых предпосылок. Более того, как я уже писал в первом блоке
12
этой работы, сугубо статистические методы оценок, которые используются в эмпирически
направленных статьях, не учитывают экономические мотивы.
Вывод
По результатам исследованной совокупности статей и книг, можно сказать, что оптимальной
последовательностью выбора модели волатильности для какого-либо конкретного актива будет
такая:
для определённого исходя из принципов фундаментального анализа временного
горизонта проводим out-of-sample тесты нескольких моделей, круг которых можно
также сузить, исходя из аналитических особенностей каждой модели (eg какой смысл
тестировать regime switching models, если интересующий нас базовый актив на
протяжении нескольких лет изменялся монотонно с поправками на шоки?). Out-of-
sample тесты проводим по какой-либо из статистик наподобие перечисленных в разделе
1.
Ввиду отличий поведения разных активов, нельзя разработать универсальный метод
определения волатильности – всегда нужно будет проводить какие-либо эмпирические тесты. В
нынешней же практике, насколько я понял, трейдеры руководствуются просто «сходу»
посчитанными прогнозными значениями волатильности «любимых» моделей, так как при
опционной торговле эти расчёты нужны в основном для определения разницы между implied
volatility и прогнозной realized volatility.
13
Список использованных источников:
1. http://en.wikipedia.org/wiki/Volatility_(finance)
2. http://en.wikipedia.org/wiki/Black_Scholes
3. Euan Sinclair (2008): Volatility trading. Wiley
4. Ser-Huang Poon (2005): A Practical Guide to Forecasting Financial Market Volatility. Wiley
5. West, K.D., H.J. Edison and D. Cho (1993) – A utility based comparison of some methods of
exchange rate volatility. Journal of International Economics #35/ or International Finance
Discussion papers #441
6. Diebold, F.X., and R.S. Mariano (1995): Comparing predictive accuracy. Journal of Business and
Economic Statistics, #13, pp. 253–263
7. http://en.wikipedia.org/wiki/Bonferroni_correction
8. R.F. Engle and A.J. Patton (2001): What good is a volatility model? Quantitative Finance, vol. 1(2),
pp. 237–245
9. Ser-Huang Poon and Clive Granger (2005): Practical Issues in Forecasting Volatility. Financial
Analysts Journal, Vol. 61, pp. 45-56
10. Christopher Dougherty (2007): Introduction to econometrics. Oxford University Press, USA
11. Edited by John Knight & Stephen Satchell (2007): Forecasting Volatility in the Financial Markets.
Butterworth-Heinemann
12. Kevin B. Connolly (1997): Buying and sellilng volatility. Wiley
Ссылки на:
Bollerslev, T., and E. Ghysels (1996): Periodic autoregressive conditional heteroskedasticity. Journal
of Business and Economic Statistics, #14.
Pagan, Adrian R. and Aman Ullah (1990): "Chapter 3: Methods of Density Estimation," “Chapter 4:
Non-parametric estimation of conditional moments,” manuscript. University of Rochester.
Adrian R. Pagan & G. William Schwert (1990): Alternative Models For Conditional Stock Volatility.
Journal of Economics, #45, pp. 267-290
Akgiray, V. (1989): Conditional heteroscedasticity in time series of stock returns. Journal of Business
#62, pp. 55–80
Engle, R. F., V. Ng and M. Rothschild (1990): Asset pricing with a factor-ARCH covariance structure:
Empirical estimates for Treasury Bills. Journal of Econometrics, #45, pp. 213–239.
Benjamin M. Friedman & Kenneth N. Kuttner (1988): Time-Varying Risk Perceptions and the Pricing
of Risky Assets. NBER Working Papers 2694
Granger, C.W.R. (1999): Empirical Modeling in Economics. Specification and Evaluation. Cambridge
University Press, Cambridge.
14
Bollerslev, T., Engle, R.F. and Nelson, D.B. (1994): ARCH models, in R.F. Engle and D. McFadden
(eds), Handbook of Econometrics Vol. IV. Amsterdam: North-Holland, pp. 2959–3038.
15