Вы находитесь на странице: 1из 197

MASTER MASS 2

Univ. Nice Sophia Antipolis

Calcul Stochastique Discret


Avec Applications aux mathématiques financières

P. Del Moral
Laboratoire J. A. Dieudonné, Mathématiques
Unité mixte de Recherche C.N.R.S. No. 6621
Université de Nice Sophia-Antipolis
Parc Valrose, 06 108 Nice,
France
Table des matières

1 Théorie des probabilités élémentaire 5


1.1 Promenades aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Expériences aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Paysages uniformes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Petit traité de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.2 Adaptation et mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.3 Lois et espérances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.4 L’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.3 Le conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.1 Évènements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3.2 Décompositions et sous algèbres . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.3 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2 Processus aléatoires discrets 39


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Arbres et chaı̂nes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.1 Feuillages de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.2 Feuillages chaotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.3 Feuillages markoviens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Processus aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.1 Marches aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.2 Évènements cylindriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3.3 Filtrations de partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3.4 Filtrations d’algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4 Décompositions canoniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4.1 Information et filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.4.2 Adaptation et prévisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4.3 Intégration par parties discrète . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4.4 Décomposition de Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3 Éléments de la théorie des martingales 67


3.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.1.1 Caractérisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.1.2 Compensateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.1.3 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.1.4 Martingales exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.1.5 Lemme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.2 Contrôle de martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2.1 La notion de temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . 81

1
2 TABLE DES MATIÈRES

3.2.2 Jeux stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83


3.2.3 Stratégies de jeux équitables . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.4 Jeux à conditions terminales fixées . . . . . . . . . . . . . . . . . . . . . . 87
3.2.5 Problème d’arrêt de Snell . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

4 Mathématiques financières 99
4.1 Petit dictionnaire financier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.1 Activité des marchés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.1.3 Options européennes financières . . . . . . . . . . . . . . . . . . . . . . . . 103
4.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.2 Modèle binomial sur une période . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.2.1 Point de vue des essences . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.2.2 Prix d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.2.3 Point de vue de phénomènes . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.3 Modèle à deux états sur deux périodes . . . . . . . . . . . . . . . . . . . . . . . . 118
4.3.1 L’arbre binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.3.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.3.3 Neutralisation des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.3.4 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.4 Modèle de Cox-Ross-Rubinstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4.2 Techniques d’arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4.3 Neutralisation des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4.4 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.4.5 Prix d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.5 Analyse mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.5.1 Actualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.5.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.5.3 Arbitrage et viabilité des marchés . . . . . . . . . . . . . . . . . . . . . . 135
4.5.4 Neutralité des marchés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5.5 Réplication d’options et complétude . . . . . . . . . . . . . . . . . . . . . 139
4.5.6 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

5 Corrigés 143
5.1 Chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.2 Chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
TABLE DES MATIÈRES 3

Avant-propos

L’ébullition des marchés financiers, les volumes des transactions, les valeurs des actions
échangées chaque jour, chaque heure, ou chaque minute dans les places boursières
internationales, sont ils prévisibles et régis par des dynamiques déterministes ? Peut on anticiper
les variations des taux d’intérêts de placements financiers ? Ces évolutions sont elles dictées par
essence, par des règles déterministes pures, ne laissant pas de place au hasard ? Cette notion
d’aléatoire est elle une preuve de notre ignorance, et de notre incapacité à décrire les essences
de ces systèmes ?
Supposons un instant que le hasard, et les phénomènes aléatoires existent. Sous cette
hypothèse assez vraisemblable, serait il envisageable de les modéliser mathématiquement, et
de décrire leurs lois d’évolution ? Un phénomène aléatoire donné peut il être simulé, et répété
indéfiniment ? Est il possible de les prédire, et de les contrôler ? Peut on dompter le hasard,
et construire de nouveau schémas d’exploration aléatoire, et d’approximation numérique de loi
complexes ? En un mot : le hasard serait il lui même soumis à des règles mathématiques ?
Les réponses à toutes ces questions sont bien positives. La théorie des probabilités et des
processus aléatoires, en plein essor depuis le début du vingtième siècle, vise à modéliser,
analyser, estimer, et prédire des phénomènes aléatoires. Fondée à la fois sur l’expérience, et
l’intuition, et sans cesse nourrie par les développements des mathématiques pures, des sciences
appliquées, et des puissances de calcul informatique, cette théorie propose une variété de modèles
et d’algorithmes aléatoires, ainsi qu’une panoplie de techniques algébriques, et analytiques,
pour l’étude de phénomènes aléatoires issus de la physique, de la biologie, et des sciences de
l’ingénieur. Dans chaque domaine d’application, la théorie des probabilités offre une variété de
modèles en adéquation parfaite avec la réalité. Les interprétations de ces modèles dépendent du
domaine d’application. Un simple modèle de Pile ou Face peut s’interpréter comme l’évolution
d’une particule physique vers la droite, ou vers la gauche sur la droite réelle. Ce modèle
élémentaire peut aussi être associé à des évolutions à la hausse, ou à la baisse de marchés
financiers. Dans un autre registre, certains modèles d’interaction issus de la physique statistique,
ou de la théorie des dynamiques de populations biologiques, ont récemment été utilisés avec
succès dans la modélisation de comportement collectifs d’agents financiers, ou dans la calibration
de modèles de prix d’actions [1, 2].
Ces notes de cours proposent une introduction élémentaire à la théorie des probabilités, et
à ses applications en ingénierie et mathématiques financières. Elles s’articulent essentiellement
autour de deux axes principaux :
La première partie offre un exposé synthétique des principaux éléments de la théorie des
probabilités, et celle des processus aléatoires. La seconde partie porte sur la modélisation, et
l’analyse probabiliste de problèmes issus de la finance, tels la gestion de portefeuilles, le calcul
des prix, et de couvertures d’options financières.
Chaque partie est développée selon un ordre de difficulté croissant. Pour des raisons
pédagogiques, nous avons néanmoins choisi de restreindre cet exposé à l’étude des mesures
de probabilités, et des processus aléatoires, sur des espaces finis. Cette approche nous permet
de contourner la théorie de l’intégration de Lebesgue sur laquelle est édifiée la théorie générale
des probabilités.
Dans un premier chapitre introductif nous rappelons brièvement les principales notions de la
théorie des probabilités, telles les notions de variables aléatoires, les propriétés d’indépendance
entre évènements, ainsi que le conditionnement en des événements, des partitions, ou plus
4 TABLE DES MATIÈRES

généralement, en des algèbres ensemblistes.


Le second chapitre concerne l’étude des processus aléatoires à valeurs dans des espaces
finis. Nous examinerons tout d’abord les interprétations arborescentes de ces modèles. Ces
représentations graphiques permettent notamment de visualiser l’évolution d’un processus
aléatoire entre chaque noeud d’un arbre d’épreuves. Nous étudierons par la suite les notions
de filtrations d’algèbres sur l’ensemble des évènements. Ces objets mathématiques permettent
de modéliser l’information portée par une évolution aléatoire. Nous examinerons enfin les
décompositions canoniques de processus aléatoires abstraits, par rapport à une filtration
d’algèbres donnée.
Le troisième chapitre est l’un des axes principaux de ce cours. Il présente de façon synthétique
les principaux éléments de la théorie des martingales. Nous étudierons tout d’abord les notions
de compensateurs quadratiques “caractérisant”les tendances locales des carrés de martingales.
Nous examinerons ensuite la construction de martingales, à conditions terminales fixées. Ces
résultats fondamentaux seront utilisés dans le chapitre suivant sur le mathématiques financières,
pour “neutraliser” des marchés financiers. Après une étude des martingales exponentielles,
intervenant dans la modélisation des évolutions d’actifs financiers, nous développerons une
classe de stratégies de contrôle de martingales issus de la théorie des jeux. Ces techniques
seront par la suite essentielles pour la simulation, et la couverture d’options financières.
Le chapitre final est consacré aux mathématiques financières. Dans une première partie,
nous présentons un dictionnaire plus ou moins exhaustif des principales notions de la finance,
en soulignant leurs liens avec les modèles probabilistes étudiés dans les précédents chapitres.
Nous avons choisi de restreindre cet exposé à l’étude des problèmes de calculs de prix d’options
financières, et les stratégies de couverture. Nous commencerons par l’étude d’un modèle
d’évolution de prix d’actifs binomial, sur une, puis sur deux périodes. Ces études élémentaires
permettent de souligner les stratégies d’arbitrage, et la nature probabiliste des modèles de
marchés viables. Nous examinerons ensuite en détail le modèle homogène et binomial de Cox-
Ross-Rubinstein, en précisant ses liens avec le modèle de Black and Scholes. La dernière partie de
ce cours offre une analyse mathématique rigoureuse et détaillée des marchés financiers complets,
et des stratégies de couvertures d’options.
Chapitre 1

Théorie des probabilités


élémentaire

1.1 Promenades aléatoires


Ce premier chapitre offre un exposé synthétique des fondations mathématiques de la théorie
des probabilités. Nous avons choisi volontairement de restreindre notre présentation à l’étude
des phénomènes aléatoires ne prenant qu’un nombre fini de valeurs. Ce choix nous permet
notamment de contourner la théorie abstraite de l’intégration de Lebesgue, sur laquelle la théorie
générale des probabilités est édifiée. Dans ce contexte simplifié, la théorie des probabilités se
résume à une analyse fonctionnelle élémentaire sur des espaces finis. A titre d’exemple, une
expérience aléatoire ne prenant qu’un nombre fini de valeurs correspond tout simplement à la
donnée d’un ensemble fini d’évènements munis d’une mesure représentant les de probabilités
de réalisation de chacun.
Ce chapitre introductif est consacré à l’étude des divers objets mathématiques
correspondant aux principales notions probabilistes, telles les notions de variables aléatoires, le
conditionnement, et l’indépendance entre évènements. Ces modèles mathématiques permettent
une analyse précise et rigoureuse de nombreux phénomènes aléatoires discrets. De plus, la
terminologie probabiliste est en adéquation parfaite avec l’expérience. Ainsi l’étude de ces
modèles permet d’approfondir conjointement l’analyse mathématique et l’intuition probabiliste
de phénomènes aléatoires complexes.
Ce chapitre s’organise de la façon suivante :
La première section concerne l’étude des mesures de probabilités (sur des espaces
d’évènements discrets). Nous insisterons sur les phénomènes aléatoires uniformes où chaque
évènements peut se réaliser avec la même probabilité. Nous présenterons les modèles
combinatoires d’urnes traditionnels.
La seconde section porte sur les notions de variables aléatoires (en abrégé v.a.), et la
propriété de mesurabilité par rapport à une algèbre d’évènements. Ces modèles ensemblistes
permettent de modéliser l’information apportée par la donnée d’une variable aléatoire.
La troisième et dernière section concerne l’une des notions les plus importantes, et la plus
fructueuse de la théorie des probabilités, la notion de conditionnement. Cette notion intervient
dès que l’on étudie des phénomènes aléatoires sachant une information partielle sur le résultat
de l’expérience.

1.1.1 Expériences aléatoires


Une expérience aléatoire discrète se décrit mathématiquement par la donnée d’un espace
fini Ω. Les points ω ∈ Ω représentent les évènements élémentaires. Ils sont parfois appelés les
épreuves, les résultats, ou encore les aléas de l’expérience. Les sous ensembles A de Ω, sont

5
6 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

appelés les évènements. On dit que l’évènement A se produit lorsque ω ∈ A. Ainsi A se


produit autant de fois qu’il y a d’évènements élémentaires dans A.

Une mesure de probabilité P sur Ω, est une application P de Ω dans [0, 1], telle que
P
ω∈Ω P(ω) = 1. La probabilité P(A) d’un évènement A, est définie par la formule
X X
P(A) = P(ω) = 1A (ω) P(ω)
ω∈A ω∈Ω

P
On notera que l’on a P(Ω) = 1, et P(∅) = 0, avec la convention ∅ = 0. Les ensembles Ω, et ∅,
sont appelés respectivement, l’évènement certain, et l’évènement impossible. Le couple (Ω, P),
est appelé un espace de probabilité, ou encore un espace de probabilités.

Exemple 1.1.1 Amener un total de points au moins égal à 10, en jetant deux dés, est un
évènement aléatoire A qui s’exprime dans l’espace produit

Ω = (Ω1 × Ω2 ) avec Ω1 = Ω2 = {1, . . . , 6}

avec la formule
A = {(4, 6), (6, 4), (5, 5)}

Chaque aléa ω = (ω1 , ω2 ), représente les résultats ω1 , et ω2 , des lancers du premier, et du


deuxième dés. Pour des dés non pipés, la probabilité de réalisation d’un jet donné, disons
ω = (1, 2) est de P[(1, 2)] = 1/36. Ainsi la probabilité pour que A se réalise est donnée par

P(A) = P[(4, 6)] + P[(6, 4)] + P[(5, 5)] = 3/36 = 1/12

Si l’on s’intéresse uniquement aux résultats du premier dés, il est bien plus judicieux de les
exprimer dans l’espace Ω1 = {1, . . . , 6}. Obtenir le chiffre 6, lors du lancer de ce dés, est un
évènement aléatoire qui s’exprime dans Ω1 , par la donné du singleton A1 = {6} ⊂ Ω1 . La
probabilité de réalisation de chaque aléa ω1 ∈ Ω1 , correspondant au lancer du premier dés, est
alors donnée par
X
P1 (ω1 ) =déf. P[{ω1 } × Ω2 ] = P[(ω1 , ω2 )] = 6/36 = 1/6
ω2 ∈Ω2

L’exemple précédent montre qu’un même évènement aléatoire peut s’exprimer dans
des espaces probabilisés plus ou moins complexes. En pratique, l’on pourra mettra
à profit cette souplesse, en choisissant l’espace probabilisé le plus simple rendant compte de
l’expérience étudiée.
La représentation des évènements comme partie d’un ensemble Ω offre une correspondance
précieuse entre les opérations logiques sur les réalisations des expériences, et les opérations
d’inclusion/exclusion classiques de la théorie des ensembles : A tout évènement A, on associe
son contraire Ac = Ω−A qui se réalise uniquement si A ne l’est pas. A tout couple d’évènements
A, B ⊂ Ω, l’évènement A ∩ B est celui qui se réalise uniquement si les évènements A et B se
réalisent simultanément. De même, l’évènement A ∪ B se réalise, lorsque l’évènement A ou B
se réalise. Lorsque l’on a A ∩ B = ∅, on dit que les évènements A et B sont incompatibles.
Nous laissons le soin au lecteur de vérifier les formule suivantes :
1.1. PROMENADES ALÉATOIRES 7

– A ∩ B = ∅ =⇒ P(A ∪ B) = P(A) + P(B).


– ∀A, B ⊂ Ω P(A ∪ B) + P(A ∩ B) = P(A) + P(B).
– ∀A ⊂ ω P(Ac ) = 1 − P(A).
– Pour tout A, B, C ⊂ Ω

P(A ∪ B ∪ C) = P(A) + P(B) + P(C)


−{P(A ∩ B) + P(B ∩ C) + P(A ∩ C)} + P(A ∩ B ∩ C)

Exercice 1.1.1 Vérifier les formules

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (A ∪ B)c = Ac ∩ B c
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (A ∩ B)c = Ac ∪ B c

Exercice 1.1.2 Montrer (par récurrence) que pour toute collection d’évènements A 1 , . . . , An ⊂
Ω, nous avons
P(A1 ∪ . . . ∪ An ) ≤ P(A1 ) + . . . + P(An )

Exercice 1.1.3 Soit A, B un couple d’évènements. Montrer que

A4B = [A ∩ B c ] ∪ [B ∩ Ac ] = (A − B) ∪ (B − A)

représente l’évènement où exactement A ou B se produit. Vérifier que l’on a

1A4B = 1A + 1B − 21A∩B

En déduire par le calcul, puis schématiquement, la formule

P(A4B) = P(A) + P(B) − 2P(A ∩ B)


8 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Problème 1.1.1.1 (formule de Poincaré) Soit A1 , . . . , An ⊂ Ω une suite d’évènements.


1. Vérifier les formules suivantes
1A1 ∩A2 = 1 A1 ∩ 1 A2
1A1 ∪A2 = 1 − (1 − 1A1 )(1 − 1A2 ) = 1A1 + 1A2 − 1A1 ∩A2
2. Montrer que
n
Y 
1∪np=1 Ap = 1 − 1 − 1 Ap
p=1

3. En utilisant la formule
n
Y n
X X
(1 + ai ) = 1 + a i1 . . . a ip
i=1 p=1 1≤i1 <...<ip ≤n

qui est valable pour tout n ≥ 0, et pour tout (ai )1≤i≤n ∈ Rn , vérifier l’identité
n
X X
P(∪ni=1 Ai ) = (−1)p−1 P(Ai1 ∩ . . . ∩ Aip ) (1.1)
p=1 1≤i1 <...<ip ≤n

4. Montrer que pour tout A ⊂ Ω, ω ∈ Ω, et u ∈ R, on a


(1 + u)1A (ω) = 1 + u 1A (ω)
avec la convention 00 = 1, lorsque u = −1, et ω 6∈ A. En déduire l’identité
Pn n
Y
1 Ai
(1 + u) i=1 = (1 + u 1Ai )
i=1

Par un raisonnement analogue à celui utilisé dans la question précédente, vérifier l’identité
X Pn n
X X
1Ai (ω)
(1 + u) i=1 P(ω) = 1 + up P(Ai1 ∩ . . . ∩ Aip )
ω∈Ω p=1 1≤i1 <...<ip ≤n

5. Retrouver la formule de Poincaré (1.1), en posant u = −1.

1.1.2 Paysages uniformes


Lorsque tous les évènements élémentaires ω d’un espace probabilisé (Ω, P) ont la même
probabilité p, le calcul des probabilités des évènements composés A ⊂ Ω se réduit au comptage
de nombre d’éléments dans A. Plus précisément, nous avons
X
P(Ω) = P(ω) = |Ω| × p = 1 =⇒ p = 1/|Ω|
ω∈Ω

et par conséquent, nous avons

∀A ⊂ Ω P(A) = |A|/|Ω| (1.2)

Dans les expressions précédents,


X
|A| = Card(A) = 1A (ω)
ω∈Ω

désigne le cardinal d’un ensemble A. Les mesures de probabilité satisfaisant la condition


(1.2) sont dites uniformes sur Ω. Dans ce contexte, le calcul des probabilités d’évènements
s’accompagne d’une analyse combinatoire plus ou moins complexe de l’expérience aléatoire en
question.
1.1. PROMENADES ALÉATOIRES 9

Modèles d’urnes
Dans l’expérience qui suit, n boules sont sélectionnées au hasard, dans une urne contenant
N boules numérotées de 1 à N . Cette expérience peut être représentée par les n-uplets

ω = (ω1 , . . . , ωn ) ∈ {1, . . . , N }n

où chaque coordonnée ωi désigne le numéro de la boule sélectionnée au n-ième tirage. Pour
poursuivre notre discussion, il est essentiel de préciser les points suivants :
– Les boules sélectionnées sont elles remises dans l’urne ?
– L’ordre des sélections est il important ?
Par exemple, si les tirages sont sans remise, on ne peut avoir de répétitions d’indices dans
les coordonnées des n-uplets (ω1 , . . . , ωn ). Par exemple si n = 2, et N = 4, on ne peut avoir
(1, 1), pas plus que (2, 2).
Dans les deux cas où les tirages sont avec, ou sans remise, il est aussi important de savoir
si l’on considérer l’ordre des sélections. Par exemple si n = 2, et N = 4, doit-on distinguer les
résultats de l’expérience ω = (1, 2), et ω = (2, 1) ? En toute généralité, la réponse est oui. Car
ω = (1, 2) représente le cas où la première boule sélectionnée est la boule numéro 1, la seconde
la boule numéro 2 ; alors que l’aléa ω = (2, 1) représente le cas où la première boule sélectionné
est la boule numéro 2, la seconde la boule numéro 1. L’ordre n’est pas important lorsque l’on
s’intéresse à des évènements de la forme

h1, 2i = {(1, 2), (2, 1)}


= “les boules no. 1 et 2 ont été sélectionnées au cours des 2 tirages”

Dans le cas de tirages avec remise, on remarquera que h1, 1i = (1, 1).
Pour distinguer ces deux situations, nous noterons

ω = hω1 , . . . , ω2 i

les évènements élémentaires d’une expérience aléatoire où l’ordre n’est pas important ; et ω =
(ω1 , . . . , ω2 ) les évènements élémentaires d’une expérience aléatoire où l’ordre est important.
Il est parfois commode d’appeler ces évènements, des évènements ordonnés (ω 1 , . . . , ω2 ), et
désordonnées hω1 , . . . , ω2 i.
1. Sélection ordonnée avec remise Dans le cas le plus simple où l’ordre des tirages est
important, nous avons

Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {1, . . . , N }} =⇒ |Ω| = N n

2. Sélection ordonnée sans remise Dans cette expérience, chaque boule sélectionnée au
hasard est conservée à l’extérieur de l’urne. Dans le cas le plus simple où l’ordre est
important, on a

Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {1, . . . , N } et ωi 6= ωj ∀i 6= j}

=⇒ |Ω| = N (N − 1) . . . (N − (n − 1)) =déf. (N )n =déf. AnN

3. Sélection désordonnée sans remise Lorsque l’ordre est sans importance, et on a


10 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Ω = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {1, . . . , N } et ωi 6= ωj ∀i 6= j}

N (N −1)...(N −(n−1)) (N )n n
=⇒ |Ω| = n! = n! =déf. CN

Pour calculer ce dernier cardinal, il suffit de noter qu’à partir de chaque réalisation
hω1 , . . . , ωn i, on peut construire n! évènements ordonnés, en permutant les indices. Plus
formellement, si Gn désigne le groupe symétrique des permutations sur l’ensemble des
indices {1, . . . , n}, les n! évènements ordonnés déduits de hω1 , . . . , ωn i, correspondent à
l’image de l’application suivante

σ ∈ Gn 7→ (ωσ(1) , . . . , ωσ(n) )
4. Sélection désordonnée avec remise Cette situation est la plus complexe des quatre.
L’ensemble Ω est ici donné par

Ω = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {1, . . . , N }}

n (N +(n−1))...(N +1) (N +0)


=⇒ |Ω| = CN +(n−1) = n!

Le calcul de ce dernier cardinal s’effectue par récurrence sur le paramètre n. On note


|Ω| = αN (n), le cardinal en question. Pour n = 1, on a clairement
1
∀N ≥ 1 αN (1) = |{ω : ω = ω1 , avec ω1 ∈ {1, . . . , N }}| = N = CN
n
Supposons que αN (n) = CN +(n−1) , pour tout N ≥ 1 ; et montrons que cette propriété est
satisfaite au rang suivant.
Puisque l’ordre est sans importance, on peut convenir que les coordonnées ωi , de chaque
(n + 1)-uplet ω = [ω1 , . . . , ωn+1 ], sont rangées par ordre croissant

ω1 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

Si ω1 = 1, alors il y a αN (n) façons de choisir les autres composantes

1 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

dans l’ensemble {1, . . . , N }. Si maintenant ω1 = 2, alors il n’y a plus que αN −1 (n) façons
de choisir les autres composantes

2 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

dans l’ensemble {2, . . . , N }. Plus généralement, lorsque ω1 = i + 1, avec i = 0, . . . , N − 1,


alors il n’y a plus que αN −i (n) façons de choisir les autres composantes

(i + 1) ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1

dans l’ensemble {i + 1, . . . , i + (N − i)}. En conséquence de cette dichotomie, et d’après


notre hypothèse de récurrence, nous obtenons la formule
N
X −1 N
X −1
n
αN (n + 1) = αN −i (n) = C(N −i)+(n−1)
i=0 i=0
1.1. PROMENADES ALÉATOIRES 11

On remarque maintenant que


q! q!
Cqp−1 + Cqp = +
((q − p) + 1)! (p − 1)! (q − p)! p!
 
(q + 1)! p (q − p) + 1 p
= × + = Cq+1
((q − p) + 1)! p! q+1 q+1
Autrement dit, nous avons
p
Cqp−1 = Cq+1 − Cqp
En utilisant ce qui précède, on en conclut que
N
X −1  
n+1 n+1
αN (n + 1) = C(N −i)+(n−1)+1 − C(N −i)+(n−1)
i=0
N
X −1  
n+1 n+1 n+1
= C(N +n)−i − C (N +n)−(i+1) = CN +n
i=0

Exercices
Exercice 1.1.4 Une urne contient N = N1 +N2 boules, N1 de couleur rouges, et N2 de couleur
noire. Lors d’une sélection de n = N1 boules avec remise, quelle est la probabilité de choisir au
moins une fois une boule rouge.
Exercice 1.1.5 Quelle est la probabilité pour qu’au moins deux étudiants dans un classe de n
personnes aient la même date d’anniversaire ? On supposera que la date d’anniversaire est l’un
des 365 jours, et chaque jour est équiprobable. Estimer cette probabilité lorsque n = 31.
Exercice 1.1.6 Un jeu de loterie est formé de n billets gagnants sur un total de N . On
supposera, ce qui est souvent le cas, que le nombre total de billets est plus que le double du
nombre de billets gagnants. Quelle est la probabilité de gagner au moins une fois, si l’on achète
n billets ?
Exercice 1.1.7 Un jeu de loto est formé de N = 49 boules numérotées de 1 à 49. Six d’entre
elles sont gagnantes, disons les 6 premières numérotées de 1 à 6. On sélectionne sans remise
n = 6 boules dans cette urne. Quelle est la probabilité d’avoir choisi précisément ces 6 boules ?

1.1.3 Petit traité de lois


La loi binomiale
Une pièce de monnaie est lancée n fois. On note (ω1 , . . . , ωn ) les résultats obtenus. Nous
conviendrons que ωi = 0 lorsque le résultat du i-ème jet est Pile, et ωi = 1 lorsque le résultat
de ce lancer est Face. On supposera enfin que les n lancers sont indépendants, et la probabilité
p ∈ [0, 1], d’avoir face à un lancer, ne change pas dans le temps.
Cette expérience aléatoire peut aussi s’interpréter comme une succession de n épreuves
aléatoires, ne prenant chacune que deux valeurs possibles. Ces phénomènes biphasés
apparaissent dans de nombreuses situations pratiques : échec/succès, réalisation/ou non,
d’une expérience répétée ; fermeture/ouverture d’interrupteurs dans des circuits électriques,
présence/absence d’une particularité,...

L’ensemble des évènements élémentaires associés à cette expérience est clairement donné
par
Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {0, 1}} = {0, 1}n (|Ω| = 2n )
On définit une probabilité P sur Ω, en posant pour chaque ω = (ω1 , . . . , ωn ) ∈ Ω
n
Y
P(ω1 , . . . , ωn ) = [p 11 (ωi ) + (1 − p) 10 (ωi )]
i=1
12 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Cette probabilité peut aussi s’exprimer sous la forme suivante


n h
Y i
P(ω1 , . . . , ωn ) = p11 (ωi ) (1 − p)10 (ωi )
i=1
Yn
 ωi  Pn Pn
= p (1 − p)1−ωi = p i=1 ωi (1 − p)n− i=1 ωi
i=1

On s’intéresse maintenant aux événements où lors des n lancers de la pièces, le résultat
“Face” apparaı̂t exactement k fois
n
X
Ak = {ω : ω = (ω1 , . . . , ωn ) ∈ {0, 1}n avec ωi = k}
i=1

avec k ∈ {0, . . . , n}. On vérifie aisément que

|Ak | = Cnk et ∀ω ∈ Ak P(ω) = pk (1 − p)n−k

Par conséquent, on obtient

∀k ∈ {0, . . . , n} P (k) =déf. P(Ak ) = Cnk pk (1 − p)n−k


L’ensemble des probabilités P = (P (k))k=0,...,n est appelé la loi binomiale de
paramètres (n ;p).

La loi multinomiale
Généralisons la loi binomiale, en considérant une succession de n épreuves aléatoires, pouvant
prendre chacune r valeurs distinctes numérotées de 1 à r. On conviendra que ces n épreuves
sont indépendantes, et la probabilité pi ∈ [0, 1], que le résultat soit i ∈ {1, . . . , r} à chacune des
r
épreuves, ne change pas dans le temps. On noteraPr que le jeux de paramètres (p i )i=1,...,r ∈ [0, 1]
doit nécessairement être choisi de sorte que i=1 pi = 1.
L’espace des évènements associé à cette expérience est donné par

Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {1, . . . , r}} = {1, . . . , r}n (|Ω| = rn )

Pour chaque i ∈ {1, . . . , r}, on note


n
X
Ni (ω) = 1i (ωj )
j=1

le nombre de fois où i apparaı̂t dans la séquence ω = (ω1 , . . . , ωn ). On définit une probabilité P
sur Ω, en posant pour chaque ω = (ω1 , . . . , ωn ) ∈ Ω
n
Y
P(ω1 , . . . , ωn ) = [p1 11 (ωj ) + . . . + pr 1r (ωj )]
j=1

Cette probabilité peut aussi s’exprimer sous la forme produit suivante


n h
Y i
1 (ωj ) N (ω)
P(ω1 , . . . , ωn ) = p 11 . . . p1rr (ωj ) = p1 1 . . . pN
r
r (ω)

j=1

On s’intéresse maintenant aux événements où lors des n épreuves, les nombres i apparaı̂t
exactement ni fois

An1 ,...,nr = {(ω1 , . . . , ωn ) ∈ {1, . . . , r}n : N1 (ω) = n1 , . . . , Nr (ω) = nr }


1.1. PROMENADES ALÉATOIRES 13

Pr
avec ni ∈ {0, . . . , n}, et i=1 ni = n. On vérifie aisément que

n2 nr n!
|An1 ,...,nr | = Cnn1 Cn−n . . . Cn−(n 1 +...+nr−1 )
= =déf. Cnn1 ,...,nr
1
n1 ! . . . n r !
et
∀ω ∈ An1 ,...,nr P(ω) = pn1 1 . . . pnr r
r
Pr conséquent, pour toutes les possibilités de r-uplets (ni )i=1,...,r ∈ {0, . . . , n} , tel que
Par
n
i=1 i = n, on obtient

n!
P (n1 , . . . , nr ) =déf. P(An1 ,...,nr ) = pn1 . . . pnr r
n1 ! . . . n r ! 1
L’ensemble des probabilités P (n1 , . . . , nr ) est appelé la loi multinomiale de paramètres
(n; (p1 , . . . , pr )) .

La loi hypergéométrique
On considère une urne contenant m boules numérotées de 1 à m, avec mi boules de couleur
ci , où {c1 , . . . , cr } désigne un jeu de r couleurs distinctes. Pour fixer les idées, on conviendra
que les m1 premières boules numérotées de 1 à m1 sont de couleur c1 , les m2 boules suivantes,
numérotées de m1 + 1 à m1 + m2 , sont de couleur c2 , etc. Autrement dit, pour chaque indice de
couleur i ∈ {1, . . . , r}, les numéros des mi boules de couleur ci sont données par les ensembles

Ci = m1 + . . . + mi−1 + {1, 2, . . . , mi }
P
Pour i = 1, on prend la convention m1 + . . . + m1−1 = ∅ = 0.
On sélectionne une série de n(≤ m) boules sans remise, et l’on s’intéresse au résultat de
l’expérience. Dans cette situation, l’espace des évènements élémentaires est donné par

Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {1, . . . , m} et ωi 6= ωj ∀i 6= j}

et l’on rappelle que


|Ω| = (m)n = m(m − 1) . . . (m − (n − 1))
Pour chaque i ∈ {1, . . . , r}, on note
n
X
Nin (ω) = 1Ci (ωj )
j=1

le nombre de fois où la couleur ci apparaı̂t dans la séquence ω = (ω1 , . . . , ωn ). On notera que
r n r
!
X X X
n
Ni (ω) = 1Ci (ωj ) = n
i=1 j=1 i=1

On s’intéresse aux évènements où lors des n tirages, chacune des couleurs c i apparaı̂t
exactement ni fois

An1 ,...,nr = {(ω1 , . . . , ωn ) ∈ Ω : N1n (ω) = n1 , . . . , Nrn (ω) = nr }


P
avec ni ∈ {0, . . . , n}, et ri=1 ni = n.
Pour calculer le nombre d’évènements élémentaires associés à la réalisation de A n1 ,...,nr , on
observe tout d’abord qu’il y a
n!
Cnn1 ,...,nr =
n1 ! . . . n r !
14 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

possibilités de choisir ni boules de couleurs ci , lors des n tirages. Pour chaque répartition de ces
jeux de couleurs lors des n tirages, il y a encore (m1 )n1 façons de choisir n1 boules de couleur c1
parmi m1 , puis (m2 )n2 façons de choisir n2 boules de couleur c2 parmi m2 , etc. Par conséquent,
ces évènements composés ont pour cardinal
n!
|An1 ,...,nr | = (m1 )n1 . . . (mr )nr
n1 ! . . . n r !
Il en découle que
n!
n1 !...nr ! (m1 )n1 . . . (mr )nr
P (n1 , . . . , nr ) = P(An1 ,...,nr ) =
(m)n
(m1 )n1 (mr )nr n1 nr
n1 ! ... nr ! Cm 1
. . . Cm r
= (m)n
= n
Cm
n!

Autrement dit, nous avons

n1 nr
Cm 1
. . . Cm r
P (n1 , . . . , nr ) =n
Cm
Pr
L’ensemble des probabilités P (n1 , . . . , nr ), ni ≥ 0, i=1 ni = n, est appelé loi
hypergéométrique de paramètres (n : (m1 , . . . , mr )).

Interprétation dynamique : Lors du tirage sans remise, les probabilités d’obtenir certaines
couleurs diminuent au fur et à mesure qu’elles sont sélectionnées. En effet, initialement, chacune
des couleurs ci a une probabilité mi /m d’être choisie. Supposons maintenant que Pl’échantillon
r
des k premières boules choisies soit formé de nki boules de couleurs ci , avec i=1 nki = k.
Autrement dit, supposons que l’on ait

∀i ∈ {1, . . . , r} Nik (ω1 , . . . , ωk ) = nki

Dans ce cas, l’urne ne contient plus que (mi − nki ) boules de couleurs ci . Dans cette situation,
la probabilité d’obtenir une boule de couleur ci est désormais plus faible, et égale à

(mi − nki ) mi (1 − nki /mi ) mi


= Pr k /m)

(m − k) m j=1 (1 − n j m

Par conséquent, la probabilité de choisir les n1 premières boules de couleur c1 , puis les n2 boules
suivantes de couleur c2 , etc, est donnée par la formule

P((ωi )1≤i≤n1 ∈ C1 , (ωi )n1 +1≤i≤n1 +n2 ∈ C2 , . . .)


  
1 −(n1 −1) m2 −(n2 −1)
= m1 m1 −1
m m−1 ... m
m−(n1 −1)
m2 m2 −1
(m−n1 ) (m−n1 )−1 . . . (m−n 1 )−(n2 −1)
...

(m1 )n1 (m2 )n2 (m )


r nr (m1 )n1 ...(mr )nr
= (m)n1 (m−n1 )n2 . . . (m−n1 −...−n r−1 )n
= (m)n
r

Bien entendu, il en est de même si les ni boules de couleur ci , sont choisies à des instants
ti1 , . . . , tini
(m1 )n1 . . . (mr )nr
P((ωt1j )1≤j≤n1 ∈ C1 , (ωt2j )1≤j≤n2 ∈ C2 , . . .) =
(m)n
n!
Comme il y a n1 !...nr ! façon de choisir ses instants ti1 , . . . , tini , on retrouve le fait que

n! (m1 )n1 . . . (mr )nr


P(An1 ,...,nr ) =
n1 ! . . . n r ! (m)n
1.1. PROMENADES ALÉATOIRES 15

Approximation polynomiale : Supposons que l’on ait


m1 mr
m1 ↑ ∞, . . . , mr ↑ ∞ avec → p1 , . . . , → pr
m m
Dans cette situation, il y a tellement de boules dans l’urne, que tout se passe comme dans un
tirage avec remise ! En effet, nous avons dans ce cas
  
m1 m1 −1 m1 −(n1 −1) m2 m2 −1 m2 −(n2 −1)
m m−1 . . . m−(n1 −1) (m−n1 ) (m−n1 )−1 . . . (m−n1 )−(n2 −1) . . .

  
m1 n 1 1−1/m1 1 −1)/m1
= m 1−1/m . . . 1−(n
1−(n1 −1)/m

  
m2 n 2 1−1/m2 2 −1)/m2
× m
1
(1−n1 /m) (1−n1 /m)−1/m . . . (1−n1−(n
1 /m)−(n2 −1)/m
...

→ pn1 1 pn2 2 . . . pnr r

On en conclut que la loi hypergéométrique convergence vers la loi multinomiale

n! (m1 )n1 . . . (mr )nr mi ↑∞ n!


−→ pn1 pn2 . . . pnr r
n1 ! . . . n r ! (m)n n1 ! . . . n r ! 1 2
16 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

1.2 Variables aléatoires


1.2.1 Définitions
La notion de variable aléatoire (en abrégé v.a.) permet une analyse approfondie et simplifiée
des expérience aléatoires que nous avons rencontrées, et de bien d’autres à venir. La définition
fonctionnelle suivante présente ces nouveaux objets comme une variable abstraite dont la valeur
dépend du résultat ω de d’une expérience.

Définition 1.2.1 Une v.a. (discrète) X est une application d’un espace probabilisé
(Ω, P) dans un espace fini E. Lorsque E ⊂ R, on dit que la v.a. est réelle.

Exemple 1.2.1 Dans l’exemple du lancer de n dés, la fonction identité

(X1 , . . . , Xn ) : Ω = {1, . . . , 6}n −→ E = {1, . . . , 6}n


ω = (ω1 , . . . , ωn ) −→ (X1 (ω), . . . , Xn (ω)) = (ω1 , . . . , ωn )

est une v.a. représentant le résultat du lancer. De même, les fonctions coordonnées

Xp : ω = (ω1 , . . . , ωn ) ∈ Ω −→ Xp (ω) = ωp ∈ {1, . . . , 6}

représentent le résultat du lancer du p-ième dés. La somme, et le produit définis par


n
X n
Y
Sn (ω) = Xp (ω) et Πn (ω) = Xp (ω)
p=1 p=1

sont à nouveau des v.a. (réelles).

Exemple 1.2.2 La v.a. indicatrice Y = 1A associée à un évènement A ⊂ Ω, représente la


réalisation, ou non de cet évènement. Notons que si A = X −1 (B), avec B ⊂ E, la v.a. Y =
1X −1 (B) = 1B ◦X représente la réalisation ou non de l’évènement X −1 (B) = {ω ∈ Ω : X(ω) ∈
B}.

Le lemme suivant est d’un usage assez fréquent dans l’étude de modèles probabilistes. Sa
démonstration est immédiate !

Lemme 1.2.1 Si X : Ω → E est une v.a. à valeurs dans E, et si f : E → F est une application
arbitraire de E vers un espace fini auxiliaire F , alors l’application f (X) = f ◦ X est une v.a. à
valeurs dans F .

La représentation canonique suivante offre une formulation algébrique précise de variables


aléatoires. Sa démonstration ne pose aucun problème particulier.

Proposition 1.2.1 Soit X(Ω) = {x1 , . . . , xd } ⊂ E, l’ensemble des réalisations


possibles d’une v.a. X : Ω → E. Dans cette situation, la famille d’ensembles
Ai = X −1 ({xi }), 1 ≤ i ≤ d, forme une partition de Ω, et on a la représentation
d
X
X= xi 1 A i
i=1
1.2. VARIABLES ALÉATOIRES 17

Exercice 1.2.1 Soit X : Ω → E une v.a., et f : E → F une fonction de E dans un ensemble


fini F . Si X(Ω) = {x1 , . . . , xd } ⊂ E, l’ensemble des réalisations possibles de v.a. X, montrer
que la v.a. f (X) peut s’écrire sous la forme suivante
d
X
f (X) = f (xi ) 1X −1 ({xi })
i=1

Exercice 1.2.2 Soit (Ai )≤i≤d une partition de l’ensemble Ω. Montrer que pour toute collection
de nombres réels a = (ai )≤i≤d , les fonctions
d
X
Xa = a i 1 Ai
i=1

sont des v.a. réelles. Vérifier que toutes les v.a. réelles sont de cette forme.
Exercice 1.2.3 Vérifier que pour tout couple d’ensembles A, B, on a les décompositions
d’indicatrices suivantes
1A∩B = 1 A 1B
1A∪B = 1 A + 1 B − 1 A 1B = 1 A ∨ 1 B
1A−B = 1A (1 − 1B ) = 1A − 1A 1B
1A4B = (1A − 1B )2 = |1A − 1B |

1.2.2 Adaptation et mesurabilité


Pour toute v.a. X à valeurs dans un espace fini E, l’ensemble des événements
σ(X) = X −1 (P(E)) = {X −1 (A) : A ⊂ E}
forme une algèbre de parties de l’ensemble Ω. Plus précisément, on vérifie que σ(X) hérite de
la structure d’algèbre sur l’ensemble des parties de E, en remarquant que
X −1 (∅) = ∅ et X −1 (E) = Ω
De plus, pour tout couple de sous ensembles A, B ⊂ E, on a

X −1 (A) ∪ X −1 (B) = X −1 (A ∪ B) et X −1 (A) ∩ X −1 (B) = X −1 (A ∩ B)


Chaque sous ensemble
X −1 (A) = {ω ∈ Ω : X(ω) ∈ A}
est formé des évènements conduisant la variable X dans l’ensemble A. Autrement dit X −1 (A)
contient tous les aléas où l’évènement {X ∈ A} se réalise. Les évènements composés X −1 (A) ∪
X −1 (B) = X −1 (A ∪ B) correspondent aux évènements où X prend ses valeurs dans A ou
dans B. De même, évènements composés X −1 (A) ∩ X −1 (B) = X −1 (A ∩ B) correspondent aux
évènements où X prend ses valeurs dans A et dans B.

Définition 1.2.2 Soit X une v.a. à valeurs dans un espace fini E, et définie sur un
espace probabilisé (Ω, P). L’ensemble des évènements

σ(X) = X −1 (P(E)) = {X −1 (A) : A ⊂ E}

est appelé l’algèbre sur E engendrée par la v.a. X. Ces algèbres ensemblistes
représentent tous les évènements aléatoires que l’on peut décrire par des phrases
grammaticales logiques.
18 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

On notera que l’algèbre σ(X) engendrée par une v.a. X, coı̈ncide avec la plus petite sous algèbre
de P(Ω) contenant les évènements
X −1 (x) ⊂ Ω avec x ∈ E
Pour vérifier cette assertion, on remarquera que chacun des évènements X −1 (A), avec A ⊂ E,
s’exprime sous la forme
X −1 (A) = ∪x∈A X −1 ({x})
Par conséquent, pour toute sous algèbre F ⊂ P(Ω) contenant les évènements (X −1 (x))x∈E , et
d’après les propriétés de stabilité par réunion, on obtient l’inclusion
σ(X) ⊂ F
L’observation précédente souligne le fait que σ(X) correspond à l’ensemble de tous les
événements de Ω que l’on peut construire et décrire “en observant” les valeurs prises par la
v.a. X. A titre d’exemple, l’ensemble
X −1 ({x1 , x2 }) = {ω ∈ Ω : X(ω) = x1 ou X(ω) = x2 }
correspond à l’évènement où la v.a. X prend soit la valeur x1 , soit la valeur x2 . Comme nous
l’avons vu dans la proposition 1.2.1, la v.a. X s’exprime alors en terme d’évènements de σ(X)
par la formule X
X= x 1X −1 ({x})
x∈E

Toute algèbre F ⊃ σ(X) plus fine que σ(X), contient plus d’information que nécessaire pour
décrire X. En effet, supposons que
F = σ(X, Y ) (⊃ σ(X))
soit l’algèbre engendrée par un couple de v.a. (X, Y ) à valeurs dans un espace produit (E × F ),
et définies sur un même espace de probabilités (Ω, P). Dans cette situation, nous avons la
décomposition
X −1 ({x}) = ∪y∈F (X, Y )−1 ({(x, y)})
Autrement dit, l’évènement X −1 ({x}) ne permet par de distinguer les valeurs prises par
la v.a. Y . En ce sens les évènements X −1 ({x}) sont plus grossiers que les évènements
(X, Y )−1 ({(x, y)}). Pour conclure, on remarquera comme précédemment que la v.a. (X, Y )
s’exprime sous la forme
X
(X, Y ) = (x, y) 1(X,Y )−1 ({(x,y)})
(x,y)∈(E×F )

alors que l’on a


X
X = x 1(X,Y )−1 ({(x,y)})
(x,y)∈(E×F )
 
X X X
= x  1(X,Y )−1 ({(x,y)})  = x 1X −1 ({x})
x∈E y∈F x∈E

Définition 1.2.3 Soit X une v.a. à valeurs dans un espace fini E, et définie sur un
espace probabilisé (Ω, P). On dit que X est mesurable par rapport, ou adaptée à une
algèbre d’évènements F ⊂ P(Ω), et on note X ∈ F, lorsque l’on a

∀A ⊂ E X −1 (A) ⊂ F
1.2. VARIABLES ALÉATOIRES 19

Exemple 1.2.3 La fonction identité

(X1 , X2 ) : Ω = {1, . . . , 6}2 −→ E = {1, . . . , 6}2


ω = (ω1 , ω2 ) −→ (X1 (ω), X2 (ω)) = (ω1 , ω2 )

est une v.a. représentant le résultat du lancer de deux dès. Par construction, nous avons

σ(X1 , X2 ) = F2 =déf. P({1, . . . , 6}2 )

On notera que
∀i ∈ {1 . . . , 6} X1−1 ({i}) = {i} × {1, . . . , 6}
L’algèbre engendrée par la v.a. représentant le lancer du premier dès est alors clairement donnée
par

F1 =déf. σ(X1 )
= P({1, . . . , 6}) × {1, . . . , 6} = {A × {1, . . . , 6} : A ⊂ {1, . . . , 6}}
⊂ σ(X1 , X2 ) = P({1, . . . , 6}2 )

avec la convention ∅ × {1, . . . , 6} = ∅. Chaque élément de l’algèbre σ(X 1 )

B = A × {1, . . . , 6}
= {ω ∈ Ω : X1 (ω) ∈ A} avec A ⊂ {1, . . . , 6}

correspond à l’évènement “le lancer du premier dès est à valeur dans A”. On notera dans ce
cas que
X1 ∈ F 1 ⊂ F 2
On a aussi les représentations
6
X 6
X
(X1 , X2 ) = (i, j) 1(X1 ,X2 )−1 ({(i,j)}) = (i, j) 1{(i,j)}
i,j=1 i,j=1

et
6
X 6
X
X1 = i 1X −1 ({i}) = i 1({i}×{1,...,6})
1
i=1 i=1

Chaque aléa donné ω, appartient à l’un des ensembles ({i} × {1, . . . , 6}), avec i ∈ {1, . . . , 6}.
Par exemple l’aléa ω = (2, 5) représentant la situation où les lancers des dès sont 2, puis 5,
appartient à l’ensemble ({2} × {1, . . . , 6}). Il en est de même des aléas ω = (2, 1), ω = (2, 2),
ω = (2, 3),..., et ω = (2, 6). Dans tous ces cas, nous avons

1({2}×{1,...,6}) (ω) = 1 et ∀i 6= 2 1({i}×{1,...,6}) (ω) = 0

Autrement dit, pour tous les aléas de la forme ω = (2, j), l’évènement aléatoire ({2} ×
{1, . . . , 6}) ∈ σ(X1 ) se réalise, et on a
6
X
ω = (2, j) =⇒ X1 (ω) = i 1({i}×{1,...,6}) (ω) = 2
i=1

D’après les discussions précédentes, une v.a. donnée Y à valeurs dans un espace fini E, s’exprime
de façon naturelle en terme des évènements Y −1 ({y}) ∈ σ(Y ), y ∈ E, par la formule
X
Y = y 1Y −1 ({y})
y∈E
20 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Ce représentations événementielles peuvent clairement s’étendre à tout algèbre F plus fine que
σ(Y ), en ce sens où σ(Y ) ⊂ F. Par conséquent, une algèbre contenant l’algèbre engendrée
par une v.a. Y contient toute l’information relative à la réalisation de cette variable.
Il en est intuitivement de même pour toute v.a. auxiliaire X, adaptée ou mesurable par rapport
à σ(Y ). La proposition suivante montre que l’adaptation d’une v.a. à une algèbre donnée est
une propriété fonctionnelle très forte.

Proposition 1.2.2 Pour tout un couple de v.a. (X, Y ) à valeurs dans un espace
produit fini (E ×F ), et défini sur un même espace probabilisé (Ω, P), on a l’équivalence
suivante
X ∈ σ(Y ) ⇐⇒ ∃h : F → E X = h(Y )

Preuve:
La condition suffisante est immédiate. En effet, il suffit de noter que

∀B ⊂ E X −1 (B) = h(Y )−1 (B) = Y −1 (h−1 (B)) ∈ σ(Y )

Pour vérifier que toute v.a. X ∈ σ(Y ) est nécessairement de la forme X = h(Y ), avec h : F → E,
on observe que

X −1 ({x}) ∈ σ(Y ) ⇐⇒ ∃Ax ⊂ F X −1 ({x}) = Y −1 (Ax )

Il reste alors à noter que 1X −1 ({x}) = 1Y −1 (Ax ) . En effet, en utilisant la décomposition


X
X= x 1X −1 ({x})
x∈E
P
on obtient bien X = h(Y ), avec la fonction h(y) = x∈E x 1 Ax .

Exemple 1.2.4 La fonction identité

X : Ω = {1, . . . , 6} −→ E = {1, . . . , 6}
ω −→ X(ω) = ω

est une v.a. représentant le résultat du lancer d’un dès. L’algèbre engendrée par cette v.a.
coı̈ncide clairement avec l’algèbre discrète sur Ω

σ(X) = P(Ω)

L’application indicatrice
Y = 1{2,4,6} ◦ X
est une v.a. représentant la parité ou non du résultat du lancer. L’algèbre engendrée par cette
v.a. est donnée par
σ(Y ) = {∅, Ω, {2, 4, 6}, {1, 3, 5}} ⊂ σ(X)

Exercice 1.2.4 Soit D = (Di )i∈I une partition d’un ensemble fini Ω, muni de l’algèbre discrète
P(Ω). On note a(D) la plus petite algèbre contenant les évènements (D i )i∈I .
1. Vérifier que pour toute algèbre b(D) contenant D, on a

b(D) ⊂ a(D) =⇒ a(D) = b(D)


1.2. VARIABLES ALÉATOIRES 21

2. On considère les v.a. indicatrices

∀i ∈ I X i = 1 Di

Montrer que
σ(Xi , i ∈ I) = a(D)
L’algèbre a(D) est souvent notée abusivement σ(D).
3. Montrer que pour toute fonction f : {0, 1}I → R nous avons

f ((Xi )i∈I ) ∈ σ(D)

Vérifier que toutes les v.a. Z ∈ σ(D) sont nécessairement de cette forme.

Exercice 1.2.5 Soit F une algèbre de parties sur un ensemble fini Ω.


1. Montrer qu’il existe une partition D de Ω telle que

F = σ(D)

2. En déduire qu’il existe une collection finie de v.a. (Xi )i∈I à valeurs réelles sur Ω, telles
que
F = σ(Xi , i ∈ I)

1.2.3 Lois et espérances


Soit X : Ω → E une v.a. à valeurs dans un ensemble fini E, et définie sur un espace
probabilisé (Ω, P). Pour tout x ∈ X(Ω), le sous ensemble X −1 ({x}) ⊂ Ω représente l’évènement
sur lequel la v.a. X prend la valeur x. La probabilité de ces évènements est donnée par la
fonction
PX : x ∈ E 7→ PX (x) = P(X −1 ({x})) ∈ [0, 1]

Plus généralement, la probabilité pour que la v.a. X prenne ses valeurs dans B ⊂ E,
est donnée par
∀B ⊂ E PX (B) = P(X −1 (B))
La mesure de probabilité PX sur E ainsi définie est appelée la loi ou la distribution
de la v.a. X.

On note que
X
PX (B) = P(X −1 (B)) = P(∪x∈B X −1 ({x})) = P(X −1 ({x}))
x∈B

On obtient ainsi une formule permettant de calculer directement la loi de chaque évènement
A = {X ∈ B} ⊂ Ω, sans passer par l’espace probabilisé (Ω, P)
X
PX (B) = PX (x)
x∈B

Définition 1.2.4 L’espérance, ou la moyenne E(X) d’une v.a. réelle définie sur un
espace de probabilités (Ω, P), est la quantité donnée par
X X
E(X) = X(ω) P(ω) = x PX (x)
ω∈Ω x∈X(Ω)
22 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Pour vérifier la seconde formulation, on note simplement que


X X X X
X(ω) P(ω) = x P(ω) = x PX (x)
ω∈Ω x∈X(Ω) ω:X(ω)=x x∈X(Ω)

Si X = (X1 , X2 ) désigne une v.a. à valeurs dans un espace produit fini (E1 × E2 ),
nous avons pour toute fonction f : E1 × E2 → R
X
E(f (X1 , X2 )) = f ((X1 , X2 )(ω)) P(ω)
ω∈Ω
 
X X
= f (x1 , x2 )  P(ω)
(x1 ,x2 )∈(E1 ×E2 ) ω:(X1 ,X2 )(ω)=(x1 ,x2 )
X
(X1 ,X2 )
= f (x1 , x2 ) P (x1 , x2 )
(x1 ,x2 )∈(E1 ×E2 )

Lorsque les v.a. sont réelles, on obtient clairement la propriété de linéarité

∀(a1 , a2 ) ∈ R2 E(a1 X1 + a2 X2 ) = a1 E(X1 ) + a2 E(X2 )

Exemple 1.2.5 Soit Ω = {0, 1}, P(1) = 1 − P(0) = p ∈ [0, 1], l’espace probabilisé associé à un
jeu de pile ou face, avec probabilité de succès p. On note X la variable aléatoire canonique

X : ω ∈ Ω = {0, 1} −→ X(ω) = ω ∈ E = {0, 1}

On a ainsi de façon immédiate

∀x ∈ E PX (x) = px (1 − p)1−x

On note aussi que


E(X) = 0 × (1 − p) + 1 × p = p

Exemple 1.2.6 On considère l’espace Ω = {0, 1}n , muni de la probabilité


n
Y
P(ω1 , . . . , ωn ) = [p 11 (ωi ) + (1 − p) 10 (ωi )]
i=1

Cet espace probabilisé (Ω, P) correspond à une succession de n lancers d’une pièce de monnaie,
ayant une probabilité de succès p. On introduit la séquence de v.a.

Xi : ω = (ωi )1≤i≤n ∈ Ω = {0, 1}n −→ Xi (ω) = ωi ∈ E = {0, 1}

Ces n v.a. correspondent aux résultats des i-ème lancers. La loi du vecteur aléatoire identité

X = (X1 , . . . , Xn ) : ω ∈ Ω = {0, 1}n −→ X(ω) = ω ∈ E n = {0, 1}n

est donnée pour tout x = (xi )1≤i≤d ∈ E n , par la formule produit


n
Y n
Y
PX (x) = P(X1 ,...,Xn ) (x1 , . . . , xn ) = pxi (1 − p)1−xi = PXi (xi )
i=1 i=1

Exemple 1.2.7 Soit Ω = {−1, 1}, P(1) = 1 − P(−1) = p ∈ [0, 1], l’espace probabilisé associé à
une v.a. de Bernoulli à valeurs dans {−1, 1}. On note X la variable aléatoire canonique

X : ω ∈ Ω = {−1, 1} −→ X(ω) = ω ∈ E = {−1, 1}


1.2. VARIABLES ALÉATOIRES 23

On a clairement x+1 x−1


∀x ∈ E PX (x) = p 2 (1 − p)− 2

On vérifie enfin que


E(X) = (−1) × (1 − p) + 1 × p = 2p − 1
Exemple 1.2.8 On considère l’espace Ω = {−1, 1}n, muni de la probabilité
P(ω) = P(ω1 , . . . , ωn )
Yn
= [p 11 (ωi ) + (1 − p) 1−1 (ωi )]
i=1
n
Y Pn Pn
ωi +1 1−ωi n+ i=1 ωi n− i=1 ωi
= p 2 (1 − p) 2 =p 2 (1 − p) 2

i=1

Autrement dit, on a aussi


Pn Pn
n+ i=1 ωi n+ i=1 ωi
P(ω) = p 2 (1 − p)n− 2 = pN (ω) (1 − p)n−N (ω)
avec n Pn
X n+ i=1 ωi
N (ω) = 11 (ωi ) =
i=1
2
On remarquera que
n
X n
X
n+ ωi = (ωi + 1)
i=1 i=1
Xn n
X
= (11 (ωi ) + 1) + (1−1 (ωi ) + 1)
i=1 i=1
Xn n
X
= (11 (ωi ) + 1) + 0 = 2 11 (ωi )
i=1 i=1

Cet espace probabilisé (Ω, P) modélise les n déplacements aléatoires vers le haut, ou vers le bas,
d’une particule évoluant sur Z. Ce modèle probabiliste peut aussi représenter les évolutions à
la hausse, ou à la baisse, du cours d’un actif financier ; les successions de pertes ou gains lors
d’un processus de jeu d’argent,...
On introduit la séquence de v.a.
Xi : ω = (ωi )1≤i≤n ∈ Ω = {−1, 1}n −→ Xi (ω) = ωi ∈ E = {−1, 1}
Ces n v.a. correspondent aux i-ème déplacements de la particule. La loi du vecteur aléatoire
identité
X = (X1 , . . . , Xn ) : ω ∈ Ω = {−1, 1}n −→ X(ω) = ω ∈ E n = {−1, 1}n
est ainsi donnée pour tout x = (xi )1≤i≤d ∈ E n , par la formule produit
n
Y n
Y
PX (x) = P(X1 ,...,Xn ) (x1 , . . . , xn ) = p11 (xi ) (1 − p)1−1 (xi ) = PXi (xi )
i=1 i=1

ou de façon équivalente, en terme du nombre de montées


Pn Pn
n+ i=1 xi n+ i=1 xi
PX (x) = p 2 (1 − p)n− 2

On notera enfin que


n
X n
X
E( Xi ) = E(Xi ) = (2p − 1) n
i=1 i=1
24 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Proposition 1.2.3 Soit X : Ω → E une v.a. définie sur un espace probabilisé (Ω, P) à valeurs
dans un espace fini E, et soit f : E → F une application arbitraire de E dans un espace fini
auxiliaire F . Alors, la fonction composée

Y = f (X) = f ◦ X : ω ∈ Ω −→ Y (ω) = f (X(ω)) ∈ F

est une v.a. définie sur le même espace probabilisé (Ω, P), et distribuée sur F selon la loi
X
∀y ∈ Y PY (y) = PX (f −1 ({y})) = PX (x)
x : f (x)=y

Corollaire 1.2.1 Soit (X, Y ) un couple de v.a. sur un espace probabilisé (Ω, P), distribué sur
un espace fini produit (E × F ) selon une loi P(X,Y ) . Alors, les lois respectives PX , et PY , des
v.a. individuelles X, et Y , sont données par
X X
PX (x) = P(X,Y ) (x, y) et PY (y) = P(X,Y ) (x, y)
y∈F x∈E

Les formules précédentes s’étendent clairement au cas de plusieurs v.a. en “sommant les
v.a. indésirables”. Ainsi, la loi d’un vecteur (X1 , . . . , Xn ) se déduit d’un autre vecteur
(X1 , . . . , Xn+m ) par la formule

P(X1 ,...,Xn ) (x1 , . . . , xn )


P
= xn+1 ,...,xn+m P((X1 ,...,Xn ),(Xn+1 ,...,Xn+m )) ((x1 , . . . , xn ), (xn+1 , . . . , xn+m ))

Exercices
Les exercices suivants concernent de modèles d’urnes contenant m boules numérotées de 1
à m. On sélectionne successivement, et avec remise, n boules, et on note X1 , X2 , . . . , Xn les
numéros des boules obtenues à la 1ère , 2ème ,..., et nième étape.
Exercice 1.2.6 Vérifier que le n-uplet (X1 , X2 , . . . , Xn ) est une v.a. pouvant être réalisée sur
l’espace produit introduit à la page 9. Montrer que pour tout indice 1 ≤ p ≤ n, et pour tout
n-uplet (x1 , . . . , xn ) ∈ E n = {1, . . . , m}n , on a

P(X1 ,...,Xn ) (x1 , . . . , xn ) = 1/mn et PXp (xp ) = 1/m

Vérifier que
P(∀i 6= j Xi 6= Xj ) = (m)n /mn

Exercice 1.2.7 Supposons que parmi les m boules, m1 sont noires et m2 sont rouges, avec
m = m1 + m2 . On note respectivement B1 , et B2 , l’ensemble des numéros des boules noires, et
des boules rouges. On considère la collection de v.a.

Yi = 1B1 (Xi )

Vérifier que pour tout 1 ≤ i ≤ n, et tout n-uplet (y1 , . . . , yn ) ∈ {0, 1}n, on a


 m yi  m 1−yi
1 2
PYi (yi ) =
m m
et  m Pni=1 yi  m n−Pni=1 yi
1 2
P(Y1 ,...,Yn ) (y1 , . . . , yn ) =
m m
Pn
On pose Sn = i=1 Yi . Montrer que l’on a pour tout k ∈ {0, . . . , n}
 m k  m n−k
1 2
PSn (k) = Cnk
m m
1.2. VARIABLES ALÉATOIRES 25

Exercice 1.2.8 Dans ce dernier exercice, les boules sélectionnées ne sont pas remises dans
l’urne.
1. Vérifier que le n-uplet (X1 , . . . , Xn ) est une v.a. à valeurs dans l’espace produit E =
{1, . . . , m}n , et sa loi est donnée par la formule suivante
1
P(X1 ,...,Xn ) (x1 , . . . , xn ) = 1D (x1 , . . . , xn )
(m)n

avec D = {(x1 , . . . , xn ) ∈ E : ∀i 6= j xi 6= xj }
2. On note respectivement B1 , et B2 , l’ensemble des indices des boules noires, et des boules
rouges. Montrer que

|D ∩ B1n | = (m1 )n et |D ∩ B2n | = (m2 )n

Plus généralement, vérifier que pour toute collection d’indices (i 1 , . . . , in ) ∈ {1, 2}n, on a
n
X
|D ∩ (Bi1 × . . . × Bin )| = (m1 )n1 (m2 )n2 avec n1 = 11 (i1 ) = n − n2
p=1

En déduire les formules

(m1 )n1 (m2 )n2


P(X1 ,...,Xn ) (D ∩ (Bi1 × . . . × Bin )) =
(m)n
Pn
3. On pose Sn = k=1 1B1 (Xk ), vérifier que la v.a. Sn est distribuée sur {0, . . . , n} selon la
loi
(m1 )k (m2 )n−k C k × C n−k
PSn (k) = Cnk × = m1 n m2
(m)n Cm

1.2.4 L’indépendance

Définition 1.2.5 Deux v.a. X1 : Ω → E1 , et X2 : Ω → E2 , définies sur un même


espace probabilisé (Ω, P), sont dites indépendantes, lorsque l’on a pour tout (x 1 , x2 ) ∈
(E1 × E2 )
P(X1 ,X2 ) (x1 , x2 ) = PX1 (x1 ) × PX2 (x2 )
Plus généralement, n v.a. Xi : Ω → Ei , avec 1 ≤ i ≤ n, sont dites indépendantes,
lorsque l’on a pour tout n-uplet (x1 , . . . , xn ) ∈ (E1 × . . . × En )

P(X1 ,...,Xn ) (x1 , . . . , xn ) = PX1 (x1 ) × . . . × PXn (xn )

L’égalité précédente revient à dire que la loi du n-uplet (X1 , . . . , Xn ) est le produit tensoriel
des lois des v.a. Xi ; on utilise parfois la notation synthétique suivante

P(X1 ,...,Xn ) = PX1 ⊗ . . . ⊗ PXn

On notera que cette condition est équivalente au fait que pour tout 1 ≤ k ≤ n, et toute collection
d’indices 1 ≤ ii < . . . < ik ≤ n,

P(Xi1 ,...,Xik ) = PXi1 ⊗ . . . ⊗ PXin

Définition 1.2.6 Deux évènements A1 , A2 ∈ F sont dits indépendants lorsque les v.a.
indicatrices (X1 , X2 ) = (1A1 , 1A2 ) sont indépendantes.
26 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

On notera que
A1 , A2 indépendants ⇔ P(A1 ∩ A2 ) = P(X1 ,X2 ) ({(1, 1)})
= PX1 ({1}) × PX2 ({1})
= PX1 (1) × PX2 (1)
= P(A1 ) × P(A2 )
De même que
P(A1 ∩ Ac2 ) = P(X1 ,X2 ) ({(1, 0)}) = PX1 ({1})PX2 ({0}) = P(A1 )P(Ac2 )
P(Ac1 ∩ A2 ) = P(X1 ,X2 ) ({(0, 1)}) = PX1 ({0})PX2 ({1}) = P(Ac1 )P(A2 )
P(Ac1 ∩ Ac2 ) = P(X1 ,X2 ) ({(0, 0)}) = PX1 ({0})PX2 ({0}) = P(Ac1 )P(Ac2 )
Cependant, on a
P(A1 ∪ A2 ) = P(X1 ,X2 ) ({(1, 0), (0, 1), (1, 1)})
= P(A1 ) + P(A2 ) − P(A1 )P(A2 ) ≤ P(A1 ) + P(A2 )

Définition 1.2.7 Les évènements A1 , . . . , An , sont dits indépendants, si pour tout


1 ≤ k ≤ n, et 1 ≤ ii < . . . < ik ≤ n, les v.a.

(Xi1 , . . . , Xik ) = (1Ai1 , . . . , 1Aik )

sont indépendantes, ou encore de façon équivalente lorsque l’on a

P(Ai1 ∩ . . . ∩ Aik ) = P(Ai1 ) × . . . × P(Aik )

Exemple 1.2.9 Comme son nom l’indique, la notion d’indépendance reflète l’absence de toute
interaction entre les réalisations de phénomènes aléatoires.
1. Les v.a. (X1 , . . . , Xn ) représentant les résultats successifs de lancers de pièces de monnaie,
ou encore celles associées aux montées et descentes lors d’une évolution de particule,
étudiées dans les exemples 1.2.6, et 1.2.7, forment des collections de v.a. indépendantes.
2. Les v.a. (X1 , . . . , Xn ) représentant les numéros des boules sélectionnées avec remise dans
une urne, et étudiées dans l’exercice 1.2.6, sont indépendantes.
3. Les indicatrices Xi = 1Ai d’évènements indépendants Ai , forment des séquences de v.a.
indépendantes.
La notion d’indépendance entre v.a. permet d’élaborer une multitude de modèles
probabilistes, sans passer par une description précise de l’espace de probabilité sur lequel
les v.a. se réalisent, mais plutôt fondés sur de nouvelles interprétations probabilistes. A titre
d’exemple, nous verrons très bientôt que la loi binomiale peut s’interpréter comme la somme
v.a. élémentaires de Bernoulli.
Cette notion d’indépendance est donc très naturelle et intuitive. Néanmoins, dans certaines
situations, certains jugements hâtifs peuvent s’avérer catastrophiques ! Nous laissons le soin au
lecteur d’apprécier cette observation, en s’exerçant sur les trois exercices suivants.
Exercice 1.2.9 On considère un espace d’évènements à quatre états
Ω = {ω1 , ω2 , ω3 , ω4 }
muni de la probabilité uniforme P(ωi ) = 1/4. On considère les évènements suivants
A1 = {ω1 , ω2 } A2 = {ω2 , ω3 } A3 = {ω1 , ω4 }
Vérifier que ces trois évènements sont deux à deux indépendants, mais l’on a néanmoins
P(A1 ∩ A2 ∩ A3 ) 6= P(A1 ) × P(A2 ) × P(A3 )
1.2. VARIABLES ALÉATOIRES 27

Exercice 1.2.10 Soit Ω = {1, . . . , 6}2 , l’espace des épreuves correspondant au lancer de deux
dés. On considère les évènements suivants.

A1 = {(i, j) ∈ Ω : j ∈ {1, 2, 5}} A2 = {(i, j) ∈ Ω : j ∈ {4, 5, 6}}


A3 = {(i, j) ∈ Ω : i + j = 9} = {(3, 6), (6, 3), (4, 5), (5, 4)}

1. Vérifier que

A1 ∩ A 2 = {(i, j) ∈ Ω : j = 5} A1 ∩ A3 = {(4, 5)}


A2 ∩ A 3 = {(4, 5), (3, 6), (5, 4)} A1 ∩ A2 ∩ A3 = {(4, 5)}

2. Montrer que
P(A1 ∩ A2 ∩ A3 ) = P(A1 ) × P(A2 ) × P(A3 )
mais, pour tout i 6= j
P(Ai ∩ Aj ) 6= P(Ai ) × P(Aj )

Exercice 1.2.11 On considère un modèle d’urne contenant m1 boules de couleur c1 , m2 boules


de c2 ,..., et mr boules de couleur cr . On sélectionne au hasard n boules avec remise, et l’on note
X1 , . . . , Xn leurs couleurs.
1. Vérifier que le n-uplet (X1 , . . . , Xn ) peut être réalisé sur l’espace des suites

ω = (ω1 , . . . , ωn ) ∈ Ω = {c1 , . . . , cr }n

muni de la probabilité uniforme. Vérifier que l’on a pour tout n-uplet d’indices
(i1 , . . . , in ) ∈ {1, . . . r}n
n r
Y mi p X
P(X1 ,...,Xn ) (ci1 , . . . , cin ) = avec m = mi
p=1
m i=1

2. Vérifier que l’on a pour tout 1 ≤ p ≤ n, et pour tout i ∈ {1, . . . , r}

PXp (ci ) = mi /m

En conclure que les v.a. Xi sont indépendantes.

Exercice 1.2.12 On considère une suite d’évènements indépendants A 1 , . . . , An , se déroulant


au cours du temps, avec la même probabilité de réalisation

p = P(Ai )
Pn
On associe à cette suite, la v.a. X = i=1 1Ai représentant le nombre de fois où les évènements
se réalisent.
1. Montrer que pour tout I ⊂ {1, . . . , n}, tel que |I| = k, on a

P([∩i∈I Ai ] ∩ [∩i6∈I Aci ]) = pk (1 − p)n−k

2. En déduire que X est distribuée sur E = {0, . . . , n}, selon la loi

PX (k) = Cnk pk (1 − p)n−k

Exercice 1.2.13 Soient X1 , . . . , Xn une suite de n copies indépendantes d’une v.a. de


Bernoulli X sur {0, 1}
P(X = 1) = 1 − P(X = 0) = p ∈ [0, 1]
1. Vérifier que pour tout n-uplet (x1 , . . . , xn ) ∈ {0, 1}n, on a
Pn Pn
P(X1 ,...,Xn ) (x1 , . . . , xn ) = p i=1 xi (1 − p)n− i=1 xi

P
2. Quelle est la loi de la v.a. de comptage Sn = ni=1 Xi .
28 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

1.3 Le conditionnement
1.3.1 Évènements
L’information la plus élémentaire que l’on puisse considérer correspond à la donnée d’un
évènement simple ; tel la connaissance de la parité d’un lancer de dés, une région précise visitée
par une évolution aléatoire, la valeur d’un actif boursier à un date donnée, ou encore le niveau
de saturation d’un réseau de communication. Pour prédire d’autres évènements connexes à
une telle information, il est nécessaire de restreindre toutes les situations envisageables à
cette donnée. Cette restriction événementielle se traduit mathématiquement par une simple
intersection ensembliste. Cette discussion nous amène à introduire les notions suivantes.

Définition 1.3.1 Soit (Ω, P) un espace de probabilités. La probabilité d’un évènement


A ⊂ Ω, conditionnelle en un évènement B ⊂ Ω, tel que P(B) > 0, est la quantité
définie par
P(A | B) = P(A ∩ B)/P(B)
Lorsque P(B) = 0, on pose P(A | B) = 0. Si X désigne une v.a. réelle (à valeurs
dans un espace fini E), on définit l’espérance conditionnelle de X en l’évènement B,
avec P(B) > 0, par la quantité

E(X | B) = E(X 1B )/E(1B ) = E(X 1B )/P(B)

Lorsque P(B) = 0, on pose E(X | B) = 0.

Pour des variables indicatrices d’évènements X = 1A , avec A ⊂ Ω, ces deux notions coı̈ncident
E(1A | B) = P(A | B).
L’espérance conditionnelle en un évènement hérite des propriétés de linéarité des espérances
simples. Plus précisément, pour tout couple de v.a. sont réelles (X1 , X2 ), nous avons la propriété
de linéarité

∀(a1 , a2 ) ∈ R2 E(a1 X1 + a2 X2 | B) = a1 E(X1 | B) + a2 E(X2 | B)

Avant de développer une série de propriétés, commençons par visualiser ces deux objets sur un
exemple élémentaire.
Exemple 1.3.1 Dans l’exemple du jet de dés uniforme sur Ω = {1, 2, . . . , 6}, on a
1/6
P({2} | {2, 4, 6}) = = 1/3 et P({2} | {1, 3, 5}) = 0
3/6
On notera que le résultat du lancer de dés peut se représenter par la v.a. identité

X : ω ∈ Ω = {1, . . . , 6} 7→ X(ω) = ω ∈ R

Dans ce cas, nous avons


X
E(X | {2, 4, 6}) = x P({x}|{2, 4, 6}) = (2 + 4 + 6)/3 = 4
x∈{2,4,6}
X
E(X | {1, 3, 5}) = x P({x}|{1, 3, 5}) = (1 + 3 + 5)/3 = 3
x∈{1,3,5}

Il est important de souligner que ces notions de conditionnement sont en adéquation parfaite
avec l’intuition et l’expérience. Sachant que le résultat du lancer de dés est l’une des trois valeurs
1.3. LE CONDITIONNEMENT 29

2, 4, ou 6, il y a bien évidement une chance sur 3 que le résultat soit le chiffre 2. La moyenne
du lancer sera dans ce cas, le barycentre 4 des trois valeurs possibles {2, 4, 6}.

1. [Évènements ordonnés.] Lorsque A ⊂ B, on dit que la réalisation de l’évènement A


entraı̂ne celle de B, ou plus formellement “A ⇒ B”, en ce sens ou ω ∈ A ⇒ ω ∈ B, soit
encore en terme d’indicatrices 1A ≤ 1B . Cette interprétation est très claire dans l’exemple
du lancer de dés. L’inclusion {2, 4} ⊂ {2, 4, 6} témoigne du fait que le résultat du lancer
sera nécessairement pair si les chiffres 2 ou 4 se réalisent. De même que la réalisation des
chiffres 2 ou 4 est bien plus probable si l’on sait par avance que le résultat du lancer sera
pair. Le résultat qui suit est aussi intuitivement très clair

A ⊂ B =⇒ P(A|B) = P(A)/P(B) ≥ P(A) et P(B|A) = 1

La première assertion montre que la probabilité a posteriori P(A|B) d’un évènement A


entraı̂nant un évènement B est toujours plus grande que sa probabilité de réalisation a
priori P(A). Autrement dit, la connaissance d’un événement B nécessaire à la réalisation
de A apporte toujours de l’information. Autrement dit, la donnée de l’évènement B rend
plus probable la réalisation de A. La seconde assertion s’interprète de la façon suivante.
Si la réalisation de A entraı̂ne celle de B ; lorsque A se réalise, il en est de même de B.
2. [Indépendance et conditionnement.] Lorsque les évènements A, et B, sont
indépendants, on note que

P(A ∩ B) = P(A) P(B) ⇒ P(A | B) = P(A) et P(B | A) = P(B)

3. [Conditionnement uniforme.]

Pour des probabilités uniformes P sur des espaces mesurables discrets (Ω, F), on a

P(A) = |A|/|Ω| ⇒ P(A | B) = |A ∩ B|/|B|

Dans cette situation, tout se passe comme si l’on “restreint” toute l’expérience à
l’évènement B. Dans ce contexte, la notion de conditionnement est donc clairement liée
à l’acquisition d’une nouvelle information sur l’expérience : “l’évènement B se réalise”.
4. [Formule de Bayes.]

Soit (Ai )i∈I une partition (finie) de Ω, et soit B un évènement de probabilité non
nulle P(B) > 0. La formule de Bayes permet de transformer une suite de probabilités
a priori (P(Ai ))i∈I , en une suite de probabilités a posteriori (P(Ai |B))i∈I

P(B|Ai ) P(Ai )
∀i ∈ I P(Ai |B) = P
j∈I P(B|Aj ) P(Aj )

Preuve:
On vérifie aisément ce résultat en utilisant la symétrie de la formule

P(Ai ∩ B) = P(Ai |B)P(B) = P(B|Ai )P(Ai )



1
P(Ai |B) = P(B|Ai ) P(Ai )
P(B)
30 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

La forme additive de la constante de normalisation, résulte simplement du fait que


X X
P(Aj |B) = 1 ⇒ P(B) = P(B|Aj ) P(Aj )
j∈I j∈I

L’exercice suivant offre une initiation à l’analyse statistique d’un problème pratique. Le lecteur
est vivement encouragé à décrire un espace de probabilité précis rendant compte des événements
en question. Pour développer son intuition probabiliste, on pourra s’exercer à trouver (ou
retrouver) les réponses sans faire de calcul !
Exercice 1.3.1 Deux machines industrielles M1 et M2 ont des taux de production quotidienne
d’objets défectueux égaux à p1 = 5% et p2 = 10%. Chacune de ces machines M1 et M2 produit
respectivement m1 = 100, et m2 = 200 objets. Qu’elle est la probabilité pour qu’un objet pris
au hasard soit défectueux ? Qu’elle est la probabilité pour que ce soit la première machine M 1
qui l’ait produit ?
L’exercice suivant possède une structure temporelle intéressante, permettant notamment de
guider l’intuition probabiliste, et trouver ainsi une solution élémentaire. Cette étude est par
essence assez proche de la notion de processus de Markov que nous aborderons à la fin de ce
cours.

Exercice 1.3.2 Un sac contient 2 pièces de monnaie. L’une équitable, et ayant une probabilité
1/2 de donner “pile” ou “face” ; la seconde ayant une probabilité 1/3 de donner “face”. On
lance au hasard l’une des pièces, et l’on observe un résultat “face”. Quelle est la probabilité
d’avoir choisi la pièce équitable ?

Exercice 1.3.3 (Formule de Bayes séquentielle) Montrer que la probabilité conditionnelle


d’une réalisation conjointe de n évènements (Ap )1≤p≤n par rapport à un évènement B (de
probabilité non nulle) est donnée par la formule multiplicative

P(∩np=1 An |B)

n−1 n−2
= P(An |B ∩ [∩p=1 Ap ]) P(An−1 |B ∩ [∩p=1 Ap ]) . . . P(A2 |B ∩ A1 )P(A1 |B)
Qn
= p=1 P(Ap |B ∩ [∩p−1
q=1 Aq ])
Q
avec la convention ∅ = Ω, lorsque p = 1.

Exercice 1.3.4 Soient X1 , . . . , Xn une suite de n copies indépendantes d’une v.a. de Bernoulli
X sur {0, 1}
P(X = 1) = 1 − P(X = 0) = p ∈ [0, 1]
Pk
On note Sk = i=1 Xi , les variables de comptage du nombre de succès. Montrer que pour tout
m ≤ n, et 0 ≤ k ≤ l ≤ n, on a
l−k k
Cn−m Cm l
PSm |Sn (k|l) = et PX1 |Sn (1|l) =
Cnl n
1.3. LE CONDITIONNEMENT 31

1.3.2 Décompositions et sous algèbres


La connaissance d’une famille d’évènements disjoints apporte bien entendu une information
plus fine que celle liée à un seul ! C’est le cas de la parité ou non d’un lancer de dés, l’échec ou le
succès d’une expérience, ou encore la donnée du niveau de saturation d’une file d’attente. Pour
traiter l’information contenue dans chaque évènement, on est amené à introduire un nouveau
cadre fonctionnel pour détecter quel évènement “s’est réalisé”.

Définition 1.3.2 Soit D = (Di )i∈I une partition dénombrable d’un espace fini Ω.
Autrement dit, D est une décomposition de l’espace Ω en une suite d’évènements
disjoints, c’est à dire

∀i > j ≥ 1 Di ∩ Dj = ∅, et Ω = ∪i∈I Di

La probabilité conditionnelle P( |D) par rapport à D est la fonction (mesurable) sur


.
(Ω × P(Ω)) définie par
X
(ω, A) ∈ (Ω × P(Ω)) 7→ P(A | D)(ω) = P(A|Di ) 1Di (ω)
i∈I

L’espérance conditionnelle d’une v.a. réelle X par rapport à une décomposition D est
la fonction donnée par par
X
E(X | D)(ω) = E(X|Di ) 1Di (ω)
i∈I

Pour des variables indicatrices X = 1A , A ⊂ Ω, on a E(1A | D) = P(A | D). Enfin, on notera


que les fonctions
E(X | D) : ω ∈ Ω 7→ E(X | D)(ω)
sont mesurables non seulement par rapport à l’algèbre discrète de référence P(Ω), mais aussi
par rapport à l’algèbre F = σ(D) (⊂ P(Ω)) engendrée par la décomposition D. Pour vérifier
cette assertion, il suffit de noter que

E(X|D)−1 (A) = {ω ∈ Ω : E(X|D)(ω) ∈ A}


X
= {ω ∈ Ω : E(X|Di ) 1Di (ω) ∈ A} = ∪i∈I : E(X|Di )∈A Di ∈ F = σ(D)
i∈I

Pour souligner cette propriété on utilise souvent les notations suivantes :

F = σ(D) =⇒ E(X | F) = E(X | D)

Avec ces notations, et dans le cas de l’algèbre triviale {∅, Ω} (associée à la partition D = {Ω}),
on notera que
E(X|{∅, Ω}) = E(X | Ω) = E(X)
Il est à nouveau important de souligner que les objets fonctionnels que nous venons de
définir héritent des propriétés d’additivité, et de linéarité des probabilités et des espérances
conditionnelles par rapport à un événement. Plus précisément, pour tout couple de v.a. sont
réelles (X1 , X2 ), nous avons la propriété de linéarité
32 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

∀(a1 , a2 ) ∈ R2 E(a1 X1 + a2 X2 | D) = a1 E(X1 | D) + a2 E(X2 | D)

Exemple 1.3.2 Reprenons l’exemple du jet de dés uniforme décrit dans l’exemple 1.3.1, avec
la partition D = {{2, 4, 6}, {1, 3, 5}} de Ω = {1, . . . , 6} en évènements pairs ou impairs. Dans
cette situation, nous avons

P({2} | D) = P({2} | {2, 4, 6}) 1{2,4,6} + P({2} | {1, 3, 5}) 1{1,3,5}


1
= 1{2,4,6}
3
et P({1, 3} | D) = 32 1{1,3,5} . Ces décompositions fonctionnelles s’interprètent de la façon
suivante. Si le résultat de l’expérience est pair, autrement dit si l’évènement {2, 4, 6} se réalise,
alors la probabilité d’avoir le chiffre 2 est de 1/3

ω ∈ {2, 4, 6} =⇒ P({2} | D)(ω) = 1/3

Inversement, si le résultat de l’expérience est impair, autrement dit si l’évènement {1, 3, 5} se


réalise, alors la probabilité d’avoir le chiffre 2 est nulle. Autrement dit, nous avons

ω ∈ {1, 3, 5} =⇒ P({2} | D)(ω) = 0

Avec les notations de l’exemple 1.3.1, on obtient

E(X | D) = E(X | {2, 4, 6}) 1{2,4,6} + E(X | {1, 3, 5}) 1{1,3,5}


= 4 1{2,4,6} + 3 1{1,3,5}

Dans cette exemple, la propriété de a(D)-mesurabilité soulignée précédemment est assez simple
à voir. On notera que

{ω : P({2}|D) = 1/3} = {2, 4, 6} = {ω : E(X|D) = 4}

1. [Représentations fonctionnelles]. Lorsque D = {B, B c } est la décomposition associée


à un évènement B ⊂ Ω, avec P(B) ∈ (0, 1), on remarque que

P(A | D)(ω) = P(A|B) 1B (ω) + P(A|B c ) 1B c (ω)

Dans cette situation, l’espérance conditionnelle d’une variable X par rapport à D =


{B, B c } est donnée par la v.a.

E(X | D)(ω) = E(X|B) 1B (ω) + E(X|B c ) 1B c (ω)

Pour la partition triviale D = {∅, Ω}, on a bien entendu la formule suivante

E(X|{∅, Ω}) = E(X|Ω) = E(X)

2. [Décompositions ordonnées].

Définition 1.3.3 Soit D 0 = (Di0 )i∈I 0 et D = (Di )i∈I un couple de partitions sur Ω.
On dit que D0 est plus fine que D, ou encore D est plus grossière que D 0 , et on note
D ⊂ D0 , lorsque tout élément de D s’exprime comme la réunions d’éléments de D 0

D ⊂ D0 ⇐⇒ ∀i ∈ ∃Ii ⊂ I 0 Di = ∪j∈Ii Dj0

Cette propriété induit relation d’ordre partiel sur l’ensemble des partitions.
1.3. LE CONDITIONNEMENT 33

Dans cette situation, et d’après la formule de factorisation, on a

Di ∩ Dj0 = (∪k∈Ii Dk0 ) ∩ Dj0 = ∪k∈Ii (Dk0 ∩ Dj0 ) = 1Ii (j) Dj0

Par conséquent, on obtient P(Di |Dj0 ) = 1Ii (j).

On montre alors aisément la formule de conditionnements emboı̂tés

D ⊂ D0 =⇒ E(E(X | D0 ) | D) = E(X | D)

valable pour toute v.a. réelle. En particulier, pour D = {∅, Ω}, on trouve que

E(E(X | D0 )) = E(X)

Preuve:
On commence par noter que
X
E(E(X | D0 ) | Di ) = E( E(X | Dj0 ) 1Dj0 | Di )
j∈I 0
X
= E(X | Dj0 ) P(Dj0 ∩ Di )/P(Di )
j∈I 0

D’après la discussion précédente, on obtient


X P(Dj0 ∩ Di )
E(E(X | D0 ) | Di ) = E(X 1Dj0 )
P(Dj0 )P(Di )
j∈I 0
X
= E(X 1Dj0 ) P(Di |Dj0 )/P(Di )
j∈I 0
X
= E(X 1Dj0 )/P(Di ) = E(X 1Di )/P(Di )
j∈Ii

Par conséquent, on a
E(E(X | D0 ) | Di ) = E(X | Di )
On en conclut que
X
E(E(X | D0 ) | D) = E(X |Di ) 1Di = E(X | D)
i∈I

3. [Sous algèbres ordonnées]. Commençons par montrer qu’une sous algèbre


d’évènements F ⊂ P(Ω) est toujours engendrée par une partition D de Ω. Autrement
dit, pour toute algèbre F, il existe une unique partition D de Ω telle que

F = σ(D) = σ({1D : D ∈ D})

On construit cette partition, en choisissant le plus grand sous-ensemble D = (Di )i∈I formé
d’évènements deux à deux disjoints de F (voir exercice 1.2.5).
Soit F 0 une sous algèbre de P(Ω), plus fine qu’une algèbre donnée F, en ce sens où

F = σ(D) ⊂ F 0 = σ(D0 )

pour un couple (D, D 0 ) de partitions de Ω. La formule de conditionnements emboı̂tés


décrite précédemment s’exprime en terme de sous algèbres sous la forme suivante
34 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

F ⊂ F 0 =⇒ E(E(X | F 0 ) | F) = E(X | F)

4. [Mesurabilité.] Pour toute v.a. réelle X, et pour toute algèbre F = σ(D), engendrée par
une partition D, nous avons
X F − mesurable =⇒ E(X | F) = X
Preuve:
On remarque que toute v.a. X, mesurable
P par rapport à une algèbre σ((D), peut se
mettre sous la forme discrète X = i∈I xi 1Di , pour certains nombres réels xi , tels que
Di = X −1 ({xi }). Avec ces notations, on obtient
X X X
E(X | D) = xi P(Di | D) = xi [ P(Di | Dj ) 1Dj ]
i∈I i∈I j∈I
X X X
= xi [ 1i (j) 1Dj ] = xi 1 Di = X
i∈I j∈I i∈I

1.3.3 Variables aléatoires


La notion de conditionnement entre v.a. discrètes est par essence “assez proche” de la
notion de conditionnement par rapport à une décomposition de l’espace des évènements. Pour
s’en convaincre, on notera que les évènements associés aux différentes valeurs prises par une v.a.
discrète forment une partition de l’espace des évènements élémentaires, et inversement. Afin
de souligner les liens entre cette nouvelle notion et les processus aléatoires, nous avons choisi
d’indicer les v.a. par des nombres entiers. Dans la suite du cours, lorsque nous aborderons la
notion de processus, ces indices entiers correspondront aux paramètres temporels.

Définition 1.3.4 On se donne un couple de v.a. (X1 , X2 ) à valeurs dans un espace


produit fini (E1 × E2 ), muni de la tribu discrète P(E1 × E2 ). On supposera que ces
variables sont définies sur un espace probabilisé (Ω, P). La loi conditionnelle de X 2
en X1 , est la collection de lois de probabilités PX2 |X1 ( | x1 ) sur (E2 , P(E2 )), indexée
.
par les x1 ∈ E1 et données par

x2 ∈ E2 7→ PX2 |X1 (x2 |x1 ) = P(X2 = x2 |X1 = x1 ) ∈ [0, 1]

pour tout x1 tel que PX1 (x1 ) > 0. Lorsque PX1 (x1 ) = 0, on convient que
PX2 |X1 (x2 |x1 ) = 0.

Lorsque PX1 (x1 ) = 0, on observe que


X
PX1 (x1 ) = PX1 ,X2 (x1 , x2 ) = 0 ⇒ ∀x2 ∈ E2 PX1 ,X2 (x1 , x2 ) = 0
x2 ∈E2

Notre convention (P (x1 ) = 0 ⇒ PX2 |X1 (x2 |x1 ) = 0), est de ce fait naturelle, et cohérente.
X1

Lorsque les v.a. sont égales X1 = X2 , on a clairement


P(X1 = x1 , X1 = x2 )
PX1 |X1 (x2 |x1 ) = = 1x1 (x2 )
P(X1 = x1 )
pour tout PX1 (x1 ) > 0. On notera enfin la formule de conditionnement
1.3. LE CONDITIONNEMENT 35

P(X1 ,X2 ) (x1 , x2 ) = PX2 |X1 (x2 |x1 ) PX1 (x1 ) (1.3)

Exemple 1.3.3 Le jeu du lancer de dés étudié dans l’exemple 1.3.1 peut être décrit par le
couple de variables (X1 , X2 ) sur Ω = {1, . . . , 6} définies par

X1 (ω) = 1{2,4,6} (ω) et X2 (ω) = ω

La v.a. X2 représente le résultat de l’expérience, et la v.a. X1 la parité du résultat. On notera


que {X2 = i} = {i}, pour chaque i = 1, . . . , 6, alors que

{X1 = 1} = {2, 4, 6} et {X1 = 0} = {1, 3, 5}

On obtient ainsi immédiatement les formules

∀i ∈ {2, 4, 6} PX2 |X1 (i|1) = 1/3 et PX2 |X1 (i|0) = 0


∀i ∈ {1, 3, 5} PX2 |X1 (i|1) = 0 et PX2 |X1 (i|0) = 1/3

On remarque que pour toute fonction f sur (E1 × E2 )


X
E(f (X1 , X2 )) = f (x1 , x2 ) PX2 |X1 (x2 |x1 ) PX1 (x1 )
(x1 ,x2 )∈(E1 ×E2 )
" #
X X
X2 |X1
= f (x1 , x2 ) P (x2 |x1 ) PX1 (x1 ) (1.4)
x1 ∈E1 x2 ∈E2

Définition 1.3.5 La quantité entre crochet dans la formule (1.4) correspond à


l’espérance de la v.a. f (X1 , X2 ) en l’évènement {X1 = x1 }
X
E(f (X1 , X2 )|X1 = x1 ) = f (x1 , x2 ) pX2 |X1 (x2 |x1 ) dx2
x2 ∈E2

En particulier, lorsque X2 est une v.a. réelle on a


X
E(X2 | X1 = x1 ) = x2 PX2 |X1 (x2 |x1 )
x2 ∈E2

Pour des fonctions indicatrices f = 1A2 , avec A2 ⊂ E2 , on obtient

E(1A2 (X2 ) | X1 = x1 ) = PX2 |X1 (A2 |x1 )

On vérifie sans trop de peine que l’ensemble des évènements

Dx1 = X1−1 ({x1 }) = {ω ∈ Ω : X1 (ω) = x1 } ⊂ Ω

lorsque x1 parcours E1 , est une partition de Ω. Cette partition est dite engendrée par la variable
X1 , et on la note D X1 = (Dx1 )x1 ∈E1 . On notera que toute partition D = (Di )i∈I de Ω est
engendrée par une variable aléatoire X. Il suffit de poser
X
X= i 1 Di
i∈I

Dans cette situation, la v.a. X est à valeurs dans I, et on a Di = X −1 ({i}), pour chaque i ∈ I ;
autrement dit, nous avons D = D X .
36 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Avec ces notations, on retrouve les formules de conditionnement par rapport à des
décompositions, introduites dans la section précédente :
X
P(X2 = x2 | DX1 )(ω) = PX2 |X1 (x2 |x1 ) 1X −1 ({x1 }) (ω)
1
x1 ∈E1
X
E(f (X2 ) | DX1 )(ω) = E(f (X2 )|X1 = x1 ) 1X −1 ({x1 }) (ω)
1
x1 ∈E1

Comme précédemment, on notera que les fonctions

E(f (X2 )| DX1 ) : ω ∈ Ω 7→ E(f (X2 ) | DX1 )(ω)

sont mesurables non seulement par rapport à l’algèbre discrète P(Ω), mais aussi par rapport
à la sous algèbre σ(X1 ) = σ(DX1 ) ⊂ F, engendrée par la décomposition D X1 ; ou de manière
équivalente, par la variable X1 . En pratique, les deux formules précédentes sont d’un usage très
courant, et elles sont souvent notées

E(f (X2 ) | X1 ) = E(f (X2 ) | σ(X1 )) = E(f (X2 ) | DX1 )

Il est à nouveau important de souligner que les objets fonctionnels que nous venons de définir
héritent des propriétés de linéarité des probabilités et des espérances conditionnelles par rapport
à une décomposition.

Exemple 1.3.4 On reprenant l’énoncer et les notations de l’exemple 1.3.3, nous avons
σ(X1 ) = {Ω, ∅, {2, 4, 6}, {1, 3, 5}}. Pour toute fonction f sur R, on obtient la formule

E(f (X2 )|σ(X1 ))

= E(f (X2 )|X1 = 1) 1{2,4,6} + E(f (X2 )|X1 = 0) 1{1,3,5}

1 1
= [f (2) + f (4) + f (6)] 1{2,4,6} + [f (1) + f (3) + f (5)] 1{1,3,5}
3 3
1. [Formule de Bayes.] Comme dans le cas des probabilités conditionnelles entre
évènements, en utilisant la symétrie de la formule (1.3), on a

PX2 |X1 (x2 |x1 ) PX1 (x1 ) = PX1 |X2 (x1 |x2 ) PX2 (x2 )

D’autre part, on remarque que


X X
PX1 (x1 ) = PX1 ,X2 (x1 , x2 ) = PX1 |X2 (x1 |x2 )PX2 (x2 )
(x1 ,x2 )∈(E1 ×E2 ) x2 ∈E2

Ceci nous conduit assez rapidement à la formule de Bayes

PX1 |X2 (x1 |x2 ) PX2 (x2 )


PX2 |X1 (x2 |x1 ) = P X1 |X2 (x |y )PX2 (y )
y2 ∈E2 P 1 2 2

2. [Formule de Bayes séquentielle.] La formule de conditionnement (1.3) s’étend à des


séquences de v.a. (Xp )0≤p≤n définies sur un même espace de probabilités (Ω, F, P), et à
valeurs dans des espaces finis (Ep , P(Ep ))0≤p≤n . Plus précisément, si on remplace dans
dans (1.3) le couple X2 , et X1 , par Xn , et (X0 , . . . , Xn−1 ), alors on obtient la formule
récursive suivante
1.3. LE CONDITIONNEMENT 37

P(X1 ...,Xn )|X0 (x1 , . . . , xn |x0 )

= PXn |(X0 ,...,Xn−1 ) (xn |x0 , . . . , xn−1 ) P(X1 ...,Xn−1 )|X0 (x1 , . . . , xn−1 |x0 )

On en déduit aisément la formule multiplicative


n
Y
P(X1 ...,Xn )|X0 (x1 , . . . , xn |x0 ) = [ PXp |(X0 ,...,Xp−1 ) (xp |x0 , . . . , xp−1 )]
p=1

3. [Formule de décorrélation.] Pour tout couple de fonctions fi : Ei → R, avec i = 1, 2,


on a
E(f1 (X1 )f2 (X2 ))
P
= (x1 ,x2 )∈(E1 ×E2 ) f1 (x1 ) f2 (x2 ) PX2 |X1 (x2 |x1 ) PX1 (x1 )
P P 
= x1 ∈E1 x2 ∈E2 f2 (x2 ) PX2 |X1 (x2 |x1 ) f1 (x1 ) PX1 (x1 )

= E(E(f2 (X2 ) | X1 ) f1 (X1 ))


Par conséquent, pour toute fonction f2 nous avons la propriété suivante

∀Y1 ∈ σ(X1 ) E(Y1 f2 (X2 )) = E(Y1 E(f2 (X2 ) | X1 )) (1.5)

4. [Indépendance et conditionnement]. Lorsque les variables X1 et X2 sont


indépendantes, on remarque que
 X |X
(X1 ,X2 ) X1 X2 P 2 1 (x2 |x1 ) = PX2 (x2 )
P (x1 , x2 ) = P (x1 ) P (x2 ) ⇒
PX1 |X2 (x1 |x2 ) = PX1 (x1 )

Exercice 1.3.5 Soit (Xp )0≤p≤n une suite de v.a. définies sur un même espace de probabilités
(Ω, F, P), et à valeurs dans des espaces au plus dénombrables (E p , P(Ep ))0≤p≤n . Supposons que
la loi conditionnelle de la séquence (X1 , . . . , Xn ) en l’évènement {X0 = x0 } soit de la forme

P(X1 ...,Xn )|X0 (x1 , . . . , xn |x0 )


(1.6)
= pn (xn |x0 , . . . , xn−1 ) pn−1 (xn−1 |x0 , . . . , xn−2 ) . . . p2 (x2 |x0 , x1 )p1 (x1 |x0 )

DansPla formule précédente, pk désigne une suite de fonctions boréliennes positives, et telles
que xk pk (xk |x0 , . . . , xk−1 ) = 1, pour tout k ≥ 1, et pour toute séquence (x0 , . . . , xk−1 ) ∈
(E0 × . . . Ek−1 ). Montrer que l’on a nécessairement

PXk |(X0 ,...,Xk−1 ) (xk |x0 , . . . , xk−1 ) = pk (xk |x0 , . . . , xk−1 )

Exercice 1.3.6 Soit (X1 , X2 ) un couple de v.a. à valeurs dans un espace produit fini (E1 ×E2 ),
muni de l’algèbre discrète P(E1 × E2 ). Montrer que pour toute fonction f : E2 → R, on a la
formule
E((f (X2 ) − E(f (X2 ) | X1 ))2 )

= inf {E((f (X2 ) − Y1 )2 ) : Y1 v.a. σ(X1 ) − mesurable}


Cette description variationnelle montre l’espérance conditionnelle est un estimateur optimal,
en ce sens où elle minimise la variance d’erreur.
38 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE

Exercice 1.3.7 Soit (X1 , X2 , X3 ) un triplé de v.a. à valeurs un espace produit fini (E1 × E2 ×
E3 ), muni de l’algèbre discrète. Montrer que pour toute fonction f : E3 → R, on a la formule
de conditionnements emboı̂tés

E(E(f (X3 ) | X2 , X1 ) | X1 ) = E(f (X3 ) | X1 )


Chapitre 2

Processus aléatoires discrets

2.1 Introduction
La notion de processus aléatoire est l’une des notions les plus fructueuses de la théorie
de probabilités. Ces modèles apparaissent dès que l’on étudie des phénomènes évoluant
aléatoirement au fil du temps : dynamiques de populations en biologie, ou de particules
élémentaires en physique, processus de ruine dans des jeux de hasard, évolution de files
d’attentes dans des réseaux de communication, etc.
Nous avons déjà rencontré de tels phénomènes dans les sections précédentes. En effet, toute
expérience aléatoire formée d’une succession d’épreuves élémentaires, peut s’interpréter comme
un processus aléatoire. Ainsi, les lancers de pièces de monnaie, ou encore les sélections de boules
dans une urne, peuvent s’interpréter séquentiellement, comme une succession d’expériences
élémentaires se déroulant dans le temps. Le résultat de telles expériences s’exprime comme un
évènement élémentaire dans un espace produit

ω = (ω0 , . . . , ωn ) ∈ Ωn = E × . . . × E = E n+1
| {z }
(n+1)−termes

où ω0 représente le résultat de l’expérience initiale, et chaque composante ωp reflète le résultat


de la p-ième épreuve. Dans le jeu de pile ou face, ces aléas ωp ∈ E = {0, 1} représentent le
résultat du p-ième lancer ; ωp = 0, si le résultat est pile, et ωp = 1, si le résultat est face.
Nous étudierons dans ce chapitre les différents modes de réalisation d’un processus aléatoire.
La première section offre un exposé sur les interprétations de processus en terme d’arbres
d’épreuves. Ces modèles graphiques permettent de visualiser la réalisation d’un processus
à chaque étape de son évolution. Nous examinerons séparément les cas où les transitions
élémentaires du processus dépendent ou non du point de départ.
La seconde section concerne l’étude de l’information portée par un processus aléatoire
au cours de son évolution. Dans un premier temps, nous examinerons en détail deux types
de réalisations de marches aléatoires sur la droite réelle. Cette exemple nous permettra de
visualiser graphiquement l’information décrite par l’évolution du processus. Par la suite, nous
examinerons les notions plus générales d’évènements cylindriques, et de filtrations d’algèbres
sur des espaces d’aléas. Ces modèles ensemblistes nous permettront de décrire de façon
générale et abstraite des évolutions d’environnements aléatoires complexes. Dans le cadre
des mathématiques financières, ces environnements aléatoires correspondent à des évolutions
de prix d’actions, des stratégies de financements de portefeuilles d’agents, des variations de
taux d’intérêts d’emprunts ou de placement, des évolutions de conjonctures économiques
ou géopolitiques nationales, ou internationales. Dans ce contexte, ces filtrations croissantes
d’algèbres correspondent aux informations perçues par un observateur du marché financier, et
des conjonctures internationales.
La troisième partie de ce chapitre concerne les décompositions canoniques de processus
aléatoires sur la base d’une filtration croissante d’algèbres événementielles. Les décompositions

39
40 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

présentées dans cette section reflètent les tendances locales, prévisibles ou non, d’un processus
aléatoire donné, par rapport aux informations reçues au cours du temps.
Les quatrième et cinquième sections sont consacrées à l’étude des martingales. Ces processus
représentent en quelque sorte des processus aléatoires imprévisibles par rapport à une séquence
d’observations donnée. La première partie offre un exposé synthétique sur les principales
propriétés de ces processus. Dans la seconde partie, nous examinerons les applications de la
théorie des martingales à la théorie des jeux aléatoires. Nous présenterons notamment des
stratégies de jeux équitables et aléatoires permettant de gagner la mise sur des évènements
très probables. Enfin, nous présenterons une technique de simulation d’une martingale à
conditions terminales fixées. Cet algorithme sera utilisé dans le chapitre suivant, concernant
les mathématiques financières, pour simuler une option, et décrire le portefeuille de couverture
associé.

2.2 Arbres et chaı̂nes de Markov


L’évolution temporelle de ces phénomènes aléatoires peut s’interpréter comme l’exploration
aléatoire d’un arbre déterministe représentant toutes les réalisations possibles de l’expérience
en question.

La construction naturelle de cet arbre consiste à tracer pas à pas, et depuis un


noeud originel, tous les chemins conduisant aux résultats envisageables (deux à deux
incompatibles avec les premières épreuves). Chaque évènement élémentaire

ω = (ω0 , . . . , ωn ) ∈ Ωn = E n

correspond ainsi à un chemin, ou à une branche, allant du noeud initial à l’un


des noeuds terminaux. Il est important de noter que l’instant n joue ici le rôle
bien particulier d’horizon terminal du processus. En d’autres termes, le paramètre
n correspond à la hauteur de l’arbre des épreuves.
On affecte ensuite à chacun des chemins élémentaires, leurs probabilités de réalisation
respectives.
La probabilité de suivre un chemin donné au cours de l’expérience, n’est autre
que le produit des probabilités élémentaires le long du chemin. La probabilité d’un
évènement aléatoire formé de plusieurs chemins est la somme des probabilités des
chemins.

2.2.1 Feuillages de Bernoulli


Les processus aléatoires les plus élémentaires sont formés de n successions d’évènements
élémentaires indépendants, et à valeurs dans des espaces réduits à deux points. Ces phénomènes
aléatoires biphasés peuvent être représentés mathématiquement par des séquences de v.a.
indépendantes k , de lois de Bernoulli
µk (u) = αk 11 (u) + (1 − αk ) 10 (u) avec αk ∈ [0, 1], et 0≤k≤n
Le couple de symboles {0, 1} peut représenter tout type de phénomène biophysiques, tel le jeu
du pile ou face, l’ouverture ou la fermeture d’un interrupteur électrique, ou l’échec ou le succès
d’une expérience. Ces processus s’expriment de façon naturelle sur l’espace produit
Ωn = {ω : ω = (ω0 , . . . , ωn ) ∈ E n+1 } = E n+1 avec E = {0, 1} (2.1)
muni de la mesure de probabilité produit
n
Y
Pn (ω0 , . . . , ωn ) = (αk 11 (ωk ) + (1 − αk ) 10 (ωk ))
k=0
2.2. ARBRES ET CHAÎNES DE MARKOV 41

Plus précisément, si l’on considère les v.a. canoniques

(0 , . . . , n ) : ω ∈ Ωn 7→ ω = (ω0 , . . . , ωn ) ∈ E n+1

on vérifie aisément que pour toute séquence (u0 , . . . , un ) ∈ E n+1 , on a

(0 , . . . , n )−1 ({(u0 , . . . , un )}) = {(u0 , . . . , un )}

Par conséquent, et par définition des lois de probabilités de v.a., la séquence ( 0 , . . . , n ) est
distribuées selon la loi trajectorielle définie par la mesure produit

P(0 ,...,n ) (u0 , . . . , un ) = Pn ((0 , . . . , n )−1 ({(u0 , . . . , un )}))


Yn
= Pn (u0 , . . . , un ) = (αk 11 (uk ) + (1 − αk ) 10 (uk ))
k=0

La figure suivante représente l’arbre des épreuves associé à ce modèle de Bernoulli lorsque n = 2.

0 w^1=(0,0,0)
1−a2

1−a1 a2 1 w^2=(0,0,1)

0 0 w^3=(0,1,0)
1−a2

a1
1−a0
1 1
a2 w^4=(0,1,1)

1−a2 w^5=(1,0,0) n=2


0
Omega_n={w^i : i=1,...,8}

1−a2
a0 a2 w^6=(1,0,1)
1

1 w^7=(1,1,0)
1−a2
a1 0

a2
w^8=(1,1,1)
1

k=0 k=1 k=2

Fig. 2.1 – Arbre de Bernoulli

Exemple 2.2.1 La mesure de probabilité correspondant à une succession de n expériences


aléatoires homogènes en temps, et à valeurs dans {0, 1}, est donnée par la mesure produit

Pn (ω) = Pn ((ω1 , . . . , ωn )) = pω1 (1 − p)1−ω1 × . . . × pωn (1 − p)1−ωn avec p ∈ [0, 1]


Pn
Dans ce contexte, l’évènement Ak correspondant à k succès (i.e. i=1 ωi = k), est formé des
chemins ω = (ω1 , . . . , ωn ) ∈ {0, 1}n contenant exactement k fois 1. La probabilité de chacun de
ses chemins est donnée par
Pn Pk
ωi
Pn (ω) = Pn ((ω1 , . . . , ωn )) = p i=1 (1 − p)n− i=1 ωi
= pk (1 − p)n−k

Comme il y a Cnk chemins possibles contenant exactement k fois le chiffre 1, la probabilité de


l’évènement en question est donnée par la loi binomiale

P(Ak ) = Cnk pk (1 − p)n−k


42 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

2.2.2 Feuillages chaotiques

Comme nous l’avons souligné dans l’introduction, une suite de v.a. indépendantes

(0 , 1 , . . . , n )

arbitraires, de lois respectives µ0 , . . . , µn sur un espace fini E, peu s’interpréter comme un


processus aléatoire évoluant chaotiquement dans E. Ce processus élémentaire prend à chaque
instant k, une valeur aléatoire k , indépendante des états passés de l’évolution 0 , . . . , k−1 .
La séquence de v.a. de Bernoulli examinée précédemment est un cas particulier de tels
processus. Les trajectoires aléatoires de ce modèle probabiliste peuvent à nouveau être décrites
canoniquement sur l’espace produit

Ωn = {ω : ω = (ω0 , . . . , ωn ) ∈ E n+1 } = E n+1

muni de la mesure de probabilité

Pn (ω0 , . . . , ωn ) = µ0 (ω0 ) . . . µn (ωn )

Par un raisonnement analogue à celui utilisé dans le cadre des v.a. de Bernoulli, on vérifie sans
trop de peine que les variables aléatoires trajectorielles canoniques

(0 , . . . , n ) : ω ∈ Ωn = E n+1 7→ ω ∈ E n+1

sont distribuées selon la mesure produit

P(0 ,...,n ) (u0 , . . . , un ) = µ0 (u0 ) . . . µn (un )

Ce processus élémentaire, lorsque E = {0, 1, 2}, peut se représenter schématiquement par l’arbre
des épreuves décrit dans la figure suivante. Compte tenu de l’explosion combinatoire, pour
simplifier la présentation, certaines branches ont été omises, et seule une partie des transitions
sont spécifiées.
2.2. ARBRES ET CHAÎNES DE MARKOV 43

mu_2(0) 0
0
1

mu_1(0) mu_2(2) 2

0 2
mu_1(2)

mu_0(0)

0
mu_1(0) 0

mu_0(1) 1 1
1

mu_1(2) 2
2

0
mu_0(2) mu_1(0)

1
2
mu_2(0) 0
mu_1(2)
1
2
mu_2(2)
2

k=0 k=1 k=2

Fig. 2.2 – Arbre chaotique

2.2.3 Feuillages markoviens


Dans les sections précédentes, nous avons étudié les interprétations en terme d’arbres,
d’espace d’évènements Ωn définis par des espaces produits

Ωn = {ω : ω = (ω0 , . . . , ωn ) ∈ E n+1 } = E n+1

où E désigne un espace fini. Dans ce contexte, chaque aléa ω = (ω0 , . . . , ωn ) ∈ Ωn correspond
à la donnée d’une branche sur l’arbre des épreuves

ω0 −→ ω1 −→ . . . −→ ωn−1 −→ ωn

Les feuillages markoviens correspondent à la situation où les probabilité de passage d’un noeud
donné ωp à un autre ωp+1 ne sont pas indépendantes du noeud de départ. Pour décrire cette
situation, on se donne une famille de matrice stochastiques

Mk = (Mk (x, y))x,y∈E

avec 0 ≤ k ≤ n.
44 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

Une matrice stochastique Mk , est une matrice à entrées positives, dont la somme des
termes de chaque ligne vaut 1
X
∀(x, y) ∈ E 2 Mk (x, y) ≥ 0 et Mk (x, y) = 1
y∈E

On interprète les entrées de chaque ligne (Mk (x, y))y∈E , comme les probabilités de passage du
point x vers l’un des états possibles y ∈ E.

E={1,2,....,d}

1
M(x,1)
2

M(x,2)

M(x,i) i
x
M(x,(d−1))

(d−1)

M(x,d) d

Fig. 2.3 – Probabilités de transitions

On affecte ensuite à chaque chemin élémentaire (ωk−1 ωk ) de l’arbre des épreuves, la


probabilité Mk (ωk−1 , ωk ).

M1(w0,w1) M2(w1,w2) M3(w2,w3) M4(w3,w4) M5(w4,w5)

w0 w1 w2 w3 w4 w5
mu0(w0)

M1(v0,v1) M2(v1,v2) M3(v2,v3) M4(v3,v4) M5(v4,v5)

mu0(v0) v0 v1 v2 v3 v4 v5

Fig. 2.4 – Probabilités de transitions

Comme précédemment, la probabilité de partir d’un état initial ω0 , choisi selon une loi µ0
sur E, puis suivre un chemin donnée

ω0 −→ ω1 −→ . . . −→ ωk−1 −→ ωk −→ . . . −→ ωn

au cours de l’expérience, est donnée par le produit des probabilités élémentaires le long de ce
chemin
Pn (ω0 , . . . , ωn ) = µ0 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )
Il est souvent utile d’étendre les modèles précédents à des processus évoluant à chaque
instants p dans des espaces Ep dépendants du paramètre temporel.
2.2. ARBRES ET CHAÎNES DE MARKOV 45

L’espace des évènements associés à ces situations non homogènes sont définis de la
façon suivante

Ωn = {ω : ω = (ω0 , . . . , ωn ) ∈ E0 × . . . × En }
= E0 × E1 × . . . × E n

où (Ep )0≤p≤n désigne une suite d’espaces finis. Les interprétations arborescentes de
ces espaces sont définies comme précédemment, en considérant des feuillages non
homogènes. La probabilité de suivre un chemin

ω0 −→ ω1 −→ . . . −→ ωk−1 −→ ωk −→ . . . −→ ωn

est toujours donnée par le produit des probabilités élémentaires le long de ce chemin

Pn (ω0 , . . . , ωn ) = µ0 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )

Dans ce cadre non homogène en temps, Mk désigne une collection de matrices


stochastiques représentant les probabilités de transition de l’espace Ek−1 , vers l’espace
Ek .

La figure suivante représente l’arbre des épreuves associé à une évolution aléatoire entre les
espaces suivants
E0 = {1} E1 = {1, 2, 3} E2 = {1, 2} E3 = {1} E4 = {1, 2}

1 w^1=(1,1,1,1)

1 1
2 w^2=(1,1,1,2)

1 w^3=(1,1,2,1,1)
1 2 1
2 w^4=(1,1,2,1,2)

1 w^5=(1,2,1,1,1)
1 1 w^6=(1,2,1,1,2)
2 2
1 1 w^7=(1,2,2,1,1)
2 1
2 w^8=(1,2,1,1,2)
1 w^9=(1,3,1,1,1)
1 1
2 w^{10}=(1,3,1,1,2)

3 1 w^{11}=(1,3,2,1,1)
2 1
2 w^{12}=(1,3,2,1,2)

Fig. 2.5 – Évolution non homogène

(X0 ,...,Xn )
La loi Pn de la v.a. trajectorielle (X0 , . . . , Xn ) canonique

(X0 , . . . , Xn ) : ω ∈ Ωn 7→ (X0 (ω), . . . , Xn (ω)) = (ω0 , . . . , ωn ) ∈ (E0 × . . . × En )

est donnée pour toute trajectoire (x0 , . . . , xn ) ∈ (E0 ×. . .×En ) par la formule produit

P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = µ0 (x0 )M1 (x0 , x1 ) . . . Mn (xn−1 , xn )

De telles séquences de v.a. (Xk )0≤k≤n sont appelés des chaı̂nes de Markov, à valeurs
dans les espaces (Ek )0≤k≤n , de probabilités de transitions (Mk )0≤k≤n , et de loi initiale
µ0 .
46 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

2.3 Processus aléatoires


Cette section a pour objectif d’introduire un certain nombre de notions abstraites, et
fondamentales, sur lesquelles est édifiée la théorie des processus aléatoires. Les notions de
filtration d’algèbres, d’adaptation, et de prévisibilité, font partie du langage courant du
probabiliste. Elles permettent en quelques mots de préciser les caractéristiques d’un modèle
aléatoire, sans rentrer dans la construction détaillée des espaces probabilisés sur lesquels sont
définis les processus étudiés. Enfin, ce cadre abstrait révèle de nombreuses propriétés analytiques
ou algébriques universelles de phénomènes aléatoires spatio-temporels.

2.3.1 Marches aléatoires


Considérons une suite de v.a. indépendantes 0 , . . . , n , à valeurs dans {−1, 1}, de même loi
de Bernoulli
µ(u) = α 11 (up ) + (1 − α) 1−1 (up ) avec α ∈ [0, 1]
On associe à cette suite aléatoire, la séquence des v.a. (Xk )0≤k≤n définies par

Xk = 1 + . . . + k = Xk−1 + k k = 1, . . . , n

avec X0 = 0. La suite aléatoire ainsi construite forme clairement un processus aléatoire à


incréments indépendants
∆Xk =déf. (Xk − Xk−1 ) = k
Ce processus est initialisé en l’origine X0 = 0, et il évolue de l’espace
( k
)
X
k
Ek = ul : (u1 , . . . , uk ) ∈ {−1, 1}
l=1
= {(1) × l + (−1) × (k − l) : l = 0, . . . , k} = {2k − l : l = 0, . . . , k}

vers Ek+1 selon les transitions de probabilités Mk+1 (x, y) données pour tout x ∈ Ek par la
formule
Mk+1 (x, y) = α 1x+1 (y) + (1 − α) 1x−1 (y)
Cette chaı̂ne de Markov est appelée une marche aléatoire sur la droite réelle. Son interprétation
dépend du domaine d’application. En physique, Xk représente la position d’une particule
élémentaire évoluant à chaque étape, soit d’un pas vers l’avant, soit d’un pas vers l’arrière.
En biologie, ce processus aléatoire s’interprète plutôt comme un processus de naissance et mort
dans une population initialement formée de X0 individus. En théorie des jeux, Xk représente
les pertes et gains successifs au cours d’un jeu de hasard. Enfin, en mathématiques financières,
les v.a. de Bernoulli k correspondent aux tendances à la hausse, ou à la baisse, du cours d’une
action.
Le processus que nous venons de définir admet deux types d’interprétations arborescentes :

1) La première interprétation est associée associée aux multiples choix des incréments
aléatoires ∆Xp = p , lors de l’évolution du processus depuis son origine, jusqu’au temps
terminal n. Ce modèle d’arbre coı̈ncide avec l’interprétation arborescente de l’espace des aléas

Ωn = {ω : ω = (ω1 , . . . , ωn ) ∈ {−1, 1}n}

muni de la mesure de probabilité produit

Pn (ω1 , . . . , ωn ) = µ(ω1 ) . . . µ(ωn )

La figure suivante donne l’interprétation graphique de l’espace des aléas Ωn , lorsque n = 2.
2.3. PROCESSUS ALÉATOIRES 47

+1 w^1=(+1,+1,+1)

n=3
Omega_3^{epsilon} +1 −1 w^2=(+1,+1,−1)

+1 w^3=(+1,−1+1)

+1 −1

−1 w^4=(+1,−1,−1)
+1 w^5=(−1,+1,+1)
+1

−1 w^6=(−1,+1,−1)

+1 w^7=(−1,−1,+1)
−1
−1

−1 w^8=(−1,−1,−1)

Fig. 2.6 – L’espace Ω2 = {ω i : i = 1, . . . , 8}

On observe que chaque séquence d’incréments

ω = (ω1 , . . . , ωn ) ∈ Ωn = {−1, 1}n

conduit le processus à suivre la trajectoire

0 ∈ E0 → ω1 ∈ E1 → (ω1 + ω2 ) ∈ E2 → . . . → (ω1 + . . . + ωn ) ∈ En

On définit ainsi le processus (X0 , . . . , Xn ) sur l’espace probabilisé (Ωn , Pn ). Plus précisément,
on réalise la chaı̂ne de Markov X en terme du processus canonique des incréments

(1 , . . . , n ) : ω = (ω1 , . . . , ωn ) ∈ Ωn 7→ ω = (ω1 , . . . , ωn ) ∈ {−1, 1}n

par la donnée de l’application

(X0 , . . . , Xn ) : ω ∈ Ωn 7→ (X0 (ω), . . . , Xn (ω)) ∈ (E0 × . . . × En )

avec, pour chaque séquence d’incréments ω = (ω1 , . . . , ωn ) ∈ Ωn

(X0 (ω), X1 (ω), X2 (ω), . . . , Xn (ω))


Pn
= (0, 1 (ω), 1 (ω) + 2 (ω), . . . , p=1 p (ω))

Pn
= (0, ω1 , ω1 + ω2 , . . . , p=1 ωp ) ∈ (E0 × E1 × E2 × . . . × En )

Par construction, la loi de la trajectoire (X0 , . . . , Xn ) est donnée par


(X0 ,...,Xn )
Pn (x0 , . . . , xn )

= Pn ({ω ∈ Ωn : (X0 (ω), . . . , Xn (ω)) = (x0 , . . . , xn )})


Pn
= Pn ({ω ∈ Ωn : (0, ω1 , ω1 + ω2 , . . . , p=1 ωp ) = (x0 , x1 , . . . , xn )}

= 10 (x0 ) Pn ({(x1 , x2 − x1 , x3 − x2 , . . . , xn − xn−1 )}

Par définition de Pn , on obtient

P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = 10 (x0 ) µ(x1 ) µ(x2 − x1 ) . . . µ(xn − xn−1 )
= 10 (x0 ) M1 (x0 , x1 ) . . . Mn (xn−1 , xn )
48 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

2) La seconde interprétation est associée aux chemins canoniques de l’évolution de la chaı̂ne de


Markov. Dans cette situation, le modèle d’arbre coı̈ncide avec l’interprétation arborescente de
l’espace canonique

ΩX
n = (E0 × E1 × . . . × En )

muni de la mesure de probabilité markovienne

PX
n (ω0 , ω1 , . . . , ωn ) = 10 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )

et de la v.a. canonique

(X0 , . . . , Xn ) : ω ∈ ΩX
n 7→ (X0 (ω), . . . , Xn (ω)) = (ω0 , . . . , ωn ) ∈ (E0 × . . . × En )

Par construction, la loi de la trajectoire (X0 , . . . , Xn ) est clairement donnée par

P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = 10 (x0 ) M1 (x0 , x1 ) . . . Mn (xn−1 , xn )

La figure suivante représente l’interprétation graphique de l’espace des aléas Ω X


n , lorsque
n = 4, en terme d’un arbre binomial.

+4

+3

+2 2

+1 +1

0
0 0

−1
−1

−2
−2

−3

−4

E_0={0} E_1={−1,+1} E_2={−2,0,2] E_3={−3,−1,+1,+3} E_4={−4,−2,0,2,−4}

Fig. 2.7 – L’espace ΩX


4
2.3. PROCESSUS ALÉATOIRES 49

En résumé, une marche aléatoire est une chaı̂ne de Markov (Xk )0≤k≤n définie sur
un espace de probabilités (Ω, P), d’origine X0 = 0 et de probabilités de transitions
homogènes

M (x, y) =déf. P(Xk = y | Xk−1 = x) = PXk |Xk−1 (y|x)


= α 1x+1 (y) + (1 − α) 1x−1 (y) avec α ∈ [0, 1]

Pour décrire une réalisation dynamique de cette chaı̂ne, on se donne une suite de v.a.
indépendantes (k )1≤k≤n distribuées sur {−1, +1} selon la même loi de Bernoulli

P(k = +1) = 1 − P(= − 1) = α

On associe à cette séquence, le système dynamique aléatoire donné par



Xk = Xk−1 + k
(2.2)
X0 = 0

2.3.2 Évènements cylindriques

Dans l’exemple de la marche aléatoire, nous avons exhibé deux types de réalisations d’un
même processus aléatoire (X0 , . . . , Xn ) ; l’une associée à la réalisation canonique d’une suite de
v.a. indépendantes (1 , . . . , n ) sur un espace probabilisé (Ωn , Pn ) ; la seconde correspondant à
la réalisation canonique classique de la chaı̂ne sur un espace probabilisé (Ω X X
n , Pn ).
Il existe donc en général de nombreux choix d’espaces probabilisés (Ωn , Pn ) sur lesquels
un même processus aléatoire (X0 , . . . , Xn ) peut être réalisé. En pratique, le choix d’un espace
dépend du degré de finesse avec lequel on souhaite décrire le processus.
Afin d’éclaircir la présentation, et de préciser les interprétations graphiques des diverses
notions que nous allons introduire, nous conviendrons par la suite qu’une chaı̂ne de Markov
donnée est toujours définie sur son espace probabilisé canonique

Ωn = (E0 × E1 × . . . × En )
Pn (ω0 , ω1 , . . . , ωn ) = µ0 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )

avec

(X0 , . . . , Xn ) : ω ∈ Ωn 7→ (X0 (ω), . . . , Xn (ω)) = (ω0 , . . . , ωn ) ∈ (E0 × . . . × En )

(X ,...,X )
On rappelle que la loi Pn 0 n
de la v.a. trajectorielle (X0 , . . . , Xn ) sur (E0 × . . . × En ) est
donnée pour toute trajectoire (x0 , . . . , xn ) ∈ (E0 × . . . × En ) par la formule produit

P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = µ0 (x0 )M1 (x0 , x1 ) . . . Mn (xn−1 , xn )

Ce modèle canonique nous permettra à la fois d’introduire naturellement, et d’étudier


rigoureusement, diverses notions structurelles associées à l’évolution du processus aléatoire.
Nous reviendrons sur la non unicité du choix des espaces probabilisés, lorsque nous aborderons
la notion d’adaptation du processus à une filtration d’algèbres d’évènements.
50 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

On représente l’information associée au déroulement d’un processus

X0 → X1 → . . . → Xk−1 → Xk

depuis son origine jusqu’à un instant k ∈ {0, . . . , n}, par la donnée de la décomposition
Dpn,X de Ωn , définie ci-après

Dkn,X =déf. Ank (x0 , . . . , xk ), (x0 , . . . , xk ) ∈ E k+1

avec les évènements

Ank (x0 , . . . , xp ) = (X0 , . . . , Xk )−1 ({(x0 , . . . , xk )})


= {ω ∈ Ωn : (X0 (ω), . . . , Xk (ω)) = (x0 , . . . , xk )}

On notera que chaque évènement cylindrique Ank (x0 , . . . , xk ) contient bien toute
l’information connue sur la trajectoire, depuis son origine jusqu’au temps p. En effet, par
construction, nous avons

∀ ω ∈ Ank (x0 , . . . , xk ) X0 (ω) = x0 , X1 (ω) = x1 , . . . , Xk (ω) = xk

On retiendra que l’évènement composé Ank (x0 , . . . , xk ) est formé de tous les aléas
élémentaires ω ∈ Ωn conduisant le processus à suivre la trajectoire (x0 , . . . , xk ) depuis
son origine, jusqu’au temps k.
Il est particulièrement intéressant de visualiser graphiquement ces évènements cylindriques
sur l’arbre de épreuves. Plus précisément, sur l’espace canonique l’évènement

Ank (x0 , . . . , xk ) = {ω ∈ Ωn : (X0 (ω), . . . , Xk (ω)) = (x0 , . . . , xk )}


= {(x0 , . . . , xk )} × Ek+1 × . . . × En

correspond au sous-arbre ou à la ramification, formé de la branche issue du noeud originel,


passant respectivement par les noeuds intermédiaires x1 , ..., et xk , puis complété par le reste
de l’arbre issu du dernier noeud xk .

x0 x1 x2 x(k−1) xk

A_k^n(x0,x_1,...,xk)

k+1 k+2 k+3 n=k+(n−k)

Fig. 2.8 – Évènements cylindriques


2.3. PROCESSUS ALÉATOIRES 51

La trajectoire du processus, depuis l’origine jusqu’au temps k. s’exprime sur chacun


de ces évènements, par la formule synthétique suivante
X
(X0 , . . . , Xk ) = (x0 , . . . , xk ) 1Ank (x0 ,...,xk )
(x0 ,...,xk )∈(E0 ×...×Ek )

Cette représentation fonctionnelle souligne le fait suivant :


Si l’évènement Ank (x0 , . . . , xk ) se réalise, la trajectoire du processus prend la valeur
(x0 , . . . , xk ), et inversement. Plus formellement, nous avons l’équivalence

ω ∈ Ank (x0 , . . . , xk ) ⇐⇒ (X0 , . . . , Xk )(ω) = (x0 , . . . , xk ) (2.3)

Lorsque k coı̈ncide avec l’horizon terminal k = n, et sur l’espace canonique, les événements
cylindriques se réduisent à des singletons trajectoriels

Ann (x0 , . . . , xn ) = {ω ∈ Ωn : (X0 (ω), . . . , Xn (ω)) = (x0 , . . . , xn )}


= {(x0 , . . . , xn )}

Dans ce cas, la partition Dnn,X de l’espace canonique est formée de tous les singletons trajectoriels
envisageables

Dnn,X = {{(x0 , . . . , xn )} : (x0 , . . . , xn ) ∈ (E0 × . . . × En )}

Par définition des lois conditionnelles par rapport à des partitions, et avec des
notations abusives évidentes, nous avons
(Xk+1 ,...,Xn )
Pn ((xk+1 , . . . , xn ) | Dkn,X )
X
= Pn(Xk+1 ,...,Xn )|(X0 ,...,Xk ) ((xk+1 , . . . , xn ) | (x0 , . . . , xk )) 1Ank (x0 ,...,xk )
(x0 ,...,xk )

En combinant (2.3) avec les propriétés de Markov, on trouve que


(Xp+1 ,...,Xn )|(X0 ,...,Xp )
Pn ((xp+1 , . . . , xn ) | (x0 , . . . , xp ))

= Mp+1 (xp , xp+1 )Mp+2 (xp+1 , xp+2 ) . . . Mn (xn−1 , xn )

On obtient finalement la représentation fonctionnelle suivante.

(Xp+1 ,...,Xn )
Pn ((xp+1 , . . . , xn ) | Dpn,X )

= Mp+1 (Xp , xp+1 )Mp+2 (xp+1 , xp+2 ) . . . Mn (xn−1 , xn )

Cette formule reflète le fait que les évènements passés associés à la trajectoire (X 0 , . . . , Xk )
n’influencent pas le futur du processus (Xk+1 , . . . , Xn ), sinon par la valeur de l’état du système
Xk à l’instant présent. La plupart des processus que nous avons rencontré vérifient cette
propriété de Markov. C’est bien entendu le cas des marches aléatoires sur la droite réelle,
les évolutions de population biologiques, ou encore le nombre des succès et échecs dans une
répétition d’expériences biphasés.
52 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

2.3.3 Filtrations de partitions


Commençons par remarquer que l’on a les décompositions événementielles suivantes

Anp (x0 , . . . , xp ) = (X0 , . . . , Xp )−1 ({(x0 , . . . , xp )})


= ∪yp+1 ∈Ep+1 Anp+1 (x0 , . . . , xp , yp+1 )
= ∪yp+1 ,yp+2 ∈(Ep+1 ×Ep+2 ) Anp+2 (x0 , . . . , , xp , yp+1 , yp+2 )
= ...
= ∪yp+1 ,...,yn ∈(Ep+1 ×...×En ) Anp+2 (x0 , . . . , xp , yp+1 , . . . , yn )

Sur l’espace canonique, ces décompositions d’évènements s’expriment sous la forme équivalente

Anp (x0 , . . . , xp )

= ∪yp+1 ∈Ep+1 {(x0 , . . . , xp , yp+1 )} × (Ep+2 × . . . × En )

= ∪yp+1 ,yp+2 ∈(Ep+1 ×Ep+2 ) {(x0 , . . . , xp , yp+1 , yp+2 )} × (Ep+3 × . . . × En )

= ...

= ∪yp+1 ,...,yn ∈(Ep+1 ×...×En ) {(x0 , . . . , xp , yp+1 , yp+2 , . . . , yn )}

Autrement dit, chaque évènement Anp (x0 , . . . , xp ) représentant une information précise jusqu’au
temps p, peut être décomposé sur toute l’information future envisageable. Néanmoins, savoir que
l’une d’entre elles pourra se produire, ne permet bien évidemment pas de prédire grand chose !
Ces représentations n’apportent donc aucune information sur l’évolution future du processus.

En conclusion, nous avons décomposé les informations selon une filtration croissante
de partitions
D0n,X ⊂ D1n,X ⊂ . . . ⊂ Dp−1
n,X
⊂ Dpn,X ⊂ . . . ⊂ Dnn,X
En terme d’arbres, ces propriétés de monotonie expriment le fait que tout sous arbre
n,X
Anp (x0 , . . . , xp ) de Dpn,X , peut être décomposé en une famille de sous-arbres de Dp+1 .

Exemple 2.3.1 Considérons l’espace canonique des aléas associé à des v.a. de Bernoulli décrit
en (2.1). Dans cette situation, nous avons
n o
Dpn, = {(u0 , . . . , up )} × {0, 1}(n−p) : (u0 , . . . , up ) ∈ {0, 1}p+1

Ainsi, sur l’évènement cylindrique

{(0, 1, 0, 1, 1, 1, 0)} × {0, 1}(n−7)

la trajectoire depuis son origine jusqu’au temps 6, est parfaitement connue

(0 , . . . , 6 ) = (0, 1, 0, 1, 1, 1, 0)

Néanmoins, lorsque cet évènement se réalise, nous avons aucune information sur les valeurs
des états suivants p , avec p > 6. Par exemple, lorsque n = 9, la décomposition de l’évènement
cylindrique
{(0, 1, 0, 1, 1, 1, 0)} × {0, 1}2 = ∪u,v∈{0,1} {(0, 1, 0, 1, 1, 1, 0, u, v)}
exprime le fait que sur l’évènement

{(0, 1, 0, 1, 1, 1, 0)} × {0, 1}2


2.3. PROCESSUS ALÉATOIRES 53

l’une des 4 possibilités suivantes pourra se produire

(0, 1, 0, 1, 1, 1, 0, u, v) avec (u, v) ∈ {0, 1}2

Notons pour conclure que chaque v.a. trajectorielle ((0 , . . . , p )) s’exprime sur la partition
d’évènements Dpn, par la formule
X
(0 , . . . , p ) = (u0 , . . . , up ) 1Dpn,
(u0 ,...,up )∈{0,1}p+1

2.3.4 Filtrations d’algèbres

La plus petite algèbre Fpn,X contenant Dpn,X est donnée par la formule suivante

Fpn,X = σn (X0 , . . . , Xp )

= (X0 . . . , Xp )−1 (Bp ) avec Bp ⊂ (E0 × . . . × Ep )

De plus, chaque évènement de Fpn,X peut s’écrire sous la forme

(X0 . . . , Xp )−1 (Bp ) = ∪(x0 ,...,xp )∈Bp Anp (x0 , . . . , xp )

avec
Anp (x0 , . . . , xp ) = (X0 , . . . , Xp )−1 ({(x0 , . . . , xp )})

Sur l’espace canonique


ΩX
n = (E0 × . . . × En )

on rappelle que chaque évènement cylindrique est donné par la formule explicite suivante

(X0 . . . , Xp )−1 (Bp ) = Bp × (Ep+1 × . . . × En )


= ∪(x0 ,...,xp )∈Bp ( {(x0 , . . . , xp )} × (Ep+1 × . . . × En ) )

Par conséquent, en terme graphique, chaque évènement

(X0 . . . , Xp )−1 (Bp ) = (Bp × (Ep+1 × . . . × En )) ∈ Fpn,X

correspond donc à la forêt formée par les arbres Anp (x0 , . . . , xp ), dont les troncs (x0 , . . . , xp )
sont dans Bp .

Les trajectoires depuis l’origine jusqu’au temps p, sont bien mesurables par rapport à ces
algèbres
∀0 ≤ p ≤ n (X0 , . . . , Xp ) ∈ Fpn,X
néanmoins, on a en général

∀0 ≤ q < p ≤ n (X0 , . . . , Xp ) 6∈ Fqn,X

n,X
Autrement dit, l’information contenue dans Fp−1 est insuffisante pour décrire les trajectoires
depuis leurs origines, jusqu’au temps p. Par exemple, nous avons sur l’espace canonique

Xp−1 ({xp }) = (E0 × . . . × Ep−1 ) × {xp } × (Ep+1 × . . . × En )


X
6∈ Fp−1 = {Bp−1 × Ep × (Ep+1 × . . . × En ) : Bp−1 ⊂ (E0 × . . . × Ep−1 )}
54 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

En conclusion, nous avons construit sur l’espace canonique (ΩX X


n , Pn ) une filtration
croissante d’algèbres représentant l’adaptation du processus lors de son évolution

F0n,X ⊂ F1n,X ⊂ . . . ⊂ Fp−1


n,X
⊂ Fpn,X ⊂ . . . ⊂ Fnn,X = P(E0 × . . . × En )

De plus, par définition des lois conditionnelles par rapport à une algèbre, nous avons
pour tout 0 ≤ p ≤ n
(Xp+1 ,...,Xn )
Pn ((xp+1 , . . . , xn ) | Fpn,X )

(Xp+1 ,...,Xn )
= Pn ((xp+1 , . . . , xn ) | Dpn,X )

= Mp+1 (Xp , xp+1 )Mp+2 (xp+1 , xp+2 ) . . . Mn (xn−1 , xn )

Ces proprit́és de Markov peuvent alternativement s’exprimer par la formule suivante


(Xp+1 ,...,Xn )
Pn ((xp+1 , . . . , xn ) | σn (X0 , . . . , Xn ))

(Xp+1 ,...,Xn )
= Pn ((xp+1 , . . . , xn ) | σn (Xn ))

= Mp+1 (Xp , xp+1 )Mp+2 (xp+1 , xp+2 ) . . . Mn (xn−1 , xn )

2.4 Décompositions canoniques


2.4.1 Information et filtrations
Dans les sections précédentes, nous avons étudié la notion de filtrations d’algèbres associées
à des processus aléatoires. Ces objets ensemblistes représentent l’information que l’on peut
acquérir en observant l’évolution d’un processus depuis son origine jusqu’au temps terminal.
D’un point de vue mathématique, cette information est modélisée par des partitions ensemblistes
de plus en plus fine de l’espace des évènements élémentaires. Chaque partition reflète tous les
évènements aléatoires que l’on peut observer au cours de l’évolution du processus.
En accord avec la discussion menée à la section 1.3.2, page 33 (voir aussi l’exercice 1.2.5),
chaque algèbre d’évènements abstraite peut s’interpréter comme une algèbre engendrée par une
collection de v.a. numériques. En pratique, ces v.a représentent l’évolution d’un phénomène
aléatoire plus ou moins complexe : évolutions de cours d’actions financières, variations des
valeurs de portefeuilles, ou de taux d’intérêts d’emprunts. La propriété de monotonie reflète
le degré croissant de finesse, et de pertinence, de l’information que l’on acquiert au cours du
temps en observant le processus. En ce sens, une filtration croissante d’algèbres d’évènements
peut s’interpréter comme l’information mesurable associée à l’observation de l’évolution d’un
environnement aléatoire au cours du temps. De telles situations sont décrites par le modèle
probabiliste suivant.

Définition 2.4.1 Un espace de probabilisé filtré (Ω, (Fp )0≤p≤n , P), est un espace
probabilités (Ω, P) muni d’une filtration croissante d’algèbres

F0 ⊂ F1 ⊂ . . . ⊂ Fp−1 ⊂ Fp ⊂ . . . ⊂ Fn
2.4. DÉCOMPOSITIONS CANONIQUES 55

Pour poursuivre notre analyse, il convient de rappeler que chaque algèbre F p est engendrée par
une partition Dp = (Di,p )i∈Ip de Ω, formée d’évènements deux à deux incompatibles, et ayant
pu se réaliser au temps p. Pour fixer les idées, supposons que l’aléa en cours de réalisation ω ∈ Ω
appartient à l’un des ensembles Di,p ⊂ Dp . Dans cette situation, nous avons trivialement

ω ∈ Di,p et ∀j 6= i ω 6∈ Dj,p

Autrement dit, à l’instant p, nous savons que seul l’évènement Di,p s’est réalisé ! Néanmoins
l’ensemble Di,p ⊂ Ω est lui même formé d’évènements élémentaires et il nous est impossible de
discerner lequel des évènements ω 0 ∈ Di,p c’est réellement produit !
A l’instant suivant (p + 1), l’algèbre Fp+1 est engendrée par une partition Dp+1 plus fine
que Dp . Par conséquent, il existe une collection d’indices Ii,p+1 ⊂ Ip telle que

ω ∈ Di,p = ∪j∈Ii,p+1 Dj,p+1

Les ensembles Dj,p+1 formant une partition de Di,p , l’événement en cours ω appartient
nécessairement à l’un d’entre eux

ω ∈ Di,p = ∪j∈Ii,p+1 Dj,p+1 =⇒ ∃!j ∈ Ii,p+1 ω ∈ Dj,p+1

A l’instant (p + 1), nous savons que désormais que c’est l’évènement Dj,p+1 ⊂ Di,p s’est réalisé.
Cette inclusions souligne le fait que nous avons plus d’information sur l’évènement élémentaire
qui s’est produit, sans toutefois discerner lequel des évènements élémentaire

ω 0 ∈ Dj,p+1 ⊂ Di,p

c’est réellement produit ! Néanmoins, au cours du temps, la finesse des partitions nous renseigne
de plus en plus sur cette question.
Exemple 2.4.1 L’espace canonique (ΩX X
n , Pn ), associé à une chaı̂ne de Markov (Xk )0≤k≤n , et
muni de la filtration d’algèbres

Fkn,X = σn (X0 , . . . , Xk ) avec 0≤k≤n

décrites dans la section 2.3.4, est un espace de probabilités filtré. Cette filtration est appelée la
filtration canonique naturelle associée au processus Xp .

Exemple 2.4.2 Considérons à nouveau une suite de v.a. indépendantes  0 , . . . , n , à valeurs


dans {−1, 1} ⊂ R, de même loi de Bernoulli

µ(u) = α 11 (up ) + (1 − α) 1−1 (up ) avec α ∈ [0, 1]

On conviendra que ces v.a. sont définies sur l’espace probabilisé canonique (Ω n , Pn ), avec

Ωn = {−1, 1}n et Pn (ω1 , . . . , ωn ) = µ(ω1 ) . . . µ(ωn )

La filtration canonique naturelle associée à la suite p est donnée par

Fpn, = σn (1 , . . . , p )

et (Ωn , (Fpn, )0≤p≤n Pn ) est clairement un espace probabilisé filtré.

Exemple 2.4.3 On associe à la suite de v.a. de Bernoulli 0 , . . . , n décrite dans l’exemple


précédent, le processus aléatoire initialisé en X0 = 0, et évoluant de Ep−1 vers l’ensemble
Ep (= {2p − k, k = 0, ..., p}) selon la formule

∆Xp =déf. (Xp − Xp−1 ) = p

L’espace (Ωn , (Fpn,X )0≤p≤n Pn ) muni des sous algèbres

Fpn,X = σ(X0 , . . . , Xp ) ( ⊂ P(Ωn ))


56 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

est encore un espace probabilisé filtré. On notera que cette filtration d’algèbre coı̈ncide avec celle
présentée dans l’exemple 2.4.2. Plus précisément, nous avons

Fpn,X = σ(X0 , . . . , Xp ) = σn (1 , . . . , p ) = Fpn,

A titre d’exemple, nous avons

(1 , 2 , 3 )−1 ({(1, −1, 1)}) = {ω ∈ Ωn : (1 , 2 , 3 )(ω) = (1, −1, 1)}
= {ω ∈ Ωn : (X1 , X2 , X3 )(ω) = (1, 0, 1)}
= (X1 , X2 , X3 )−1 ({(1, 0, 1)}

2.4.2 Adaptation et prévisibilité


Nous avons vu dans la section précédentes que les filtrations d’algèbres (F p )0≤p≤n sur des
espaces d’évènements sont bien souvent en pratique associées à des phénomènes aléatoires trop
complexes pour être décrits par un unique processus aléatoire simple. Ces modèles probabilistes
abstraits représentent l’information perçue par un observateur. En théorie des jeux, l’algèbre
Fp représente l’information dont dispose un joueur sur le déroulement du jeu jusqu’au temps p.
Dans les modèles de mathématiques financières, ces filtrations représentent plutôt la diversité
des informations qu’un agent financier peut utiliser pour aménager son portefeuille d’action,
tout en observant l’évolution d’un certain nombre de paramètres aléatoires. Dans ce contexte,
les flux des valeurs des actifs, les stratégies d’aménagements de portefeuilles, ou encore les
variations des taux d’intérêts bancaires, sont ils mesurables, et quantifiables, par rapport à
ces informations ? Peut on prévoir leurs évolutions ? En langage probabiliste, ces deux notions
correspondent aux propriétés d’adaptation et de prévisibilité définies ci-après.

Définition 2.4.2 Une suite de v.a. (Xp )0≤p≤n , à valeurs dans des espaces
(Ep )0≤p≤n , et définie sur un espace de probabilités filtré (Ω, (Fp )0≤p≤n , P), est dite
adaptée lorsque l’on a

∀0 ≤ p ≤ n (X0 , . . . , Xp ) ∈ Fp

La suite de v.a. (Xp )0≤p≤n est dite prévisible lorsque l’on a

∀0 ≤ p ≤ n (X0 , . . . , Xp ) ∈ Fp−1

avec la convention F−1 = {∅, Ω}, lorsque p = 0.

La propriété d’adaptation souligne le fait que les v.a. trajectorielles (X0 , . . . , Xp ) peuvent se
représenter en terme d’évènements de Fp . Autrement dit les évènements

Ap (x0 , . . . , xp ) = (X0 , . . . , Xp )−1 ({(x0 , . . . , xp )})

sont dans l’algèbre Fp , et font partie de l’information que l’on peut observer jusqu’au temps p.
Plus précisément, nous avons la décomposition fonctionnelle
X
(X0 , . . . , Xp ) = (x0 , . . . , x0 ) 1Ap (x0 ,...,xp )
(x0 ,...,xp )∈(E0 ×...×Ep )

La propriété de prévisibilité reflète une situation où les les évènements A p (x0 , . . . , xp ) sont
dans l’algèbre Fp−1 . Ces évènements font désormais partie de l’information que l’on peut
observer au temps (p − 1). Dans ce cas, la valeur Xp du processus au temps p est prévisible dès
l’instant (p − 1).
2.4. DÉCOMPOSITIONS CANONIQUES 57

Exemple 2.4.4 En reprenant les exemples précédents, on vérifie aisément que les suites
(p )0≤p≤n , et (Xp )0≤p≤n sont toutes deux adaptées à la filtration (Fpn, )0≤p≤n . De même, on
vérifie les processus retardés

Xp− =déf. Xp−1 et −


p =déf. p−1

sont prévisibles par rapport à la filtration (Fpn, )0≤p≤n .

Nous arrivons enfin à la définition abstraite tant attendue d’un processus aléatoire.

Définition 2.4.3 Un processus aléatoire à valeurs dans un ensemble (fini) E est


une suite de v.a. adaptées (Xp )0≤p≤n à valeurs dans E, et définies sur un espace
probabilisé filtré (Ω, (Fp )0≤p≤n , P).

Il peut être utile de souligner à nouveau que pour tout processus aléatoire (X p )0≤p≤n défini sur
un espace probabilisé filtré (Ω, (Fp )0≤p≤n , P), nous avons les inclusions d’algèbres

FpX =déf. σ(X0 , . . . , Xp ) ⊂ Fp

La définition abstraite précédente nous permet donc d’analyser des processus aléatoires définis
sur des espace probabilisés muni de filtrations d’algèbres autres que les filtrations canoniques.
Cette souplesse de modélisation est particulièrement utile lorsque l’on étudie plusieurs processus
aléatoires sur le même espace probabilisé filtré. Dans cette situation, les algèbres F p
représentent l’adaptation de tous les phénomènes aléatoires en jeu, jusqu’au temps
p.

Exemple 2.4.5 Supposons que (Xp , Yp )0≤p≤n soit une chaı̂ne de Markov à valeurs dans un
espace produit (E × F ), définie sur l’espace filtré canonique

(Ωn , (Fp )0≤p≤n , Pn )

avec
∀0 ≤ p ≤ n Fp = Fp(X,Y ) (= σ((X0 , Y0 ), . . . , (Xp , Yp )))

Dans ce cas, la séquence (Xp )0≤p≤n est un processus aléatoire à valeurs dans E, à nouveau
défini sur (Ωn , (Fp )0≤p≤n , Pn ). Dans cette situation, nous avons

FpX = σ(X0 , . . . , Xp ) ⊂ Fp

La notion abstraite de processus aléatoire que nous venons d’introduire nous permet
de définir très simplement divers processus aléatoires à partir d’un processus de référence
donné. Supposons que (Xp0 )0≤p≤n , soit processus aléatoire à valeurs dans des espaces finis
(Ep0 )0≤p≤n , et défini sur un espace de probabilisé filtré (Ω, (Fp )0≤p≤n , P). Pour toute collection
de transformations
fp : E00 × . . . × Ep0 −→ Ep

de E00 ×. . .×Ep0 dans des espaces produit, et finis, auxiliaires Ep , la séquence des transformations

Xp = fp (X00 , . . . , Xp0 )

est à nouveau un processus aléatoire défini sur le même espace de probabilisé filtré
(Ω, (Fp )0≤p≤n , P).
58 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

2.4.3 Intégration par parties discrète


On considère un processus (Xk )0≤k≤n à valeurs réelles, et défini sur un espace probabilisé
filtré (Ω, (Fk )0≤k≤n , P). On notera (∆Xp )0≤p≤n la suite des accroissements définis par
∀0 ≤ p ≤ n ∆Xp = (Xp − Xp−1 )
avec la convention ∆X0 = X0 , lorsque p = 0. La version discrète de l’intégrale stochastique
correspond à la notion suivante.

Définition 2.4.4 On considère un processus prévisible réel (Xk )0≤k≤n , et un


processus aléatoire réel (Yk )0≤k≤n , sur un même espace probabilisé filtré
(Ω, (Fk )0≤k≤n , P). On appelle transformée de Y par X, et on note ((X Y )k )0≤k≤n ,.
le processus décrit par
k
X
∀0 ≤ k ≤ n (X Y )k =
. Xl ∆Yl
l=0

On notera que les accroissements du processus ((X Y )k )0≤k≤n sont donnés par
.
∆(X Y )k = Xk ∆Yk
.
A chaque instant (k − 1), les v.a. Xk et Yk−1 , sont connues, seule la v.a. Yk est imprévisible, en
ce sens où Yk ∈ Fp .

Définition 2.4.5 La variation quadratique entre deux processus réels (X k )0≤k≤n et


(Yk )0≤k≤n , définis sur un même espace probabilisé filtré (Ω, (Fp )0≤p≤n , P), est le
processus aléatoire ([X, Y ]k )0≤k≤n défini par
k
X
∀0 ≤ k ≤ n [X, Y ]k = [Y, X]k = ∆Xl ∆Yl
l=0

avec, lorsque l = 0, les conventions

X−1 = 0 = Y−1 , ∆X0 = X0 , et ∆Y0 = Y0

On remarque que
∆(XY )k = Xk Yk − Xk−1 Yk−1
= Xk−1 (Yk − Yk−1 ) + Yk (Xk − Xk−1 )Yk
= Xk−1 (Yk − Yk−1 ) + Yk−1 (Xk − Xk−1 )
+(Xk − Xk−1 )(Yk − Yk−1 )
= Xk−1 ∆Yk + Yk−1 ∆Xk + ∆Xk ∆Yk
On obtient ainsi la formule d’intégration par parties discrète

Pk Pk
Xk Y k = l=1 Xl−1 ∆Yl + l=1 Yl−1 ∆Xl + [X, Y ]k (2.4)

En terme de transformées de processus, cette formule s’écrit sous la forme


(XY )k = (Y X)k = (X Y )k + (Y X)k + [X, Y ]k
. .
2.4. DÉCOMPOSITIONS CANONIQUES 59

2.4.4 Décomposition de Doob


Dans la section 2.4.1, nous avons présenté la notion de filtration d’algèbres (F p )0≤p≤n sur un
espace d’aléas Ω. Ces algèbres abstraites permettent de modéliser, sans rentrer dans le détail,
des évolutions d’environnements aléatoires observables. L’information connue à un temps p, se
résume ainsi à la donnée d’une algèbre Fp sur Ω.

Chaque incrément d’un processus réel (Xp )0≤p≤n sur (Ω, (Fp )0≤p≤n , P) se décompose
en une partie prévisible, et une partie imprévisible

∆Xp = E(∆Xp | Fp−1 ) + [∆Xp − E(∆Xp | Fp−1 )]


| {z } | {z }
partie prévisible partie imprévisible

Plus généralement, nous avons la décomposition de Doob :


k
X
Xk = ∆Xp = AX X
k + Mk
p=0

avec le couple de processus (AX X


k , Mk )0≤k≤n donnés par

k
X k
X
AX
k = E(∆Xp | Fp−1 ) = [E(Xp | Fp−1 ) − Xp−1 ]
p=0 p=0
k
X k
X
MkX = [∆Xp − E(∆Xp | Fp−1 )] = [Xp − E(Xp | Fp−1 )]
p=0 p=0

Dans les formules précédentes, lorsque p = 0, nous avons à nouveau utilisé les conventions
X−1 = 0 et E(∆X0 | F−1 ) = E(X0 | F−1 ) = E(X0 )
En accord avec les remarques précédentes, le premier processus (AX
k )0≤k≤n , est formé des
tendances locales prévisibles
∆AX k = E(∆Xk | Fk−1 )
Par conséquent (AX
k )0≤k≤n est prévisible par rapport à l’information portée par la filtration
(Fk )0≤k≤n
∀0 ≤ k ≤ n E(AXk | Fk−1 ) = Ak
X

L’évolution du second processus (MkX )0≤k≤n , est au contraire totalement imprévisible, en


ce sens où l’on a
∀0 ≤ k ≤ n X
E(MkX | Fk−1 ) = Mk−1
Comme leur nom ne l’indique pas, les processus vérifiant cette propriété sont appelés des
martingales.

Le processus (MkX )0≤k≤n est appelé la partie martingale de (Xk )0≤k≤n . Le


processus (AX
k )0≤k≤n est parfois appelé la partie prévisible, ou encore le
compensateur de (Xk )0≤k≤n , en ce sens où

Mk = X k − A X
k

forme une martingale.


60 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

Du fait de leur importance en pratique, la section suivante est consacrée à l’étude de tels
processus aléatoires.
Terminons cette section par une remarque élémentaire concernant la condition initiale X 0
du processus (Xk )0≤k≤n . Dans les décompositions précédentes, nous avons inclue la moyenne
E(X0 ) de X0 dans la partie prévisible du processus, de sorte à avoir

AX
0 = E(X0 ) et M0X = X0 − E(X0 )

Dans ces conditions, la partie martingale (MkX )0≤k≤n du processus est de moyenne nulle
E(M0X ) = 0. En remplaçant Xk par (Xk − X0 ), on peut alternativement utiliser les
décompositions suivantes :

k
X X X
X k =déf. (Xk − X0 ) = ∆Xl = Ak + M k (2.5)
l=1

avec
X
Ak = AX X
k − A0
k
X k
X
= E(∆Xp | Fp−1 ) = [E(Xp | Fp−1 ) − Xp−1 ]
p=1 p=0
X
Mk = MkX − M0X
k
X k
X
= [∆Xp − E(∆Xp | Fp−1 )] = [Xp − E(Xp | Fp−1 )]
p=1 p=1

Dans ces conditions, les parties prévisibles, et martingales, sont initialement nulles
X X
A0 = 0 et M 0 = 0

2.5 Exercices

Exercice 2.5.1 En utilisant un modèle d’arbre, calculer la probabilité des évènements suivants :
(B1 ) obtenir exactement une fois le chiffre 6 lors de 3 lancer de dés successifs ; (B 2 ) obtenir
exactement deux fois le chiffre 6 lors de 3 lancer de dés successifs ; (B 3 ) obtenir exactement
trois fois le chiffre 6 lors de 3 lancer de dés successifs.

Exercice 2.5.2 Décrire l’arbre des épreuves associé à une suite de v.a. indépendantes
(i )i=1,2,3,4 , de même loi de Bernoulli

P(1 = 1) = 1 − P(1 = 0) = 1/3

Expliciter l’espace des évènements associé à ce modèle.

Exercice 2.5.3 Décrire l’arbre des épreuves associé à une suite de v.a. indépendantes
(i )i=1,2,3,4 , de lois de Bernoulli

1
P(i = 1) = 1 − P(i = 0) =
i+1

Expliciter l’espace des évènements associé à ce modèle.


2.5. EXERCICES 61

Exercice 2.5.4 Décrire l’arbre des épreuves associé à une évolution markovienne entre les
espaces suivants

E0 = {1, 2} −→ E1 = {1, 2, 3} −→ E2 = {1, 2} −→ E3 = {1} −→ E4 = {1, 2}

On note η0 la loi initiale de la chaı̂ne, et l’on désigne par Mk (xk−1 , xk ) la probabilité de


transition d’un état xk−1 ∈ Ek−1 , vers un état xk ∈ Ek . Décrire les probabilités pour que
le processus (Xk )0≤k≤4 suive les trajectoires suivantes
1. X0 = 1 −→ X1 = 2 −→ X2 = 1 −→ X3 = 1 −→ X4 = 2.
2. X0 = 1 −→ X1 = 3 −→ X2 = 2 −→ X3 = 1 −→ X4 = 1.
3. X0 = 2 −→ X1 = 2 −→ X2 = 2 −→ X3 = 1 −→ X4 = 1.

Exercice 2.5.5 Décrire l’arbre des épreuves associé à une évolution markovienne sur une
période, entre les espaces suivants

E0 = {x0 } −→ E1 = {x1,1 , x1,2 }

1. Vérifier que cette évolution élémentaire peut être synthétisée par le tableau suivant

Ω X0 X1
ω1 x0 x1,1
ω2 x0 x1,2

2. Expliciter un espace des évènements, et les évènements cylindriques

A0 (x0 ) = X0−1 ({x0 })


A1 (x0 , x1,1 ) = (X0 , X1 )−1 ({(x0 , x1,1 )})
A1 (x0 , x1,2 ) = (X0 , X1 )−1 ({(x0 , x1,2 )})

3. Décrire dans cette situation les décompositions de l’espace Ω

D0X = {X0−1 ({x}) : x ∈ E0 }


D1X = {(X0 , X1 )−1 ({(x, y)}) : (x, y) ∈ (E0 × E1 )}

4. Déterminer les algèbres FkX engendrées par les partitions DkX , avec k = 0, 1.
5. Vérifier les formules suivantes
2
X
X0 = x 0 et X1 = x1,i 1{ωi }
i=1

6. Déterminer la quantité moyenne E(X1 |F0X ). Pour quelle probabilité P? sur Ω a-t-on

E(X1 |F0X ) = X0

Exercice 2.5.6 Décrire l’arbre des épreuves associé à une évolution markovienne sur deux
périodes, entre les espaces

E0 = {x0 } −→ E1 = {x1,1 , x1,2 } −→ E2 = {x2,1 , x2,2 , x2,3 , x2,4 }

et synthétisée par le tableau suivant

Ω X0 X1 X2
ω1 x0 x1,1 x2,1
ω2 x0 x1,1 x2,2
ω3 x0 x1,2 x2,3
ω3 x0 x1,2 x2,4
62 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

1. Expliciter un espace des évènements, et les évènements cylindriques

A0 (x0 ) = X0−1 ({x0 })


A1 (x0 , x1,1 ) = (X0 , X1 )−1 ({(x0 , x1,1 )})
A1 (x0 , x1,2 ) = (X0 , X1 )−1 ({(x0 , x1,2 )})
A2 (x0 , x1,1 , x2,1 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,1 , x2,1 )})
A2 (x0 , x1,1 , x2,2 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,1 , x2,2 )})
A2 (x0 , x1,2 , x2,3 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,2 , x2,3 )})
A2 (x0 , x1,2 , x2,4 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,2 , x2,4 )})

2. Décrire dans cette situation les décompositions de l’espace Ω

D0X = {X0−1 ({x}) : x ∈ E0 }


D1X = {(X0 , X1 )−1 ({(x, y)}) : (x, y) ∈ (E0 × E1 )}
D2X = {(X0 , X1 , X2 )−1 ({(x, y, z)}) : (x, y, z) ∈ (E0 × E1 × E2 )}

3. Déterminer les algèbres FkX engendrées par les partitions DkX , avec k = 0, 1.
4. Vérifier les formules suivantes

X0 = x0
4
X
X1 = x1,1 1{ω1 ,ω2 } + x1,2 1{ω3 ,ω4 } et X2 = x2,i 1ωi
i=1

5. Déterminer les quantités moyennes

E(X1 |F0X ) et E(X2 |F1X )

6. Existe-t-il une probabilité P? sur Ω telle que

E? (X2 |F1X ) = X1 et E? (X1 |F0X ) = X0

Exercice 2.5.7 On considère l’évolution markovienne (Xk )k=0,1,2,3 sur trois périodes décrites
par l’arbre des épreuves suivant

x(3,1) omega^1

x(2,1) x(3,2) omega^2

x(1,1) x(2,2) x(3,3) omega^3

x(0) x(1,2) x(2,3) x(3,4) omega^4

x(2,4) x(3,5) omega^5


x(1,3)

x(2,5) x(3,6) omega^6

x(3,7) omega^7

x(2,6) x(3,8) omega^8

Fig. 2.9 –
2.5. EXERCICES 63

1. Déterminer les évènements Ai,j pour lesquels les décompositions suivantes sont
satisfaites :
3
X
X0 = x0 , X1 = x1,i 1A1,i
i=1
6
X 8
X
X2 = x2,i 1A2,i , et X3 = x3,i 1A3,i
i=1 i=1

Déterminer les décompositions (DkX )k=0,1,2,3 définies par


D0X = {X0−1 ({x}) : x ∈ E0 }
D1X = {(X0 , X1 )−1 ({(x, y)}) : (x, y) ∈ (E0 × E1 )}
D2X = {(X0 , X1 , X2 )−1 ({(x, y, z)}) : (x, y, z) ∈ (E0 × E1 × E2 )}
D3X = {(X0 , X1 , X2 , X3 )−1 ({(x, y, z, t)}) : (x, y, z, t) ∈ (E0 × E1 × E2 × E3 )}
avec les espaces d’états
E0 = {x0 } −→ E1 = {x1,i i = 1, 2, 3} −→ E2 = {x2,i , i = 1, . . . , 6}

−→ E3 = {x3,i , i = 1, . . . , 8}

2. Déterminer les probabilités suivantes en fonction des probabilités des évènements


élémentaires ω i .
P(X3 = x3,1 |X2 = x2,1 ) P(X2 = x2,1 |X1 = x1,1 )
P(X3 = x3,2 |X2 = x2,1 ) P(X2 = x2,2 |X1 = x1,1 )
P(X3 = x3,6 |X2 = x2,5 ) P(X2 = x2,4 |X1 = x1,3 )
P(X3 = x3,7 |X2 = x2,5 ) P(X2 = x2,5 |X1 = x1,3 ) , P(X2 = x2,6 |X1 = x1,3 )
et enfin
P(X1 = x1,1 |X0 = x0 ) P(X1 = x1,2 |X0 = x0 ) P(X1 = x1,3 |X0 = x0 )

3. On note FkX les algèbres engendrées par les décompositions DkX , avec la séquence d’indices
k = 0, 1, 2, 3. Déterminer les espérances conditionnelles
E(X3 |F2X ), E(X2 |F1X ) et E(X1 |F0X )

4. Existe-t-il une probabilité P? sur Ω telle que


E? (X3 |F2X ) = X2 E? (X2 |F1X ) = X1 et E? (X1 |F0X ) = X0

Exercice 2.5.8 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans les espaces (Ek )0≤k≤n ,
de probabilités de transitions (Mk )0≤k≤n , et de loi initiale η0 . On rappelle qu’une mesure
de probabilités µk sur Ek est une suite de nombres (µk (xk ))xk ∈Ek ∈ [0, 1] telle que
P
xk ∈Ek µk (xk ) = 1. On associe à une telle mesure µk sur Ek , la mesure (µk Mk+1 ) sur Ek+1
définie par
X
∀xk+1 ∈ Ek+1 (µk Mk+1 )(xk+1 ) = µk (xk )Mk+1 (xk , xk+1 )
xk ∈Ek

1. Vérifier que l’on a


(µk Mk+1 )Mk+2 = µk (Mk+1 Mk+2 )
avec la probabilité de transition (Mk+1 Mk+2 ) de Ek vers Ek+2 définie par la formule
X
(Mk+1 Mk+2 )(xk , xk+2 ) = Mk+1 (xk , xk+1 )Mk+2 (xk+1 , xk+2 )
xk+1 ∈Ek+1

= P(Xk+2 = xk+2 | Xk = xk )
64 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS

2. Plus généralement, on note (Mk+1 . . . Mk+l ) la probabilité de transition de Ek vers Ek+l


définie par la formule
(Mk+1 . . . Mk+l )(xk , xk+l )
P
= xk+1 ∈Ek+1 ,...,xk+l−1 ∈Ek+l−1 Mk+1 (xk , xk+1 ) . . . Mk+l (xk+l−1 , xk+l )

= P(Xk+l = xk+l | Xk = xk )
Vérifier que l’on a

∀xk ∈ Ek ηk (xk ) = déf. P(Xk = xk )


= η0 (M1 . . . Mk )(xk )
= (η0 M1 )(M2 . . . Mk )(xk )
= ((η0 M1 )M2 )(M3 . . . Mk )(xk )
= ...
= ((. . . ((η0 M1 )M2 ) . . . Mk−1 )Mk )(xk )

3. On associe à une fonction fk+1 ∈ REk+1 , la fonction Mk (fk+1 ) ∈ REk définie par
X
Mk (fk+1 )(xk ) = Mk (xk , xk+1 ) fk+1 (xk+1 )
xk+1 ∈Ek+1

= E(fk+1 (Xk+1 ) | Xk = xk )

Montrer que pour toute fonction fk+l ∈ REk+l , nous avons

E(fk+l (Xk+l ) | Xk = xk ) = (Mk+1 . . . Mk+l )(fk+l )(xk )

En déduire que

ηk+l (fk+l ) =déf. E(fk+l (Xk+l ))


= [ηk (Mk+1 . . . Mk+l )](fk+l ) = ηk [(Mk+1 . . . Mk+l )(fk+l )]
= [η0 (M1 . . . Mk+l )](fk+l ) = η0 [(M1 . . . Mk+l )(fk+l )]

Exercice 2.5.9 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans un espace homogène
et fini E = {x1 , . . . , xd }, de probabilités de transitions (Mk )0≤k≤n , et de loi initiale µ0 . Dans
ce contexte, les probabilités de transitions sont données par les matrices
 
Mk (x1 , x1 ) . . . Mk (x1 , xd )
Mk = 
 .. .. .. 
. . . 
Mk (xd , x1 ) . . . Mk (xd , xd )
On identifie les mesures de probabilités µ, et les fonctions f sur E aux vecteurs lignes et colonnes
suivants  
f (x1 )
µ = [µ(x1 ), . . . , µ(xd )] et f = 
 .. 
. 
f (xd )
1. Vérifier les formules matricielles suivantes

∀xi , xj ∈ E P(Xk+l = xj | Xk = xi ) = (Mk+1 . . . Mk+l )(xi , xj )

et
∀f ∈ RE ∀xi ∈ E E(f (Xk+l ) | Xk = xi ) = [Mk+1 . . . Mk+l f ](xi )
et enfin
∀f ∈ RE E(f (Xk )) = η0 M1 . . . Mk f
2.5. EXERCICES 65

Exercice 2.5.10 On considère une chaı̂ne de Markov homogène sur un espace à deux points
p1,1 p1,2
E = {1, 2}, et associée à la matrice de transition M = . Les entrées pi,j ∈ [0, 1]
p2,1 p2,2
sont telles que p1,1 + p1,2 = 1 = p2,1 + p2,1 . On conviendra que c = p1,2 + p2,1 > 0. Montrer
(par récurrence sur le paramètre temporel) que les itérées M n de la matrice M sont données
par la formule    
1 p2,1 p1,2 (1 − c)n p1,2 −p1,2
Mn = + (2.6)
c p2,1 p1,2 c −p2,1 p2,1
Exercice 2.5.11 Soit (Xk0 )0≤k≤n un processus de Markov, à valeurs dans les espaces
(Ek0 )0≤k≤n , de probabilités de transitions (Mk0 )0≤k≤n , et de loi initiale η00 . On note (Xk )0≤k≤n
le processus historique de (Xk0 )0≤k≤n défini par
Xk = (X00 , . . . , Xk0 )
1. Vérifier que (Xk )0≤k≤n est une chaı̂ne de Markov à valeurs dans les espaces produits
Ek = (E00 , . . . , Ek0 )
2. Décrire les probabilités de transitions de (Xk )0≤k≤n .
Exercice 2.5.12 On considère une marche aléatoire (Xk )0≤k≤n définie sur un espace de
probabilités (Ω, P), d’origine X0 = 0 et de probabilités de transitions homogènes
M (x, y) = α 1x+1 (y) + (1 − α) 1x−1 (y) avec α ∈ [0, 1]
1. Décrire l’arbre des épreuves associé au processus (X k )0≤k≤n .
2. Montrer que la position moyenne de la particule au temps n est donnée par la formule
∀0 ≤ k ≤ n E(Xk ) = k × (2α − 1)
3. Vérifier que les transitions de la chaı̂ne entre deux instants, l et (l +m) ≤ n, sont données
par la formule
k
P(Xl+m = x + [k − (m − k)] | Xl = x) = Cm αk (1 − α)m−k
pour tous les k ∈ {0, . . . , m}, et
P(Xl+m 6∈ {2k − m : k = 0, . . . , m}|Xl = x) = 0
4. En déduire que
(2k)!
P(Xl+2k = 0 | Xl = 0) = (α(1 − α))k
k!k!

En utilisant la formule de Stirling (k! ' 2πk k k e−k ), montrer que
(4α(1 − α))k √
P(Xl+2k = 0 | Xl = 0) ' √ (= 1/ πk si α = 1/2)
πk
Exercice 2.5.13 Soit (Xk )0≤k≤n , une promenade aléatoire sur R, associée à une suite de v.a.
(k )0≤k≤n indépendantes
Xk
Xk = p = Xk−1 + k
p=0

Décrire la partie prévisible, et la partie martingale de ce processus.


Exercice 2.5.14 Soit (Xk )0≤k≤n , une promenade aléatoire sur R, associée à une suite de v.a.
(k )0≤k≤n indépendantes
Yk
Xk = p = Xk−1 × k
p=0

Décrire la partie prévisible, et la partie martingale de ce processus.


66 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
Chapitre 3

Éléments de la théorie des


martingales

3.1 Définitions et propriétés


3.1.1 Caractérisations

Définition 3.1.1 Une martingale est un processus aléatoire M = (Mk )0≤k≤n , à


valeurs réelles, défini sur un espace probabilisé filtré (Ω, (F k )0≤k≤n , P), et vérifiant
la propriété suivante

∀0 ≤ k < n E(Mk+1 | Fk ) = Mk

On dit aussi qu’un processus aléatoire réel M = (Mk )0≤k≤n est une sous-martingale
(resp. une sur-martingale), s’il vérifie les inégalités suivantes

∀0 ≤ k < n E(Mk+1 | Fk ) ≥ Mk (resp. E(Mk+1 | Fk ) ≤ Mk )

Les propriétés de martingales que nous avons introduites précisent les tendances locales d’un
processus aléatoire. Plus précisément, on note que tout processus aléatoire M = (M k )0≤k≤n
peut se mettre sous la forme
k
X
Mk = M 0 + ∆Mk avec ∆Mk = (Mk − Mk−1 )
l=1

La propriété de martingale (resp. sous-martingale, ou sur-martingale), exprime le fait que les


accroissements conditionnels moyens et prévisibles, sont nuls (resp. positifs, ou négatifs).
Supposons par exemple que Mk représente l’évolution aléatoire de la fortune d’un joueur.
Dans ce cas, la propriété de martingale exprime le fait que le jeu est équitable en moyenne, en
ce sens où le joueur ne peut accroı̂tre ou diminuer son espérance de gain (Mk+1 − Mk ), à l’aide
des information précédentes
E(Mk+1 − Mk | Fk ) = 0
On remarquera dans ce cas que le fortune moyenne du joueur reste constante
∀0 ≤ k ≤ n E(Mk ) = E(M0 )
La propriété de sous martingale correspond à un jeu favorable au joueur avec des gains
conditionnels certains
∀0 ≤ k < n E(Mk+1 − Mk | Fk ) ≥ 0

67
68 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

conduisant à la croissance en moyenne de sa fortune

E(M0 ) ≤ . . . ≤ E(Mk ) ≤ E(Mk+1 ) ≤ . . . ≤ E(Mn )

Terminons cette section par une caractérisation pratique de la propriété de martingale, en terme
de processus transformés. Nous utiliserons cette caractérisation dans le chapitre concernant les
mathématiques financières, lorsque nous “neutraliserons” des marchés financiers.

Proposition 3.1.1 Soit (Mk )0≤k≤n un processus aléatoire défini sur un espace probabilisé filtré
(Ω, (Fk )0≤k≤n , P). Le processus (Mk )0≤k≤n est une martingale si, et seulement si, pour tout
processus prévisible (Uk )0≤k≤n , on a la propriété suivante
n
!
X
E Uk ∆Mk = E(U0 M0 )
l=0

Preuve:
Si (Mk )0≤k≤n est une martingale, alors on a clairement
n
! n
X X
E Uk ∆Mk = E (Uk ∆Mk )
l=0 l=0
n
X
= E(U0 M0 ) + E (E(Uk ∆Mk | Fk−1 ))
l=1
Xn
= E(U0 M0 ) + E (Uk E(∆Mk | Fk−1 )) = E(U0 M0 )
l=1

Pour montrer la réciproque, on commence par noter que l’on a nécessairement

∀0 ≤ k ≤ n E(Mk ) = E(M0 )

Pour vérifier cette assertion, il suffit de choisir le processus prévisible constant U k = 1. En effet,
dans cette situation, nous avons
k
X k
X
Mk = ∆Ml = Ul ∆Ml
l=0 l=0

D’après nos hypothèses, on obtient


k
X
E(Mk ) = E( Ul ∆Ml ) = E(U0 M0 ) = E(M0 )
l=0

Soit T une v.a. positive entière, telle que les évènements {T ≥ k} soient prévisibles, c’est à dire
1{T ≥k} ∈ Fk−1 . On a clairement

T
X n
X
MT = ∆Mk = Uk ∆Mk
k=0 k=0

avec le processus prévisible Uk = 1T ≥k ∈ Fk−1 . D’après nos hypothèses, nous obtient que

E(MT ) = E(U0 M0 ) = E(M0 )

On associe à tout évènement A ∈ Fk , la v.a. entière

T = k 1A + (k + 1) 1Ac
3.1. DÉFINITIONS ET PROPRIÉTÉS 69

Par construction, les évènements



 Ω si l ≤ k
{T ≥ l} = Ac si l = k + 1

∅ si l > (k + 1)

sont prévisibles. D’autre part, nous avons les décompositions

MT = Mk 1A + Mk+1 1Ac
= Mk 1A + Mk+1 (1 − 1A ) = Mk+1 − 1A ∆Mk+1

D’après la discussion précédente, on obtient

∀A ∈ Fk (E(MT ) =)E(Mk+1 ) − E(1A ∆Mk+1 ) = E(M0 )

Compte tenu du fait que E(Mk+1 ) = E(M0 ), ceci entraı̂ne que

∀A ∈ Fk E(1A ∆Mk+1 ) = 0

D’après les propriétés des espérances conditionnelles, on en conclut que

E(∆Mk+1 | Fk ) = 0

En répétant ces raisonnement, pour tous les indices k ∈ {0, . . . , n}, on montre que le processus
Mk est nécessairement une martingale. Ceci achève la preuve de la proposition.

3.1.2 Compensateurs
Soit (Mk )0≤k≤n une martingale définie sur un espace probabilisé filtré

(Ω, (Fk )0≤k≤n , P)

Le processus aléatoire formé des carrés (Mk2 )0≤k≤n est une sous martingale sur
(Ω, (Fk )0≤k≤n , P). Cette propriété résulte simplement de l’inégalité de Cauchy-Schwartz
2
E(Mk+1 | Fk ) ≥ E(Mk+1 | Fk )2 = Mk2

Définition 3.1.2 On associe à une martingale (Mk )0≤k≤n sur un espace probabilisé
(Ω, (Fk )0≤k≤n , P), le processus prévisible (hM ik )0≤k≤n défini par
k
X k
X
hM ik = [E(Ml2 | Fl−1 ) − Ml−1
2
]= E([Ml − Ml−1 ]2 | Fl−1 )
l=0 l=0

Le processus aléatoire (hM ik )0≤k≤n , est appelé le compensateur, la variation


quadratique prévisible, ou encore le processus croissant, associé à la martingale
(Mk )0≤k≤n .

Dans la définition précédente, nous avons utilisé la convention E([M0 − M−1 ]2 | F−1 ) = E(M02 ),
lorsque l = 0. L’importance de ce processus résulte de la proposition suivante.
70 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Proposition 3.1.2 Soit (Mk )0≤k≤n une martingale réelle définie sur un espace
probabilisé filtré (Ω, (Fk )0≤k≤n , P). Le processus aléatoire

Mk2 − hM ik

est une martingale par rapport à la filtration (Fk )0≤k≤n .

Preuve:
Pour vérifier la première assertion, on observe que
2
E(Mk+1 | Fk ) = E([Mk + (Mk+1 − Mk )]2 | Fk )
= Mk2 + 2Mk E((Mk+1 − Mk ) |Fk ) + E((Mk+1 − Mk )2 | Fk )
= Mk2 + E((Mk+1 − Mk )2 | Fk )

On en déduit la décomposition suivante


2
[Mk+1 − hM ik+1 ] − [Mk2 − hM ik ] = [Mk+1
2
− Mk2 ] − [hM ik+1 − hM ik ]
2
= [Mk+1 − Mk2 ] − E((Mk+1 − Mk )2 | Fk )
2
= [Mk+1 − Mk2 ] − [E(Mk+1
2
| Fk ) − Mk2 ]

Il est alors clair que la propriété de martingale est satisfaite


2
E(Mk+1 − hM ik+1 | Fk ) = Mk2 − hM ik

Définition 3.1.3 On associe à un couple de martingales réelles (M k )0≤k≤n et


(Nk )0≤k≤n , sur un même espace probabilisé filtré (Ω, (Fk )0≤k≤n , P), le processus
prévisible (hM, N ik )0≤k≤n , défini par
k
X k
X
hM, N ik = [E(Ml Nl | Fl−1 ) − Ml−1 Nl−1 ] = E(∆Ml ∆Nl | Fl−1 )
l=0 l=0

avec la convention E([M0 − M−1 ][N0 − N−1 ] | F−1 ) = E(M0 N0 ), lorsque l = 0.

Le prochain théorème est une extension de la proposition précédente à des produits quelconques
de martingales.

Théorème 3.1.1 Soit (Mk )0≤k≤n et (Nk )0≤k≤n , un couple de martingales réelles, et
définies sur un même espace probabilisé filtré (Ω, (Fk )0≤k≤n , P). Dans cette situation,
les processus aléatoires défini par

Mk Nk − [M, N ]k et Mk Nk − hM, N ik

sont des martingales par rapport à la filtration (Fk )0≤k≤n


3.1. DÉFINITIONS ET PROPRIÉTÉS 71

Preuve:
D’après la formule d’intégration par parties (2.4), nous avons la décomposition

k
X k
X
M k Nk = Ml−1 ∆Nl + Nl−1 ∆Ml + [M, N ]k
l=1 l=1

D’autre part, nous avons vu dans l’exercice 3.1.5 que les processus

k
X k
X
Ml−1 ∆Nl et Nl−1 ∆Ml
l=1 l=1

sont des martingales. On en conclut que

k
X k
X
Mk Nk − [M, N ]k = M0 N0 + Ml−1 ∆Nl + Nl−1
l=1 l=1

est une martingale.


Pour vérifier la dernière assertion du théorème, on remarque tout d’abord que l’on a

E(Mk+1 Nk+1 | Fk ) = E([Mk + (Mk+1 − Mk )][Nk + (Nk+1 − Nk )] | Fk )


= Mk Nk + E([Mk+1 − Mk ][Nk+1 − Nk ] | Fk )

On en déduit la décomposition

[Mk+1 Nk+1 − hM, N ik+1 ] − [Mk Nk − hM, N ik ]

= [Mk+1 Nk+1 − Mk Nk ] − [hM, N ik+1 − hM, N ik ]

= [Mk+1 Nk+1 − Mk Nk ] − E([Mk+1 − Mk ][Nk+1 − Nk ] | Fk )

= [Mk+1 Nk+1 − Mk Nk ] − [E(Mk+1 Nk+1 | Fk ) − Mk Nk ]

On en conclut que la propriété de martingale est satisfaite

E(Mk+1 Nk+1 − hM, N ik+1 | Fk ) = Mk Nk − hM, N ik

Les compensateurs ([M, N ]k )0≤k≤n , et (hM, N ik )0≤k≤n , décrits dans le théorème 3.1.1, sont
des processus aléatoires initialisés en

[M, N ]0 = M0 N0 et hM, N i0 = E(M0 N0 )

Comme dans l’étude des décompositions (2.5), nous pouvons alternativement utiliser des
compensateurs initialisés en 0. Plus précisément, il est facile de vérifier que les deux processus
suivants
Mk Nk − M0 N0 − (hM, N ik − hM, N i0 )

et
Mk Nk − M0 N0 − ([M, N ]k − [M, N ]0 )

sont des martingales nulles à l’origine.


72 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

3.1.3 Propriétés fondamentales

La proposition suivante offre un catalogue synthétique de propriétés classiques utilisées dans


la suite du cours.

Proposition 3.1.3 Soit (Mk )0≤k≤n une martingale (réelles) définie sur un espace
probabilisé filtré (Ω, (Fk )0≤k≤n , P).
1. Pour tout 0 ≤ k ≤ l ≤ n, on a E(Ml | Fk ) = Mk . En particulier, la martingale
Mk s’exprime en fonction de son état terminal, par la formule

Mk = E(Mn | Fk )

On a de plus, E(Mk ) = E(M0 ).


2. Pour toute fonction convexe f sur R, le processus (f (Mk ))0≤k≤n une sous
martingale. En particulier, les processus aléatoires (Mk2 )0≤k≤n , et (|Mk |)0≤k≤n ,
sont des sous martingales.
3. Toute combinaison linéaire de martingales, est une martingale.

Preuve:
Le premier point est équivalent au fait que

∀0 ≤ p + m ≤ n E(Mm+p | Fm ) = Mm

Le cas p = 1 résulte de la définition même d’une martingale. On raisonne ensuite par récurrence
sur cet indice. Supposons donc le résultat vrai au rang p. Compte tenu du fait que Fm+p ⊃ Fm ,
nous avons

E(Mm+(p+1) | Fm ) = E( E(Mm+(p+1) | Fm+p )| Fm )


= E(Mm+p | Fp )
= Mp

Le dernier point résulte de l’hypothèse de récurrence. Ceci achève la preuve du résultat


recherché. Le second point est une conséquence immédiate de l’inégalité de Jensen

E(f (Mn+1 ) | Fn ) ≥ f (E(Mn+1 | Fn )) = f (Mn )

La vérification de la dernière propriété ne pose aucune difficulté majeure.

La proposition suivante est une conséquence de la première propriété énoncée dans la


proposition 3.1.3. Nous utiliserons ce résultat dans les prochains chapitres de ce cours, lorsque
nous aborderons les stratégies de financement de portefeuilles, et la simulation d’options, dans
des marchés financiers viables.
3.1. DÉFINITIONS ET PROPRIÉTÉS 73

Proposition 3.1.4 Soit Fk = σ(X0 , . . . , Xk ), 0 ≤ k ≤ n, la filtration naturelle


associée à un processus aléatoire (Xk )0≤k≤n , à valeurs dans un espace d’états fini E.
On associe à une fonction gn : E n+1 → R, la suite de fonctions

Vk : (x0 , . . . , xk ) ∈ E k+1 7→ Vk (x0 , . . . , xk ) ∈ R , 0≤k≤n

définies par les formules de récurrence inverse

Vn (x0 , . . . , xn ) = gn (x0 , . . . , xn )
Vk (x0 , . . . , xk ) = E (Vk+1 (x0 , . . . , xk , Xk+1 ) | (X0 , . . . , Xk ) = (x0 , . . . , xk ))

pour tout 0 ≤ k < n. Le processus aléatoire (Mk )0≤k≤n défini par

∀0 ≤ k ≤ n Mk = Vk (X0 , . . . , Xk )

est l’unique martingale, par rapport à la filtration (Fk )0≤k≤n , dont la valeur terminale
Mn coı̈ncide avec la v.a. gn (X0 , . . . , Xn ).

Preuve:
Par construction, le processus
Mk = Vk (X0 , . . . , Xk )

forme une martingale, telle que Mn = gn (X0 , . . . , Xn ). On notera que les relations de récurrence
inverse sont équivalentes à la propriété de martingale

Mk = E (Mk+1 | Fk )

De plus, d’après la première propriété énoncée dans la proposition 3.1.3, nous avons

Mk = E(Mn | Fk ) = E(gn (X0 , . . . , Xn ) | Fk )

pour toute martingale (Mk )0≤k≤n , telle que Mn = gn (X0 , . . . , Xn ). Par conséquent, si
(Mk )0≤k≤n , et (Mk0 )0≤k≤n , désignent un couple de martingales telles que

Mn = Mn0 = gn (X0 , . . . , Xn )

alors on a nécessairement

Mk = E(gn (X0 , . . . , Xn ) | Fk ) = Mk0

Ceci démontre l’unicité d’une martingale à condition terminale fixé, et achève la preuve de la
proposition.

3.1.4 Martingales exponentielles


Afin d’éviter des répétitions inutiles, on conviendra dans ce qui suit que tous les processus
aléatoires considérés sont définis sur le même espace probabilisé filtré (Ω, (F k )0≤k≤n , P).
74 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Définition 3.1.4 Le processus exponentiel (Ek (X))0≤k≤n d’un processus aléatoire


réel (Xk )0≤k≤n est défini de la façon suivante
k
Y
Ek (X) = (1 + ∆Xl ) = Ek−1 (X) (1 + ∆Xk )
l=1

On notera que (Ek (X))0≤k≤n est défini de manière équivalente, par la donnée des
accroissements
∆Ek (X) = Ek−1 (X) × ∆Xk
Q
On adoptera la convention usuelle ∅ = 1, de sorte que E0 (X) = 1.

Proposition 3.1.5 Pour tout couple de processus aléatoires (Xk )0≤k≤n , et


(Yk )0≤k≤n , on a la formule produit

Ek (X) × Ek (Y ) = k (X + Y + [X, Y ])

En particulier, lorsque les accroissements du processus (Xk )0≤k≤n sont tels que (1 +
∆Xk ) > 0, on a la formule d’inversion

Ek (X) × Ek (−X ? ) = 1

avec le processus aléatoire (Xk? )0≤k≤n , donné par les accroissements

∆Xk? = ∆Xk /(1 + ∆Xk )

Preuve:
Pour vérifier la première assertion, il suffit de noter que

(1 + ∆Xk )(1 + ∆Yk ) = 1 + ∆Xk + ∆Yk + ∆Xk ∆Yk


= 1 + ∆(X + Y + [X, Y ])k

La seconde assertion est une conséquence immédiate de la première. En effet, par définition de
(Xk? )0≤k≤n , nous avons

1 + ∆Xk − ∆Xk? − ∆Xk ∆Xk? = 1 + ∆Xk − ∆Xk? (1 + ∆Xk ) = 1

Par conséquent, on obtient


1 + ∆(X − X ? − [X, X ? ])k = 1

et finalement
Ek (X) × Ek (−X ? ) = Ek (X − X ? − [X, X ? ]) = 1
3.1. DÉFINITIONS ET PROPRIÉTÉS 75

Proposition 3.1.6 Soit (Xk )0≤k≤n , et (Yk )0≤k≤n , un couple de processus aléatoires.
On suppose que (Yk )0≤k≤n est prévisible, et ses accroissements sont tels que (1 +
∆Yk ) > 0. Dans cette situation, nous avons les équivalences suivantes

(Ek (X))0≤k≤n martingale ⇐⇒ (Xk )0≤k≤n martingale


(Ek (X)/Ek (Y ))0≤k≤n martingale ⇐⇒ (Xk − Yk )0≤k≤n martingale

Preuve:
La première équivalence est une conséquence directe du fait suivant

E(1 + ∆Xk | Fk−1 ) = 1 ⇐⇒ E(∆Xk | Fk−1 ) = 0

Pour vérifier la seconde, on remarque que l’on a

Ek (X)/Ek (Y ) = Ek (X) Ek (−Y ? ) = k (X − Y ? − [X, Y ? ])

et
∆Yk ∆Xk ∆Yk
∆Xk − ∆Yk? − ∆Xk ∆Yk? = ∆Xk − −
1 + ∆Yk 1 + ∆Yk
∆Xk + ∆Xk ∆Yk − ∆Yk − ∆Xk ∆Yk
=
1 + ∆Yk
∆Xk − ∆Yk
=
1 + ∆Yk
La fin de la démonstration est désormais claire.

3.1.5 Lemme de Girsanov


La donnée d’une martingale positive (Zk )0≤k≤n , sur un espace probabilisé filtré
(Ω, (Fk )0≤k≤n , P), peut s’interpréter comme un changement de probabilité. On définit cette
nouvelle probabilité P0 en posant
!
X
0
∀A ⊂ Ω P (A) = E(Zn 1A ) = Zn (ω) P(ω) (3.1)
ω∈A

On vérifie aisément que P0 est bien une mesure de probabilité sur Ω. De plus, on a pour tout
0≤k≤n

A ∈ Fk =⇒ P0 (A) = E(Zn 1A )
= E(E(Zn 1A | Fk )) = E(E(Zn | Fk ) 1A )
=⇒ P0 (A) = E(Zk 1A )

Ces deux propriétés sont souvent notées “de façon synthétique”

dP0
∀0 ≤ k ≤ n = Zk
dP |Fk
Avec ces notations, les formules précédentes s’expriment sous la forme suivante
X X dP0
A ∈ Fk ⇒ P0 (A) = P0 (ω) = P(ω) × (ω) = E(Zk 1A )
dP |Fk
ω∈A ω∈A
76 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Les résultats que nous venons d’examiner s’étendent aux variables aléatoires. En effet,
lorsque U ∈ Fk , avec 0 ≤ k ≤ n, on obtient
X
E0 (U ) = U (ω) P0 (ω)
ω∈Ω
= E(U Zn ) = E(U E(Zn | Fk )) = E(U Zk )

Remarquons que pour tout V ∈ Fk−1 , on a (U V ) ∈ Fk , et en accord avec ce qui précède,


nous avons

E0 (U V ) = E(U V Zk )
= E(E(U V Zk | Fk−1 )) = E(V E(U Zk | Fk−1 ))
−1
= E(V Zk Zk−1 E(U Zk | Fk−1 ))
0 −1

= E V Zk−1 E(U Zk | Fk−1 )

L’égalité ci-dessus étant satisfaite pour tout V ∈ Fk−1 , on en conclut que


−1
E0 (U | Fk−1 ) = Zk−1 E(U Zk | Fk−1 )

On vérifie alors aisément le lemme suivant.

Lemme 3.1.1 (Lemme de Girsanov) Si (Mk )0≤k≤n est une martingale sous la
probabilité P, alors le processus
k
X
−1
Mk0 = Mk − Zl−1 E(Zl ∆Ml | Fl−1 )
l=0

est une martingale sous la probabilité P0 défini en (3.1). Lorsque l = 0, on utilise les
−1
conventions Z−1 = 1, Fl−1 = {∅, Ω}, et ∆M0 = M0 , de sorte que

M00 = M0 − E(Z0 M0 )

3.1.6 Exercices
Exercice 3.1.1 On considère un processus prévisible (Xk )0≤k≤n , et un processus aléatoire
(Yk )0≤k≤n , sur un espace probabilisé filtré (Ω, (Fk )0≤k≤n , P). Montrer que si (Yk )0≤k≤n est
une martingale, il en est de même de ((X Y )k )0≤k≤n . Lorsque (Xk )0≤k≤n est positif, vérifier
.
que ((X Y )k )0≤k≤n est une sous martingale (resp. une sur martingale), dès que (Yk )0≤k≤n est
.
une sous martingale (resp. une sur martingale).

Exercice 3.1.2 Soit (k )1≤k≤n une suite de v.a. i.i.d. de Bernoulli définies sur un même espace
probabilisé (Ω, P), avec
P(k = 1) = 1 − P(k = −1) = p ∈ [0, 1]
On conviendra que {k = +1} représente l’évènement favorable ou le joueur gagne à la k ième
séquence de jeu une unité de mise. On note

Fk = σ(1 , . . . k )

la filtration associée au déroulement du jeux, avec la convention F 0 = {∅, Ω}, pour k = 0.


Vérifier que le processus de comptage des succès
k
X
Mk = l = Mk−1 + k
l=1
3.1. DÉFINITIONS ET PROPRIÉTÉS 77

est une martingale si p = 1/2, une sur-martingale lorsque p ≤ 1/2, et enfin une sous-martingale
lorsque p ≥ 1/2.

Exercice 3.1.3 Soit (k )1≤k≤n une suite de v.a. indépendantes, centrées (i.e. E(k ) = 0), et
définies sur un même espace probabilisé (Ω, P). Montrer que le processus aléatoire (M k )0≤k≤n
défini par
Xk
Mk = l = Mk−1 + k
l=0

est une martingale par rapport à la filtration Fk = σ(1 , . . . k ).

Exercice 3.1.4 Soit (k )1≤k≤n une suite de v.a. indépendantes, de moyenne unité (i.e. E(k ) =
1), et définies sur un même espace probabilisé (Ω, P). Vérifier que processus aléatoire (M k )0≤k≤n
défini par le produit
Y k
Mk = l = Mk−1 × k
l=0

est une martingale par rapport à la filtration Fk = σ(1 , . . . k ).

Exercice 3.1.5 Soit L0 , une v.a., et (Mk )0≤k≤n et (Nk )0≤k≤n , un couple de martingales
définies sur un même espace probabilisé filtré (Ω, (Fk )0≤k≤n , P). Vérifier que le processus
(Lk )0≤k≤n défini ci-dessous
X k
Lk = L 0 + Ml−1 ∆Nl
l=1

est une martingale par rapport à la filtration (Fk )0≤k≤n .

Exercice 3.1.6 Soit (k )1≤k≤n une suite de v.a. réelles indépendantes, centrées (i.e. E(k ) =
0), et définies sur un même espace probabilisé (Ω, P). On note Fk = σ(1 , . . . , k ), la filtration
d algèbres associée.
1. Vérifier que le processus aléatoire (Mk )0≤k≤n défini par
k
X
∀0 ≤ k ≤ n Mk = l = Mk−1 + k
l=0

est une martingale sur (Ω, (Fk )0≤k≤n , P).


2. On notera par la suite σk2 = E(2k ), les variances des v.a. k . Montrer que

E([Mk+1 − Mk ]2 | Fk ) = σk+1
2

En déduire que les processus aléatoires


k
X k
X
∀0 ≤ k ≤ n Mk2 − σl2 et Mk2 − M02 − σl2
l=0 l=1

sont des martingale par rapport à la filtration Fk .


3. Dans le cas où les v.a. (k )1≤k≤n sont i.i.d. et centrées, les processus aléatoires

Mk2 − (k + 1)σ 2 et Mk2 − M02 − k σ 2 avec σ 2 = E(2k )

forment des martingales.

Exercice 3.1.7 Soit (k )1≤k≤n une suite de v.a. réelles indépendantes, de moyenne unité (i.e.
E(k ) = 1), et définies sur un même espace probabilisé (Ω, P). On note Fk = σ(1 , . . . , k ), la
filtration d algèbres associée.
78 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

1. Montrer que le processus aléatoire (Mk )0≤k≤n défini par


k
Y
Mk = l = Mk−1 × k
l=0

est une martingale par rapport à la filtration Fk .


2. On notera par la suite σk2 = E([k − E(k )]2 ), les variances des v.a. k . Vérifier que le
processus aléatoire
Yk Xk l−1
Y
2
[ l ] − [ 2m ] σl2
l=0 l=0 m=0

est une martingale par rapport à la filtration Fk .

Exercice 3.1.8 Soit ((k , 0k ))0≤k≤n une suite de v.a. à valeurs dans R2 , indépendantes et
centrées (en ce sens où E(k ) = 0 = E(0k )), et définies sur un même espace probabilisé (Ω, P).
On note
Fk = σ((1 , 01 ), . . . , (k , 0k ))
la filtration d algèbres associée. On associe à ces suites, le couple de martingales (Y k )0≤k≤n , et
(Yk0 )0≤k≤n , définies par

Yk =  0 + . . . +  k et Yk0 = 00 + . . . + 0k

1. Montrer que le compensateur (hY, Y 0 ik )0≤k≤n du processus produit Xk = Yk Yk0 , est donnée
par la formule suivante
Xk
hY, Y 0 ik = E(l 0l )
l=0

2. En déduire que le processus


k
X k
X n
X
[ l ] × [ 0l ] − E(k 0k )
l=0 l=0 k=0

est une martingale par rapport à la filtration Fk .

Exercice 3.1.9 Soit ((k , 0k ))0≤k≤n une suite de v.a. à valeurs dans R2 , indépendantes et telles
que
E(k ) = 1 = E(0k )
et définies sur un même espace probabilisé (Ω, P). On note

Fk = σ((1 , 01 ), . . . , (k , 0k ))

la filtration d algèbres associée. On associe à ces suites, le couple de martingales (Y k )0≤k≤n , et


(Yk0 )0≤k≤n , définies par
Yk Yk
Yk = l et Yk0 = 0l
l=0 l=0

1. Vérifier que la formule

Cov(k , 0k ) =déf. E([k − E(k )][0k − E(0k )]) = E(k 0k ) − 1

2. Montrer que le compensateur (hY, Y 0 ik )0≤k≤n du processus produit Xk = Yk Yk0 , est donnée
par la formule suivante
k l−1
X Y
hY, Y 0 ik = [ m 0m ] × Cov(l , 0l )
l=0 m=0
3.1. DÉFINITIONS ET PROPRIÉTÉS 79

3. En déduire que le processus


k
Y k
Y k l−1
X Y
[ l ] × [ 0l ] − [ m 0m ] × Cov(l , 0l )
l=0 l=0 l=0 m=0

est une martingale par rapport à la filtration Fk .

Exercice 3.1.10 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans les espaces
(Ek )0≤k≤n , de probabilités de transitions (Mk )0≤k≤n , et de loi initiale η0 . On associe à toute
fonction fk+1 sur Ek+1 , la fonction Mk+1 (fk+1 ) sur Ek définie par
X
∀xk ∈ Ek Mk+1 (fk+1 )(xk ) = Mk+1 (xk , xk+1 )f (xk+1 ) = E(fk+1 (Xk+1 ) | Xk = xk )
xk+1 ∈Ek+1

1. Soit f = (fk )0≤k≤n une famille de fonctions définies sur les espaces (Ek )0≤k≤n . Montrer
que le processus
Xk
Mk (f ) = [fl (Xl ) − Ml (fl )(Xl−1 )]
l=1

est une martingale nulle en l’origine, par rapport à la filtration naturelle (F kX )0≤k≤n
associée au processus (Xk )0≤k≤n .
2. Déterminer le compensateur de la martingale (Mk (f ))0≤k≤n .

Exercice 3.1.11 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes et centrées, et à
valeurs dans des espaces réduits à deux points Ek = {uk , vk }, avec

uk < 0 ≤ v k et P(k = uk ) = 1 − P(k = vk ) = pk ∈ (0, 1)

On note Fk = σ(0 , . . . , k ), avec 0 ≤ k ≤ n, la filtration naturelle associée à ces variables


aléatoires.
1. Vérifier la propriété suivante :

∀0 ≤ k ≤ n uk pk + vk (1 − pk ) = 0

2. Montrer que le processus défini par

∀0 ≤ k ≤ n Yk = 0 + . . . + k = Yk−1 + k

est une martingale (par rapport à la filtration (Fk )0≤k≤n ) à valeurs dans les espaces
k
X
EkY = { wl : wl ∈ {ul , vl }, Y
0 ≤ l ≤ k} = Ek−1 + {uk , vk }
l=0

3. Vérifier que le processus (Yk )0≤k≤n est aussi une chaı̂ne de Markov. Déterminer sa loi
initiale, et ses probabilités de transitions.

Exercice 3.1.12 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes, et à valeurs dans des
espaces réduits à deux points Ek = {uk , vk }, avec

uk < 1 ≤ v k E(k ) = 1 et P(k = uk ) = 1 − P(k = vk ) = pk ∈ (0, 1)

On note Fk = σ(0 , . . . , k ), avec 0 ≤ k ≤ n, la filtration naturelle associée à ces variables


aléatoires.
1. Vérifier la propriété suivante :

∀0 ≤ k ≤ n uk pk + vk (1 − pk ) = 1
80 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

2. Montrer que le processus défini par

∀0 ≤ k ≤ n Yk = 0 × . . . × k = Yk−1 × k

est une martingale (par rapport à la filtration (Fk )0≤k≤n ) à valeurs dans les espaces

k
Y
EkY = { wl : wl ∈ {ul , vl }, 0 ≤ l ≤ k}
l=0

3. Vérifier que le processus (Yk )0≤k≤n est aussi une chaı̂ne de Markov. Déterminer sa loi
initiale, et ses probabilités de transitions.

Exercice 3.1.13 Soit X une v.a. réelle définie sur un espace probabilisé (Ω, P). On considère
une filtration croissante de sous algèbres (Fk )0≤k≤n de P(Ω). Vérifier que la processus aléatoire
(Xk )0≤k≤n défini par
∀0 ≤ k ≤ n Xk = E(X | Fk )
est une martingale sur l’espace filtré (Ω, (Fk )0≤k≤n , P). Inversement, si (Xk )0≤k≤n désigne une
martingale par rapport à la filtration (Fk )0≤k≤n , montrer qu’il existe une v.a. réelle X, telle
que Xk = E(X | Fk ), pour tout 0 ≤ k ≤ n.

Exercice 3.1.14 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes, centrées, et
équidistribuées. On considère la martingale
k
X
∀0 ≤ k ≤ k Mk = l = Mk−1 + k
l=1

et la fonction λ ∈ R 7→ ϕ(λ) = E(eλ1 ) ∈ R.


1. Vérifier que le processus défini
 
eλk
Zkλ = eλMk −k log ϕ(λ) = eλMk−1 −(k−1) log ϕ(λ)
E(eλk )

est une martingale exponentielle


2. Plus généralement, montrer que pour toute martingale (Mk )0≤k≤n , le processus suivant
est à nouveau une martingale exponentielle
k
Y
Zkλ = eλMk / E(eλ∆Ml | Fl−1 )
l=1

Exercice 3.1.15 Soit (Ek (X))0≤k≤n le processus exponentiel d’une martingale (Xk )0≤k≤n ,
définie sur (Ω, (Fk )0≤k≤n , P), et telle que (1 + ∆Xk ) > 0, pour tout indice 0 ≤ k ≤ n.
1. Vérifier que Zk est une martingale par rapport à la filtration (Fk )0≤k≤n .
2. On note P0 la probabilité sur Ω, définie par

∀A ⊂ Ω P0 (A) = E(Zn 1A ) avec Zn = En (X)

Montrer que pour toute martingale (Mk )0≤k≤n sur (Ω, (Fk )0≤k≤n , P), le processus
aléatoire (Mk0 )0≤k≤n défini par

∀0 ≤ k ≤ n Mk0 = Mk − hM, Xik

est une martingale sur (Ω, (Fk )0≤k≤n , P0 ).


3.2. CONTRÔLE DE MARTINGALES 81

Exercice 3.1.16 Soit ((k , 0k ))0≤k≤n une suite de v.a. à valeurs dans R2 , indépendantes et
centrées (en ce sens où E(k ) = 0 = E(0k )), et définies sur un même espace probabilisé (Ω, P).
On note
Fk = σ((1 , 01 ), . . . , (k , 0k ))
la filtration d algèbres associée. On associe aux suites (k )0≤k≤n , et (0k )0≤k≤n , les processus
(Xk )0≤k≤n , et (Yk )0≤k≤n , donnés par
n
X n
X
Xk = k et Yk = 0k
k=0 k=0

1. Vérifier que le processus exponentiel de (Xk )0≤k≤n est donné par


k
Y
Zk = Ek (X) = (1 + l )
l=0

2. On suppose que les v.a. k sont telles que k > −1, et on note P0 la probabilité sur Ω,
définie par
∀A ⊂ Ω P0 (A) = E(Zn 1A ) avec Zn = En (X)
Vérifier que (Yk )0≤k≤n est une martingale sur (Ω, (Fk )0≤k≤n , P). Montrer que le processus
k
X
Yk0 = Yk − E(l 0l )
l=0
0
est une martingale sur (Ω, (Fk )0≤k≤n , P ).

3.2 Contrôle de martingales


3.2.1 La notion de temps d’arrêt
Dans la théorie des jeux la donnée d’une filtration d’algèbres (Fk )0≤k≤n sur un espace
probabilisé (Ω, P) correspond à l évolution de l’information dont dispose un joueur sur
les résultats du jeu. En pratique, ces algèbres sont engendrées par des séquences de v.a.
numérique représentant par exemple les successions des gains et des pertes à chaque mise
dans le déroulement du jeu. La suite des gains aléatoires au cours des différentes mises est
“malheureusement” souvent donné par une martingale (Mk )0≤k≤n
∀1 ≤ k ≤ n E(Mk | Fk−1 ) = Mk−1 (3.2)
Cette propriété représente le caractère imprévisible de l’accroissement des gains dans des jeux
équitables
(3.2) ⇐⇒ ∀1 ≤ k ≤ n E(∆Mk | Fk−1 ) = E([Mk − Mk−1 ] | Fk−1 ) = 0
Il est d’autant plus désespérant de noter que toute transformée
k
X
(X M )k =
. Xl ∆Ml
l=0

de (Mk )0≤k≤n par un processus quelconque prévisible (Xk )0≤k≤n , est à nouveau une martingale
∀1 ≤ k ≤ n E(Xk ∆Mk | Fk−1 ) = Xk E(∆Mk | Fk−1 ) = 0
Il est donc impossible de contrôler honnêtement les accroissements des gains au cours du jeu.
Existe-t-il néanmoins des stratégies aléatoires pour quitter le jeu, en augmentant ses chances
de gain ? Peut-on maximiser son espérance de gain ? Ces règles d’arrêt sont l’un des notions les
plus importantes de la théorie de probabilités. Nous examinerons des exemples classiques de
stratégies d’arrêt de jeu dans les sections 3.2.3, et 3.2.5.
82 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Un temps d’arrêt sur un espace probabilisé filtré (Ω, (Fk )0≤k≤n , P) est une application

T : ω ∈ Ω 7→ T (ω) ∈ {0, 1, . . . , n} ∪ {∞}

telle que

∀0 ≤ k ≤ n T −1 ({k}) = {T = k} = {ω ∈ Ω : T (ω) = k} ∈ Fk

On notera que pour tout 0 ≤ k ≤ n, les évènements {T ≥ k} sont prévisibles. Plus


précisément, nous avons

{T ≥ k} = Ω − {T < k} = ∩0≤l<k {T 6= l} ∈ Fk−1

La valeur T = ∞ correspond au cas où le jeu n’est pas arrêté, nous conviendrons donc
dans ce cas que l’on a
{T = ∞} = {T > n} ∈ Fn

On définit l’arrêt d’un processus aléatoire (Xk )0≤k≤n au temps T en décomposant ce


processus sur les évènements {T = k} ∈ Fk
n
X hP i
k−1
∀0 ≤ k ≤ n XkT =déf. XT ∧k = Xl 1{(T ∧k)=l} = l=0 Xl 1{T =l} 1{T <k} + Xk 1T ≥k
l=0

= XT 1{T <k} + Xk 1T ≥k

Les propriétés de martingales, sous-martingales, et sur-martingales, sont stables par


l’opération d’arrêt.

Montrons par exemple qu’une martingale arrêtée (MkT )0≤k≤n au temps T , est à nouveau
une martingale. Pour vérifier ce résultat, on rappelle que les évènements {T ≥ k} ∈ F k−1 sont
prévisibles. Par conséquent, en utilisant la décomposition précédente, nous avons
"k−1 #
X
T
E(Mk | Fk−1 ) = E( Ml 1{T =l} 1{T <k} + Mk 1T ≥k | Fk−1 )
l=0
"k−1 #
X
= Ml 1{T =l} 1{T <k} + E(Mk | Fk−1 ) 1T ≥k
l=0
= MT 1{T <k} + Mk−1 1T ≥k
= MT 1{T ≤(k−1)} + Mk−1 1T >(k−1) = MT ∧(k−1) × [1{T ≤(k−1)} + 1T >(k−1) ]

On en conclut que
E(MkT | Fk−1 ) = MT ∧(k−1) = Mk−1
T

En itérant ce procédé on montre que

∀0 < k ≤ l ≤ n E(MlT | Fk−1 ) = MT ∧(k−1)

En choisissant l = n, on obtient la formule suivante

∀0 ≤ k ≤ n E(MT | Fk ) = MT ∧k
3.2. CONTRÔLE DE MARTINGALES 83

3.2.2 Jeux stochastiques


On considère la marche aléatoire
k
X
Yk = l = Yk−1 + k
l=1

associée à une suite de v.a. de Bernoulli, indépendantes, et équidistribuées, avec

P(1 = +1) = 1 − P(1 = −1) = p ∈ [0, 1]

On interprète dans ce qui suit les valeurs prises par les v.a. k , comme le succès (k = +1), ou
l’échec (k = −1), d’un joueur à la k ième étape d’un jeu.
On notera que la mise aléatoire Xk du joueur à la k ième étape ne peut dépendre que des
informations fournies par le déroulement du jeu, jusqu’à l’instant k, exclu ! Autrement dit, la
mise Xk est prévisible par rapport à la filtration d’information associée aux successions de gains
et pertes jusqu’à l’instant k. Plus formellement, nous avons

∀1 ≤ k ≤ n Xk ∈ Fk−1 =déf. σ(1 , . . . , k−1 )

La variable déterministe X1 = 1 représente la mise initiale, fixée à l’avance, pour que le joueur
gagne, ou perde, une quantité d’argent donnée.
On notera que

∀1 ≤ k ≤ n E(k | Fk−1 ) = E(k ) = (+1) p + (−1) (1 − p) = 2p − 1

Les accroissements aléatoires (Zk )1≤k≤n du portefeuille du joueur, utilisant au cours du jeu
une stratégie de mises (Xk )2≤k≤n , sont données par la transformée de (Yk )1≤k≤n par (Xk )1≤k≤n ,
c’est à dire
X k Xk
Zk = (X Y )k =
. Xl ∆Yl = Xl  l
l=1 l=1

Dans cette situation, la décomposition de Doob

Zk = A Z Z
k + Mk

est donnée par le processus prévisible


k
X
AZ
k = E(∆Zl | Fl−1 )
p=1
k
X k
X k
X
= E(Xl l | Fl−1 ) = Xl E(l ) = Xl (2p − 1)
p=1 p=1 p=1

et la martingale
k
X
MkZ = [∆Zl − E(∆Zl | Fl−1 )]
l=1
k
X k
X
= [Xl l − E(Xl l | Fl−1 )] = Xl (l − (2p − 1))
l=1 l=1

Trois cas se présentent :


1. Lorsque p > 1/2, le jeu est favorable au joueur, et la partie prévisible des gains A Z k est
un processus croissant. Dans ce cas, la stratégie du joueur consistera à miser le maximum
d’argent à chaque tour du jeu.
84 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

2. Lorsque p < 1/2, le jeu est défavorable au joueur, et la partie prévisible des gains A Z
k est
un processus décroissant. Dans ce cas, la stratégie consistera à éviter de jouer, ou bien
quitter le jeu le plus rapidement possible.
3. Lorsque p = 1/2, le jeu est imprévisible, et équitable, en ce sens où l’on a A Z k = 0,
pour tout 0 ≤ k ≤ n. Dans ce cas, les gains et pertes successifs du joueur forment une
martingale.

3.2.3 Stratégies de jeux équitables


Examinons plus en détail le jeu stochastique décrit dans la section précédente. On supposera
que le jeu est imprévisible, c’est à dire p = 1/2. Dans ces conditions, le processus aléatoire des
gains et pertes du joueur est donné par la martingale
k
X
∀1 ≤ k ≤ n Zk = Xl ∆Yl avec ∆Yl = l
l=1

Le processus prévisible (Xk )1≤k≤n représente la stratégie utilisée par le joueur, les v.a. de
Bernoulli (k )1≤k≤n , à valeurs dans {−1, +1}, représente les gains et pertes aléatoires, à chaque
étape du jeu. Le paramètre n représente la durée du jeu. A titre illustratif, sur l’évènement
{1 = . . . = k−1 = −1, k = +1}
le joueur perd ses (k − 1)ière mises, et gagne à la k ième . Sur cet évènement, les accroissements
du portefeuille du joueur sont donnés par
Zk = −(X1 + . . . + Xk−1 ) + Xk
A la première étape, le joueur peut gagner ou perdre une quantité d’argent proportionnelle à
sa mise X1 , et fixée à l’avance
Z1 = X1 1 = (+X1 ) 11 =1 + (−X1 ) 11 =−1
Ainsi, sur l’évènement {1 = −1}, le joueur perd sa mise
Z1 11 =−1 = −X1 11 =−1
Sur l’évènement contraire {1 = +1}, le joueur gagne l’équivalent de sa mise ; autrement dit, il
accroı̂t son portefeuille de la valeur
Z1 11 =+1 = +X1 11 =+1
1. Supposons tout d’abord que le joueur, quelque peu expérimenté, cherche à gagner le
montant des gains relatifs à sa mise initiale X1 = 1.

Une stratégie consiste à doubler la mise, jusqu’au premier instant où l’on gagne, et
l’on quitte le jeu :
 k−1
2 X1 si 1 = . . . = k−1 = −1
Xk =
0 sinon

Une réalisation possible de cette stratégie est décrite ci-dessous


X1 = 1 fixée
X2 = 2×1 si 1 = −1
X3 = 2×2×1 si 1 = −1, 2 = −1
X4 = 2×2×2×1 si 1 = −1, 2 = −1, 3 = −1
...
3.2. CONTRÔLE DE MARTINGALES 85

On note T le premier instant où le joueur gagne

T = inf {1 ≤ k ≤ n : k = 1}

avec la convention T = ∞ sur l’évènement {1 = . . . = n = −1}. Pour chaque instant


k ∈ {0, . . . , n}, on a l’équivalence entre évènements

{T = k} = {1 = . . . = k−1 = −1, k = 1}

de sorte que sur les évènements {T = k}, le joueur augmente son capital de la quantité
"k−1 # " k−1
#
X X
l−1 k−1
ZT 1T =k = 1T =k Xl l + Xk k = 1T =k − 2 +2
l=1 l=1
 
= 1T =k −(2k−1 − 1) + 2k−1 = 1T =k × 1

Par conséquent, nous avons


n
X n
X
E(ZT 1T <∞ ) = E(ZT 1T =l ) = E(1T =l )
l=1 l=1
= P(T < ∞) = 1 − P(T = ∞)
1
= 1 − P(1 = . . . = n = −1) = 1 −
2n
On notera que sur l’évènement {T = ∞}, les dettes du joueur s’élèvent à
n
X
ZT 1T =∞ = −1T =∞ 2l−1 = −1T =∞ (2n − 1)
l=1

2. Supposons qu’un joueur bien plus gourmand, cherche à augmenter son capital
proportionnellement à toutes les pertes qu’il a pu subir ! Une stratégie envisageable, mais
quelque peu coûteuse, consiste à miser à chaque instant le double des pertes totales,
jusqu’au premier instant où l’on gagne, et l’on quitte le jeu. A l’instant du gain, le joueur
aura à la fois remboursé ses dettes, et son portefeuille aura augmenté proportionnellement
à cette même somme.

Cette stratégie peut s’écrire sous la forme



2 (X1 + X2 + . . . + Xk−1 ) si 1 = . . . = k−1 = −1
Xk =
0 sinon

Une telle stratégie est équivalente à miser, jusqu’à l’instant tant attendu du gain, les
sommes suivantes

Xk = 2 (X1 + X2 + . . . + Xk−1 )
= 2 (X1 + X2 + . . . + Xk−2 + 2(X1 + X2 + . . . + Xk−2 ))
= 2 × 3 (X1 + X2 + . . . + Xk−2 )
= 2 × 3 (X1 + X2 + . . . + Xk−3 + 2(X1 + X2 + . . . + Xk−3 ))
= 2 × 32 (X1 + X2 + . . . + Xk−3 )
...
= 2 × 3k−2 (pour tout k ≥ 2)
86 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Cette stratégie consiste donc à triplé la mise, jusqu’au premier instant où l’on gagne,
et l’on quitte le jeu :

3 Xk−1 si 1 = . . . = k−1 = −1
Xk =
0 sinon

Comme précédemment, on note T le premier instant où le joueur gagne, avec la convention

{T = ∞} = {1 = . . . = n = −1}

Pour chaque instant k ∈ {0, . . . , n}, on a l’équivalence entre évènements

{T = k} = {1 = . . . = k−1 = −1, k = 1}

Sur chacun des évènements {T = k}, avec k ≥ 2, le joueur augmente son capital de la
somme
"k−1 # " k−1
#
X X
ZT 1T =k = 1T =k Xl l + Xk k = 1T =k − Xl + X k
l=1 l=1
"k−1 #
X
= 1T =k Xl = 1T =k 3k−2
l=1

Si le joueur gagne dès le premier, ou le second instant de jeu, il accroı̂t son portefeuille
d’une unité

ZT 1T =1 = X1 1T =1 = 1 × 1T =1
ZT 1T =2 = (−X1 + X2 ) 1T =2 = 1 × 1T =2

Si la chance ne lui sourit qu’au troisième instant, il accroı̂t son portefeuille de trois unités

ZT 1T =3 = (−[X1 + X2 ] + X3 ) 1T =3 = (1 + 2) × 1T =2

Les probabilités P(T < ∞), ou P(T = ∞), pour que le joueur gagne, ou bien perde, au
cours de la partie sont données respectivement par

n
X
P(T < ∞) = P(T = k)
k=1
Xn
= P(1 = . . . = k−1 = −1, k = 1)
k=1
n
X 1 1
= k
=1− n
2 2
k=1
1
P(T = ∞) = P(1 = . . . = n−1 = −1, n = −1) =
2n
3.2. CONTRÔLE DE MARTINGALES 87

Par conséquent, nous avons


n
X
E(ZT 1T <∞ ) = E(ZT 1T =l )
l=1
n n
X 1 X l−2 1
= P(T = 1) + 3l−2 P(T = l) =
+ 3
2 2l
l=2 l=2
h  i
3 n−1
1
n  l−2
1 X 3 1 1 2 −1
= + 2 = + 2 3
2 2 2 2 2 2 −1
l=2
"  #  n−1
n−1
1 1 3 1 3
= + −1 =
2 2 2 2 2

L’accroissement moyen du portefeuille du joueur chanceux est alors donné par la formule
 n−1  
E(ZT 1T <∞ ) 1 3 1
E(ZT | T < ∞) = = / 1− n
E(1T <∞ ) 2 2 2
Néanmoins, sur l’évènement {T = ∞}, le joueur s’est endetté de
n
X
ZT 1T =∞ = −1T =∞ Xl = −1T =∞ 3n−1
l=1

D’autre part, nous avons


 n−1
1 3
E(ZT 1T =∞ ) = −3n−1 P(T = ∞) = −
2 2
Ainsi, l’endettement moyen du joueur malchanceux est alors donné par la formule
E(ZT 1T =∞ )
E(ZT | T = ∞) = = −3n−1
E(1T =∞ )
On remarquera que l’espérance de gain au cours du jeu reste nulle

E(ZT ) = E(ZT 1T <∞ ) + E(ZT 1T =∞ ) = 0

3.2.4 Jeux à conditions terminales fixées


On se donne une martingale réelle (Yk )0≤k≤n , définie sur un espace probabilisé (Ω, P), muni
de la filtration naturelle
Fk = σ(Y0 , . . . , Yk )
associée au processus (Yk )0≤k≤n . On conviendra que l’état Yk est à valeurs dans un espace
réduit à deux points {ak , bk }, sachant (Y0 , . . . , Yk−1 ). Autrement dit, il existe des couples de
v.a. (ak , bk ) ∈ Fk−1 , avec ak (ω) 6= bk (ω), et tels que

P(Yk = ak | Fk−1 ) = 1 − P(Yk = bk | Fk−1 )

Les deux exemples suivants illustrent ces modèles biphasés, plus ou moins abstraits.
Exemple 3.2.1 Soit (k )0≤k≤n une suite de v.a. réelles indépendantes, et centrées définies sur
un espace probabilisé (Ω, P). On considère la filtration naturelle

Fk = σ(0 , . . . , k )

associée à cette séquence aléatoire. Sur l’espace filtré (Ω, (F k )0≤k≤n , P), on définit la martingale

∀0 ≤ k ≤ n Yk = 0 + . . . + k = Yk−1 + k
88 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

On remarque tout d’abord que

Fk = σ(0 , . . . , k ) = σ(Y0 , . . . , Yk )

D’autre part, si les v.a. k ne prennent que deux valeurs

∀ω ∈ Ω k (ω) ∈ Ek = {uk , vk }

alors on a
∀ω ∈ Ω Yk (ω) = Yk−1 (ω) + k (ω) ∈ Yk−1 (ω) + {uk , vk }
Autrement dit, nous avons

P(Yk ∈ {ak , bk } | Fk−1 ) = 1 avec (ak , bk ) = (Yk−1 + uk , Yk−1 + vk ) ∈ Fk−1

Exemple 3.2.2 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes, et centrées définies
sur un espace probabilisé (Ω, P). On considère la filtration naturelle

Fk = σ(0 , . . . , k )

associée à cette séquence aléatoire. Sur l’espace filtré (Ω, (F k )0≤k≤n , P), on définit la martingale
exponentielle
∀0 ≤ k ≤ n Yk = (1 + 0 ) . . . (1 + k ) = Yk−1 (1 + k )
Si les v.a. k ne prennent que deux valeurs

∀ω ∈ Ω k (ω) ∈ Ek = {uk , vk } avec 0 < 1 + u k < 1 + vk

alors on a Fk = σ(Y0 , . . . , Yk ), et

∀ω ∈ Ω Yk (ω) = Yk−1 (ω) (1 + k (ω)) ∈ Yk−1 (ω) × {1 + uk , 1 + vk }

Autrement dit, nous avons

P(Yk ∈ {ak , bk } | Fk−1 ) = 1 avec (ak , bk ) = (Yk−1 × (1 + uk ), Yk−1 × (1 + vk ))

On se donne une fonction gn : Rn+1 → R. L’objectif de cette section est de trouver


une condition initiale M0 ∈ F0 , et construire une stratégie de contrôle prévisible
(Xk )1≤k≤n telle que la martingale définie ci dessous
k
X
∀0 ≤ k ≤ n M k = M0 + Xl ∆Yl
l=1

termine au temps final n, en la valeur aléatoire

Mn = gn (Y0 , . . . , Yn )

Pour résoudre ce problème de contrôle, on considère la suite de fonctions

Vk : (y0 , . . . , yk ) ∈ Rk+1 7→ Vk (y0 , . . . , yk ) ∈ R , 0≤k≤n

décrites dans la proposition 3.1.4, et définies par les formules de récurrence inverse

Vn (y0 , . . . , yn ) = gn (y0 , . . . , yn )
Vk (y0 , . . . , yk ) = E (Vk+1 (y0 , . . . , yk , Yk+1 ) | (Y0 , . . . , Yk ) = (y0 , . . . , yk ))
3.2. CONTRÔLE DE MARTINGALES 89

pour tout 0 ≤ k < n. D’après la proposition 3.1.4, le processus aléatoire

∀0 ≤ k ≤ n Vk (Y0 , . . . , Yk )

est l’unique martingale, par rapport à la filtration (Fk )0≤k≤n , dont la valeur terminale coı̈ncide
avec la v.a. recherchée
Vn (Y0 , . . . , Yn ) = gn (Y0 , . . . , Yn )
La solution de notre problème, si elle existe, nous sera donc donnée par les formules
k
X
∀0 ≤ k ≤ n Vk (Y0 , . . . , Yk ) = Mk = M0 + Xk ∆Yk
l=1

On commence par noter que la condition initiale M0 est nécessairement donnée par

M0 = V0 (Y0 )

et les accroissement de la martingale (Mk )0≤k≤n sont tels que

∀1 ≤ k ≤ n ∆Mk = Xk ∆Yk = Vk (Y0 , . . . , Yk−1 , Yk ) − Vk−1 (Y0 , . . . , Yk−1 )

Autrement dit, en raisonnant conditionnellement aux valeurs (Y0 , . . . , Yk−1 ), nous avons

Xk (ak − Yk−1 ) = Vk (Y0 , . . . , Yk−1 , ak ) − Vk−1 (Y0 , . . . , Yk−1 )


Xk (bk − Yk−1 ) = Vk (Y0 , . . . , Yk−1 , bk ) − Vk−1 (Y0 , . . . , Yk−1 )

Une simple soustraction de ces deux équations nous conduit à la valeur prévisible du processus
de contrôle prévisible
Vk (Y0 , . . . , Yk−1 , bk ) − Vk (Y0 , . . . , Yk−1 , ak )
Xk = ∈ Fk−1
(bk − ak )
Nous arrivons ainsi au théorème suivant.

Théorème 3.2.1 Pour toute fonction gn : Rn+1 → R, il existe une unique v.a.
initiale M0 ∈ F0 , et un unique processus de contrôle prévisible Xk ∈ Fk−1 , 1 ≤ k ≤ n,
tel que la martingale
k
X
∀0 ≤ k ≤ n M k = M0 + Xk ∆Yk
l=1

se termine en Mn = gn (Y0 , . . . , Yn ). De plus, le couple (M0 , (Xk )1≤k≤n )est donnée


par les formules

M = V0 (Y0 )
 0

 Vk (Y0 , . . . , Yk−1 , bk ) − Vk (Y0 , . . . , Yk−1 , ak )


 Xk
 =
(bk − ak )

où (Vk )0≤k≤n désigne la famille de fonctions définies par les formules de récurrence
inverse

Vk (y0 , . . . , yk ) = E (Vk+1 (y0 , . . . , yk , Yk+1 ) | (Y0 , . . . , Yk ) = (y0 , . . . , yk ))

avec la condition terminale Vn = gn .


90 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Preuve:
D’après la discussion précédente, il reste bien entendu à vérifier que la stratégie obtenue répond
bien à notre problème. On commence par remarquer que l’on a

Xk ∆Yk = Xk (bk − Yk−1 ) 1Yk =bk + Xk (ak − Yk−1 ) 1Yk =ak

D’autre part, en utilisant le fait que Yk est une martingale, on obtient la propriété suivante

Yk−1 = E(Yk | Fk−1 ) = ak P(Yk = ak | Fk−1 ) + bk P(Yk = bk | Fk−1 )

de sorte que

(bk − Yk−1 ) = bk − (ak P(Yk = ak | Fk−1 ) + bk P(Yk = bk | Fk−1 ))


= bk (P(Yk = ak | Fk−1 ) + P(Yk = bk | Fk−1 ))
− (ak P(Yk = ak | Fk−1 ) + bk P(Yk = bk | Fk−1 ))
= (bk − ak )P(Yk = ak | Fk−1 )

et

(ak − Yk−1 ) = ak − (ak P(Yk = ak | Fk−1 ) + bk P(Yk = bk | Fk−1 ))


= ak (P(Yk = ak | Fk−1 ) + P(Yk = bk | Fk−1 ))
− (ak P(Yk = ak | Fk−1 ) + bk P(Yk = bk | Fk−1 ))
= (ak − bk )P(Yk = bk | Fk−1 )

On en déduit que l’on a

(bk − Yk−1 ) 1Yk =bk + (ak − Yk−1 ) 1Yk =ak

= (bk − ak ) (P(Yk = ak | Fk−1 )1Yk =bk − P(Yk = bk | Fk−1 ) 1Yk =ak )

Par définition de Xk , ceci entraı̂ne que

Xk ∆Yk = (Vk (Y0 , . . . , Yk−1 , bk ) − Vk (Y0 , . . . , Yk−1 , ak ))


× (P(Yk = ak | Fk−1 )1Yk =bk − P(Yk = bk | Fk−1 ) 1Yk =ak )

Notons enfin que

P(Yk = ak | Fk−1 )1Yk =bk − P(Yk = bk | Fk−1 ) 1Yk =ak

= P(Yk = ak | Fk−1 ) (1 − 1Yk =ak ) − P(Yk = bk | Fk−1 ) 1Yk =ak

= P(Yk = ak | Fk−1 ) − 1Yk =ak

= (1Yk =bk − P(Yk = bk | Fk−1 ))

On en conclut que

Xk ∆Yk = Vk (Y0 , . . . , Yk−1 , bk ) × (1Yk =bk − P(Yk = bk | Fk−1 ))


+Vk (Y0 , . . . , Yk−1 , ak ) × (1Yk =ak − P(Yk = ak | Fk−1 ))
= Vk (Y0 , . . . , Yk ) − E(Vk (Y0 , . . . , Yk ) | Fk−1 )
= Vk (Y0 , . . . , Yk ) − Vk−1 (Y0 , . . . , Yk−1 ) = ∆Vk (Y0 , . . . , Yk )

Il en découle que Mk = Vk (Y0 , . . . , Yk ), pour tout 0 ≤ k ≤ n.


3.2. CONTRÔLE DE MARTINGALES 91

Pour conclure, supposons que la martingale (Yk )0≤k≤n forme un processus de Markov,
et la fonction gn ne dépend que du point terminal

gn (y0 , . . . , yn ) = hn (yn )

avec hn une fonction donnée. Dans ces conditions, et d’après les propriétés de Markov,
les fonctions (Vk )0≤k≤n définies par les formules de récurrence inverse ne dépendent
que du point terminal

Vk (y0 , . . . , yk ) = Wk (yk ) = E(Wk+1 (Yk+1 ) | Yk = yk )

Dans ces conditions, la stratégie de contrôle (M0 , (Xk )1≤k≤n ) s’exprime plus
simplement par les formules

Wk (bk ) − Wk (ak )
M0 = V0 (Y0 ) et Xk = (3.3)
(bk − ak )

3.2.5 Problème d’arrêt de Snell


Soit (Zk )0≤k≤n une suite de nombres réels aléatoire représentant les gains successifs d’un
joueur au cours du temps. Nous conviendrons que ces v.a. forment un processus sur un espace
probabilisé filtré (Ω, (Fk )0≤k≤n ). Autrement dit, les v.a. Zk sont adaptés à une filtration
d’algèbre Fk représentant l’information dont dispose le joueur sur les résultats du jeu à chaque
instant k
∀0 ≤ k ≤ n Z k ∈ Fk
Lorsque les algèbres sont réduites à l’algèbre triviale sur Ω, les v.a. Z k sont nécessairement
constantes
Fk = {∅, Ω} =⇒ ∃zk ∈ R t.q. ∀ω ∈ Ω Zk (ω) = zk

A chaque étape k du jeu, notre joueur a pour objectif de quitter le jeu en optimisant
son espérance de gain. A cet instant k, le joueur dispose d’une information Fk , et
souhaite trouver un temps d’arrêt Tk avec Tk ≥ k, et tel que

Uk =déf. E(ZTk | Fk ) = sup E(ZT | Fk )


T ∈Tk

où Tk désigne l’ensemble des temps d’arrêts T supérieurs ou égaux à k. La suite


(Uk )0≤k≤n que nous venons de définir est appelée l’enveloppe de Snell du
processus (Zk )0≤k≤n .
92 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Cas déterministe
Dans le cas déterministe où les Fk sont réduites à des algèbres triviales, l’ensemble Tk est
réduit à l’ensemble des entiers de k à n. Dans cette situation, l’enveloppe de Snell de la suite
de réel (zk )0≤k≤n est aussi déterministe Uk (ω) = uk , tout comme le temps d’arrêt optimal
Tk (ω) = tk introduit ci-dessus. L’indice tk correspond à un instant sur lequel ztk est supérieur
à toutes les valeurs zk , zk+1 , . . . , zn . Dans ces conditions, nous avons

 Tk = {k, k + 1, . . . , n}
∀0 ≤ k ≤ n Fk = {∅, Ω} =⇒ ∀0 ≤ k ≤ n

uk = ztk = supl≥k zl

L’enveloppe de Snell (uk )0≤k≤n = (ztk )0≤k≤n , associée à une suite de réel (zk )0≤k≤n , peut être
décrite schématiquement par le diagramme suivant.

z(k)

uk z(tk)

z(n)

z(0)

0 l t(t) k t(k)

Fig. 3.1 – Enveloppe de Snell

On peut noter que le suprémum des zk peut être atteint en différents instants. Le premier de
ces indices
tk = inf {k ≤ t ≤ n : zt = sup zl }
l≥k

correspond au premier instant où la suite (zt )k≤t≤n touche l’enveloppe de Snell (ut )k≤t≤n
D’autre part, nous avons

tk = inf {k ≤ t ≤ n : zt = sup zl } = k 1zk ≥uk + tk+1 1zk <uk


l≥k

Par conséquent, ces instants (tk )0≤k≤n peuvent se calculer par les formules de récurrence inverse

tn = n =⇒ z tn = supt=n zt
tn−1 = (n − 1) 1zn−1 ≥ztn + tn 1zn−1 <ztn =⇒ ztn−1 = supt∈{n−1,n} zt
tn−2 = (n − 2) 1zn−2 ≥ztn−1 + tn−1 1zn−2 <ztn−1 =⇒ ztn−2 = supt∈{n−2,n−1,n} zt
... = ...
tk = k 1zk ≥ztk+1 + tk+1 1zk <ztk+1 =⇒ z tk = supt∈{k,k+1,...,n} zt
... = ...
t0 = 0 1z0 ≥zt1 + t1 1z0 <zt1 =⇒ z t0 = supt∈{0,...,n} zt

La suite (tk )0≤k≤n correspondant à la situation examinée dans la figure précédente est donnée
ci dessous
3.2. CONTRÔLE DE MARTINGALES 93

z(k)

uk z(tk)

z(n)

z(0)

0 l t(t) k t(k)

t(k)

0 l k n

Fig. 3.2 –
94 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

Cas aléatoire
Dans le cas aléatoire, la situation peut se résoudre de façon similaire en introduisant la suite
de temps d’arrêt (Tk )0≤k≤n définie par les formules de récurrence inverse
Tn = n
Tk = k 1Zk ≥E(ZTk+1 | Fk ) + Tk+1 1Zk <E(ZTk+1 | Fk )

Pour vérifier que ces temps d’arrêt répondent au problème de Snell, on raisonne par
récurrence inverse sur le paramètre temporel.
– Pour l’horizon terminal k = n, l’ensemble Tn des temps d’arrêt supérieur à n est réduit
au temps d’arrêt déterministe Tn (ω) = n. Dans cette situation, il est clair que l’on a
Tn (ω) = n ⇒ ZTn (ω) = Zn (ω) ⇒ E(ZTn | Fn ) = Zn = sup E(ZT | Fn )
T ∈Tn

– (k + 1) ⇒ (k) : Supposons que l’on a au rang (k + 1)


E(ZTk+1 | Fk+1 ) = sup E(ZT | Fk+1 )
T ∈Tk+1

Par définition de Tk , on obtient la décomposition


ZTk = Zk 1Zk ≥E(ZTk+1 | Fk ) + ZTk+1 1Zk <E(ZTk+1 | Fk )

Après avoir noté que


Zk et E(ZTk+1 | Fk ) ∈ Fk
on en déduit que
E(ZTk | Fk ) = Zk 1Zk ≥E(ZTk+1 | Fk ) + E(ZTk+1 | Fk ) 1Zk <E(ZTk+1 | Fk )

On en conclut que

E(ZTk | Fk ) = Zk ∨ E(ZTk+1 | Fk )

Le temps d’arrêt Tk étant dans Tk , nous obtient la majoration


E(ZTk | Fk ) = Zk ∨ E(ZTk+1 | Fk ) ≤ sup E(ZT | Fk )
T ∈Tk

Notons enfin que pour tout T ∈ Tk , nous avons la décomposition suivante


T = k 1T =k + T 1T ≥(k+1) = k 1T =k + (T ∨ (k + 1)) 1T ≥(k+1)
avec
{T = k}, {T ≥ (k + 1)} ∈ Fk et (T ∨ (k + 1)) ∈ Tk+1 ⊂ Tk
En prenant les espérances par rapport à Fk , et en utilisant notre hypothèse de récurrence,
nous arrivons aux majorations suivantes
∀T ∈ Tk E(ZT | Fk ) = Zk 1T =k + E(ZT ∨(k+1) | Fk ) 1T ≥(k+1)

= Zk 1T =k + E( E(ZT ∨(k+1) | Fk+1 ) | Fk ) 1T ≥(k+1)

≤ Zk 1T =k + E( supS∈Tk+1 E(ZS | Fk+1 ) | Fk ) 1T ≥(k+1)

= Zk 1T =k + E( E(ZTk+1 | Fk+1 ) | Fk ) 1T ≥(k+1)

= Zk 1T =k + E(ZTk+1 | Fk ) 1T ≥(k+1)

≤ Zk ∨ E(ZTk+1 | Fk )
3.2. CONTRÔLE DE MARTINGALES 95

En prenant le suprémum sur tous les T ∈ Tk , on en conclut que

E(ZTk | Fk ) = Zk ∨ E(ZTk+1 | Fk ) = sup E(ZT | Fk )


T ∈Tk

Autrement dit, en terme d’enveloppe de Snell, nous avons démontré les majorations, et
les formules de récurrence inverse suivantes :

 
Zk ≤ Zk ∨ E(Uk+1 | Fk ) = Uk =déf. sup E(ZT | Fk ) = E(ZTk | Fk )
T ∈Tk

Comme dans le cas déterministe, l’enveloppe de Snell majore la suite Zk , et les temps
d’arrêt Tk correspondent aux premiers instants de rencontre entre ces deux processus

Tk = inf {k ≤ t ≤ n : Zt = Ut }

Pour vérifier cette assertion, on note simplement que l’on a

Tk = k 1Zk ≥E(Uk+1 |Fk ) + Tk+1 1Zk <E(Uk+1 |Fk )


| {z } | {z }
m m
Uk = Z k Uk > Z k
m
Uk = E(Uk+1 | Fk )
96 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES

3.2.6 Exercices
Exercice 3.2.1 Vérifier que les fonctions constantes T (ω) = k, sont des temps d’arrêts par
rapport à une filtration quelconque d’algèbre.
Exercice 3.2.2 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans un espace E, et défini
sur un espace probabilisé filtré (Ω, (Fk )0≤k≤n ). On convient que le processus est initialisé avec
une v.a. X0 à valeurs dans une région A ⊂ E donnée. Montrer que le temps de sortie S A de A
SA = inf {0 ≤ k ≤ n : Xk 6∈ A}
est un temps d’arrêt. On note enfin TB l’instant d’impact du processus dans une région B ⊂ E
TB = inf {0 ≤ k ≤ n : Xk ∈ B}
Montrer que TB est un temps d’arrêt. Pour éviter des discussions inutiles, on pourra supposer
que A ∩ B = ∅.
Exercice 3.2.3 Soit T un temps d’arrêt par rapport à une filtration donnée (F k )leqk≤n .
On considère une sous-martingale (Mk )0≤k≤n sur l’espace probabilisé filtré (Ω, (Fk )leqk≤n , P).
Montrer que le processus arrété (MkT )0≤k≤n est une sous-martingale. Vérifier enfin que le
processus arrêté (MkT )0≤k≤n d’une sur-martingale est à nouveau une sur-martingale.
Exercice 3.2.4 On note (Zk )1≤k≤n le processus des gains et pertes du joueur
k
X
∀1 ≤ k ≤ n Zk = Xl  l
l=1

Le processus prévisible (Xk )1≤k≤n représente la stratégie utilisée par le joueur, les v.a. de
Bernoulli (k )1≤k≤n , à valeurs dans {−1, +1}, représente les gains et pertes aléatoires, à chaque
étape du jeu. Plutôt que de miser le double des pertes subies au cours du jeu, qui peut s’avérer
trop coûteux, le joueur peut aussi envisager de ne miser qu’une plus faible proportion (1+α) > 1
de ce pertes.
1. Proposer un modèle probabiliste associé à cette stratégie d’arrêt.
2. Montrer que l’on a
ZT 1T =k = α (2 + α)k−2 1T =k
3. Vérifier que
1  α n−1
E(ZT 1T <∞ ) = 1+
2 2
Exercice 3.2.5 Soit (Yk )0≤k≤n un processus de Markov, à valeurs dans les espaces (Ek )0≤k≤n ,
de probabilités de transitions (Mk )0≤k≤n , et de loi initiale η0 . On associe à toute fonction fn
sur En , le processus (Zk (fn ))0≤k≤n défini par
∀0 ≤ k ≤ n Zk (fn ) = E(fn (Yn ) | Yk ) = Mk+1 Mk+2 . . . Mn (fn )(Yk )
avec la convention Mk+1 Mk+2 . . . Mn = Id, lorsque k = n.
1. Montrer que (Zk (fn ))0≤k≤n est une martingale par rapport à la filtration naturelle
(FkY )0≤k≤n associée au processus (Yk )0≤k≤n .
2. On considère la suite de fonctions (Vk )0≤k≤n définies par la formule de récurrence inverse
Vn (yn ) = fn (yn )
Vk (yk ) = E(Vk+1 (Yk+1 ) | Yk = yk )
Montrer que l’on a
∀0 ≤ k ≤ n Vk = Mk+1 Mk+2 . . . Mn (fn )
En déduire que le processus (Vk (Yk ))0≤k≤n coı̈ncide avec (Zk (fn ))0≤k≤n .
3.2. CONTRÔLE DE MARTINGALES 97

Exercice 3.2.6 Soit (Zk )0≤k≤n une suite de nombres réels aléatoire sur un espace probabilisé
filtré (Ω, (Fk )0≤k≤n ). Soit (Uk )0≤k≤n l’enveloppe de Snell associée à (Zk )0≤k≤n définie par la
formule suivante
Uk =déf. = sup E(ZT | Fk ) (≥ Zk )
T ∈Tk

où Tk désigne l’ensemble des temps d’arrêts T supérieurs ou égaux à k. On note (T k )0≤k≤n les
temps d’arrêt correspondent aux premiers instants de rencontre entre ces deux processus

Tk = inf {k ≤ t ≤ n : Zt = Ut }

1. Vérifier que l’on a


∀k ≤ l < Tk Zl < U l
2. Montrer que les processus arrêtés (UlTk )l≥k , avec 0 ≤ k ≤ n, sont des martingales.
3. Vérifier que l’on a
∀k ≤ l ≤ n E(ZTk | Fl ) = UlTk

Exercice 3.2.7 Soit (Xk )0≤k≤n une chaı̂ne de Markov à valeurs dans des espaces (Ek )0≤k≤n ,
et définie sur un espace probabilisé filtré canonique (Ω, (FkX )0≤k≤n ). Soit (Uk )0≤k≤n l’enveloppe
de Snell associée à la suite de nombres aléatoires (Zk )0≤k≤n définie par

Zk = gk (Xk )

où (gk )0≤k≤n désigne une suite de fonctions numériques sur les espaces (Ek )0≤k≤n .
1. On note Mk (xk−1 , xk ) les probabilités de transitions de la chaı̂ne Xk

P(Xk = xk | Xk−1 = xk−1 ) = Mk (xk−1 , xk )

Montrer que l’enveloppe de Snell (Uk )0≤k≤n peut s’écrire sous la forme suivante

Uk = Uk (Zk )

avec la suite de fonctions (Uk )0≤k≤n sur les espaces (Ek )0≤k≤n définies par les formules
de récurrence inverse

Un (xn ) = gn (xn )
Uk (xk ) = gk (xk ) ∨ Mk+1 (Uk+1 )(xk ) (= gk (xk ) ∨ E(Uk+1 (Xk+1 ) | Xk = xk ))
98 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Chapitre 4

Mathématiques financières

4.1 Petit dictionnaire financier

4.1.1 Activité des marchés

Un marché financier est représenté par l’évolution d’un certain nombre d’actifs. Ces actifs
sont parfois appelés des titres, ou des actions. L’évolution temporelle du prix d’une part d’un
titre est représenté par la donnée d’une chaı̂ne de Markov (Sk )0≤k≤n . Dans ces notes, nous ne
considérerons que des évolutions discrètes. L’unité de temps peut correspondre à une année,
un mois, une heure, une seconde, ou encore à la clôture de la bourse chaque jour à 17 heures.
Afin de simplifier l’exposé, nous n’examinerons que des marchés à deux titres (Sk1 )0≤k≤n , et
(Sk2 )0≤k≤n :
Le premier actif Sk1 , joue un rôle bien particulier. Il représente le cours d’un titre non risqué,
tel un livret de caisse d’épargne, un bon du trésor à taux fixe ou prévisible, ou encore une
obligation. Les obligations sont des dettes d’entreprises rémunérées à taux fixe, et convertibles
en actions, en cas de croissance. Le second actif Sk2 joue lui aussi un rôle bien particulier. Il
représente le cours d’une part d’un titre risqué, tel les actions de compagnie privées cotées en
bourse.
Le paramètre n joue le rôle d’un horizon temporel, et terminal fixé, souvent appelé horizon
du marché. Dans l’étude qui suit, il représente à la fois, le temps d’observation du marché, ainsi
que la date d’échéance des activités économiques considérées.

Nous représenterons l’évolution aléatoire des actifs par le couple d’équations



∆Ski = Sk−1 i
∆Uki avec 1 ≤ k ≤ n
i = 1, 2

et les conditions initiales S0i , i = 1, 2, Les processus aléatoires (Uki )0≤k≤n , i = 1, 2,


représentent les rendements des titres pendant une unité de temps.

Nous conviendrons pour simplifier, que ces rendements sont discrets, en ce sens où les v.a.
Uki sont à valeurs dans des espaces finis. Cette hypothèse est assez réaliste car les processus
de prix Ski correspondent à des informations bancaires, ou à des cotations boursières, toujours
données avec un nombre fini de chiffres après la virgule.

99
100 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

L’information dont dispose un investisseur au temps k est modélisée par la donnée


d’une algèbre finie Fk , c’est à dire engendrée par une partition finie d’un ensemble fini
d’aléas Ω. On conviendra que F0 = {∅, Ω}, pour souligner que les prix (S01 , S02 ) des
titres à la date initiale sont connus. On conviendra enfin que l’investisseur possède de
plus en plus d’information au cours du temps. Plus formellement, on supposera que
(Fk )0≤k≤n est une filtration croissante d’algèbres sur Ω

F0 ⊂ F1 ⊂ . . . ⊂ Fn−1 ⊂ Fn = P(Ω)

L’algèbre terminale contenant toute l’information sur les évolution des prix jusqu’à
l’échéance, coı̈ncide avec l’algèbre engendrée par les singletons {ω} de tous les
évènements élémentaires de Ω. Autrement dit, les investisseurs ont de plus en plus
d’information, et à la date d’échéance n, ils peuvent déterminer avec certitude la
succession des aléa qui se sont produits.

Le choix de l’espace probabilisé filtré (Ω, (Fk )0≤k≤n , P) est loin d’être unique. Néanmoins,
comme les cours des actions (S02 , . . . , Sk2 ) sont connus au temps k, on doit avoir

Fk ⊃ σ(S02 , . . . , Sk2 )

D’autre part, puisque l’investisseur peut prévoir l’évolution de l’actif sans risque à chaque
date k, les taux d’intérêts instantanés ∆Uk1 de ces actifs sont prévisibles

∆Uk1 ∈ Fk−1

Autrement dit, à la date k, l’investisseur connaı̂t Uk1 . Ceci se traduit mathématiquement par le
fait que la v.a. est Fk−1 mesurable, ce que l’on note Uk1 ∈ Fk−1 .
Il en est tout autrement de l’évolution du cours de l’actif risqué. Au temps (k − 1),
l’investisseur ne connaı̂t pas Uk2 . Il doit attendre la prochaine cotation au temps k. Plus
formellement, nous avons
∆Uk2 ∈ Fk
Par construction, le processus de prix (Sk1 , Sk2 )0≤k≤n est une chaı̂ne de Markov discrète, et
adaptée à la filtration (Fk )0≤k≤n . On conviendra que les prix des actifs Ski sont des v.a.
strictement positives.
L’actif Sn1 étant sans risque, il est naturel de considérer que

∀1 ≤ k ≤ n ∆Uk1 ≥ 0

Cette hypothèse conduit à une évolution favorable du titre non risqué

Sk1 = (1 + ∆Uk1 ) Sk−1


1 1
≥ Sk−1

Pour simplifier l’analyse du marché, et sans perdre de généralité, nous supposerons


que S01 = 1. La valeur de l’actif sans risque au temps k est alors donnée par la formule
produit
Yk Xk
Sk1 = (1 + ∆Ul1 ) =déf. Ek (U 1 ) avec Uk1 = ∆Ul1
l=1 l=1

Ainsi par exemple, un investissement initial de S01 = 1 Euro dans l’actif sans risque permet
de disposer de Sk1 = Ek (U 1 ) Euros, après k unités de temps. Lorsque le taux d’intérêt par unité
de temps est constant, et déterministe

∆Uk1 = r
4.1. PETIT DICTIONNAIRE FINANCIER 101

cet investissement sans risque rapporte


Sk1 = Ek (U 1 ) = (1 + r)k Euros
Ce gain peut aussi s’interpréter comme une dépréciation monétaire de l’euro par rapport à une
autre monnaie de référence plus forte. Le coefficient
1
βk = (≤ 1)
Ek (U 1 )
correspond alors à la valeur d’un euro dans cette monnaie.

Le prix réactualisé d’une action Ski est alors défini par la quantité
i
S k = βk Ski = Ek (U 1 )−1 Ski

1
On notera que la valeur de l’actif sans risque réactualisés S k = 1 peut s’interpréter comme une
unité monétaire de référence. On remarque aussi que le prix réactualisé de l’actif risqué, calculé
dans cette monnaie de référence et plus forte, est toujours inférieur au prix courant
2
S k = Ek (U 1 )−1 Sk2 ≤ Sk2
Pour conclure, notons que l’actif sans risque peut aussi être interprété comme la
rémunération d’un prêt financier. Dans ce contexte, S01 = 1 Euro prêté, rapportera Sk1 Euros à
son investisseur, après k unités de temps. Ainsi, un investisseur proposant un prêt de 100.000
Euros, avec un taux d’intérêt fixe de R = 4% par an, s’assure une rémunération de 4.000
Euros dans l’année. Pour estimer le rendement quotidien r, dans un marché journalier, on doit
résoudre l’équation
1
(1 + r)365 = 1 + R = 1, 04 =⇒ r = 1, 04 365 − 1 ' 1, 0746 10−4
Les 100.000 Euros rapportent ainsi
100.000 × 1, 0746 10−4 = 10, 746 Euros
par jour, et dans l’année
100.000 × (1 + r)365 = 100.000 × (1 + R) = 100.000 + 4.000 = 104.000 Euros
Exercice 4.1.1 On considère le modèle de marché suivant
Ω S0 = (S01 , S02 ) S1 = (S11 , S12 )
ω1 (1; 4) (1, 05; 5)
ω2 (1; 4) (1, 05; 10)
1. Construire l’arbre des épreuves représentant l’évolution de ce marché financier.
2. On note F0 = σ(S0 ), et F1 = σ(S0 , S1 ) les algèbres représentant l’information disponible
à l’origine, et au temps 1. Montrer que
F0 = {∅, Ω} et F1 = {∅, Ω, {ω 1}, {ω 2 }} = P(Ω)
∆S11
3. Calculer le taux d’intérêt r = S01
de l’actif sans risque.

Exercice 4.1.2 Résoudre les mêmes questions que celles posées dans l’exercice 4.1.1 pour le
modèle de marché financier suivant
Ω S0 = (S01 , S02 ) S1 = (S11 , S12 ) S2 = (S21 , S22 )
ω1 (1; 5) (1, 05; 10) (1, 10; 20)
ω2 (1; 5) (1, 05; 5) (1, 10; 10)
ω3 (1; 5) (1, 05; 5) (1, 10; 5)
102 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

4.1.2 Gestion de portefeuilles

Le portefeuille d’un investisseur possède à chaque instant k un certain nombre de


parts Φ1k du titre non risqué, et un nombre de parts Φ2k du titre risqué. La valeur de
ce portefeuille au temps k est ainsi donné par

Vk (Φ) = Φ1k Sk1 + Φ2k Sk2

Contrairement aux valeurs des titres Ski , les v.a. Φik peuvent être négatives. Si Φ1k est négatif,
cela signifie qu’il y a eu vente à découvert de (−Φ1k ) parts du titre non risqué. Vendre à découvert
signifie dans le jargon financier que l’on vend des actions que l’on ne possède pas ! On peut
aussi interpréter le cas où Φ1k est négatif comme un emprunt, et une dette de (−Φ1k Sk1 ) Euros.
Cette situation peut encore refléter la prise en pension, ou le rachat de (−Φ1k ) parts de titres
non risqués (au coût Sk1 ). Dans tous les cas, lorsque Φ1k est négatif, on reçoit une somme de
(−Φ1k Sk1 ) Euros, à investir si possible sur des actifs risqués pour rembourser la dette.
Le cas où Φ1k est positif correspond plutôt à une vente de Φ1k titres non risqués, et à un
gain de (Φ1k Sk1 ) Euros.
A titre illustratif, examinons les stratégies de gestion de portefeuilles dans un marché
financier sur deux périodes de temps. Tout d’abord, on remarquera que la valeur d’un
portefeuille initial formé de Φi0 parts de titres §i0 est donné par

V0 (Φ) = Φ10 S01 + Φ20 S02 = Φ10 + Φ20 S02

Si V0 (Φ) ≥ 0, on doit débourser V0 (Φ) Euros pour son acquisition. Si au contraire V0 (Φ) < 0,
nous recevrons (−V0 (Φ)) Euros lors de son acquisition. L’investisseur réaménage son portefeuille
en Φi1 parts de titres S0i , de sorte à avoir

Φ11 S01 + Φ21 S02 = V0 (Φ)(= Φ10 S01 + Φ20 S02 )

Autrement dit, en liquidant le portefeuille initial V0 (Φ), l’investisseur possède un montant de


V0 (Φ) Euros pour acheter le portefeuille Φ1 = (Φ11 , Φ21 ).
A l’instant suivant, les prix (S11 , S12 ) sont annoncés, et le portefeuille prend la valeur

V1 (Φ) = Φ11 S11 + Φ21 S12

A cet instant l’investisseur peut profiter de l’information qu’il a acquise F1 = σ(S0 , S1 ), pour
modifier son portefeuille. Avec le montant obtenu lors de l’opération initiale V1 (Φ), il réaménage
son portefeuille en Φ2 = (Φ12 , Φ22 ), de sorte que

Φ12 S11 + Φ22 S12 = V1 (Φ)(= Φ11 S21 + Φ21 S12 )

Comme précédemment, en liquidant V1 (Φ), l’investisseur possède un montant V1 (Φ) pour


acheter le portefeuille Φ2 . A l’annonce des prix des titres à l’instant k = 2, la valeur du
portefeuille associée à cette stratégie d’investissement Φ2 , est donnée par

V2 (Φ) = Φ12 S21 + Φ22 S22

Dans la description précédente, nous avons implicitement supposé que les stratégies de
gestion Φk = (Φ1k , Φ2k ) de portefeuilles sont prévisibles et autofinancées.

La condition de prévisibilité souligne le fait que l’investisseur, à la date (k−1), doit


choisir la répartition Φk des titres de son portefeuille pour la date k, avec l’information
Fk−1 dont il dispose à cette date. La valeur de ce portefeuille à la clôture de la séance
boursière du lendemain sera Vk (Φ).
4.1. PETIT DICTIONNAIRE FINANCIER 103

La condition d’autofinancement caractérise le comportement d’un investisseur


réorganisant son portefeuille entre la date k et (k + 1), et réaménageant ses actifs
Φk Φk+1 de façon à conserver la valeur totale du portefeuille

Φ1k+1 Sk1 + Φ2k+1 Sk2 = Vk (Φ) = Φk Sk1 + Φ2k Sk2

En terme des variations des quantités d’actifs, cette condition d’autofinancement est équivalente
au fait que
∆Φ1k+1 × Sk+11
+ ∆Φ2k+1 × Sk+12
=0
L’autofinancement met ainsi de coté les investisseurs prélevant une partie des gains
réalisés, ou injectant de l’argent frais pour couvrir les pertes subies. On notera que cette est
automatiquement vérifiée dès lors que l’investisseur est passif, c’est à dire lorsque Φ k = Φk+1 . On
remarquera enfin que les variations des valeurs des portefeuilles autofinancés sont uniquement
liées aux variations des prix des actifs

∆Vk+1 (φ) = Vk+1 (φ) − Vk (φ)


1
= Φ1k+1 [Sk+1 − Sk1 ] + Φ2k+1 [Sk+1
2
− Sk2 ]
= Φ1k+1 ∆Sk+1
1
+ Φ2k+1 ∆Sk+1
2

Une opportunité d’arbitrage est une stratégie de gestion de portefeuille


(Φk )0≤k≤n vérifiant les trois conditions suivantes :

1. ∀ω ∈ Ω V0 (Φ)(ω) = 0.
2. ∀ω ∈ Ω Vn (Φ)(ω) ≥ 0.
3. ∃ω ∈ Ω Vn (Φ)(ω) > 0.

Autrement dit, une telle stratégie permet , avec un investissement initial nul (1), et sans essuyer
de pertes (2), d’avoir à l’échéance k = n la possibilité de réaliser un gain (3).

Nous dirons qu’un marché financier est viable s’il n’existe aucune opportunité
d’arbitrage.

4.1.3 Options européennes financières

Une option européenne est un droit conditionnel intervenant initialement entre deux
parties : le vendeur et l’acheteur. A une date d’échéance n, elle permet à l’acquéreur
de vendre ou acheter une part du titre risqué à un prix K fixé initialement, et appelé
prix d’exercice. Il existe deux types d’options. Les options de vente, et les options
d’achat, appelées parfois sur les marchés financiers les “put”et les “call”.

– Une option (européenne) de vente (un “put”), permet à l’acquéreur de vendre une
part du titre risqué à un prix K fixé initialement, et appelé prix d’exercice.
Deux cas se présentent : Si Sn2 < K, l’acquéreur vendra sa part de titre risqué à un
montant K (bien) supérieur à celui qu’il obtiendrait sur le marché financier, soit au prix
Sn2 . Par contre, si Sn2 ≥ K, l’acquéreur n’exercera pas son option, car il obtiendra un
meilleur prix sur le marché.
104 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

La fonction de paiement, ou la valeur de cette option de vente, est la v.a. donnée par
la formule
f = (K − Sn2 )+
– Une option (européenne) d’achat (un “call”), permet à l’acquéreur d’acheter une
part du titre risqué à un prix K fixé initialement, et appelé prix d’exercice.
Deux cas se présentent : Si Sn2 > K, l’acquéreur achètera sa part de titre risqué à un
montant K (bien) inférieur à celui qu’il obtiendrait sur le marché financier, soit au prix
Sn2 . Par contre, si K ≥ Sn2 , l’acquéreur n’exercera pas son option, car il pourra acheter le
titre risqué à un meilleur prix sur le marché.
La fonction de paiement, ou la valeur de cette option de vente, est la v.a. donnée par
la formule
f = (Sn2 − K)+
Le vendeur de telles options n’offrira pas de tels avantages à son client sans échange ! Le
prix de l’option, ou de ce droit conditionnel, correspond au montant versé initialement par
l’acheteur au vendeur, pour acquérir cette option.

Le vendeur de son coté acceptera tout montant lui permettant l’acquisition d’un
portefeuille dont la valeur à l’échéance n sera supérieure ou égale, à la fonction de
paiement qu’il s’est engagé à honorer. Un tel portefeuille est appelé un portefeuille
de couverture. Le plus petit montant lui permettant d’honorer sans perte ses
engagements est donné par la formule

C ? (f ) = inf {x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V0 (Φ) = x et Vn (Φ) ≥ f }

D’un autre coté, si l’acquéreur du contrat accepte de s’endetter d’un montant m


afin d’acheter ce droit conditionnel, alors il voudra en échange être en mesure de
rembourser cette dette à l’échéance n. Par conséquent, l’acquéreur souhaite pouvoir
trouver un portefeuille (−Φk )0≤k≤n de sorte à avoir

V0 (−Φ) = −m et Vn (−Φ) + f = −Vn (Φ) + f ≥ 0

Ainsi, le plus grand montant qu’il acceptera de payer est donné par la formule

C? (f ) = sup {x ∈ [0, ∞) : ∃(−Φk )0≤k≤n


t.q. V0 (−Φ) = −x et Vn (−Φ) + f ≥ 0}
= sup {x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V0 (Φ) = x et Vn (Φ) ≤ f }

La détermination rationnelle de ces prix, et la mise en place de stratégies de couverture, est


l’un des principaux objectifs des mathématiques financières.

4.1.4 Exercices
Exercice 4.1.3 On considère le modèle de marché suivant
Ω S0 = (S01 ; S02 ) S1 = (S11 ; S12 )
ω1 (1; 4) (1, 05; 5)
ω2 (1; 4) (1, 05; 10)

1. Calculer le coût d’acquisition du portefeuille initial d’un investisseur vendant à découvert


8 parts d’actifs sans risque, pour acheter 2 parts d’actifs risqué.
4.1. PETIT DICTIONNAIRE FINANCIER 105

2. Calculer les valeurs possibles du portefeuille après évolution du cours des actifs. risqués.
3. Trouver une stratégie pour gagner au moins 800 Euros à moindre frais.

Exercice 4.1.4 On considère le modèle de marché suivant


Ω S0 = (S01 ; S02 ) S1 = (S11 ; S12 )
ω1 (1; 4) (1, 05; 2)
ω2 (1; 4) (1, 05; 3)

1. Calculer le coût d’acquisition du portefeuille initial d’un investisseur vendant à découvert


2 parts d’actifs risqués, pour acheter 8 parts d’actifs sans risque. Autrement dit,
l’investisseur vend deux parts d’actions risquées qu’il ne possède pas, et dépose
immédiatement l’argent obtenu par cette vente dans un compte épargne qui rapporte 5%.
2. Calculer les valeurs possibles du portefeuille après évolution du cours des actifs.
3. Trouver une stratégie pour gagner au moins 1.200 Euros à moindre frais.

Exercice 4.1.5 On considère le modèle de marché suivant


Ω S0 = (S01 ; S02 ) S1 = (S11 ; S12 )
ω1 (1; 10) (1, 05; 5)
ω2 (1; 10) (1, 05; 10)

1. Calculer le coût d’acquisition du portefeuille initial d’un investisseur vendant à découvert


20 parts d’actifs risqués, et dépose immédiatement l’argent obtenu, soit 200 Euros, dans
un compte épargne à 5%.
2. Calculer les valeurs possibles du portefeuille après évolution du cours des actifs, lorsque
l’on rembourse nos vingt parts d’actifs risqués, et l’on conserve nos deux cents parts
d’actifs sans risques.
3. Trouver une stratégie pour gagner au moins 100 Euros à moindre frais.

Exercice 4.1.6 Montrer que le modèle de marché suivant est viable

Ω S0 = (S01 ; S02 ) S1 = (S11 ; S12 )


ω1 (1; 5) (1, 05; 10)
ω2 (1; 5) (1, 05; 5)

Exercice 4.1.7 On considère le marché viable étudié dans l’exercice 4.1.6.

Ω S0 = (S01 ; S02 ) S1 = (S11 ; S12 ) f = (7 − S12 )+


ω1 (1; 5) (1, 05; 5) 2
ω2 (1; 5) (1, 05; 10) 0

1. Calculer la valeur d’acquisition du portefeuille d’un investisseur vendant à découvert 2/5


de part de titre risqué, et achetant 4/1, 05 parts d’actifs sans risques.
2. Calculer les valeurs possibles du portefeuille, après évolution des cours des actifs.
3. En déduire que ce portefeuille permet de couvrir l’option de vente associée à la fonction
de paiement f .

Exercice 4.1.8 On reprend le modèle de marché, et la fonction de paiement, décrits dans


l’exercice 4.1.7.
1. Calculer l’endettement initial d’un investisseur empruntant 4/1, 05 parts d’actifs sans
risques, et achetant 2/5 de part de titres risqués.
2. Calculer les valeurs possibles de ce portefeuille, après l’évolution des cours du marché.
En déduire que l’acheteur de l’option f pourra, avec ce portefeuille rembourser sa dette
initiale.
106 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

Exercice 4.1.9 On reprend à nouveau le modèle de marché, et la fonction de paiement, décrits


dans l’exercice 4.1.7.
1. Caractériser les aménagement de portefeuilles initiaux dont la valeur d’acquisition vaut
1.
2. Pour de tels portefeuilles, combien de parts d’actifs risqués doit-on vendre à découvert, de
sorte à couvrir l’option dans le premier jeu d’aléa. Vérifier qu’une telle stratégie d’emprunt
ne permettra pas de couvrir l’option dans le second jeu d’aléa.
3. En conclure que le prix de l’option f est nécessairement plus élevé que 1.
Exercice 4.1.10 Soit (Ω, (Fk )0≤k≤n , P) un marché financier à deux titres. (Sk1 , Sk2 )0≤k≤n . On
convient que l’actif sans risque est donné par
S01 = 1 et Sk1 = (1 + r) Sk−1
1
= (1 + r)k avec r > 0
1 2
On note (S k , S k )0≤k≤n , et (V k (Φ))0≤k≤n les valeurs réactualisées des actifs, et des portefeuilles
définies par
i Ski Vk (Φ)
Sk = k
et V k (Φ) =
(1 + r) (1 + r)k
?
1. Vérifier que les prix C (f ), et C? (f ), associés à une option de fonction de paiement f ,
peuvent s’exprimer sous la forme suivante

C ? (f ) = inf x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V 0 (Φ) = x et V n (Φ) ≥ f

C ? (f ) = sup x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V 0 (Φ) = x et V n (Φ) ≤ f
où f = f /(1 + r)n désigne la fonction de paiement réactualisée à la date d’échéance.
2. Soit K = K/(1 + r)n le prix d’exercice réactualisé à la date d’échéance. Vérifier les
équivalences suivantes
2
f = (K − Sn2 )+ ⇐⇒ f = (K − S n )+
et
2
f = (Sn2 − K)+ ⇐⇒ f = (S n − K)+

4.2 Modèle binomial sur une période


Nous allons analyser dans cette première section, l’évolution d’un marché financier
élémentaire à deux états, sur une unité de temps n = 1. L’évolution du prix d’une part d’un
titre sans risque Sk1 , à taux d’intérêt constant ∆Uk1 = r > 0 est simplement donné par les
formules
S01 = 1 et S11 = (1 + r)
Le prix actuel d’une part du titre risqué est connu avec certitude initialement
S02 = s0 ∈ R+ = (0, ∞)
A la période suivante, S12 ne peut prendre que deux valeurs
∀ω ∈ Ω S12 (ω) ∈ {s1,1 , s1,2 } avec 0 < s1,1 < s1,2
Autrement dit, ce marché binomial évolue de deux façons différentes. Pour un certain aléa,
disons ω 1 , nous avons
S0 (ω 1 ) = (S01 (ω 1 ), S02 (ω 1 )) = (1, s0 )
S1 (ω 1 ) = (S11 (ω 1 ), S12 (ω 1 )) = ((1 + r), s1,1 )
Dans un autre contexte aléatoire, disons pour un aléa ω 2 , on a plutôt
S0 (ω 2 ) = (S01 (ω 2 ), S02 (ω 2 )) = (1, s0 )
2
S1 (ω ) = (S11 (ω 2 ), S12 (ω 2 )) = ((1 + r), s1,2 )
4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 107

Le modèle binomial sur une période correspond au tableau des épreuves suivant :

Ω S0 = (S01 , S02 ) S1 = (S11 , S12 )


ω1 (1; s0 ) ((1 + r); s1,1 )
ω2 (1; s0 ) ((1 + r); s1,2 )

Ce marché financier s’exprime donc de façon naturelle sur l’espace des aléas

Ω = {ω 1 , ω 2 }

muni de la filtration élémentaire :

F0 = σ(S0 ) = {∅, Ω} ⊂ F1 = σ(S0 , S1 ) = P(Ω) = {∅, Ω, {ω 1}, {ω 2 }}

A l’instant initial k = 0, nous acquérons le portefeuille Φ1 = (Φ11 , Φ21 ) ∈ R2 , au coût

V0 (Φ) = Φ11 S01 + Φ21 S02 = Φ11 + Φ21 s0

A l’instant suivant, les nouveaux prix des actifs S1 = (S11 , S12 ) sont annoncés, et notre portefeuille
prend la valeur
V1 (Φ) = Φ11 S11 + Φ21 S12 = Φ11 (1 + r) + Φ21 S12

4.2.1 Point de vue des essences


Nous allons analyser les opportunités d’arbitrage, et estimer les prix des options de vente,
sans faire appel à un quelconque raisonnement probabiliste. Cette approche nécessite un examen
précis des différentes situations (aléatoires) pouvant se produire. Dans le cadre de marché fiables,
les prix des options de vente, s’expriment simplement en terme d’un problème d’optimisation.

Trois cas se présentent :

– Cas 1 : s0 (1 + r) ≤ s1,1 < s1,2

– Cas 2 : s1,1 < s1,2 ≤ s0 (1 + r)

– Cas 3 : s1,1 < s0 (1 + r) < s1,2

Dans les deux premiers cas, les stratégies d’arbitrages sont claires.

Cas 1 :
Dans cette situation, les prix des actifs risqués sont toujours supérieurs aux prix des actifs
non risqués. Il est clairement plus avantageux de vendre à découvert ou emprunter le plus de
parts possibles d’actifs sans risques, pour acheter des actifs risqués.
Un portefeuille peu coûteux consiste initialement à vendre à découvert ms 0 parts d’actifs non
risqués, pour acheter m parts d’actifs risqués. Plus formellement, on aménage notre portefeuille
initial somme suit
Φ1 = (Φ11 , Φ21 ) = (−ms0 , m)
Le coût d’acquisition d’un tel portefeuille est nul :

V0 (Φ) = Φ11 + Φ21 s0 = (−ms0 ) × 1 + m × s0 = 0


108 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

A l’instant suivant k = 1, nous vendons les m parts de titres risqués, et nous remboursons
notre prêt de ms0 actifs non risqués avec les intérêts. L’aménagement du portefeuille
correspondant est donné par

Φ2 = Φ1 = (Φ11 , Φ21 ) = (−ms0 , m)

La vente de ce portefeuille nous rapporte :

V1 (Φ)(ω 1 ) = (−ms0 ) (1 + r) + m s1,1 = m [s1,1 − s0 (1 + r)] ≥ 0


V1 (Φ)(ω 1 ) = (−ms0 ) (1 + r) + m s1,2 = m [s1,2 − s0 (1 + r)] > 0

Cas 2 :

Dans cette situation, les prix des actifs non risqués sont toujours supérieurs aux prix des
actifs risqués. Ces conditions peuvent aussi refléter une conjoncture où les placements bancaires
sont à des taux si élevés, qu’il est préférable de placer son argent plutôt que d’acheter des actifs,
ici très risqués.
Il est clairement ici plus avantageux de vendre à découvert le plus de parts d’actifs risqués,
disons m parts, et placer cette somme d’argent ms0 dans un compte épargne (i.e. en investissant
dans ms0 parts d’actifs non risqués). Plus formellement, on aménage notre portefeuille initial
somme suit
Φ1 = (Φ11 , Φ21 ) = (ms0 , −m)

Le coût d’acquisition d’un tel portefeuille est toujours nul :

V0 (Φ) = Φ11 + Φ21 s0 = (ms0 ) × 1 − m × s0 = 0

A l’instant suivant k = 1, en revendant les ms0 parts de titres non risqués avec les intérêts,
nous achetons m parts d’actifs risqués. L’aménagement du portefeuille correspondant est donné
par
Φ2 = Φ1 = (Φ11 , Φ21 ) = (ms0 , −m)

La vente de ce portefeuille nous rapporte :

V1 (Φ)(ω 1 ) = (ms0 ) (1 + r) − m s1,1 = m [s0 (1 + r) − s1,1 ] > 0


V1 (Φ)(ω 1 ) = (ms0 ) (1 + r) − m s1,2 = m [s0 (1 + r) − s1,2 ] ≥ 0

Cas 3 :

Le troisième cas correspond à la situation où un investissement sur l’actif risqué peut ou non
être plus avantageux, qu’un investissement sur l’actif non risqué.
Dans cette situation, on notera qu’un défaut d’investissement initial

V0 (Φ) = Φ11 + Φ21 s0 = 0 ⇐⇒ Φ11 = −Φ21 s0

conduit à deux situation opposées, sans aucune opportunité d’arbitrage

V1 (Φ)(ω 1 ) = Φ11 (1 + r) + Φ21 s1,1 = −Φ21 [s0 (1 + r) − s1,1 ] < 0


V1 (Φ)(ω 2 ) = Φ11 (1 + r) + Φ21 s1,2 = Φ21 [s1,2 − s0 (1 + r)] > 0

En conclusion, nous avons l’équivalence suivante

Le marché est viable ⇐⇒ s1,1 < s0 (1 + r) < s1,2


4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 109

4.2.2 Prix d’options


Dans un modèle de marché viable

s1,1 < s0 (1 + r) < s1,2

une banque souhaite proposer à des investisseurs une option de vente, avec pour la date
d’échéance n = 1, la fonction de paiement f (ω i ) = fi ∈ R+ , i = 1, 2. Ce modèle de marché peut
être représenté synthétiquement par le tableau suivant :
Ω S0 = (S01 , S02 ) S1 = (S11 , S12 ) f
ω1 (1; s0 ) ((1 + r); s1,1 ) f1
ω2 (1; s0 ) ((1 + r); s1,2 ) f2
Afin d’offrir à ses clients un prix compétitif de droit conditionnel, tout en honorant ses
engagements, la banque vendra son option de vente au montant suivant

C ? (f ) = inf {x ∈ R+ : ∃Φ = (Φk )k=0,1 t.q. V0 (Φ) = x et V1 (Φ) ≥ f }

Comme nous l’avons vu précédemment, C ? (f ) correspond au prix d’acquisition du portefeuille


initial le moins onéreux permettant à la banque de couvrir à l’échéance la fonction de paiement
proposée.
Dans ce modèle de marché à une période, la condition d’autofinancement d’un portefeuille
de coût initial x, s’exprime par la condition

Φ11 × 1 + Φ21 s0 = V0 (Φ) = x(= Φ10 × 1 + Φ20 s0 )

Les données initiales


S0 = (S01 , S02 ) = (1, s0 )
étant constantes, La prévisibilité de la stratégie Φ = (Φk )k=0,1 , revient tout simplement à dire
que l’aménagement du portefeuille Φ1 = (Φ11 , Φ21 ) est une v.a. constante, indépendante du jeu
d’aléa ω i , i = 1, 2,

∀i = 1, 2 Φ1 (ω i ) = (Φ11 (ω i ), Φ21 (ω i )) = (φ1 , φ2 )

Avec ces notations, la condition d’autofinancement d’un portefeuille de coût initial x, s’exprime
sous la forme suivante
V0 (Φ) = φ1 × 1 + φ2 s0 = x

Minoration du prix
La propriété de couverture dans ce marché binomial s’exprime simplement par les deux
formules

V1 (Φ)(ω 1 ) = φ1 (1 + r) + φ2 s1,1 ≥ f1
V1 (Φ)(ω 2 ) = φ1 (1 + r) + φ2 s1,2 ≥ f2

Par conséquent, un portefeuille de couverture (φ1 , φ2 ) doit nécessairement satisfaire la condition


suivante  
2 f1 − φ1 (1 + r) f2 − φ1 (1 + r)
φ ≥ max ;
s1,1 s1,2
On en déduit que le coût minimal d’acquisition du portefeuille initial est tel que

V0 (Φ) = φ1 + φ2 s0
 
1 s0 1
≥ max φ + [fi − φ (1 + r)]
i=1,2 s1,i
  
s0 1 s0 (1 + r)
= max fi + φ 1 −
i=1,2 s1,i s1,i
110 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

D’après nos hypothèses, nous avons


s1,1 < s0 (1 + r) < s1,2
Ainsi, la droite  
1 s0 1 s0 (1 + r)
φ −→ fi + φ 1 −
s1,i s1,i
est décroissante si i = 1, et croissante lorsque i = 2. Ces deux droites s’intersectent en un point
φ?,1 déterminé par la formule
   
s0 ?,1 s0 (1 + r) s0 ?,1 s0 (1 + r)
f1 + φ 1− = f2 + φ 1−
s1,1 s1,1 s1,2 s1,2
En simplifiant cette équation, nous obtenons la formule équivalente
1 (1 + r) 1 (1 + r)
f1 − φ?,1 = f2 − φ?,1
s1,1 s1,1 s1,2 s1,2
soit encore
s1,2 f1 + φ?,1 (1 + r)s1,1 = s1,1 f2 + φ?,1 (1 + r)s1,2
On en conclut que ces deux droites s’intersectent en
s1,2 f1 − s1,1 f2
φ?,1 =
(1 + r)(s1,2 − s1,1 )
Par conséquent, pour tout portefeuille de couverture Φ nous avons
 
s0 s0 (1 + r)
V0 (Φ) ≥ f1 + φ?,1 1 −
s1,1 s1,1
 
s0 s1,2 f1 − s1,1 f2 s0 (1 + r)
= f1 + 1−
s1,1 (1 + r)(s1,2 − s1,1 ) s1,1
1
=
(1 + r)(s1,2 − s1,1 )
   
s0 (1 + r) s0 (1 + r)
× (s1,2 f1 − s1,1 f2 ) 1 − + (f1 s1,2 − f1 s1,1 )
s1,1 s1,1
On en déduit que
1
C ? (f ) ≥ [(s1,2 f1 − s1,1 f2 ) + s0 (1 + r)(f2 − f1 )]
(1 + r)(s1,2 − s1,1 )
1
= [(s1,2 − s0 (1 + r)) f1 + (s0 (1 + r) − s1,1 ) f2 ]
(1 + r)(s1,2 − s1,1 )

Formule du delta de couverture

Afin de s’assurer que cette borne inférieure est atteinte, on remarque que la stratégie
d’investissement
 
?,1 s1,2 f1 − s1,1 f2 1 f2 − f 1
φ = = f1 − s1,1
(1 + r)(s1,2 − s1,1 ) 1+r s1,2 − s1,1
f 2 − f 1
φ?,2 =
s1,2 − s1,1

est l’unique solution du système d’équations


 1
φ (1 + r) + φ2 s1,1 = f1
φ1 (1 + r) + φ2 s1,2 = f2

Le couple Φ?1 = (φ?,1 , φ?,2 ) est parfois appelé formule du delta de couverture.
4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 111

Un calcul élémentaire montre que

V0 (Φ? ) = φ?,1 + φ?,2 s0


s1,2 f1 − s1,1 f2 f2 − f 1
= + s0
(1 + r)(s1,2 − s1,1 ) s1,2 − s1,1
1
= ((s1,2 f1 − s1,1 f2 ) + (f2 − f1 )s0 (1 + r))
(1 + r)(s1,2 − s1,1 )
s1,2 − s0 (1 + r) s0 (1 + r) − s1,1
= × f1 + × f2 = C ? (f )
(s1,2 − s1,1 )(1 + r) (s1,2 − s1,1 )(1 + r)

En résumé, le vendeur proposera une option de vente au montant

s1,2 − s0 (1 + r) s0 (1 + r) − s1,1
C ? (f ) = × f1 + × f2
(s1,2 − s1,1 )(1 + r) (s1,2 − s1,1 )(1 + r)

De plus, il utilisera la stratégie de couverture


 
? ?,1 ?,2 1 s1,2 f1 − s1,1 f2 f2 − f1
Φ1 = (φ , φ ) = ,
(1 + r) (s1,2 − s1,1 ) s1,2 − s1,1
pour honorer la fonction de paiement proposée.

Le point de vue de l’acheteur


La plus grande dette que l’acheteur acceptera de débourser, de sorte à pouvoir s’en acquitter
au moment où il exercera (ou non) son droit, est donnée par la formule

C? (f ) = sup {x ∈ [0, ∞) : ∃(Φk )k=0,1 t.q. V0 (Φ) = x et V1 (Φ) ≤ f }

Par des arguments analogues à ceux utilisés dans l’analyse du point de vue du vendeur, nous
avons l’équivalence suivante
 
f1 − φ1 (1 + r) f2 − φ1 (1 + r)
V1 (Φ) ≤ f ⇐⇒ φ2 ≤ min ;
s1,1 s1,2
Cette équivalence conduit aisément à la majoration
 
s0
V0 (Φ) = φ1 + φ2 s0 ≤ min φ1 + [fi − φ1 (1 + r)]
i=1,2 s1,i
D’après les calculs précédents, on obtient la majoration
s0 s0
V0 (Φ) ≤ φ?,1 + [f1 − φ?,1 (1 + r)] = φ?,1 + [f2 − φ?,1 (1 + r)]
s1,1 s1,2
avec
s1,2 f1 − s1,1 f2
φ?,1 =
(1 + r)(s1,2 − s1,1 )
La formule du delta de couverture nous permet de conclure que le vendeur et l’acheteur
s’entendront sur un prix égal à

C(f ) = C? (f ) = C ? (f )
 
1 s1,2 − s0 (1 + r) s0 (1 + r) − s1,1
= × f1 + × f2
1+r (s1,2 − s1,1 ) (s1,2 − s1,1 )
   
1 s1,2 − s0 (1 + r) s1,2 − s0 (1 + r)
= × f1 + 1 − × f2
1+r (s1,2 − s1,1 ) (s1,2 − s1,1 )
112 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

On remarquera qu’avec une dette d’un montant


V0 (−Φ? ) = −φ?,1 − φ?,2 s0
l’acheteur pourra utiliser la stratégie d’investissement
−Φ?1 = (−φ?,1 , −φ?,2 )
pour obtenir à l’échéance le portefeuille lui permettant de la rembourser
V1 (−Φ? ) = −φ?,1 (1 + r) − φ?,2 S12 = −f

4.2.3 Point de vue de phénomènes


Nous commençons par remarquer que la condition de non arbitrage
s1,1 < s0 (1 + r) < s1,2
est équivalente au fait suivant
s1,2 − s0 (1 + r)
p? =déf. ∈ (0, 1)
(s1,2 − s1,1 )
On notera P? la mesure de probabilité sur Ω = {ω 1 , ω 2 }, définie par
P(ω 1 ) = p? = 1 − P? (ω 2 )
Par construction, le prix du droit conditionnel C(f ) calculé précédemment correspond à la
valeur espérée sous P? , de la fonction de paiement actualisée, c’est à dire
 
? f
C(f ) = E
(1 + r)
D’autre part, sous la mesure P? , nous avons
 
?
 1 
? S11
E S 1 | F0 = E | F0
(1 + r)1
1+r S01 1
= =1= = S0
1+r (1 + r)0
et
 
 2
?

? S12
E S 1 | F0 = E | F0
(1 + r)1
s1,1 s1,2
= p? + (1 − p? )
(1 + r) (1 + r)
s1,1 s1,2 − s0 (1 + r) s1,2 s0 (1 + r) − s1,1
= +
(1 + r) (s1,2 − s1,1 ) (1 + r) (s1,2 − s1,1 )
S02 2
= s0 = 0
= S0
(1 + r)
Autrement dit, en termes probabilistes, les prix réactualisés sont des P? -martingales.
La mesure P? que nous venons d’introduire, ne correspond bien évidemment pas à la
probabilité régissant les statistiques du marché financier. Cette probabilité virtuelle est appelée
mesure à risque neutre, ou mesure martingale, pour souligner le caractère “imprévisible”
des actifs réactualisés, la neutralité des prix des droits conditionnels entre acheteur et vendeur,
ou encore pour mettre en évidence, la correspondance entre le prix de l’option de vente et la
valeur réactualisée moyenne de la fonction de paiement.
Cette mesure P? peut aussi s’interpreter comme une technique de neutralisation du marché
financier réactualisé suivant
4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 113

Ω= {w^1,w^2}

overline{s}_{1,1}=s_{1,1}/(1+r) w^1

overline{s}_0=s_0
(1−p)

overline{s}_{1,2}=s_{1,2}/(1+r) w^2

Fig. 4.1 – Arbre binomial

Plus précisément, si l’on considère les valeurs réactualisées


s1,1 s1,2
s1,1 = et s1,2 =
(1 + r) (1 + r)

la mesure P? est déterminée par l´équation suivante


 2 2
 1 2 2 2 2
E? S 1 | S 0 = S 0 ⇐⇒ s1,1 P? (S 1 = s1,1 | S 0 = s0 ) + s1,2 P? (S 1 = s1,2 | S 0 = s0 ) = s0
⇐⇒ s1,1 P? (ω 1 ) + s1,2 P? (ω 2 ) = s0
⇐⇒ s1,1 P? (ω 1 ) + s1,2 (1 − P? (ω 1 )) = s0
s0 − s1,2 s1,2 − s0
⇐⇒ P? (ω 1 ) = =
s1,1 − s1,2 s1,2 − s1,1

La propriété de martingale  2 
2 2
E? S 1 | S 0 = S 0

peut aussi s’interpréter comme une caractérisation des coordonnées barycentriques


du point s0 dans l’intervalle [s1,1 , s1,2 ]

overline{s}_{0}=s_0

overline{s}_{1,1}=s_{1,1}/(1+r) overline{s}_{1,2}=s_{1,2}/(1+r)

A =[s_0−overline{s}_{1,1}] B=[overline{s}_{1,2}−s_0]

A+B=[overline{s}_{1,2}−overline{s}_{1,1}]

Fig. 4.2 – Arbre binomial

Dans cette interprétation, nous avons clairement


A B B s1,2 − s0
s0 = s1,2 + s1,1 =⇒ P? (ω 1 ) = =
A+B A+B A+B s1,2 − s1,1

Après avoir neutraliser le marché financier, on note que les valeurs des portefeuilles réactualisés
114 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

sont données par les formules suivantes


V0 (Φ) 1 S01 2 S02
V 0 (Φ) = = Φ 1 + Φ 1 = Φ11 × 1 + Φ21 s0
(1 + r)0 (1 + r)0 (1 + r)0
V1 (Φ) V1 (Φ) 1 S11 2 S12 2
V 1 (Φ) = = = Φ 1 + Φ 1 = Φ11 × 1 + Φ21 S 1
(1 + r)1 (1 + r) (1 + r)1 (1 + r)1
Autrement dit, nous avons

2 2
V 1 (Φ) = V 0 (Φ) + Φ21 [S 1 − S 0 ]

De plus, sous la mesure P? , le portefeuille réactualisé est une martingale


2 2 2 2
E? (V 1 (Φ) | S 0 ) = V 0 (Φ) + Φ21 E? ([S 1 − S 0 ] | S 0 )
2 2 2
= V 0 (Φ) + Φ21 [E? (S 1 | S 0 ) − S 0 ] = V 0 (Φ)
Dans la section 3.2.4, consacrée à la simulation de jeux à conditions terminales fixées, nous
avons démontré le résultat suivant.

La seule martingale (Mk )k=0,1 terminant en la valeur


2  
h1 (S 1 ) =déf. f ⇐⇒ h1 (s1,1 ) = f 1 et h1 (s1,2 ) = f 2

au temps n = 1, est donnée par la formule suivante :


2 2 2
M0 = g0 (S 0 ) et M1 = g1 (S 1 ) =déf. h1 (S 1 )
2
avec la fonction g0 (S 0 ) déterminée par la formule de récurrence inverse
2 2 2 2 2
g0 (S 0 ) = E? (g1 (S 1 ) | S 0 ) = E? (h1 (S 1 ) | S 0 )

Nous retrouvons que le prix de l’option correspond à la valeur initiale du portefeuille


de couverture

V 0 (Φ) = C(f ) = g0 (s0 )


 
s0 − s1,2 s0 − s1,2
= f + 1− f2
s1,1 − s1,2 1 s1,1 − s1,2

De plus, le portefeuille de couverture est déterminé par la relation suivante


2 2 2 2
V 1 (Φ) − V 0 (Φ) = M1 − M0 ⇒ Φ21 [S 1 − S 0 ] = g1 (S 1 ) − g0 (S 0 )
En considérant les deux situations
2 2
S 1 = s1,1 et S 1 = s1,2
on obtient les équations
Φ21 [s1,1 − s0 ] = g1 (s1,1 ) − g0 (s0 )
Φ21 [s1,2 − s0 ] = g1 (s1,2 ) − g0 (s0 )
On en conclut que
4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 115

g1 (s1,2 ) − g1 (s1,1 ) f − f1
Φ21 = = 2
s1,2 − s1,1 s1,2 − s1,1

Enfin, d’après les propriétés d’autofinancement, nous avons

g1 (s1,2 ) − g1 (s1,1 )
Φ11 = V 0 (Φ) − Φ21 s0 = g0 (s0 ) − s0
s1,2 − s1,1
   
s0 − s1,2 s0 − s1,2 f − f1
= f1 + 1 − f2 − 2 s0
s1,1 − s1,2 s1,1 − s1,2 s1,2 − s1,1
   
s0 − s1,2 s0 s1,1 − s0 s0
= − f1 + + f2
s1,1 − s1,2 s1,2 − s1,1 s1,1 − s1,2 s1,2 − s1,1

Par conséquent, on obtient

s1,2 f 1 − s1,1 f 2
Φ11 =
s1,2 − s1,1

Ces portefeuilles de couverture peuvent être retrouvés plus facilement en utilisant la formule
du delta de couverture décrite à la page 110.

4.2.4 Exercices
Exercice 4.2.1 On appelle le rendement instantané d’un titre Sk au temps k, la quantité RkS
définie par
Sk − Sk−1 ∆Sk
RkS = =
Sk−1 Sk−1
On rappelle que Sk représente le prix d’une part d’un titre donné au temps k. On note
(Sk1 , Sk2 )k=0,1 le modèle à deux états décrit par le tableau

Ω S0 = (S01 , S02 ) S1 = (S11 , S12 )


ω1 (1; s0 ) ((1 + r); s1,1 )
ω2 (1; s0 ) ((1 + r); s1,2 )

On suppose que ce marché est viable

s1,1 < s0 (1 + r) < s1,2

et l’on note P? la mesure à risque neutre définie par

s1,2 − s0 (1 + r)
P? (ω 1 ) = p? =déf. ∈ (0, 1)
(s1,2 − s1,1 )

1. Soit P une mesure de probabilité sur Ω = {ω 1 , ω 2 } avec

P(ω 1 ) = p = 1 − P(ω 2 )

Vérifier que l’on a


1 2 s1,2 − s0 s1,2 − s1,1
E(R1S ) = r et E(R1S ) = −p×
s0 s0
116 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

2. Déduire de la question précédente que le rendement instantané du titre risqué est supérieur
à celui du titre non risqué, si la probabilité p est suffisamment petite.
3. Montrer que sous P? , le rendement instantané du titre risqué est le même que celui du
titre non risqué.

Exercice 4.2.2 On considère le modèle de marché viable décrit dans l’exercice 4.2.1.
1 2
1. Décrire les prix des actifs réactualisés (S k , S k )k=0,1 , ainsi que les valeurs réactualisées
d’un portefeuille (V k (Φ))k=0,1 associé à une stratégie d’aménagement Φ1 = (Φ11 , Φ21 ).
2. Vérifier que l’on a
Φ11 = V 0 (Φ) − Φ21 s0
et montrer que
2 2
V 0 (Φ) = Φ11 + Φ21 s0 et V 1 (Φ) = V 0 (Φ) + Φ21 [S 1 − S 0 ]

3. En déduire que les valeurs réactualisées des portefeuilles (V k (Φ))k=0,1 sont des P? -
martingales.

Exercice 4.2.3 Déterminer les valeurs réactualisées des portefeuilles V k (Φ) = Vk (Φ)/(1 + r)k
i
aux instants k = 0, 1, en fonction des prix des actifs réactualisés S k = Ski /(1 + r)k . Vérifier les
formules suivantes :
2 2
∆V 1 (Φ) = Φ21 × ∆S 1 et Φ11 = V 0 (Φ) − Φ21 × S 0

Exercice 4.2.4 On considère le modèle de marché à deux états sur une période (S k1 , Sk2 )k=0,1
décrit par le tableau suivant

Ω S0 = (S01 , S02 ) S1 = (S11 , S12 )


ω1 (1; s0 ) ((1 + r); s1,1 )
ω2 (1; s0 ) ((1 + r); s1,2 )

1. Décrire le tableau, et l’arbre des épreuves correspondant au marché réactualisé


1 2
(S k , S k )k=0,1 .
2. Déterminer les valeurs réactualisées d’un portefeuille associé à une stratégie
d’aménagement sans investissement initial.
3. Discuter les situations où l’on peut enrichir son portefeuille ∆V 1 (Φ) > 0, sans apport
initial.
4. Discuter les possibilités d’arbitrage dans les neuf modèles de marchés suivants :

Ω S0 = (S01 , S02 ) S1 = (S11 , S12 )


ω1 (1; 5) ((1 + 5 10−2 ); s1,1 )
ω2 (1; 5) ((1 + 5 10−2 ); s1,2 )
avec
  
s1,1 = 1, 05 × 6 s1,1 = 1, 05 × 6 s1,1 = 1, 05 × 10
1) 2) 3)
s1,2 = 1, 05 × 4 s1,2 = 1, 05 × 7 s1,2 = 1, 05 × 1
  
s1,1 = 1, 05 × 3 s1,1 = 1, 05 × 5 s1,1 = 1, 05 × 5
4) 5) 6)
s1,2 = 1, 05 × 2 s1,2 = 1, 05 × 6 s1,2 = 1, 05 × 4
  
s1,1 = 1, 05 × 3 s1,1 = 1, 05 × 8 s1,1 = 1, 05 × 2
7) 8) 9)
s1,2 = 1, 05 × 10 s1,2 = 1, 05 × 9 s1,2 = 1, 05 × 10
4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 117

Exercice 4.2.5 On considère un modèle de marché viable décrit par le tableau suivant
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 )
ω1 (1; s0 ) (1; s1,1 ) avec 0 < s1,1 < s0 < s1,2
ω2 (1; s0 ) (1; s1,2 )

Une banque émet une option de vente de fonction de paiement f (ω i ) = fi , avec i = 1, 2. On


note f i = fi /(1 + r) les valeurs réactualisées de cette option.
1. Déterminer les stratégies de couverture de cette option, en fonction des portefuilles et des
actifs réactualisés.
2. Montrer qu’une stratégie de couverture est donnée par

φ2, ? = f 1 − φ1, ? /s1,1

où φ1, ? désigne le point d’intersection des deux droites (∆i )i=1,2 déterminées par les
équations suivantes :  
s0 s0
∆i : φ1 7→ f i + φ1 1 −
s1,i s1,i
On vérifiera que la stratégie de couverture (φ1, ? , φ2, ? ) est l’unique solution du système
d’équations  1
φ + φ2 s1,1 = f 1
φ1 + φ2 s1,2 = f 2
3. Montrer que le coût initial du portefeuille (réactualisé) permettant de couvrir l’option est
donné par la formule
   
s1,2 − s0 s1,2 − s0
V 0 (Φ) = f 1 + f2 1 −
s1,2 − s1,1 s1,2 − s1,1

Exercice 4.2.6 Vérifier la viabilité des marchés suivants, et déterminer les prix C(f ), et les
stratégies de couverture (φ1, ? , φ2, ? ) dans chaque situation.
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 )
ω1 (1; 5) (1; s1,1 )
ω2 (1; 5) (1; s1,2 )
avec   
s1,1 = 3 s1,1 = 1 s1,1 = 4
1) 2) 3)
s1,2 = 6 s1,2 = 10 s1,2 = 7
  
s1,1 = 1 s1,1 = 1 s1,1 = 2
4) 5) 6)
s1,2 = 6 s1,2 = 20 s1,2 = 7
  
s1,1 = 3 s1,1 = 4 s1,1 = 2
7) 8) 9)
s1,2 = 50 s1,2 = 100 s1,2 = 1000

Exercice 4.2.7 On considère un modèle de marché viable décrit par le tableau suivant
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 )
ω1 (1; s0 ) (1; s1,1 ) avec 0 < s1,1 < s0 < s1,2
ω2 (1; s0 ) (1; s1,2 )

1. Déterminer l’unique probabilité P? sur Ω = {ω 1 , ω 2 } telle que


2 2 2
E? (S 1 | S 0 ) = S 0
118 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

2. Montrer que pour tout portefeuille autofinancé, nous avons


2
E? (V 1 (Φ) | S 0 ) = V 0 (Φ)

3. Déterminer la valeur moyenne sous P? d’une fonction de paiement réactualisée f.


4. Décrire une stratégie de couverture Φ? = (φ1, ? , φ2, ? ) de l’option f , et vérifier que le coût
initial d’acquisition du portefeuille de couverture est tel que V 0 (Φ? ) = E? (f ) = C(f ).

Exercice 4.2.8 Déterminer les prix, et les stratégies de couverture des options de vente
suivantes
1 2 1 2 2
1) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+
ω1 (1; 5) (1; 3) 7
ω2 (1; 5) (1; 6) 4

1 2 1 2 2
2) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+
ω1 (1; 5) (1; 1) 7
ω2 (1; 5) (1; 10) 0

1 2 1 2 2
3) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+
ω1 (1; 5) (1; 2) 6
ω2 (1; 5) (1; 7) 1

1 2 1 2 2
4) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+
ω1 (1; 5) (1; 3) 7
ω2 (1; 5) (1; 50) 0

1 2 1 2 2
5) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (100 − S 1 )+
ω1 (1; 5) (1; 1) 99
ω2 (1; 5) (1; 20) 80

1 2 1 2 2
6) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+
ω1 (1; 5) (1; 2) 4
ω2 (1; 5) (1; 7) 0

1 2 1 2 2
7) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+
ω1 (1; 5) (1; 3) 3
ω2 (1; 5) (1; 50) 0

4.3 Modèle à deux états sur deux périodes


4.3.1 L’arbre binomial
Le modèle de marché financier binomial sur deux périodes est décrit par le tableau

Ω S0 = (S01 , S02 ) S1 = (S11 , S12 ) S2 = (S21 , S22 )


ω1 (1; s0 ) ((1 + r); s1,1 ) ((1 + r)2 ; s2,1 )
ω2 (1; s0 ) ((1 + r); s1,1 ) ((1 + r)2 ; s2,2 )
ω3 (1; s0 ) ((1 + r); s1,2 ) ((1 + r)2 ; s2,3 )
ω4 (1; s0 ) ((1 + r); s1,2 ) ((1 + r)2 ; s2,4 )

peut être schématisé alternativement par l’arbre des épreuves suivant


4.3. MODÈLE À DEUX ÉTATS SUR DEUX PÉRIODES 119

((1+r)^2,s_{2,1})

((1+r),s_{1,1})

((1+r)^2,s_{2,2})

(1,s_0)
((1+r)^2,s_{2,3})

((1+r),s_{1,2})

((1+r_^2,s_{2,4})

Fig. 4.3 – Arbre binomial

La version réactualisée de ce modèle est donnée par le tableau


1 2 1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 ) S 2 = (S 2 , S 2 )
ω1 (1; s0 ) (1; s1,1 ) (1; s2,1 )
ω2 (1; s0 ) (1; s1,1 ) (1; s2,2 )
ω3 (1; s0 ) (1; s1,2 ) (1; s2,3 )
ω4 (1; s0 ) (1; s1,2 ) (1; s2,4 )

avec les valeurs réactualisées


s0 s1,i s2,i
s0 = = s0 , s1,i = , et s2,i =
(1 + r)0 (1 + r)1 (1 + r)2
Sans perte de généralité, nous conviendrons par la suite que

s1,1 < s1,2 , s2,1 < s2,2 , et s2,3 < s2,4

On notera enfin que ce modèle à deux périodes est une répétition du modèle à une période.
Plus précisément, sachant S1 = ((1 + r); s1,1 ), l’arbre des épreuves correspond exactement au
modèle binomial sur une période examiné dans la section précédente.

La filtration de sous algèbres

F0 = σ(S0 ) ⊂ F1 = σ(S0 , S1 ) ⊂ F2 = σ(S0 , S1 , S2 )

caractérisant l’information présente dans le marché aux temps k = 0, 1, 2 est


clairement donnée par

F0 = {∅, Ω} ⊂ F1 = {∅, Ω, {ω1 , ω2 }, {ω3 , ω4 }} ⊂ F2 = P(Ω)

Afin d’éviter toute possibilité d’arbitrage, ce modèle de marché sur deux périodes
doit nécessairement satisfaire les trois conditions suivantes

1. Pas d’arbitrage sur une période : −→ s1,1 < s0 (1 + r) < s1,2


2. Pas d’arbitrage sachant que S1 = ((1+r); s1,1 ) : −→ s2,1 < s1,1 (1+r) < s2,2
3. Pas d’arbitrage sachant que S1 = ((1+r); s1,2 ) : −→ s2,3 < s1,2 (1+r) < s2,4
120 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

4.3.2 Gestion de portefeuilles


Les valeurs des portefeuilles associées à des stratégies de ré-aménagement

Φ1 = (Φ11 , Φ21 ) ∈ F0 et Φ2 = (Φ12 , Φ22 ) ∈ F1

sont données par les formules suivantes

V0 (Φ) = Φ11 S01 + Φ21 S02 = Φ11 + Φ21 S02



V1 (Φ) = Φ11 S11 + Φ21 S12 = Φ11 (1 + r) + Φ21 S12 = Φ12 (1 + r) + Φ22 S12
V2 (Φ) = Φ12 S21 + Φ22 S22 = Φ12 (1 + r)2 + Φ21 S22

L’égalité entre parenthèse dans la seconde formule, est une conséquence de la propriété
d’autofinancement des aménagements de portefeuilles. Leurs valeurs réactualisées définies par

Vk (Φ)
V k (Φ) =déf.
(1 + r)k

s’expriment en terme des actifs réactualisés

i Ski
∀i = 1, 2 S k =déf.
(1 + r)k

selon les formules


2
V 0 (Φ) = V0 (Φ) = Φ11 + Φ21 S 0
2
 2

V 1 (Φ) = Φ11 + Φ21 S 1 = Φ12 + Φ22 S 1
2
V 2 (Φ) = Φ12 + Φ21 S 2

On notera que l’on a


2 2 2
V 1 (Φ) = Φ11 + Φ21 S 1 = V 0 (Φ) + Φ21 [S 1 − S 0 ]
2 2 2
V 2 (Φ) = Φ12 + Φ22 S 2 = V 1 (Φ) + Φ22 [S 2 − S 1 ]

Les valeurs réactualisées des portefeuilles sont donc données par les formules
suivantes :
2 2
∀k = 1, 2 ∆V k (Φ) = Φ2k ∆S k et Φ1k = V k−1 (Φ) − Φ2k S k−1 (4.1)
4.3. MODÈLE À DEUX ÉTATS SUR DEUX PÉRIODES 121

4.3.3 Neutralisation des risques


Supposons dans un premier temps l’existence d’une mesure de probabilité sur l’espace Ω =
{ω i , i = 1, 2, 3, 4}, muni de la filtration (Fk )k=0,1,2 , neutralisant les opportunités d’arbitrage.
Plus précisément, et plus formellement, supposons qu’il existe une mesure de probabilité sur
l’espace filtré (Ω, (Fk )k=0,1,2 ), sous laquelle les actifs risqués soient des martingales. Dans cette
situation, les valeurs des portefeuilles réactualisés (V k (Φ))k=0,1,2 forment une P? -martingale.
Cette dernière est décrite par les équations

k
X 2
∀0 ≤ k ≤ 2 V k (Φ) = V 0 (Φ) + Φ2l ∆S l
l=1

2
Par définition, les actifs risqués S k ne peuvent prendre que deux valeurs {ak , bk }, prévisibles
par l’investisseur. Plus précisément, nous avons

2
P? (S 1 ∈ {a1 , b1 } | F0 ) = 1 avec (a1 , b1 ) = (s1,1 , s1,2 )

2 (a2 , b2 )(ω 1 ) = (a2 , b2 )(ω 2 ) = (s2,1 , s2,2 )
P? (S 2 ∈ {a2 , b2 } | F1 ) = 1 avec
(a2 , b2 )(ω 3 ) = (a2 , b2 )(ω 4 ) = (s2,3 , s2,4 )

On peut aussi noter que l’on a

2 2
{ω ∈ Ω : S 1 (ω) = a1 } = {ω ∈ Ω : S 1 (ω) = s1,1 } = {ω 1 , ω 2 }
2 2
{ω ∈ Ω : S 1 (ω) = b1 } = {ω ∈ Ω : S 1 (ω) = s1,2 } = {ω 3 , ω 4 }

Les premières transitions des prix réactualisés sont alors données par les formules suivantes

2 2
P? (S 1 = s1,1 | S 0 = s0 ) = P? ({ω 1 , ω 2 })
2 2
P? (S 1 = s1,2 | S 0 = s0 ) = P? ({ω 3 , ω 4 })

De même, sur chacun des évènements {ω 1 , ω 2 }, et {ω 3 , ω 4 } ∈ F1 les probabilités de transitions


entre ces phénomènes biphasés
2 2
S1 S2

peuvent s’écrire,

2 2
P? (S 2 = s2,1 | S 1 = s1,1 ) = P? (ω 1 | {ω 1 , ω 2 })
2 2
P? (S 2 = s2,2 | S 1 = s1,1 ) = P? (ω 2 | {ω 1 , ω 2 })

2
si le premier évènement {ω 1 , ω 2 } = {S 1 = s1,1 } se réalise, et dans le cas où le second évènement
2
{ω 3 , ω 4 } = {S 1 = s1,2 } se produit

2 2
P? (S 2 = s2,3 | S 1 = s1,2 ) = P? (ω 3 | {ω 3 , ω 4 })
2 2
P? (S 2 = s2,4 | S 1 = s1,2 ) = P? (ω 4 | {ω 3 , ω 4 })

Plus schématiquement, ces statistiques sont décrites par l’arbre des transitions suivant
122 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

s_{2,1}
P(w^1|{w^1,w^2})

s_{1,1}

P({w^1,w^2})
P(w^2|{w^1,w^2}) s_{2,2}

s_0

P(w^3|{w^3,w^4}) s_{2,3}

P({w^3,w^4})
s_{1,2}

P(w^4|{w^3,w^4}) s_{2,4}

Fig. 4.4 – Statistique d’arbre neutralisé

2
La propriété de P? -martingale de l’actif risqué réactualisé S k peut être lue sur l’arbre,
en terme des formules de moyennisation suivantes
2 2 2
E? (S 1 | S 0 ) = S 0 ⇐⇒ s1,1 P? ({ω 1 , ω 2 }) + s1,2 P? ({ω 3 , ω 4 }) = s0

et

2 2 2 s2,1 P? (ω 1 |{ω 1 , ω 2 }) + s2,2 P? (ω 2 |{ω 1 , ω 2 }) = s1,1
E? (S 2 | S 1 ) = S 1 ⇔
s2,3 P? (ω 3 |{ω 3 , ω 4 }) + s2,4 P? (ω 4 |{ω 3 , ω 4 }) = s1,2

On déduit aisément de ces trois formules la nature de cette probabilité à risque neutre
s0 − s1,2
P? ({ω 1 , ω 2 }) = 1 − P? ({ω 3 , ω 4 }) =
s1,1 − s1,2
s1,1 − s2,2
P? (ω 1 |{ω 1 , ω 2 }) = 1 − P? (ω 2 |{ω 1 , ω 2 }) =
s2,1 − s2,2
s1,2 − s2,4
P? (ω 3 |{ω 3 , ω 4 }) = 1 − P? (ω 4 |{ω 3 , ω 4 }) =
s2,3 − s2,4
On en conclut que
s1,1 − s2,2 s0 − s1,2
P? (ω 1 ) = P? (ω 1 |{ω 1 , ω 2 }) × P? ({ω 1 , ω 2 }) =
×
s2,1 − s2,2 s1,1 − s1,2
 
? 2 ? 2 1 2 ? 1 2 s1,1 − s2,2 s0 − s1,2
P (ω ) = P (ω |{ω , ω }) × P ({ω , ω }) = 1 − ×
s2,1 − s2,2 s1,1 − s1,2
 
? 3 ? 3 3 4 ? 3 4 s1,2 − s2,4 s0 − s1,2
P (ω ) = P (ω |{ω , ω }) × P ({ω , ω }) = × 1−
s2,3 − s2,4 s1,1 − s1,2
  
? 4 ? 4 3 4 ? 3 4 s1,2 − s2,4 s0 − s1,2
P (ω ) = P (ω |{ω , ω }) × P ({ω , ω }) = 1 − 1−
s2,3 − s2,4 s1,1 − s1,2

4.3.4 Couverture d’options


On considère un droit conditionnel de fonction de paiement réactualisée
2
f = f /(1 + r)2 = g(S 2 )
4.3. MODÈLE À DEUX ÉTATS SUR DEUX PÉRIODES 123

associé à une fonction g. La couverture de cette option revient à trouver une stratégie (Φ 2k )k=1,2
prévisible, et une condition initiale V 0 (Φ), pour lesquelles le portefeuille réactualisé
k
X 2
V k (Φ) = V 0 (Φ) + Φ2l ∆S l
l=1

atteint à l’échéance k = 2 cette valeur


2
X 2 2
V 2 (Φ) = V 0 (Φ) + Φ2k ∆S k = g(S 2 )
k=1

Sous la probabilité à risque neutre, nous savons que les valeurs des portefeuilles réactualisés
(V k (Φ))k=0,1,2 forment une P? -martingale. Dans ces conditions, le théorème 3.2.1 permet de
construire la stratégie de couverture.

On commence par introduire les fonctions (gk )k=0,1,2 définies par les équations de
récurrence inverse
2 2
g2 (S 2 ) = g(S 2 )
2 2 2
 2 2

g1 (S 1 ) = E? (g2 (S 2 ) | S 1 ) = E? (g(S 2 ) | S 1 )
2 2 2
 2 2 2

g0 (S 0 ) = E? (g1 (S 1 ) | S 0 ) = E? (g(S 2 ) | S 0 )) = E? (g(S 2 ))

Un simple calcul montre que

∀1 ≤ i ≤ 4 g2 (s2,i ) = g(s2,i )

puis

g1 (s1,1 ) = g(s2,1 ) P? (ω 1 | {ω 1 , ω 2 }) + g(s2,2 ) P? (ω 2 | {ω 1 , ω 2 })


g1 (s1,2 ) = g(s2,3 ) P? (ω 3 | {ω 3 , ω 4 }) + g(s2,4 ) P? (ω 4 | {ω 3 , ω 4 })

et enfin
4
!
X
? 1 2 ? 3 4 ? i
g0 (s0 ) = g1 (s1,1 ) P ({ω , ω }) + g1 (s1,2 ) P ({ω , ω }) = g(s2,i )P (ω )
i=1

En invoquant le théorème 3.2.1, le portefeuille de couverture est donné par

g1 (s1,1 ) − g1 (s1,2 )
Φ21 =
s1,1 − s1,2
et
( g(s2,2 )−g(s2,1 ) 2
g2 (b2 ) − g2 (a2 ) s2,2 −s2,1 sur {ω 1 , ω 2 } (i.e. si S 1 = s1,1 )
Φ22 = = g(s2,4 )−g(s2,3 ) 2
b2 − a 2 sur {ω 3 , ω 4 } (i.e. si S 1 = s1,2 )
s2,4 −s2,3

2 2
Autrement dit, en distinguant les événements {S 1 = s1,1 } ∈ F1 , et {S 1 = s1,2 } ∈ F1 , on obtient
la formule suivante.
124 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

g(s2,2 ) − g(s2,1 ) g(s2,4 ) − g(s2,3 )


Φ22 = 1{S2 =s1,1 } × + 1{S 2 =s1,2 } ×
1 s2,2 − s2,1 1 s2,4 − s2,3

D’après les propriétés d’autofinancement (voir par exemple 4.1), les aménagements
des actifs non risqués Φ1k sont donnés par les formules
2 2
Φ11 = V 0 (Φ) − Φ21 S 0 et Φ12 = V 1 (Φ) − Φ22 S 1

Sous la probabilité à risque neutre, le coût d’acquisition du portefeuille correspond tout


simplement à la moyenne de la fonction de paiement
2
V 0 (Φ) = g0 (s0 ) = E? (g(S 2 ))
La propriété de P? -martingale entraı̂ne que
2
V 0 (Φ) = E? (V 2 (Φ)) = E? (g(S 2 )) = g0 (s0 )
D’autre part, pour toute autre stratégie
(V 0 (Φ0 ), (Φ01 2 , Φ02 2 ))
nous avons
2 2
V 2 (Φ0 ) ≤ g(S 2 ) =⇒ V 0 (Φ0 ) = E? (V 2 (Φ0 )) ≤ E? (g(S 2 ))
2 2
V 2 (Φ0 ) ≥ g(S 2 ) =⇒ V 0 (Φ0 ) = E? (V 2 (Φ0 )) ≥ E? (g(S 2 ))
Par conséquent, on obtient les majorations suivantes
C? (f ) = sup {x ∈ [0, ∞) : ∃(Φk )k=0,1,2 t.q. V0 (Φ) = x et V2 (Φ) ≤ f }
n 2
o
= sup x ∈ [0, ∞) : ∃(Φk )k=0,1,2 t.q. V 0 (Φ) = x et V 2 (Φ) ≤ g(S 2 )
2
≤ E? (g(S 2 ))
et
2
E? (g(S 2 )) ≤ C ? (f )
= inf {x ∈ [0, ∞) : ∃(Φk )k=0,1,2 t.q. V0 (Φ) = x et V2 (Φ) ≥ f }
n 2
o
= inf x ∈ [0, ∞) : ∃(Φk )k=0,1,2 t.q. V 0 (Φ) = x et V 2 (Φ) ≥ g(S 2 )

Ceci entraı̂ne que


2
C? (f ) ≤ E? (g(S 2 )) ≤ C ? (f )
La stratégie de couverture, sous la probabilité à risque neutre, que nous venons de construire
(V 0 (Φ), (Φ21 , Φ22 )) fait partie de ces deux jeux de sous/sur-couverture. On a donc
2
C ? (f ) ≤ V 0 (Φ) = E? (g(S 2 )) ≤ C? (f )
On en conclut que

2
V 0 (Φ) = E? (g(S 2 )) = C ? (f ) = C? (f ) = g0 (s0 )
4.3. MODÈLE À DEUX ÉTATS SUR DEUX PÉRIODES 125

La neutralisation “virtuelle” du marché nous a permis de calculer le coût d’acquisition, ainsi que
2
la stratégie de financement (V 0 (Φ), (Φ21 , Φ22 )), permettant à l’émetteur d’une option f = g(S 2 )
d’honorer son contrat.
2 2 2
V 2 (Φ) = V 0 (Φ) + Φ21 ∆S 1 + Φ22 ∆S 2 = g(S 2 )

4.3.5 Exercices
Exercice 4.3.1 On considère un marché financier viable à deux états sur deux périodes. Un
émetteur d’une option f offre un prix C. Étudier les gains et pertes de ce vendeur dans les trois
cas de figure suivants
1) C = C ? (f ) , 2) C > C ? (f ) , et 3) C < C ? (f )
Exercice 4.3.2 On considère le modèle de marché réactualisé décrit par l’arbre des épreuves
suivant :

s_{2,1}=2 w^1

P(w^1|{w^1,w^2})

s_{1,1}=3
P({w^1,w^2})
P(w^2|{w^1,w^2}) s_{2,2}=7 w^2

s_0=5

P(w^3|{w^3,w^4}) s_{2,3}=4 w^3

P({w^3,w^4})
s_{1,2}=6

P(w^4|{w^3,w^4}) s_{2,4}=10 w^4

Fig. 4.5 – Evolution des actifs réactualisés

On considère un droit conditionnel de fonction de paiement réactualisée


2
∀i ∈ {1, 2, 3, 4} f (ω i ) = f (ω i )/(1 + r)2 = g(S 2 (ω i )) = f i
1. Neutraliser ce modèle de marché financier. Autrement dit, déterminer l’unique probabilité
P? sur Ω = {ω i , i = 1, 2, 3, 4} telle que
2 2 2
∀k = 2, 1 E? (S k | S k−1 ) = S k

2. Déterminer un portefeuille de couverture permettant de couvrir l’option f.


3. Vérifier que ce portefeuille de couverture permettra à l’émetteur de l’option d’honorer son
contrat dans chaque jeu d’aléas.
Exercice 4.3.3 Dans le modèle de marché décrit dans l’exercice 4.3.2, un agent financier émet
une option d’achat de fonction de paiement réactualisée
 2 
f = S2 − 9
+

Déterminer le prix de cette option, et son portefeuille de couverture.


Exercice 4.3.4 Dans le modèle de marché décrit dans l’exercice 4.3.2, un agent financier émet
une option de vente de fonction de paiement réactualisée
 2

f = 7 − S2
+

Déterminer le prix de cette option, et son portefeuille de couverture.


126 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

4.4 Modèle de Cox-Ross-Rubinstein


4.4.1 Introduction

Le modèle de Cox-Ross-Rubinstein (en abrégé CRR) est une simplification de modèle


binomial étudié dans la section 4.3. Il représente un marché financier élémentaire, et
pour le moins simpliste, dans lequel le rendement instantané des actifs risqués sont à
tout instant à valeurs dans le même espace à deux points
1
∆Sk2 =déf. ∆Uk2 ∈ {b, h}
Sk2

Autrement dit, nous avons


Sk2 = Sk−1
2
(1 + ∆Uk2 )

Les valeurs b, et h, représentent une baisse, ou une hausse du rendement. On conviendra que
ces fluctuations sont telles que
0<1+b<1+h

Comme dans le modèle binomial, le rendement de l’actif sans risque est supposé constant,
avec
1
S01 = 1 et ∆Sk1 =déf. ∆Uk1 = r
Sk1

Autrement dit, nous avons

∀0 ≤ k ≤ n Sk1 = Sk−1
1
(1 + ∆Uk1 ) = (1 + r)k

Ce modèle CRR est bien un cas particulier du modèle binomial, où l’actif risqué Sk2
ne peut prendre que deux valeurs possibles, sachant l’information accumulée Fk−1
jusqu’à cet instant

Sk2 ∈ {Sk−1
2 2
× (1 + b), Sk−1 × (1 + h)}

Les valeurs réactualisées des actifs risqués sont données par les formules de récurrence usuelles

2 2 2
∆S k = S k − S k−1
2 2
Sk2 Sk−1 Sk−1 (1 + ∆Uk2 ) 2
Sk−1
= − = −
(1 + r)k (1 + r)k−1 (1 + r)k−1 (1 + r) (1 + r)k−1
2  
Sk−1 (1 + ∆Uk2 )
= × − 1
(1 + r)k−1 (1 + r)
2
2 ∆Uk − r
= S k−1 ×
1+r
ou encore
2 2 (1 + ∆Uk2 ) 2 1
S k = S k−1 = S0 (1 + ∆U12 ) . . . (1 + ∆Uk2 )
(1 + r) (1 + r)k
4.4. MODÈLE DE COX-ROSS-RUBINSTEIN 127

4.4.2 Techniques d’arbitrage

Examinons le marché CRR lorsque les rendements des actifs satisfont l’une des
conditions suivantes :
1. r<b<h
2. b<h<r
Dans les deux cas, il est très aisé de gagner beaucoup d’argent à coup sur̂, et sans
apport initial !

Par exemple dans la première situation, les actifs risqués ont un rendement supérieur à celui
des actifs sans risques. C’est le cas lorsque les comptes épargnes ont des taux plus faibles que
les rendements d’actions plus risquées. Dans ce cas, il faut emprunter à la banque, ou vendre à
découvert le maximum d’actif non risqués

Φ11 = −Φ21 S02

pour acheter le plus possible Φ21 d’actifs risqués. La valeur d’acquisition du portefeuille initial
est tout simplement nulle

V0 (Φ) = (−Φ21 S02 ) × 1 + Φ21 × S02 = 0

Sans réaménager notre portefeuille, on attend patiemment jusqu’à la date n

∀1 ≤ k < n (Φ1k , Φ2k ) = (−Φ21 S02 , Φ21 )

A la date n, on revend nos Φ21 parts d’actifs risqués, pour rembourser les Φ21 S02 parts d’actifs
non risqués empruntées initialement. Autrement dit, on utilise à nouveau la stratégie

(Φ1n , Φ2n ) = (−Φ21 S02 , Φ21 )

La valeur du portefeuille au temps n est donnée par la formule

Vn (Φ) = (−Φ21 S02 ) × (1 + r)n + Φ21 × (S02 (1 + ∆U12 ) . . . (1 + ∆Un2 ))


≥ Φ21 S02 ((1 + b)n − (1 + r)n )
≥ n Φ21 S02 (1 + b)n−1 (b − r)

La dernière sous estimation est déduite de la minoration

∀(x, y) ∈ R2+ xn ≥ y n + n xn−1 (x − y)

4.4.3 Neutralisation des risques

On conviendra dans cette section que les rendements des actifs sont tels que

b<r<h

On convient que l’actif risqué a une valeur initiale connue

S02 = s0

On note Ω = {h, b}n l’ensemble des aléas élémentaires associés aux tendances aléatoires des
rendements des actifs risqués. Les v.a. (∆Uk2 )1≤k≤n sont définies par les fonctions coordonnées
canoniques
∀ω = (ωk )1≤k≤n ∈ Ω ∀1 ≤ k ≤ n ∆Uk2 (ω) = ωk
128 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

On note enfin
Fk = σ(∆U12 , . . . , ∆Uk2 )
la filtration d’information connue à chaque instant 1 ≤ k ≤ n, avec la convention F 0 = {∅, Ω}.

Proposition 4.4.1 Il existe une seule probabilité P? sur l’espace des aléas filtré
2
(Ω, (Fk )0≤k≤n ) sous laquelle les prix réactualisés de actifs risqués (S k )0≤k≤n
forment une martingale. De plus, sous P? , les v.a. de rendement (∆Uk2 )0≤k≤n sont
indépendantes et équidistribuées selon la loi
h−r
P? (∆U12 = b) = 1 − P? (∆U12 = h) =
h−b
4.4. MODÈLE DE COX-ROSS-RUBINSTEIN 129

Preuve:
L’existence de P? résulte de la série d’équivalences suivantes
2
 2  2   2
∆Uk −r
E? (S k | Fk−1 ) = E? S k−1 1+r | F k−1 = S k−1

⇐⇒ E? (∆Uk2 | Fk−1 ) = r

⇐⇒ b P? (∆Uk2 = b | Fk−1 ) + h P? (∆Uk2 = h | Fk−1 ) = r



P? (∆Uk2 = b | Fk−1 ) = r−h h−r
b−h = h−b
⇐⇒ ? 2 h−r r−b
P (∆Uk = h | Fk−1 ) = 1 − h−b = h−b

La construction de P? décrite ci-dessus souligne le fait que ∆Uk2 est une v.a. indépendante de
Fk−1 , et a fortiori des v.a. de rendements passés ∆U12 , . . . , ∆Uk−1
2
. Ceci démontre l’unicité de
?
P , et achève ainsi la preuve de la proposition.

4.4.4 Couverture d’options


On se place dans le marché financier CRR neutralisé décrit dans la section 4.4.3. Un émetteur
d’une option propose une option, de fonction de paiement réactualisée à l’échéance n, et donnée
par
f 2
f= = g(S n )
(1 + r)n
où g désigne une fonction de R+ dans lui même. Afin d’honorer son contrat, il souhaite trouver
un portefeuille de couverture (prévisible et autofinancé) (Φ2k )1≤k≤n , ainsi qu’un portefeuille
initial V 0 (Φ), tels que
n
X 2 2
V n (Φ) = V 0 (Φ) + Φ2k ∆S k = g(S n )
k=1

Pour construire ce portefeuille, on utilise les techniques de contrôle de martingales


développées dans la section 3.2, du premier chapitre. On commence donc par introduire la
suite de fonctions (gk )0≤k≤n définies par les formules de récurrence inverse
2 2
gn (S n ) = g(S n )
2
 2 2
  2 2

gk (S k ) = E? gk+1 (S k+1 ) | S k = E? g(S n ) | S k

Ces fonctions peuvent être décrites explicitement, selon les formules


2
 2 2

gk (S k ) = E? gk+1 (S k+1 ) | S k
  2  
2 1 + ∆Uk+1 2
= E? gk+1 S k | Sk
1+r
   
2 1+b h−r 2 1+h r−b
= gk+1 S k × + gk+1 S k ×
1+r h−b 1+r h−b
(4.2)

Plus précisément, en terme de la loi binomiale de comptage des hausses et baisses, on a pour
130 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

tout indice temporel 0 ≤ k ≤ n


2
 2 2

gk (S k ) = E? gn (S n ) | S k
   2 2  
? 2 1 + ∆Uk+1 1 + ∆Uk+2 1 + ∆Un2 2
= E gn S k × ... | Sk
1+r 1+r 1+r
n−k  l  (n−k)−l !
X 2 1+b 1+h
= g Sk
1+r 1+r
l=0
 l  (n−k)−l
l h−r r−b
× Cn−k
h−b h−b

D’après le théorème 3.2.1, le portefeuille de couverture, et la valeur initiale du


portefeuille, sont donnés par les formules
 2

 V 0 (Φ) = g0 (S 0 ) = g0 (s0 )


  2   2 
gk S k−1 1+h 1+b
− gk S k−1 1+r (4.3)

 2 1+r


 Φ k = 2
S k−1 h−b
1+r

Comme d’habitude, la condition d’autofinancement permet de trouver les parts d’actifs non
risqués qu’il convient d’acquérir pour couvrir l’option
2 2
V k−1 (Φ) = Φ1k−1 + Φ2k−1 S k−1 = Φ1k + Φ2k S k−1

2
=⇒ Φ1k = V k−1 (Φ) − Φ2k S k−1

D’autre part, d’après le théorème 3.2.1, les valeurs du portefeuille de couverture réactualisé sont
données par les fonctions (gk )0≤k≤n . Plus précisément, nous avons
2
∀0 ≤ k ≤ n V k (Φ) = gk (S k )

On en conclut que
2 2
Φ1k = gk−1 (S k−1 ) − Φ2k S k−1
     
2 1+r 2 1+h 2 1+b
= gk−1 (S k−1 ) − gk S k−1 − gk S k−1
h−b 1+r 1+r
En utilisant les formules de récurrence inverse (4.2), on a aussi
     
1 2 1+b h−r 2 1+h r−b
Φk = gk S k−1 × + gk S k−1 ×
1+r h−b 1+r h−b
     
1+r 2 1+h 2 1+b
− gk S k−1 − gk S k−1
h−b 1+r 1+r
    
1 2 1+b 2 1+h
= (h + 1) gk S k−1 − (b + 1) gk S k−1
h−b 1+r 1+r

4.4.5 Prix d’options


Comme le portefeuille réactualisé est une P? -martingale, nous avons
2
V 0 (Φ) = E? (V n (Φ)) = E? (g(S n ))
4.4. MODÈLE DE COX-ROSS-RUBINSTEIN 131

D’autre part, pour toute stratégie (V 0 (Φ0 ), (Φ0k 2 )1≤k≤n ), nous avons
2 2
V n (Φ0 ) ≤ g(S n ) =⇒ V 0 (Φ0 ) = E? (V n (Φ0 )) ≤ E? (g(S n ))
2 2
V n (Φ0 ) ≥ g(S n ) =⇒ V 0 (Φ0 ) = E? (V n (Φ0 )) ≥ E? (g(S n ))
Il en découle les majorations suivantes
n 2
o
C? (f ) = sup x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V 0 (Φ) = x et V n (Φ) ≤ g(S n )
2
≤ E? (g(S n ))
et
2
E? (g(S n )) ≤ C ? (f )
n 2
o
= inf x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V 0 (Φ) = x et V n (Φ) ≥ g(S n )

Ceci entraı̂ne que


2
C? (f ) ≤ E? (g(S n )) ≤ C ? (f )
La stratégie de couverture
(V 0 (Φ), (Φ2k )1≤k≤n )
construite dans la section 4.4.4, vérifie ces deux jeux de sous/sur couverture. Par conséquent,
nous avons
2
C ? (f ) ≤ V 0 (Φ) = E? (g(S n )) ≤ C? (f )

Finalement, on en conclut que


2
V 0 (Φ) = E? (g(S n )) = C ? (f ) = C? (f ) = g0 (s0 )

4.4.6 Exercices
Exercice 4.4.1 On considère un marché financier CRR où les actifs non risqués sont plus
rentables que les actif risqués (i.e. b < h < r). C’est le cas de conjonctures économiques où les
comptes épargnes bancaires ont des taux plus élevés que les rendements d’actions plus risquées.
Développer une stratégie d’arbitrage dans ce marché financier.
Exercice 4.4.2 On considère un marché financier CRR où les actifs non risqués et risqués
sont tels que
b<r<h
Décrire explicitement la mesure martingale P? sur Ω.
Exercice 4.4.3 Montrer que l’existence de P? entraine qu’un investisseur ne peut arbitrer le
marché financier.
Exercice 4.4.4 On considère un marché financier CRR avec des rendements d’actifs tels que
b < r < h. La statistique d’évolution des prix d’actifs associées à une conjoncture économique
à tendance à la hausse, est représentée par la donnée d’une mesure de probabilité P 1 telle
que
P1 (∆Uk2 = h | Fk−1 ) = 0, 999 = 1 − P1 (∆Uk2 = b | Fk−1 )
De même, la statistique d’évolution des prix d’actifs associées à une conjoncture économique à
tendance à la baisse, et en perpétuels cracks boursiers, est représentée par la donnée d’une
mesure de probabilité P1 telle que
P1 (∆Uk2 = b | Fk−1 ) = 0, 999 = 1 − P1 (∆Uk2 = h | Fk−1 )
Existe-t-il des opportunités d’arbitrage dans de tels marchés financiers ?
132 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

Dans un marché viable de type CRR, un conseiller financier propose une option de fonction
de paiement à l’échéance n, donnée par la v.a.

f = (Sn2 − K)+

où K désigne un prix d’exercice fixé.

Exercice 4.4.5 1. Construire le portefeuille de couverture que l’émetteur de l’option devra


utiliser pour honorer son contrat.
2. Montrer que l’investissement initial V0 (Φ) nécessaire pour couvrir l’option est donné par
la formule

V0 (Φ)

Pn    n−l  l
n−l l h−r r−b
= (1 + r)−n l=0 s 0 (1 + b) (1 + h) − K Cnl h−b h−b
+

3. On note C le prix de l’action offert par le conseiller financier. Étudier ses gains et ses
pertes dans les trois cas de figure suivants

1) C = V0 (Φ) , 2) C > V0 (Φ) , et 3) C < V0 (Φ)

4. On note k0 le plus petit entier k pour lequel


 k
1+h K
s0 × >
1+b (1 + b)n

(a) Vérifier que     


K 1+h
k0 = 1 + log / log
s0 (1 + b)n 1+b
où [a] désigne la partie entière d’un nombre a.
(b) Montrer que
V0 (Φ) = s0 × Fn,p0 (k0 ) − (1 + r)−n K Fn,p? (k0 ) (4.4)
avec les fonctions définies par
n
X n−l
Fn,p (k) = Cnl pl (1 − p) avec p ∈ [0, 1]
l=k

et le jeu de paramètres (p? , p0 ) ∈ [0, 1] donnés par

r−b (h + 1)(r − b)
p? = et p0 =
h−b (1 + r)(h − b)

(c) Vérifier que les fonctions Fn,p correspondent aux fonctions de répartition

∀0 ≤ k ≤ n P(Σp,n ≥ k) = Fn,p (k)


Pn
des variables aléatoires Σp,n = i=1 ip , où (ip )1≤i≤n désignent une suite de v.a. iid
de même loi
P(ip = 1) = p = 1 − P(ip = 0)

Exercice 4.4.6 On suppose de plus que l’horizon temporel n, et les paramètres de rendement
(r, b, h) sont de la forme
√ √
n = T /∆ , r = ρ ∆ , h = σ ∆ , et b = −σ ∆
4.5. ANALYSE MATHÉMATIQUE 133

avec (∆, T, ρ, σ) ∈ R4+ . On rappelle que la suite de v.a.

Σp,n − E(Σp,n )
Wp,n = p
E([Σp,n − E(Σp,n )]2 )

converge faiblement vers une v.a. gaussienne centrée normée, en ce sens où
Z ∞
1 y2
∀x ∈ R lim P(Wp,n ≥ x) = F (x) =déf. √ e− 2 dy
n→∞ 2π x
Ce résultat n’est autre que le théorème de la limite centrale pour des suite de v.a. indépendantes,
et identiquement distribuées.
1. Montrer que Pn i
 − np
Wp,n = pi=1 n
np(1 − p)
2. Lorsque ∆ → 0, vérifier les équivalences suivantes
T √ T  √ 
np0 ' √ (ρ + σ 2 + σ/ ∆) et np? ' √ ρ + σ/ ∆
2σ ∆ 2σ ∆
et √
p p T
np0 (1 − p0 ) ' np? (1 − p? ) ' √
(2 ∆)
et enfin     
1 K σ2 σ
k0 ' √ log +T +√
2σ ∆ s0 2 ∆
En déduire les estimations
  
np0 − k0 1 σ2
p ' √
T ρ+ + log (s0 /K)
np0 (1 − p0 ) σ T 2
   
np? − k0 1 σ2
p ' √ T ρ− + log (s0 /K)
np? (1 − p? ) σ T 2

3. En utilisant le fait que


! !
k0 − np n∼∞ k0 − np
Fn,p (k0 ) = P Wp,n ≥p ' F p
np(1 − p) np(1 − p)

montrer que l’on a


 
1 2


V0 (Φ) ' s0 F √ T ρ + σ /2 + log (s0 /K)
σ T
 
1  
−e−ρT K F √ 2
T ρ − σ /2 + log (s0 /K)
σ T

4.5 Analyse mathématique


4.5.1 Actualisation
On considère un marché financier défini, sur un espace probabilisé et filtré (Ω, (Fk )0≤k≤n , P),
par l’évolution d’un couple d’actifs

∆Sk1 = Sk−1 1
(1 + ∆Uk1 )
2 2
∆Sk = Sk−1 (1 + ∆Uk2 )
134 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

Le premier titre à un rôle bien particulier. Il représente un placement sans risque, avec un
rendement prévisible ; c’est à dire que

∆Sk1
∀1 ≤ k ≤ n (1 + ∆Uk1 ) = 1 ∈ Fk−1
Sk−1

On conviendra que l’on a


S01 = 1 , et (1 + ∆Uk1 (ω)) > 1
pour chaque aléa ω ∈ Ω, et pour tout 1 ≤ k ≤ n.
Le rendement de l’actif risqué n’est pas prévisible, sinon adapté à la filtration d’information

∆Sk2
∀1 ≤ k ≤ n (1 + ∆Uk2 ) = 2 ∈ Fk
Sk−1

On conviendra que la valeur initiale de cet actif est connue

S02 = s0 > 0

Le coefficient d’actualisation des actifs est donnée par le processus aléatoire


k
1 1 1
Y
βk = (∈ [0, 1]) où E k (U ) = S k = (1 + ∆Ul1 )
Ek (U 1 )
l=1

Les prix ré-actualisé sont alors définis par


1 2
∀0 ≤ k ≤ n S k = βk Sk1 = 1 et S k = βk Sk2 ≤ Sk2

4.5.2 Gestion de portefeuilles


Le portefeuille d’un investisseur est défini par la donnée d’un processus aléatoire prévisible

∀1 ≤ k ≤ n Φk = (Φ1k , Φ2k ) ∈ Fk−1

A chaque instant 1 ≤ k ≤ n, le couple (Φ1k , Φ2k ) représente la gestion du couple d’actifs (Sk1 , Sk2 ).
Ainsi,
V0 (Φ) = Φ11 S01 + Φ20 S02 = Φ11 + Φ20 s0
représente le coût d’acquisition du portefeuille. La valeur de ce dernier, à la k ième période est
donnée par

Vk (Φ) = Φ1k Sk1 + Φ2k Sk2


= Φ1k+1 Sk1 + Φ2k+1 Sk2 (Autofinancement)

La condition d’autofinancement entraı̂ne que

∆Vk+1 (Φ) = Vk+1 (Φ) − Vk (Φ)


= Φ1k+1 [Sk+1
1
− Sk1 ] + Φ2k+1 [Sk+1
2
− Sk2 ]
= Φ1k+1 ∆Sk+1
1
+ Φ2k+1 ∆Sk+1 2

De plus, cette condition entraı̂ne que les parts d’actifs non risqués Φ1k+1 sont déterminées
par la formule
1 
Φ1k+1 = 1 × Vk (Φ) − Φ2k+1 Sk2
Sk
2
= V k (Φ) − Φ2k+1 S k
4.5. ANALYSE MATHÉMATIQUE 135

où V k (Φ) = βk Vk (Φ) représente la valeur réactualisée du portefeuille Vk (Φ) à la k ième période.
Enfin, toujours d’après la condition d’autofinancement, l’évolution de la valeur du
portefeuille réactualisé ne dépend que de l’évolution du titre risqué. Plus précisément, on a

∆V k+1 (Φ) = βk+1 Vk+1 (Φ) − βk Vk (Φ)


1 2 1 2
= [Φ1k+1 S k+1 + Φ2k+1 S k+1 ] − [Φ1k+1 S k + Φ2k+1 S k ]
1 2
= Φ1k+1 ∆S k+1 + Φ2k+1 ∆S k+1
2
= Φ2k+1 ∆S k+1

4.5.3 Arbitrage et viabilité des marchés


Définition 4.5.1 Une stratégie d’arbitrage est une gestion de portefeuille (autofinancée)
(Φk )1≤k≤n telle que

V0 (Φ) = 0 , Vn (Φ) ≥ 0 , et P(Vn (Φ) > 0) > 0 (4.5)

On dit qu’un marché est viable, s’il n’existe aucune stratégie d’arbitrage.

On notera que la condition P(Vn (Φ) > 0) > 0 implique qu’il existe au moins un aléa ω ∈ Ω
pour lequel Vn (Φ)(ω) > 0 (sinon on aurait {Vn (Φ) > 0)} = ∅ et P(Vn (Φ) > 0) = P(∅) = 0).
Inversement, l’existence d’un tel aléa ω (avec P(ω) > 0) entraı̂ne que P(Vn (Φ) > 0) > 0. Cette
définition d’arbitrage est bien donc équivalente à celle introduite dans la section 4.1.2.
L’arbitrage permet donc, sans aucun investissement initial (V0 (Φ) = 0), de ne jamais perdre
de l’argent à l’échéance (Vn (Φ) ≥ 0), tout en ayant une possibilité de réaliser un gain (P(Vn (Φ) >
0) > 0). Ces possibilités d’arbitrage, et ces évènements inattendus (ω t.q. V n (Φ)(ω) > 0), tels
les délits d’initiés, sont en principe interdits, et contrôlés par les autorités de régulation, telle
la Cours des comptes. La morale moderne semble ainsi reposer sur le principe qu’il est interdit
de s’enrichir sans prendre de risques...
On vérifie sans trop de peine que ces définitions de l’arbitrage peut être reformulée
de façon équivalente en remplaçant (Vk (Φ))0≤k≤n par les valeurs du portefeuille réactualisé
(V k (Φ))0≤k≤n

(4.5) ⇐⇒ V 0 (Φ) = 0 , V n (Φ) ≥ 0 , et P(V n (Φ) > 0) > 0

Proposition 4.5.1 Les trois conditions suivantes sont équivalentes


1. ∃1 ≤ k ≤ n ∃φ ∈ Fk−1 tels que
2 2
φ ∆S k ≥ 0 et P(φ ∆S k > 0) > 0

2. Il existe une stratégie d’arbitrage (Φk )1≤k≤n telle que

∀0 ≤ k ≤ n V k (Φ) ≥ 0

3. Il existe une stratégie d’arbitrage (Φk )1≤k≤n .

Preuve:
(1) ⇒ (2) : On pose simplement Φ2l = φ 1k (l), où le couple (k, φ) est tel que
2 2
φ ∆S k ≥ 0 et P(φ ∆S k > 0) > 0

Dans ce cas, on a
l
X 2 2
∀0 ≤ l ≤ n Vl =0+ Φ2m ∆S m = 1l≥k φ ∆S k ≥ 0
m=1
136 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

et à l’échéance
2 2
V n = φ ∆S k ⇒ P(V n > 0) = P(φ ∆S k > 0) > 0
Il reste cependant à vérifier que la stratégie que nous venons de définir

∀1 ≤ l ≤ n Φ2l = φ 1k=l

est bien autofinancée. Pour cela on rappelle que les parts de titres non risqués Φ 1l sont
nécessairement données par la formule

1 
Φ1l = 1 × Vl−1 (Φ) − Φ2l Sl−1
2
Sl−1
2 2 2
= V l−1 (Φ) − Φ2l S l−1 = 1(l−1)≥k φ ∆S k − φ 1k=l S l−1

Par construction, nous avons donc




 0 si l < k
2
Φ1l = −φ S k−1 si l = k

 2
φ ∆S k si l > k

Il est donc clair que


2 2
∀l 6∈ {k, k + 1} ∆Φ1l = 0 , ∆Φ1k = −φ S k−1 et ∆Φ1k+1 = φ S k

D’autre part, par définition de Φ2l = φ 1k (l), nous avons aussi

∀l 6∈ {k, k + 1} ∆Φ2l = 0 , ∆Φ1k = φ et ∆Φ1k+1 = −φ

On en conclut que
2
∀1 ≤ l ≤ n ∆Φ1k + ∆Φ2k S l−1 = 0

Il en découle que
Φ1l Sl−1
1
+ Φ2l Sl−1
2
= Φ1l−1 Sl−1
1
+ Φ2l−1 Sl−1
2

Ceci achève la preuve de la condition d’autofinancement.


(2) ⇒ (3) : trivial.
(3) ⇒ (1) : Soit (Φk )1≤k≤n une stratégie d’arbitrage. On introduit les fonctions

a(k) = P(V k (Φ) ≥ 0) et b(k) = P(V k (Φ) > 0)(≤ a(k))

On note k ? , le premier instant où l’on a

a(k ? ) = 1 et a(k ? ) > 0

Cet instant existe, et on a k ? > 0, car nous avons à l’échéance

a(n) = P(V n (Φ) ≥ 0) = 1 et b(n) = P(V n (Φ) > 0) > 0

et à l’origine
a(0) = P(V 0 (Φ) ≥ 0) = 1 et b(0) = P(V 0 (Φ) > 0) = 0
Au temps précédent (k ? − 1) ≥ 0, deux cas se présentent
1. Soit a(k ? − 1) < 1, et dans ce cas P(V k? −1 (Φ) < 0) > 0.
2. Soit b(k ? − 1) = 0, ou de façon équivalente V k? −1 (Φ) ≤ 0.
4.5. ANALYSE MATHÉMATIQUE 137

1. Examinons tout d’abord le premier cas,



a(k ? − 1) < 1 =⇒ P(V k? −1 (Φ) < 0) > 0

Dans cette situation, il suffit de poser

φ = Φ2k? 1V k? −1 (Φ)<0 ∈ Fk? −1

En effet, pour ce choix nous avons


2 2
φ ∆S k? = 1V k? −1 (Φ)<0 Φ2k? ∆S k?
= 1V k? −1 (Φ)<0 ∆V k? (Φ)
= 1V k? −1 (Φ)<0 [V k? (Φ) − V k? −1 (Φ)] ≥ 0

La positivité provient du fait que

1V k? −1 (Φ)<0 × (−V k? −1 (Φ)) ≥ 0

et

a(k ? ) = 1 =⇒ V k? (Φ) ≥ 0

On a donc montré que la condition (1) est satisfaite lorsque k = k ? .


2. Dans la seconde situation

b(k ? − 1) = 0 V k? −1 (Φ) ≤ 0

on pose plus simplement φ = Φ2k? , et on vérifie que


2 2
φ ∆S k? = Φ2k? ∆S k?
= ∆V k? (Φ) = [V k? (Φ) − V k? −1 (Φ)]
≥ V k? (Φ)

On obtient donc l’inclusion entre ’évènements


2
{V k? (Φ) > 0} ⊂ {φ ∆S k? > 0}

On en déduit que
2
P(φ ∆S k? > 0) ≥ P(V k? (Φ) > 0) > 0
Dans les deux situations que nous venons d’examiner, on remarque que sur l’évènement
{V k? −1 (Φ) < 0}, on reçoit une somme de (−V k? −1 (Φ)) Euros que l’on réinvestit dans l’achat
de titres risquées.

4.5.4 Neutralité des marchés


Définition 4.5.2 Une probabilité à risque neutre est une mesure de probabilité P ? sur l’espace
filtré (Ω, (Fk )0≤k≤n ) représentant le marché financier ; équivalente à la probabilité P, et sous
2
laquelle le cours des actifs risqués réactualisés (S k )0≤k≤n forme une martingale. Cette mesure,
lorsqu’elle existe, est parfois appelée mesure martingale.

La proposition suivante est une conséquence immédiate de la proposition 3.1.6 (page 75), et de
la proposition 3.1.1 (page 68).
138 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

Proposition 4.5.2 Sous réserve de l’existence d’une probabilité à risque neutre P ? sur l’espace
filtré (Ω, (Fk )0≤k≤n ), nous avons les équivalences suivantes
2
(S k )0≤k≤n P? − martingale ⇐⇒ (Uk2 − Uk1 )0≤k≤n P? − martingale
⇐⇒ ∀Φ (V k (Φ))0≤k≤n P? − martingale

Exercice 4.5.1 Sous réserve de l’existence d’une probabilité à risque neutre P ? sur l’espace
filtré (Ω, (Fk )0≤k≤n ), montrer qu’il ne peut exister de possibilité d’arbitrage.

Théorème 4.5.1 Un marché financier est viable si, et seulement si, il existe une probabilité à
risque neutre.

Preuve:
D’après l’exercice 4.5.1, il suffit de montrer qu’il existe une possibilité de neutraliser un marché
viable. Pour vérifier cette propriété, on définit sur l’espace vectoriel E des v.a. réelles X : Ω → R,
le produit scalaire X
hX, Y i = X(ω)Y (Ω)
ω∈Ω

On note V le sous espace vectoriel de E, formé par les v.a. V n (Φ), où Φ = (Φk )1≤k≤n parcours
l’ensemble des portefeuilles autofinancés (avec V 0 (Φ) = 0). Pour vérifier que V est bien un
sous-espace vectoriel (en abrégé s.e.v.), on considère un couple de stratégies d’aménagement
(Φ, Φ0 ), telles que
V 0 (Φ) = 0 = V 0 (Φ0 )
et conduisant à deux valeurs données V n (Φ), et V n (Φ0 ). Pour tout couple de réels (a, a0 ),

a Φ + a0 Φ0 = (a Φk + a0 Φ0k )1≤k≤n

est à nouveau une stratégie d’aménagement de portefeuilles autofinancée. De plus, on a

V k (a Φ + a0 Φ0 ) = a V k (Φ) + a0 V k (Φ0 )

et par conséquent,

V 0 (a Φ + a0 Φ0 ) = 0 et a V n (Φ) + a0 V n (Φ0 ) ∈ V

Ceci démontre que V est un s.e.v. de E. On notera que V est un s.e.v. de E de dimension fini,
et donc V est un s.e.v. fermé de E.
Le marché étant supposé viable, le s.e.v. V ne contient aucune v.a. V n (Φ) positive, sinon la
seule v.a. nulle V n (Φ) = 0.
L’espace V est donc disjoint du sous-ensemble convexe et compact K, défini par
X
K = {X : ω → [0, 1] : X(ω) = 1}
ω∈Ω

On pose alors
C = K + V = {X + Vn (Φ) : X ∈ K et Vn (Φ) ∈ V}
On vérifie aisément que C est un ensemble convexe, fermé, et ne contenant pas la v.a. nulle. En
effet, on a
(0 ∈ V et V ∩ K = ∅) =⇒ 0 6∈ C = K + V
On note C le point de C à plus courte distance de cette v.a. nulle, autrement dit C correspond
au point de C de norme minimale.
Par construction, nous avons

∀Y ∈ C, ∀ ∈ (0, 1] C +  (Y − C) ∈ C
4.5. ANALYSE MATHÉMATIQUE 139

et
kCk2 ≤ kC + (Y − C)k2 (= kCk2 + 2hC, (Y − C)i + 2 k(Y − C)k2
Par conséquent, nous avons
∀Y ∈ C, ∀ ∈ (0, 1] 2hC, (Y − C)i + k(Y − C)k2 ≥ 0
En faisant tendre  ↓ 0, on obtient
∀Y ∈ C(⊃ K) hC, Y i ≥ kCk2 > 0 (4.6)
Cette propriété entraı̂ne que
∀(λ, X, Vn (Φ)) ∈ (R × K × V) hC, X + λVn (Φ)i = hC, Xi + λ hC, Vn (Φ)i ≥ kCk2
Cette minoration ne peut clairement être satisfaite pour tous les λ, sauf si l’on a
∀Vn (Φ) ∈ V hC, Vn (Φ)i = 0
On pose alors
P? (ω) = C(ω)/kCk
et la propriété (4.6) entraı̂ne que
X
∀Y ∈ K hP? , Y i = Y (ω)P? (ω) > 0
ω∈Ω

Ceci entraı̂ne que


∀ω ∈ Ω P? (ω) > 0
D’autre part, pour tout portefeuille autofinancé avec
(Φ10 , Φ20 ) = (0, 0) =⇒ V0 (Φ) = Φ10 S01 + Φ20 S02 = 0
on a
X n
X 2 2
hP? , Vn (Φ)i = Vn (Φ)(ω)P? (ω) = E? ( Φ2k ∆S k ) = 0 = E? (Φ20 S 0 )
ω∈Ω k=1

En invoquant la proposition 3.1.1, page 68, on en déduit que les actifs risqués réactualisés
2
(S k )0≤k≤n forment une P? -martingale.

4.5.5 Réplication d’options et complétude


Dans cette section, nous supposerons implicitement que le modèle de marché financier
(Ω, (Fk )0≤k≤n , P) est viable.
Définition 4.5.3 Une option d’échéance n, ou encore de date d’exercice n, est une v.a. positive
f ∈ Fn . La v.a. f = βn f est appelée l’option actualisée de f . On dit que l’option f est simulable,
ou réplicable, s’il existe une stratégie autofinancée Φ = (Φk )0≤k≤n telle que f = Vn (Φ), ou de
façon équivalente telle que f = V n (Φ).
Un marché financier est dit complet lorsque toutes les options sont réplicables.
On notera que sous une mesure de probabilités à risque neutre P? , les valeurs des portefeuilles
réactualisés forment des martingales par rapport à la filtration (Fk )0≤k≤n . Ainsi, les options
réplicables f = V n (Φ) sont telles que
∀0 ≤ k ≤ n E? (f | Fk ) = E? (V n (Φ) | Fk ) = V k (Φ)
En particulier, leur P? -moyenne actualisées coı̈ncident avec le prix d’acquisition du portefeuille
qui la réplique
E? (f ) = E? (f | F0 ) = E? (V 0 (Φ) | F0 ) = V 0 (Φ)
140 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES

Théorème 4.5.2 Un marché financier (viable) est complet si, et seulement si, il existe une
unique mesure de probabilité à risque neutre.
Preuve:
Supposons que le marché est complet, et qu’il existe néanmoins deux probabilités à risque
neutre, notées P?1 , et P?2 . Si ces mesures sont distinctes, on peut choisir un évènement A ⊂ Ω,
tel que P?1 (A) 6= P?2 (A). D’après la complétude du marché, l’option réactualisée f = 1A = V n (Φ)
est réplicable par une gestion de portefeuille Φ. Le processus (V k (Φ))0≤k≤n étant à la fois une
P?1 -martingale, et une P?2 -martingale, nous avons simultanément
P?1 (A) = E?1 (f ) = V 0 (Φ) et P?2 (A) = E?2 (f ) = V 0 (Φ)
Notre raisonnement nous conduit donc à la contradiction P?1 (A) = P?2 (A).
Supposons désormais qu’il existe une seule probabilité mesure de probabilité à risque neutre
P? dans un marché incomplet. Dans cette situation, le sous espace formé des valeurs à l’échéance
de portefeuilles réactualisés
V = {V n (Φ) : Φ autofinancé}
est un sous espace strict de l’espace
E = {X : X v.a. réelles}
muni du produit scalaire
(X, Y ) ∈ E × E 7→ hX, Y i =déf. E? (XY )
Il existe donc une v.a. X non nulle, orthogonale à V (donc aussi orthogonale aux constantes).
Autrement dit, nous avons pour toute option réplicable V n (Φ) par une gestion de portefeuille
Φ
E? (X × 1) = 0 et E? (X × V n (Φ)) = 0
On choisit un réel positif a suffisamment grand de sorte que X + a > 0. On associe à ce dernier
la probabilité P?a définie par
a + X(ω)
∀ω ∈ Ω P?a (ω) = × P? (ω)
a
On vérifie aisément les deux faits suivants :
X X a + X(ω)
E? (X) = 0 =⇒ P?a (ω) = P? (ω) = 1
a
ω∈Ω ω∈Ω

et
(∃ω ∈ Ω : X(ω) 6= 0) =⇒ (∃ω ∈ Ω : P?a (ω) 6= P? (ω))
D’autre part, pour toute stratégie de gestion prévisible Φ, nous avons
n
!
X 2
? 2
V 0 (Φ) + Ea Φk ∆S k = E?a (V n (Φ))
k=1
 
a + X(ω)
= E? V n (Φ) × = E? (V n (Φ))
a
= V 0 (Φ)
On en conclut que pour toute stratégie de gestion prévisible Φ
n
X 2
E?a ( Φ2k ∆S k ) = 0
k=1
2
D’après la proposition 3.1.1, on en conclut que (S k )0≤k≤n est une P?a -martingale, et par
conséquent P?a est aussi une mesure de probabilités à risque neutre. Ceci est en contradiction
avec notre hypothèse de départ.
4.5. ANALYSE MATHÉMATIQUE 141

4.5.6 Couverture d’options


Soit f ∈ Fn une fonction de paiement réactualisée sur un marché financier (Ω, (Fk )0≤k≤n , P).
On rappelle qu’un portefeuille de couverture est une gestion de portefeuille Φ (autofinancée et
prévisible), telle que
V n (Φ) ≥ f
Du point de vue du vendeur, ou de l’acquéreur de l’option, les prix cohérents de ce droit
conditionnel sont donnés respectivement par les formules variationnelles suivantes.

C ? (f ) = inf V 0 (Φ) : ∃Φ V n (Φ) ≥ f

C? (f ) = sup V 0 (Φ) : ∃Φ V n (Φ) ≤ f
Dans un marché viable, et pour toute probabilité à risque neutre P? , on a toujours
C? (f ) ≤ E? (f ) ≤ C ? (f )
Pour vérifier ce couple d’inégalités, on rappelle que sous une probabilité à risque neutre, nous
avons
V 0 (Φ) = E? (V n (Φ)) ≤ E? (f )
pour tout portefeuille Φ tel que V n (Φ) ≤ f . Par définition de C? (f ), et en prenant le suprémum
sur les valeurs V 0 (Φ)
C? (f ) ≤ E? (f )
De même, pour tout portefeuille Φ tel que V n (Φ) ≥ f, nous avons
V 0 (Φ) = E? (V n (Φ)) ≥ E? (f )
Par définition de C ? (f ), et en prenant l’infimum sur les valeurs V 0 (Φ), on obtient la minoration
désirée
C ? (f ) ≥ E? (f )
Théorème 4.5.3 Dans un marché viable et complet (Ω, (Fk )0≤k≤n , P), nous avons
∀f ∈ Fn C? (f ) = E? (f ) = C ? (f )
De plus, il existe une gestion de portefeuille Φf telle que
V 0 (Φf ) = C ? (f ) et ∀0 ≤ k ≤ n V k (Φf ) = E? (f | Fk )
Preuve:
Lorsque le marché est complet, il existe une gestion de portefeuille Φf répliquant l’option f ∈ Fn .
Cette stratégie est dans l’intersection des deux ensembles sur lesquels les prix du vendeur, et
de l’acheteur, sont calculés
 
Φf ∈ Φ : V n (Φ) ≤ f ∩ Φ : V n (Φ) ≥ f
On a donc dans ce cas
C? (f ) = E? (f ) = C ? (f )
La dernière assertion provient simplement du fait que pour cette stratégie réplicante Φ f , nous
avons V n (Φ) = f . Plus précisément, sous la probabilité à risque neutre P? , le portefeuille
réactualisé (V k (Φf ))0≤k≤n est une martingale. Ainsi, V n (Φ) = f correspond au point
terminal d’une martingale. D’après les propriétés classiques des martingales décrites dans la
proposition 3.1.3, on en conclut que
∀0 ≤ k ≤ n V k (Φf ) = E? (V n (Φ | Fk ) = E? (f | Fk )
142 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Chapitre 5

Corrigés

5.1 Chapitre 1
Exercice 1.1.1 : Les quatre formules recherchées se démontrent par des arguments de
logique élémentaire. Pour la première, nous avons

ω ∈ A ∪ (B ∩ C) ⇔ (ω ∈ A ou ω ∈ (B ∩ C))
⇔ (ω ∈ A ou (ω ∈ B et ω ∈ C))
⇔ ((ω ∈ A ou ω ∈ B) et (ω ∈ A ou ω ∈ C))
= (A ∪ B) ∩ (A ∪ C)

Par un raisonnement analogue, on obtient

ω ∈ A ∩ (B ∪ C) ⇔ (ω ∈ A et ω ∈ (B ∪ C))
⇔ (ω ∈ A et (ω ∈ B ou ω ∈ C))
⇔ ((ω ∈ A et ω ∈ B) ou (ω ∈ A et ω ∈ C))
= (A ∩ B) ∪ (A ∩ C)

Enfin on note que

ω ∈ (A ∪ B)c ⇔ ω 6∈ (A ∪ B)
⇔ (ω 6∈ A et ω 6∈ B) ⇔ ω ∈ (Ac ∩ B c )

et

ω ∈ (A ∩ B)c ⇔ ω 6∈ (A ∩ B)
⇔ (ω 6∈ A ou ω 6∈ B) ⇔ ω ∈ (Ac ∪ B c )

Exercice 1.1.2 : L’inégalité recherchée est triviale lorsque n = 1. Supposons qu’elle soit
satisfaite au rang n. Comme l’on a

P([A1 ∪ . . . ∪ An ] ∪ An+1 )

= P([A1 ∪ . . . ∪ An ]) + P(An+1 ) − P([A1 ∪ . . . ∪ An ] ∩ An+1 )

≤ P([A1 ∪ . . . ∪ An ]) + P(An+1 )

d’après notre hypothèse, on en conclut que

P([A1 ∪ . . . ∪ An ] ∪ An+1 ) ≤ [P(A1 ) + . . . + P(An )] + P(An+1 )

143
144 CHAPITRE 5. CORRIGÉS

Exercice 1.1.3 : En toute logique, nous avons

ω ∈ A4B ⇔ (ω ∈ [A ∩ B c ] ou ω ∈ [B ∩ Ac ])
⇔ ((ω ∈ A etω 6∈ B) ou (ω ∈ B etω 6∈ A))
⇔ (ω est exclusivement dans A ou dans B)

Par ailleurs, les ensembles [A ∩ B c ] et [B ∩ Ac ] étant disjoints, on note que

1A4B = 1[A∩B c ]∪[B∩Ac ] = 1A∩B c + 1A∩Ac


= 1A (1 − 1B ) + 1B (1 − 1A ) = 1A + 1B − 21A∩B

On en conclut que
X
P(A4B) = 1A4B (ω) P(ω) = P(A) + P(B) − 2P(A ∩ B)
ω∈Ω

Problème 1.1.1 :
1. On a clairement 1A1 ∩A2 = 1A1 ∩ 1A2 . De même, lorsque deux évènements A, B sont
disjoints, nous avons
A ∩ B = ∅ =⇒ 1A∪B = 1A + 1B
En particulier, on a 1A +1Ac = 1, pour tout évènement A ⊂ Ω. Par conséquent, on obtient

1A1 ∪A2 = 1 − 1[A1 ∪A2 ]c = 1 − 1[Ac1 ∩Ac2 ] = 1 − 1Ac1 1Ac2

Comme l’on a aussi 1cA = 1 − 1A , on en conclut que

1A1 ∪A2 = 1 − (1 − 1A1 )(1 − 1A2 ) = 1A1 + 1A2 − 1A1 ∩A2

2. En utilisant les remarques précédentes, on obtient

1∪np=1 Ap = 1 − 1[∪np=1 Ap ]c = 1 − 1∩np=1 Acp


n
Y n
Y 
= 1− 1Acp = 1 − 1 − 1 Ap
p=1 p=1

3. En utilisant la formule
n
Y n
X X
(1 + ai ) = 1 + a i1 . . . a ip (5.1)
i=1 p=1 1≤i1 <...<ip ≤n

nous avons
n
Y n
X X

1− 1 − 1 Ap = − (−1)p 1Ai1 . . . 1Aip
p=1 p=1 1≤i1 <...<ip ≤n

Comme −(−1)p = (−1)p+1 = (−1)p−1 , on en conclut que


X
P(∪ni=1 Ai ) = 1∪ni=1 Ai (ω) P(ω)
ω∈Ω
n
X X
= (−1)p−1 P(Ai1 ∩ . . . ∩ Aip )
p=1 1≤i1 <...<ip ≤n
5.1. CHAPITRE 1 145

4. Lorsque ω ∈ A, on a
(1 + u)1A (ω) = 1 + u = 1 + u 1A (ω)
Dans le cas contraire, on ω 6∈ A, et dans cette situation on a encore
(1 + u)1A (ω) = 1 = 1 + u 1A (ω)
Il est alors clair que
Pn n
Y n
Y
1 Ai
(1 + u) i=1 = (1 + u)1Ai = (1 + u 1Ai )
i=1 i=1

En utilisant à nouveau la formule (5.1), on trouve que


Pn n
Y
1 Ai
(1 + u) i=1 = (1 + u 1Ai )
i=1
n
X X
= 1+ up 1 A i 1 . . . 1 A i p
p=1 1≤i1 <...<ip ≤n

En sommant sur tous l’espace Ω, on obtient l’identité recherchée


X Pn n
X X
1Ai (ω)
(1 + u) i=1 P(ω) = 1 + up P(Ai1 ∩ . . . ∩ Aip )
ω∈Ω p=1 1≤i1 <...<ip ≤n

5. Si on pose u = −1, alors on a


Pn n
X
1Ai (ω)
0 i=1 = 10 [ 1Ai (ω)] = 1∩ni=1 Aci (ω) = 1[∪ni=1 Ai ]c (ω)
i=1

Il en découle la formule
X
1[∪ni=1 Ai ]c (ω) = P([∪ni=1 Ai ]c ) = 1 − P(∪ni=1 Ai )
ω
n
X X
= 1+ (−1)p P(Ai1 ∩ . . . ∩ Aip )
p=1 1≤i1 <...<ip ≤n

On retrouve ainsi la formule de Poincaré


n
X X
P(∪ni=1 Ai ) = (−1)p−1 P(Ai1 ∩ . . . ∩ Aip )
p=1 1≤i1 <...<ip ≤n

Exercice 1.1.4 : L’ordre de sélection de boules étant sans effet, ce procédé de sélection peut
être décrit par l’ensemble
Ω = {ω : ω = [ω1 , . . . , ωN1 ] avec ωi ∈ {1, . . . , N }}
N1 N1
Par construction, on a donc |Ω| = CN +(N1 −1) = C2N1 +(N2 −1) . En supposant que les N1 boules
c
rouges sont numérotées de 1 à N1 , Le contraire A de l’évènement recherché A est donnée par
Ac = {ω : ω = [ω1 , . . . , ωN1 ] avec ωi ∈ {N1 + 1, . . . , N1 + N2 }}
N1 N1
On a donc |Ac | = CN 2 +(N1 −1)
= CN −1 , et par conséquent

(N −1)!
c N1 N1 N1 !(N −N1 −1)!
P(A ) = CN −1 /CN −1+N1 = (N −1+N1 )!
N1 !(N −1)!
(N − 1)!2
=
(N2 − 1)!(N + (N1 − 1))!
146 CHAPITRE 5. CORRIGÉS

On pourra noter que


N2 (N2 + 1) . . . (N2 + (N1 − 1))
P(Ac ) =
(N + (N1 − 1))([N + (N1 − 2)) . . . (N + 1) × N
(N2 + N1 − N1 ) (N2 + 1 + N1 − N1 ) . . . ((N2 + (N1 − 1)) + N1 − N1 )
=
(N1 + N2 ) (N1 + (N2 + 1)) . . . (N1 + (N2 + N1 − 1))
     
N1 N1 N1
= 1− × 1− ×... × 1−
N N +1 N + (N1 − 1)
 N1  
N1 N12
≤ 1− ≤ exp −
N + (N1 − 1) N + (N1 − 1)
En particulier, lorsque
(N1 − 1)2 ≥ N2
on a N12 ≥ 2N1 − 1 + N2 = N + (N1 − 1), et dans ce cas on trouve que
1
P(A) ≥ 1 − ' 0, 63
e

Exercice 1.1.5 : On interprète ce problème comme une sélection de n boules avec remise
dans une urne à N = 365 boules. Le choix d’une boule s’interprète comme le choix d’une date
d’anniversaire. Dans cette interprétation, l’espace des évènements élémentaires est donnée par

Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {1, . . . , N }}

L’évènement où il n’y a aucune coı̈ncidence de date est donnée par

A = {ω : ω = (ω1 , . . . , ωn ) avec ωi 6= ωj ∀i 6= j}

On a clairement

|Ω| = N n et |A| = (N )n (= N (N − 1) . . . (N − (n − 1)))

de sorte que
    
|A| (N )n 1 2 (n − 1)
P(A) = = = 1− 1− ... 1−
|Ω| Nn N N N
En utilisant la formule (1 − x) ≤ e−x , valable pour tous les x ∈ [0, 1], on obtient la majoration
 
n
1 X n(n − 1)
P(A) ≤ exp − j  = exp −
N j=1 2N

La probabilité Pn pour qu’au moins deux étudiants dans un classe de n personnes aient la même
date d’anniversaire, est donnée alors par
(365)n n(n−1)
Pn = 1 − n
≥ 1 − e− 2×365
365
Pour n = 31, on peut remarquer que
1
n(n − 1) > (n − 1)2 = 302 = 900 > 730 = 2 × 365 ⇒ P31 > 1 − ' 0, 63
e

Exercice 1.1.6 : On commence par remarquer que l’ordre d’achat des n billets est sans effets.
Ce jeu de hasard peut donc être décrit par l’ensemble

Ω = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {1, . . . , N } et ωi 6= ωj ∀i 6= j}


5.1. CHAPITRE 1 147

n
On a alors |Ω| = CN . En supposant que les billets gagnants sont numérotés de 1à n, le contraire
Ac de l’évènement recherché est donné par
Ac = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {n + 1, . . . , N } et ωi 6= ωj ∀i 6= j}
On a donc |Ac | = CN
n
−n , et de ce fait
n
CN −n (N − n)! n!(N − n)!
P(Ac ) = n = ×
CN n!(N − 2n)! N!
(N − n)(N − (n + 1)) . . . (N − (2n − 1))
=
N (N − 1) . . . (N − (n − 1))
(N − n)((N − 1) − n) . . . ((N − n + 1) − n)
=
N (N − 1) . . . (N − (n − 1))
    
n n n
= 1− 1− ... 1−
N N −1 N − (n − 1)
On note que  n
n n2
P(Ac ) ≤ 1− ≤ exp −
N − (n − 1) N
1
Pour N ≤ n2 , on remarque que P(A) ≥ 1 − e ' 0, 63
Exercice 1.1.7 : Ce jeu de loto peut être décrit par l’ensemble des aléas désordonnés suivant
Ω = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {1, . . . , N } et ωi 6= ωj ∀i 6= j}
n
avec n = 6, et N = 49. On note que |Ω| = CN , et l’évènement où l’on choisi les 6 premières
boules correspond au singleton {h1, . . . , ni}. La probabilité P recherchée est alors simplement
donnée par
1
P = 6 ' 7.2 10−8
C49

Exercice 1.2.3 : On a les équivalences


1A∩B (ω) = 1 ⇔ (ω ∈ A et ω ∈ B)
⇔ (1A (ω) = 1 et 1B (ω) = 1) ⇔ 1A (ω)1B (ω) = 1
On a aussi, pour tout couple d’ensembles A, B disjoints
1A∪B (ω) = 1 ⇔ (ω ∈ A ou ω ∈ B)
⇔ (1A (ω) = 1 ou 1B (ω) = 1) ⇔ 1A (ω) + 1B (ω) = 1
En particulier, on notera que 1Ac + 1A = 1. On a ainsi
1A−B = 1A∩B c = 1A 1B c = 1A (1 − 1B ) = 1A − 1A 1B
En utilisant la décomposition
A ∪ B = (A − B) ∪ (B − A) ∪ (A ∩ B)
on obtient
1A∪B = 1A (1 − 1B ) + 1B (1 − 1A ) + 1A 1B
= 1 A + 1 B − 1 A 1B = 1 A ∨ 1 B
1A4B = 1A (1 − 1B ) + 1B (1 − 1A )
= 1A + 1B − 21A 1B = (1A − 1B )2 = |1A − 1B |

Exercice 1.2.4 :
148 CHAPITRE 5. CORRIGÉS

1. L’algèbre a(D) étant la plus petite algèbre contenant D, il suffit de noter que

D ⊂ b(D) ⊂ a(D) =⇒ a(D) = b(D)

2. On peut commencer par noter que

∀i ∈ I Xi−1 ({1}) = Di et Xi−1 ({0}) = Ω − Di = ∪j∈I−{i} Dj ∈ σ(D)

Plus généralement, nous avons

{ω : Xi (ω) = 1 et Xj (ω) = 0 ∀j ∈ I − {i}} = Di ∈ σ(D)

et pour toute suite (ui )i∈I contenant au moins deux composantes égales à 1

{ω : Xj (ω) = uj ∀j} = ∅

On en conclut que
σ(Xi , i ∈ I) ⊂ σ(D)
L’inclusion inverse est à nouveau une conséquence du fait que

∀i ∈ I Di = {ω : Xi (ω) = 1 et Xj (ω) = 0 ∀j ∈ I − {i}} ∈ σ(Xi , i ∈ I)

3. Cette question découle de la proposition 1.2.2

Exercice 1.2.5 :
1. On construit la partition D, en choisissant le plus grand sous-ensemble D = (Di )i∈I formé
d’évènements deux à deux disjoints de F. Si D n’était pas une partition de Ω, l’ensemble

(∪i∈I Di )c = ∩i∈I Dic ∈ F

serait un évènement non vide, et disjoint à tous les Di . Par conséquent cet ensemble aurait
été omis dans la construction de D. Par construction, on a

D ⊂ F =⇒ σ(D) ⊂ F

D’autre part, l’algèbre F est formée des réunions (finies) d’ensembles de D. On a donc

F ⊂ σ(D) =⇒ σ(D) = F

2. Cette question est une conséquence immédiate de l’exercice 1.2.4

Exercice 1.2.10 :
1. On obtient facilement que

A1 ∩ A 2 = {(i, j) ∈ Ω : j ∈ {1, 2, 5} et j ∈ {4, 5, 6}}


= {(i, j) ∈ Ω : j = 5} A1 ∩ A3 = {(4, 5)}
A2 ∩ A 3 = {(i, j) ∈ Ω : j ∈ {4, 5, 6}} ∩ {(3, 6), (6, 3), (4, 5), (5, 4)}
= {(4, 5), (3, 6), (5, 4)}
A1 ∩ A 3 ∩ A 3 = A1 ∩ A3 = {(4, 5)}
5.1. CHAPITRE 1 149

2. On a
1 18 18 4
P(A1 ∩ A2 ∩ A3 ) = = × × = P(A1 ) × P(A2 ) × P(A3 )
36 36 36 36
De même, on montre que
6 1 18 18 1
P(A1 ∩ A2 ) = = 6= × = = P(A1 ) × P(A2 )
36 6 36 36 4
3 1 18 4 1
P(A2 ∩ A3 ) = = 6= × = = P(A2 ) × P(A3 )
36 12 36 36 18

Exercice 1.3.1 Pour comprendre ce problème de statistique, il convient de noter que l’on a
supposé implicitement que les taux d’objets défectueux p1 , p2 ont été calculés sur la même base
de production. Autrement dit, M1 et M2 produisent chaque jours

d1 = m1 p1 = 5 et d2 = m2 p2 = 20

objets défectueux. On représente le choix au hasard d’un objet parmi les m1 + m2 objet par
l’ensemble des indices Ω = {1, . . . , (m1 + m2 )}, muni de la tribu discrète F = P(Ω), et de la
probabilité uniforme
1 1
∀ω ∈ Ω P(ω) = =
m1 + m 2 300
Sans perte de généralité, et à une permutation d’indices près, on peut supposer que les
évènements A1 = {1, . . . , m1 }, et A2 = m1 + {1, . . . , m2 }, représentent respectivement les
objets produits par M1 , et par M2 . Le couple {A1 , A2 } forme clairement une partition de Ω,
et l’on a
|A1 | m1 1
P(A1 ) = 1 − P(A2 ) = = =
|Ω| m1 + m 2 3
L’ensemble des objets défectueux quotidien B est formé de d1 + d2 objets, dont d1 dans A1 , et
d2 dans A2 . On retrouve ainsi le fait que

P(B|Ai ) = |B ∩ Ai |/|Ai | = di /mi = pi

On obtient alors
X
P(B) = P(B|Ai )P(Ai )
i∈{1,2}
m1 p 1 + m 2 p 2 d1 + d 2 1 1 1
= = = + =
m1 + m 2 m1 + m 2 60 15 12
Ce résultat peut être retrouvé de façon immédiate, en notant que tout simplement que P(B) =
|B|/|Ω|. Ceci répond à la première question. Les probabilités pour que l’une des machines M i ,
i = 1, 2, est produit cet objet défectueux, correspondent aux probabilités P(A i |B), i = 1, 2, de
choisir cet objet dans Ai , i = 1, 2, sachant que ce dernier est dans B. D’après la formule de
Bayes, on a

P(B|Ai )P(Ai )
P(Ai |B) = P
j∈{1,2} P(B|Aj )P(Aj )
 
p i mi di 1 4
= = = 1i=1 + 1i=2
p 1 m1 + p 2 m2 d1 + d 2 5 5

On remarque que cette formule est bien cohérente avec notre intuition. En effet, si l’on restreint
notre choix aux pièces défectueuses, on a bien évidemment di /(d1 +d2 ) = |Ai ∩B|/|B| “chances”
pour qu’elle provienne de la machine Mi !
Exercice 1.3.2 Cette expérience aléatoire se déroule en deux temps. On choisit tout d’abord
150 CHAPITRE 5. CORRIGÉS

une pièce ω1 = {0, 1} dans un sac Ω1 contenant deux pièces de monnaie ; la valeur ω1 = 1
correspond au choix de la pièce équitable, et la valeur ω1 = 0 représente le choix de la pièce
ayant une probabilité 1/3 de donner le coté“face”. Une fois la pièce choisie, on la lance et l’on
observe un résultat ω2 ∈ Ω2 = {0, 1}. Dans ce cas, la valeur ω2 = 1 correspond au coté “face”,
et la valeur ω2 = 0 représente le coté “pile”. L’exercice peut être résolu selon deux approches
connexes. La première consiste à décrire avec précision l’espace des évènements possibles. La
seconde est liée à une interprétation dynamique naturelle de l’expérience en question.
1. L’espace des épreuves associé à l’expérience complète est donc donné par Ω = {0, 1} 2.
Chaque évènement élémentaire ω = (ω1 , ω2 ) ∈ {0, 1}2, représente le choix de la pièce ω1 ,
et le résultat du lancer ω2 . D’après l’énonce, nous avons
1 1
P({(1, 1)}) = × = P({(1, 0)})
2 2
et
1 1 1 2
P({(0, 1)}) = × , P({(0, 0)}) = ×
2 3 2 3
Les évènements

F = {(0, 1), (1, 1)}, F c = {(0, 0), (1, 0)}


E = {(1, 0), (1, 1)}, E c = {(0, 1), (0, 0)}

représentent respectivement la situation où le résultat du lancer est “face” (F ), celle où
le lancer est “pile”(F c ), le fait d’avoir choisi la pièce équitable (E), et celui d’avoir choisi
la pièce non équitable (E c ). On a donc
1 1 1 1 1
P(F ) = + et P(E) = + =
6 4 4 4 2
De même on montre que

1/4 1 1/6 1
P(F |E) = = = 1 − P(F c |E) et P(F |E c ) = =
1/4 + 1/4 2 1/2 3

On en conclut que

P(F |E)P(E) 1/4


P(E|F ) = =
P(F |E)P(E) + P(F |E c )P(E c ) 1/4 + 1/6
3
= = 1 − P(E c |F )
5
2. La seconde méthode consiste à exploiter l’aspect temporel de l’expérience, de sorte à éviter
une représentation complète de l’espace des épreuves. On note X1 et X2 les variables
aléatoires à valeurs dans {0, 1} représentant le choix initial X1 de la pièce, et le résultat
du lancer. D’après l’énoncer, le choix de la pièce dans le sac est uniforme
1
P(X1 = 1) = P(X1 = 0) =
2
D’autre part, sachant que la pièce est équitable, le résultat du lancer sera encore uniforme
1
P(X2 = 1|X1 = 1) = P(X2 = 0|X1 = 1) =
2
Si la pièce choisie n’est pas équitable, alors nous aurons une probabilité 1/3 de voir le
coté“face” représenté par la valeur 1
1
P(X2 = 1|X1 = 0) = = 1 − P(X2 = 0|X1 = 0)
3
5.1. CHAPITRE 1 151

On retrouve ainsi le résultat recherché


P(X1 = 1|X2 = 1)

P(X2 =1|X1 =1)P(X1 =1)


= P(X2 =1|X1 =1)P(X1 =1)+P(X2 =1|X1 =0)P(X1 =0)

1/4 3
= 1/4+1/6 = 5 = 1 − P(X1 = 0|X2 = 1)

On remarquera que cette méthode est une reformulation dynamique de la précédente.


Plus précisément, si l’on considère les variables canoniques

X1 (ω1 , ω2 ) = ω1 et X2 (ω1 , ω2 ) = ω2

les équations précédentes sont une reformulation de celles décrites dans la première
méthode.

Exercice 1.3.3 La formule multiplicative recherchée est une conséquence directe de la formule
récursive suivante
n−1 n−1 n−1
P(An ∩ [∩p=1 An ] | B) = P(An | B ∩ [∩p=1 Ap ]) P(∩p=1 An | B)

Pk
Exercice 1.3.4 Par définition des v.a. Sk = i=1 Xi , nous avons pour tout m ≤ n, et
0≤k≤l≤n
P(Sn = l, Sm = k) P(Sn − Sm = (l − k), Sm = k)
PSm |Sn (k|l) = =
P(Sn = l) P(Sn = l)
Pn Pm
P( i=m+1 Xi = (l − k), i=1 X i = k)
=
P(Sn = l)
P(Sn−m = (l − k)) × P(Sm = k)
=
P(Sn = l)
 l−k l−k  k k 
Cn−m p (1 − p)(n−m)−(l−k) Cm p (1 − p)m−k
=
Cnl pl (1 − p)n−l
l−k k
Cn−m Cm
=
Cnl
Lorsque m = 1, et k = 1, on obtient clairement
l−1
Cn−1 C11
PX1 |Sn (1|l) = = l/n
Cnl

Exercice 1.3.5 Tout d’abord, on note que

P(X1 ...,Xn )|X0 (x1 , . . . , xn |x0 )


PXn |(X0 ...,Xn−1 ) =
P(X1 ...,Xn−1 )|X0 (x1 , . . . , xn−1 |x0 )

D’après l’équation (1.6), on a nécessairement

PXn |(X0 ...,Xn−1 ) = pn (xn |x0 , . . . , xn−1 )


152 CHAPITRE 5. CORRIGÉS

Exercice 1.3.6 En utilisant la formule (1.5), on montre que pour toute v.a. Y1 mesurable
par rapport à σ(X1 ) on a

E(Y1 [f2 (X2 ) − E(f2 (X2 ) | X1 )]) = 0

Si l’on remplace Y1 par la v.a. [E(f2 (X2 ) | X1 ) − Y1 ], on trouve

E([E(f2 (X2 ) | X1 ) − Y1 ] [f2 (X2 ) − E(f2 (X2 ) | X1 )]) = 0

On démontre ainsi que pour toute v.a. Y1 mesurable par rapport à σ(X1 )

E((f2 (X2 ) − Y1 )2 )

= E(([f2 (X2 ) − E(f2 (X2 ) | X1 )] + [E(f2 (X2 ) | X1 ) − Y1 ])2 )

= E([f2 (X2 ) − E(f2 (X2 ) | X1 )]2 ) + E([E(f2 (X2 ) | X1 ) − Y1 ]2 )

La preuve du résultat recherché est désormais claire.

Exercice 1.3.7 On remarque tout d’abord que

PX3 ,X2 |X1 (x3 , x2 |x1 ) = PX3 |X1 ,X2 (x3 |x1 , x2 ) PX2 |X1 (x2 |x1 )

En sommant sur la seconde coordonnée, on obtient


X
PX3 |X1 (x3 |x1 ) = PX3 |X1 ,X2 (x3 |x1 , x2 ) PX2 |X1 (x2 |x1 )
x2 ∈E2

On en conclut que

E(E(f (X3 ) | X2 , X1 ) | X1 = x1 )
P P
= x2 x3 f (x3 )

×PX3 |X2 ,X1 (x3 | x2 , x1 )PX2 |X1 (x2 |x1 )


P
= x3 f (x3 )
P 
× x2 PX3 |X2 ,X1 (x3 | x2 , x1 )PX2 |X1 (x2 |x1 )

= E(f (X3 ) | X1 = x1 )

Exercice 2.5.1 : On représente les échecs ou les succès des trois lancers par trois v.a. de
Bernoulli indépendantes

P(Xi = 1) = 1 − P(Xi = 0) = 1/6 avec i = 1, 2, 3

Pour calculer P(B1 ), on utilise le modèle d’arbre binomial donné par la figure suivante
5.1. CHAPITRE 1 153

0
X_1=1_{6}
0
1 B_1={(0,0,1), (0,1,0), (1,0,0)}

0 0 P(B_1)=P(X_1+X_2+X_3=1)=3 (1/6)^1 (5/6)^2


1
1

0 1

1 0
1

Fig. 5.1 – Chemins dans B1

Pour calculer P(B2 ), on utilise le modèle d’arbre binomial

0
X_1=1_{6}
0
1

0 0
1 B_2={(0,1,1), (1,0,1), (1,1,0)}

1
P(B_2)=P(X_1+X_2+X_3=2)=3 (1/6)^2 (5/6)^1

0 1

1 0
1

Fig. 5.2 – Chemins dans B2

Enfin, pour calculer P(B3 ), on note simplement que

P(B3 ) = P(X1 + X2 + X3 = 3) = P(X1 = 1, X2 = 1, X3 = 1) = (1/6)3

Exercice 2.5.2 :
L’arbre des épreuves est donné par
154 CHAPITRE 5. CORRIGÉS

Omega_n={w^i : i=1,...,16}
0 w^1=(0,0,0,0)
2/3

0 1 w^2=(0,0,0,1)
1/3
2/3
0 w^3=(0,0,1,0)
0
2/3

1/3 1 1/3
2/3 1 w^4=(0,0,1,1)
2/3 0 w^5=(0,1,0,0)
0 0
2/3
1/3 1 w^6=(0,1,0,1)
2/3 1/3 0 w^7=(0,1,1,0)
1 1
1/3 1/3 1 w^8=(0,1,1,1)
0 w^9=(1,0,0,0)
2/3 0
0 1/3 1 w^{10}=(1,,0,0,1)
2/3 0 w^{11}=(1,0,1,0)
1/3
1/3
1
1/3 1 w^{12}=(1,0,1,1)
1 0 w^{13}=(1,1,0,0)
2/3 2/3
1/3 0

1/3 1 w^{14}=(1,10,1)
1
0 w^{15}=(1,1,1,0)
1/3 2/3
1 w^{16}=(1,1,1,1)
1/3 1

k=1 k=2 k=3 k=4

Fig. 5.3 – Arbre binomial

L’espace des épreuves associé à ce modèle binomial sur 4 périodes correspond à l’ensemble
produit
Ω = {0, 1}{1,2,3,4} = {ω i : i = 1, . . . , 16}

Exercice 2.5.3 :
L’arbre des épreuves est donné par

Omega_n={w^i : i=1,...,16}
0 w^1=(0,0,0,0)
4/5

0 1 w^2=(0,0,0,1)
3/4 1/5
0 w^3=(0,0,1,0)
0
4/5
1/4
2/3 1
1/5 1 w^4=(0,0,1,1)

4/5 0 w^5=(0,1,0,0)
0 0
3/4 1/5
1/3 1 w^6=(0,1,0,1)
1/2 0 w^7=(0,1,1,0)
1 1/4 1 4/5
1/5 1 w^8=(0,1,1,1)
0 w^9=(1,0,0,0)
4/5
3/4
0 1/5
0 1 w^{10}=(1,,0,0,1)

2/3 4/5 0 w^{11}=(1,0,1,0)


1/4
1/2 1 1/5 w^{12}=(1,0,1,1)
1
1 4/5 0 w^{13}=(1,1,0,0)
3/4
0
1/3 1/5
1 w^{14}=(1,10,1)
1
4/5 0 w^{15}=(1,1,1,0)
1/4
1 1/5 w^{16}=(1,1,1,1)
1

Fig. 5.4 – Arbre binomial


5.1. CHAPITRE 1 155

L’espace des épreuves associé à ce modèle binomial sur 4 périodes correspond à l’ensemble
produit
Ω = {0, 1}{1,2,3,4} = {ω i : i = 1, . . . , 16}

Exercice 2.5.4 :
L’arbre des épreuves peut être décrit par un raisonnement similaire à ceux utilisés dans les
exercices précédents. On a aussi clairement

P(X0 = 1, X1 = 2, X2 = 1, X3 = 1, X4 = 2) = M1 (1, 2)M2 (2, 1)M3 (1, 1)M4 (1, 2)


P(X0 = 1, X1 = 3, X2 = 2, X3 = 1, X4 = 1) = M1 (1, 3)M2 (3, 2)M3 (2, 1)M4 (1, 1)
P(X0 = 1, X1 = 2, X2 = 2, X3 = 1, X4 = 1) = M1 (1, 2)M2 (2, 2)M3 (2, 1)M4 (1, 1)

Exercice 2.5.5 :
1. L’arbre des épreuves associé à l’évolution markovienne sur une période

X0 = x0 ∈ E0 = {x0 } −→ X1 ∈ E1 = {x1,1 , x1,2 }

est donné par la figure suivante.

Omega={omega^1,\omega^2}

x(1,1) omega^1

x0

x(1,2) omega^2

Fig. 5.5 –

Cette évolution markovienne correspond au tableau suivant

Ω X0 X1
ω1 x0 x1,1
ω2 x0 x1,2

2. Les évènements cylindriques sur l’espace Ω = {ω 1 , ω 2 } sont donnés par

A0 (x0 ) = X0−1 ({x0 }) = {ω 1 , ω 2 } = Ω


A1 (x0 , x1,1 ) = (X0 , X1 )−1 ({(x0 , x1,1 )}) = {ω 1 }
A1 (x0 , x1,2 ) = (X0 , X1 )−1 ({(x0 , x1,2 )}) = {ω 2 }

3. Les décompositions de l’espace Ω sont décrites par

D0X = {X0−1 ({x}) : x ∈ E0 } = {Ω, ∅}


D1X = {(X0 , X1 )−1 ({(x, y)}) : (x, y) ∈ (E0 × E1 )} = {∅, Ω, {ω 1 }, {ω 2}}
156 CHAPITRE 5. CORRIGÉS

4. Les algèbres FkX engendrées par les partitions DkX , avec k = 0, 1, sont données par
F0X = {Ω, ∅} et F1X = {∅, Ω, {ω 1}, {ω 2 }}
5. Immédiat. Il suffit en effet de noter que l’on a
∀ω ∈ Ω = {ω 1 , ω 2 } X0 (ω) = x0
et
2 
X x1,1 si ω = ω 1
X1 (ω) = x1,i 1{ωi } (ω) =
x1,2 si ω = ω 2
i=1

6. La quantité moyenne E(X1 |F0X ) est donnée par la formule


E(X1 |F0X ) = E(X1 ) = x1,1 P(X1,1 | X0 = x0 ) + x1,2 P(X1,1 | X0 = x0 )
= E(X1 ) = x1,1 P({ω 1 }) + x1,2 P({ω 2 })
Pour trouver la probabilité P? il suffit de résoudre l’équation
E? (X1 |F0X ) = X0 ⇐⇒ x1,1 P({ω 1 }) + x1,2 P({ω 2 }) = x0
⇐⇒ x1,1 P({ω 1 }) + x1,2 (1 − P({ω 1 })) = x0
Il est clair que cette équation admet une solution si, et seulement si, nous avons
x1,1 < x0 < x1,2 ou x1,2 < x0 < x1,1
Dans ces deux situations, P? est donnée par
x0 − x1,2 x1,1 − x0
P({ω 1 }) = et P({ω 2 }) =
x1,1 − x1,2 x1,1 − x1,2

Exercice 2.5.6 : L’arbre des épreuves correspondant à ce modèle est décrit dans la figure
suivante.

x(2,1) omega^1

x(1,1)

x(2,2) omega^2

x0
x(2,3) omega^3

x(1,2)

x(2,4) omega^4

Fig. 5.6 – Arbre binomial

1. Sur l’espace des évènements Ω = {ω i , i = 1, 2, 3, 4}, nous avons


A0 (x0 ) = X0−1 ({x0 }) = Ω
A1 (x0 , x1,1 ) = (X0 , X1 )−1 ({(x0 , x1,1 )}) = {ω 1 , ω 2 }
A1 (x0 , x1,2 ) = (X0 , X1 )−1 ({(x0 , x1,2 )}) = {ω 3 , ω 4 }
A2 (x0 , x1,1 , x2,1 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,1 , x2,1 )}) = {ω 1 }
A2 (x0 , x1,1 , x2,2 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,1 , x2,2 )}) = {ω 2 }
A2 (x0 , x1,2 , x2,3 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,2 , x2,3 )}) = {ω 3 }
A2 (x0 , x1,2 , x2,4 ) = (X0 , X1 , X2 )−1 ({(x0 , x1,2 , x2,4 )}) = {ω 4 }
5.1. CHAPITRE 1 157

2. Les décompositions DkX de Ω sont données par

D0X = {Ω}
D1X = {{ω 1 , ω 2 }, {ω 3 , ω 4 }}
D2X = {{ω 1 }, {ω 2 }, {ω 3 }, {ω 4}}

3. Les algèbres FkX engendrées par les partitions DkX , sont décrites ci-après

F0X = {∅, Ω}
F1X = {∅, Ω, {ω 1, ω 2 }, {ω 3 , ω 4 }} et F2X = P(Ω)

4. Immédiat. Il suffit en effet de noter que pour tout ω ∈ Ω, nous avons

X0 (ω) = x0
4
X
X1 (ω) = x1,1 1{ω1 ,ω2 } (ω) + x1,2 1{ω3 ,ω4 } (ω) et X2 = x2,i 1ωi (ω)
i=1

5. Par construction, nous avons

E(X1 |F0X ) = E(X1 |)


= x1,1 P(X1 = x1,1 | X0 = x0 ) + x1,2 P(X1 = x1,2 | X0 = x0 )
= x1,1 P({ω 1 , ω 2 }) + x1,2 P({ω 2 , ω 4 })

E(X2 |F1X ) = E(X2 |X1 = x1,1 )1{ω1 ,ω2 } + E(X2 |X1 = x1,2 )1{ω3 ,ω4 }


= x2,1 P({ω 1 } | {ω 1 , ω 2 }) + x2,2 P({ω 2 } | {ω 1 , ω 2 }) 1{ω1 ,ω2 }

+ x2,3 P({ω 3 } | {ω 3 , ω 4 }) + x2,4 P({ω 4 } | {ω 3 , ω 4 }) 1{ω3 ,ω4 }

6. Pour quelle probabilité P? sur Ω a-t-on

E? (X2 |F1X ) = X1 et E? (X1 |F0X ) = X0

D’après la question précédente, la condition E(X2 |F1X ) = X1 est équivalente au fait que

x1,1 = x2,1 P? ({ω 1 } | {ω 1 , ω 2 }) + x2,2 P? ({ω 2 } | {ω 1 , ω 2 })



= x2,1 P? ({ω 1 } | {ω 1 , ω 2 }) + x2,2 1 − P? ({ω 1 } | {ω 1 , ω 2 })
x1,2 = x2,3 P? ({ω 3 } | {ω 3 , ω 4 }) + x2,4 P? ({ω 4 } | {ω 3 , ω 4 })

= x2,3 P? ({ω 3 } | {ω 3 , ω 4 }) + x2,4 1 − P? ({ω 3 } | {ω 3 , ω 4 })

Par un raisonnement analogue à celui utilisé dans l’exercice 2.5.5 ces équations admettent
une solution si, et seulement si, les deux conditions suivantes sont satisfaites

1) x2,1 < x1,1 < x2,2 ou x2,2 < x1,1 < x2,1

et
2) x2,3 < x1,2 < x2,4 ou x2,4 < x1,2 < x2,3
Dans ces conditions, nous avons
x1,1 − x2,2
P? ({ω 1 } | {ω 1 , ω 2 }) = = 1 − P? ({ω 2 } | {ω 1 , ω 2 })
x2,1 − x2,2
et
x1,2 − x2,4
P? ({ω 3 } | {ω 3 , ω 4 }) = = 1 − P? ({ω 3 } | {ω 3 , ω 4 })
x2,3 − x2,4
158 CHAPITRE 5. CORRIGÉS

Il nous reste à noter que la condition E? (X1 |F0X ) = X0 est équivalente au fait que
x0 = x1,1 P? ({ω 1 , ω 2 }) + x1,2 (1 − P? ({ω 1 , ω 2 }))
Comme précédemment, cette équation admet une solution si, et seulement si, nous avons
3) x1,1 < x0 < x1,2 ou x1,2 < x0 < x1,1
Dans ce cas, on obtient
x0 − x1,2
P? ({ω 1 , ω 2 }) = = 1 − P? ({ω 3 , ω 4 })
x1,1 − x1,2
Lorsque les trois conditions 1), 2), 3) sont vérifiées, on obtient aisément les valeurs de
P? . On a par exemple
P? ({ω 1 }) = P? ({ω 1 } | {ω 1 , ω 2 }) × P? ({ω 1 , ω 2 })
x1,1 − x2,2 x0 − x1,2
= ×
x2,1 − x2,2 x1,1 − x1,2

Exercice 2.5.7 :
1. Par construction de l’espace des aléas, nous avons les décompositions suivantes
X0 = x0
X1 = x1,1 1{ω1 ,ω2 ,ω3 } + x1,2 1{ω4 } + x1,3 1{ω5 ,ω6 ,ω7 ,ω8 }
X2 = x2,1 1{ω1 ,ω2 } + x2,2 1{ω3 } + x2,3 1{ω4 }
+x2,4 1{ω5 } + x2,5 1{ω6 ,ω7 } + x2,6 1{ω8 }
8
X
X3 = x3,i 1{ωi }
i=1

D’après ce qui précède, nous avons


D0X = {Ω}
D1X = {{ω 1 , ω 2 , ω 3 }, {ω 4 }, {ω 5 , ω 6 , ω 7 , ω 8 }}
D2X = {{ω 1 , ω 2 }, {ω 3 }, {ω 4 }, {ω 5 }, {ω 6, ω 7 }, {ω 8 }}
D3X = {{ω 1 }, {ω 2 }, {ω 3 }, {ω 4 }, {ω 5 }, {ω 6}, {ω 7 }, {ω 8 }}
avec les espaces d’états
E0 = {x0 } −→ E1 = {x1,i i = 1, 2, 3} −→ E2 = {x2,i , i = 1, . . . , 6}

−→ E3 = {x3,i , i = 1, . . . , 8}
2. En utilisant les décompositions précédentes, on montre que
P(X3 = x3,1 |X2 = x2,1 ) = P({ω 1 } | {ω 1 , ω 2 })
P(X3 = x3,2 |X2 = x2,1 ) = P({ω 2 } | {ω 1 , ω 2 })
P(X3 = x3,6 |X2 = x2,5 ) = P({ω 6 } | {ω 6 , ω 7 })
P(X3 = x3,7 |X2 = x2,5 ) = P({ω 7 } | {ω 6 , ω 7 })
et
P(X2 = x2,1 |X1 = x1,1 ) = P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 })
P(X2 = x2,2 |X1 = x1,1 ) = P({ω 3 } | {ω 1 , ω 2 , ω 3 })
P(X2 = x2,4 |X1 = x1,3 ) = P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 })
P(X2 = x2,5 |X1 = x1,3 ) = P({ω 6 , ω 7 } | {ω 5 , ω 6 , ω 7 , ω 8 })
P(X2 = x2,6 |X1 = x1,3 ) = P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 })
5.1. CHAPITRE 1 159

et enfin

P(X1 = x1,1 |X0 = x0 ) = P({ω 1 , ω 2 , ω 3 })


P(X1 = x1,2 |X0 = x0 ) = P({ω 4 })
P(X1 = x1,3 |X0 = x0 ) = P({ω 5 , ω 6 , ω 7 , ω 8 })

3. L’espérance conditionnelle de la v.a. X3 en F2X est donnée par

E(X3 |F2X )

= E(X3 |X2 )

= E(X3 |X2 = x2,1 ) 1{ω1 ,ω2 } + E(X3 |X2 = x2,2 ) 1{ω3 }

+E(X3 |X2 = x2,3 ) 1{ω4 } + E(X3 |X2 = x2,4 ) 1{ω5 }

+E(X3 |X2 = x2,5 ) 1{ω6 ,ω7 } + E(X3 |X2 = x2,6 ) 1{ω8 }


avec
X
E(X3 |X2 = x2,1 ) = x3,i P(X3 = x3,i |X2 = x2,1 )
i∈{1,2}

= x3,1 × P({ω 1 } | {ω 1 , ω 2 }) + x3,2 × P({ω 2 } | {ω 1 , ω 2 })


E(X3 |X2 = x2,2 ) = x3,2
E(X3 |X2 = x2,3 ) = x3,4
E(X3 |X2 = x2,4 ) = x3,5
X
E(X3 |X2 = x2,5 ) = x3,i P(X3 = x3,i |X2 = x2,5 )
i∈{6,7}

= x3,6 × P({ω 6 } | {ω 6 , ω 7 }) + x3,7 × P({ω 7 } | {ω 6 , ω 7 })


E(X3 |X2 = x2,6 ) = x3,8

L’espérance conditionnelle de la v.a. X2 en F1X est donnée par

E(X2 |F1X ) = E(X2 |X1 )


= E(X2 |X1 = x1,1 ) 1{ω1 ,ω2 ,ω3 } + E(X2 |X1 = x1,2 ) 1{ω4 }
+E(X2 |X1 = x1,3 ) 1{ω5 ,ω6 ,ω7 ,ω8 }

avec
X
E(X2 |X1 = x1,1 ) = x2,i P(X2 = x2,i |X1 = x1,1 )
i∈{1,2}

= x2,1 P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 }) + x2,2 P({ω 3 } | {ω 1 , ω 2 , ω 3 })


E(X2 |X1 = x1,2 ) = x2,3

et
E(X2 |X1 = x1,3 )
P
= i∈{4,5,6} x2,i P(X2 = x2,i |X1 = x1,3 )

= x2,4 P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 }) + x2,5 P({ω 6 } | {ω 5 , ω 6 , ω 7 , ω 8 })

+x2,6 P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 })
160 CHAPITRE 5. CORRIGÉS

Afin l’espérance conditionnelle de la v.a. X1 en F0X est donnée par

E(X1 |F0X ) = E(X1 |F0X )


X
= x1,i P(X1 = x1,i |X0 = x0 )
i∈{1,2,3}

= x1,1 P({ω 1 , ω 2 , ω 3 }) + x1,2 P({ω 4 }) + x1,3 P({ω 5 , ω 6 , ω 7 , ω 8 })

4. Supposons qu’il existe une probabilité P? sur Ω telle que

E? (X3 |F2X ) = X2 E? (X2 |F1X ) = X1 et E? (X1 |F0X ) = X0

Dans cette situation, et en utilisant les décompositions précédentes, cette probabilité P ?


doit satisfaire les cinq conditions suivantes
(1)
x2,1 = x3,1 × P({ω 1 } | {ω 1 , ω 2 }) + x3,2 × P({ω 2 } | {ω 1 , ω 2 })
(2)
x2,5 = x3,6 × P({ω 6 } | {ω 6 , ω 7 }) + x3,7 × P({ω 7 } | {ω 6 , ω 7 })

puis
(3)
x1,1 = x2,1 P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 }) + x2,2 P({ω 3 } | {ω 1 , ω 2 , ω 3 })
(4)
x1,3 = x2,4 P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 }) + x2,5 P({ω 6 } | {ω 5 , ω 6 , ω 7 , ω 8 })
+x2,6 P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 })

et enfin
(5)
x0 = x1,1 P({ω 1 , ω 2 , ω 3 }) + x1,2 P({ω 4 }) + x1,3 P({ω 5 , ω 6 , ω 7 , ω 8 })

Les trois premières conditions expriment le fait que les états x2,1 , x2,5 , et x1,1 , sont
respectivement des barycentres des couples de points {x3,1 , x3,2 }, {x3,6 , x3,7 }, et enfin
{x2,1 , x2,2 }. On peux donc résoudre ces trois équations, si et seulement si, les trois
conditions suivantes sont vérifiées

1) x3,1 < x2,1 < x3,2 ou x3,2 < x2,1 < x3,1

2) x3,6 < x2,5 < x3,7 ou x3,7 < x2,5 < x3,6
3) x2,1 < x1,1 < x2,2 ou x2,2 < x1,1 < x2,1
Dans ces conditions, on obtient
x2,1 − x3,2
P? ({ω 1 }|{ω 1 , ω 2 }) = = 1 − P? ({ω 2 }|{ω 1 , ω 2 })
x3,1 − x3,2
x2,5 − x3,7
P? ({ω 6 }|{ω 6 , ω 7 }) = = 1 − P? ({ω 7 }|{ω 6 , ω 7 })
x3,6 − x3,7
x1,1 − x2,2
P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 }) =
x2,1 − x2,2
= 1 − P({ω 3 } | {ω 1 , ω 2 , ω 3 })

Les deux dernières équations (4) et (5) conditions expriment le fait que les états x 1,3 ,
et x0 , sont respectivement des barycentres des triplés de points {x2,4 , x2,5 , x2,6 }, et
{x1,1 , x1,2 , x1,3 }. On peux donc résoudre ces deux équations, si et seulement si, les états
x1,3 , et x0 , sont dans les intervalles convexes contenant ces points. A l’inverse des situations
examinées précédemment, il existe plusieurs solutions. Par exemple, lorsque l’on a

x1,1 < x0 < x1,2 < x1,3


5.1. CHAPITRE 1 161

l’équation (5) admet pour solution (non unique)

P({ω 5 , ω 6 , ω 7 , ω 8 }) = 0
x0 − x1,2
P({ω 1 , ω 2 , ω 3 }) = = 1 − P({ω 4 })
x1,1 − x1,2

Enfin, si l’on a
x2,4 < x1,3 < x2,5 < x2,6
l’équation (4) admet pour solution (non unique)

P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 }) = 0
x1,3 − x2,5
P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 }) = = 1 − P({ω 6 } | {ω 5 , ω 6 , ω 7 , ω 8 })
x2,4 − x2,5

Pour calculer les quantités P({ω i }) correspondantes, on procède de façon usuelle. On a


par exemple

P? ({ω 1 }) = P? ({ω 1 }|{ω 1 , ω 2 }) × P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 })


×P({ω 1 , ω 2 , ω 3 })
x2,1 − x3,2 x1,1 − x2,2 x0 − x1,2
= × ×
x3,1 − x3,2 x2,1 − x2,2 x1,1 − x1,2

Exercice 2.5.10 : On vérifie la formule (2.6) par récurrence sur n. Pour n = 1 on a


   
1 p2,1 p1,2 1 p1,2 −p1,2
c + ( c − 1)
p2,1 p1,2 −p2,1 p2,1
   
1 − p1,2 p1,2 p1,1 p1,2
= = =M
p2,1 1 − p2,1 p2,1 p2,2

Supposons la formule (2.6) vraie au rang n. Dans ce cas, nous avons


  
n+1 1 p2,1 p1,2 p1,1 p1,2
M = c
p2,1 p1,2 p2,1 p2,2
  
n p1,2 −p1,2 p1,1 p1,2
+ (1−c)
c −p2,1 p2,1 p2,1 p2,2
 
1 p2,1 p1,2
= c p2,1 p1,2
 
n p1,2 (p1,1 − p2,1 ) −p1,2 (p2,2 − p1,2 )
+ (1−c)
c −p2,1 (p1,1 − p2,1 ) p2,1 (p2,2 − p1,2 )

Il reste a remarquer que

(1 − c) = (1 − p1,2 − p2,1 ) = (p1,1 − p2,1 ) = (p2,2 − p1,2 )

La fin de la preuve par récurrence est désormais claire.


Exercice 2.5.12 :
1. En utilisant la réalisation dynamique de la marche aléatoire on obtient
k
X
Xk = Xk−1 + k =⇒ Xk = l
l=1
162 CHAPITRE 5. CORRIGÉS

On vérifie ainsi aisément que la position moyenne de la marche est donnée par la formule
k
X
E(Xk ) = E(l ) = k(α − (1 − α)) = k × (2α − 1)
l=1

Lorsque α ∈ (0, 1/2), les v.a. k ont tendance à prendre plus fréquemment la valeur −1.
La marche est alors en moyenne attirée vers la gauche. Lorsque α = 1/2, la marche reste
en moyenne en son origine X0 = 0. Autrement dit, la chaı̂ne Xk oscille entre la droite et
la gauche. La quantité v = (2α − 1) correspond à la vitesse moyenne de la particule.
2. Pour chaque p ≥ 0, les évènements

{ω ∈ Ω : Xl (ω) = x, Xl+m (ω) = x + [k − (m − k)]}

avec 0 ≤ k ≤ m correspondent à la situation où la particule passe par x à l’instant l, et


effectue entre les instants l et l+m, k déplacements vers la droite, et (m−k) déplacements
vers la gauche. La figure ci-dessous représente un exemple d’évolution sur m = 12 périodes,
avec k = 5 montées, et (m − k) = 7 descentes.

−1 −1 +1 −1 +1 −1 +1 +1 −1 +1 −1 −1

Fig. 5.7 – Points accessibles

Par conséquent, nous avons


k
P(Xl+m = x + [k − (m − k)] | Xl = x) = Cm αk (1 − α)m−k

3. D’après ce qui précède, lorsque x = 0 et m = 2k, on obtient

k (2k)!
P(Xl+2k = 0 | Xl = 0) = C2k αk (1 − α)k = (α(1 − α))k
k!k!
On notera que les événements

{Xl = x, Xl+m = y}

sont vides pour les couples de points (y − x) 6∈ {2l − m : l = 0, . . . , m}. En particulier,


pour x = 0 = y et m = 2k +1, on a P(Xl+2k+1 = 0 | Xl = 0). En utilisant l’approximation
de Stirling √
k! ' 2πk k k e−k
5.1. CHAPITRE 1 163

on obtient l’estimation
(4α(1 − α))k √
P(Xl+2k = 0 | Xl = 0) ' √ (= 1/ πk si α = 1/2)
πk
Lorsque α 6= 1/2, on a 4α(1 − α) < 1 et la probabilité de revenir à 0 en un temps (2k)
décroı̂t exponentiellement vite lorsque k augmente.

Exercice 2.5.13 : On a

∆Xk = E(∆Xk | Fk−1 ) + [∆Xk − E(∆Xk | Fk−1 )]


| {z } | {z }
partie prévisible partie imprévisible

= E(k ) + [k − E(k )]

La décomposition de Doob du processus est don donnée par la formule


k
X
Xk = ∆Xp = AX X
k + Mk
p=0

avec le couple de processus (AX X


k , Mk )0≤k≤n définis par

k
X k
X
AX
k = E(∆Xp | Fp−1 ) = E(p )
p=0 p=0
k
X
MkX = [p − E(p )]
p=0

Exercice 2.5.14 : On commence par noter que

∆Xk = Xk − Xk−1 = Xk−1 × [k − 1]

On obtient ainsi la décomposition locale

∆Xk = E(∆Xk | Fk−1 ) + [∆Xk − E(∆Xk | Fk−1 )]


| {z } | {z }
partie prévisible partie imprévisible

= Xk−1 × E(k − 1) + Xk−1 × [k − E(k )]

La décomposition de Doob du processus est don donnée par la formule


k
X
Xk = ∆Xp = AX X
k + Mk
p=0

avec le couple de processus (AX X


k , Mk )0≤k≤n définis par

k k
"p−1 #
X X Y
AX
k = E(∆Xp | Fp−1 ) = l × E(p − 1)
p=0 p=0 l=0
k
"p−1 #
X Y
MkX = l × [p − E(p )]
p=0 l=0
164 CHAPITRE 5. CORRIGÉS

Exercice 3.1.2 : Il suffit de noter que l’on a

E(Mk+1 − Mk | Fk ) = E(k+1 | σ(1 , . . . , k ))


= E(k+1 ) = (+1) p + (−1) (1 − p) = 2p − 1

On observe que les évènements {k = +1} sont plus fréquents dès que p ≥ 1/2. Dans ce cas, le
jeux est alors favorable au joueur.
Exercice 3.1.3 : Comme dans l’exercice précédent, on note simplement que

E(Mk+1 − Mk | Fk ) = E(k+1 | σ(1 , . . . , k )) = 0

Exercice 3.1.4 : Il suffit d’observer que l’on a

E(Mk+1 | Fk ) = E(Mk × k+1 | Fk ) = Mk × E(k+1 | σ(1 , . . . , k )) = Mk

Exercice 3.1.5 : On observe que le processus retardé

Mk0 = Mk−1 ∈ Fk−1

est prévisible. On a donc

E(∆Lk | Fk−1 ) = E(Lk − Lk−1 | Fk−1 ) = E(Mk−1 ∆Nk | Fk−1 )


= Mk−1 E(∆Nk | Fk−1 )
= Mk−1 E(Nk − Nk−1 | Fk−1 ) = Mk−1 [E(Nk | Fk−1 ) − Nk−1 ] = 0

On obtient donc la propriété de martingale

E(Lk | Fk−1 ) = Lk−1

Exercice 3.1.6 :
1. La démonstration de ce premier point est décrite dans la solution de l’exercice 3.1.3.
2. On a clairement

E([Mk+1 − Mk ]2 | Fk ) = E(2k+1 | σ(1 , . . . k )) = σk+1


2

Par conséquent, nous avons


k
X k
X
2
hM ik = E([Ml − Ml−1 ] | Fl−1 ) = σl2
l=0 l=0

En invoquant la proposition 3.1.2, on en conclut que le processus aléatoires


k
X
Mk2 − σl2
l=0

est une martingale par rapport à la filtration Fk . Par un raisonnement analogue, on


montre que
k
X
Mk2 − M02 − (hM, N ik − hM, N i0 ) = Mk2 − M02 − σl2
l=1

est une martingale par rapport à la filtration Fk .


5.1. CHAPITRE 1 165

3. Dans le cas où les v.a. (k )1≤k≤n sont i.i.d. et centrées, le processus processus croissant
associé à la martingale est donné par

k
X
hM ik = σl2 = (k + 1)σ 2
l=0

D’après la question précédente, les processus

Mk2 − (k + 1)σ 2 et Mk2 − M02 − k σ 2 avec σ 2 = E(2k )

forment des martingales par rapport à la filtration Fk .

Exercice 3.1.7 :
1. La démonstration de ce premier point est décrite dans la solution de l’exercice 3.1.4.
2. Avant de commencer, on peut noter que l’on a

σk2 = E([k − E(k )]2 ) = E([k − 1]2 ) = E(2k ) − 1

D’autre part, un simple calcul montre que

k
Y
E([Mk+1 − Mk ]2 | Fk ) = E(Mk2 [k+1 − 1]2 | σ(1 , . . . k )) = Mk2 σk+1
2
=[ 2
l ] σk+1
l=0

D’après la proposition 3.1.2, le processus aléatoire

k
Y k
X l−1
Y
Mk2 − hM ik = 2l − [ 2m ] σl2
l=0 l=0 m=0

est une martingale par rapport à la filtration Fk .

Exercice 3.1.8 :
1. Par définition du compensateur (hY, Y 0 ik )0≤k≤n , nous avons

n
X k
X
hY, Y 0 ik = E(∆Yl ∆Yl0 | Fl−1 ) = E(l 0l )
k=0 l=0

2. En utilisant le théorème 3.1.1, on en conclut que le processus

k
X k
X k
X
Yk Yk0 − hY, Y 0 ik = [ l ] × [ 0l ] − E(l 0l )
l=0 l=0 l=0

est une martingale par rapport à la filtration Fk .

Exercice 3.1.9 :
1. On a clairement

Cov(k , 0k ) = E([k − E(k )][0k − E(0k )]) = E([k − 1][0k − 1]) = E(k 0k ) − 1
166 CHAPITRE 5. CORRIGÉS

2. Par définition du compensateur (hY, Y 0 ik )0≤k≤n , nous avons


k
X k
X
hY, Y 0 ik = E(∆Yl ∆Yl0 | Fl−1 ) = 0
E([Yl−1 × (l − 1)] [Yl−1 × (0l − 1)] | Fl−1 )
l=0 l=0
k
X n
X
0
= [Yl−1 Yl−1 ]E((l − 1)(0l − 1)| Fl−1 ) = 0
[Yl−1 Yl−1 ]E((l − 1)(0l − 1))
l=0 k=0
k l−1
X Y
= [ m 0m ] × E((l − 1)(0l − 1))
l=0 m=0

3. En utilisant le théorème 3.1.1, on en conclut que le processus


k
Y k
Y k l−1
X Y
Yk Yk0 − hY, Y 0 ik = [ l ] × [ 0l ] − [ m 0m ] × E((l − 1)(0l − 1))
l=0 l=0 l=0 m=0

est une martingale par rapport à la filtration Fk .

Exercice 3.1.10 :
1. Il suffit de noter que l’on a

∆Mk (f ) = Mk (f ) − Mk−1 (f ) = fk (Xk ) − Kk (fk )(Xk−1 ) = fk (Xk ) − E[fk (Xk ) | Xk−1 )

On en déduit de cette observation que


X
E(∆Mk (f ) | Fk−1 ) = E(∆Mk (f ) | Xk−1 ) = 0

On en conclut que
k−1
X
X X
E(Mk (f ) | Fk−1 )= ∆Ml (f ) + E(∆Mk (f ) | Fk−1 ) = Mk−1 (f )
l=1

2. Le compensateur de la martingale (Mk (f ))0≤k≤n est donné par la formule

hM (f )ik = hM (f ), M (f )ik
k
X
X
= [E(Ml (f )Ml (f ) | Fl−1 ) − Ml−1 (f )Ml−1 (f )]
l=1
k
X k
X
= E([∆Ml (f )]2 | Fl−1
X
)= E([fl (Xl ) − E[fl (Xl ) | Xl−1 )]2 | Xl−1 )
l=1 l=1

Exercice 3.1.11 :
1. Les v.a. k étant supposées centrées, nous avons

∀0 ≤ k ≤ n E(k ) = uk pk + vk (1 − pk ) = 0

Autrement dit, les probabilités pk sont nécessairement données par

∀0 ≤ k ≤ n pk = vk /[vk − uk ]

On notera que

uk < 0 ≤ vk =⇒ −uk > 0 ≤ vk =⇒ pk = vk /[vk − uk ] ∈ [0, 1)


5.1. CHAPITRE 1 167

2. Le processus défini par

∀0 ≤ k ≤ n Yk = 0 + . . . + k = Yk−1 + k

est clairement à valeurs dans les espaces


k
X
EkY = { wl : wl ∈ {ul , vl }, Y
0 ≤ l ≤ k} = Ek−1 + {uk , vk }
l=0

Pour vérifier que ce dernier est une martingale par rapport à la filtration (F k )0≤k≤n , il
suffit de noter que l’on a

E(∆Yk | Fk−1 ) = E(k | Fk−1 ) = E(k ) = 0

3. On remarque que l’on a

Yk = Yk−1 +k =⇒ P(Yk = yk−1 +uk | Yk−1 = yk ) = 1−P(Yk = yk−1 +vk | Yk−1 = yk ) = pk

Par conséquent, Yk est un processus de Markov de loi initiale

η0 (y0 ) = P(0 = y0 ) == p0 1u0 (y0 ) + (1 − p0 ) 1v0 (y0 )

et de probabilités de transitions

Mk (yk−1 , yk ) = P(Yk = yk | Yk−1 = yk ) = pk 1yk−1 +uk (yk ) + (1 − pk ) 1yk−1 +vk (yk )

Exercice 3.1.12 :
1. Les v.a. k étant supposées telles que E(k ) = 1, nous avons

∀0 ≤ k ≤ n E(k ) = uk pk + vk (1 − pk ) = 1

Autrement dit, les probabilités pk sont nécessairement données par

∀0 ≤ k ≤ n pk = (1 − vk )/[uk − vk ]

On notera que cette condition exprime le fait que 1 est un barycentre des points {u k , vk }.
Cette propriété de ne peut donc être réalisée que si les états du système {u k , vk } sont tels
que
uk < 1 ≤ vk ou vk < 1 ≤ uk

2. Le processus défini par

∀0 ≤ k ≤ n Yk = 0 × . . . × k = Yk−1 × k

est clairement à valeurs dans les espaces


( k
)
Y
EkY = wl : wl ∈ {ul , vl }, 0≤l≤k Y
= Ek−1 {uk , vk }
.
l=0

Pour vérifier que ce dernier est une martingale par rapport à la filtration (F k )0≤k≤n , il
suffit de noter que l’on a

E(∆Yk | Fk−1 ) = Yk−1 × E([k − 1] | Fk−1 ) = Yk−1 × [E(k ) − 1] = 0


168 CHAPITRE 5. CORRIGÉS

3. On remarque que l’on a

Yk = Yk−1 × k =⇒ P(Yk = yk−1 uk | Yk−1 = yk ) = 1 − P(Yk = yk−1 vk | Yk−1 = yk ) = pk

Par conséquent, Yk est un processus de Markov de loi initiale

η0 (y0 ) = P(0 = y0 ) == p0 1u0 (y0 ) + (1 − p0 ) 1v0 (y0 )

et de probabilités de transitions

Mk (yk−1 , yk ) = P(Yk = yk | Yk−1 = yk ) = pk 1yk−1 uk (yk ) + (1 − pk ) 1yk−1 vk (yk )

Exercice 3.1.15 :
1. Cette question est une conséquence immédiate de la proposition 3.1.6
2. On observe que
−1
Zl = Zl−1 (1 + ∆Xl ) ⇒ Zl−1 E(Zl ∆Ml | Fl−1 ) = E((1 + ∆Xl ) ∆Ml | Fl−1 )
−1
⇒ Zl−1 E(Zl ∆Ml | Fl−1 ) = E(∆Xl ∆Ml | Fl−1 ) = ∆hM, Xil

Ainsi, d’après le lemme de Girsanov, le processus aléatoire (Mk0 )0≤k≤n défini par
k
X
Mk0 = Mk − E(∆Xl ∆Ml | Fl−1 ) = Mk − hM, Xik
l=0

est une martingale sur (Ω, (Fk )0≤k≤n , P0 ).

Exercice 3.1.16 :
1. Par définition du processus exponentiel de (Xk )0≤k≤n , nous avons
k
Y k
Y
Zk = Ek (X) = (1 + ∆Xl ) = (1 + l )
l=0 l=0

2. Le fait que (Yk )0≤k≤n est une martingale sur (Ω, (Fk )0≤k≤n , P) est immédiat. On vérifie
que (Yk0 )0≤k≤n est une martingale sur (Ω, (Fk )0≤k≤n , P0 ) en remarquant que
k
X
hX, Y ik = E(∆Xl ∆Yl | Fl−1 )
l=0
k
X k
X
= E(l 0l | Fl−1 ) = E(l 0l )
l=0 l=0

En utilisant l’exercice 3.1.15, on en déduit que le processus


k
X
Yk0 = Yk − hX, Y ik = Yk − E(l 0l )
l=0

est une martingale sur (Ω, (Fk )0≤k≤n , P0 ).

Exercice 3.2.1 : Les fonctions constantes T (ω) = k sont telles que

{ω : T (ω) = k} = Ω ∈ Fk
5.1. CHAPITRE 1 169

On en déduit que ces v.a. sont bien des temps d’arrêts.


Exercice 3.2.2 : On a clairement

{SA = k} = {X0 ∈ A, . . . , Xk−1 ∈ A, Xk ∈ E − A} ∈ Fk


et
{TB = k} = {X0 ∈ E − B, . . . , Xk−1 ∈ E − B, Xk ∈ B} ∈ Fk
On en déduit que ces couples de v.a. sont bien des temps d’arrêts.
Exercice 3.2.3 : Supposons tout d’abord que (Mk )0≤k≤n est une sous martingale sur l’espace
probabilisé filtré (Ω, (Fk )leqk≤n , P)

∀1 ≤ k ≤ n E(Mk | Fk−1 ) ≥ Mk−1


Dans cette situation, en utilisant la décomposition

MkT = MT ∧k
"k−1 #
X
= Xl 1{T =l} 1{T <k} + Xk 1T ≥k
l=0
= XT 1{T <k} + Xk 1T ≥k

on obtient
"k−1 #
X
E(MkT | Fk−1 ) = E( Ml 1{T =l} 1{T <k} + Mk 1T ≥k | Fk−1 )
l=0
"k−1 #
X
= Ml 1{T =l} 1{T <k} + E(Mk | Fk−1 ) 1T ≥k
l=0
≥ MT 1{T <k} + Mk−1 1T ≥k
= MT 1{T ≤(k−1)} + Mk−1 1T >(k−1) = MT ∧(k−1) × [1{T ≤(k−1)} + 1T >(k−1) ]
On en conclut que
E(MkT | Fk−1 ) ≥ MT ∧(k−1) = Mk−1
T

Par un raisonnement analogue, on montre que le processus arrêté (MkT )0≤k≤n d’une sur-
martingale est à nouveau une sur-martingale.
Exercice 3.2.4 :
1. Cette stratégie prend la forme suivante

(1 + α) (X1 + X2 + . . . + Xk−1 ) si 1 = . . . = k−1 = −1
Xk =
0 sinon
On peut aussi montrer que telle stratégie est équivalente à miser, jusqu’à l’instant du
gain, les sommes suivantes
Xk = (1 + α) (X1 + X2 + . . . + Xk−1 )
= (1 + α) [(X1 + X2 + . . . + Xk−2 )
+(1 + α) (X1 + X2 + . . . + Xk−2 )]
= (1 + α) × (2 + α) (X1 + X2 + . . . + Xk−2 )
= (1 + α) × (2 + α)
× [(X1 + X2 + . . . + Xk−3 ) + (1 + α)(X1 + X2 + . . . + Xk−3 )]
= (1 + α) × (2 + α)2 (X1 + X2 + . . . + Xk−3 )
...
= (1 + α) × (2 + α)k−2 (pour tout k ≥ 2)
170 CHAPITRE 5. CORRIGÉS

2. Nous avons pour tous les k ≥ 2


"k−1 # " k−1
#
X X
ZT 1T =k = 1T =k Xl l + Xk k = 1T =k − Xl + X k
l=1 l=1
" k−1
#
X
= 1T =k α Xl = α (2 + α)k−2 1T =k
l=1

3. L’analyse de ce modèle est analogue à celle développée dans le cours lorsque α = 1. On a


ainsi
n
X
E(ZT 1T <∞ ) = E(ZT 1T =l )
l=1
n
X
= P(T = 1) + α (2 + α)l−2 P(T = l)
l=2
n−2 
1 α X α k
= + 2 1+
2 2 2
k=0
h  i
α n−1
1 α 1+ 2 −1 1  α n−1
= + 2 α = 1+
2 2 2 2 2

Exercice 3.2.5 :
1. On a clairement
Y
E(Zk (fn ) | Fk−1 ) = E(E(fn (Yn ) | FkY ) | Fk−1
Y Y
) = E(fn (Yn ) | Fk−1 )
= Zk−1 (fn )

Par conséquent, le processus (Zk (fn ))0≤k≤n est une martingale par rapport à (FkY )0≤k≤n .
2. D’après les formules de récurrence inverse, nous avons

Vn (yn ) = fn (yn )
Vn−1 (yn−1 ) = E(Vn (Yn ) | Yn−1 = yn−1 ) = Mn (Vn )(yn−1 )
Vn−2 (yn−2 ) = E(Vn−1 (Yn−1 ) | Yn−2 = yn−2 ) = E(Mn (Vn )(Yn−1 ) | Yn−2 = yn−2 )
= Mn−1 Mn (Vn )(yn−2 )
... = ...
Vk (yk ) = E(Vk+1 (Yk+1 ) | Yk = yk ) = E(Mk+2 . . . Mn (Vn )(Yk+1 ) | Yk = yk )
= Mk+1 Mk+2 . . . Mn (Vn )(yk )

On en conclut que

Vk = Mk+1 Mk+2 . . . Mn (fn ) et Vk (Yk ) = Mk+1 Mk+2 . . . Mn (fn )(Yk ) = Zk (fn )

Exercice 3.2.6 :
1. Par définition des temps d’arrêt Tk , nous avons

∀k ≤ l < Tk Zk < Uk , Zk+1 < Uk+1 , . . . , ZTk −1 < UTk −1 et ZTk < UTk

Autrement dit, on a

∀k ≤ l < Tk Zl < U l et ZTk < UTk


5.2. CHAPITRE 2 171

2. On rappelle que l’enveloppe de Snell satisfait l’équation de récurrence inverse

∀0 ≤ l ≤ n Ul = Zl ∨ E(Ul+1 | Fl )

D’après la question précédente, on a donc

∀k ≤ l < Tk Zl < Ul = Zl ∨ E(Ul+1 | Fl ) =⇒ ∀k ≤ l < Tk Ul = E(Ul+1 | Fl )

Autrement dit, le processus arrêté (UlTk )l≥k est une martingale.


3. Les processus (UlTk )l≥k étant des martingales, nous avons

∀k ≤ l ≤ l0 ≤ n E(UlT0 k | Fl ) = UlTk

En posant l0 = n, on obtient

∀k ≤ l ≤ n E(UnTk | Fl ) = E(UTk | Fl ) = E(ZTk | Fl ) = UTk ∧l = UlTk

Exercice 3.2.7 :
1. On rappelle que l’enveloppe de Snell (Uk )0≤k≤n est déterminée par les formules de
récurrence inverse suivantes

Un = gn (Xn )
Uk = gk (Xk ) ∨ E(Uk+1 | FkX ) = gk (Xk ) ∨ E(Uk+1 | X0 , . . . , Xk )

Ainsi, si on pose
Uk = Uk (Zk )
nous obtenons

Un = gn (Xn )
Uk = gk (Xk ) ∨ E(Uk+1 (Xk+1 ) | X0 , . . . , Xk ) = gk (Xk ) ∨ E(Uk+1 (Xk+1 ) | Xk )

La dernière assertion permet de s’assurer que l’enveloppe de Snell peut se mettre sous
la forme Uk = Uk (Zk ), avec la suite de fonctions (Uk )0≤k≤n sur les espaces (Ek )0≤k≤n
définies par les formules de récurrence inverse

Un = g n et ∀0 ≤ k < n Uk = gk ∨ Mk+1 (Uk+1 )

5.2 Chapitre 2
Exercice 4.1.1 : Les deux premières questions sont immédiates. Pour résoudre la dernière,
on notera que
∆S 1 1, 05 − 1
r = 11 == = 5%
S0 1

Exercice 4.1.2 : Les deux premières questions sont à nouveau immédiates. Pour résoudre la
dernière, on notera que
∆S11 1, 05 − 1
r = = = 5%
S01 1
∆S21 1, 10 − 1, 05 0, 05
' 1 = = ' 5%
S1 1, 05 1, 05
172 CHAPITRE 5. CORRIGÉS

Il convient de souligner que les valeurs des actifs sont des valeurs arrondies. Pour un rendement
fixe de 5%, la valeur “mathématique”exacte de S21 est donnée par

∆S21 1, 1025 − 1, 05 0, 0525


S21 = (1 + 0, 05)2 = 1, 1025 =⇒ 1 = = = 5%
S1 1, 05 1, 05

Exercice 4.1.3 :
1. Les prix initiaux étant fixés (S01 ; S02 )(ω1 ) = (S01 ; S02 )(ω2 ) = (1; 4), le coût d’acquisition
du portefeuille initial d’un investisseur vendant à découvert −Φ11 = 8 parts d’actifs sans
risque, pour acheter Φ2 = 2 parts d’actifs risqué

Φ1 = (Φ11 , Φ21 ) = (−8 ; 2)

est donné par


V0 (Φ) = Φ11 S01 + Φ21 S02 = −8 × 1 + 2 × 4 = 0

2. Après évolution du cours des actifs, nous avons

V1 (Φ)(ω 1 ) = Φ11 (ω 1 ) S11 (ω 1 ) + Φ21 (ω 1 ) S12 (ω 1 )


= −8 × 1, 05 + 2 × 5 = 10 − 8, 4 = 1, 6

et

V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )


= −8 × 1, 05 + 2 × 10 = 20 − 8, 4 = 11, 6

3. Pour gagner de l’argent à moindre frais, la stratégie consiste à s’endetter de 4m parts


d’actifs non risqué (ou vendre à découvert 4m part de ces actifs non risqués), pour acheter
m parts d’actif risqué. Le coût initial d’une telle opération est nul

Φ1 = (−4m, m) ⇒ V0 (Φ) = (−4m) × 1 + (m) × 4 = 0

Les valeurs possibles du portefeuille à l’instant suivant sont données par

V1 (Φ)(ω 1 ) = (−4m) × 1, 05 + (m) × 5 = 0, 8 m


V1 (Φ)(ω 2 ) = (−4m) × 1, 05 + (m) × 10 = 5, 8 m

Si l’on rembourse les (−4m) parts actifs sans risque, et l’on conserve les m parts d’actifs
risqués, la valeur de notre portefeuille sera telle que

Φ2 = (−4m, m) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) ≥ 0, 8 m

Pour gagner 800 Euros à moindre frais, il suffit donc d’emprunter 4000 parts d’actifs non
risqué, pour acheter 1000 parts d’actifs risqués. Le coût initial de cette opération sera nul,
et après l’annonce des prix S1 des actifs, notre gain prendra l’une des valeurs

V1 (Φ)(ω 1 ) = 800 ou V1 (Φ)(ω 2 ) = 5.800

Exercice 4.1.4 :
5.2. CHAPITRE 2 173

1. La stratégie initiale d’un investisseur vendant à découvert 2 parts d’actifs risqués, pour
acheter 8 parts d’actifs sans risque est représenté par le vecteur

Φ1 = (Φ11 , Φ21 ) = (8 ; −2)

Le coût d’acquisition du portefeuille correspondant est nulle

V0 (Φ) = Φ11 S01 + Φ21 S02 = 8 × 1 + (−2) × 4 = 0

2. Après évolution du cours des actifs, nous avons

V1 (Φ)(ω 1 ) = Φ11 (ω 1 ) S11 (ω 1 ) + Φ21 (ω 1 ) S12 (ω 1 )


= 8 × 1, 05 + (−2) × 2 = 8, 4 − 4 = 4, 4

et

V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )


= 8 × 1, 05 + (−2) × 3 = 8, 4 − 6 = 2, 4

Lorsque l’on rembourse nos deux parts d’actifs risqués, et l’on conserve nos huit parts
d’actifs sans risques, nous utilisons la stratégie de réaménageant

Φ2 = Φ1 = (8, −2) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) = Φ11 S11 + Φ21 S12

3. Pour gagner de l’argent à moindre frais, une stratégie consiste à vendre à découvert m
parts d’actifs risqués, pour acheter 4 m parts d’actif non risqué. Le coût initial d’une telle
opération est nul

Φ1 = (4m, −m) ⇒ V0 (Φ) = (4m) × 1 + (−m) × 4 = 0

Les valeurs possibles du portefeuille à l’instant suivant sont données par

V1 (Φ)(ω 1 ) = (4m) × 1, 05 + (−m) × 2 = 2, 2 m


V1 (Φ)(ω 2 ) = (4m) × 1, 05 + (−m) × 3 = 1, 2 m

Si l’on rembourse les (−m) parts actifs risqués, et l’on conserve les (4m) parts d’actifs
non risqués, la valeur de notre portefeuille sera telle que

Φ2 = (4m, −m) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) ≥ 1, 2 m

Pour gagner 1.200 Euros à moindre frais, il suffit donc de vendre à découvert 1000 parts
d’actifs risqués, pour acheter 4000 parts d’actifs non risqués. Le coût initial de cette
opération sera nul, et après l’annonce des prix S1 des actifs, notre gain prendra l’une des
valeurs
V1 (Φ)(ω 1 ) = 2.200 ou V1 (Φ)(ω 2 ) = 1.200

Exercice 4.1.5 :
1. La stratégie initiale d’un investisseur vendant à découvert 20 parts d’actifs risqués, pour
acheter 200 parts d’actifs sans risques est représenté par le vecteur

Φ1 = (Φ11 , Φ21 ) = (200 ; −20)

Le coût d’acquisition du portefeuille correspondant est nulle

V0 (Φ) = Φ11 S01 + Φ21 S02 = 200 × 1 + (−20) × 10 = 0


174 CHAPITRE 5. CORRIGÉS

2. Après évolution du cours des actifs, nous avons


V1 (Φ)(ω 1 ) = Φ11 (ω 1 ) S11 (ω 1 ) + Φ21 (ω 1 ) S12 (ω 1 )
= 200 × 1, 05 + (−20) × 5 = 210 − 100 = 110

et
V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )
= 200 × 1, 05 + (−20) × 10 = 210 − 100 = 10

Lorsque l’on rembourse nos deux vingt parts d’actifs risqués, et l’on conserve nos deux
cents parts d’actifs sans risques, nous utilisons la stratégie de réaménagenemt
Φ2 = Φ1 = (200 ; −20) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) = Φ11 S11 + Φ21 S12

3. Pour gagner de l’argent à moindre frais, une stratégie consiste à vendre à découvert m
parts d’actifs risqués, pour placer (10 m) Euros dans un un compte épargne à 5%. Le coût
initial d’une telle opération est nul
Φ1 = (10m ; −m) ⇒ V0 (Φ) = (10m) × 1 + (−m) × 10 = 0
Les valeurs possibles du portefeuille à l’instant suivant sont données par
V1 (Φ)(ω 1 ) = (10m) × 1, 05 + (−m) × 5 = 5, 5 m
V1 (Φ)(ω 2 ) = (10m) × 1, 05 + (−m) × 10 = 0, 5 m
Si l’on rembourse les (−m) parts actifs risqués, et l’on conserve les (10m) parts d’actifs
non risqués, la valeur de notre portefeuille sera telle que
Φ2 = (10m ; −m) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) ≥ 0, 5 m
Pour gagner 100 Euros à moindre frais, il suffit donc de vendre à découvert 200 parts
d’actifs risqués, pour placer 2000 Euros dans un compte épargne à 5%. Le coût initial de
cette opération sera nul, et après l’annonce des prix S1 des actifs, notre gain prendra l’une
des valeurs
V1 (Φ)(ω 1 ) = 100 ou V1 (Φ)(ω 2 ) = 1.100

Exercice 4.1.6 : S’il existait une stratégie d’arbitrage, on aurait initialement


V0 (Φ) = Φ11 S01 + Φ21 S02 = Φ11 1 + Φ21 5 = 0 ⇒ Φ11 = −5 × Φ21
Après évolution du cours des actifs, nous aurions
V1 (Φ)(ω 1 ) = Φ11 (ω 1 ) S11 (ω 1 ) + Φ21 (ω 1 ) S12 (ω 1 )
= (−5Φ21 ) × 1, 05 + Φ21 × 10 = (10 − 5, 25) Φ21 = 4, 75 Φ21

ou
V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )
= (−5Φ21 ) × 1, 05 + Φ21 × 5 = (−5, 25 + 5) Φ21 = −0, 25 Φ21

Par conséquent, les valeurs possibles des portefeuilles V1 (Φ)(ω 1 ), et V1 (Φ)(ω 2 ) sont de signes
contraires. On ne peut donc pas trouver de stratégie d’arbitrage.
Exercice 4.1.7 :
5.2. CHAPITRE 2 175

1. La stratégie initiale d’un investisseur vendant à découvert 2/5 de part de titre risqué, et
achetant 4/1, 05 parts d’actifs sans risques, est donnée par le vecteur
 
1 2 4 2
Φ1 = (Φ1 , Φ1 ) = ; −
1, 05 5
La valeur d’acquisition du portefeuille initial est donc donnée par
V0 (Φ) = Φ11 S01 + Φ21 S02
 
4 2
= ×1+ − ×5
1, 05 5
4 4 − 2, 1 1, 9
= −2= = ' 1, 81
1, 05 1, 05 1, 05
2. Après évolution des cours des actifs, les deux valeurs possibles de ce portefeuille sont
déterminées par
V1 (Φ)(ω 1 ) = Φ11 (ω 1 ) S11 (ω 1 ) + Φ21 (ω 1 ) S12 (ω 1 )
 
4 2
= × 1, 05 + − ×5=4−2=2
1, 05 5

et
V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )
 
4 2
= × 1, 05 + − × 10 = 4 − 4 = 0
1, 05 5

3. D’après la question précédente, nous avons


∀ω ∈ Ω V1 (Φ)(ω) ≥ f (ω)
On en conclut que ce portefeuille permet de couvrir l’option de vente associée à la fonction
de paiement f .

Exercice 4.1.8 :
1. La stratégie initiale (−Φ1 ) d’un investisseur empruntant 4/1, 05 de part de titres sans
risques, et achetant 2/5 de part part d’actifs risqués, est donnée par le vecteur
 
4 2
−Φ1 = (−Φ11 , −Φ21 ) = − ;
1, 05 5
La valeur d’acquisition du portefeuille initial est donc donnée par
V0 (−Φ) = −Φ11 S01 − Φ21 S02
 
4 2
= − ×1+ ×5
1, 05 5
4 4 − 2, 1 1, 9
= − +2=− =− ' −1, 81
1, 05 1, 05 1, 05
2. Après évolution des cours des actifs, les deux valeurs possibles de ce portefeuille sont
déterminées par
V1 (−Φ)(ω 1 ) = −Φ11 (ω 1 ) S11 (ω 1 ) − Φ21 (ω 1 ) S12 (ω 1 )
4 2
= − × 1, 05 + × 5 = −4 + 2 = −2
1, 05 5
176 CHAPITRE 5. CORRIGÉS

et
V1 (−Φ)(ω 2 ) = −Φ11 (ω 2 ) S11 (ω 2 ) − Φ21 (ω 2 ) S12 (ω 2 )
4 2
= − × 1, 05 + × 10 = −4 + 4 = 0
1, 05 5

3. D’après la question précédente, nous avons


∀ω ∈ Ω V1 (−Φ)(ω) + f (ω) ≥ 0
On en conclut que le portefeuille −Φ1 permet à l’acheteur de l’option f de rembourser sa
dette initiale, s’élevant à −1, 81.

Exercice 4.1.9 :
1. Les aménagement Φ1 = (Φ11 , Φ21 ) de portefeuilles initiaux dont la valeur d’acquisition vaut
V0 (Φ) = 1 sont données par
V0 (Φ) = Φ11 S01 + Φ21 S02 = 1 ⇐⇒ Φ11 + 5 Φ21 = 1
2. Après l’évolution des cours des actifs correspondant au premier jeu d’aléa ω 1 , la valeur
du portefeuille est donnée par
V1 (Φ)(ω 1 ) = Φ11 S11 (ω 1 ) + Φ21 S12 (ω 1 ) = Φ11 × 1, 05 + Φ21 × 5
= (1 − 5 Φ21 ) × 1, 05 + Φ21 × 5 = 1, 05 − 0, 25 × Φ21
Pour couvrir l’option dans le premier jeu d’aléa, nous devons avoir
95 19
V1 (Φ)(ω 1 ) = 1, 05 − 0, 25 × Φ21 ≥ 2 = f (ω 1 ) ⇐⇒ Φ21 ≤ − =−
25 5
Autrement dit, nous devons vendre à découvert au moins 19/5 de parts de titres risqués.
Dans le second jeu d’aléa, une telle stratégie conduit à la valeur du portefeuille
V1 (Φ)(ω 2 ) = Φ11 S11 (ω 2 ) + Φ21 S12 (ω 2 ) = Φ11 × 1, 05 + Φ21 × 10
= (1 − 5 Φ21 ) × 1, 05 + Φ21 × 10 = 1, 05 + 4, 75 × Φ21
19
≤ 1, 05 − 4, 75 × = 1, 05 − 0, 95 × 19 < 0
5
3. Nous avons montré que le vendeur ne pourra jamais honorer son engagement, et couvrir
son option, s’il son prix de vente est 1. Autrement dit, nous avons
{x ∈ [0, 1] : ∃(Φk )0≤k≤n t.q. V0 (Φ) = x et Vn (Φ) ≥ f } = ∅
Par conséquent, par définition de C ? (f ), nous avons
C ? (f ) = inf {x ∈ (1, ∞) : ∃(Φk )0≤k≤n t.q. V0 (Φ) = x et Vn (Φ) ≥ f }
≥ 1

Exercice 4.2.1 :
1. Par définition du rendement instantané, on vérifie aisément que
 1 
1 S1 − S01 (1 + r) − 1
E(R1S ) = E = =r
S01 1
et
 
2 S12 − S02 s1,1 − s0 s1,2 − s0
E(R1S ) = E = p + (1 − p)
S02 s0 s0
s1,2 − s0 s1,2 − s1,1
= −p×
s0 s0
5.2. CHAPITRE 2 177

2. Il suffit de noter que l’on a


2 1 s1,2 − s0 s1,2 − s1,1
E(R1S ) > E(R1S ) ⇐⇒ −p× >r
s0 s0
 
s0 s1,2 − s0
⇐⇒ p< −r
s1,2 − s1,1 s0
s 1,2 − s 0 (1 + r)
⇐⇒ p < p? =
(s1,2 − s1,1 )

3. Lorsque P = P? , on a bien évidement


1
E(R1S ) = r

De plus, un simple calcul montre que


2 s1,2 − s0 s1,2 − s0 (1 + r) (s1,2 − s1,1 )
E? (R1S ) = − ×
s0 (s1,2 − s1,1 ) s0
s1,2 − s0 s1,2 − s0 (1 + r)
= − = (1 + r) − 1 = r
s0 s0
Par conséquent, sous P? , les rendement instantanés des titres risqués et non risqués
coı̈ncident.

Exercice 4.2.2 :
1. Les valeurs des portefeuilles associées à une stratégie de réaménagement

Φ1 = (Φ11 , Φ21 )

sont données par les formules suivantes

V0 (Φ) = Φ11 S01 + Φ21 S02 = Φ11 + Φ21 s0


V1 (Φ) = Φ11 S11 + Φ21 S12 = Φ11 (1 + r) + Φ21 S12

Leurs valeurs réactualisées sont définies par la formule


V0 (Φ) V1 (Φ) V1 (Φ)
V 0 (Φ) = = V0 (Φ) et V 1 (Φ) = =
(1 + r)0 (1 + r)1 (1 + r)
s’expriment en terme des actifs réactualisés
1 S01 2 S02
S0 = = S01 = 1 , S0 = = S02 = s0
(1 + r)0 (1 + r)0
et
1 S1i (1 + r) 2 S2i
S1 = = =1, S1 =
(1 + r)1 (1 + r) (1 + r)1
selon les formules
2
V 0 (Φ) = V0 (Φ) = Φ11 + Φ21 S 0 = Φ11 + Φ21 s0
2
V 1 (Φ) = Φ11 + Φ21 S 1

2. D’après la question précédente, on obtient


2
Φ11 = V 0 (Φ) − Φ21 S 0

Pour conclure, on note simplement que l’on a


2 2 2
V 1 (Φ) = Φ11 + Φ21 S 1 = V 0 (Φ) + Φ21 [S 1 − S 0 ]
178 CHAPITRE 5. CORRIGÉS

3. D’après la formule précédente, nous avons


  2  2
E? V 1 (Φ) | F0 = V 0 (Φ) + Φ21 [E? S 1 | F0 − S 0 ]
= V 0 (Φ) + Φ21 × 0 = V 0 (Φ)

Exercice 4.2.3 : Nous avons


V 0 (Φ) = V0 (Φ) = Φ10 S01 + Φ20 S02 = Φ11 S01 + Φ21 S02 (par autofinancement)
2
= Φ11 + Φ21 S 0
V1 (Φ) S11 S12 (1 + r) × 1 S12
V 1 (Φ) = = Φ11 + Φ21 = Φ11 + Φ21
(1 + r) 1+r 1+r (1 + r) (1 + r)
2
= Φ11 + Φ21 S 1
On en conclut que
2 2
V 0 (Φ) = Φ11 + Φ21 S 0 et V 1 (Φ) = Φ11 + Φ21 S 1
On en déduit que
2 2
∆V 1 (Φ) = [V 1 (Φ) − V 0 (Φ)] = Φ21 × ∆S 1 et Φ11 = V 0 (Φ) − Φ21 S 0

Exercice 4.2.4 :
1 2
1. Le tableau des épreuves correspondant au marché réactualisé (S k , S k )k=0,1 est donné par
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 )
ω1 (1; s0 ) (1; s1,1 )
ω2 (1; s0 ) (1; s1,2 )

avec s0 = s0 /(1 + r)0 = s0 , s1,1 = s1,1 /(1 + r)1 , et s1,2 = s1,2 /(1 + r)1 .
2. Les stratégie d’aménagement Φ1 = (φ1 , φ2 ) sans investissement initial sont définies par la
propriété suivante :
1 2
V 0 (Φ) = φ1 S 0 + φ2 S 0 = φ1 + φ2 s0 = 0 ⇐⇒ φ1 = −φ2 s0
Par conséquent, les valeurs réactualisées d’un portefeuille associé à de telles stratégies
sont données par
1 2 2 2
V 1 (Φ) = φ1 S 1 + φ2 S 1 = φ1 + φ2 S 1 = φ2 [S 1 − s0 ]
On a donc
V 1 (Φ)(ω 1 ) = φ2 [s1,1 − s0 ] et V 1 (Φ)(ω 2 ) = φ2 [s1,2 − s0 ]

3. D’après la question précédente, on peut enrichir de façon certaine son son portefeuille
2
∆V 1 (Φ) = [V 1 (Φ) − 0] = V 1 (Φ) = φ2 [S 1 − s0 ]
2
sans apport initial, si, et seulement si, les quantités φ2 et [S 1 − s0 ] ont toujours le même
signe. Ces possibilités sont discutées dans les cas suivants :
– s0 < s1,1 < s1,2 ou s0 < s1,2 < s1,1 :
Dans ces deux situations, nous avons [s1,1 − s0 ] > 0, et [s1,2 − s0 ] > 0. L’arbitrage est
clair, il suffit de vendre a découvert φ1 = −φ2 s0 parts de titre non risqué, pour acheter
φ2 parts de titre risqué
2
φ1 = −φ2 s0 =⇒ V 0 (Φ) = 0 et V 1 (Φ) = φ2 [S 1 − s0 ] > 0
5.2. CHAPITRE 2 179

– s1,1 < s1,2 < s0 ou s1,2 < s1,1 < s0 :


Dans ce cette situation, nous avons [s1,1 − s0 ] < 0, et [s1,2 − s0 ] < 0. L’arbitrage
est clair, il suffit de vendre a découvert −φ2 (> 0) parts de titre risqué, pour acheter
φ1 = −φ2 s0 (> 0) parts de titre non risqué
2
φ1 = −φ2 s0 =⇒ V 0 (Φ) = 0 et V 1 (Φ) = φ2 [S 1 − s0 ] > 0
– s1,1 < s0 < s1,2 ou s1,2 < s0 < s1,1 :
Dans ce cette situation, les quantités [s1,1 − s0 ], et [s1,2 − s0 ], sont de signes opposés,
et l’on ne peut arbitrer sans prendre de risque.
4. Dans toutes les cas de marchés financiers, nous avons s0 = s0 = 5. D’après les questions
précédentes, nous avons

1) s1,1 = 6 < s0 = 5 < s1,2 = 4 ⇒ marché viable

2) s0 = 5 < s1,1 = 6 < s1,2 = 7 ⇒ ∃arbitrage

3) s1,2 = 1 < s0 = 5 < s1,1 = 10 ⇒ marché viable

4) s1,2 = 2 < s1,1 = 3 < s0 = 5 ⇒ ∃arbitrage

5) s0 = 5 ≤ s1,1 = 5 < s1,2 = 6 ⇒ ∃arbitrage

6) s1,2 = 4 < s0 = 5 ≤ s1,1 = 5 ⇒ marché viable

7) s1,1 = 3 < s0 = 5 ≤ s1,2 = 10 ⇒ marché viable

8) s0 = 5 ≤ s1,1 = 8 < s1,2 = 9 ⇒ ∃arbitrage

9) s1,1 = 2 < s0 = 5 ≤ s1,2 = 10 ⇒ marché viable

Exercice 4.2.5 :
1. Les portefeuilles de couverture (φ1 , φ2 ) doivent nécessairement satisfaire la condition
suivante

2
V 1 (Φ) = φ1 + φ2 S 1 ≥ f
 
 f 1 − φ1 f 2 − φ1
⇐⇒ φ1 + φ2 s1,1 ≥ f 1 et φ1 + φ2 s1,2 ≥ f 2 ⇐⇒ φ2 ≥ max ;
s1,1 s1,2
Par conséquent, le coût minimal d’acquisition du portefeuille initial est tel que

V 0 (Φ) = V0 (Φ) = φ1 + φ2 s0
    
s0 s0 s0
≥ max φ1 + [f i − φ1 ] = max f i + φ1 1 −
i=1,2 s1,i i=1,2 s1,i s1,i

2. D’après nos hypothèses, nous avons

s1,1 < s0 < s1,2

Ainsi, la droite  
s0 s0
φ1 −→ f 1 + φ1 1 −
s1,1 s1,1
| {z }
négatif
180 CHAPITRE 5. CORRIGÉS

est décroissante, et la droite


 
1 s0 1 s0
φ −→ f +φ 1−
s1,2 2 s1,2
| {z }
positif

croissante. Ces deux droites s’intersectent en un point φ1, ? déterminé par la formule
   
s0 1, ? s0 s0 1, ? s0
f +φ 1− = f +φ 1−
s1,1 1 s1,1 s1,2 2 s1,2

Autrement dit, nous avons


 −1  
s0 s0 s0 s0
φ1, ?
= − f − f
s1,2 s1,1 s1,2 2 s1,1 1
 −1  
1 1 1 1 s1,2 s1,1 f s1,1 − f 1 s1,2
= − f2 − f1 = × 2
s1,2 s1,1 s1,2 s1,1 s1,1 − s1,2 s1,2 s1,1

On obtient finalement

f 2 s1,1 − f 1 s1,2
φ1, ?
=
s1,1 − s1,2

Il nous reste à vérifier que la stratégie de couverture proposée



φ2, ? = f 1 − φ1, ? /s1,1

permet de réaliser l’option f. Pour cela, on note que



φ1, ?
+ φ2, ? s1,1 = φ1, ?
+ f 1 − φ1, ?
= f1

et
 
 s1,2 s1,2 s1,2
φ1, ?
+ φ2, ? s1,2 = φ1, ?
+ f 1 − φ1, ?
= φ1, ? 1 − + f1 ×
s1,1 s1,1 s1,1
 
f 2 s1,1 − f 1 s1,2 s1,2 s1,2
= × 1− + f1 × = f2
s1,1 − s1,2 s1,1 s1,1

3. D’après la propriété d’autofinancement, le coût initial V 0 (Φ) du portefeuille permettant


de couvrir l’option est donné par

V 0 (Φ) = φ1, ?
+ φ2, ? s0

On obtient ainsi la formule


 
f 2 s1,1 − f 1 s1,2 f 2 s1,1 − f 1 s1,2 s0
V 0 (Φ) = + f1 −
s1,1 − s1,2 s1,1 − s1,2 s1,1
 
f 2 s1,1 − f 1 s1,2 f 1 s1,1 − f 2 s1,1 s0
= +
s1,1 − s1,2 s1,1 − s1,2 s1,1
 
f 2 s1,1 − f 1 s1,2 f1 − f2
= + s0
s1,1 − s1,2 s1,1 − s1,2
   
s1,2 − s0 s1,2 − s0
= f1 + f2 1 −
s1,2 − s1,1 s1,2 − s1,1
5.2. CHAPITRE 2 181

Exercice 4.2.6 :
On rapelle que les prix C(f ), et les stratégies de couverture (φ1, ? , φ2, ? ) sont données par
   
s1,2 − s0 s1,2 − s0
C(f ) = f 1 + f2 1 −
s1,2 − s1,1 s1,2 − s1,1
et
f 1 s1,2 − f 2 s1,1
φ1, ?
=
s1,2 − s1,1
 
 1 f s1,1 − f 1 s1,2 f2 − f1
φ2, ?
= f 1 − φ1, ? /s1,1 = f1 − 2 =
s1,1 s1,1 − s1,2 s1,2 − s1,1
Leurs valeurs dans les différents modèles de marchés proposés sont données ci-dessous.
1 2 1 2
1) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 3) f1  
1 6f 1 −3f 2 f 2 −f 1
ω2 (1; 5) (1; 6) f2 3f1 + 32 f 2 3 , 3
1 2 1 2
2) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 1) f1  
5 10f 1 −f 2 f 2 −f 1
ω2 (1; 5) (1; 10) f2 9f1 + 94 f 2 9 , 9
1 2 1 2
3) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 2) f1  
2 7f 1 −2f 2 f 2 −f 1
ω2 (1; 5) (1; 7) f2 5f1 + 53 f 2 5 , 5
1 2 1 2
4) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 3) f1  
45 2 50f 1 −3f 2 f 2 −f 1
ω2 (1; 5) (1; 50) f2 47 f 1 + 47 f 2 47 , 47
1 2 1 2
5) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 1) f1  
15 4 20f 1 −f 2 f 2 −f 1
ω2 (1; 5) (1; 20) f2 19 f 1 + 19 f 2 19 , 19
1 2 1 2
6) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 2) f1  
2 7f 1 −2f 2 f 2 −f 1
ω2 (1; 5) (1; 7) f2 5f1 + 53 f 2 5 , 5
1 2 1 2
7) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 3) f1  
45 2 50f 1 −3f 2 f 2 −f 1
ω2 (1; 5) (1; 50) f2 47 f 1 + 47 f 2 47 , 47
1 2 1 2
8) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 4) f1  
95 1 100f 1 −4f 2 f 2 −f 1
ω2 (1; 5) (1; 100) f2 96 f 1 + 96 f 2 96 , 96
1 2 1 2
9) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 2) f1  
995 3 1000f 1 −2f 2 f 2 −f 1
ω2 (1; 5) (1; 1000) f2 998 f 1 + 998 f 2 998 , 998

Exercice 4.2.7 :
182 CHAPITRE 5. CORRIGÉS

2 2 2
1. L’unique probabilité P? sur Ω = {ω 1 , ω 2 } telle que E? (S 1 | S 0 ) = S 0 , est donnée par la
formule suivante
2 2
E? (S 1 | S 0 = s0 ) = s1,1 P? (ω 1 ) + s1,2 (1 − P? (ω 1 )) = s0

Autrement dit, nous avons

s1,2 − s0
P? (ω 1 ) = 1 − P? (ω 2 ) =
s1,2 − s1,1

2. Pour tout portefeuille autofinancé (et prévisible), nous avons


2 2 2
E? (V 1 (Φ) | S 0 ) = V 0 (Φ) + Φ21 E? (∆S 1 | S 0 ) = V 0 (Φ)

3. Sous P? , d’une fonction de paiement réactualisée f, est donnée par


 
s1,2 − s0 s1,2 − s0
E? (f ) = f1 + 1 − f2
s1,2 − s1,1 s1,2 − s1,1

avec f (ω i ) = f i , pour chaque i = 1, 2.


4. En utilisant la formule du delta de couverture,
 1
φ + φ2 s1,1 = f 1
φ1 + φ2 s1,2 = f 2

on obtient la stratégie de couverture Φ? = (φ1, ? , φ2, ? ) de l’option f ,


 −1  
1 1 f1 f s1,2 f 1 − s1,1 f 2 f2 − f1
φ 1, ?
= − − 2 = et φ2, ?
=
s1,1 s1,2 s1,1 s1,2 s1,2 − s1,1 s1,2 − s1,1

Le coût initial du portefeuille de couverture est donné par

V 0 (Φ? ) = E? (f )

Par définition de C ? (f ) et C? (f )

C ? (f ) = inf x ∈ R+ : ∃Φ = (Φk )k=0,1 t.q. V0 (Φ) = x et V 1 (Φ) ≥ f

C? (f ) = sup x ∈ [0, ∞) : ∃(Φk )k=0,1 t.q. V0 (Φ) = x et V 1 (Φ) ≤ f

nous avons,
∀Φ : V 1 (Φ) ≥ f =⇒ E? (V 1 (Φ)) ≥ E? (f ) = V 0 (Φ? )
et
∀Φ : V 1 (Φ) ≤ f =⇒ E? (V 1 (Φ)) ≤ E? (f ) = V 0 (Φ? )
Par conséquent, on obtient l’encadrement suivant

C? (f ) ≤ V 0 (Φ? ) = E? (f ) ≤ C ? (f )

Comme la stratégie de couverture Φ? appartient aux deux ensembles décrits ci-dessus, on


a aussi
C ? (f ) ≤ V 0 (Φ? ) ≤ C? (f )
On en conclut que
V 0 (Φ? ) = E? (f ) = C(f ) = C ? (f ) = C? (f )
5.2. CHAPITRE 2 183

Exercice 4.2.8 : Les prix, et les stratégies de couverture des options de vente sont donnés
ci-dessous :
1 2 1 2 2 1, ? 2, ?
1) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+ C(f )  (φ , φ ) 
1 2 6f 1 −3f 2 f 2 −f 1
ω1 (1; 5) (1; 3) 7 3f1 + 3f2 3 , 3
7 8 30 −3
ω2 (1; 5) (1; 6) 4 = 3 + 3 = 5 = 3 , 3 = (10; −1)

1 2 1 2 2 1, ? 2, ?
2) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+ C(f )  (φ , φ ) 
5 10f 1 −f 2 f 2 −f 1
ω1 (1; 5) (1; 1) 7 9f1 + 94 f 1 9 , 9
−7

ω2 (1; 5) (1; 10) 0 = 35
9 = 70 9 , 9

1 2 1 2 2 1, ? 2, ?
3) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+ C(f )  (φ , φ ) 
1 2 3 7f 1 −2f 2 f 2 −f 1
ω (1; 5) (1; 2) 6 5f1 + 5f2 5 , 5
40 −5
ω 2
(1; 5) (1; 7) 1 = 15
5 =3 = 5 , 5 = (8; −1)
1 2 1 2 2 1, ? 2, ?
4) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+ C(f )  (φ , φ ) 
1 45 2 50f 1 −3f 2 f 2 −f 1
ω (1; 5) (1; 3) 7 47 f 1
+ 47 f2 47 , 47
315 350 −7

ω2 (1; 5) (1; 50) 0 = 47 = 47 , 47
1 2 1 2 2 1, ? 2, ?
5) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (100 − S 1 )+ C(f )  (φ , φ ) 
15 4 20f 1 −f 2 f 2 −f 1
ω1 (1; 5) (1; 1) 99 19 f 1 + 19 f 2 19 , 19
1805
ω2 (1; 5) (1; 20) 80 19 = (100; −1)
1 2 1 2 2 1, ? 2, ?
6) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+ C(f )  (φ , φ ) 
2 7f 1 −2f 2 f 2 −f 1
ω1 (1; 5) (1; 2) 4 5f1 + 53 f 2 5 , 5
28 −4

ω2 (1; 5) (1; 7) 0 = 85 = 5, 5
1 2 1 2 2 1, ? 2, ?
7) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+ C(f )  (φ , φ ) 
45 2 50f 1 −3f 2 f 2 −f 1
ω1 (1; 5) (1; 3) 3 47 f 1 + 47 f 2 47 , 47
135 150 −3

ω2 (1; 5) (1; 50) 0 = 47 ,
47 47

Exercice 4.3.1 : Lorsque C = C ? (f ), l’émetteur de l’option pourra honorer son contrat en


utilisant le portefeuille de couverture calculé dans la section 4.3.4.
Si l’émetteur d’une option f offre un prix

C > C ? (f )

il aura ainsi l’opportunité de gagner (C − C ? (f )) Euros. Pour cela, il lui suffira simplement
d’utiliser la stratégie de couverture définie ci-dessus pour honorer son contrat ; puis il empochera,
sans trop effort, la somme résiduelle !
Inversement, si l’émetteur de l’option f offre un prix

C < C ? (f ) = V 0 (Φ)

il s’expose à une perte certaine de (C ? (f ) − C) Euros (on rappelle que C ? (f ) correspond à la


plus petite valeur d’acquisition permettant de couvrir l’option).
Exercice 4.3.2 :
184 CHAPITRE 5. CORRIGÉS

1. La probabilité à risque neutre P? est donnée par les formules suivantes


2 2 2 2
P? (S 1 = s1,1 |S 0 = s0 ) = 1 − P? (S 1 = s1,2 |S 0 = s0 )
s1,2 − s0 6−5 1
= = =
s1,2 − s1,1 6−3 3
2 2 2 2
P? (S 2 = s2,1 |S 1 = s1,1 ) = 1 − P? (S 2 = s2,2 |S 1 = s1,1 )
s2,2 − s1,1 7−3 4
= = =
s2,2 − s2,1 7−2 5
2 2 2 2
P? (S 2 = s2,3 |S 1 = s1,2 ) = 1 − P? (S 2 = s2,4 |S 1 = s1,2 )
s2,4 − s1,2 10 − 6 2
= = =
s2,4 − s2,3 10 − 4 3
Ces probabilités de transitions sont résumées dans le diagramme suivant

((1+r)^2,s_{2,1})
4/5

((1+r),s_{1,1}) 1/5

1/3 ((1+r)^2,s_{2,2})

(1,s_0)
((1+r)^2,s_{2,3})
2/3
2/3
((1+r),s_{1,2})

1/3 ((1+r_^2,s_{2,4})

Fig. 5.8 – Transitions neutres

On en conclut que
2 2 2
P? (ω 1 ) = P? (S 2 = s2,1 , S 1 = s1,1 |S 0 = s0 )
2 2 2 2 1 4
= P? (S 2 = s2,1 |S 1 = s1,1 ) × P? (S 1 = s1,1 |S 0 = s0 ) = ×
3 5
2 2 2
P? (ω 2 ) = P? (S 2 = s2,2 , S 1 = s1,1 |S 0 = s0 )
2 2 2 2 1 1
= P? (S 2 = s2,2 |S 1 = s1,1 ) × P? (S 1 = s1,1 |S 0 = s0 ) = ×
3 5
2 2 2
P? (ω 3 ) = P? (S 2 = s2,3 , S 1 = s1,2 |S 0 = s0 )
2 2 2 2 2 2
= P? (S 2 = s2,3 |S 1 = s1,2 ) × P? (S 1 = s1,2 |S 0 = s0 ) = ×
3 3
2 2 2
P? (ω 4 ) = P? (S 2 = s2,4 , S 1 = s1,2 |S 0 = s0 )
2 2 2 2 2 1
= P? (S 2 = s2,4 |S 1 = s1,2 ) × P? (S 1 = s1,2 |S 0 = s0 ) = ×
3 3
2. La couverture de l’option f revient à trouver une stratégie (Φ21 , Φ22 ) prévisible, et une
condition initiale V 0 (Φ), pour lesquelles le portefeuille réactualisé
k
X 2
V k (Φ) = V 0 (Φ) + Φ2l ∆S l
l=1
5.2. CHAPITRE 2 185

atteint à l’échéance k = 2 cette valeur


2
X 2 2
V 2 (Φ) = V 0 (Φ) + Φ2k ∆S k = g(S 2 )
k=1

Sous la probabilité à risque neutre, le coût initial du portefeuille de couverture est donné
par l’une des formules suivantes :

V 0 (Φ) = g0 (s0 )
= g1 (s1,1 ) P? ({ω 1 , ω 2 }) + g1 (s1,2 ) P? ({ω 3 , ω 4 })
4
X
= g(s2,i )P? (ω i )
i=1

où (gk )k=0,1,2 désignent les fonctions définies par les équations de récurrence inverse
2 2
g2 (S 2 ) = g(S 2 )
2 2 2
 2 2

g1 (S 1 ) = E? (g2 (S 2 ) | S 1 ) = E? (g(S 2 ) | S 1 )
2 2 2
 2 2 2

g0 (S 0 ) = E? (g1 (S 1 ) | S 0 ) = E? (g(S 2 ) | S 0 )) = E? (g(S 2 ))

Ces formules de récurrence inverse sont synthétisées dans le schéma suivant :

Ω= {w^1,w^2,w^3,w^4}

overline{f}_1 w^1

4/5

g_1(overline{s}_{1,1})
= 4/5 overline{f}_1 + 1/5 overline{f}_2

1/3 1/5 overline{f}_2 w^2

g_0(s_0)
overline{f}_3 w^3
g_1(overline{s}_{1,2}) 2/3
2/3
= 2/3 overline{f}_3 + 1/3 overline{f}_4

1/3 overline{f}_4 w^4

g_0(s_0)= 1/3 g_1(overline{s}_{1,1}) + 2/3 g_1(overline{s}_{1,2})


= 1/3 4/5 overline{f}_1 + 1/3 1/5 overline{f}_2 + 2/3 2/3 overline{f}_3 + 2/3 1/3 overline{f}_4

Fig. 5.9 –

Le portefeuille de couverture est aussi donné par

g1 (s1,2 ) − g1 (s1,1 )
Φ21 =
s1,2 − s1,1
2 1
 4 1
  
3f3 + 3f4 − 5f1 + 5f2 1 2f 3 + f 4 4f 1 + f 2
= = −
6−3 3 3 5
186 CHAPITRE 5. CORRIGÉS

et

g(s2,2 )−g(s2,1 ) f 2 −f 1 f 2 −f 1 2
g (b
2 2 ) − g (a
2 2 ) 
s2,2 −s2,1 = 7−2 = 5 si S 1 = 3 (= s1,1 )
Φ22 = = g(s2,4 )−g(s2,3 ) f 4 −f 3 f 4 −f 3 2
b2 − a 2  = = si S 1 = 6 (= s1,2 )
s2,4 −s2,3 10−4 6

D’après les propriétés d’autofinancement, les aménagements des actifs non risqués (Φ 11 , Φ12 )
sont donnés par les formules

2
Φ11 = V 0 (Φ) − Φ21 S 0 = g0 (s0 ) − Φ21 s0
2 2 2 2
Φ12 = V 1 (Φ) − Φ22 S 1 = g0 (s0 ) + Φ21 [S 1 − S 0 ] − Φ22 S 1

3. Nous avons
2 2
V 2 (Φ) = V 0 (Φ) + Φ21 ∆S 1 + Φ22 ∆S 2
g1 (s1,2 ) − g1 (s1,1 ) 2 g2 (b2 ) − g2 (a2 ) 2 2
= g0 (s0 ) + [S 1 − s0 ] + [S 2 − S 1 ]
s1,2 − s1,1 b2 − a 2

2 2
En décomposant cette expression sur les évènements {S 1 = 3}, et {S 1 = 6}, on obtient
 
4 1 4 2
V 2 (Φ) = f + f + f + f
15 1 15 2 9 3 9 4
 
1 2f 3 + f 4 4f + f 2  
+ − 1 [3 − 5] 1S 2 =3 + [6 − 5] 1S 2 =6
3 3 5 1 1

f2 − f1 2 f − f3 2
+ 1S 2 =3 [S 2 − 3] + 4 1S2 =6 [S 2 − 6]
5 1 6 1

Par conséquent, nous avons


   
4 1 4 2 2 2f 3 + f 4 4f + f 2
V 2 (Φ)(ω 1 ) = f1 + f2 + f3 + f4 − − 1
15 15 9 9 3 3 5
f2 − f1
+ [2 − 3]
5
   
4 1 4 2 2 2f 3 + f 4 4f 1 + f 2 f − f1
= f + f + f + f − − − 2
15 1 15 2 9 3 9 4 3 3 5 5
     
4 8 3 1 2 3 4 4
= f1 + + + f2 + − + f3 −
15 15 15 15 15 15 9 9
 
2 2
+f 4 − = f1
9 9

De même, on obtient
   
4 1 4 2 2 2f 3 + f 4 4f + f 2
V 2 (Φ)(ω 2 ) = f + f + f + f − − 1
15 1 15 2 9 3 9 4 3 3 5
f2 − f1
+ [7 − 3]
5     
4 8 12 1 2 12 4 4
= f1 + − + f2 + + + f3 −
15 15 15 15 15 15 9 9
 
2 2
+f 4 − = f2
9 9
5.2. CHAPITRE 2 187

et
   
3 4 1 4 2 1 2f 3 + f 4 4f 1 + f 2
V 2 (Φ)(ω ) = f1 + f2 + f3 + f4 + −
15 15 9 9 3 3 5
f4 − f3
+ [4 − 6]
6
   
4 1 4 2 1 2f 3 + f 4 4f 1 + f 2 f − f3
= f + f + f + f + − − 4
15 1 15 2 9 3 9 4 3 3 5 3
     
4 4 1 1 4 2 3
= f1 − + f2 − + f3 + +
15 15 15 15 9 9 9
 
2 1 3
+f 4 + − = f3
9 9 9
et enfin
   
4 4 1 4 2 1 2f 3 + f 4 4f 1 + f 2
V 2 (Φ)(ω ) = f + f + f + f + −
15 1 15 2 9 3 9 4 3 3 5
f4 − f3
+ [10 − 6]
6
   
4 1 4 2 1 2f 3 + f 4 4f + f 2 2 
= f1 + f2 + f3 + f4 + − 1 + f4 − f3
15 15 9 9 3 3 5 3
     
4 4 1 1 4 2 6
= f1 − + f2 − + f3 + −
15 15 15 15 9 9 9
 
2 1 6
+f 4 + + = f4
9 9 9

Exercice 4.3.3 : Nous avons, dans chaque jeu d’aléas :


 2 
f 1 = f(ω 1 ) = S 2 − 9 = (2 − 9)+ = 0
+
 2 
f 2 = f(ω 2 ) = S 2 − 9 = (7 − 9)+ = 0
+
 2 
f 3 = f(ω 3 ) = S 2 − 9 = (4 − 9)+ = 0
+
 2 
f 4 = f(ω 4 ) = S 2 − 9 = (10 − 9)+ = 1
+

En reprenant les formules obtenues dans l’exercice 4.3.2, on obtient le prix de l’option
 
4 1 4 2 2
V 0 (Φ) = g0 (s0 ) = f 1 + f 2 + f 3 + f 4 = = 4, 5
15 15 9 9 9
et le portefeuille de couverture
 
2 1 2f 3 + f 4 4f 1 + f 2 1 1
Φ1 = − = et Φ22 = 1 2
3 3 5 9 6 S1 =6

Les aménagements des actifs non risqués (Φ11 , Φ12 ) sont donnés par les formules
2 2 5 1
Φ11 = V 0 (Φ) − Φ21 S 0 = − =−
9 9 3
2
2 2 1 2 1 S
Φ12 = V 1 (Φ) − Φ22 S 1 = + [S 1 − 5] − 1S2 =6 = − + 1 − 1S2 =6
9 9 1 3 9 1
188 CHAPITRE 5. CORRIGÉS

Exercice 4.3.3 : Nous avons, dans chaque jeu d’aléas :


 2

f 1 = f(ω 1 ) = 7 − S 2 = (7 − 2)+ = 5
+
 2

f 2 = f(ω 2 ) = 7 − S 2 = (7 − 7)+ = 0
+
 2

f 3 = f(ω 3 ) = 7 − S 2 = (7 − 4)+ = 3
+
 2

f 4 = f(ω 4 ) = 7 − S 2 = (7 − 10)+ = 0
+

En reprenant les formules obtenues dans l’exercice 4.3.2, on obtient le prix de l’option
 
4 1 4 2 4 4 8
V 0 (Φ) = g0 (s0 ) = f1 + f2 + f3 + f4 = ×5+ ×3=
15 15 9 9 15 9 3
et le portefeuille de couverture
 
1 2f 3 + f 4 4f 1 + f 2 1 2
Φ21 = − = [2 − 4] = −
3 3 5 3 3
et
1
Φ22 = −1S2 =3 − 1 2
1 2 S 1 =6
Les aménagements des actifs non risqués (Φ11 , Φ12 ) sont donnés par les formules
28 10
Φ11 = V 0 (Φ) − Φ21 S 0 = + =6
3 3  
2 8 2 2 1 2
Φ12 2
= V 1 (Φ) − Φ2 S 1 = − (S 1 − 5) + 1S =3 + 1S =6 S 1
2 2
3 3 1 2 1
2 2  
= 6 − S 1 + 3 2 × 1S 2 =3 + 1S2 =6
3 1 1

= 6 + 4 × 1S2 =3 − 1S 2 =6 = 10 × 1S2 =3 − 5 × 1S 2 =6
1 1 1 1

Exercice 4.4.1 : Lorsque les actifs non risqués sont plus rentables que les actif risqués, il faut
vendre à découvert le maximum d’actif risqués, disons m, et placer par exemple cette argent
(m S02 ) dans un compte épargne bancaire au taux r. Plus formellement, on aménage notre
portefeuille initial en posant
Φ1 = (Φ11 , Φ21 ) = (mS02 , −m)
La valeur d’acquisition du portefeuille initial est tout simplement nulle

V0 (Φ) = (m S02 ) × 1 − m × S02 = 0

Sans ré-aménager notre portefeuille, on attend patiemment jusqu’à la date n

∀1 ≤ k < n Φ k = Φ1

A la date n, on revend nos (mS02 ) parts d’actifs non risqués avec les intérêts, pour rembourser
les m parts d’actifs risqués. Autrement dit, on utilise à nouveau la stratégie

Φn = (m S02 , −m)

La valeur du portefeuille au temps n est donnée par la formule

Vn (Φ) = (m S02 ) × (1 + r)n − m × (S02 (1 + ∆U12 ) . . . (1 + ∆Un2 ))


≥ m S02 ((1 + r)n − (1 + h)n )
≥ n m S02 (1 + r)n−1 (r − h)
5.2. CHAPITRE 2 189

Exercice 4.4.2 A chaque instant 1 ≤ k ≤ n, on a pour chaque δ ∈ {b, h}


 1b (δ)  1h (δ)
? h−r r−b
P (∆Uk2 = δ) =
h−b h−b

Par conséquent, la mesure P? est définie explicitement pour chaque environnement aléatoire
(δ1 , . . . , δn ) ∈ {b, h}n , par la formule suivante

P? (∆U12 = δ1 , . . . , ∆Un2 = δn ) = P? (∆U12 = δ1 ) . . . P? (∆Un2 = δn )


 Pnk=1 1b (δk )  Pnk=1 1h (δk )
h−r r−b
=
h−b h−b

Exercice 4.4.3 : L’existence de P? entraı̂ne qu’un investisseur ne peut arbitrer le marché. En


effet, sous P? les portefeuilles réactualisés
2
V k = Φ1k + Φ2k ∆S k

forment une martingale. Il est alors impossible de gagner de l’argent à un horizon donné, sans
une mise initiale, et ceci dans n’importe quel environnement aléatoire ! En effet, nous avons
dans cette situation

0 = V 0 (Φ) = E? (V n (Φ)) et V n (Φ) ≥ 0 =⇒ ∀ω ∈ Ω V n (Φ)(ω) = 0

Exercice 4.4.4 : D’après l’exercice précédent, que le marché soit à tendance à la hausse, ou
à la baisse, l’existence de P? entraı̂ne qu’il est impossible d’arbitrer le marché financier. La
possibilité de neutraliser le marché tient compte des probabilités aussi faibles soient elles des
évènements à tendances inverses. Ainsi dans un marché à tendance à la hausse, un investisseur
ayant misé sur les actifs risqués ne peut toujours pas prédire leur chute avant d’avoir pu s’en
séparer. Cette chute imprévisible annulerait dans le meilleur des cas ses espoirs de gain, ou
tout simplement elle le ruinerait.

Exercice 4.4.5 : La fonction de paiement réactualisée peut s’écrire sous la forme


 
−n 2 2 K 2
f = (1 + r) (Sn − K)+ = S n − n
= g(S n )
(1 + r) +

avec la fonction g : R+ → R+ donnée par


 
K
g(s) = s − = (1 + r)−n (s (1 + r)n − K)+
(1 + r)n +

1. D’après les formules (4.3), le portefeuille de couverture associé à cette fonction de paiement
est donné par
 2

 V 0 (Φ) = V0 (Φ) = g0 (S 0 ) = g0 (s0 )



     
 1+r 1+h 1+b
2 2 2
Φ2k = gk S k−1 − gk S k−1 /S k−1

 h − b 1 + r 1 + r




 2 2
Φ1k = gk−1 (S k−1 ) − Φ2k S k−1
190 CHAPITRE 5. CORRIGÉS

avec les fonctions (gk )0≤k≤n définies par


n−k  l  (n−k)−l !
X 1+b 1+h K
gk (s) = s −
1+r 1+r (1 + r)n
l=0 +
 l  (n−k)−l
l h − r r−b
× Cn−k
h−b h−b

2. L’investissement initial pour couvrir l’option est donné par

V0 (Φ) = g0 (s0 ) 
Pn s0 l n−l K
= l=0 (1+r) n (1 + b) (1 + h) − (1+r) n
 l + n−l
l h−r r−b
× Cn h−b h−b
Pn  
s0 n−l l K
= l=0 (1+r)n (1 + b) (1 + h) − (1+r) n
 n−l+  l
× Cnl h−r
h−b
r−b
h−b

3. Analogue à l’exercice 4.3.1. Supposons, à titre d’exemple que le vendeur offre un prix

C > C ? (f ) = V0 (Φ)

Dans ces conditions, pour gagner (C − C ? (f )) il lui suffira d’utiliser la stratégie de


couverture définie ci-dessus pour honorer son contrat, et empocher la somme résiduelle.
4. (a) Par définition de k0 , on a
   
K 1+h
k0 = inf {0 ≤ k ≤ n : k > log / log }
s0 (1 + b)n 1+b
    
K 1+h
= 1 + log / log
s0 (1 + b)n 1+b

où [a] désigne la partie entière d’un nombre a.


(b) Par définition de k0 , nous avons
  k0
1+h K
∀k0 ≤ l ≤ n s0 × >
1+b (1 + b)n
Par conséquent, on obtient
n  
X s n−l l K
V0 (Φ) = (1 + b) (1 + h) −
(1 + r)n (1 + r)n
l=k0
 n−l  l
l h−r r−b
× Cn
h−b h−b
n   n−l   l   n−l  l
X 1+b 1+h h−r r−b
= s× Cnl
1+r 1+r h−b h−b
l=k0
n  n−l  l
X h−r r−b
−(1 + r)−n K Cnl
h−b h−b
l=k0

On en conclut que

V0 (Φ)
Pn n−l Pn n−l
= s0 × l=k0 Cnl p0 l (1 − p0 ) − (1 + r)−n K l=k0 Cnl p? l
(1 − p? )
5.2. CHAPITRE 2 191

avec les paramètres (p? , p0 ) ∈ [0, 1] donnés par


r−b h−r
p? = , 1 − p? =
h−b h−b
et
h−r 1+b
p0 = 1−
h−b1+r
1
= ((1 + r)(h − b) − (h − r)(1 + b))
(1 + r)(h − b)
−b + rh − hb + r (h + 1)(r − b)
= =
(1 + r)(h − b) (1 + r)(h − b)

(c) Par définition des v.a. de Bernoulli (ip )1≤i≤n , nous avons

P(Σp,n = k) = Cnk P(1p = . . . = kp = 1, et k+1


p = . . . = pk+(n−k) = 0)
n−k
= Cnk pk (1 − p)
On en conclut que
n
X n−l
P(Σp,n ≥ k) = Fn,p (k) = Cnl pl (1 − p)
l=k

Exercice 4.4.6 :
1. On a n
X
E(Σp,n ) = E(ip ) = np
i=1
et
" #2 
n
X
E([Σp,n − E(Σp,n )]2 ) = E  (ip − E(ip )) 
i=1
n
X 
= E (ip − E(ip ))2 = np(1 − p)
i=1

Par conséquent, on trouve que


Pn i
Σp,n − E(Σp,n )  − np
Wp,n =p = pi=1 n
2
E([Σp,n − E(Σp,n )] ) np(1 − p)
2. Lorsque ∆ → 0, nous avons les équivalences

? T ρ ∆+σ ∆ T  √ 
np = × √ = √ ρ + σ/ ∆
∆ 2σ ∆ 2σ ∆
h − r 1 √
1 − p? = = √ × (σ ∆ − ρ ∆)
h−b 2σ ∆

Par conséquent, on obtient


T  √  √
np? (1 − p? ) = 2
ρ + σ/ ∆ (σ ∆ − ρ ∆)
4σ ∆
T  √  √
= 2
σ/ ∆ + ρ (σ ∆ − ρ)
4σ  
T σ2 2 T
= 2
−ρ '
4σ ∆ 4∆
192 CHAPITRE 5. CORRIGÉS

En utilisant le fait que


1
∀|u| < 1 = 1 + u + u2 + . . .
1−u
on remarque aussi que les équivalences suivantes

(1 + σ ∆) √ √
' (1 + σ ∆)(1 − ρ ∆) ' (1 + σ ∆) ' 1
(1 + ρ ∆)
On a donc

0 (1 + σ ∆)
np = np?
(1 + ρ ∆)
T  √  √ T √
' √ ρ + σ/ ∆ (1 + σ ∆) ' √ (ρ + σ 2 + σ/ ∆)
2σ ∆ 2σ ∆

(1 + σ ∆) ? √
p0 = p ' (1 + σ ∆) p? ' p? et (1 − p0 ) ' (1 − p? )
(1 + ρ ∆)
et par suite
T
np0 (1 − p0 ) ' np? (1 − p? ) '
4∆
Pour estimer k0 on utilise le fait que
∼0 2
log (1 + ) '  −
2
pour vérifier tout d’abord que
 
K T √
log = log (K/s0 ) − log (1 − σ ∆)
s0 (1 + b)n ∆
 
T √ σ2 ∆
= log (K/s0 ) + σ ∆+
∆ 2
 2 
σ √
= log (K/s0 ) + T + σ/ ∆
2
et
 
1+h √ √ √
log = log (1 + σ ∆) − log (1 − σ ∆) ' 2σ ∆
1+b
On en conclut que
 
K
log s0 (1+b) n 1
 
K
 
σ2 σ

  ' √ log +T +√
log 1+h 2σ ∆ s0 2 ∆
1+b

et     
1 K σ2 σ
k0 ' √ log +T +√
2σ ∆ s0 2 ∆
3. D’après les estimations précédentes, nous avons
 
0 T 2 σ
np − k0 ' √ ρ+σ + √
2σ ∆ ∆
    2 
1 K σ σ
− √ log +T +√
2σ ∆ s0 2 ∆
   
1 σ2
= √ T ρ+ + log (s0 /K)
2σ ∆ 2
5.2. CHAPITRE 2 193

et

? T σ
np − k0 ' √ ρ+ √
2σ ∆ ∆
    2 
1 K σ σ
− √ log +T +√
2σ ∆ s0 2 ∆
   
1 σ2
= √ T ρ− + log (s0 /K)
2σ ∆ 2

En utilisant les estimations



p p T
np0 (1 − p0 ) ' np? (1 − p? ) ' √
(2 ∆)

on en conclut que
   
np0 − k0 1 σ2
p ' √ T ρ+ + log (s0 /K)
np0 (1 − p0 ) σ T 2
   
np? − k0 1 σ2
p ' √ T ρ− + log (s0 /K)
np? (1 − p? ) σ T 2

4. Pour vérifier la dernière assertion, il suffit de noter que


T
(1 + r)−n = (1 + ρ∆)− ∆ ' e−ρT

La formule recherchée est une conséquence immédiate de (4.4).

Exercice 4.5.1 : Supposons qu’il existe une probabilité à risque neutre P? sur l’espace
filtré (Ω, (Fk )0≤k≤n ). Dans ces conditions, et d’après la proposition 4.5.2, pour toute
stratégie d’aménagement (Φk )1≤k≤n de portefeuilles (autofinancés), leurs valeurs réactualisées
(V k (Φ))0≤k≤n forment une P? -martingale. Par conséquent, nous avons

V 0 (Φ) = 0 , V n (Φ) ≥ 0 =⇒ E? (V n (Φ) | F0 ) = V 0 (Φ) = 0, V n (Φ) ≥ 0
=⇒ V n (Φ) = 0
194 CHAPITRE 5. CORRIGÉS
Bibliographie

[1] S. Ben Hamida, and R. Cont. Recovering volatility from option prices by evolutionary
optimization. Journal of Computional Finance, (2005).
[2] R. Cont, and M. Löwe. Social distance, heterogeneity and social interaction. CMAP No
549, École Polytechnique (2003).

195

Вам также может понравиться