Академический Документы
Профессиональный Документы
Культура Документы
P. Del Moral
Laboratoire J. A. Dieudonné, Mathématiques
Unité mixte de Recherche C.N.R.S. No. 6621
Université de Nice Sophia-Antipolis
Parc Valrose, 06 108 Nice,
France
Table des matières
1
2 TABLE DES MATIÈRES
4 Mathématiques financières 99
4.1 Petit dictionnaire financier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.1 Activité des marchés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.1.3 Options européennes financières . . . . . . . . . . . . . . . . . . . . . . . . 103
4.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.2 Modèle binomial sur une période . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.2.1 Point de vue des essences . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.2.2 Prix d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.2.3 Point de vue de phénomènes . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.3 Modèle à deux états sur deux périodes . . . . . . . . . . . . . . . . . . . . . . . . 118
4.3.1 L’arbre binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.3.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.3.3 Neutralisation des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.3.4 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.4 Modèle de Cox-Ross-Rubinstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.4.2 Techniques d’arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4.3 Neutralisation des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.4.4 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.4.5 Prix d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.5 Analyse mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.5.1 Actualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.5.2 Gestion de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.5.3 Arbitrage et viabilité des marchés . . . . . . . . . . . . . . . . . . . . . . 135
4.5.4 Neutralité des marchés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5.5 Réplication d’options et complétude . . . . . . . . . . . . . . . . . . . . . 139
4.5.6 Couverture d’options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5 Corrigés 143
5.1 Chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.2 Chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
TABLE DES MATIÈRES 3
Avant-propos
L’ébullition des marchés financiers, les volumes des transactions, les valeurs des actions
échangées chaque jour, chaque heure, ou chaque minute dans les places boursières
internationales, sont ils prévisibles et régis par des dynamiques déterministes ? Peut on anticiper
les variations des taux d’intérêts de placements financiers ? Ces évolutions sont elles dictées par
essence, par des règles déterministes pures, ne laissant pas de place au hasard ? Cette notion
d’aléatoire est elle une preuve de notre ignorance, et de notre incapacité à décrire les essences
de ces systèmes ?
Supposons un instant que le hasard, et les phénomènes aléatoires existent. Sous cette
hypothèse assez vraisemblable, serait il envisageable de les modéliser mathématiquement, et
de décrire leurs lois d’évolution ? Un phénomène aléatoire donné peut il être simulé, et répété
indéfiniment ? Est il possible de les prédire, et de les contrôler ? Peut on dompter le hasard,
et construire de nouveau schémas d’exploration aléatoire, et d’approximation numérique de loi
complexes ? En un mot : le hasard serait il lui même soumis à des règles mathématiques ?
Les réponses à toutes ces questions sont bien positives. La théorie des probabilités et des
processus aléatoires, en plein essor depuis le début du vingtième siècle, vise à modéliser,
analyser, estimer, et prédire des phénomènes aléatoires. Fondée à la fois sur l’expérience, et
l’intuition, et sans cesse nourrie par les développements des mathématiques pures, des sciences
appliquées, et des puissances de calcul informatique, cette théorie propose une variété de modèles
et d’algorithmes aléatoires, ainsi qu’une panoplie de techniques algébriques, et analytiques,
pour l’étude de phénomènes aléatoires issus de la physique, de la biologie, et des sciences de
l’ingénieur. Dans chaque domaine d’application, la théorie des probabilités offre une variété de
modèles en adéquation parfaite avec la réalité. Les interprétations de ces modèles dépendent du
domaine d’application. Un simple modèle de Pile ou Face peut s’interpréter comme l’évolution
d’une particule physique vers la droite, ou vers la gauche sur la droite réelle. Ce modèle
élémentaire peut aussi être associé à des évolutions à la hausse, ou à la baisse de marchés
financiers. Dans un autre registre, certains modèles d’interaction issus de la physique statistique,
ou de la théorie des dynamiques de populations biologiques, ont récemment été utilisés avec
succès dans la modélisation de comportement collectifs d’agents financiers, ou dans la calibration
de modèles de prix d’actions [1, 2].
Ces notes de cours proposent une introduction élémentaire à la théorie des probabilités, et
à ses applications en ingénierie et mathématiques financières. Elles s’articulent essentiellement
autour de deux axes principaux :
La première partie offre un exposé synthétique des principaux éléments de la théorie des
probabilités, et celle des processus aléatoires. La seconde partie porte sur la modélisation, et
l’analyse probabiliste de problèmes issus de la finance, tels la gestion de portefeuilles, le calcul
des prix, et de couvertures d’options financières.
Chaque partie est développée selon un ordre de difficulté croissant. Pour des raisons
pédagogiques, nous avons néanmoins choisi de restreindre cet exposé à l’étude des mesures
de probabilités, et des processus aléatoires, sur des espaces finis. Cette approche nous permet
de contourner la théorie de l’intégration de Lebesgue sur laquelle est édifiée la théorie générale
des probabilités.
Dans un premier chapitre introductif nous rappelons brièvement les principales notions de la
théorie des probabilités, telles les notions de variables aléatoires, les propriétés d’indépendance
entre évènements, ainsi que le conditionnement en des événements, des partitions, ou plus
4 TABLE DES MATIÈRES
5
6 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
Une mesure de probabilité P sur Ω, est une application P de Ω dans [0, 1], telle que
P
ω∈Ω P(ω) = 1. La probabilité P(A) d’un évènement A, est définie par la formule
X X
P(A) = P(ω) = 1A (ω) P(ω)
ω∈A ω∈Ω
P
On notera que l’on a P(Ω) = 1, et P(∅) = 0, avec la convention ∅ = 0. Les ensembles Ω, et ∅,
sont appelés respectivement, l’évènement certain, et l’évènement impossible. Le couple (Ω, P),
est appelé un espace de probabilité, ou encore un espace de probabilités.
Exemple 1.1.1 Amener un total de points au moins égal à 10, en jetant deux dés, est un
évènement aléatoire A qui s’exprime dans l’espace produit
avec la formule
A = {(4, 6), (6, 4), (5, 5)}
Si l’on s’intéresse uniquement aux résultats du premier dés, il est bien plus judicieux de les
exprimer dans l’espace Ω1 = {1, . . . , 6}. Obtenir le chiffre 6, lors du lancer de ce dés, est un
évènement aléatoire qui s’exprime dans Ω1 , par la donné du singleton A1 = {6} ⊂ Ω1 . La
probabilité de réalisation de chaque aléa ω1 ∈ Ω1 , correspondant au lancer du premier dés, est
alors donnée par
X
P1 (ω1 ) =déf. P[{ω1 } × Ω2 ] = P[(ω1 , ω2 )] = 6/36 = 1/6
ω2 ∈Ω2
L’exemple précédent montre qu’un même évènement aléatoire peut s’exprimer dans
des espaces probabilisés plus ou moins complexes. En pratique, l’on pourra mettra
à profit cette souplesse, en choisissant l’espace probabilisé le plus simple rendant compte de
l’expérience étudiée.
La représentation des évènements comme partie d’un ensemble Ω offre une correspondance
précieuse entre les opérations logiques sur les réalisations des expériences, et les opérations
d’inclusion/exclusion classiques de la théorie des ensembles : A tout évènement A, on associe
son contraire Ac = Ω−A qui se réalise uniquement si A ne l’est pas. A tout couple d’évènements
A, B ⊂ Ω, l’évènement A ∩ B est celui qui se réalise uniquement si les évènements A et B se
réalisent simultanément. De même, l’évènement A ∪ B se réalise, lorsque l’évènement A ou B
se réalise. Lorsque l’on a A ∩ B = ∅, on dit que les évènements A et B sont incompatibles.
Nous laissons le soin au lecteur de vérifier les formule suivantes :
1.1. PROMENADES ALÉATOIRES 7
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (A ∪ B)c = Ac ∩ B c
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (A ∩ B)c = Ac ∪ B c
Exercice 1.1.2 Montrer (par récurrence) que pour toute collection d’évènements A 1 , . . . , An ⊂
Ω, nous avons
P(A1 ∪ . . . ∪ An ) ≤ P(A1 ) + . . . + P(An )
A4B = [A ∩ B c ] ∪ [B ∩ Ac ] = (A − B) ∪ (B − A)
1A4B = 1A + 1B − 21A∩B
3. En utilisant la formule
n
Y n
X X
(1 + ai ) = 1 + a i1 . . . a ip
i=1 p=1 1≤i1 <...<ip ≤n
qui est valable pour tout n ≥ 0, et pour tout (ai )1≤i≤n ∈ Rn , vérifier l’identité
n
X X
P(∪ni=1 Ai ) = (−1)p−1 P(Ai1 ∩ . . . ∩ Aip ) (1.1)
p=1 1≤i1 <...<ip ≤n
Par un raisonnement analogue à celui utilisé dans la question précédente, vérifier l’identité
X Pn n
X X
1Ai (ω)
(1 + u) i=1 P(ω) = 1 + up P(Ai1 ∩ . . . ∩ Aip )
ω∈Ω p=1 1≤i1 <...<ip ≤n
Modèles d’urnes
Dans l’expérience qui suit, n boules sont sélectionnées au hasard, dans une urne contenant
N boules numérotées de 1 à N . Cette expérience peut être représentée par les n-uplets
ω = (ω1 , . . . , ωn ) ∈ {1, . . . , N }n
où chaque coordonnée ωi désigne le numéro de la boule sélectionnée au n-ième tirage. Pour
poursuivre notre discussion, il est essentiel de préciser les points suivants :
– Les boules sélectionnées sont elles remises dans l’urne ?
– L’ordre des sélections est il important ?
Par exemple, si les tirages sont sans remise, on ne peut avoir de répétitions d’indices dans
les coordonnées des n-uplets (ω1 , . . . , ωn ). Par exemple si n = 2, et N = 4, on ne peut avoir
(1, 1), pas plus que (2, 2).
Dans les deux cas où les tirages sont avec, ou sans remise, il est aussi important de savoir
si l’on considérer l’ordre des sélections. Par exemple si n = 2, et N = 4, doit-on distinguer les
résultats de l’expérience ω = (1, 2), et ω = (2, 1) ? En toute généralité, la réponse est oui. Car
ω = (1, 2) représente le cas où la première boule sélectionnée est la boule numéro 1, la seconde
la boule numéro 2 ; alors que l’aléa ω = (2, 1) représente le cas où la première boule sélectionné
est la boule numéro 2, la seconde la boule numéro 1. L’ordre n’est pas important lorsque l’on
s’intéresse à des évènements de la forme
Dans le cas de tirages avec remise, on remarquera que h1, 1i = (1, 1).
Pour distinguer ces deux situations, nous noterons
ω = hω1 , . . . , ω2 i
les évènements élémentaires d’une expérience aléatoire où l’ordre n’est pas important ; et ω =
(ω1 , . . . , ω2 ) les évènements élémentaires d’une expérience aléatoire où l’ordre est important.
Il est parfois commode d’appeler ces évènements, des évènements ordonnés (ω 1 , . . . , ω2 ), et
désordonnées hω1 , . . . , ω2 i.
1. Sélection ordonnée avec remise Dans le cas le plus simple où l’ordre des tirages est
important, nous avons
2. Sélection ordonnée sans remise Dans cette expérience, chaque boule sélectionnée au
hasard est conservée à l’extérieur de l’urne. Dans le cas le plus simple où l’ordre est
important, on a
N (N −1)...(N −(n−1)) (N )n n
=⇒ |Ω| = n! = n! =déf. CN
Pour calculer ce dernier cardinal, il suffit de noter qu’à partir de chaque réalisation
hω1 , . . . , ωn i, on peut construire n! évènements ordonnés, en permutant les indices. Plus
formellement, si Gn désigne le groupe symétrique des permutations sur l’ensemble des
indices {1, . . . , n}, les n! évènements ordonnés déduits de hω1 , . . . , ωn i, correspondent à
l’image de l’application suivante
σ ∈ Gn 7→ (ωσ(1) , . . . , ωσ(n) )
4. Sélection désordonnée avec remise Cette situation est la plus complexe des quatre.
L’ensemble Ω est ici donné par
ω1 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1
1 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1
dans l’ensemble {1, . . . , N }. Si maintenant ω1 = 2, alors il n’y a plus que αN −1 (n) façons
de choisir les autres composantes
2 ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1
(i + 1) ≤ ω2 ≤ . . . ≤ ωn ≤ ωn+1
Exercices
Exercice 1.1.4 Une urne contient N = N1 +N2 boules, N1 de couleur rouges, et N2 de couleur
noire. Lors d’une sélection de n = N1 boules avec remise, quelle est la probabilité de choisir au
moins une fois une boule rouge.
Exercice 1.1.5 Quelle est la probabilité pour qu’au moins deux étudiants dans un classe de n
personnes aient la même date d’anniversaire ? On supposera que la date d’anniversaire est l’un
des 365 jours, et chaque jour est équiprobable. Estimer cette probabilité lorsque n = 31.
Exercice 1.1.6 Un jeu de loterie est formé de n billets gagnants sur un total de N . On
supposera, ce qui est souvent le cas, que le nombre total de billets est plus que le double du
nombre de billets gagnants. Quelle est la probabilité de gagner au moins une fois, si l’on achète
n billets ?
Exercice 1.1.7 Un jeu de loto est formé de N = 49 boules numérotées de 1 à 49. Six d’entre
elles sont gagnantes, disons les 6 premières numérotées de 1 à 6. On sélectionne sans remise
n = 6 boules dans cette urne. Quelle est la probabilité d’avoir choisi précisément ces 6 boules ?
L’ensemble des évènements élémentaires associés à cette expérience est clairement donné
par
Ω = {ω : ω = (ω1 , . . . , ωn ) avec ωi ∈ {0, 1}} = {0, 1}n (|Ω| = 2n )
On définit une probabilité P sur Ω, en posant pour chaque ω = (ω1 , . . . , ωn ) ∈ Ω
n
Y
P(ω1 , . . . , ωn ) = [p 11 (ωi ) + (1 − p) 10 (ωi )]
i=1
12 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
On s’intéresse maintenant aux événements où lors des n lancers de la pièces, le résultat
“Face” apparaı̂t exactement k fois
n
X
Ak = {ω : ω = (ω1 , . . . , ωn ) ∈ {0, 1}n avec ωi = k}
i=1
La loi multinomiale
Généralisons la loi binomiale, en considérant une succession de n épreuves aléatoires, pouvant
prendre chacune r valeurs distinctes numérotées de 1 à r. On conviendra que ces n épreuves
sont indépendantes, et la probabilité pi ∈ [0, 1], que le résultat soit i ∈ {1, . . . , r} à chacune des
r
épreuves, ne change pas dans le temps. On noteraPr que le jeux de paramètres (p i )i=1,...,r ∈ [0, 1]
doit nécessairement être choisi de sorte que i=1 pi = 1.
L’espace des évènements associé à cette expérience est donné par
le nombre de fois où i apparaı̂t dans la séquence ω = (ω1 , . . . , ωn ). On définit une probabilité P
sur Ω, en posant pour chaque ω = (ω1 , . . . , ωn ) ∈ Ω
n
Y
P(ω1 , . . . , ωn ) = [p1 11 (ωj ) + . . . + pr 1r (ωj )]
j=1
j=1
On s’intéresse maintenant aux événements où lors des n épreuves, les nombres i apparaı̂t
exactement ni fois
Pr
avec ni ∈ {0, . . . , n}, et i=1 ni = n. On vérifie aisément que
n2 nr n!
|An1 ,...,nr | = Cnn1 Cn−n . . . Cn−(n 1 +...+nr−1 )
= =déf. Cnn1 ,...,nr
1
n1 ! . . . n r !
et
∀ω ∈ An1 ,...,nr P(ω) = pn1 1 . . . pnr r
r
Pr conséquent, pour toutes les possibilités de r-uplets (ni )i=1,...,r ∈ {0, . . . , n} , tel que
Par
n
i=1 i = n, on obtient
n!
P (n1 , . . . , nr ) =déf. P(An1 ,...,nr ) = pn1 . . . pnr r
n1 ! . . . n r ! 1
L’ensemble des probabilités P (n1 , . . . , nr ) est appelé la loi multinomiale de paramètres
(n; (p1 , . . . , pr )) .
La loi hypergéométrique
On considère une urne contenant m boules numérotées de 1 à m, avec mi boules de couleur
ci , où {c1 , . . . , cr } désigne un jeu de r couleurs distinctes. Pour fixer les idées, on conviendra
que les m1 premières boules numérotées de 1 à m1 sont de couleur c1 , les m2 boules suivantes,
numérotées de m1 + 1 à m1 + m2 , sont de couleur c2 , etc. Autrement dit, pour chaque indice de
couleur i ∈ {1, . . . , r}, les numéros des mi boules de couleur ci sont données par les ensembles
Ci = m1 + . . . + mi−1 + {1, 2, . . . , mi }
P
Pour i = 1, on prend la convention m1 + . . . + m1−1 = ∅ = 0.
On sélectionne une série de n(≤ m) boules sans remise, et l’on s’intéresse au résultat de
l’expérience. Dans cette situation, l’espace des évènements élémentaires est donné par
le nombre de fois où la couleur ci apparaı̂t dans la séquence ω = (ω1 , . . . , ωn ). On notera que
r n r
!
X X X
n
Ni (ω) = 1Ci (ωj ) = n
i=1 j=1 i=1
On s’intéresse aux évènements où lors des n tirages, chacune des couleurs c i apparaı̂t
exactement ni fois
possibilités de choisir ni boules de couleurs ci , lors des n tirages. Pour chaque répartition de ces
jeux de couleurs lors des n tirages, il y a encore (m1 )n1 façons de choisir n1 boules de couleur c1
parmi m1 , puis (m2 )n2 façons de choisir n2 boules de couleur c2 parmi m2 , etc. Par conséquent,
ces évènements composés ont pour cardinal
n!
|An1 ,...,nr | = (m1 )n1 . . . (mr )nr
n1 ! . . . n r !
Il en découle que
n!
n1 !...nr ! (m1 )n1 . . . (mr )nr
P (n1 , . . . , nr ) = P(An1 ,...,nr ) =
(m)n
(m1 )n1 (mr )nr n1 nr
n1 ! ... nr ! Cm 1
. . . Cm r
= (m)n
= n
Cm
n!
n1 nr
Cm 1
. . . Cm r
P (n1 , . . . , nr ) =n
Cm
Pr
L’ensemble des probabilités P (n1 , . . . , nr ), ni ≥ 0, i=1 ni = n, est appelé loi
hypergéométrique de paramètres (n : (m1 , . . . , mr )).
Interprétation dynamique : Lors du tirage sans remise, les probabilités d’obtenir certaines
couleurs diminuent au fur et à mesure qu’elles sont sélectionnées. En effet, initialement, chacune
des couleurs ci a une probabilité mi /m d’être choisie. Supposons maintenant que Pl’échantillon
r
des k premières boules choisies soit formé de nki boules de couleurs ci , avec i=1 nki = k.
Autrement dit, supposons que l’on ait
Dans ce cas, l’urne ne contient plus que (mi − nki ) boules de couleurs ci . Dans cette situation,
la probabilité d’obtenir une boule de couleur ci est désormais plus faible, et égale à
Par conséquent, la probabilité de choisir les n1 premières boules de couleur c1 , puis les n2 boules
suivantes de couleur c2 , etc, est donnée par la formule
Bien entendu, il en est de même si les ni boules de couleur ci , sont choisies à des instants
ti1 , . . . , tini
(m1 )n1 . . . (mr )nr
P((ωt1j )1≤j≤n1 ∈ C1 , (ωt2j )1≤j≤n2 ∈ C2 , . . .) =
(m)n
n!
Comme il y a n1 !...nr ! façon de choisir ses instants ti1 , . . . , tini , on retrouve le fait que
m1 n 1 1−1/m1 1 −1)/m1
= m 1−1/m . . . 1−(n
1−(n1 −1)/m
m2 n 2 1−1/m2 2 −1)/m2
× m
1
(1−n1 /m) (1−n1 /m)−1/m . . . (1−n1−(n
1 /m)−(n2 −1)/m
...
Définition 1.2.1 Une v.a. (discrète) X est une application d’un espace probabilisé
(Ω, P) dans un espace fini E. Lorsque E ⊂ R, on dit que la v.a. est réelle.
est une v.a. représentant le résultat du lancer. De même, les fonctions coordonnées
Le lemme suivant est d’un usage assez fréquent dans l’étude de modèles probabilistes. Sa
démonstration est immédiate !
Lemme 1.2.1 Si X : Ω → E est une v.a. à valeurs dans E, et si f : E → F est une application
arbitraire de E vers un espace fini auxiliaire F , alors l’application f (X) = f ◦ X est une v.a. à
valeurs dans F .
Exercice 1.2.2 Soit (Ai )≤i≤d une partition de l’ensemble Ω. Montrer que pour toute collection
de nombres réels a = (ai )≤i≤d , les fonctions
d
X
Xa = a i 1 Ai
i=1
sont des v.a. réelles. Vérifier que toutes les v.a. réelles sont de cette forme.
Exercice 1.2.3 Vérifier que pour tout couple d’ensembles A, B, on a les décompositions
d’indicatrices suivantes
1A∩B = 1 A 1B
1A∪B = 1 A + 1 B − 1 A 1B = 1 A ∨ 1 B
1A−B = 1A (1 − 1B ) = 1A − 1A 1B
1A4B = (1A − 1B )2 = |1A − 1B |
Définition 1.2.2 Soit X une v.a. à valeurs dans un espace fini E, et définie sur un
espace probabilisé (Ω, P). L’ensemble des évènements
est appelé l’algèbre sur E engendrée par la v.a. X. Ces algèbres ensemblistes
représentent tous les évènements aléatoires que l’on peut décrire par des phrases
grammaticales logiques.
18 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
On notera que l’algèbre σ(X) engendrée par une v.a. X, coı̈ncide avec la plus petite sous algèbre
de P(Ω) contenant les évènements
X −1 (x) ⊂ Ω avec x ∈ E
Pour vérifier cette assertion, on remarquera que chacun des évènements X −1 (A), avec A ⊂ E,
s’exprime sous la forme
X −1 (A) = ∪x∈A X −1 ({x})
Par conséquent, pour toute sous algèbre F ⊂ P(Ω) contenant les évènements (X −1 (x))x∈E , et
d’après les propriétés de stabilité par réunion, on obtient l’inclusion
σ(X) ⊂ F
L’observation précédente souligne le fait que σ(X) correspond à l’ensemble de tous les
événements de Ω que l’on peut construire et décrire “en observant” les valeurs prises par la
v.a. X. A titre d’exemple, l’ensemble
X −1 ({x1 , x2 }) = {ω ∈ Ω : X(ω) = x1 ou X(ω) = x2 }
correspond à l’évènement où la v.a. X prend soit la valeur x1 , soit la valeur x2 . Comme nous
l’avons vu dans la proposition 1.2.1, la v.a. X s’exprime alors en terme d’évènements de σ(X)
par la formule X
X= x 1X −1 ({x})
x∈E
Toute algèbre F ⊃ σ(X) plus fine que σ(X), contient plus d’information que nécessaire pour
décrire X. En effet, supposons que
F = σ(X, Y ) (⊃ σ(X))
soit l’algèbre engendrée par un couple de v.a. (X, Y ) à valeurs dans un espace produit (E × F ),
et définies sur un même espace de probabilités (Ω, P). Dans cette situation, nous avons la
décomposition
X −1 ({x}) = ∪y∈F (X, Y )−1 ({(x, y)})
Autrement dit, l’évènement X −1 ({x}) ne permet par de distinguer les valeurs prises par
la v.a. Y . En ce sens les évènements X −1 ({x}) sont plus grossiers que les évènements
(X, Y )−1 ({(x, y)}). Pour conclure, on remarquera comme précédemment que la v.a. (X, Y )
s’exprime sous la forme
X
(X, Y ) = (x, y) 1(X,Y )−1 ({(x,y)})
(x,y)∈(E×F )
Définition 1.2.3 Soit X une v.a. à valeurs dans un espace fini E, et définie sur un
espace probabilisé (Ω, P). On dit que X est mesurable par rapport, ou adaptée à une
algèbre d’évènements F ⊂ P(Ω), et on note X ∈ F, lorsque l’on a
∀A ⊂ E X −1 (A) ⊂ F
1.2. VARIABLES ALÉATOIRES 19
est une v.a. représentant le résultat du lancer de deux dès. Par construction, nous avons
On notera que
∀i ∈ {1 . . . , 6} X1−1 ({i}) = {i} × {1, . . . , 6}
L’algèbre engendrée par la v.a. représentant le lancer du premier dès est alors clairement donnée
par
F1 =déf. σ(X1 )
= P({1, . . . , 6}) × {1, . . . , 6} = {A × {1, . . . , 6} : A ⊂ {1, . . . , 6}}
⊂ σ(X1 , X2 ) = P({1, . . . , 6}2 )
B = A × {1, . . . , 6}
= {ω ∈ Ω : X1 (ω) ∈ A} avec A ⊂ {1, . . . , 6}
correspond à l’évènement “le lancer du premier dès est à valeur dans A”. On notera dans ce
cas que
X1 ∈ F 1 ⊂ F 2
On a aussi les représentations
6
X 6
X
(X1 , X2 ) = (i, j) 1(X1 ,X2 )−1 ({(i,j)}) = (i, j) 1{(i,j)}
i,j=1 i,j=1
et
6
X 6
X
X1 = i 1X −1 ({i}) = i 1({i}×{1,...,6})
1
i=1 i=1
Chaque aléa donné ω, appartient à l’un des ensembles ({i} × {1, . . . , 6}), avec i ∈ {1, . . . , 6}.
Par exemple l’aléa ω = (2, 5) représentant la situation où les lancers des dès sont 2, puis 5,
appartient à l’ensemble ({2} × {1, . . . , 6}). Il en est de même des aléas ω = (2, 1), ω = (2, 2),
ω = (2, 3),..., et ω = (2, 6). Dans tous ces cas, nous avons
Autrement dit, pour tous les aléas de la forme ω = (2, j), l’évènement aléatoire ({2} ×
{1, . . . , 6}) ∈ σ(X1 ) se réalise, et on a
6
X
ω = (2, j) =⇒ X1 (ω) = i 1({i}×{1,...,6}) (ω) = 2
i=1
D’après les discussions précédentes, une v.a. donnée Y à valeurs dans un espace fini E, s’exprime
de façon naturelle en terme des évènements Y −1 ({y}) ∈ σ(Y ), y ∈ E, par la formule
X
Y = y 1Y −1 ({y})
y∈E
20 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
Ce représentations événementielles peuvent clairement s’étendre à tout algèbre F plus fine que
σ(Y ), en ce sens où σ(Y ) ⊂ F. Par conséquent, une algèbre contenant l’algèbre engendrée
par une v.a. Y contient toute l’information relative à la réalisation de cette variable.
Il en est intuitivement de même pour toute v.a. auxiliaire X, adaptée ou mesurable par rapport
à σ(Y ). La proposition suivante montre que l’adaptation d’une v.a. à une algèbre donnée est
une propriété fonctionnelle très forte.
Proposition 1.2.2 Pour tout un couple de v.a. (X, Y ) à valeurs dans un espace
produit fini (E ×F ), et défini sur un même espace probabilisé (Ω, P), on a l’équivalence
suivante
X ∈ σ(Y ) ⇐⇒ ∃h : F → E X = h(Y )
Preuve:
La condition suffisante est immédiate. En effet, il suffit de noter que
Pour vérifier que toute v.a. X ∈ σ(Y ) est nécessairement de la forme X = h(Y ), avec h : F → E,
on observe que
X : Ω = {1, . . . , 6} −→ E = {1, . . . , 6}
ω −→ X(ω) = ω
est une v.a. représentant le résultat du lancer d’un dès. L’algèbre engendrée par cette v.a.
coı̈ncide clairement avec l’algèbre discrète sur Ω
σ(X) = P(Ω)
L’application indicatrice
Y = 1{2,4,6} ◦ X
est une v.a. représentant la parité ou non du résultat du lancer. L’algèbre engendrée par cette
v.a. est donnée par
σ(Y ) = {∅, Ω, {2, 4, 6}, {1, 3, 5}} ⊂ σ(X)
Exercice 1.2.4 Soit D = (Di )i∈I une partition d’un ensemble fini Ω, muni de l’algèbre discrète
P(Ω). On note a(D) la plus petite algèbre contenant les évènements (D i )i∈I .
1. Vérifier que pour toute algèbre b(D) contenant D, on a
∀i ∈ I X i = 1 Di
Montrer que
σ(Xi , i ∈ I) = a(D)
L’algèbre a(D) est souvent notée abusivement σ(D).
3. Montrer que pour toute fonction f : {0, 1}I → R nous avons
Vérifier que toutes les v.a. Z ∈ σ(D) sont nécessairement de cette forme.
F = σ(D)
2. En déduire qu’il existe une collection finie de v.a. (Xi )i∈I à valeurs réelles sur Ω, telles
que
F = σ(Xi , i ∈ I)
Plus généralement, la probabilité pour que la v.a. X prenne ses valeurs dans B ⊂ E,
est donnée par
∀B ⊂ E PX (B) = P(X −1 (B))
La mesure de probabilité PX sur E ainsi définie est appelée la loi ou la distribution
de la v.a. X.
On note que
X
PX (B) = P(X −1 (B)) = P(∪x∈B X −1 ({x})) = P(X −1 ({x}))
x∈B
On obtient ainsi une formule permettant de calculer directement la loi de chaque évènement
A = {X ∈ B} ⊂ Ω, sans passer par l’espace probabilisé (Ω, P)
X
PX (B) = PX (x)
x∈B
Définition 1.2.4 L’espérance, ou la moyenne E(X) d’une v.a. réelle définie sur un
espace de probabilités (Ω, P), est la quantité donnée par
X X
E(X) = X(ω) P(ω) = x PX (x)
ω∈Ω x∈X(Ω)
22 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
Si X = (X1 , X2 ) désigne une v.a. à valeurs dans un espace produit fini (E1 × E2 ),
nous avons pour toute fonction f : E1 × E2 → R
X
E(f (X1 , X2 )) = f ((X1 , X2 )(ω)) P(ω)
ω∈Ω
X X
= f (x1 , x2 ) P(ω)
(x1 ,x2 )∈(E1 ×E2 ) ω:(X1 ,X2 )(ω)=(x1 ,x2 )
X
(X1 ,X2 )
= f (x1 , x2 ) P (x1 , x2 )
(x1 ,x2 )∈(E1 ×E2 )
Exemple 1.2.5 Soit Ω = {0, 1}, P(1) = 1 − P(0) = p ∈ [0, 1], l’espace probabilisé associé à un
jeu de pile ou face, avec probabilité de succès p. On note X la variable aléatoire canonique
∀x ∈ E PX (x) = px (1 − p)1−x
Cet espace probabilisé (Ω, P) correspond à une succession de n lancers d’une pièce de monnaie,
ayant une probabilité de succès p. On introduit la séquence de v.a.
Ces n v.a. correspondent aux résultats des i-ème lancers. La loi du vecteur aléatoire identité
Exemple 1.2.7 Soit Ω = {−1, 1}, P(1) = 1 − P(−1) = p ∈ [0, 1], l’espace probabilisé associé à
une v.a. de Bernoulli à valeurs dans {−1, 1}. On note X la variable aléatoire canonique
i=1
Cet espace probabilisé (Ω, P) modélise les n déplacements aléatoires vers le haut, ou vers le bas,
d’une particule évoluant sur Z. Ce modèle probabiliste peut aussi représenter les évolutions à
la hausse, ou à la baisse, du cours d’un actif financier ; les successions de pertes ou gains lors
d’un processus de jeu d’argent,...
On introduit la séquence de v.a.
Xi : ω = (ωi )1≤i≤n ∈ Ω = {−1, 1}n −→ Xi (ω) = ωi ∈ E = {−1, 1}
Ces n v.a. correspondent aux i-ème déplacements de la particule. La loi du vecteur aléatoire
identité
X = (X1 , . . . , Xn ) : ω ∈ Ω = {−1, 1}n −→ X(ω) = ω ∈ E n = {−1, 1}n
est ainsi donnée pour tout x = (xi )1≤i≤d ∈ E n , par la formule produit
n
Y n
Y
PX (x) = P(X1 ,...,Xn ) (x1 , . . . , xn ) = p11 (xi ) (1 − p)1−1 (xi ) = PXi (xi )
i=1 i=1
Proposition 1.2.3 Soit X : Ω → E une v.a. définie sur un espace probabilisé (Ω, P) à valeurs
dans un espace fini E, et soit f : E → F une application arbitraire de E dans un espace fini
auxiliaire F . Alors, la fonction composée
est une v.a. définie sur le même espace probabilisé (Ω, P), et distribuée sur F selon la loi
X
∀y ∈ Y PY (y) = PX (f −1 ({y})) = PX (x)
x : f (x)=y
Corollaire 1.2.1 Soit (X, Y ) un couple de v.a. sur un espace probabilisé (Ω, P), distribué sur
un espace fini produit (E × F ) selon une loi P(X,Y ) . Alors, les lois respectives PX , et PY , des
v.a. individuelles X, et Y , sont données par
X X
PX (x) = P(X,Y ) (x, y) et PY (y) = P(X,Y ) (x, y)
y∈F x∈E
Les formules précédentes s’étendent clairement au cas de plusieurs v.a. en “sommant les
v.a. indésirables”. Ainsi, la loi d’un vecteur (X1 , . . . , Xn ) se déduit d’un autre vecteur
(X1 , . . . , Xn+m ) par la formule
Exercices
Les exercices suivants concernent de modèles d’urnes contenant m boules numérotées de 1
à m. On sélectionne successivement, et avec remise, n boules, et on note X1 , X2 , . . . , Xn les
numéros des boules obtenues à la 1ère , 2ème ,..., et nième étape.
Exercice 1.2.6 Vérifier que le n-uplet (X1 , X2 , . . . , Xn ) est une v.a. pouvant être réalisée sur
l’espace produit introduit à la page 9. Montrer que pour tout indice 1 ≤ p ≤ n, et pour tout
n-uplet (x1 , . . . , xn ) ∈ E n = {1, . . . , m}n , on a
Vérifier que
P(∀i 6= j Xi 6= Xj ) = (m)n /mn
Exercice 1.2.7 Supposons que parmi les m boules, m1 sont noires et m2 sont rouges, avec
m = m1 + m2 . On note respectivement B1 , et B2 , l’ensemble des numéros des boules noires, et
des boules rouges. On considère la collection de v.a.
Yi = 1B1 (Xi )
Exercice 1.2.8 Dans ce dernier exercice, les boules sélectionnées ne sont pas remises dans
l’urne.
1. Vérifier que le n-uplet (X1 , . . . , Xn ) est une v.a. à valeurs dans l’espace produit E =
{1, . . . , m}n , et sa loi est donnée par la formule suivante
1
P(X1 ,...,Xn ) (x1 , . . . , xn ) = 1D (x1 , . . . , xn )
(m)n
avec D = {(x1 , . . . , xn ) ∈ E : ∀i 6= j xi 6= xj }
2. On note respectivement B1 , et B2 , l’ensemble des indices des boules noires, et des boules
rouges. Montrer que
Plus généralement, vérifier que pour toute collection d’indices (i 1 , . . . , in ) ∈ {1, 2}n, on a
n
X
|D ∩ (Bi1 × . . . × Bin )| = (m1 )n1 (m2 )n2 avec n1 = 11 (i1 ) = n − n2
p=1
1.2.4 L’indépendance
L’égalité précédente revient à dire que la loi du n-uplet (X1 , . . . , Xn ) est le produit tensoriel
des lois des v.a. Xi ; on utilise parfois la notation synthétique suivante
On notera que cette condition est équivalente au fait que pour tout 1 ≤ k ≤ n, et toute collection
d’indices 1 ≤ ii < . . . < ik ≤ n,
Définition 1.2.6 Deux évènements A1 , A2 ∈ F sont dits indépendants lorsque les v.a.
indicatrices (X1 , X2 ) = (1A1 , 1A2 ) sont indépendantes.
26 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
On notera que
A1 , A2 indépendants ⇔ P(A1 ∩ A2 ) = P(X1 ,X2 ) ({(1, 1)})
= PX1 ({1}) × PX2 ({1})
= PX1 (1) × PX2 (1)
= P(A1 ) × P(A2 )
De même que
P(A1 ∩ Ac2 ) = P(X1 ,X2 ) ({(1, 0)}) = PX1 ({1})PX2 ({0}) = P(A1 )P(Ac2 )
P(Ac1 ∩ A2 ) = P(X1 ,X2 ) ({(0, 1)}) = PX1 ({0})PX2 ({1}) = P(Ac1 )P(A2 )
P(Ac1 ∩ Ac2 ) = P(X1 ,X2 ) ({(0, 0)}) = PX1 ({0})PX2 ({0}) = P(Ac1 )P(Ac2 )
Cependant, on a
P(A1 ∪ A2 ) = P(X1 ,X2 ) ({(1, 0), (0, 1), (1, 1)})
= P(A1 ) + P(A2 ) − P(A1 )P(A2 ) ≤ P(A1 ) + P(A2 )
Exemple 1.2.9 Comme son nom l’indique, la notion d’indépendance reflète l’absence de toute
interaction entre les réalisations de phénomènes aléatoires.
1. Les v.a. (X1 , . . . , Xn ) représentant les résultats successifs de lancers de pièces de monnaie,
ou encore celles associées aux montées et descentes lors d’une évolution de particule,
étudiées dans les exemples 1.2.6, et 1.2.7, forment des collections de v.a. indépendantes.
2. Les v.a. (X1 , . . . , Xn ) représentant les numéros des boules sélectionnées avec remise dans
une urne, et étudiées dans l’exercice 1.2.6, sont indépendantes.
3. Les indicatrices Xi = 1Ai d’évènements indépendants Ai , forment des séquences de v.a.
indépendantes.
La notion d’indépendance entre v.a. permet d’élaborer une multitude de modèles
probabilistes, sans passer par une description précise de l’espace de probabilité sur lequel
les v.a. se réalisent, mais plutôt fondés sur de nouvelles interprétations probabilistes. A titre
d’exemple, nous verrons très bientôt que la loi binomiale peut s’interpréter comme la somme
v.a. élémentaires de Bernoulli.
Cette notion d’indépendance est donc très naturelle et intuitive. Néanmoins, dans certaines
situations, certains jugements hâtifs peuvent s’avérer catastrophiques ! Nous laissons le soin au
lecteur d’apprécier cette observation, en s’exerçant sur les trois exercices suivants.
Exercice 1.2.9 On considère un espace d’évènements à quatre états
Ω = {ω1 , ω2 , ω3 , ω4 }
muni de la probabilité uniforme P(ωi ) = 1/4. On considère les évènements suivants
A1 = {ω1 , ω2 } A2 = {ω2 , ω3 } A3 = {ω1 , ω4 }
Vérifier que ces trois évènements sont deux à deux indépendants, mais l’on a néanmoins
P(A1 ∩ A2 ∩ A3 ) 6= P(A1 ) × P(A2 ) × P(A3 )
1.2. VARIABLES ALÉATOIRES 27
Exercice 1.2.10 Soit Ω = {1, . . . , 6}2 , l’espace des épreuves correspondant au lancer de deux
dés. On considère les évènements suivants.
1. Vérifier que
2. Montrer que
P(A1 ∩ A2 ∩ A3 ) = P(A1 ) × P(A2 ) × P(A3 )
mais, pour tout i 6= j
P(Ai ∩ Aj ) 6= P(Ai ) × P(Aj )
ω = (ω1 , . . . , ωn ) ∈ Ω = {c1 , . . . , cr }n
muni de la probabilité uniforme. Vérifier que l’on a pour tout n-uplet d’indices
(i1 , . . . , in ) ∈ {1, . . . r}n
n r
Y mi p X
P(X1 ,...,Xn ) (ci1 , . . . , cin ) = avec m = mi
p=1
m i=1
PXp (ci ) = mi /m
p = P(Ai )
Pn
On associe à cette suite, la v.a. X = i=1 1Ai représentant le nombre de fois où les évènements
se réalisent.
1. Montrer que pour tout I ⊂ {1, . . . , n}, tel que |I| = k, on a
P
2. Quelle est la loi de la v.a. de comptage Sn = ni=1 Xi .
28 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
1.3 Le conditionnement
1.3.1 Évènements
L’information la plus élémentaire que l’on puisse considérer correspond à la donnée d’un
évènement simple ; tel la connaissance de la parité d’un lancer de dés, une région précise visitée
par une évolution aléatoire, la valeur d’un actif boursier à un date donnée, ou encore le niveau
de saturation d’un réseau de communication. Pour prédire d’autres évènements connexes à
une telle information, il est nécessaire de restreindre toutes les situations envisageables à
cette donnée. Cette restriction événementielle se traduit mathématiquement par une simple
intersection ensembliste. Cette discussion nous amène à introduire les notions suivantes.
Pour des variables indicatrices d’évènements X = 1A , avec A ⊂ Ω, ces deux notions coı̈ncident
E(1A | B) = P(A | B).
L’espérance conditionnelle en un évènement hérite des propriétés de linéarité des espérances
simples. Plus précisément, pour tout couple de v.a. sont réelles (X1 , X2 ), nous avons la propriété
de linéarité
Avant de développer une série de propriétés, commençons par visualiser ces deux objets sur un
exemple élémentaire.
Exemple 1.3.1 Dans l’exemple du jet de dés uniforme sur Ω = {1, 2, . . . , 6}, on a
1/6
P({2} | {2, 4, 6}) = = 1/3 et P({2} | {1, 3, 5}) = 0
3/6
On notera que le résultat du lancer de dés peut se représenter par la v.a. identité
X : ω ∈ Ω = {1, . . . , 6} 7→ X(ω) = ω ∈ R
Il est important de souligner que ces notions de conditionnement sont en adéquation parfaite
avec l’intuition et l’expérience. Sachant que le résultat du lancer de dés est l’une des trois valeurs
1.3. LE CONDITIONNEMENT 29
2, 4, ou 6, il y a bien évidement une chance sur 3 que le résultat soit le chiffre 2. La moyenne
du lancer sera dans ce cas, le barycentre 4 des trois valeurs possibles {2, 4, 6}.
3. [Conditionnement uniforme.]
Pour des probabilités uniformes P sur des espaces mesurables discrets (Ω, F), on a
Dans cette situation, tout se passe comme si l’on “restreint” toute l’expérience à
l’évènement B. Dans ce contexte, la notion de conditionnement est donc clairement liée
à l’acquisition d’une nouvelle information sur l’expérience : “l’évènement B se réalise”.
4. [Formule de Bayes.]
Soit (Ai )i∈I une partition (finie) de Ω, et soit B un évènement de probabilité non
nulle P(B) > 0. La formule de Bayes permet de transformer une suite de probabilités
a priori (P(Ai ))i∈I , en une suite de probabilités a posteriori (P(Ai |B))i∈I
P(B|Ai ) P(Ai )
∀i ∈ I P(Ai |B) = P
j∈I P(B|Aj ) P(Aj )
Preuve:
On vérifie aisément ce résultat en utilisant la symétrie de la formule
L’exercice suivant offre une initiation à l’analyse statistique d’un problème pratique. Le lecteur
est vivement encouragé à décrire un espace de probabilité précis rendant compte des événements
en question. Pour développer son intuition probabiliste, on pourra s’exercer à trouver (ou
retrouver) les réponses sans faire de calcul !
Exercice 1.3.1 Deux machines industrielles M1 et M2 ont des taux de production quotidienne
d’objets défectueux égaux à p1 = 5% et p2 = 10%. Chacune de ces machines M1 et M2 produit
respectivement m1 = 100, et m2 = 200 objets. Qu’elle est la probabilité pour qu’un objet pris
au hasard soit défectueux ? Qu’elle est la probabilité pour que ce soit la première machine M 1
qui l’ait produit ?
L’exercice suivant possède une structure temporelle intéressante, permettant notamment de
guider l’intuition probabiliste, et trouver ainsi une solution élémentaire. Cette étude est par
essence assez proche de la notion de processus de Markov que nous aborderons à la fin de ce
cours.
Exercice 1.3.2 Un sac contient 2 pièces de monnaie. L’une équitable, et ayant une probabilité
1/2 de donner “pile” ou “face” ; la seconde ayant une probabilité 1/3 de donner “face”. On
lance au hasard l’une des pièces, et l’on observe un résultat “face”. Quelle est la probabilité
d’avoir choisi la pièce équitable ?
P(∩np=1 An |B)
n−1 n−2
= P(An |B ∩ [∩p=1 Ap ]) P(An−1 |B ∩ [∩p=1 Ap ]) . . . P(A2 |B ∩ A1 )P(A1 |B)
Qn
= p=1 P(Ap |B ∩ [∩p−1
q=1 Aq ])
Q
avec la convention ∅ = Ω, lorsque p = 1.
Exercice 1.3.4 Soient X1 , . . . , Xn une suite de n copies indépendantes d’une v.a. de Bernoulli
X sur {0, 1}
P(X = 1) = 1 − P(X = 0) = p ∈ [0, 1]
Pk
On note Sk = i=1 Xi , les variables de comptage du nombre de succès. Montrer que pour tout
m ≤ n, et 0 ≤ k ≤ l ≤ n, on a
l−k k
Cn−m Cm l
PSm |Sn (k|l) = et PX1 |Sn (1|l) =
Cnl n
1.3. LE CONDITIONNEMENT 31
Définition 1.3.2 Soit D = (Di )i∈I une partition dénombrable d’un espace fini Ω.
Autrement dit, D est une décomposition de l’espace Ω en une suite d’évènements
disjoints, c’est à dire
∀i > j ≥ 1 Di ∩ Dj = ∅, et Ω = ∪i∈I Di
L’espérance conditionnelle d’une v.a. réelle X par rapport à une décomposition D est
la fonction donnée par par
X
E(X | D)(ω) = E(X|Di ) 1Di (ω)
i∈I
Avec ces notations, et dans le cas de l’algèbre triviale {∅, Ω} (associée à la partition D = {Ω}),
on notera que
E(X|{∅, Ω}) = E(X | Ω) = E(X)
Il est à nouveau important de souligner que les objets fonctionnels que nous venons de
définir héritent des propriétés d’additivité, et de linéarité des probabilités et des espérances
conditionnelles par rapport à un événement. Plus précisément, pour tout couple de v.a. sont
réelles (X1 , X2 ), nous avons la propriété de linéarité
32 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
Exemple 1.3.2 Reprenons l’exemple du jet de dés uniforme décrit dans l’exemple 1.3.1, avec
la partition D = {{2, 4, 6}, {1, 3, 5}} de Ω = {1, . . . , 6} en évènements pairs ou impairs. Dans
cette situation, nous avons
Dans cette exemple, la propriété de a(D)-mesurabilité soulignée précédemment est assez simple
à voir. On notera que
2. [Décompositions ordonnées].
Définition 1.3.3 Soit D 0 = (Di0 )i∈I 0 et D = (Di )i∈I un couple de partitions sur Ω.
On dit que D0 est plus fine que D, ou encore D est plus grossière que D 0 , et on note
D ⊂ D0 , lorsque tout élément de D s’exprime comme la réunions d’éléments de D 0
D ⊂ D0 ⇐⇒ ∀i ∈ ∃Ii ⊂ I 0 Di = ∪j∈Ii Dj0
Cette propriété induit relation d’ordre partiel sur l’ensemble des partitions.
1.3. LE CONDITIONNEMENT 33
Di ∩ Dj0 = (∪k∈Ii Dk0 ) ∩ Dj0 = ∪k∈Ii (Dk0 ∩ Dj0 ) = 1Ii (j) Dj0
D ⊂ D0 =⇒ E(E(X | D0 ) | D) = E(X | D)
valable pour toute v.a. réelle. En particulier, pour D = {∅, Ω}, on trouve que
E(E(X | D0 )) = E(X)
Preuve:
On commence par noter que
X
E(E(X | D0 ) | Di ) = E( E(X | Dj0 ) 1Dj0 | Di )
j∈I 0
X
= E(X | Dj0 ) P(Dj0 ∩ Di )/P(Di )
j∈I 0
Par conséquent, on a
E(E(X | D0 ) | Di ) = E(X | Di )
On en conclut que
X
E(E(X | D0 ) | D) = E(X |Di ) 1Di = E(X | D)
i∈I
On construit cette partition, en choisissant le plus grand sous-ensemble D = (Di )i∈I formé
d’évènements deux à deux disjoints de F (voir exercice 1.2.5).
Soit F 0 une sous algèbre de P(Ω), plus fine qu’une algèbre donnée F, en ce sens où
F = σ(D) ⊂ F 0 = σ(D0 )
F ⊂ F 0 =⇒ E(E(X | F 0 ) | F) = E(X | F)
4. [Mesurabilité.] Pour toute v.a. réelle X, et pour toute algèbre F = σ(D), engendrée par
une partition D, nous avons
X F − mesurable =⇒ E(X | F) = X
Preuve:
On remarque que toute v.a. X, mesurable
P par rapport à une algèbre σ((D), peut se
mettre sous la forme discrète X = i∈I xi 1Di , pour certains nombres réels xi , tels que
Di = X −1 ({xi }). Avec ces notations, on obtient
X X X
E(X | D) = xi P(Di | D) = xi [ P(Di | Dj ) 1Dj ]
i∈I i∈I j∈I
X X X
= xi [ 1i (j) 1Dj ] = xi 1 Di = X
i∈I j∈I i∈I
pour tout x1 tel que PX1 (x1 ) > 0. Lorsque PX1 (x1 ) = 0, on convient que
PX2 |X1 (x2 |x1 ) = 0.
Notre convention (P (x1 ) = 0 ⇒ PX2 |X1 (x2 |x1 ) = 0), est de ce fait naturelle, et cohérente.
X1
P(X1 ,X2 ) (x1 , x2 ) = PX2 |X1 (x2 |x1 ) PX1 (x1 ) (1.3)
Exemple 1.3.3 Le jeu du lancer de dés étudié dans l’exemple 1.3.1 peut être décrit par le
couple de variables (X1 , X2 ) sur Ω = {1, . . . , 6} définies par
lorsque x1 parcours E1 , est une partition de Ω. Cette partition est dite engendrée par la variable
X1 , et on la note D X1 = (Dx1 )x1 ∈E1 . On notera que toute partition D = (Di )i∈I de Ω est
engendrée par une variable aléatoire X. Il suffit de poser
X
X= i 1 Di
i∈I
Dans cette situation, la v.a. X est à valeurs dans I, et on a Di = X −1 ({i}), pour chaque i ∈ I ;
autrement dit, nous avons D = D X .
36 CHAPITRE 1. THÉORIE DES PROBABILITÉS ÉLÉMENTAIRE
Avec ces notations, on retrouve les formules de conditionnement par rapport à des
décompositions, introduites dans la section précédente :
X
P(X2 = x2 | DX1 )(ω) = PX2 |X1 (x2 |x1 ) 1X −1 ({x1 }) (ω)
1
x1 ∈E1
X
E(f (X2 ) | DX1 )(ω) = E(f (X2 )|X1 = x1 ) 1X −1 ({x1 }) (ω)
1
x1 ∈E1
sont mesurables non seulement par rapport à l’algèbre discrète P(Ω), mais aussi par rapport
à la sous algèbre σ(X1 ) = σ(DX1 ) ⊂ F, engendrée par la décomposition D X1 ; ou de manière
équivalente, par la variable X1 . En pratique, les deux formules précédentes sont d’un usage très
courant, et elles sont souvent notées
Il est à nouveau important de souligner que les objets fonctionnels que nous venons de définir
héritent des propriétés de linéarité des probabilités et des espérances conditionnelles par rapport
à une décomposition.
Exemple 1.3.4 On reprenant l’énoncer et les notations de l’exemple 1.3.3, nous avons
σ(X1 ) = {Ω, ∅, {2, 4, 6}, {1, 3, 5}}. Pour toute fonction f sur R, on obtient la formule
1 1
= [f (2) + f (4) + f (6)] 1{2,4,6} + [f (1) + f (3) + f (5)] 1{1,3,5}
3 3
1. [Formule de Bayes.] Comme dans le cas des probabilités conditionnelles entre
évènements, en utilisant la symétrie de la formule (1.3), on a
PX2 |X1 (x2 |x1 ) PX1 (x1 ) = PX1 |X2 (x1 |x2 ) PX2 (x2 )
= PXn |(X0 ,...,Xn−1 ) (xn |x0 , . . . , xn−1 ) P(X1 ...,Xn−1 )|X0 (x1 , . . . , xn−1 |x0 )
Exercice 1.3.5 Soit (Xp )0≤p≤n une suite de v.a. définies sur un même espace de probabilités
(Ω, F, P), et à valeurs dans des espaces au plus dénombrables (E p , P(Ep ))0≤p≤n . Supposons que
la loi conditionnelle de la séquence (X1 , . . . , Xn ) en l’évènement {X0 = x0 } soit de la forme
DansPla formule précédente, pk désigne une suite de fonctions boréliennes positives, et telles
que xk pk (xk |x0 , . . . , xk−1 ) = 1, pour tout k ≥ 1, et pour toute séquence (x0 , . . . , xk−1 ) ∈
(E0 × . . . Ek−1 ). Montrer que l’on a nécessairement
Exercice 1.3.6 Soit (X1 , X2 ) un couple de v.a. à valeurs dans un espace produit fini (E1 ×E2 ),
muni de l’algèbre discrète P(E1 × E2 ). Montrer que pour toute fonction f : E2 → R, on a la
formule
E((f (X2 ) − E(f (X2 ) | X1 ))2 )
Exercice 1.3.7 Soit (X1 , X2 , X3 ) un triplé de v.a. à valeurs un espace produit fini (E1 × E2 ×
E3 ), muni de l’algèbre discrète. Montrer que pour toute fonction f : E3 → R, on a la formule
de conditionnements emboı̂tés
2.1 Introduction
La notion de processus aléatoire est l’une des notions les plus fructueuses de la théorie
de probabilités. Ces modèles apparaissent dès que l’on étudie des phénomènes évoluant
aléatoirement au fil du temps : dynamiques de populations en biologie, ou de particules
élémentaires en physique, processus de ruine dans des jeux de hasard, évolution de files
d’attentes dans des réseaux de communication, etc.
Nous avons déjà rencontré de tels phénomènes dans les sections précédentes. En effet, toute
expérience aléatoire formée d’une succession d’épreuves élémentaires, peut s’interpréter comme
un processus aléatoire. Ainsi, les lancers de pièces de monnaie, ou encore les sélections de boules
dans une urne, peuvent s’interpréter séquentiellement, comme une succession d’expériences
élémentaires se déroulant dans le temps. Le résultat de telles expériences s’exprime comme un
évènement élémentaire dans un espace produit
ω = (ω0 , . . . , ωn ) ∈ Ωn = E × . . . × E = E n+1
| {z }
(n+1)−termes
39
40 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
présentées dans cette section reflètent les tendances locales, prévisibles ou non, d’un processus
aléatoire donné, par rapport aux informations reçues au cours du temps.
Les quatrième et cinquième sections sont consacrées à l’étude des martingales. Ces processus
représentent en quelque sorte des processus aléatoires imprévisibles par rapport à une séquence
d’observations donnée. La première partie offre un exposé synthétique sur les principales
propriétés de ces processus. Dans la seconde partie, nous examinerons les applications de la
théorie des martingales à la théorie des jeux aléatoires. Nous présenterons notamment des
stratégies de jeux équitables et aléatoires permettant de gagner la mise sur des évènements
très probables. Enfin, nous présenterons une technique de simulation d’une martingale à
conditions terminales fixées. Cet algorithme sera utilisé dans le chapitre suivant, concernant
les mathématiques financières, pour simuler une option, et décrire le portefeuille de couverture
associé.
ω = (ω0 , . . . , ωn ) ∈ Ωn = E n
Par conséquent, et par définition des lois de probabilités de v.a., la séquence ( 0 , . . . , n ) est
distribuées selon la loi trajectorielle définie par la mesure produit
La figure suivante représente l’arbre des épreuves associé à ce modèle de Bernoulli lorsque n = 2.
0 w^1=(0,0,0)
1−a2
1−a1 a2 1 w^2=(0,0,1)
0 0 w^3=(0,1,0)
1−a2
a1
1−a0
1 1
a2 w^4=(0,1,1)
1−a2
a0 a2 w^6=(1,0,1)
1
1 w^7=(1,1,0)
1−a2
a1 0
a2
w^8=(1,1,1)
1
Comme nous l’avons souligné dans l’introduction, une suite de v.a. indépendantes
(0 , 1 , . . . , n )
Par un raisonnement analogue à celui utilisé dans le cadre des v.a. de Bernoulli, on vérifie sans
trop de peine que les variables aléatoires trajectorielles canoniques
Ce processus élémentaire, lorsque E = {0, 1, 2}, peut se représenter schématiquement par l’arbre
des épreuves décrit dans la figure suivante. Compte tenu de l’explosion combinatoire, pour
simplifier la présentation, certaines branches ont été omises, et seule une partie des transitions
sont spécifiées.
2.2. ARBRES ET CHAÎNES DE MARKOV 43
mu_2(0) 0
0
1
mu_1(0) mu_2(2) 2
0 2
mu_1(2)
mu_0(0)
0
mu_1(0) 0
mu_0(1) 1 1
1
mu_1(2) 2
2
0
mu_0(2) mu_1(0)
1
2
mu_2(0) 0
mu_1(2)
1
2
mu_2(2)
2
où E désigne un espace fini. Dans ce contexte, chaque aléa ω = (ω0 , . . . , ωn ) ∈ Ωn correspond
à la donnée d’une branche sur l’arbre des épreuves
ω0 −→ ω1 −→ . . . −→ ωn−1 −→ ωn
Les feuillages markoviens correspondent à la situation où les probabilité de passage d’un noeud
donné ωp à un autre ωp+1 ne sont pas indépendantes du noeud de départ. Pour décrire cette
situation, on se donne une famille de matrice stochastiques
avec 0 ≤ k ≤ n.
44 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
Une matrice stochastique Mk , est une matrice à entrées positives, dont la somme des
termes de chaque ligne vaut 1
X
∀(x, y) ∈ E 2 Mk (x, y) ≥ 0 et Mk (x, y) = 1
y∈E
On interprète les entrées de chaque ligne (Mk (x, y))y∈E , comme les probabilités de passage du
point x vers l’un des états possibles y ∈ E.
E={1,2,....,d}
1
M(x,1)
2
M(x,2)
M(x,i) i
x
M(x,(d−1))
(d−1)
M(x,d) d
w0 w1 w2 w3 w4 w5
mu0(w0)
mu0(v0) v0 v1 v2 v3 v4 v5
Comme précédemment, la probabilité de partir d’un état initial ω0 , choisi selon une loi µ0
sur E, puis suivre un chemin donnée
ω0 −→ ω1 −→ . . . −→ ωk−1 −→ ωk −→ . . . −→ ωn
au cours de l’expérience, est donnée par le produit des probabilités élémentaires le long de ce
chemin
Pn (ω0 , . . . , ωn ) = µ0 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )
Il est souvent utile d’étendre les modèles précédents à des processus évoluant à chaque
instants p dans des espaces Ep dépendants du paramètre temporel.
2.2. ARBRES ET CHAÎNES DE MARKOV 45
L’espace des évènements associés à ces situations non homogènes sont définis de la
façon suivante
Ωn = {ω : ω = (ω0 , . . . , ωn ) ∈ E0 × . . . × En }
= E0 × E1 × . . . × E n
où (Ep )0≤p≤n désigne une suite d’espaces finis. Les interprétations arborescentes de
ces espaces sont définies comme précédemment, en considérant des feuillages non
homogènes. La probabilité de suivre un chemin
ω0 −→ ω1 −→ . . . −→ ωk−1 −→ ωk −→ . . . −→ ωn
est toujours donnée par le produit des probabilités élémentaires le long de ce chemin
La figure suivante représente l’arbre des épreuves associé à une évolution aléatoire entre les
espaces suivants
E0 = {1} E1 = {1, 2, 3} E2 = {1, 2} E3 = {1} E4 = {1, 2}
1 w^1=(1,1,1,1)
1 1
2 w^2=(1,1,1,2)
1 w^3=(1,1,2,1,1)
1 2 1
2 w^4=(1,1,2,1,2)
1 w^5=(1,2,1,1,1)
1 1 w^6=(1,2,1,1,2)
2 2
1 1 w^7=(1,2,2,1,1)
2 1
2 w^8=(1,2,1,1,2)
1 w^9=(1,3,1,1,1)
1 1
2 w^{10}=(1,3,1,1,2)
3 1 w^{11}=(1,3,2,1,1)
2 1
2 w^{12}=(1,3,2,1,2)
(X0 ,...,Xn )
La loi Pn de la v.a. trajectorielle (X0 , . . . , Xn ) canonique
est donnée pour toute trajectoire (x0 , . . . , xn ) ∈ (E0 ×. . .×En ) par la formule produit
P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = µ0 (x0 )M1 (x0 , x1 ) . . . Mn (xn−1 , xn )
De telles séquences de v.a. (Xk )0≤k≤n sont appelés des chaı̂nes de Markov, à valeurs
dans les espaces (Ek )0≤k≤n , de probabilités de transitions (Mk )0≤k≤n , et de loi initiale
µ0 .
46 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
Xk = 1 + . . . + k = Xk−1 + k k = 1, . . . , n
vers Ek+1 selon les transitions de probabilités Mk+1 (x, y) données pour tout x ∈ Ek par la
formule
Mk+1 (x, y) = α 1x+1 (y) + (1 − α) 1x−1 (y)
Cette chaı̂ne de Markov est appelée une marche aléatoire sur la droite réelle. Son interprétation
dépend du domaine d’application. En physique, Xk représente la position d’une particule
élémentaire évoluant à chaque étape, soit d’un pas vers l’avant, soit d’un pas vers l’arrière.
En biologie, ce processus aléatoire s’interprète plutôt comme un processus de naissance et mort
dans une population initialement formée de X0 individus. En théorie des jeux, Xk représente
les pertes et gains successifs au cours d’un jeu de hasard. Enfin, en mathématiques financières,
les v.a. de Bernoulli k correspondent aux tendances à la hausse, ou à la baisse, du cours d’une
action.
Le processus que nous venons de définir admet deux types d’interprétations arborescentes :
1) La première interprétation est associée associée aux multiples choix des incréments
aléatoires ∆Xp = p , lors de l’évolution du processus depuis son origine, jusqu’au temps
terminal n. Ce modèle d’arbre coı̈ncide avec l’interprétation arborescente de l’espace des aléas
La figure suivante donne l’interprétation graphique de l’espace des aléas Ωn , lorsque n = 2.
2.3. PROCESSUS ALÉATOIRES 47
+1 w^1=(+1,+1,+1)
n=3
Omega_3^{epsilon} +1 −1 w^2=(+1,+1,−1)
+1 w^3=(+1,−1+1)
+1 −1
−1 w^4=(+1,−1,−1)
+1 w^5=(−1,+1,+1)
+1
−1 w^6=(−1,+1,−1)
+1 w^7=(−1,−1,+1)
−1
−1
−1 w^8=(−1,−1,−1)
0 ∈ E0 → ω1 ∈ E1 → (ω1 + ω2 ) ∈ E2 → . . . → (ω1 + . . . + ωn ) ∈ En
On définit ainsi le processus (X0 , . . . , Xn ) sur l’espace probabilisé (Ωn , Pn ). Plus précisément,
on réalise la chaı̂ne de Markov X en terme du processus canonique des incréments
Pn
= (0, ω1 , ω1 + ω2 , . . . , p=1 ωp ) ∈ (E0 × E1 × E2 × . . . × En )
P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = 10 (x0 ) µ(x1 ) µ(x2 − x1 ) . . . µ(xn − xn−1 )
= 10 (x0 ) M1 (x0 , x1 ) . . . Mn (xn−1 , xn )
48 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
ΩX
n = (E0 × E1 × . . . × En )
PX
n (ω0 , ω1 , . . . , ωn ) = 10 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )
et de la v.a. canonique
(X0 , . . . , Xn ) : ω ∈ ΩX
n 7→ (X0 (ω), . . . , Xn (ω)) = (ω0 , . . . , ωn ) ∈ (E0 × . . . × En )
P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = 10 (x0 ) M1 (x0 , x1 ) . . . Mn (xn−1 , xn )
+4
+3
+2 2
+1 +1
0
0 0
−1
−1
−2
−2
−3
−4
En résumé, une marche aléatoire est une chaı̂ne de Markov (Xk )0≤k≤n définie sur
un espace de probabilités (Ω, P), d’origine X0 = 0 et de probabilités de transitions
homogènes
Pour décrire une réalisation dynamique de cette chaı̂ne, on se donne une suite de v.a.
indépendantes (k )1≤k≤n distribuées sur {−1, +1} selon la même loi de Bernoulli
Dans l’exemple de la marche aléatoire, nous avons exhibé deux types de réalisations d’un
même processus aléatoire (X0 , . . . , Xn ) ; l’une associée à la réalisation canonique d’une suite de
v.a. indépendantes (1 , . . . , n ) sur un espace probabilisé (Ωn , Pn ) ; la seconde correspondant à
la réalisation canonique classique de la chaı̂ne sur un espace probabilisé (Ω X X
n , Pn ).
Il existe donc en général de nombreux choix d’espaces probabilisés (Ωn , Pn ) sur lesquels
un même processus aléatoire (X0 , . . . , Xn ) peut être réalisé. En pratique, le choix d’un espace
dépend du degré de finesse avec lequel on souhaite décrire le processus.
Afin d’éclaircir la présentation, et de préciser les interprétations graphiques des diverses
notions que nous allons introduire, nous conviendrons par la suite qu’une chaı̂ne de Markov
donnée est toujours définie sur son espace probabilisé canonique
Ωn = (E0 × E1 × . . . × En )
Pn (ω0 , ω1 , . . . , ωn ) = µ0 (ω0 )M1 (ω0 , ω1 ) . . . Mn (ωn−1 , ωn )
avec
(X ,...,X )
On rappelle que la loi Pn 0 n
de la v.a. trajectorielle (X0 , . . . , Xn ) sur (E0 × . . . × En ) est
donnée pour toute trajectoire (x0 , . . . , xn ) ∈ (E0 × . . . × En ) par la formule produit
P(X
n
0 ,...,Xn )
(x0 , . . . , xn ) = µ0 (x0 )M1 (x0 , x1 ) . . . Mn (xn−1 , xn )
X0 → X1 → . . . → Xk−1 → Xk
depuis son origine jusqu’à un instant k ∈ {0, . . . , n}, par la donnée de la décomposition
Dpn,X de Ωn , définie ci-après
Dkn,X =déf. Ank (x0 , . . . , xk ), (x0 , . . . , xk ) ∈ E k+1
On notera que chaque évènement cylindrique Ank (x0 , . . . , xk ) contient bien toute
l’information connue sur la trajectoire, depuis son origine jusqu’au temps p. En effet, par
construction, nous avons
On retiendra que l’évènement composé Ank (x0 , . . . , xk ) est formé de tous les aléas
élémentaires ω ∈ Ωn conduisant le processus à suivre la trajectoire (x0 , . . . , xk ) depuis
son origine, jusqu’au temps k.
Il est particulièrement intéressant de visualiser graphiquement ces évènements cylindriques
sur l’arbre de épreuves. Plus précisément, sur l’espace canonique l’évènement
x0 x1 x2 x(k−1) xk
A_k^n(x0,x_1,...,xk)
Lorsque k coı̈ncide avec l’horizon terminal k = n, et sur l’espace canonique, les événements
cylindriques se réduisent à des singletons trajectoriels
Dans ce cas, la partition Dnn,X de l’espace canonique est formée de tous les singletons trajectoriels
envisageables
Par définition des lois conditionnelles par rapport à des partitions, et avec des
notations abusives évidentes, nous avons
(Xk+1 ,...,Xn )
Pn ((xk+1 , . . . , xn ) | Dkn,X )
X
= Pn(Xk+1 ,...,Xn )|(X0 ,...,Xk ) ((xk+1 , . . . , xn ) | (x0 , . . . , xk )) 1Ank (x0 ,...,xk )
(x0 ,...,xk )
(Xp+1 ,...,Xn )
Pn ((xp+1 , . . . , xn ) | Dpn,X )
Cette formule reflète le fait que les évènements passés associés à la trajectoire (X 0 , . . . , Xk )
n’influencent pas le futur du processus (Xk+1 , . . . , Xn ), sinon par la valeur de l’état du système
Xk à l’instant présent. La plupart des processus que nous avons rencontré vérifient cette
propriété de Markov. C’est bien entendu le cas des marches aléatoires sur la droite réelle,
les évolutions de population biologiques, ou encore le nombre des succès et échecs dans une
répétition d’expériences biphasés.
52 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
Sur l’espace canonique, ces décompositions d’évènements s’expriment sous la forme équivalente
Anp (x0 , . . . , xp )
= ...
Autrement dit, chaque évènement Anp (x0 , . . . , xp ) représentant une information précise jusqu’au
temps p, peut être décomposé sur toute l’information future envisageable. Néanmoins, savoir que
l’une d’entre elles pourra se produire, ne permet bien évidemment pas de prédire grand chose !
Ces représentations n’apportent donc aucune information sur l’évolution future du processus.
En conclusion, nous avons décomposé les informations selon une filtration croissante
de partitions
D0n,X ⊂ D1n,X ⊂ . . . ⊂ Dp−1
n,X
⊂ Dpn,X ⊂ . . . ⊂ Dnn,X
En terme d’arbres, ces propriétés de monotonie expriment le fait que tout sous arbre
n,X
Anp (x0 , . . . , xp ) de Dpn,X , peut être décomposé en une famille de sous-arbres de Dp+1 .
Exemple 2.3.1 Considérons l’espace canonique des aléas associé à des v.a. de Bernoulli décrit
en (2.1). Dans cette situation, nous avons
n o
Dpn, = {(u0 , . . . , up )} × {0, 1}(n−p) : (u0 , . . . , up ) ∈ {0, 1}p+1
(0 , . . . , 6 ) = (0, 1, 0, 1, 1, 1, 0)
Néanmoins, lorsque cet évènement se réalise, nous avons aucune information sur les valeurs
des états suivants p , avec p > 6. Par exemple, lorsque n = 9, la décomposition de l’évènement
cylindrique
{(0, 1, 0, 1, 1, 1, 0)} × {0, 1}2 = ∪u,v∈{0,1} {(0, 1, 0, 1, 1, 1, 0, u, v)}
exprime le fait que sur l’évènement
Notons pour conclure que chaque v.a. trajectorielle ((0 , . . . , p )) s’exprime sur la partition
d’évènements Dpn, par la formule
X
(0 , . . . , p ) = (u0 , . . . , up ) 1Dpn,
(u0 ,...,up )∈{0,1}p+1
La plus petite algèbre Fpn,X contenant Dpn,X est donnée par la formule suivante
Fpn,X = σn (X0 , . . . , Xp )
= (X0 . . . , Xp )−1 (Bp ) avec Bp ⊂ (E0 × . . . × Ep )
avec
Anp (x0 , . . . , xp ) = (X0 , . . . , Xp )−1 ({(x0 , . . . , xp )})
on rappelle que chaque évènement cylindrique est donné par la formule explicite suivante
correspond donc à la forêt formée par les arbres Anp (x0 , . . . , xp ), dont les troncs (x0 , . . . , xp )
sont dans Bp .
Les trajectoires depuis l’origine jusqu’au temps p, sont bien mesurables par rapport à ces
algèbres
∀0 ≤ p ≤ n (X0 , . . . , Xp ) ∈ Fpn,X
néanmoins, on a en général
n,X
Autrement dit, l’information contenue dans Fp−1 est insuffisante pour décrire les trajectoires
depuis leurs origines, jusqu’au temps p. Par exemple, nous avons sur l’espace canonique
De plus, par définition des lois conditionnelles par rapport à une algèbre, nous avons
pour tout 0 ≤ p ≤ n
(Xp+1 ,...,Xn )
Pn ((xp+1 , . . . , xn ) | Fpn,X )
(Xp+1 ,...,Xn )
= Pn ((xp+1 , . . . , xn ) | Dpn,X )
(Xp+1 ,...,Xn )
= Pn ((xp+1 , . . . , xn ) | σn (Xn ))
Définition 2.4.1 Un espace de probabilisé filtré (Ω, (Fp )0≤p≤n , P), est un espace
probabilités (Ω, P) muni d’une filtration croissante d’algèbres
F0 ⊂ F1 ⊂ . . . ⊂ Fp−1 ⊂ Fp ⊂ . . . ⊂ Fn
2.4. DÉCOMPOSITIONS CANONIQUES 55
Pour poursuivre notre analyse, il convient de rappeler que chaque algèbre F p est engendrée par
une partition Dp = (Di,p )i∈Ip de Ω, formée d’évènements deux à deux incompatibles, et ayant
pu se réaliser au temps p. Pour fixer les idées, supposons que l’aléa en cours de réalisation ω ∈ Ω
appartient à l’un des ensembles Di,p ⊂ Dp . Dans cette situation, nous avons trivialement
ω ∈ Di,p et ∀j 6= i ω 6∈ Dj,p
Autrement dit, à l’instant p, nous savons que seul l’évènement Di,p s’est réalisé ! Néanmoins
l’ensemble Di,p ⊂ Ω est lui même formé d’évènements élémentaires et il nous est impossible de
discerner lequel des évènements ω 0 ∈ Di,p c’est réellement produit !
A l’instant suivant (p + 1), l’algèbre Fp+1 est engendrée par une partition Dp+1 plus fine
que Dp . Par conséquent, il existe une collection d’indices Ii,p+1 ⊂ Ip telle que
Les ensembles Dj,p+1 formant une partition de Di,p , l’événement en cours ω appartient
nécessairement à l’un d’entre eux
A l’instant (p + 1), nous savons que désormais que c’est l’évènement Dj,p+1 ⊂ Di,p s’est réalisé.
Cette inclusions souligne le fait que nous avons plus d’information sur l’évènement élémentaire
qui s’est produit, sans toutefois discerner lequel des évènements élémentaire
ω 0 ∈ Dj,p+1 ⊂ Di,p
c’est réellement produit ! Néanmoins, au cours du temps, la finesse des partitions nous renseigne
de plus en plus sur cette question.
Exemple 2.4.1 L’espace canonique (ΩX X
n , Pn ), associé à une chaı̂ne de Markov (Xk )0≤k≤n , et
muni de la filtration d’algèbres
décrites dans la section 2.3.4, est un espace de probabilités filtré. Cette filtration est appelée la
filtration canonique naturelle associée au processus Xp .
On conviendra que ces v.a. sont définies sur l’espace probabilisé canonique (Ω n , Pn ), avec
Fpn, = σn (1 , . . . , p )
est encore un espace probabilisé filtré. On notera que cette filtration d’algèbre coı̈ncide avec celle
présentée dans l’exemple 2.4.2. Plus précisément, nous avons
(1 , 2 , 3 )−1 ({(1, −1, 1)}) = {ω ∈ Ωn : (1 , 2 , 3 )(ω) = (1, −1, 1)}
= {ω ∈ Ωn : (X1 , X2 , X3 )(ω) = (1, 0, 1)}
= (X1 , X2 , X3 )−1 ({(1, 0, 1)}
Définition 2.4.2 Une suite de v.a. (Xp )0≤p≤n , à valeurs dans des espaces
(Ep )0≤p≤n , et définie sur un espace de probabilités filtré (Ω, (Fp )0≤p≤n , P), est dite
adaptée lorsque l’on a
∀0 ≤ p ≤ n (X0 , . . . , Xp ) ∈ Fp
∀0 ≤ p ≤ n (X0 , . . . , Xp ) ∈ Fp−1
La propriété d’adaptation souligne le fait que les v.a. trajectorielles (X0 , . . . , Xp ) peuvent se
représenter en terme d’évènements de Fp . Autrement dit les évènements
sont dans l’algèbre Fp , et font partie de l’information que l’on peut observer jusqu’au temps p.
Plus précisément, nous avons la décomposition fonctionnelle
X
(X0 , . . . , Xp ) = (x0 , . . . , x0 ) 1Ap (x0 ,...,xp )
(x0 ,...,xp )∈(E0 ×...×Ep )
La propriété de prévisibilité reflète une situation où les les évènements A p (x0 , . . . , xp ) sont
dans l’algèbre Fp−1 . Ces évènements font désormais partie de l’information que l’on peut
observer au temps (p − 1). Dans ce cas, la valeur Xp du processus au temps p est prévisible dès
l’instant (p − 1).
2.4. DÉCOMPOSITIONS CANONIQUES 57
Exemple 2.4.4 En reprenant les exemples précédents, on vérifie aisément que les suites
(p )0≤p≤n , et (Xp )0≤p≤n sont toutes deux adaptées à la filtration (Fpn, )0≤p≤n . De même, on
vérifie les processus retardés
Nous arrivons enfin à la définition abstraite tant attendue d’un processus aléatoire.
Il peut être utile de souligner à nouveau que pour tout processus aléatoire (X p )0≤p≤n défini sur
un espace probabilisé filtré (Ω, (Fp )0≤p≤n , P), nous avons les inclusions d’algèbres
La définition abstraite précédente nous permet donc d’analyser des processus aléatoires définis
sur des espace probabilisés muni de filtrations d’algèbres autres que les filtrations canoniques.
Cette souplesse de modélisation est particulièrement utile lorsque l’on étudie plusieurs processus
aléatoires sur le même espace probabilisé filtré. Dans cette situation, les algèbres F p
représentent l’adaptation de tous les phénomènes aléatoires en jeu, jusqu’au temps
p.
Exemple 2.4.5 Supposons que (Xp , Yp )0≤p≤n soit une chaı̂ne de Markov à valeurs dans un
espace produit (E × F ), définie sur l’espace filtré canonique
avec
∀0 ≤ p ≤ n Fp = Fp(X,Y ) (= σ((X0 , Y0 ), . . . , (Xp , Yp )))
Dans ce cas, la séquence (Xp )0≤p≤n est un processus aléatoire à valeurs dans E, à nouveau
défini sur (Ωn , (Fp )0≤p≤n , Pn ). Dans cette situation, nous avons
FpX = σ(X0 , . . . , Xp ) ⊂ Fp
La notion abstraite de processus aléatoire que nous venons d’introduire nous permet
de définir très simplement divers processus aléatoires à partir d’un processus de référence
donné. Supposons que (Xp0 )0≤p≤n , soit processus aléatoire à valeurs dans des espaces finis
(Ep0 )0≤p≤n , et défini sur un espace de probabilisé filtré (Ω, (Fp )0≤p≤n , P). Pour toute collection
de transformations
fp : E00 × . . . × Ep0 −→ Ep
de E00 ×. . .×Ep0 dans des espaces produit, et finis, auxiliaires Ep , la séquence des transformations
Xp = fp (X00 , . . . , Xp0 )
est à nouveau un processus aléatoire défini sur le même espace de probabilisé filtré
(Ω, (Fp )0≤p≤n , P).
58 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
On notera que les accroissements du processus ((X Y )k )0≤k≤n sont donnés par
.
∆(X Y )k = Xk ∆Yk
.
A chaque instant (k − 1), les v.a. Xk et Yk−1 , sont connues, seule la v.a. Yk est imprévisible, en
ce sens où Yk ∈ Fp .
On remarque que
∆(XY )k = Xk Yk − Xk−1 Yk−1
= Xk−1 (Yk − Yk−1 ) + Yk (Xk − Xk−1 )Yk
= Xk−1 (Yk − Yk−1 ) + Yk−1 (Xk − Xk−1 )
+(Xk − Xk−1 )(Yk − Yk−1 )
= Xk−1 ∆Yk + Yk−1 ∆Xk + ∆Xk ∆Yk
On obtient ainsi la formule d’intégration par parties discrète
Pk Pk
Xk Y k = l=1 Xl−1 ∆Yl + l=1 Yl−1 ∆Xl + [X, Y ]k (2.4)
Chaque incrément d’un processus réel (Xp )0≤p≤n sur (Ω, (Fp )0≤p≤n , P) se décompose
en une partie prévisible, et une partie imprévisible
k
X k
X
AX
k = E(∆Xp | Fp−1 ) = [E(Xp | Fp−1 ) − Xp−1 ]
p=0 p=0
k
X k
X
MkX = [∆Xp − E(∆Xp | Fp−1 )] = [Xp − E(Xp | Fp−1 )]
p=0 p=0
Dans les formules précédentes, lorsque p = 0, nous avons à nouveau utilisé les conventions
X−1 = 0 et E(∆X0 | F−1 ) = E(X0 | F−1 ) = E(X0 )
En accord avec les remarques précédentes, le premier processus (AX
k )0≤k≤n , est formé des
tendances locales prévisibles
∆AX k = E(∆Xk | Fk−1 )
Par conséquent (AX
k )0≤k≤n est prévisible par rapport à l’information portée par la filtration
(Fk )0≤k≤n
∀0 ≤ k ≤ n E(AXk | Fk−1 ) = Ak
X
Mk = X k − A X
k
Du fait de leur importance en pratique, la section suivante est consacrée à l’étude de tels
processus aléatoires.
Terminons cette section par une remarque élémentaire concernant la condition initiale X 0
du processus (Xk )0≤k≤n . Dans les décompositions précédentes, nous avons inclue la moyenne
E(X0 ) de X0 dans la partie prévisible du processus, de sorte à avoir
AX
0 = E(X0 ) et M0X = X0 − E(X0 )
Dans ces conditions, la partie martingale (MkX )0≤k≤n du processus est de moyenne nulle
E(M0X ) = 0. En remplaçant Xk par (Xk − X0 ), on peut alternativement utiliser les
décompositions suivantes :
k
X X X
X k =déf. (Xk − X0 ) = ∆Xl = Ak + M k (2.5)
l=1
avec
X
Ak = AX X
k − A0
k
X k
X
= E(∆Xp | Fp−1 ) = [E(Xp | Fp−1 ) − Xp−1 ]
p=1 p=0
X
Mk = MkX − M0X
k
X k
X
= [∆Xp − E(∆Xp | Fp−1 )] = [Xp − E(Xp | Fp−1 )]
p=1 p=1
Dans ces conditions, les parties prévisibles, et martingales, sont initialement nulles
X X
A0 = 0 et M 0 = 0
2.5 Exercices
Exercice 2.5.1 En utilisant un modèle d’arbre, calculer la probabilité des évènements suivants :
(B1 ) obtenir exactement une fois le chiffre 6 lors de 3 lancer de dés successifs ; (B 2 ) obtenir
exactement deux fois le chiffre 6 lors de 3 lancer de dés successifs ; (B 3 ) obtenir exactement
trois fois le chiffre 6 lors de 3 lancer de dés successifs.
Exercice 2.5.2 Décrire l’arbre des épreuves associé à une suite de v.a. indépendantes
(i )i=1,2,3,4 , de même loi de Bernoulli
Exercice 2.5.3 Décrire l’arbre des épreuves associé à une suite de v.a. indépendantes
(i )i=1,2,3,4 , de lois de Bernoulli
1
P(i = 1) = 1 − P(i = 0) =
i+1
Exercice 2.5.4 Décrire l’arbre des épreuves associé à une évolution markovienne entre les
espaces suivants
Exercice 2.5.5 Décrire l’arbre des épreuves associé à une évolution markovienne sur une
période, entre les espaces suivants
1. Vérifier que cette évolution élémentaire peut être synthétisée par le tableau suivant
Ω X0 X1
ω1 x0 x1,1
ω2 x0 x1,2
4. Déterminer les algèbres FkX engendrées par les partitions DkX , avec k = 0, 1.
5. Vérifier les formules suivantes
2
X
X0 = x 0 et X1 = x1,i 1{ωi }
i=1
6. Déterminer la quantité moyenne E(X1 |F0X ). Pour quelle probabilité P? sur Ω a-t-on
E(X1 |F0X ) = X0
Exercice 2.5.6 Décrire l’arbre des épreuves associé à une évolution markovienne sur deux
périodes, entre les espaces
Ω X0 X1 X2
ω1 x0 x1,1 x2,1
ω2 x0 x1,1 x2,2
ω3 x0 x1,2 x2,3
ω3 x0 x1,2 x2,4
62 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
3. Déterminer les algèbres FkX engendrées par les partitions DkX , avec k = 0, 1.
4. Vérifier les formules suivantes
X0 = x0
4
X
X1 = x1,1 1{ω1 ,ω2 } + x1,2 1{ω3 ,ω4 } et X2 = x2,i 1ωi
i=1
Exercice 2.5.7 On considère l’évolution markovienne (Xk )k=0,1,2,3 sur trois périodes décrites
par l’arbre des épreuves suivant
x(3,1) omega^1
x(3,7) omega^7
Fig. 2.9 –
2.5. EXERCICES 63
1. Déterminer les évènements Ai,j pour lesquels les décompositions suivantes sont
satisfaites :
3
X
X0 = x0 , X1 = x1,i 1A1,i
i=1
6
X 8
X
X2 = x2,i 1A2,i , et X3 = x3,i 1A3,i
i=1 i=1
−→ E3 = {x3,i , i = 1, . . . , 8}
3. On note FkX les algèbres engendrées par les décompositions DkX , avec la séquence d’indices
k = 0, 1, 2, 3. Déterminer les espérances conditionnelles
E(X3 |F2X ), E(X2 |F1X ) et E(X1 |F0X )
Exercice 2.5.8 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans les espaces (Ek )0≤k≤n ,
de probabilités de transitions (Mk )0≤k≤n , et de loi initiale η0 . On rappelle qu’une mesure
de probabilités µk sur Ek est une suite de nombres (µk (xk ))xk ∈Ek ∈ [0, 1] telle que
P
xk ∈Ek µk (xk ) = 1. On associe à une telle mesure µk sur Ek , la mesure (µk Mk+1 ) sur Ek+1
définie par
X
∀xk+1 ∈ Ek+1 (µk Mk+1 )(xk+1 ) = µk (xk )Mk+1 (xk , xk+1 )
xk ∈Ek
= P(Xk+2 = xk+2 | Xk = xk )
64 CHAPITRE 2. PROCESSUS ALÉATOIRES DISCRETS
= P(Xk+l = xk+l | Xk = xk )
Vérifier que l’on a
3. On associe à une fonction fk+1 ∈ REk+1 , la fonction Mk (fk+1 ) ∈ REk définie par
X
Mk (fk+1 )(xk ) = Mk (xk , xk+1 ) fk+1 (xk+1 )
xk+1 ∈Ek+1
= E(fk+1 (Xk+1 ) | Xk = xk )
En déduire que
Exercice 2.5.9 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans un espace homogène
et fini E = {x1 , . . . , xd }, de probabilités de transitions (Mk )0≤k≤n , et de loi initiale µ0 . Dans
ce contexte, les probabilités de transitions sont données par les matrices
Mk (x1 , x1 ) . . . Mk (x1 , xd )
Mk =
.. .. ..
. . .
Mk (xd , x1 ) . . . Mk (xd , xd )
On identifie les mesures de probabilités µ, et les fonctions f sur E aux vecteurs lignes et colonnes
suivants
f (x1 )
µ = [µ(x1 ), . . . , µ(xd )] et f =
..
.
f (xd )
1. Vérifier les formules matricielles suivantes
et
∀f ∈ RE ∀xi ∈ E E(f (Xk+l ) | Xk = xi ) = [Mk+1 . . . Mk+l f ](xi )
et enfin
∀f ∈ RE E(f (Xk )) = η0 M1 . . . Mk f
2.5. EXERCICES 65
Exercice 2.5.10 On considère une chaı̂ne de Markov homogène sur un espace à deux points
p1,1 p1,2
E = {1, 2}, et associée à la matrice de transition M = . Les entrées pi,j ∈ [0, 1]
p2,1 p2,2
sont telles que p1,1 + p1,2 = 1 = p2,1 + p2,1 . On conviendra que c = p1,2 + p2,1 > 0. Montrer
(par récurrence sur le paramètre temporel) que les itérées M n de la matrice M sont données
par la formule
1 p2,1 p1,2 (1 − c)n p1,2 −p1,2
Mn = + (2.6)
c p2,1 p1,2 c −p2,1 p2,1
Exercice 2.5.11 Soit (Xk0 )0≤k≤n un processus de Markov, à valeurs dans les espaces
(Ek0 )0≤k≤n , de probabilités de transitions (Mk0 )0≤k≤n , et de loi initiale η00 . On note (Xk )0≤k≤n
le processus historique de (Xk0 )0≤k≤n défini par
Xk = (X00 , . . . , Xk0 )
1. Vérifier que (Xk )0≤k≤n est une chaı̂ne de Markov à valeurs dans les espaces produits
Ek = (E00 , . . . , Ek0 )
2. Décrire les probabilités de transitions de (Xk )0≤k≤n .
Exercice 2.5.12 On considère une marche aléatoire (Xk )0≤k≤n définie sur un espace de
probabilités (Ω, P), d’origine X0 = 0 et de probabilités de transitions homogènes
M (x, y) = α 1x+1 (y) + (1 − α) 1x−1 (y) avec α ∈ [0, 1]
1. Décrire l’arbre des épreuves associé au processus (X k )0≤k≤n .
2. Montrer que la position moyenne de la particule au temps n est donnée par la formule
∀0 ≤ k ≤ n E(Xk ) = k × (2α − 1)
3. Vérifier que les transitions de la chaı̂ne entre deux instants, l et (l +m) ≤ n, sont données
par la formule
k
P(Xl+m = x + [k − (m − k)] | Xl = x) = Cm αk (1 − α)m−k
pour tous les k ∈ {0, . . . , m}, et
P(Xl+m 6∈ {2k − m : k = 0, . . . , m}|Xl = x) = 0
4. En déduire que
(2k)!
P(Xl+2k = 0 | Xl = 0) = (α(1 − α))k
k!k!
√
En utilisant la formule de Stirling (k! ' 2πk k k e−k ), montrer que
(4α(1 − α))k √
P(Xl+2k = 0 | Xl = 0) ' √ (= 1/ πk si α = 1/2)
πk
Exercice 2.5.13 Soit (Xk )0≤k≤n , une promenade aléatoire sur R, associée à une suite de v.a.
(k )0≤k≤n indépendantes
Xk
Xk = p = Xk−1 + k
p=0
∀0 ≤ k < n E(Mk+1 | Fk ) = Mk
On dit aussi qu’un processus aléatoire réel M = (Mk )0≤k≤n est une sous-martingale
(resp. une sur-martingale), s’il vérifie les inégalités suivantes
Les propriétés de martingales que nous avons introduites précisent les tendances locales d’un
processus aléatoire. Plus précisément, on note que tout processus aléatoire M = (M k )0≤k≤n
peut se mettre sous la forme
k
X
Mk = M 0 + ∆Mk avec ∆Mk = (Mk − Mk−1 )
l=1
67
68 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Terminons cette section par une caractérisation pratique de la propriété de martingale, en terme
de processus transformés. Nous utiliserons cette caractérisation dans le chapitre concernant les
mathématiques financières, lorsque nous “neutraliserons” des marchés financiers.
Proposition 3.1.1 Soit (Mk )0≤k≤n un processus aléatoire défini sur un espace probabilisé filtré
(Ω, (Fk )0≤k≤n , P). Le processus (Mk )0≤k≤n est une martingale si, et seulement si, pour tout
processus prévisible (Uk )0≤k≤n , on a la propriété suivante
n
!
X
E Uk ∆Mk = E(U0 M0 )
l=0
Preuve:
Si (Mk )0≤k≤n est une martingale, alors on a clairement
n
! n
X X
E Uk ∆Mk = E (Uk ∆Mk )
l=0 l=0
n
X
= E(U0 M0 ) + E (E(Uk ∆Mk | Fk−1 ))
l=1
Xn
= E(U0 M0 ) + E (Uk E(∆Mk | Fk−1 )) = E(U0 M0 )
l=1
∀0 ≤ k ≤ n E(Mk ) = E(M0 )
Pour vérifier cette assertion, il suffit de choisir le processus prévisible constant U k = 1. En effet,
dans cette situation, nous avons
k
X k
X
Mk = ∆Ml = Ul ∆Ml
l=0 l=0
Soit T une v.a. positive entière, telle que les évènements {T ≥ k} soient prévisibles, c’est à dire
1{T ≥k} ∈ Fk−1 . On a clairement
T
X n
X
MT = ∆Mk = Uk ∆Mk
k=0 k=0
avec le processus prévisible Uk = 1T ≥k ∈ Fk−1 . D’après nos hypothèses, nous obtient que
T = k 1A + (k + 1) 1Ac
3.1. DÉFINITIONS ET PROPRIÉTÉS 69
MT = Mk 1A + Mk+1 1Ac
= Mk 1A + Mk+1 (1 − 1A ) = Mk+1 − 1A ∆Mk+1
∀A ∈ Fk E(1A ∆Mk+1 ) = 0
E(∆Mk+1 | Fk ) = 0
En répétant ces raisonnement, pour tous les indices k ∈ {0, . . . , n}, on montre que le processus
Mk est nécessairement une martingale. Ceci achève la preuve de la proposition.
3.1.2 Compensateurs
Soit (Mk )0≤k≤n une martingale définie sur un espace probabilisé filtré
Le processus aléatoire formé des carrés (Mk2 )0≤k≤n est une sous martingale sur
(Ω, (Fk )0≤k≤n , P). Cette propriété résulte simplement de l’inégalité de Cauchy-Schwartz
2
E(Mk+1 | Fk ) ≥ E(Mk+1 | Fk )2 = Mk2
Définition 3.1.2 On associe à une martingale (Mk )0≤k≤n sur un espace probabilisé
(Ω, (Fk )0≤k≤n , P), le processus prévisible (hM ik )0≤k≤n défini par
k
X k
X
hM ik = [E(Ml2 | Fl−1 ) − Ml−1
2
]= E([Ml − Ml−1 ]2 | Fl−1 )
l=0 l=0
Dans la définition précédente, nous avons utilisé la convention E([M0 − M−1 ]2 | F−1 ) = E(M02 ),
lorsque l = 0. L’importance de ce processus résulte de la proposition suivante.
70 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Proposition 3.1.2 Soit (Mk )0≤k≤n une martingale réelle définie sur un espace
probabilisé filtré (Ω, (Fk )0≤k≤n , P). Le processus aléatoire
Mk2 − hM ik
Preuve:
Pour vérifier la première assertion, on observe que
2
E(Mk+1 | Fk ) = E([Mk + (Mk+1 − Mk )]2 | Fk )
= Mk2 + 2Mk E((Mk+1 − Mk ) |Fk ) + E((Mk+1 − Mk )2 | Fk )
= Mk2 + E((Mk+1 − Mk )2 | Fk )
Le prochain théorème est une extension de la proposition précédente à des produits quelconques
de martingales.
Théorème 3.1.1 Soit (Mk )0≤k≤n et (Nk )0≤k≤n , un couple de martingales réelles, et
définies sur un même espace probabilisé filtré (Ω, (Fk )0≤k≤n , P). Dans cette situation,
les processus aléatoires défini par
Mk Nk − [M, N ]k et Mk Nk − hM, N ik
Preuve:
D’après la formule d’intégration par parties (2.4), nous avons la décomposition
k
X k
X
M k Nk = Ml−1 ∆Nl + Nl−1 ∆Ml + [M, N ]k
l=1 l=1
D’autre part, nous avons vu dans l’exercice 3.1.5 que les processus
k
X k
X
Ml−1 ∆Nl et Nl−1 ∆Ml
l=1 l=1
k
X k
X
Mk Nk − [M, N ]k = M0 N0 + Ml−1 ∆Nl + Nl−1
l=1 l=1
On en déduit la décomposition
Les compensateurs ([M, N ]k )0≤k≤n , et (hM, N ik )0≤k≤n , décrits dans le théorème 3.1.1, sont
des processus aléatoires initialisés en
Comme dans l’étude des décompositions (2.5), nous pouvons alternativement utiliser des
compensateurs initialisés en 0. Plus précisément, il est facile de vérifier que les deux processus
suivants
Mk Nk − M0 N0 − (hM, N ik − hM, N i0 )
et
Mk Nk − M0 N0 − ([M, N ]k − [M, N ]0 )
Proposition 3.1.3 Soit (Mk )0≤k≤n une martingale (réelles) définie sur un espace
probabilisé filtré (Ω, (Fk )0≤k≤n , P).
1. Pour tout 0 ≤ k ≤ l ≤ n, on a E(Ml | Fk ) = Mk . En particulier, la martingale
Mk s’exprime en fonction de son état terminal, par la formule
Mk = E(Mn | Fk )
Preuve:
Le premier point est équivalent au fait que
∀0 ≤ p + m ≤ n E(Mm+p | Fm ) = Mm
Le cas p = 1 résulte de la définition même d’une martingale. On raisonne ensuite par récurrence
sur cet indice. Supposons donc le résultat vrai au rang p. Compte tenu du fait que Fm+p ⊃ Fm ,
nous avons
Vn (x0 , . . . , xn ) = gn (x0 , . . . , xn )
Vk (x0 , . . . , xk ) = E (Vk+1 (x0 , . . . , xk , Xk+1 ) | (X0 , . . . , Xk ) = (x0 , . . . , xk ))
∀0 ≤ k ≤ n Mk = Vk (X0 , . . . , Xk )
est l’unique martingale, par rapport à la filtration (Fk )0≤k≤n , dont la valeur terminale
Mn coı̈ncide avec la v.a. gn (X0 , . . . , Xn ).
Preuve:
Par construction, le processus
Mk = Vk (X0 , . . . , Xk )
forme une martingale, telle que Mn = gn (X0 , . . . , Xn ). On notera que les relations de récurrence
inverse sont équivalentes à la propriété de martingale
Mk = E (Mk+1 | Fk )
De plus, d’après la première propriété énoncée dans la proposition 3.1.3, nous avons
pour toute martingale (Mk )0≤k≤n , telle que Mn = gn (X0 , . . . , Xn ). Par conséquent, si
(Mk )0≤k≤n , et (Mk0 )0≤k≤n , désignent un couple de martingales telles que
Mn = Mn0 = gn (X0 , . . . , Xn )
alors on a nécessairement
Ceci démontre l’unicité d’une martingale à condition terminale fixé, et achève la preuve de la
proposition.
On notera que (Ek (X))0≤k≤n est défini de manière équivalente, par la donnée des
accroissements
∆Ek (X) = Ek−1 (X) × ∆Xk
Q
On adoptera la convention usuelle ∅ = 1, de sorte que E0 (X) = 1.
Ek (X) × Ek (Y ) = k (X + Y + [X, Y ])
En particulier, lorsque les accroissements du processus (Xk )0≤k≤n sont tels que (1 +
∆Xk ) > 0, on a la formule d’inversion
Ek (X) × Ek (−X ? ) = 1
Preuve:
Pour vérifier la première assertion, il suffit de noter que
La seconde assertion est une conséquence immédiate de la première. En effet, par définition de
(Xk? )0≤k≤n , nous avons
et finalement
Ek (X) × Ek (−X ? ) = Ek (X − X ? − [X, X ? ]) = 1
3.1. DÉFINITIONS ET PROPRIÉTÉS 75
Proposition 3.1.6 Soit (Xk )0≤k≤n , et (Yk )0≤k≤n , un couple de processus aléatoires.
On suppose que (Yk )0≤k≤n est prévisible, et ses accroissements sont tels que (1 +
∆Yk ) > 0. Dans cette situation, nous avons les équivalences suivantes
Preuve:
La première équivalence est une conséquence directe du fait suivant
et
∆Yk ∆Xk ∆Yk
∆Xk − ∆Yk? − ∆Xk ∆Yk? = ∆Xk − −
1 + ∆Yk 1 + ∆Yk
∆Xk + ∆Xk ∆Yk − ∆Yk − ∆Xk ∆Yk
=
1 + ∆Yk
∆Xk − ∆Yk
=
1 + ∆Yk
La fin de la démonstration est désormais claire.
On vérifie aisément que P0 est bien une mesure de probabilité sur Ω. De plus, on a pour tout
0≤k≤n
A ∈ Fk =⇒ P0 (A) = E(Zn 1A )
= E(E(Zn 1A | Fk )) = E(E(Zn | Fk ) 1A )
=⇒ P0 (A) = E(Zk 1A )
dP0
∀0 ≤ k ≤ n = Zk
dP |Fk
Avec ces notations, les formules précédentes s’expriment sous la forme suivante
X X dP0
A ∈ Fk ⇒ P0 (A) = P0 (ω) = P(ω) × (ω) = E(Zk 1A )
dP |Fk
ω∈A ω∈A
76 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Les résultats que nous venons d’examiner s’étendent aux variables aléatoires. En effet,
lorsque U ∈ Fk , avec 0 ≤ k ≤ n, on obtient
X
E0 (U ) = U (ω) P0 (ω)
ω∈Ω
= E(U Zn ) = E(U E(Zn | Fk )) = E(U Zk )
E0 (U V ) = E(U V Zk )
= E(E(U V Zk | Fk−1 )) = E(V E(U Zk | Fk−1 ))
−1
= E(V Zk Zk−1 E(U Zk | Fk−1 ))
0 −1
= E V Zk−1 E(U Zk | Fk−1 )
Lemme 3.1.1 (Lemme de Girsanov) Si (Mk )0≤k≤n est une martingale sous la
probabilité P, alors le processus
k
X
−1
Mk0 = Mk − Zl−1 E(Zl ∆Ml | Fl−1 )
l=0
est une martingale sous la probabilité P0 défini en (3.1). Lorsque l = 0, on utilise les
−1
conventions Z−1 = 1, Fl−1 = {∅, Ω}, et ∆M0 = M0 , de sorte que
M00 = M0 − E(Z0 M0 )
3.1.6 Exercices
Exercice 3.1.1 On considère un processus prévisible (Xk )0≤k≤n , et un processus aléatoire
(Yk )0≤k≤n , sur un espace probabilisé filtré (Ω, (Fk )0≤k≤n , P). Montrer que si (Yk )0≤k≤n est
une martingale, il en est de même de ((X Y )k )0≤k≤n . Lorsque (Xk )0≤k≤n est positif, vérifier
.
que ((X Y )k )0≤k≤n est une sous martingale (resp. une sur martingale), dès que (Yk )0≤k≤n est
.
une sous martingale (resp. une sur martingale).
Exercice 3.1.2 Soit (k )1≤k≤n une suite de v.a. i.i.d. de Bernoulli définies sur un même espace
probabilisé (Ω, P), avec
P(k = 1) = 1 − P(k = −1) = p ∈ [0, 1]
On conviendra que {k = +1} représente l’évènement favorable ou le joueur gagne à la k ième
séquence de jeu une unité de mise. On note
Fk = σ(1 , . . . k )
est une martingale si p = 1/2, une sur-martingale lorsque p ≤ 1/2, et enfin une sous-martingale
lorsque p ≥ 1/2.
Exercice 3.1.3 Soit (k )1≤k≤n une suite de v.a. indépendantes, centrées (i.e. E(k ) = 0), et
définies sur un même espace probabilisé (Ω, P). Montrer que le processus aléatoire (M k )0≤k≤n
défini par
Xk
Mk = l = Mk−1 + k
l=0
Exercice 3.1.4 Soit (k )1≤k≤n une suite de v.a. indépendantes, de moyenne unité (i.e. E(k ) =
1), et définies sur un même espace probabilisé (Ω, P). Vérifier que processus aléatoire (M k )0≤k≤n
défini par le produit
Y k
Mk = l = Mk−1 × k
l=0
Exercice 3.1.5 Soit L0 , une v.a., et (Mk )0≤k≤n et (Nk )0≤k≤n , un couple de martingales
définies sur un même espace probabilisé filtré (Ω, (Fk )0≤k≤n , P). Vérifier que le processus
(Lk )0≤k≤n défini ci-dessous
X k
Lk = L 0 + Ml−1 ∆Nl
l=1
Exercice 3.1.6 Soit (k )1≤k≤n une suite de v.a. réelles indépendantes, centrées (i.e. E(k ) =
0), et définies sur un même espace probabilisé (Ω, P). On note Fk = σ(1 , . . . , k ), la filtration
d algèbres associée.
1. Vérifier que le processus aléatoire (Mk )0≤k≤n défini par
k
X
∀0 ≤ k ≤ n Mk = l = Mk−1 + k
l=0
E([Mk+1 − Mk ]2 | Fk ) = σk+1
2
Exercice 3.1.7 Soit (k )1≤k≤n une suite de v.a. réelles indépendantes, de moyenne unité (i.e.
E(k ) = 1), et définies sur un même espace probabilisé (Ω, P). On note Fk = σ(1 , . . . , k ), la
filtration d algèbres associée.
78 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Exercice 3.1.8 Soit ((k , 0k ))0≤k≤n une suite de v.a. à valeurs dans R2 , indépendantes et
centrées (en ce sens où E(k ) = 0 = E(0k )), et définies sur un même espace probabilisé (Ω, P).
On note
Fk = σ((1 , 01 ), . . . , (k , 0k ))
la filtration d algèbres associée. On associe à ces suites, le couple de martingales (Y k )0≤k≤n , et
(Yk0 )0≤k≤n , définies par
1. Montrer que le compensateur (hY, Y 0 ik )0≤k≤n du processus produit Xk = Yk Yk0 , est donnée
par la formule suivante
Xk
hY, Y 0 ik = E(l 0l )
l=0
Exercice 3.1.9 Soit ((k , 0k ))0≤k≤n une suite de v.a. à valeurs dans R2 , indépendantes et telles
que
E(k ) = 1 = E(0k )
et définies sur un même espace probabilisé (Ω, P). On note
Cov(k , 0k ) =déf. E([k − E(k )][0k − E(0k )]) = E(k 0k ) − 1
2. Montrer que le compensateur (hY, Y 0 ik )0≤k≤n du processus produit Xk = Yk Yk0 , est donnée
par la formule suivante
k l−1
X Y
hY, Y 0 ik = [ m 0m ] × Cov(l , 0l )
l=0 m=0
3.1. DÉFINITIONS ET PROPRIÉTÉS 79
Exercice 3.1.10 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans les espaces
(Ek )0≤k≤n , de probabilités de transitions (Mk )0≤k≤n , et de loi initiale η0 . On associe à toute
fonction fk+1 sur Ek+1 , la fonction Mk+1 (fk+1 ) sur Ek définie par
X
∀xk ∈ Ek Mk+1 (fk+1 )(xk ) = Mk+1 (xk , xk+1 )f (xk+1 ) = E(fk+1 (Xk+1 ) | Xk = xk )
xk+1 ∈Ek+1
1. Soit f = (fk )0≤k≤n une famille de fonctions définies sur les espaces (Ek )0≤k≤n . Montrer
que le processus
Xk
Mk (f ) = [fl (Xl ) − Ml (fl )(Xl−1 )]
l=1
est une martingale nulle en l’origine, par rapport à la filtration naturelle (F kX )0≤k≤n
associée au processus (Xk )0≤k≤n .
2. Déterminer le compensateur de la martingale (Mk (f ))0≤k≤n .
Exercice 3.1.11 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes et centrées, et à
valeurs dans des espaces réduits à deux points Ek = {uk , vk }, avec
∀0 ≤ k ≤ n uk pk + vk (1 − pk ) = 0
∀0 ≤ k ≤ n Yk = 0 + . . . + k = Yk−1 + k
est une martingale (par rapport à la filtration (Fk )0≤k≤n ) à valeurs dans les espaces
k
X
EkY = { wl : wl ∈ {ul , vl }, Y
0 ≤ l ≤ k} = Ek−1 + {uk , vk }
l=0
3. Vérifier que le processus (Yk )0≤k≤n est aussi une chaı̂ne de Markov. Déterminer sa loi
initiale, et ses probabilités de transitions.
Exercice 3.1.12 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes, et à valeurs dans des
espaces réduits à deux points Ek = {uk , vk }, avec
∀0 ≤ k ≤ n uk pk + vk (1 − pk ) = 1
80 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
∀0 ≤ k ≤ n Yk = 0 × . . . × k = Yk−1 × k
est une martingale (par rapport à la filtration (Fk )0≤k≤n ) à valeurs dans les espaces
k
Y
EkY = { wl : wl ∈ {ul , vl }, 0 ≤ l ≤ k}
l=0
3. Vérifier que le processus (Yk )0≤k≤n est aussi une chaı̂ne de Markov. Déterminer sa loi
initiale, et ses probabilités de transitions.
Exercice 3.1.13 Soit X une v.a. réelle définie sur un espace probabilisé (Ω, P). On considère
une filtration croissante de sous algèbres (Fk )0≤k≤n de P(Ω). Vérifier que la processus aléatoire
(Xk )0≤k≤n défini par
∀0 ≤ k ≤ n Xk = E(X | Fk )
est une martingale sur l’espace filtré (Ω, (Fk )0≤k≤n , P). Inversement, si (Xk )0≤k≤n désigne une
martingale par rapport à la filtration (Fk )0≤k≤n , montrer qu’il existe une v.a. réelle X, telle
que Xk = E(X | Fk ), pour tout 0 ≤ k ≤ n.
Exercice 3.1.14 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes, centrées, et
équidistribuées. On considère la martingale
k
X
∀0 ≤ k ≤ k Mk = l = Mk−1 + k
l=1
Exercice 3.1.15 Soit (Ek (X))0≤k≤n le processus exponentiel d’une martingale (Xk )0≤k≤n ,
définie sur (Ω, (Fk )0≤k≤n , P), et telle que (1 + ∆Xk ) > 0, pour tout indice 0 ≤ k ≤ n.
1. Vérifier que Zk est une martingale par rapport à la filtration (Fk )0≤k≤n .
2. On note P0 la probabilité sur Ω, définie par
Montrer que pour toute martingale (Mk )0≤k≤n sur (Ω, (Fk )0≤k≤n , P), le processus
aléatoire (Mk0 )0≤k≤n défini par
Exercice 3.1.16 Soit ((k , 0k ))0≤k≤n une suite de v.a. à valeurs dans R2 , indépendantes et
centrées (en ce sens où E(k ) = 0 = E(0k )), et définies sur un même espace probabilisé (Ω, P).
On note
Fk = σ((1 , 01 ), . . . , (k , 0k ))
la filtration d algèbres associée. On associe aux suites (k )0≤k≤n , et (0k )0≤k≤n , les processus
(Xk )0≤k≤n , et (Yk )0≤k≤n , donnés par
n
X n
X
Xk = k et Yk = 0k
k=0 k=0
2. On suppose que les v.a. k sont telles que k > −1, et on note P0 la probabilité sur Ω,
définie par
∀A ⊂ Ω P0 (A) = E(Zn 1A ) avec Zn = En (X)
Vérifier que (Yk )0≤k≤n est une martingale sur (Ω, (Fk )0≤k≤n , P). Montrer que le processus
k
X
Yk0 = Yk − E(l 0l )
l=0
0
est une martingale sur (Ω, (Fk )0≤k≤n , P ).
de (Mk )0≤k≤n par un processus quelconque prévisible (Xk )0≤k≤n , est à nouveau une martingale
∀1 ≤ k ≤ n E(Xk ∆Mk | Fk−1 ) = Xk E(∆Mk | Fk−1 ) = 0
Il est donc impossible de contrôler honnêtement les accroissements des gains au cours du jeu.
Existe-t-il néanmoins des stratégies aléatoires pour quitter le jeu, en augmentant ses chances
de gain ? Peut-on maximiser son espérance de gain ? Ces règles d’arrêt sont l’un des notions les
plus importantes de la théorie de probabilités. Nous examinerons des exemples classiques de
stratégies d’arrêt de jeu dans les sections 3.2.3, et 3.2.5.
82 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Un temps d’arrêt sur un espace probabilisé filtré (Ω, (Fk )0≤k≤n , P) est une application
telle que
∀0 ≤ k ≤ n T −1 ({k}) = {T = k} = {ω ∈ Ω : T (ω) = k} ∈ Fk
La valeur T = ∞ correspond au cas où le jeu n’est pas arrêté, nous conviendrons donc
dans ce cas que l’on a
{T = ∞} = {T > n} ∈ Fn
= XT 1{T <k} + Xk 1T ≥k
Montrons par exemple qu’une martingale arrêtée (MkT )0≤k≤n au temps T , est à nouveau
une martingale. Pour vérifier ce résultat, on rappelle que les évènements {T ≥ k} ∈ F k−1 sont
prévisibles. Par conséquent, en utilisant la décomposition précédente, nous avons
"k−1 #
X
T
E(Mk | Fk−1 ) = E( Ml 1{T =l} 1{T <k} + Mk 1T ≥k | Fk−1 )
l=0
"k−1 #
X
= Ml 1{T =l} 1{T <k} + E(Mk | Fk−1 ) 1T ≥k
l=0
= MT 1{T <k} + Mk−1 1T ≥k
= MT 1{T ≤(k−1)} + Mk−1 1T >(k−1) = MT ∧(k−1) × [1{T ≤(k−1)} + 1T >(k−1) ]
On en conclut que
E(MkT | Fk−1 ) = MT ∧(k−1) = Mk−1
T
∀0 ≤ k ≤ n E(MT | Fk ) = MT ∧k
3.2. CONTRÔLE DE MARTINGALES 83
On interprète dans ce qui suit les valeurs prises par les v.a. k , comme le succès (k = +1), ou
l’échec (k = −1), d’un joueur à la k ième étape d’un jeu.
On notera que la mise aléatoire Xk du joueur à la k ième étape ne peut dépendre que des
informations fournies par le déroulement du jeu, jusqu’à l’instant k, exclu ! Autrement dit, la
mise Xk est prévisible par rapport à la filtration d’information associée aux successions de gains
et pertes jusqu’à l’instant k. Plus formellement, nous avons
La variable déterministe X1 = 1 représente la mise initiale, fixée à l’avance, pour que le joueur
gagne, ou perde, une quantité d’argent donnée.
On notera que
Les accroissements aléatoires (Zk )1≤k≤n du portefeuille du joueur, utilisant au cours du jeu
une stratégie de mises (Xk )2≤k≤n , sont données par la transformée de (Yk )1≤k≤n par (Xk )1≤k≤n ,
c’est à dire
X k Xk
Zk = (X Y )k =
. Xl ∆Yl = Xl l
l=1 l=1
Zk = A Z Z
k + Mk
et la martingale
k
X
MkZ = [∆Zl − E(∆Zl | Fl−1 )]
l=1
k
X k
X
= [Xl l − E(Xl l | Fl−1 )] = Xl (l − (2p − 1))
l=1 l=1
2. Lorsque p < 1/2, le jeu est défavorable au joueur, et la partie prévisible des gains A Z
k est
un processus décroissant. Dans ce cas, la stratégie consistera à éviter de jouer, ou bien
quitter le jeu le plus rapidement possible.
3. Lorsque p = 1/2, le jeu est imprévisible, et équitable, en ce sens où l’on a A Z k = 0,
pour tout 0 ≤ k ≤ n. Dans ce cas, les gains et pertes successifs du joueur forment une
martingale.
Le processus prévisible (Xk )1≤k≤n représente la stratégie utilisée par le joueur, les v.a. de
Bernoulli (k )1≤k≤n , à valeurs dans {−1, +1}, représente les gains et pertes aléatoires, à chaque
étape du jeu. Le paramètre n représente la durée du jeu. A titre illustratif, sur l’évènement
{1 = . . . = k−1 = −1, k = +1}
le joueur perd ses (k − 1)ière mises, et gagne à la k ième . Sur cet évènement, les accroissements
du portefeuille du joueur sont donnés par
Zk = −(X1 + . . . + Xk−1 ) + Xk
A la première étape, le joueur peut gagner ou perdre une quantité d’argent proportionnelle à
sa mise X1 , et fixée à l’avance
Z1 = X1 1 = (+X1 ) 11 =1 + (−X1 ) 11 =−1
Ainsi, sur l’évènement {1 = −1}, le joueur perd sa mise
Z1 11 =−1 = −X1 11 =−1
Sur l’évènement contraire {1 = +1}, le joueur gagne l’équivalent de sa mise ; autrement dit, il
accroı̂t son portefeuille de la valeur
Z1 11 =+1 = +X1 11 =+1
1. Supposons tout d’abord que le joueur, quelque peu expérimenté, cherche à gagner le
montant des gains relatifs à sa mise initiale X1 = 1.
Une stratégie consiste à doubler la mise, jusqu’au premier instant où l’on gagne, et
l’on quitte le jeu :
k−1
2 X1 si 1 = . . . = k−1 = −1
Xk =
0 sinon
T = inf {1 ≤ k ≤ n : k = 1}
de sorte que sur les évènements {T = k}, le joueur augmente son capital de la quantité
"k−1 # " k−1
#
X X
l−1 k−1
ZT 1T =k = 1T =k Xl l + Xk k = 1T =k − 2 +2
l=1 l=1
= 1T =k −(2k−1 − 1) + 2k−1 = 1T =k × 1
2. Supposons qu’un joueur bien plus gourmand, cherche à augmenter son capital
proportionnellement à toutes les pertes qu’il a pu subir ! Une stratégie envisageable, mais
quelque peu coûteuse, consiste à miser à chaque instant le double des pertes totales,
jusqu’au premier instant où l’on gagne, et l’on quitte le jeu. A l’instant du gain, le joueur
aura à la fois remboursé ses dettes, et son portefeuille aura augmenté proportionnellement
à cette même somme.
Une telle stratégie est équivalente à miser, jusqu’à l’instant tant attendu du gain, les
sommes suivantes
Xk = 2 (X1 + X2 + . . . + Xk−1 )
= 2 (X1 + X2 + . . . + Xk−2 + 2(X1 + X2 + . . . + Xk−2 ))
= 2 × 3 (X1 + X2 + . . . + Xk−2 )
= 2 × 3 (X1 + X2 + . . . + Xk−3 + 2(X1 + X2 + . . . + Xk−3 ))
= 2 × 32 (X1 + X2 + . . . + Xk−3 )
...
= 2 × 3k−2 (pour tout k ≥ 2)
86 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Cette stratégie consiste donc à triplé la mise, jusqu’au premier instant où l’on gagne,
et l’on quitte le jeu :
3 Xk−1 si 1 = . . . = k−1 = −1
Xk =
0 sinon
Comme précédemment, on note T le premier instant où le joueur gagne, avec la convention
{T = ∞} = {1 = . . . = n = −1}
Sur chacun des évènements {T = k}, avec k ≥ 2, le joueur augmente son capital de la
somme
"k−1 # " k−1
#
X X
ZT 1T =k = 1T =k Xl l + Xk k = 1T =k − Xl + X k
l=1 l=1
"k−1 #
X
= 1T =k Xl = 1T =k 3k−2
l=1
Si le joueur gagne dès le premier, ou le second instant de jeu, il accroı̂t son portefeuille
d’une unité
ZT 1T =1 = X1 1T =1 = 1 × 1T =1
ZT 1T =2 = (−X1 + X2 ) 1T =2 = 1 × 1T =2
Si la chance ne lui sourit qu’au troisième instant, il accroı̂t son portefeuille de trois unités
ZT 1T =3 = (−[X1 + X2 ] + X3 ) 1T =3 = (1 + 2) × 1T =2
Les probabilités P(T < ∞), ou P(T = ∞), pour que le joueur gagne, ou bien perde, au
cours de la partie sont données respectivement par
n
X
P(T < ∞) = P(T = k)
k=1
Xn
= P(1 = . . . = k−1 = −1, k = 1)
k=1
n
X 1 1
= k
=1− n
2 2
k=1
1
P(T = ∞) = P(1 = . . . = n−1 = −1, n = −1) =
2n
3.2. CONTRÔLE DE MARTINGALES 87
L’accroissement moyen du portefeuille du joueur chanceux est alors donné par la formule
n−1
E(ZT 1T <∞ ) 1 3 1
E(ZT | T < ∞) = = / 1− n
E(1T <∞ ) 2 2 2
Néanmoins, sur l’évènement {T = ∞}, le joueur s’est endetté de
n
X
ZT 1T =∞ = −1T =∞ Xl = −1T =∞ 3n−1
l=1
Les deux exemples suivants illustrent ces modèles biphasés, plus ou moins abstraits.
Exemple 3.2.1 Soit (k )0≤k≤n une suite de v.a. réelles indépendantes, et centrées définies sur
un espace probabilisé (Ω, P). On considère la filtration naturelle
Fk = σ(0 , . . . , k )
associée à cette séquence aléatoire. Sur l’espace filtré (Ω, (F k )0≤k≤n , P), on définit la martingale
∀0 ≤ k ≤ n Yk = 0 + . . . + k = Yk−1 + k
88 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Fk = σ(0 , . . . , k ) = σ(Y0 , . . . , Yk )
∀ω ∈ Ω k (ω) ∈ Ek = {uk , vk }
alors on a
∀ω ∈ Ω Yk (ω) = Yk−1 (ω) + k (ω) ∈ Yk−1 (ω) + {uk , vk }
Autrement dit, nous avons
Exemple 3.2.2 Soit (k )0≤k≤n une suite de v.a. réelles, indépendantes, et centrées définies
sur un espace probabilisé (Ω, P). On considère la filtration naturelle
Fk = σ(0 , . . . , k )
associée à cette séquence aléatoire. Sur l’espace filtré (Ω, (F k )0≤k≤n , P), on définit la martingale
exponentielle
∀0 ≤ k ≤ n Yk = (1 + 0 ) . . . (1 + k ) = Yk−1 (1 + k )
Si les v.a. k ne prennent que deux valeurs
alors on a Fk = σ(Y0 , . . . , Yk ), et
Mn = gn (Y0 , . . . , Yn )
décrites dans la proposition 3.1.4, et définies par les formules de récurrence inverse
Vn (y0 , . . . , yn ) = gn (y0 , . . . , yn )
Vk (y0 , . . . , yk ) = E (Vk+1 (y0 , . . . , yk , Yk+1 ) | (Y0 , . . . , Yk ) = (y0 , . . . , yk ))
3.2. CONTRÔLE DE MARTINGALES 89
∀0 ≤ k ≤ n Vk (Y0 , . . . , Yk )
est l’unique martingale, par rapport à la filtration (Fk )0≤k≤n , dont la valeur terminale coı̈ncide
avec la v.a. recherchée
Vn (Y0 , . . . , Yn ) = gn (Y0 , . . . , Yn )
La solution de notre problème, si elle existe, nous sera donc donnée par les formules
k
X
∀0 ≤ k ≤ n Vk (Y0 , . . . , Yk ) = Mk = M0 + Xk ∆Yk
l=1
On commence par noter que la condition initiale M0 est nécessairement donnée par
M0 = V0 (Y0 )
Autrement dit, en raisonnant conditionnellement aux valeurs (Y0 , . . . , Yk−1 ), nous avons
Une simple soustraction de ces deux équations nous conduit à la valeur prévisible du processus
de contrôle prévisible
Vk (Y0 , . . . , Yk−1 , bk ) − Vk (Y0 , . . . , Yk−1 , ak )
Xk = ∈ Fk−1
(bk − ak )
Nous arrivons ainsi au théorème suivant.
Théorème 3.2.1 Pour toute fonction gn : Rn+1 → R, il existe une unique v.a.
initiale M0 ∈ F0 , et un unique processus de contrôle prévisible Xk ∈ Fk−1 , 1 ≤ k ≤ n,
tel que la martingale
k
X
∀0 ≤ k ≤ n M k = M0 + Xk ∆Yk
l=1
où (Vk )0≤k≤n désigne la famille de fonctions définies par les formules de récurrence
inverse
Preuve:
D’après la discussion précédente, il reste bien entendu à vérifier que la stratégie obtenue répond
bien à notre problème. On commence par remarquer que l’on a
D’autre part, en utilisant le fait que Yk est une martingale, on obtient la propriété suivante
de sorte que
et
On en conclut que
Pour conclure, supposons que la martingale (Yk )0≤k≤n forme un processus de Markov,
et la fonction gn ne dépend que du point terminal
gn (y0 , . . . , yn ) = hn (yn )
avec hn une fonction donnée. Dans ces conditions, et d’après les propriétés de Markov,
les fonctions (Vk )0≤k≤n définies par les formules de récurrence inverse ne dépendent
que du point terminal
Dans ces conditions, la stratégie de contrôle (M0 , (Xk )1≤k≤n ) s’exprime plus
simplement par les formules
Wk (bk ) − Wk (ak )
M0 = V0 (Y0 ) et Xk = (3.3)
(bk − ak )
A chaque étape k du jeu, notre joueur a pour objectif de quitter le jeu en optimisant
son espérance de gain. A cet instant k, le joueur dispose d’une information Fk , et
souhaite trouver un temps d’arrêt Tk avec Tk ≥ k, et tel que
Cas déterministe
Dans le cas déterministe où les Fk sont réduites à des algèbres triviales, l’ensemble Tk est
réduit à l’ensemble des entiers de k à n. Dans cette situation, l’enveloppe de Snell de la suite
de réel (zk )0≤k≤n est aussi déterministe Uk (ω) = uk , tout comme le temps d’arrêt optimal
Tk (ω) = tk introduit ci-dessus. L’indice tk correspond à un instant sur lequel ztk est supérieur
à toutes les valeurs zk , zk+1 , . . . , zn . Dans ces conditions, nous avons
Tk = {k, k + 1, . . . , n}
∀0 ≤ k ≤ n Fk = {∅, Ω} =⇒ ∀0 ≤ k ≤ n
uk = ztk = supl≥k zl
L’enveloppe de Snell (uk )0≤k≤n = (ztk )0≤k≤n , associée à une suite de réel (zk )0≤k≤n , peut être
décrite schématiquement par le diagramme suivant.
z(k)
uk z(tk)
z(n)
z(0)
0 l t(t) k t(k)
On peut noter que le suprémum des zk peut être atteint en différents instants. Le premier de
ces indices
tk = inf {k ≤ t ≤ n : zt = sup zl }
l≥k
correspond au premier instant où la suite (zt )k≤t≤n touche l’enveloppe de Snell (ut )k≤t≤n
D’autre part, nous avons
Par conséquent, ces instants (tk )0≤k≤n peuvent se calculer par les formules de récurrence inverse
tn = n =⇒ z tn = supt=n zt
tn−1 = (n − 1) 1zn−1 ≥ztn + tn 1zn−1 <ztn =⇒ ztn−1 = supt∈{n−1,n} zt
tn−2 = (n − 2) 1zn−2 ≥ztn−1 + tn−1 1zn−2 <ztn−1 =⇒ ztn−2 = supt∈{n−2,n−1,n} zt
... = ...
tk = k 1zk ≥ztk+1 + tk+1 1zk <ztk+1 =⇒ z tk = supt∈{k,k+1,...,n} zt
... = ...
t0 = 0 1z0 ≥zt1 + t1 1z0 <zt1 =⇒ z t0 = supt∈{0,...,n} zt
La suite (tk )0≤k≤n correspondant à la situation examinée dans la figure précédente est donnée
ci dessous
3.2. CONTRÔLE DE MARTINGALES 93
z(k)
uk z(tk)
z(n)
z(0)
0 l t(t) k t(k)
t(k)
0 l k n
Fig. 3.2 –
94 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Cas aléatoire
Dans le cas aléatoire, la situation peut se résoudre de façon similaire en introduisant la suite
de temps d’arrêt (Tk )0≤k≤n définie par les formules de récurrence inverse
Tn = n
Tk = k 1Zk ≥E(ZTk+1 | Fk ) + Tk+1 1Zk <E(ZTk+1 | Fk )
Pour vérifier que ces temps d’arrêt répondent au problème de Snell, on raisonne par
récurrence inverse sur le paramètre temporel.
– Pour l’horizon terminal k = n, l’ensemble Tn des temps d’arrêt supérieur à n est réduit
au temps d’arrêt déterministe Tn (ω) = n. Dans cette situation, il est clair que l’on a
Tn (ω) = n ⇒ ZTn (ω) = Zn (ω) ⇒ E(ZTn | Fn ) = Zn = sup E(ZT | Fn )
T ∈Tn
On en conclut que
E(ZTk | Fk ) = Zk ∨ E(ZTk+1 | Fk )
= Zk 1T =k + E(ZTk+1 | Fk ) 1T ≥(k+1)
≤ Zk ∨ E(ZTk+1 | Fk )
3.2. CONTRÔLE DE MARTINGALES 95
Autrement dit, en terme d’enveloppe de Snell, nous avons démontré les majorations, et
les formules de récurrence inverse suivantes :
Zk ≤ Zk ∨ E(Uk+1 | Fk ) = Uk =déf. sup E(ZT | Fk ) = E(ZTk | Fk )
T ∈Tk
Comme dans le cas déterministe, l’enveloppe de Snell majore la suite Zk , et les temps
d’arrêt Tk correspondent aux premiers instants de rencontre entre ces deux processus
Tk = inf {k ≤ t ≤ n : Zt = Ut }
3.2.6 Exercices
Exercice 3.2.1 Vérifier que les fonctions constantes T (ω) = k, sont des temps d’arrêts par
rapport à une filtration quelconque d’algèbre.
Exercice 3.2.2 Soit (Xk )0≤k≤n un processus de Markov, à valeurs dans un espace E, et défini
sur un espace probabilisé filtré (Ω, (Fk )0≤k≤n ). On convient que le processus est initialisé avec
une v.a. X0 à valeurs dans une région A ⊂ E donnée. Montrer que le temps de sortie S A de A
SA = inf {0 ≤ k ≤ n : Xk 6∈ A}
est un temps d’arrêt. On note enfin TB l’instant d’impact du processus dans une région B ⊂ E
TB = inf {0 ≤ k ≤ n : Xk ∈ B}
Montrer que TB est un temps d’arrêt. Pour éviter des discussions inutiles, on pourra supposer
que A ∩ B = ∅.
Exercice 3.2.3 Soit T un temps d’arrêt par rapport à une filtration donnée (F k )leqk≤n .
On considère une sous-martingale (Mk )0≤k≤n sur l’espace probabilisé filtré (Ω, (Fk )leqk≤n , P).
Montrer que le processus arrété (MkT )0≤k≤n est une sous-martingale. Vérifier enfin que le
processus arrêté (MkT )0≤k≤n d’une sur-martingale est à nouveau une sur-martingale.
Exercice 3.2.4 On note (Zk )1≤k≤n le processus des gains et pertes du joueur
k
X
∀1 ≤ k ≤ n Zk = Xl l
l=1
Le processus prévisible (Xk )1≤k≤n représente la stratégie utilisée par le joueur, les v.a. de
Bernoulli (k )1≤k≤n , à valeurs dans {−1, +1}, représente les gains et pertes aléatoires, à chaque
étape du jeu. Plutôt que de miser le double des pertes subies au cours du jeu, qui peut s’avérer
trop coûteux, le joueur peut aussi envisager de ne miser qu’une plus faible proportion (1+α) > 1
de ce pertes.
1. Proposer un modèle probabiliste associé à cette stratégie d’arrêt.
2. Montrer que l’on a
ZT 1T =k = α (2 + α)k−2 1T =k
3. Vérifier que
1 α n−1
E(ZT 1T <∞ ) = 1+
2 2
Exercice 3.2.5 Soit (Yk )0≤k≤n un processus de Markov, à valeurs dans les espaces (Ek )0≤k≤n ,
de probabilités de transitions (Mk )0≤k≤n , et de loi initiale η0 . On associe à toute fonction fn
sur En , le processus (Zk (fn ))0≤k≤n défini par
∀0 ≤ k ≤ n Zk (fn ) = E(fn (Yn ) | Yk ) = Mk+1 Mk+2 . . . Mn (fn )(Yk )
avec la convention Mk+1 Mk+2 . . . Mn = Id, lorsque k = n.
1. Montrer que (Zk (fn ))0≤k≤n est une martingale par rapport à la filtration naturelle
(FkY )0≤k≤n associée au processus (Yk )0≤k≤n .
2. On considère la suite de fonctions (Vk )0≤k≤n définies par la formule de récurrence inverse
Vn (yn ) = fn (yn )
Vk (yk ) = E(Vk+1 (Yk+1 ) | Yk = yk )
Montrer que l’on a
∀0 ≤ k ≤ n Vk = Mk+1 Mk+2 . . . Mn (fn )
En déduire que le processus (Vk (Yk ))0≤k≤n coı̈ncide avec (Zk (fn ))0≤k≤n .
3.2. CONTRÔLE DE MARTINGALES 97
Exercice 3.2.6 Soit (Zk )0≤k≤n une suite de nombres réels aléatoire sur un espace probabilisé
filtré (Ω, (Fk )0≤k≤n ). Soit (Uk )0≤k≤n l’enveloppe de Snell associée à (Zk )0≤k≤n définie par la
formule suivante
Uk =déf. = sup E(ZT | Fk ) (≥ Zk )
T ∈Tk
où Tk désigne l’ensemble des temps d’arrêts T supérieurs ou égaux à k. On note (T k )0≤k≤n les
temps d’arrêt correspondent aux premiers instants de rencontre entre ces deux processus
Tk = inf {k ≤ t ≤ n : Zt = Ut }
Exercice 3.2.7 Soit (Xk )0≤k≤n une chaı̂ne de Markov à valeurs dans des espaces (Ek )0≤k≤n ,
et définie sur un espace probabilisé filtré canonique (Ω, (FkX )0≤k≤n ). Soit (Uk )0≤k≤n l’enveloppe
de Snell associée à la suite de nombres aléatoires (Zk )0≤k≤n définie par
Zk = gk (Xk )
où (gk )0≤k≤n désigne une suite de fonctions numériques sur les espaces (Ek )0≤k≤n .
1. On note Mk (xk−1 , xk ) les probabilités de transitions de la chaı̂ne Xk
Montrer que l’enveloppe de Snell (Uk )0≤k≤n peut s’écrire sous la forme suivante
Uk = Uk (Zk )
avec la suite de fonctions (Uk )0≤k≤n sur les espaces (Ek )0≤k≤n définies par les formules
de récurrence inverse
Un (xn ) = gn (xn )
Uk (xk ) = gk (xk ) ∨ Mk+1 (Uk+1 )(xk ) (= gk (xk ) ∨ E(Uk+1 (Xk+1 ) | Xk = xk ))
98 CHAPITRE 3. ÉLÉMENTS DE LA THÉORIE DES MARTINGALES
Chapitre 4
Mathématiques financières
Un marché financier est représenté par l’évolution d’un certain nombre d’actifs. Ces actifs
sont parfois appelés des titres, ou des actions. L’évolution temporelle du prix d’une part d’un
titre est représenté par la donnée d’une chaı̂ne de Markov (Sk )0≤k≤n . Dans ces notes, nous ne
considérerons que des évolutions discrètes. L’unité de temps peut correspondre à une année,
un mois, une heure, une seconde, ou encore à la clôture de la bourse chaque jour à 17 heures.
Afin de simplifier l’exposé, nous n’examinerons que des marchés à deux titres (Sk1 )0≤k≤n , et
(Sk2 )0≤k≤n :
Le premier actif Sk1 , joue un rôle bien particulier. Il représente le cours d’un titre non risqué,
tel un livret de caisse d’épargne, un bon du trésor à taux fixe ou prévisible, ou encore une
obligation. Les obligations sont des dettes d’entreprises rémunérées à taux fixe, et convertibles
en actions, en cas de croissance. Le second actif Sk2 joue lui aussi un rôle bien particulier. Il
représente le cours d’une part d’un titre risqué, tel les actions de compagnie privées cotées en
bourse.
Le paramètre n joue le rôle d’un horizon temporel, et terminal fixé, souvent appelé horizon
du marché. Dans l’étude qui suit, il représente à la fois, le temps d’observation du marché, ainsi
que la date d’échéance des activités économiques considérées.
Nous conviendrons pour simplifier, que ces rendements sont discrets, en ce sens où les v.a.
Uki sont à valeurs dans des espaces finis. Cette hypothèse est assez réaliste car les processus
de prix Ski correspondent à des informations bancaires, ou à des cotations boursières, toujours
données avec un nombre fini de chiffres après la virgule.
99
100 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
F0 ⊂ F1 ⊂ . . . ⊂ Fn−1 ⊂ Fn = P(Ω)
L’algèbre terminale contenant toute l’information sur les évolution des prix jusqu’à
l’échéance, coı̈ncide avec l’algèbre engendrée par les singletons {ω} de tous les
évènements élémentaires de Ω. Autrement dit, les investisseurs ont de plus en plus
d’information, et à la date d’échéance n, ils peuvent déterminer avec certitude la
succession des aléa qui se sont produits.
Le choix de l’espace probabilisé filtré (Ω, (Fk )0≤k≤n , P) est loin d’être unique. Néanmoins,
comme les cours des actions (S02 , . . . , Sk2 ) sont connus au temps k, on doit avoir
Fk ⊃ σ(S02 , . . . , Sk2 )
D’autre part, puisque l’investisseur peut prévoir l’évolution de l’actif sans risque à chaque
date k, les taux d’intérêts instantanés ∆Uk1 de ces actifs sont prévisibles
∆Uk1 ∈ Fk−1
Autrement dit, à la date k, l’investisseur connaı̂t Uk1 . Ceci se traduit mathématiquement par le
fait que la v.a. est Fk−1 mesurable, ce que l’on note Uk1 ∈ Fk−1 .
Il en est tout autrement de l’évolution du cours de l’actif risqué. Au temps (k − 1),
l’investisseur ne connaı̂t pas Uk2 . Il doit attendre la prochaine cotation au temps k. Plus
formellement, nous avons
∆Uk2 ∈ Fk
Par construction, le processus de prix (Sk1 , Sk2 )0≤k≤n est une chaı̂ne de Markov discrète, et
adaptée à la filtration (Fk )0≤k≤n . On conviendra que les prix des actifs Ski sont des v.a.
strictement positives.
L’actif Sn1 étant sans risque, il est naturel de considérer que
∀1 ≤ k ≤ n ∆Uk1 ≥ 0
Ainsi par exemple, un investissement initial de S01 = 1 Euro dans l’actif sans risque permet
de disposer de Sk1 = Ek (U 1 ) Euros, après k unités de temps. Lorsque le taux d’intérêt par unité
de temps est constant, et déterministe
∆Uk1 = r
4.1. PETIT DICTIONNAIRE FINANCIER 101
Le prix réactualisé d’une action Ski est alors défini par la quantité
i
S k = βk Ski = Ek (U 1 )−1 Ski
1
On notera que la valeur de l’actif sans risque réactualisés S k = 1 peut s’interpréter comme une
unité monétaire de référence. On remarque aussi que le prix réactualisé de l’actif risqué, calculé
dans cette monnaie de référence et plus forte, est toujours inférieur au prix courant
2
S k = Ek (U 1 )−1 Sk2 ≤ Sk2
Pour conclure, notons que l’actif sans risque peut aussi être interprété comme la
rémunération d’un prêt financier. Dans ce contexte, S01 = 1 Euro prêté, rapportera Sk1 Euros à
son investisseur, après k unités de temps. Ainsi, un investisseur proposant un prêt de 100.000
Euros, avec un taux d’intérêt fixe de R = 4% par an, s’assure une rémunération de 4.000
Euros dans l’année. Pour estimer le rendement quotidien r, dans un marché journalier, on doit
résoudre l’équation
1
(1 + r)365 = 1 + R = 1, 04 =⇒ r = 1, 04 365 − 1 ' 1, 0746 10−4
Les 100.000 Euros rapportent ainsi
100.000 × 1, 0746 10−4 = 10, 746 Euros
par jour, et dans l’année
100.000 × (1 + r)365 = 100.000 × (1 + R) = 100.000 + 4.000 = 104.000 Euros
Exercice 4.1.1 On considère le modèle de marché suivant
Ω S0 = (S01 , S02 ) S1 = (S11 , S12 )
ω1 (1; 4) (1, 05; 5)
ω2 (1; 4) (1, 05; 10)
1. Construire l’arbre des épreuves représentant l’évolution de ce marché financier.
2. On note F0 = σ(S0 ), et F1 = σ(S0 , S1 ) les algèbres représentant l’information disponible
à l’origine, et au temps 1. Montrer que
F0 = {∅, Ω} et F1 = {∅, Ω, {ω 1}, {ω 2 }} = P(Ω)
∆S11
3. Calculer le taux d’intérêt r = S01
de l’actif sans risque.
Exercice 4.1.2 Résoudre les mêmes questions que celles posées dans l’exercice 4.1.1 pour le
modèle de marché financier suivant
Ω S0 = (S01 , S02 ) S1 = (S11 , S12 ) S2 = (S21 , S22 )
ω1 (1; 5) (1, 05; 10) (1, 10; 20)
ω2 (1; 5) (1, 05; 5) (1, 10; 10)
ω3 (1; 5) (1, 05; 5) (1, 10; 5)
102 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Contrairement aux valeurs des titres Ski , les v.a. Φik peuvent être négatives. Si Φ1k est négatif,
cela signifie qu’il y a eu vente à découvert de (−Φ1k ) parts du titre non risqué. Vendre à découvert
signifie dans le jargon financier que l’on vend des actions que l’on ne possède pas ! On peut
aussi interpréter le cas où Φ1k est négatif comme un emprunt, et une dette de (−Φ1k Sk1 ) Euros.
Cette situation peut encore refléter la prise en pension, ou le rachat de (−Φ1k ) parts de titres
non risqués (au coût Sk1 ). Dans tous les cas, lorsque Φ1k est négatif, on reçoit une somme de
(−Φ1k Sk1 ) Euros, à investir si possible sur des actifs risqués pour rembourser la dette.
Le cas où Φ1k est positif correspond plutôt à une vente de Φ1k titres non risqués, et à un
gain de (Φ1k Sk1 ) Euros.
A titre illustratif, examinons les stratégies de gestion de portefeuilles dans un marché
financier sur deux périodes de temps. Tout d’abord, on remarquera que la valeur d’un
portefeuille initial formé de Φi0 parts de titres §i0 est donné par
Si V0 (Φ) ≥ 0, on doit débourser V0 (Φ) Euros pour son acquisition. Si au contraire V0 (Φ) < 0,
nous recevrons (−V0 (Φ)) Euros lors de son acquisition. L’investisseur réaménage son portefeuille
en Φi1 parts de titres S0i , de sorte à avoir
A cet instant l’investisseur peut profiter de l’information qu’il a acquise F1 = σ(S0 , S1 ), pour
modifier son portefeuille. Avec le montant obtenu lors de l’opération initiale V1 (Φ), il réaménage
son portefeuille en Φ2 = (Φ12 , Φ22 ), de sorte que
Dans la description précédente, nous avons implicitement supposé que les stratégies de
gestion Φk = (Φ1k , Φ2k ) de portefeuilles sont prévisibles et autofinancées.
En terme des variations des quantités d’actifs, cette condition d’autofinancement est équivalente
au fait que
∆Φ1k+1 × Sk+11
+ ∆Φ2k+1 × Sk+12
=0
L’autofinancement met ainsi de coté les investisseurs prélevant une partie des gains
réalisés, ou injectant de l’argent frais pour couvrir les pertes subies. On notera que cette est
automatiquement vérifiée dès lors que l’investisseur est passif, c’est à dire lorsque Φ k = Φk+1 . On
remarquera enfin que les variations des valeurs des portefeuilles autofinancés sont uniquement
liées aux variations des prix des actifs
1. ∀ω ∈ Ω V0 (Φ)(ω) = 0.
2. ∀ω ∈ Ω Vn (Φ)(ω) ≥ 0.
3. ∃ω ∈ Ω Vn (Φ)(ω) > 0.
Autrement dit, une telle stratégie permet , avec un investissement initial nul (1), et sans essuyer
de pertes (2), d’avoir à l’échéance k = n la possibilité de réaliser un gain (3).
Nous dirons qu’un marché financier est viable s’il n’existe aucune opportunité
d’arbitrage.
Une option européenne est un droit conditionnel intervenant initialement entre deux
parties : le vendeur et l’acheteur. A une date d’échéance n, elle permet à l’acquéreur
de vendre ou acheter une part du titre risqué à un prix K fixé initialement, et appelé
prix d’exercice. Il existe deux types d’options. Les options de vente, et les options
d’achat, appelées parfois sur les marchés financiers les “put”et les “call”.
– Une option (européenne) de vente (un “put”), permet à l’acquéreur de vendre une
part du titre risqué à un prix K fixé initialement, et appelé prix d’exercice.
Deux cas se présentent : Si Sn2 < K, l’acquéreur vendra sa part de titre risqué à un
montant K (bien) supérieur à celui qu’il obtiendrait sur le marché financier, soit au prix
Sn2 . Par contre, si Sn2 ≥ K, l’acquéreur n’exercera pas son option, car il obtiendra un
meilleur prix sur le marché.
104 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
La fonction de paiement, ou la valeur de cette option de vente, est la v.a. donnée par
la formule
f = (K − Sn2 )+
– Une option (européenne) d’achat (un “call”), permet à l’acquéreur d’acheter une
part du titre risqué à un prix K fixé initialement, et appelé prix d’exercice.
Deux cas se présentent : Si Sn2 > K, l’acquéreur achètera sa part de titre risqué à un
montant K (bien) inférieur à celui qu’il obtiendrait sur le marché financier, soit au prix
Sn2 . Par contre, si K ≥ Sn2 , l’acquéreur n’exercera pas son option, car il pourra acheter le
titre risqué à un meilleur prix sur le marché.
La fonction de paiement, ou la valeur de cette option de vente, est la v.a. donnée par
la formule
f = (Sn2 − K)+
Le vendeur de telles options n’offrira pas de tels avantages à son client sans échange ! Le
prix de l’option, ou de ce droit conditionnel, correspond au montant versé initialement par
l’acheteur au vendeur, pour acquérir cette option.
Le vendeur de son coté acceptera tout montant lui permettant l’acquisition d’un
portefeuille dont la valeur à l’échéance n sera supérieure ou égale, à la fonction de
paiement qu’il s’est engagé à honorer. Un tel portefeuille est appelé un portefeuille
de couverture. Le plus petit montant lui permettant d’honorer sans perte ses
engagements est donné par la formule
Ainsi, le plus grand montant qu’il acceptera de payer est donné par la formule
4.1.4 Exercices
Exercice 4.1.3 On considère le modèle de marché suivant
Ω S0 = (S01 ; S02 ) S1 = (S11 ; S12 )
ω1 (1; 4) (1, 05; 5)
ω2 (1; 4) (1, 05; 10)
2. Calculer les valeurs possibles du portefeuille après évolution du cours des actifs. risqués.
3. Trouver une stratégie pour gagner au moins 800 Euros à moindre frais.
Le modèle binomial sur une période correspond au tableau des épreuves suivant :
Ce marché financier s’exprime donc de façon naturelle sur l’espace des aléas
Ω = {ω 1 , ω 2 }
A l’instant suivant, les nouveaux prix des actifs S1 = (S11 , S12 ) sont annoncés, et notre portefeuille
prend la valeur
V1 (Φ) = Φ11 S11 + Φ21 S12 = Φ11 (1 + r) + Φ21 S12
Dans les deux premiers cas, les stratégies d’arbitrages sont claires.
Cas 1 :
Dans cette situation, les prix des actifs risqués sont toujours supérieurs aux prix des actifs
non risqués. Il est clairement plus avantageux de vendre à découvert ou emprunter le plus de
parts possibles d’actifs sans risques, pour acheter des actifs risqués.
Un portefeuille peu coûteux consiste initialement à vendre à découvert ms 0 parts d’actifs non
risqués, pour acheter m parts d’actifs risqués. Plus formellement, on aménage notre portefeuille
initial somme suit
Φ1 = (Φ11 , Φ21 ) = (−ms0 , m)
Le coût d’acquisition d’un tel portefeuille est nul :
A l’instant suivant k = 1, nous vendons les m parts de titres risqués, et nous remboursons
notre prêt de ms0 actifs non risqués avec les intérêts. L’aménagement du portefeuille
correspondant est donné par
Cas 2 :
Dans cette situation, les prix des actifs non risqués sont toujours supérieurs aux prix des
actifs risqués. Ces conditions peuvent aussi refléter une conjoncture où les placements bancaires
sont à des taux si élevés, qu’il est préférable de placer son argent plutôt que d’acheter des actifs,
ici très risqués.
Il est clairement ici plus avantageux de vendre à découvert le plus de parts d’actifs risqués,
disons m parts, et placer cette somme d’argent ms0 dans un compte épargne (i.e. en investissant
dans ms0 parts d’actifs non risqués). Plus formellement, on aménage notre portefeuille initial
somme suit
Φ1 = (Φ11 , Φ21 ) = (ms0 , −m)
A l’instant suivant k = 1, en revendant les ms0 parts de titres non risqués avec les intérêts,
nous achetons m parts d’actifs risqués. L’aménagement du portefeuille correspondant est donné
par
Φ2 = Φ1 = (Φ11 , Φ21 ) = (ms0 , −m)
Cas 3 :
Le troisième cas correspond à la situation où un investissement sur l’actif risqué peut ou non
être plus avantageux, qu’un investissement sur l’actif non risqué.
Dans cette situation, on notera qu’un défaut d’investissement initial
une banque souhaite proposer à des investisseurs une option de vente, avec pour la date
d’échéance n = 1, la fonction de paiement f (ω i ) = fi ∈ R+ , i = 1, 2. Ce modèle de marché peut
être représenté synthétiquement par le tableau suivant :
Ω S0 = (S01 , S02 ) S1 = (S11 , S12 ) f
ω1 (1; s0 ) ((1 + r); s1,1 ) f1
ω2 (1; s0 ) ((1 + r); s1,2 ) f2
Afin d’offrir à ses clients un prix compétitif de droit conditionnel, tout en honorant ses
engagements, la banque vendra son option de vente au montant suivant
Avec ces notations, la condition d’autofinancement d’un portefeuille de coût initial x, s’exprime
sous la forme suivante
V0 (Φ) = φ1 × 1 + φ2 s0 = x
Minoration du prix
La propriété de couverture dans ce marché binomial s’exprime simplement par les deux
formules
V1 (Φ)(ω 1 ) = φ1 (1 + r) + φ2 s1,1 ≥ f1
V1 (Φ)(ω 2 ) = φ1 (1 + r) + φ2 s1,2 ≥ f2
V0 (Φ) = φ1 + φ2 s0
1 s0 1
≥ max φ + [fi − φ (1 + r)]
i=1,2 s1,i
s0 1 s0 (1 + r)
= max fi + φ 1 −
i=1,2 s1,i s1,i
110 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Afin de s’assurer que cette borne inférieure est atteinte, on remarque que la stratégie
d’investissement
?,1 s1,2 f1 − s1,1 f2 1 f2 − f 1
φ = = f1 − s1,1
(1 + r)(s1,2 − s1,1 ) 1+r s1,2 − s1,1
f 2 − f 1
φ?,2 =
s1,2 − s1,1
Le couple Φ?1 = (φ?,1 , φ?,2 ) est parfois appelé formule du delta de couverture.
4.2. MODÈLE BINOMIAL SUR UNE PÉRIODE 111
s1,2 − s0 (1 + r) s0 (1 + r) − s1,1
C ? (f ) = × f1 + × f2
(s1,2 − s1,1 )(1 + r) (s1,2 − s1,1 )(1 + r)
Par des arguments analogues à ceux utilisés dans l’analyse du point de vue du vendeur, nous
avons l’équivalence suivante
f1 − φ1 (1 + r) f2 − φ1 (1 + r)
V1 (Φ) ≤ f ⇐⇒ φ2 ≤ min ;
s1,1 s1,2
Cette équivalence conduit aisément à la majoration
s0
V0 (Φ) = φ1 + φ2 s0 ≤ min φ1 + [fi − φ1 (1 + r)]
i=1,2 s1,i
D’après les calculs précédents, on obtient la majoration
s0 s0
V0 (Φ) ≤ φ?,1 + [f1 − φ?,1 (1 + r)] = φ?,1 + [f2 − φ?,1 (1 + r)]
s1,1 s1,2
avec
s1,2 f1 − s1,1 f2
φ?,1 =
(1 + r)(s1,2 − s1,1 )
La formule du delta de couverture nous permet de conclure que le vendeur et l’acheteur
s’entendront sur un prix égal à
C(f ) = C? (f ) = C ? (f )
1 s1,2 − s0 (1 + r) s0 (1 + r) − s1,1
= × f1 + × f2
1+r (s1,2 − s1,1 ) (s1,2 − s1,1 )
1 s1,2 − s0 (1 + r) s1,2 − s0 (1 + r)
= × f1 + 1 − × f2
1+r (s1,2 − s1,1 ) (s1,2 − s1,1 )
112 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Ω= {w^1,w^2}
overline{s}_{1,1}=s_{1,1}/(1+r) w^1
overline{s}_0=s_0
(1−p)
overline{s}_{1,2}=s_{1,2}/(1+r) w^2
La propriété de martingale 2
2 2
E? S 1 | S 0 = S 0
overline{s}_{0}=s_0
overline{s}_{1,1}=s_{1,1}/(1+r) overline{s}_{1,2}=s_{1,2}/(1+r)
A =[s_0−overline{s}_{1,1}] B=[overline{s}_{1,2}−s_0]
A+B=[overline{s}_{1,2}−overline{s}_{1,1}]
Après avoir neutraliser le marché financier, on note que les valeurs des portefeuilles réactualisés
114 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
2 2
V 1 (Φ) = V 0 (Φ) + Φ21 [S 1 − S 0 ]
g1 (s1,2 ) − g1 (s1,1 ) f − f1
Φ21 = = 2
s1,2 − s1,1 s1,2 − s1,1
g1 (s1,2 ) − g1 (s1,1 )
Φ11 = V 0 (Φ) − Φ21 s0 = g0 (s0 ) − s0
s1,2 − s1,1
s0 − s1,2 s0 − s1,2 f − f1
= f1 + 1 − f2 − 2 s0
s1,1 − s1,2 s1,1 − s1,2 s1,2 − s1,1
s0 − s1,2 s0 s1,1 − s0 s0
= − f1 + + f2
s1,1 − s1,2 s1,2 − s1,1 s1,1 − s1,2 s1,2 − s1,1
s1,2 f 1 − s1,1 f 2
Φ11 =
s1,2 − s1,1
Ces portefeuilles de couverture peuvent être retrouvés plus facilement en utilisant la formule
du delta de couverture décrite à la page 110.
4.2.4 Exercices
Exercice 4.2.1 On appelle le rendement instantané d’un titre Sk au temps k, la quantité RkS
définie par
Sk − Sk−1 ∆Sk
RkS = =
Sk−1 Sk−1
On rappelle que Sk représente le prix d’une part d’un titre donné au temps k. On note
(Sk1 , Sk2 )k=0,1 le modèle à deux états décrit par le tableau
s1,2 − s0 (1 + r)
P? (ω 1 ) = p? =déf. ∈ (0, 1)
(s1,2 − s1,1 )
P(ω 1 ) = p = 1 − P(ω 2 )
2. Déduire de la question précédente que le rendement instantané du titre risqué est supérieur
à celui du titre non risqué, si la probabilité p est suffisamment petite.
3. Montrer que sous P? , le rendement instantané du titre risqué est le même que celui du
titre non risqué.
Exercice 4.2.2 On considère le modèle de marché viable décrit dans l’exercice 4.2.1.
1 2
1. Décrire les prix des actifs réactualisés (S k , S k )k=0,1 , ainsi que les valeurs réactualisées
d’un portefeuille (V k (Φ))k=0,1 associé à une stratégie d’aménagement Φ1 = (Φ11 , Φ21 ).
2. Vérifier que l’on a
Φ11 = V 0 (Φ) − Φ21 s0
et montrer que
2 2
V 0 (Φ) = Φ11 + Φ21 s0 et V 1 (Φ) = V 0 (Φ) + Φ21 [S 1 − S 0 ]
3. En déduire que les valeurs réactualisées des portefeuilles (V k (Φ))k=0,1 sont des P? -
martingales.
Exercice 4.2.3 Déterminer les valeurs réactualisées des portefeuilles V k (Φ) = Vk (Φ)/(1 + r)k
i
aux instants k = 0, 1, en fonction des prix des actifs réactualisés S k = Ski /(1 + r)k . Vérifier les
formules suivantes :
2 2
∆V 1 (Φ) = Φ21 × ∆S 1 et Φ11 = V 0 (Φ) − Φ21 × S 0
Exercice 4.2.4 On considère le modèle de marché à deux états sur une période (S k1 , Sk2 )k=0,1
décrit par le tableau suivant
Exercice 4.2.5 On considère un modèle de marché viable décrit par le tableau suivant
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 )
ω1 (1; s0 ) (1; s1,1 ) avec 0 < s1,1 < s0 < s1,2
ω2 (1; s0 ) (1; s1,2 )
où φ1, ? désigne le point d’intersection des deux droites (∆i )i=1,2 déterminées par les
équations suivantes :
s0 s0
∆i : φ1 7→ f i + φ1 1 −
s1,i s1,i
On vérifiera que la stratégie de couverture (φ1, ? , φ2, ? ) est l’unique solution du système
d’équations 1
φ + φ2 s1,1 = f 1
φ1 + φ2 s1,2 = f 2
3. Montrer que le coût initial du portefeuille (réactualisé) permettant de couvrir l’option est
donné par la formule
s1,2 − s0 s1,2 − s0
V 0 (Φ) = f 1 + f2 1 −
s1,2 − s1,1 s1,2 − s1,1
Exercice 4.2.6 Vérifier la viabilité des marchés suivants, et déterminer les prix C(f ), et les
stratégies de couverture (φ1, ? , φ2, ? ) dans chaque situation.
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 )
ω1 (1; 5) (1; s1,1 )
ω2 (1; 5) (1; s1,2 )
avec
s1,1 = 3 s1,1 = 1 s1,1 = 4
1) 2) 3)
s1,2 = 6 s1,2 = 10 s1,2 = 7
s1,1 = 1 s1,1 = 1 s1,1 = 2
4) 5) 6)
s1,2 = 6 s1,2 = 20 s1,2 = 7
s1,1 = 3 s1,1 = 4 s1,1 = 2
7) 8) 9)
s1,2 = 50 s1,2 = 100 s1,2 = 1000
Exercice 4.2.7 On considère un modèle de marché viable décrit par le tableau suivant
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 )
ω1 (1; s0 ) (1; s1,1 ) avec 0 < s1,1 < s0 < s1,2
ω2 (1; s0 ) (1; s1,2 )
Exercice 4.2.8 Déterminer les prix, et les stratégies de couverture des options de vente
suivantes
1 2 1 2 2
1) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+
ω1 (1; 5) (1; 3) 7
ω2 (1; 5) (1; 6) 4
1 2 1 2 2
2) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+
ω1 (1; 5) (1; 1) 7
ω2 (1; 5) (1; 10) 0
1 2 1 2 2
3) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+
ω1 (1; 5) (1; 2) 6
ω2 (1; 5) (1; 7) 1
1 2 1 2 2
4) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+
ω1 (1; 5) (1; 3) 7
ω2 (1; 5) (1; 50) 0
1 2 1 2 2
5) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (100 − S 1 )+
ω1 (1; 5) (1; 1) 99
ω2 (1; 5) (1; 20) 80
1 2 1 2 2
6) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+
ω1 (1; 5) (1; 2) 4
ω2 (1; 5) (1; 7) 0
1 2 1 2 2
7) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+
ω1 (1; 5) (1; 3) 3
ω2 (1; 5) (1; 50) 0
((1+r)^2,s_{2,1})
((1+r),s_{1,1})
((1+r)^2,s_{2,2})
(1,s_0)
((1+r)^2,s_{2,3})
((1+r),s_{1,2})
((1+r_^2,s_{2,4})
On notera enfin que ce modèle à deux périodes est une répétition du modèle à une période.
Plus précisément, sachant S1 = ((1 + r); s1,1 ), l’arbre des épreuves correspond exactement au
modèle binomial sur une période examiné dans la section précédente.
Afin d’éviter toute possibilité d’arbitrage, ce modèle de marché sur deux périodes
doit nécessairement satisfaire les trois conditions suivantes
L’égalité entre parenthèse dans la seconde formule, est une conséquence de la propriété
d’autofinancement des aménagements de portefeuilles. Leurs valeurs réactualisées définies par
Vk (Φ)
V k (Φ) =déf.
(1 + r)k
i Ski
∀i = 1, 2 S k =déf.
(1 + r)k
Les valeurs réactualisées des portefeuilles sont donc données par les formules
suivantes :
2 2
∀k = 1, 2 ∆V k (Φ) = Φ2k ∆S k et Φ1k = V k−1 (Φ) − Φ2k S k−1 (4.1)
4.3. MODÈLE À DEUX ÉTATS SUR DEUX PÉRIODES 121
k
X 2
∀0 ≤ k ≤ 2 V k (Φ) = V 0 (Φ) + Φ2l ∆S l
l=1
2
Par définition, les actifs risqués S k ne peuvent prendre que deux valeurs {ak , bk }, prévisibles
par l’investisseur. Plus précisément, nous avons
2
P? (S 1 ∈ {a1 , b1 } | F0 ) = 1 avec (a1 , b1 ) = (s1,1 , s1,2 )
2 (a2 , b2 )(ω 1 ) = (a2 , b2 )(ω 2 ) = (s2,1 , s2,2 )
P? (S 2 ∈ {a2 , b2 } | F1 ) = 1 avec
(a2 , b2 )(ω 3 ) = (a2 , b2 )(ω 4 ) = (s2,3 , s2,4 )
2 2
{ω ∈ Ω : S 1 (ω) = a1 } = {ω ∈ Ω : S 1 (ω) = s1,1 } = {ω 1 , ω 2 }
2 2
{ω ∈ Ω : S 1 (ω) = b1 } = {ω ∈ Ω : S 1 (ω) = s1,2 } = {ω 3 , ω 4 }
Les premières transitions des prix réactualisés sont alors données par les formules suivantes
2 2
P? (S 1 = s1,1 | S 0 = s0 ) = P? ({ω 1 , ω 2 })
2 2
P? (S 1 = s1,2 | S 0 = s0 ) = P? ({ω 3 , ω 4 })
peuvent s’écrire,
2 2
P? (S 2 = s2,1 | S 1 = s1,1 ) = P? (ω 1 | {ω 1 , ω 2 })
2 2
P? (S 2 = s2,2 | S 1 = s1,1 ) = P? (ω 2 | {ω 1 , ω 2 })
2
si le premier évènement {ω 1 , ω 2 } = {S 1 = s1,1 } se réalise, et dans le cas où le second évènement
2
{ω 3 , ω 4 } = {S 1 = s1,2 } se produit
2 2
P? (S 2 = s2,3 | S 1 = s1,2 ) = P? (ω 3 | {ω 3 , ω 4 })
2 2
P? (S 2 = s2,4 | S 1 = s1,2 ) = P? (ω 4 | {ω 3 , ω 4 })
Plus schématiquement, ces statistiques sont décrites par l’arbre des transitions suivant
122 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
s_{2,1}
P(w^1|{w^1,w^2})
s_{1,1}
P({w^1,w^2})
P(w^2|{w^1,w^2}) s_{2,2}
s_0
P(w^3|{w^3,w^4}) s_{2,3}
P({w^3,w^4})
s_{1,2}
P(w^4|{w^3,w^4}) s_{2,4}
2
La propriété de P? -martingale de l’actif risqué réactualisé S k peut être lue sur l’arbre,
en terme des formules de moyennisation suivantes
2 2 2
E? (S 1 | S 0 ) = S 0 ⇐⇒ s1,1 P? ({ω 1 , ω 2 }) + s1,2 P? ({ω 3 , ω 4 }) = s0
et
2 2 2 s2,1 P? (ω 1 |{ω 1 , ω 2 }) + s2,2 P? (ω 2 |{ω 1 , ω 2 }) = s1,1
E? (S 2 | S 1 ) = S 1 ⇔
s2,3 P? (ω 3 |{ω 3 , ω 4 }) + s2,4 P? (ω 4 |{ω 3 , ω 4 }) = s1,2
On déduit aisément de ces trois formules la nature de cette probabilité à risque neutre
s0 − s1,2
P? ({ω 1 , ω 2 }) = 1 − P? ({ω 3 , ω 4 }) =
s1,1 − s1,2
s1,1 − s2,2
P? (ω 1 |{ω 1 , ω 2 }) = 1 − P? (ω 2 |{ω 1 , ω 2 }) =
s2,1 − s2,2
s1,2 − s2,4
P? (ω 3 |{ω 3 , ω 4 }) = 1 − P? (ω 4 |{ω 3 , ω 4 }) =
s2,3 − s2,4
On en conclut que
s1,1 − s2,2 s0 − s1,2
P? (ω 1 ) = P? (ω 1 |{ω 1 , ω 2 }) × P? ({ω 1 , ω 2 }) =
×
s2,1 − s2,2 s1,1 − s1,2
? 2 ? 2 1 2 ? 1 2 s1,1 − s2,2 s0 − s1,2
P (ω ) = P (ω |{ω , ω }) × P ({ω , ω }) = 1 − ×
s2,1 − s2,2 s1,1 − s1,2
? 3 ? 3 3 4 ? 3 4 s1,2 − s2,4 s0 − s1,2
P (ω ) = P (ω |{ω , ω }) × P ({ω , ω }) = × 1−
s2,3 − s2,4 s1,1 − s1,2
? 4 ? 4 3 4 ? 3 4 s1,2 − s2,4 s0 − s1,2
P (ω ) = P (ω |{ω , ω }) × P ({ω , ω }) = 1 − 1−
s2,3 − s2,4 s1,1 − s1,2
associé à une fonction g. La couverture de cette option revient à trouver une stratégie (Φ 2k )k=1,2
prévisible, et une condition initiale V 0 (Φ), pour lesquelles le portefeuille réactualisé
k
X 2
V k (Φ) = V 0 (Φ) + Φ2l ∆S l
l=1
Sous la probabilité à risque neutre, nous savons que les valeurs des portefeuilles réactualisés
(V k (Φ))k=0,1,2 forment une P? -martingale. Dans ces conditions, le théorème 3.2.1 permet de
construire la stratégie de couverture.
On commence par introduire les fonctions (gk )k=0,1,2 définies par les équations de
récurrence inverse
2 2
g2 (S 2 ) = g(S 2 )
2 2 2
2 2
g1 (S 1 ) = E? (g2 (S 2 ) | S 1 ) = E? (g(S 2 ) | S 1 )
2 2 2
2 2 2
g0 (S 0 ) = E? (g1 (S 1 ) | S 0 ) = E? (g(S 2 ) | S 0 )) = E? (g(S 2 ))
∀1 ≤ i ≤ 4 g2 (s2,i ) = g(s2,i )
puis
et enfin
4
!
X
? 1 2 ? 3 4 ? i
g0 (s0 ) = g1 (s1,1 ) P ({ω , ω }) + g1 (s1,2 ) P ({ω , ω }) = g(s2,i )P (ω )
i=1
g1 (s1,1 ) − g1 (s1,2 )
Φ21 =
s1,1 − s1,2
et
( g(s2,2 )−g(s2,1 ) 2
g2 (b2 ) − g2 (a2 ) s2,2 −s2,1 sur {ω 1 , ω 2 } (i.e. si S 1 = s1,1 )
Φ22 = = g(s2,4 )−g(s2,3 ) 2
b2 − a 2 sur {ω 3 , ω 4 } (i.e. si S 1 = s1,2 )
s2,4 −s2,3
2 2
Autrement dit, en distinguant les événements {S 1 = s1,1 } ∈ F1 , et {S 1 = s1,2 } ∈ F1 , on obtient
la formule suivante.
124 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
D’après les propriétés d’autofinancement (voir par exemple 4.1), les aménagements
des actifs non risqués Φ1k sont donnés par les formules
2 2
Φ11 = V 0 (Φ) − Φ21 S 0 et Φ12 = V 1 (Φ) − Φ22 S 1
2
V 0 (Φ) = E? (g(S 2 )) = C ? (f ) = C? (f ) = g0 (s0 )
4.3. MODÈLE À DEUX ÉTATS SUR DEUX PÉRIODES 125
La neutralisation “virtuelle” du marché nous a permis de calculer le coût d’acquisition, ainsi que
2
la stratégie de financement (V 0 (Φ), (Φ21 , Φ22 )), permettant à l’émetteur d’une option f = g(S 2 )
d’honorer son contrat.
2 2 2
V 2 (Φ) = V 0 (Φ) + Φ21 ∆S 1 + Φ22 ∆S 2 = g(S 2 )
4.3.5 Exercices
Exercice 4.3.1 On considère un marché financier viable à deux états sur deux périodes. Un
émetteur d’une option f offre un prix C. Étudier les gains et pertes de ce vendeur dans les trois
cas de figure suivants
1) C = C ? (f ) , 2) C > C ? (f ) , et 3) C < C ? (f )
Exercice 4.3.2 On considère le modèle de marché réactualisé décrit par l’arbre des épreuves
suivant :
s_{2,1}=2 w^1
P(w^1|{w^1,w^2})
s_{1,1}=3
P({w^1,w^2})
P(w^2|{w^1,w^2}) s_{2,2}=7 w^2
s_0=5
P({w^3,w^4})
s_{1,2}=6
Les valeurs b, et h, représentent une baisse, ou une hausse du rendement. On conviendra que
ces fluctuations sont telles que
0<1+b<1+h
Comme dans le modèle binomial, le rendement de l’actif sans risque est supposé constant,
avec
1
S01 = 1 et ∆Sk1 =déf. ∆Uk1 = r
Sk1
∀0 ≤ k ≤ n Sk1 = Sk−1
1
(1 + ∆Uk1 ) = (1 + r)k
Ce modèle CRR est bien un cas particulier du modèle binomial, où l’actif risqué Sk2
ne peut prendre que deux valeurs possibles, sachant l’information accumulée Fk−1
jusqu’à cet instant
Sk2 ∈ {Sk−1
2 2
× (1 + b), Sk−1 × (1 + h)}
Les valeurs réactualisées des actifs risqués sont données par les formules de récurrence usuelles
2 2 2
∆S k = S k − S k−1
2 2
Sk2 Sk−1 Sk−1 (1 + ∆Uk2 ) 2
Sk−1
= − = −
(1 + r)k (1 + r)k−1 (1 + r)k−1 (1 + r) (1 + r)k−1
2
Sk−1 (1 + ∆Uk2 )
= × − 1
(1 + r)k−1 (1 + r)
2
2 ∆Uk − r
= S k−1 ×
1+r
ou encore
2 2 (1 + ∆Uk2 ) 2 1
S k = S k−1 = S0 (1 + ∆U12 ) . . . (1 + ∆Uk2 )
(1 + r) (1 + r)k
4.4. MODÈLE DE COX-ROSS-RUBINSTEIN 127
Examinons le marché CRR lorsque les rendements des actifs satisfont l’une des
conditions suivantes :
1. r<b<h
2. b<h<r
Dans les deux cas, il est très aisé de gagner beaucoup d’argent à coup sur̂, et sans
apport initial !
Par exemple dans la première situation, les actifs risqués ont un rendement supérieur à celui
des actifs sans risques. C’est le cas lorsque les comptes épargnes ont des taux plus faibles que
les rendements d’actions plus risquées. Dans ce cas, il faut emprunter à la banque, ou vendre à
découvert le maximum d’actif non risqués
pour acheter le plus possible Φ21 d’actifs risqués. La valeur d’acquisition du portefeuille initial
est tout simplement nulle
A la date n, on revend nos Φ21 parts d’actifs risqués, pour rembourser les Φ21 S02 parts d’actifs
non risqués empruntées initialement. Autrement dit, on utilise à nouveau la stratégie
On conviendra dans cette section que les rendements des actifs sont tels que
b<r<h
S02 = s0
On note Ω = {h, b}n l’ensemble des aléas élémentaires associés aux tendances aléatoires des
rendements des actifs risqués. Les v.a. (∆Uk2 )1≤k≤n sont définies par les fonctions coordonnées
canoniques
∀ω = (ωk )1≤k≤n ∈ Ω ∀1 ≤ k ≤ n ∆Uk2 (ω) = ωk
128 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
On note enfin
Fk = σ(∆U12 , . . . , ∆Uk2 )
la filtration d’information connue à chaque instant 1 ≤ k ≤ n, avec la convention F 0 = {∅, Ω}.
Proposition 4.4.1 Il existe une seule probabilité P? sur l’espace des aléas filtré
2
(Ω, (Fk )0≤k≤n ) sous laquelle les prix réactualisés de actifs risqués (S k )0≤k≤n
forment une martingale. De plus, sous P? , les v.a. de rendement (∆Uk2 )0≤k≤n sont
indépendantes et équidistribuées selon la loi
h−r
P? (∆U12 = b) = 1 − P? (∆U12 = h) =
h−b
4.4. MODÈLE DE COX-ROSS-RUBINSTEIN 129
Preuve:
L’existence de P? résulte de la série d’équivalences suivantes
2
2 2 2
∆Uk −r
E? (S k | Fk−1 ) = E? S k−1 1+r | F k−1 = S k−1
⇐⇒ E? (∆Uk2 | Fk−1 ) = r
La construction de P? décrite ci-dessus souligne le fait que ∆Uk2 est une v.a. indépendante de
Fk−1 , et a fortiori des v.a. de rendements passés ∆U12 , . . . , ∆Uk−1
2
. Ceci démontre l’unicité de
?
P , et achève ainsi la preuve de la proposition.
Plus précisément, en terme de la loi binomiale de comptage des hausses et baisses, on a pour
130 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Comme d’habitude, la condition d’autofinancement permet de trouver les parts d’actifs non
risqués qu’il convient d’acquérir pour couvrir l’option
2 2
V k−1 (Φ) = Φ1k−1 + Φ2k−1 S k−1 = Φ1k + Φ2k S k−1
2
=⇒ Φ1k = V k−1 (Φ) − Φ2k S k−1
D’autre part, d’après le théorème 3.2.1, les valeurs du portefeuille de couverture réactualisé sont
données par les fonctions (gk )0≤k≤n . Plus précisément, nous avons
2
∀0 ≤ k ≤ n V k (Φ) = gk (S k )
On en conclut que
2 2
Φ1k = gk−1 (S k−1 ) − Φ2k S k−1
2 1+r 2 1+h 2 1+b
= gk−1 (S k−1 ) − gk S k−1 − gk S k−1
h−b 1+r 1+r
En utilisant les formules de récurrence inverse (4.2), on a aussi
1 2 1+b h−r 2 1+h r−b
Φk = gk S k−1 × + gk S k−1 ×
1+r h−b 1+r h−b
1+r 2 1+h 2 1+b
− gk S k−1 − gk S k−1
h−b 1+r 1+r
1 2 1+b 2 1+h
= (h + 1) gk S k−1 − (b + 1) gk S k−1
h−b 1+r 1+r
D’autre part, pour toute stratégie (V 0 (Φ0 ), (Φ0k 2 )1≤k≤n ), nous avons
2 2
V n (Φ0 ) ≤ g(S n ) =⇒ V 0 (Φ0 ) = E? (V n (Φ0 )) ≤ E? (g(S n ))
2 2
V n (Φ0 ) ≥ g(S n ) =⇒ V 0 (Φ0 ) = E? (V n (Φ0 )) ≥ E? (g(S n ))
Il en découle les majorations suivantes
n 2
o
C? (f ) = sup x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V 0 (Φ) = x et V n (Φ) ≤ g(S n )
2
≤ E? (g(S n ))
et
2
E? (g(S n )) ≤ C ? (f )
n 2
o
= inf x ∈ [0, ∞) : ∃(Φk )0≤k≤n t.q. V 0 (Φ) = x et V n (Φ) ≥ g(S n )
4.4.6 Exercices
Exercice 4.4.1 On considère un marché financier CRR où les actifs non risqués sont plus
rentables que les actif risqués (i.e. b < h < r). C’est le cas de conjonctures économiques où les
comptes épargnes bancaires ont des taux plus élevés que les rendements d’actions plus risquées.
Développer une stratégie d’arbitrage dans ce marché financier.
Exercice 4.4.2 On considère un marché financier CRR où les actifs non risqués et risqués
sont tels que
b<r<h
Décrire explicitement la mesure martingale P? sur Ω.
Exercice 4.4.3 Montrer que l’existence de P? entraine qu’un investisseur ne peut arbitrer le
marché financier.
Exercice 4.4.4 On considère un marché financier CRR avec des rendements d’actifs tels que
b < r < h. La statistique d’évolution des prix d’actifs associées à une conjoncture économique
à tendance à la hausse, est représentée par la donnée d’une mesure de probabilité P 1 telle
que
P1 (∆Uk2 = h | Fk−1 ) = 0, 999 = 1 − P1 (∆Uk2 = b | Fk−1 )
De même, la statistique d’évolution des prix d’actifs associées à une conjoncture économique à
tendance à la baisse, et en perpétuels cracks boursiers, est représentée par la donnée d’une
mesure de probabilité P1 telle que
P1 (∆Uk2 = b | Fk−1 ) = 0, 999 = 1 − P1 (∆Uk2 = h | Fk−1 )
Existe-t-il des opportunités d’arbitrage dans de tels marchés financiers ?
132 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Dans un marché viable de type CRR, un conseiller financier propose une option de fonction
de paiement à l’échéance n, donnée par la v.a.
f = (Sn2 − K)+
V0 (Φ)
Pn n−l l
n−l l h−r r−b
= (1 + r)−n l=0 s 0 (1 + b) (1 + h) − K Cnl h−b h−b
+
3. On note C le prix de l’action offert par le conseiller financier. Étudier ses gains et ses
pertes dans les trois cas de figure suivants
r−b (h + 1)(r − b)
p? = et p0 =
h−b (1 + r)(h − b)
(c) Vérifier que les fonctions Fn,p correspondent aux fonctions de répartition
Exercice 4.4.6 On suppose de plus que l’horizon temporel n, et les paramètres de rendement
(r, b, h) sont de la forme
√ √
n = T /∆ , r = ρ ∆ , h = σ ∆ , et b = −σ ∆
4.5. ANALYSE MATHÉMATIQUE 133
Σp,n − E(Σp,n )
Wp,n = p
E([Σp,n − E(Σp,n )]2 )
converge faiblement vers une v.a. gaussienne centrée normée, en ce sens où
Z ∞
1 y2
∀x ∈ R lim P(Wp,n ≥ x) = F (x) =déf. √ e− 2 dy
n→∞ 2π x
Ce résultat n’est autre que le théorème de la limite centrale pour des suite de v.a. indépendantes,
et identiquement distribuées.
1. Montrer que Pn i
− np
Wp,n = pi=1 n
np(1 − p)
2. Lorsque ∆ → 0, vérifier les équivalences suivantes
T √ T √
np0 ' √ (ρ + σ 2 + σ/ ∆) et np? ' √ ρ + σ/ ∆
2σ ∆ 2σ ∆
et √
p p T
np0 (1 − p0 ) ' np? (1 − p? ) ' √
(2 ∆)
et enfin
1 K σ2 σ
k0 ' √ log +T +√
2σ ∆ s0 2 ∆
En déduire les estimations
np0 − k0 1 σ2
p ' √
T ρ+ + log (s0 /K)
np0 (1 − p0 ) σ T 2
np? − k0 1 σ2
p ' √ T ρ− + log (s0 /K)
np? (1 − p? ) σ T 2
Le premier titre à un rôle bien particulier. Il représente un placement sans risque, avec un
rendement prévisible ; c’est à dire que
∆Sk1
∀1 ≤ k ≤ n (1 + ∆Uk1 ) = 1 ∈ Fk−1
Sk−1
∆Sk2
∀1 ≤ k ≤ n (1 + ∆Uk2 ) = 2 ∈ Fk
Sk−1
S02 = s0 > 0
A chaque instant 1 ≤ k ≤ n, le couple (Φ1k , Φ2k ) représente la gestion du couple d’actifs (Sk1 , Sk2 ).
Ainsi,
V0 (Φ) = Φ11 S01 + Φ20 S02 = Φ11 + Φ20 s0
représente le coût d’acquisition du portefeuille. La valeur de ce dernier, à la k ième période est
donnée par
De plus, cette condition entraı̂ne que les parts d’actifs non risqués Φ1k+1 sont déterminées
par la formule
1
Φ1k+1 = 1 × Vk (Φ) − Φ2k+1 Sk2
Sk
2
= V k (Φ) − Φ2k+1 S k
4.5. ANALYSE MATHÉMATIQUE 135
où V k (Φ) = βk Vk (Φ) représente la valeur réactualisée du portefeuille Vk (Φ) à la k ième période.
Enfin, toujours d’après la condition d’autofinancement, l’évolution de la valeur du
portefeuille réactualisé ne dépend que de l’évolution du titre risqué. Plus précisément, on a
On dit qu’un marché est viable, s’il n’existe aucune stratégie d’arbitrage.
On notera que la condition P(Vn (Φ) > 0) > 0 implique qu’il existe au moins un aléa ω ∈ Ω
pour lequel Vn (Φ)(ω) > 0 (sinon on aurait {Vn (Φ) > 0)} = ∅ et P(Vn (Φ) > 0) = P(∅) = 0).
Inversement, l’existence d’un tel aléa ω (avec P(ω) > 0) entraı̂ne que P(Vn (Φ) > 0) > 0. Cette
définition d’arbitrage est bien donc équivalente à celle introduite dans la section 4.1.2.
L’arbitrage permet donc, sans aucun investissement initial (V0 (Φ) = 0), de ne jamais perdre
de l’argent à l’échéance (Vn (Φ) ≥ 0), tout en ayant une possibilité de réaliser un gain (P(Vn (Φ) >
0) > 0). Ces possibilités d’arbitrage, et ces évènements inattendus (ω t.q. V n (Φ)(ω) > 0), tels
les délits d’initiés, sont en principe interdits, et contrôlés par les autorités de régulation, telle
la Cours des comptes. La morale moderne semble ainsi reposer sur le principe qu’il est interdit
de s’enrichir sans prendre de risques...
On vérifie sans trop de peine que ces définitions de l’arbitrage peut être reformulée
de façon équivalente en remplaçant (Vk (Φ))0≤k≤n par les valeurs du portefeuille réactualisé
(V k (Φ))0≤k≤n
∀0 ≤ k ≤ n V k (Φ) ≥ 0
Preuve:
(1) ⇒ (2) : On pose simplement Φ2l = φ 1k (l), où le couple (k, φ) est tel que
2 2
φ ∆S k ≥ 0 et P(φ ∆S k > 0) > 0
Dans ce cas, on a
l
X 2 2
∀0 ≤ l ≤ n Vl =0+ Φ2m ∆S m = 1l≥k φ ∆S k ≥ 0
m=1
136 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
et à l’échéance
2 2
V n = φ ∆S k ⇒ P(V n > 0) = P(φ ∆S k > 0) > 0
Il reste cependant à vérifier que la stratégie que nous venons de définir
∀1 ≤ l ≤ n Φ2l = φ 1k=l
est bien autofinancée. Pour cela on rappelle que les parts de titres non risqués Φ 1l sont
nécessairement données par la formule
1
Φ1l = 1 × Vl−1 (Φ) − Φ2l Sl−1
2
Sl−1
2 2 2
= V l−1 (Φ) − Φ2l S l−1 = 1(l−1)≥k φ ∆S k − φ 1k=l S l−1
On en conclut que
2
∀1 ≤ l ≤ n ∆Φ1k + ∆Φ2k S l−1 = 0
Il en découle que
Φ1l Sl−1
1
+ Φ2l Sl−1
2
= Φ1l−1 Sl−1
1
+ Φ2l−1 Sl−1
2
et à l’origine
a(0) = P(V 0 (Φ) ≥ 0) = 1 et b(0) = P(V 0 (Φ) > 0) = 0
Au temps précédent (k ? − 1) ≥ 0, deux cas se présentent
1. Soit a(k ? − 1) < 1, et dans ce cas P(V k? −1 (Φ) < 0) > 0.
2. Soit b(k ? − 1) = 0, ou de façon équivalente V k? −1 (Φ) ≤ 0.
4.5. ANALYSE MATHÉMATIQUE 137
et
a(k ? ) = 1 =⇒ V k? (Φ) ≥ 0
On en déduit que
2
P(φ ∆S k? > 0) ≥ P(V k? (Φ) > 0) > 0
Dans les deux situations que nous venons d’examiner, on remarque que sur l’évènement
{V k? −1 (Φ) < 0}, on reçoit une somme de (−V k? −1 (Φ)) Euros que l’on réinvestit dans l’achat
de titres risquées.
La proposition suivante est une conséquence immédiate de la proposition 3.1.6 (page 75), et de
la proposition 3.1.1 (page 68).
138 CHAPITRE 4. MATHÉMATIQUES FINANCIÈRES
Proposition 4.5.2 Sous réserve de l’existence d’une probabilité à risque neutre P ? sur l’espace
filtré (Ω, (Fk )0≤k≤n ), nous avons les équivalences suivantes
2
(S k )0≤k≤n P? − martingale ⇐⇒ (Uk2 − Uk1 )0≤k≤n P? − martingale
⇐⇒ ∀Φ (V k (Φ))0≤k≤n P? − martingale
Exercice 4.5.1 Sous réserve de l’existence d’une probabilité à risque neutre P ? sur l’espace
filtré (Ω, (Fk )0≤k≤n ), montrer qu’il ne peut exister de possibilité d’arbitrage.
Théorème 4.5.1 Un marché financier est viable si, et seulement si, il existe une probabilité à
risque neutre.
Preuve:
D’après l’exercice 4.5.1, il suffit de montrer qu’il existe une possibilité de neutraliser un marché
viable. Pour vérifier cette propriété, on définit sur l’espace vectoriel E des v.a. réelles X : Ω → R,
le produit scalaire X
hX, Y i = X(ω)Y (Ω)
ω∈Ω
On note V le sous espace vectoriel de E, formé par les v.a. V n (Φ), où Φ = (Φk )1≤k≤n parcours
l’ensemble des portefeuilles autofinancés (avec V 0 (Φ) = 0). Pour vérifier que V est bien un
sous-espace vectoriel (en abrégé s.e.v.), on considère un couple de stratégies d’aménagement
(Φ, Φ0 ), telles que
V 0 (Φ) = 0 = V 0 (Φ0 )
et conduisant à deux valeurs données V n (Φ), et V n (Φ0 ). Pour tout couple de réels (a, a0 ),
a Φ + a0 Φ0 = (a Φk + a0 Φ0k )1≤k≤n
V k (a Φ + a0 Φ0 ) = a V k (Φ) + a0 V k (Φ0 )
et par conséquent,
V 0 (a Φ + a0 Φ0 ) = 0 et a V n (Φ) + a0 V n (Φ0 ) ∈ V
Ceci démontre que V est un s.e.v. de E. On notera que V est un s.e.v. de E de dimension fini,
et donc V est un s.e.v. fermé de E.
Le marché étant supposé viable, le s.e.v. V ne contient aucune v.a. V n (Φ) positive, sinon la
seule v.a. nulle V n (Φ) = 0.
L’espace V est donc disjoint du sous-ensemble convexe et compact K, défini par
X
K = {X : ω → [0, 1] : X(ω) = 1}
ω∈Ω
On pose alors
C = K + V = {X + Vn (Φ) : X ∈ K et Vn (Φ) ∈ V}
On vérifie aisément que C est un ensemble convexe, fermé, et ne contenant pas la v.a. nulle. En
effet, on a
(0 ∈ V et V ∩ K = ∅) =⇒ 0 6∈ C = K + V
On note C le point de C à plus courte distance de cette v.a. nulle, autrement dit C correspond
au point de C de norme minimale.
Par construction, nous avons
∀Y ∈ C, ∀ ∈ (0, 1] C + (Y − C) ∈ C
4.5. ANALYSE MATHÉMATIQUE 139
et
kCk2 ≤ kC + (Y − C)k2 (= kCk2 + 2hC, (Y − C)i + 2 k(Y − C)k2
Par conséquent, nous avons
∀Y ∈ C, ∀ ∈ (0, 1] 2hC, (Y − C)i + k(Y − C)k2 ≥ 0
En faisant tendre ↓ 0, on obtient
∀Y ∈ C(⊃ K) hC, Y i ≥ kCk2 > 0 (4.6)
Cette propriété entraı̂ne que
∀(λ, X, Vn (Φ)) ∈ (R × K × V) hC, X + λVn (Φ)i = hC, Xi + λ hC, Vn (Φ)i ≥ kCk2
Cette minoration ne peut clairement être satisfaite pour tous les λ, sauf si l’on a
∀Vn (Φ) ∈ V hC, Vn (Φ)i = 0
On pose alors
P? (ω) = C(ω)/kCk
et la propriété (4.6) entraı̂ne que
X
∀Y ∈ K hP? , Y i = Y (ω)P? (ω) > 0
ω∈Ω
En invoquant la proposition 3.1.1, page 68, on en déduit que les actifs risqués réactualisés
2
(S k )0≤k≤n forment une P? -martingale.
Théorème 4.5.2 Un marché financier (viable) est complet si, et seulement si, il existe une
unique mesure de probabilité à risque neutre.
Preuve:
Supposons que le marché est complet, et qu’il existe néanmoins deux probabilités à risque
neutre, notées P?1 , et P?2 . Si ces mesures sont distinctes, on peut choisir un évènement A ⊂ Ω,
tel que P?1 (A) 6= P?2 (A). D’après la complétude du marché, l’option réactualisée f = 1A = V n (Φ)
est réplicable par une gestion de portefeuille Φ. Le processus (V k (Φ))0≤k≤n étant à la fois une
P?1 -martingale, et une P?2 -martingale, nous avons simultanément
P?1 (A) = E?1 (f ) = V 0 (Φ) et P?2 (A) = E?2 (f ) = V 0 (Φ)
Notre raisonnement nous conduit donc à la contradiction P?1 (A) = P?2 (A).
Supposons désormais qu’il existe une seule probabilité mesure de probabilité à risque neutre
P? dans un marché incomplet. Dans cette situation, le sous espace formé des valeurs à l’échéance
de portefeuilles réactualisés
V = {V n (Φ) : Φ autofinancé}
est un sous espace strict de l’espace
E = {X : X v.a. réelles}
muni du produit scalaire
(X, Y ) ∈ E × E 7→ hX, Y i =déf. E? (XY )
Il existe donc une v.a. X non nulle, orthogonale à V (donc aussi orthogonale aux constantes).
Autrement dit, nous avons pour toute option réplicable V n (Φ) par une gestion de portefeuille
Φ
E? (X × 1) = 0 et E? (X × V n (Φ)) = 0
On choisit un réel positif a suffisamment grand de sorte que X + a > 0. On associe à ce dernier
la probabilité P?a définie par
a + X(ω)
∀ω ∈ Ω P?a (ω) = × P? (ω)
a
On vérifie aisément les deux faits suivants :
X X a + X(ω)
E? (X) = 0 =⇒ P?a (ω) = P? (ω) = 1
a
ω∈Ω ω∈Ω
et
(∃ω ∈ Ω : X(ω) 6= 0) =⇒ (∃ω ∈ Ω : P?a (ω) 6= P? (ω))
D’autre part, pour toute stratégie de gestion prévisible Φ, nous avons
n
!
X 2
? 2
V 0 (Φ) + Ea Φk ∆S k = E?a (V n (Φ))
k=1
a + X(ω)
= E? V n (Φ) × = E? (V n (Φ))
a
= V 0 (Φ)
On en conclut que pour toute stratégie de gestion prévisible Φ
n
X 2
E?a ( Φ2k ∆S k ) = 0
k=1
2
D’après la proposition 3.1.1, on en conclut que (S k )0≤k≤n est une P?a -martingale, et par
conséquent P?a est aussi une mesure de probabilités à risque neutre. Ceci est en contradiction
avec notre hypothèse de départ.
4.5. ANALYSE MATHÉMATIQUE 141
Corrigés
5.1 Chapitre 1
Exercice 1.1.1 : Les quatre formules recherchées se démontrent par des arguments de
logique élémentaire. Pour la première, nous avons
ω ∈ A ∪ (B ∩ C) ⇔ (ω ∈ A ou ω ∈ (B ∩ C))
⇔ (ω ∈ A ou (ω ∈ B et ω ∈ C))
⇔ ((ω ∈ A ou ω ∈ B) et (ω ∈ A ou ω ∈ C))
= (A ∪ B) ∩ (A ∪ C)
ω ∈ A ∩ (B ∪ C) ⇔ (ω ∈ A et ω ∈ (B ∪ C))
⇔ (ω ∈ A et (ω ∈ B ou ω ∈ C))
⇔ ((ω ∈ A et ω ∈ B) ou (ω ∈ A et ω ∈ C))
= (A ∩ B) ∪ (A ∩ C)
ω ∈ (A ∪ B)c ⇔ ω 6∈ (A ∪ B)
⇔ (ω 6∈ A et ω 6∈ B) ⇔ ω ∈ (Ac ∩ B c )
et
ω ∈ (A ∩ B)c ⇔ ω 6∈ (A ∩ B)
⇔ (ω 6∈ A ou ω 6∈ B) ⇔ ω ∈ (Ac ∪ B c )
Exercice 1.1.2 : L’inégalité recherchée est triviale lorsque n = 1. Supposons qu’elle soit
satisfaite au rang n. Comme l’on a
P([A1 ∪ . . . ∪ An ] ∪ An+1 )
≤ P([A1 ∪ . . . ∪ An ]) + P(An+1 )
143
144 CHAPITRE 5. CORRIGÉS
ω ∈ A4B ⇔ (ω ∈ [A ∩ B c ] ou ω ∈ [B ∩ Ac ])
⇔ ((ω ∈ A etω 6∈ B) ou (ω ∈ B etω 6∈ A))
⇔ (ω est exclusivement dans A ou dans B)
On en conclut que
X
P(A4B) = 1A4B (ω) P(ω) = P(A) + P(B) − 2P(A ∩ B)
ω∈Ω
Problème 1.1.1 :
1. On a clairement 1A1 ∩A2 = 1A1 ∩ 1A2 . De même, lorsque deux évènements A, B sont
disjoints, nous avons
A ∩ B = ∅ =⇒ 1A∪B = 1A + 1B
En particulier, on a 1A +1Ac = 1, pour tout évènement A ⊂ Ω. Par conséquent, on obtient
3. En utilisant la formule
n
Y n
X X
(1 + ai ) = 1 + a i1 . . . a ip (5.1)
i=1 p=1 1≤i1 <...<ip ≤n
nous avons
n
Y n
X X
1− 1 − 1 Ap = − (−1)p 1Ai1 . . . 1Aip
p=1 p=1 1≤i1 <...<ip ≤n
4. Lorsque ω ∈ A, on a
(1 + u)1A (ω) = 1 + u = 1 + u 1A (ω)
Dans le cas contraire, on ω 6∈ A, et dans cette situation on a encore
(1 + u)1A (ω) = 1 = 1 + u 1A (ω)
Il est alors clair que
Pn n
Y n
Y
1 Ai
(1 + u) i=1 = (1 + u)1Ai = (1 + u 1Ai )
i=1 i=1
Il en découle la formule
X
1[∪ni=1 Ai ]c (ω) = P([∪ni=1 Ai ]c ) = 1 − P(∪ni=1 Ai )
ω
n
X X
= 1+ (−1)p P(Ai1 ∩ . . . ∩ Aip )
p=1 1≤i1 <...<ip ≤n
Exercice 1.1.4 : L’ordre de sélection de boules étant sans effet, ce procédé de sélection peut
être décrit par l’ensemble
Ω = {ω : ω = [ω1 , . . . , ωN1 ] avec ωi ∈ {1, . . . , N }}
N1 N1
Par construction, on a donc |Ω| = CN +(N1 −1) = C2N1 +(N2 −1) . En supposant que les N1 boules
c
rouges sont numérotées de 1 à N1 , Le contraire A de l’évènement recherché A est donnée par
Ac = {ω : ω = [ω1 , . . . , ωN1 ] avec ωi ∈ {N1 + 1, . . . , N1 + N2 }}
N1 N1
On a donc |Ac | = CN 2 +(N1 −1)
= CN −1 , et par conséquent
(N −1)!
c N1 N1 N1 !(N −N1 −1)!
P(A ) = CN −1 /CN −1+N1 = (N −1+N1 )!
N1 !(N −1)!
(N − 1)!2
=
(N2 − 1)!(N + (N1 − 1))!
146 CHAPITRE 5. CORRIGÉS
Exercice 1.1.5 : On interprète ce problème comme une sélection de n boules avec remise
dans une urne à N = 365 boules. Le choix d’une boule s’interprète comme le choix d’une date
d’anniversaire. Dans cette interprétation, l’espace des évènements élémentaires est donnée par
A = {ω : ω = (ω1 , . . . , ωn ) avec ωi 6= ωj ∀i 6= j}
On a clairement
de sorte que
|A| (N )n 1 2 (n − 1)
P(A) = = = 1− 1− ... 1−
|Ω| Nn N N N
En utilisant la formule (1 − x) ≤ e−x , valable pour tous les x ∈ [0, 1], on obtient la majoration
n
1 X n(n − 1)
P(A) ≤ exp − j = exp −
N j=1 2N
La probabilité Pn pour qu’au moins deux étudiants dans un classe de n personnes aient la même
date d’anniversaire, est donnée alors par
(365)n n(n−1)
Pn = 1 − n
≥ 1 − e− 2×365
365
Pour n = 31, on peut remarquer que
1
n(n − 1) > (n − 1)2 = 302 = 900 > 730 = 2 × 365 ⇒ P31 > 1 − ' 0, 63
e
Exercice 1.1.6 : On commence par remarquer que l’ordre d’achat des n billets est sans effets.
Ce jeu de hasard peut donc être décrit par l’ensemble
n
On a alors |Ω| = CN . En supposant que les billets gagnants sont numérotés de 1à n, le contraire
Ac de l’évènement recherché est donné par
Ac = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {n + 1, . . . , N } et ωi 6= ωj ∀i 6= j}
On a donc |Ac | = CN
n
−n , et de ce fait
n
CN −n (N − n)! n!(N − n)!
P(Ac ) = n = ×
CN n!(N − 2n)! N!
(N − n)(N − (n + 1)) . . . (N − (2n − 1))
=
N (N − 1) . . . (N − (n − 1))
(N − n)((N − 1) − n) . . . ((N − n + 1) − n)
=
N (N − 1) . . . (N − (n − 1))
n n n
= 1− 1− ... 1−
N N −1 N − (n − 1)
On note que n
n n2
P(Ac ) ≤ 1− ≤ exp −
N − (n − 1) N
1
Pour N ≤ n2 , on remarque que P(A) ≥ 1 − e ' 0, 63
Exercice 1.1.7 : Ce jeu de loto peut être décrit par l’ensemble des aléas désordonnés suivant
Ω = {ω : ω = hω1 , . . . , ωn i avec ωi ∈ {1, . . . , N } et ωi 6= ωj ∀i 6= j}
n
avec n = 6, et N = 49. On note que |Ω| = CN , et l’évènement où l’on choisi les 6 premières
boules correspond au singleton {h1, . . . , ni}. La probabilité P recherchée est alors simplement
donnée par
1
P = 6 ' 7.2 10−8
C49
Exercice 1.2.4 :
148 CHAPITRE 5. CORRIGÉS
1. L’algèbre a(D) étant la plus petite algèbre contenant D, il suffit de noter que
et pour toute suite (ui )i∈I contenant au moins deux composantes égales à 1
{ω : Xj (ω) = uj ∀j} = ∅
On en conclut que
σ(Xi , i ∈ I) ⊂ σ(D)
L’inclusion inverse est à nouveau une conséquence du fait que
Exercice 1.2.5 :
1. On construit la partition D, en choisissant le plus grand sous-ensemble D = (Di )i∈I formé
d’évènements deux à deux disjoints de F. Si D n’était pas une partition de Ω, l’ensemble
serait un évènement non vide, et disjoint à tous les Di . Par conséquent cet ensemble aurait
été omis dans la construction de D. Par construction, on a
D ⊂ F =⇒ σ(D) ⊂ F
D’autre part, l’algèbre F est formée des réunions (finies) d’ensembles de D. On a donc
F ⊂ σ(D) =⇒ σ(D) = F
Exercice 1.2.10 :
1. On obtient facilement que
2. On a
1 18 18 4
P(A1 ∩ A2 ∩ A3 ) = = × × = P(A1 ) × P(A2 ) × P(A3 )
36 36 36 36
De même, on montre que
6 1 18 18 1
P(A1 ∩ A2 ) = = 6= × = = P(A1 ) × P(A2 )
36 6 36 36 4
3 1 18 4 1
P(A2 ∩ A3 ) = = 6= × = = P(A2 ) × P(A3 )
36 12 36 36 18
Exercice 1.3.1 Pour comprendre ce problème de statistique, il convient de noter que l’on a
supposé implicitement que les taux d’objets défectueux p1 , p2 ont été calculés sur la même base
de production. Autrement dit, M1 et M2 produisent chaque jours
d1 = m1 p1 = 5 et d2 = m2 p2 = 20
objets défectueux. On représente le choix au hasard d’un objet parmi les m1 + m2 objet par
l’ensemble des indices Ω = {1, . . . , (m1 + m2 )}, muni de la tribu discrète F = P(Ω), et de la
probabilité uniforme
1 1
∀ω ∈ Ω P(ω) = =
m1 + m 2 300
Sans perte de généralité, et à une permutation d’indices près, on peut supposer que les
évènements A1 = {1, . . . , m1 }, et A2 = m1 + {1, . . . , m2 }, représentent respectivement les
objets produits par M1 , et par M2 . Le couple {A1 , A2 } forme clairement une partition de Ω,
et l’on a
|A1 | m1 1
P(A1 ) = 1 − P(A2 ) = = =
|Ω| m1 + m 2 3
L’ensemble des objets défectueux quotidien B est formé de d1 + d2 objets, dont d1 dans A1 , et
d2 dans A2 . On retrouve ainsi le fait que
On obtient alors
X
P(B) = P(B|Ai )P(Ai )
i∈{1,2}
m1 p 1 + m 2 p 2 d1 + d 2 1 1 1
= = = + =
m1 + m 2 m1 + m 2 60 15 12
Ce résultat peut être retrouvé de façon immédiate, en notant que tout simplement que P(B) =
|B|/|Ω|. Ceci répond à la première question. Les probabilités pour que l’une des machines M i ,
i = 1, 2, est produit cet objet défectueux, correspondent aux probabilités P(A i |B), i = 1, 2, de
choisir cet objet dans Ai , i = 1, 2, sachant que ce dernier est dans B. D’après la formule de
Bayes, on a
P(B|Ai )P(Ai )
P(Ai |B) = P
j∈{1,2} P(B|Aj )P(Aj )
p i mi di 1 4
= = = 1i=1 + 1i=2
p 1 m1 + p 2 m2 d1 + d 2 5 5
On remarque que cette formule est bien cohérente avec notre intuition. En effet, si l’on restreint
notre choix aux pièces défectueuses, on a bien évidemment di /(d1 +d2 ) = |Ai ∩B|/|B| “chances”
pour qu’elle provienne de la machine Mi !
Exercice 1.3.2 Cette expérience aléatoire se déroule en deux temps. On choisit tout d’abord
150 CHAPITRE 5. CORRIGÉS
une pièce ω1 = {0, 1} dans un sac Ω1 contenant deux pièces de monnaie ; la valeur ω1 = 1
correspond au choix de la pièce équitable, et la valeur ω1 = 0 représente le choix de la pièce
ayant une probabilité 1/3 de donner le coté“face”. Une fois la pièce choisie, on la lance et l’on
observe un résultat ω2 ∈ Ω2 = {0, 1}. Dans ce cas, la valeur ω2 = 1 correspond au coté “face”,
et la valeur ω2 = 0 représente le coté “pile”. L’exercice peut être résolu selon deux approches
connexes. La première consiste à décrire avec précision l’espace des évènements possibles. La
seconde est liée à une interprétation dynamique naturelle de l’expérience en question.
1. L’espace des épreuves associé à l’expérience complète est donc donné par Ω = {0, 1} 2.
Chaque évènement élémentaire ω = (ω1 , ω2 ) ∈ {0, 1}2, représente le choix de la pièce ω1 ,
et le résultat du lancer ω2 . D’après l’énonce, nous avons
1 1
P({(1, 1)}) = × = P({(1, 0)})
2 2
et
1 1 1 2
P({(0, 1)}) = × , P({(0, 0)}) = ×
2 3 2 3
Les évènements
représentent respectivement la situation où le résultat du lancer est “face” (F ), celle où
le lancer est “pile”(F c ), le fait d’avoir choisi la pièce équitable (E), et celui d’avoir choisi
la pièce non équitable (E c ). On a donc
1 1 1 1 1
P(F ) = + et P(E) = + =
6 4 4 4 2
De même on montre que
1/4 1 1/6 1
P(F |E) = = = 1 − P(F c |E) et P(F |E c ) = =
1/4 + 1/4 2 1/2 3
On en conclut que
1/4 3
= 1/4+1/6 = 5 = 1 − P(X1 = 0|X2 = 1)
X1 (ω1 , ω2 ) = ω1 et X2 (ω1 , ω2 ) = ω2
les équations précédentes sont une reformulation de celles décrites dans la première
méthode.
Exercice 1.3.3 La formule multiplicative recherchée est une conséquence directe de la formule
récursive suivante
n−1 n−1 n−1
P(An ∩ [∩p=1 An ] | B) = P(An | B ∩ [∩p=1 Ap ]) P(∩p=1 An | B)
Pk
Exercice 1.3.4 Par définition des v.a. Sk = i=1 Xi , nous avons pour tout m ≤ n, et
0≤k≤l≤n
P(Sn = l, Sm = k) P(Sn − Sm = (l − k), Sm = k)
PSm |Sn (k|l) = =
P(Sn = l) P(Sn = l)
Pn Pm
P( i=m+1 Xi = (l − k), i=1 X i = k)
=
P(Sn = l)
P(Sn−m = (l − k)) × P(Sm = k)
=
P(Sn = l)
l−k l−k k k
Cn−m p (1 − p)(n−m)−(l−k) Cm p (1 − p)m−k
=
Cnl pl (1 − p)n−l
l−k k
Cn−m Cm
=
Cnl
Lorsque m = 1, et k = 1, on obtient clairement
l−1
Cn−1 C11
PX1 |Sn (1|l) = = l/n
Cnl
Exercice 1.3.6 En utilisant la formule (1.5), on montre que pour toute v.a. Y1 mesurable
par rapport à σ(X1 ) on a
On démontre ainsi que pour toute v.a. Y1 mesurable par rapport à σ(X1 )
E((f2 (X2 ) − Y1 )2 )
PX3 ,X2 |X1 (x3 , x2 |x1 ) = PX3 |X1 ,X2 (x3 |x1 , x2 ) PX2 |X1 (x2 |x1 )
On en conclut que
E(E(f (X3 ) | X2 , X1 ) | X1 = x1 )
P P
= x2 x3 f (x3 )
= E(f (X3 ) | X1 = x1 )
Exercice 2.5.1 : On représente les échecs ou les succès des trois lancers par trois v.a. de
Bernoulli indépendantes
Pour calculer P(B1 ), on utilise le modèle d’arbre binomial donné par la figure suivante
5.1. CHAPITRE 1 153
0
X_1=1_{6}
0
1 B_1={(0,0,1), (0,1,0), (1,0,0)}
0 1
1 0
1
0
X_1=1_{6}
0
1
0 0
1 B_2={(0,1,1), (1,0,1), (1,1,0)}
1
P(B_2)=P(X_1+X_2+X_3=2)=3 (1/6)^2 (5/6)^1
0 1
1 0
1
Exercice 2.5.2 :
L’arbre des épreuves est donné par
154 CHAPITRE 5. CORRIGÉS
Omega_n={w^i : i=1,...,16}
0 w^1=(0,0,0,0)
2/3
0 1 w^2=(0,0,0,1)
1/3
2/3
0 w^3=(0,0,1,0)
0
2/3
1/3 1 1/3
2/3 1 w^4=(0,0,1,1)
2/3 0 w^5=(0,1,0,0)
0 0
2/3
1/3 1 w^6=(0,1,0,1)
2/3 1/3 0 w^7=(0,1,1,0)
1 1
1/3 1/3 1 w^8=(0,1,1,1)
0 w^9=(1,0,0,0)
2/3 0
0 1/3 1 w^{10}=(1,,0,0,1)
2/3 0 w^{11}=(1,0,1,0)
1/3
1/3
1
1/3 1 w^{12}=(1,0,1,1)
1 0 w^{13}=(1,1,0,0)
2/3 2/3
1/3 0
1/3 1 w^{14}=(1,10,1)
1
0 w^{15}=(1,1,1,0)
1/3 2/3
1 w^{16}=(1,1,1,1)
1/3 1
L’espace des épreuves associé à ce modèle binomial sur 4 périodes correspond à l’ensemble
produit
Ω = {0, 1}{1,2,3,4} = {ω i : i = 1, . . . , 16}
Exercice 2.5.3 :
L’arbre des épreuves est donné par
Omega_n={w^i : i=1,...,16}
0 w^1=(0,0,0,0)
4/5
0 1 w^2=(0,0,0,1)
3/4 1/5
0 w^3=(0,0,1,0)
0
4/5
1/4
2/3 1
1/5 1 w^4=(0,0,1,1)
4/5 0 w^5=(0,1,0,0)
0 0
3/4 1/5
1/3 1 w^6=(0,1,0,1)
1/2 0 w^7=(0,1,1,0)
1 1/4 1 4/5
1/5 1 w^8=(0,1,1,1)
0 w^9=(1,0,0,0)
4/5
3/4
0 1/5
0 1 w^{10}=(1,,0,0,1)
L’espace des épreuves associé à ce modèle binomial sur 4 périodes correspond à l’ensemble
produit
Ω = {0, 1}{1,2,3,4} = {ω i : i = 1, . . . , 16}
Exercice 2.5.4 :
L’arbre des épreuves peut être décrit par un raisonnement similaire à ceux utilisés dans les
exercices précédents. On a aussi clairement
Exercice 2.5.5 :
1. L’arbre des épreuves associé à l’évolution markovienne sur une période
Omega={omega^1,\omega^2}
x(1,1) omega^1
x0
x(1,2) omega^2
Fig. 5.5 –
Ω X0 X1
ω1 x0 x1,1
ω2 x0 x1,2
4. Les algèbres FkX engendrées par les partitions DkX , avec k = 0, 1, sont données par
F0X = {Ω, ∅} et F1X = {∅, Ω, {ω 1}, {ω 2 }}
5. Immédiat. Il suffit en effet de noter que l’on a
∀ω ∈ Ω = {ω 1 , ω 2 } X0 (ω) = x0
et
2
X x1,1 si ω = ω 1
X1 (ω) = x1,i 1{ωi } (ω) =
x1,2 si ω = ω 2
i=1
Exercice 2.5.6 : L’arbre des épreuves correspondant à ce modèle est décrit dans la figure
suivante.
x(2,1) omega^1
x(1,1)
x(2,2) omega^2
x0
x(2,3) omega^3
x(1,2)
x(2,4) omega^4
D0X = {Ω}
D1X = {{ω 1 , ω 2 }, {ω 3 , ω 4 }}
D2X = {{ω 1 }, {ω 2 }, {ω 3 }, {ω 4}}
3. Les algèbres FkX engendrées par les partitions DkX , sont décrites ci-après
F0X = {∅, Ω}
F1X = {∅, Ω, {ω 1, ω 2 }, {ω 3 , ω 4 }} et F2X = P(Ω)
X0 (ω) = x0
4
X
X1 (ω) = x1,1 1{ω1 ,ω2 } (ω) + x1,2 1{ω3 ,ω4 } (ω) et X2 = x2,i 1ωi (ω)
i=1
E(X2 |F1X ) = E(X2 |X1 = x1,1 )1{ω1 ,ω2 } + E(X2 |X1 = x1,2 )1{ω3 ,ω4 }
= x2,1 P({ω 1 } | {ω 1 , ω 2 }) + x2,2 P({ω 2 } | {ω 1 , ω 2 }) 1{ω1 ,ω2 }
+ x2,3 P({ω 3 } | {ω 3 , ω 4 }) + x2,4 P({ω 4 } | {ω 3 , ω 4 }) 1{ω3 ,ω4 }
D’après la question précédente, la condition E(X2 |F1X ) = X1 est équivalente au fait que
Par un raisonnement analogue à celui utilisé dans l’exercice 2.5.5 ces équations admettent
une solution si, et seulement si, les deux conditions suivantes sont satisfaites
1) x2,1 < x1,1 < x2,2 ou x2,2 < x1,1 < x2,1
et
2) x2,3 < x1,2 < x2,4 ou x2,4 < x1,2 < x2,3
Dans ces conditions, nous avons
x1,1 − x2,2
P? ({ω 1 } | {ω 1 , ω 2 }) = = 1 − P? ({ω 2 } | {ω 1 , ω 2 })
x2,1 − x2,2
et
x1,2 − x2,4
P? ({ω 3 } | {ω 3 , ω 4 }) = = 1 − P? ({ω 3 } | {ω 3 , ω 4 })
x2,3 − x2,4
158 CHAPITRE 5. CORRIGÉS
Il nous reste à noter que la condition E? (X1 |F0X ) = X0 est équivalente au fait que
x0 = x1,1 P? ({ω 1 , ω 2 }) + x1,2 (1 − P? ({ω 1 , ω 2 }))
Comme précédemment, cette équation admet une solution si, et seulement si, nous avons
3) x1,1 < x0 < x1,2 ou x1,2 < x0 < x1,1
Dans ce cas, on obtient
x0 − x1,2
P? ({ω 1 , ω 2 }) = = 1 − P? ({ω 3 , ω 4 })
x1,1 − x1,2
Lorsque les trois conditions 1), 2), 3) sont vérifiées, on obtient aisément les valeurs de
P? . On a par exemple
P? ({ω 1 }) = P? ({ω 1 } | {ω 1 , ω 2 }) × P? ({ω 1 , ω 2 })
x1,1 − x2,2 x0 − x1,2
= ×
x2,1 − x2,2 x1,1 − x1,2
Exercice 2.5.7 :
1. Par construction de l’espace des aléas, nous avons les décompositions suivantes
X0 = x0
X1 = x1,1 1{ω1 ,ω2 ,ω3 } + x1,2 1{ω4 } + x1,3 1{ω5 ,ω6 ,ω7 ,ω8 }
X2 = x2,1 1{ω1 ,ω2 } + x2,2 1{ω3 } + x2,3 1{ω4 }
+x2,4 1{ω5 } + x2,5 1{ω6 ,ω7 } + x2,6 1{ω8 }
8
X
X3 = x3,i 1{ωi }
i=1
−→ E3 = {x3,i , i = 1, . . . , 8}
2. En utilisant les décompositions précédentes, on montre que
P(X3 = x3,1 |X2 = x2,1 ) = P({ω 1 } | {ω 1 , ω 2 })
P(X3 = x3,2 |X2 = x2,1 ) = P({ω 2 } | {ω 1 , ω 2 })
P(X3 = x3,6 |X2 = x2,5 ) = P({ω 6 } | {ω 6 , ω 7 })
P(X3 = x3,7 |X2 = x2,5 ) = P({ω 7 } | {ω 6 , ω 7 })
et
P(X2 = x2,1 |X1 = x1,1 ) = P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 })
P(X2 = x2,2 |X1 = x1,1 ) = P({ω 3 } | {ω 1 , ω 2 , ω 3 })
P(X2 = x2,4 |X1 = x1,3 ) = P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 })
P(X2 = x2,5 |X1 = x1,3 ) = P({ω 6 , ω 7 } | {ω 5 , ω 6 , ω 7 , ω 8 })
P(X2 = x2,6 |X1 = x1,3 ) = P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 })
5.1. CHAPITRE 1 159
et enfin
E(X3 |F2X )
= E(X3 |X2 )
avec
X
E(X2 |X1 = x1,1 ) = x2,i P(X2 = x2,i |X1 = x1,1 )
i∈{1,2}
et
E(X2 |X1 = x1,3 )
P
= i∈{4,5,6} x2,i P(X2 = x2,i |X1 = x1,3 )
+x2,6 P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 })
160 CHAPITRE 5. CORRIGÉS
puis
(3)
x1,1 = x2,1 P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 }) + x2,2 P({ω 3 } | {ω 1 , ω 2 , ω 3 })
(4)
x1,3 = x2,4 P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 }) + x2,5 P({ω 6 } | {ω 5 , ω 6 , ω 7 , ω 8 })
+x2,6 P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 })
et enfin
(5)
x0 = x1,1 P({ω 1 , ω 2 , ω 3 }) + x1,2 P({ω 4 }) + x1,3 P({ω 5 , ω 6 , ω 7 , ω 8 })
Les trois premières conditions expriment le fait que les états x2,1 , x2,5 , et x1,1 , sont
respectivement des barycentres des couples de points {x3,1 , x3,2 }, {x3,6 , x3,7 }, et enfin
{x2,1 , x2,2 }. On peux donc résoudre ces trois équations, si et seulement si, les trois
conditions suivantes sont vérifiées
1) x3,1 < x2,1 < x3,2 ou x3,2 < x2,1 < x3,1
2) x3,6 < x2,5 < x3,7 ou x3,7 < x2,5 < x3,6
3) x2,1 < x1,1 < x2,2 ou x2,2 < x1,1 < x2,1
Dans ces conditions, on obtient
x2,1 − x3,2
P? ({ω 1 }|{ω 1 , ω 2 }) = = 1 − P? ({ω 2 }|{ω 1 , ω 2 })
x3,1 − x3,2
x2,5 − x3,7
P? ({ω 6 }|{ω 6 , ω 7 }) = = 1 − P? ({ω 7 }|{ω 6 , ω 7 })
x3,6 − x3,7
x1,1 − x2,2
P({ω 1 , ω 2 } | {ω 1 , ω 2 , ω 3 }) =
x2,1 − x2,2
= 1 − P({ω 3 } | {ω 1 , ω 2 , ω 3 })
Les deux dernières équations (4) et (5) conditions expriment le fait que les états x 1,3 ,
et x0 , sont respectivement des barycentres des triplés de points {x2,4 , x2,5 , x2,6 }, et
{x1,1 , x1,2 , x1,3 }. On peux donc résoudre ces deux équations, si et seulement si, les états
x1,3 , et x0 , sont dans les intervalles convexes contenant ces points. A l’inverse des situations
examinées précédemment, il existe plusieurs solutions. Par exemple, lorsque l’on a
P({ω 5 , ω 6 , ω 7 , ω 8 }) = 0
x0 − x1,2
P({ω 1 , ω 2 , ω 3 }) = = 1 − P({ω 4 })
x1,1 − x1,2
Enfin, si l’on a
x2,4 < x1,3 < x2,5 < x2,6
l’équation (4) admet pour solution (non unique)
P({ω 8 } | {ω 5 , ω 6 , ω 7 , ω 8 }) = 0
x1,3 − x2,5
P({ω 5 } | {ω 5 , ω 6 , ω 7 , ω 8 }) = = 1 − P({ω 6 } | {ω 5 , ω 6 , ω 7 , ω 8 })
x2,4 − x2,5
On vérifie ainsi aisément que la position moyenne de la marche est donnée par la formule
k
X
E(Xk ) = E(l ) = k(α − (1 − α)) = k × (2α − 1)
l=1
Lorsque α ∈ (0, 1/2), les v.a. k ont tendance à prendre plus fréquemment la valeur −1.
La marche est alors en moyenne attirée vers la gauche. Lorsque α = 1/2, la marche reste
en moyenne en son origine X0 = 0. Autrement dit, la chaı̂ne Xk oscille entre la droite et
la gauche. La quantité v = (2α − 1) correspond à la vitesse moyenne de la particule.
2. Pour chaque p ≥ 0, les évènements
−1 −1 +1 −1 +1 −1 +1 +1 −1 +1 −1 −1
k (2k)!
P(Xl+2k = 0 | Xl = 0) = C2k αk (1 − α)k = (α(1 − α))k
k!k!
On notera que les événements
{Xl = x, Xl+m = y}
on obtient l’estimation
(4α(1 − α))k √
P(Xl+2k = 0 | Xl = 0) ' √ (= 1/ πk si α = 1/2)
πk
Lorsque α 6= 1/2, on a 4α(1 − α) < 1 et la probabilité de revenir à 0 en un temps (2k)
décroı̂t exponentiellement vite lorsque k augmente.
Exercice 2.5.13 : On a
k
X k
X
AX
k = E(∆Xp | Fp−1 ) = E(p )
p=0 p=0
k
X
MkX = [p − E(p )]
p=0
k k
"p−1 #
X X Y
AX
k = E(∆Xp | Fp−1 ) = l × E(p − 1)
p=0 p=0 l=0
k
"p−1 #
X Y
MkX = l × [p − E(p )]
p=0 l=0
164 CHAPITRE 5. CORRIGÉS
On observe que les évènements {k = +1} sont plus fréquents dès que p ≥ 1/2. Dans ce cas, le
jeux est alors favorable au joueur.
Exercice 3.1.3 : Comme dans l’exercice précédent, on note simplement que
Exercice 3.1.6 :
1. La démonstration de ce premier point est décrite dans la solution de l’exercice 3.1.3.
2. On a clairement
3. Dans le cas où les v.a. (k )1≤k≤n sont i.i.d. et centrées, le processus processus croissant
associé à la martingale est donné par
k
X
hM ik = σl2 = (k + 1)σ 2
l=0
Exercice 3.1.7 :
1. La démonstration de ce premier point est décrite dans la solution de l’exercice 3.1.4.
2. Avant de commencer, on peut noter que l’on a
k
Y
E([Mk+1 − Mk ]2 | Fk ) = E(Mk2 [k+1 − 1]2 | σ(1 , . . . k )) = Mk2 σk+1
2
=[ 2
l ] σk+1
l=0
k
Y k
X l−1
Y
Mk2 − hM ik = 2l − [ 2m ] σl2
l=0 l=0 m=0
Exercice 3.1.8 :
1. Par définition du compensateur (hY, Y 0 ik )0≤k≤n , nous avons
n
X k
X
hY, Y 0 ik = E(∆Yl ∆Yl0 | Fl−1 ) = E(l 0l )
k=0 l=0
k
X k
X k
X
Yk Yk0 − hY, Y 0 ik = [ l ] × [ 0l ] − E(l 0l )
l=0 l=0 l=0
Exercice 3.1.9 :
1. On a clairement
Cov(k , 0k ) = E([k − E(k )][0k − E(0k )]) = E([k − 1][0k − 1]) = E(k 0k ) − 1
166 CHAPITRE 5. CORRIGÉS
Exercice 3.1.10 :
1. Il suffit de noter que l’on a
On en conclut que
k−1
X
X X
E(Mk (f ) | Fk−1 )= ∆Ml (f ) + E(∆Mk (f ) | Fk−1 ) = Mk−1 (f )
l=1
hM (f )ik = hM (f ), M (f )ik
k
X
X
= [E(Ml (f )Ml (f ) | Fl−1 ) − Ml−1 (f )Ml−1 (f )]
l=1
k
X k
X
= E([∆Ml (f )]2 | Fl−1
X
)= E([fl (Xl ) − E[fl (Xl ) | Xl−1 )]2 | Xl−1 )
l=1 l=1
Exercice 3.1.11 :
1. Les v.a. k étant supposées centrées, nous avons
∀0 ≤ k ≤ n E(k ) = uk pk + vk (1 − pk ) = 0
∀0 ≤ k ≤ n pk = vk /[vk − uk ]
On notera que
∀0 ≤ k ≤ n Yk = 0 + . . . + k = Yk−1 + k
Pour vérifier que ce dernier est une martingale par rapport à la filtration (F k )0≤k≤n , il
suffit de noter que l’on a
Yk = Yk−1 +k =⇒ P(Yk = yk−1 +uk | Yk−1 = yk ) = 1−P(Yk = yk−1 +vk | Yk−1 = yk ) = pk
et de probabilités de transitions
Exercice 3.1.12 :
1. Les v.a. k étant supposées telles que E(k ) = 1, nous avons
∀0 ≤ k ≤ n E(k ) = uk pk + vk (1 − pk ) = 1
∀0 ≤ k ≤ n pk = (1 − vk )/[uk − vk ]
On notera que cette condition exprime le fait que 1 est un barycentre des points {u k , vk }.
Cette propriété de ne peut donc être réalisée que si les états du système {u k , vk } sont tels
que
uk < 1 ≤ vk ou vk < 1 ≤ uk
∀0 ≤ k ≤ n Yk = 0 × . . . × k = Yk−1 × k
Pour vérifier que ce dernier est une martingale par rapport à la filtration (F k )0≤k≤n , il
suffit de noter que l’on a
et de probabilités de transitions
Exercice 3.1.15 :
1. Cette question est une conséquence immédiate de la proposition 3.1.6
2. On observe que
−1
Zl = Zl−1 (1 + ∆Xl ) ⇒ Zl−1 E(Zl ∆Ml | Fl−1 ) = E((1 + ∆Xl ) ∆Ml | Fl−1 )
−1
⇒ Zl−1 E(Zl ∆Ml | Fl−1 ) = E(∆Xl ∆Ml | Fl−1 ) = ∆hM, Xil
Ainsi, d’après le lemme de Girsanov, le processus aléatoire (Mk0 )0≤k≤n défini par
k
X
Mk0 = Mk − E(∆Xl ∆Ml | Fl−1 ) = Mk − hM, Xik
l=0
Exercice 3.1.16 :
1. Par définition du processus exponentiel de (Xk )0≤k≤n , nous avons
k
Y k
Y
Zk = Ek (X) = (1 + ∆Xl ) = (1 + l )
l=0 l=0
2. Le fait que (Yk )0≤k≤n est une martingale sur (Ω, (Fk )0≤k≤n , P) est immédiat. On vérifie
que (Yk0 )0≤k≤n est une martingale sur (Ω, (Fk )0≤k≤n , P0 ) en remarquant que
k
X
hX, Y ik = E(∆Xl ∆Yl | Fl−1 )
l=0
k
X k
X
= E(l 0l | Fl−1 ) = E(l 0l )
l=0 l=0
{ω : T (ω) = k} = Ω ∈ Fk
5.1. CHAPITRE 1 169
MkT = MT ∧k
"k−1 #
X
= Xl 1{T =l} 1{T <k} + Xk 1T ≥k
l=0
= XT 1{T <k} + Xk 1T ≥k
on obtient
"k−1 #
X
E(MkT | Fk−1 ) = E( Ml 1{T =l} 1{T <k} + Mk 1T ≥k | Fk−1 )
l=0
"k−1 #
X
= Ml 1{T =l} 1{T <k} + E(Mk | Fk−1 ) 1T ≥k
l=0
≥ MT 1{T <k} + Mk−1 1T ≥k
= MT 1{T ≤(k−1)} + Mk−1 1T >(k−1) = MT ∧(k−1) × [1{T ≤(k−1)} + 1T >(k−1) ]
On en conclut que
E(MkT | Fk−1 ) ≥ MT ∧(k−1) = Mk−1
T
Par un raisonnement analogue, on montre que le processus arrêté (MkT )0≤k≤n d’une sur-
martingale est à nouveau une sur-martingale.
Exercice 3.2.4 :
1. Cette stratégie prend la forme suivante
(1 + α) (X1 + X2 + . . . + Xk−1 ) si 1 = . . . = k−1 = −1
Xk =
0 sinon
On peut aussi montrer que telle stratégie est équivalente à miser, jusqu’à l’instant du
gain, les sommes suivantes
Xk = (1 + α) (X1 + X2 + . . . + Xk−1 )
= (1 + α) [(X1 + X2 + . . . + Xk−2 )
+(1 + α) (X1 + X2 + . . . + Xk−2 )]
= (1 + α) × (2 + α) (X1 + X2 + . . . + Xk−2 )
= (1 + α) × (2 + α)
× [(X1 + X2 + . . . + Xk−3 ) + (1 + α)(X1 + X2 + . . . + Xk−3 )]
= (1 + α) × (2 + α)2 (X1 + X2 + . . . + Xk−3 )
...
= (1 + α) × (2 + α)k−2 (pour tout k ≥ 2)
170 CHAPITRE 5. CORRIGÉS
Exercice 3.2.5 :
1. On a clairement
Y
E(Zk (fn ) | Fk−1 ) = E(E(fn (Yn ) | FkY ) | Fk−1
Y Y
) = E(fn (Yn ) | Fk−1 )
= Zk−1 (fn )
Par conséquent, le processus (Zk (fn ))0≤k≤n est une martingale par rapport à (FkY )0≤k≤n .
2. D’après les formules de récurrence inverse, nous avons
Vn (yn ) = fn (yn )
Vn−1 (yn−1 ) = E(Vn (Yn ) | Yn−1 = yn−1 ) = Mn (Vn )(yn−1 )
Vn−2 (yn−2 ) = E(Vn−1 (Yn−1 ) | Yn−2 = yn−2 ) = E(Mn (Vn )(Yn−1 ) | Yn−2 = yn−2 )
= Mn−1 Mn (Vn )(yn−2 )
... = ...
Vk (yk ) = E(Vk+1 (Yk+1 ) | Yk = yk ) = E(Mk+2 . . . Mn (Vn )(Yk+1 ) | Yk = yk )
= Mk+1 Mk+2 . . . Mn (Vn )(yk )
On en conclut que
Exercice 3.2.6 :
1. Par définition des temps d’arrêt Tk , nous avons
∀k ≤ l < Tk Zk < Uk , Zk+1 < Uk+1 , . . . , ZTk −1 < UTk −1 et ZTk < UTk
Autrement dit, on a
∀0 ≤ l ≤ n Ul = Zl ∨ E(Ul+1 | Fl )
∀k ≤ l ≤ l0 ≤ n E(UlT0 k | Fl ) = UlTk
En posant l0 = n, on obtient
Exercice 3.2.7 :
1. On rappelle que l’enveloppe de Snell (Uk )0≤k≤n est déterminée par les formules de
récurrence inverse suivantes
Un = gn (Xn )
Uk = gk (Xk ) ∨ E(Uk+1 | FkX ) = gk (Xk ) ∨ E(Uk+1 | X0 , . . . , Xk )
Ainsi, si on pose
Uk = Uk (Zk )
nous obtenons
Un = gn (Xn )
Uk = gk (Xk ) ∨ E(Uk+1 (Xk+1 ) | X0 , . . . , Xk ) = gk (Xk ) ∨ E(Uk+1 (Xk+1 ) | Xk )
La dernière assertion permet de s’assurer que l’enveloppe de Snell peut se mettre sous
la forme Uk = Uk (Zk ), avec la suite de fonctions (Uk )0≤k≤n sur les espaces (Ek )0≤k≤n
définies par les formules de récurrence inverse
5.2 Chapitre 2
Exercice 4.1.1 : Les deux premières questions sont immédiates. Pour résoudre la dernière,
on notera que
∆S 1 1, 05 − 1
r = 11 == = 5%
S0 1
Exercice 4.1.2 : Les deux premières questions sont à nouveau immédiates. Pour résoudre la
dernière, on notera que
∆S11 1, 05 − 1
r = = = 5%
S01 1
∆S21 1, 10 − 1, 05 0, 05
' 1 = = ' 5%
S1 1, 05 1, 05
172 CHAPITRE 5. CORRIGÉS
Il convient de souligner que les valeurs des actifs sont des valeurs arrondies. Pour un rendement
fixe de 5%, la valeur “mathématique”exacte de S21 est donnée par
Exercice 4.1.3 :
1. Les prix initiaux étant fixés (S01 ; S02 )(ω1 ) = (S01 ; S02 )(ω2 ) = (1; 4), le coût d’acquisition
du portefeuille initial d’un investisseur vendant à découvert −Φ11 = 8 parts d’actifs sans
risque, pour acheter Φ2 = 2 parts d’actifs risqué
et
Si l’on rembourse les (−4m) parts actifs sans risque, et l’on conserve les m parts d’actifs
risqués, la valeur de notre portefeuille sera telle que
Pour gagner 800 Euros à moindre frais, il suffit donc d’emprunter 4000 parts d’actifs non
risqué, pour acheter 1000 parts d’actifs risqués. Le coût initial de cette opération sera nul,
et après l’annonce des prix S1 des actifs, notre gain prendra l’une des valeurs
Exercice 4.1.4 :
5.2. CHAPITRE 2 173
1. La stratégie initiale d’un investisseur vendant à découvert 2 parts d’actifs risqués, pour
acheter 8 parts d’actifs sans risque est représenté par le vecteur
et
Lorsque l’on rembourse nos deux parts d’actifs risqués, et l’on conserve nos huit parts
d’actifs sans risques, nous utilisons la stratégie de réaménageant
Φ2 = Φ1 = (8, −2) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) = Φ11 S11 + Φ21 S12
3. Pour gagner de l’argent à moindre frais, une stratégie consiste à vendre à découvert m
parts d’actifs risqués, pour acheter 4 m parts d’actif non risqué. Le coût initial d’une telle
opération est nul
Si l’on rembourse les (−m) parts actifs risqués, et l’on conserve les (4m) parts d’actifs
non risqués, la valeur de notre portefeuille sera telle que
Pour gagner 1.200 Euros à moindre frais, il suffit donc de vendre à découvert 1000 parts
d’actifs risqués, pour acheter 4000 parts d’actifs non risqués. Le coût initial de cette
opération sera nul, et après l’annonce des prix S1 des actifs, notre gain prendra l’une des
valeurs
V1 (Φ)(ω 1 ) = 2.200 ou V1 (Φ)(ω 2 ) = 1.200
Exercice 4.1.5 :
1. La stratégie initiale d’un investisseur vendant à découvert 20 parts d’actifs risqués, pour
acheter 200 parts d’actifs sans risques est représenté par le vecteur
et
V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )
= 200 × 1, 05 + (−20) × 10 = 210 − 100 = 10
Lorsque l’on rembourse nos deux vingt parts d’actifs risqués, et l’on conserve nos deux
cents parts d’actifs sans risques, nous utilisons la stratégie de réaménagenemt
Φ2 = Φ1 = (200 ; −20) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) = Φ11 S11 + Φ21 S12
3. Pour gagner de l’argent à moindre frais, une stratégie consiste à vendre à découvert m
parts d’actifs risqués, pour placer (10 m) Euros dans un un compte épargne à 5%. Le coût
initial d’une telle opération est nul
Φ1 = (10m ; −m) ⇒ V0 (Φ) = (10m) × 1 + (−m) × 10 = 0
Les valeurs possibles du portefeuille à l’instant suivant sont données par
V1 (Φ)(ω 1 ) = (10m) × 1, 05 + (−m) × 5 = 5, 5 m
V1 (Φ)(ω 2 ) = (10m) × 1, 05 + (−m) × 10 = 0, 5 m
Si l’on rembourse les (−m) parts actifs risqués, et l’on conserve les (10m) parts d’actifs
non risqués, la valeur de notre portefeuille sera telle que
Φ2 = (10m ; −m) ⇒ Φ12 × S11 + Φ12 × S12 = V1 (Φ) ≥ 0, 5 m
Pour gagner 100 Euros à moindre frais, il suffit donc de vendre à découvert 200 parts
d’actifs risqués, pour placer 2000 Euros dans un compte épargne à 5%. Le coût initial de
cette opération sera nul, et après l’annonce des prix S1 des actifs, notre gain prendra l’une
des valeurs
V1 (Φ)(ω 1 ) = 100 ou V1 (Φ)(ω 2 ) = 1.100
ou
V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )
= (−5Φ21 ) × 1, 05 + Φ21 × 5 = (−5, 25 + 5) Φ21 = −0, 25 Φ21
Par conséquent, les valeurs possibles des portefeuilles V1 (Φ)(ω 1 ), et V1 (Φ)(ω 2 ) sont de signes
contraires. On ne peut donc pas trouver de stratégie d’arbitrage.
Exercice 4.1.7 :
5.2. CHAPITRE 2 175
1. La stratégie initiale d’un investisseur vendant à découvert 2/5 de part de titre risqué, et
achetant 4/1, 05 parts d’actifs sans risques, est donnée par le vecteur
1 2 4 2
Φ1 = (Φ1 , Φ1 ) = ; −
1, 05 5
La valeur d’acquisition du portefeuille initial est donc donnée par
V0 (Φ) = Φ11 S01 + Φ21 S02
4 2
= ×1+ − ×5
1, 05 5
4 4 − 2, 1 1, 9
= −2= = ' 1, 81
1, 05 1, 05 1, 05
2. Après évolution des cours des actifs, les deux valeurs possibles de ce portefeuille sont
déterminées par
V1 (Φ)(ω 1 ) = Φ11 (ω 1 ) S11 (ω 1 ) + Φ21 (ω 1 ) S12 (ω 1 )
4 2
= × 1, 05 + − ×5=4−2=2
1, 05 5
et
V1 (Φ)(ω 2 ) = Φ11 (ω 2 ) S11 (ω 2 ) + Φ21 (ω 2 ) S12 (ω 2 )
4 2
= × 1, 05 + − × 10 = 4 − 4 = 0
1, 05 5
Exercice 4.1.8 :
1. La stratégie initiale (−Φ1 ) d’un investisseur empruntant 4/1, 05 de part de titres sans
risques, et achetant 2/5 de part part d’actifs risqués, est donnée par le vecteur
4 2
−Φ1 = (−Φ11 , −Φ21 ) = − ;
1, 05 5
La valeur d’acquisition du portefeuille initial est donc donnée par
V0 (−Φ) = −Φ11 S01 − Φ21 S02
4 2
= − ×1+ ×5
1, 05 5
4 4 − 2, 1 1, 9
= − +2=− =− ' −1, 81
1, 05 1, 05 1, 05
2. Après évolution des cours des actifs, les deux valeurs possibles de ce portefeuille sont
déterminées par
V1 (−Φ)(ω 1 ) = −Φ11 (ω 1 ) S11 (ω 1 ) − Φ21 (ω 1 ) S12 (ω 1 )
4 2
= − × 1, 05 + × 5 = −4 + 2 = −2
1, 05 5
176 CHAPITRE 5. CORRIGÉS
et
V1 (−Φ)(ω 2 ) = −Φ11 (ω 2 ) S11 (ω 2 ) − Φ21 (ω 2 ) S12 (ω 2 )
4 2
= − × 1, 05 + × 10 = −4 + 4 = 0
1, 05 5
Exercice 4.1.9 :
1. Les aménagement Φ1 = (Φ11 , Φ21 ) de portefeuilles initiaux dont la valeur d’acquisition vaut
V0 (Φ) = 1 sont données par
V0 (Φ) = Φ11 S01 + Φ21 S02 = 1 ⇐⇒ Φ11 + 5 Φ21 = 1
2. Après l’évolution des cours des actifs correspondant au premier jeu d’aléa ω 1 , la valeur
du portefeuille est donnée par
V1 (Φ)(ω 1 ) = Φ11 S11 (ω 1 ) + Φ21 S12 (ω 1 ) = Φ11 × 1, 05 + Φ21 × 5
= (1 − 5 Φ21 ) × 1, 05 + Φ21 × 5 = 1, 05 − 0, 25 × Φ21
Pour couvrir l’option dans le premier jeu d’aléa, nous devons avoir
95 19
V1 (Φ)(ω 1 ) = 1, 05 − 0, 25 × Φ21 ≥ 2 = f (ω 1 ) ⇐⇒ Φ21 ≤ − =−
25 5
Autrement dit, nous devons vendre à découvert au moins 19/5 de parts de titres risqués.
Dans le second jeu d’aléa, une telle stratégie conduit à la valeur du portefeuille
V1 (Φ)(ω 2 ) = Φ11 S11 (ω 2 ) + Φ21 S12 (ω 2 ) = Φ11 × 1, 05 + Φ21 × 10
= (1 − 5 Φ21 ) × 1, 05 + Φ21 × 10 = 1, 05 + 4, 75 × Φ21
19
≤ 1, 05 − 4, 75 × = 1, 05 − 0, 95 × 19 < 0
5
3. Nous avons montré que le vendeur ne pourra jamais honorer son engagement, et couvrir
son option, s’il son prix de vente est 1. Autrement dit, nous avons
{x ∈ [0, 1] : ∃(Φk )0≤k≤n t.q. V0 (Φ) = x et Vn (Φ) ≥ f } = ∅
Par conséquent, par définition de C ? (f ), nous avons
C ? (f ) = inf {x ∈ (1, ∞) : ∃(Φk )0≤k≤n t.q. V0 (Φ) = x et Vn (Φ) ≥ f }
≥ 1
Exercice 4.2.1 :
1. Par définition du rendement instantané, on vérifie aisément que
1
1 S1 − S01 (1 + r) − 1
E(R1S ) = E = =r
S01 1
et
2 S12 − S02 s1,1 − s0 s1,2 − s0
E(R1S ) = E = p + (1 − p)
S02 s0 s0
s1,2 − s0 s1,2 − s1,1
= −p×
s0 s0
5.2. CHAPITRE 2 177
Exercice 4.2.2 :
1. Les valeurs des portefeuilles associées à une stratégie de réaménagement
Φ1 = (Φ11 , Φ21 )
Exercice 4.2.4 :
1 2
1. Le tableau des épreuves correspondant au marché réactualisé (S k , S k )k=0,1 est donné par
1 2 1 2
Ω S 0 = (S 0 , S 0 ) S 1 = (S 1 , S 1 )
ω1 (1; s0 ) (1; s1,1 )
ω2 (1; s0 ) (1; s1,2 )
avec s0 = s0 /(1 + r)0 = s0 , s1,1 = s1,1 /(1 + r)1 , et s1,2 = s1,2 /(1 + r)1 .
2. Les stratégie d’aménagement Φ1 = (φ1 , φ2 ) sans investissement initial sont définies par la
propriété suivante :
1 2
V 0 (Φ) = φ1 S 0 + φ2 S 0 = φ1 + φ2 s0 = 0 ⇐⇒ φ1 = −φ2 s0
Par conséquent, les valeurs réactualisées d’un portefeuille associé à de telles stratégies
sont données par
1 2 2 2
V 1 (Φ) = φ1 S 1 + φ2 S 1 = φ1 + φ2 S 1 = φ2 [S 1 − s0 ]
On a donc
V 1 (Φ)(ω 1 ) = φ2 [s1,1 − s0 ] et V 1 (Φ)(ω 2 ) = φ2 [s1,2 − s0 ]
3. D’après la question précédente, on peut enrichir de façon certaine son son portefeuille
2
∆V 1 (Φ) = [V 1 (Φ) − 0] = V 1 (Φ) = φ2 [S 1 − s0 ]
2
sans apport initial, si, et seulement si, les quantités φ2 et [S 1 − s0 ] ont toujours le même
signe. Ces possibilités sont discutées dans les cas suivants :
– s0 < s1,1 < s1,2 ou s0 < s1,2 < s1,1 :
Dans ces deux situations, nous avons [s1,1 − s0 ] > 0, et [s1,2 − s0 ] > 0. L’arbitrage est
clair, il suffit de vendre a découvert φ1 = −φ2 s0 parts de titre non risqué, pour acheter
φ2 parts de titre risqué
2
φ1 = −φ2 s0 =⇒ V 0 (Φ) = 0 et V 1 (Φ) = φ2 [S 1 − s0 ] > 0
5.2. CHAPITRE 2 179
Exercice 4.2.5 :
1. Les portefeuilles de couverture (φ1 , φ2 ) doivent nécessairement satisfaire la condition
suivante
2
V 1 (Φ) = φ1 + φ2 S 1 ≥ f
f 1 − φ1 f 2 − φ1
⇐⇒ φ1 + φ2 s1,1 ≥ f 1 et φ1 + φ2 s1,2 ≥ f 2 ⇐⇒ φ2 ≥ max ;
s1,1 s1,2
Par conséquent, le coût minimal d’acquisition du portefeuille initial est tel que
V 0 (Φ) = V0 (Φ) = φ1 + φ2 s0
s0 s0 s0
≥ max φ1 + [f i − φ1 ] = max f i + φ1 1 −
i=1,2 s1,i i=1,2 s1,i s1,i
Ainsi, la droite
s0 s0
φ1 −→ f 1 + φ1 1 −
s1,1 s1,1
| {z }
négatif
180 CHAPITRE 5. CORRIGÉS
croissante. Ces deux droites s’intersectent en un point φ1, ? déterminé par la formule
s0 1, ? s0 s0 1, ? s0
f +φ 1− = f +φ 1−
s1,1 1 s1,1 s1,2 2 s1,2
On obtient finalement
f 2 s1,1 − f 1 s1,2
φ1, ?
=
s1,1 − s1,2
et
s1,2 s1,2 s1,2
φ1, ?
+ φ2, ? s1,2 = φ1, ?
+ f 1 − φ1, ?
= φ1, ? 1 − + f1 ×
s1,1 s1,1 s1,1
f 2 s1,1 − f 1 s1,2 s1,2 s1,2
= × 1− + f1 × = f2
s1,1 − s1,2 s1,1 s1,1
V 0 (Φ) = φ1, ?
+ φ2, ? s0
Exercice 4.2.6 :
On rapelle que les prix C(f ), et les stratégies de couverture (φ1, ? , φ2, ? ) sont données par
s1,2 − s0 s1,2 − s0
C(f ) = f 1 + f2 1 −
s1,2 − s1,1 s1,2 − s1,1
et
f 1 s1,2 − f 2 s1,1
φ1, ?
=
s1,2 − s1,1
1 f s1,1 − f 1 s1,2 f2 − f1
φ2, ?
= f 1 − φ1, ? /s1,1 = f1 − 2 =
s1,1 s1,1 − s1,2 s1,2 − s1,1
Leurs valeurs dans les différents modèles de marchés proposés sont données ci-dessous.
1 2 1 2
1) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 3) f1
1 6f 1 −3f 2 f 2 −f 1
ω2 (1; 5) (1; 6) f2 3f1 + 32 f 2 3 , 3
1 2 1 2
2) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 1) f1
5 10f 1 −f 2 f 2 −f 1
ω2 (1; 5) (1; 10) f2 9f1 + 94 f 2 9 , 9
1 2 1 2
3) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 2) f1
2 7f 1 −2f 2 f 2 −f 1
ω2 (1; 5) (1; 7) f2 5f1 + 53 f 2 5 , 5
1 2 1 2
4) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 3) f1
45 2 50f 1 −3f 2 f 2 −f 1
ω2 (1; 5) (1; 50) f2 47 f 1 + 47 f 2 47 , 47
1 2 1 2
5) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 1) f1
15 4 20f 1 −f 2 f 2 −f 1
ω2 (1; 5) (1; 20) f2 19 f 1 + 19 f 2 19 , 19
1 2 1 2
6) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 2) f1
2 7f 1 −2f 2 f 2 −f 1
ω2 (1; 5) (1; 7) f2 5f1 + 53 f 2 5 , 5
1 2 1 2
7) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 3) f1
45 2 50f 1 −3f 2 f 2 −f 1
ω2 (1; 5) (1; 50) f2 47 f 1 + 47 f 2 47 , 47
1 2 1 2
8) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 4) f1
95 1 100f 1 −4f 2 f 2 −f 1
ω2 (1; 5) (1; 100) f2 96 f 1 + 96 f 2 96 , 96
1 2 1 2
9) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f C(f ) (φ1, ? , φ2, ? )
ω1 (1; 5) (1; 2) f1
995 3 1000f 1 −2f 2 f 2 −f 1
ω2 (1; 5) (1; 1000) f2 998 f 1 + 998 f 2 998 , 998
Exercice 4.2.7 :
182 CHAPITRE 5. CORRIGÉS
2 2 2
1. L’unique probabilité P? sur Ω = {ω 1 , ω 2 } telle que E? (S 1 | S 0 ) = S 0 , est donnée par la
formule suivante
2 2
E? (S 1 | S 0 = s0 ) = s1,1 P? (ω 1 ) + s1,2 (1 − P? (ω 1 )) = s0
s1,2 − s0
P? (ω 1 ) = 1 − P? (ω 2 ) =
s1,2 − s1,1
V 0 (Φ? ) = E? (f )
Par définition de C ? (f ) et C? (f )
C ? (f ) = inf x ∈ R+ : ∃Φ = (Φk )k=0,1 t.q. V0 (Φ) = x et V 1 (Φ) ≥ f
C? (f ) = sup x ∈ [0, ∞) : ∃(Φk )k=0,1 t.q. V0 (Φ) = x et V 1 (Φ) ≤ f
nous avons,
∀Φ : V 1 (Φ) ≥ f =⇒ E? (V 1 (Φ)) ≥ E? (f ) = V 0 (Φ? )
et
∀Φ : V 1 (Φ) ≤ f =⇒ E? (V 1 (Φ)) ≤ E? (f ) = V 0 (Φ? )
Par conséquent, on obtient l’encadrement suivant
C? (f ) ≤ V 0 (Φ? ) = E? (f ) ≤ C ? (f )
Exercice 4.2.8 : Les prix, et les stratégies de couverture des options de vente sont donnés
ci-dessous :
1 2 1 2 2 1, ? 2, ?
1) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+ C(f ) (φ , φ )
1 2 6f 1 −3f 2 f 2 −f 1
ω1 (1; 5) (1; 3) 7 3f1 + 3f2 3 , 3
7 8 30 −3
ω2 (1; 5) (1; 6) 4 = 3 + 3 = 5 = 3 , 3 = (10; −1)
1 2 1 2 2 1, ? 2, ?
2) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+ C(f ) (φ , φ )
5 10f 1 −f 2 f 2 −f 1
ω1 (1; 5) (1; 1) 7 9f1 + 94 f 1 9 , 9
−7
ω2 (1; 5) (1; 10) 0 = 35
9 = 70 9 , 9
1 2 1 2 2 1, ? 2, ?
3) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (8 − S 1 )+ C(f ) (φ , φ )
1 2 3 7f 1 −2f 2 f 2 −f 1
ω (1; 5) (1; 2) 6 5f1 + 5f2 5 , 5
40 −5
ω 2
(1; 5) (1; 7) 1 = 15
5 =3 = 5 , 5 = (8; −1)
1 2 1 2 2 1, ? 2, ?
4) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (10 − S 1 )+ C(f ) (φ , φ )
1 45 2 50f 1 −3f 2 f 2 −f 1
ω (1; 5) (1; 3) 7 47 f 1
+ 47 f2 47 , 47
315 350 −7
ω2 (1; 5) (1; 50) 0 = 47 = 47 , 47
1 2 1 2 2 1, ? 2, ?
5) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (100 − S 1 )+ C(f ) (φ , φ )
15 4 20f 1 −f 2 f 2 −f 1
ω1 (1; 5) (1; 1) 99 19 f 1 + 19 f 2 19 , 19
1805
ω2 (1; 5) (1; 20) 80 19 = (100; −1)
1 2 1 2 2 1, ? 2, ?
6) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+ C(f ) (φ , φ )
2 7f 1 −2f 2 f 2 −f 1
ω1 (1; 5) (1; 2) 4 5f1 + 53 f 2 5 , 5
28 −4
ω2 (1; 5) (1; 7) 0 = 85 = 5, 5
1 2 1 2 2 1, ? 2, ?
7) Ω S 0 = (S 0 , S 0 ) S1 = (S 1 , S 1 ) f = (6 − S 1 )+ C(f ) (φ , φ )
45 2 50f 1 −3f 2 f 2 −f 1
ω1 (1; 5) (1; 3) 3 47 f 1 + 47 f 2 47 , 47
135 150 −3
ω2 (1; 5) (1; 50) 0 = 47 ,
47 47
C > C ? (f )
il aura ainsi l’opportunité de gagner (C − C ? (f )) Euros. Pour cela, il lui suffira simplement
d’utiliser la stratégie de couverture définie ci-dessus pour honorer son contrat ; puis il empochera,
sans trop effort, la somme résiduelle !
Inversement, si l’émetteur de l’option f offre un prix
C < C ? (f ) = V 0 (Φ)
((1+r)^2,s_{2,1})
4/5
((1+r),s_{1,1}) 1/5
1/3 ((1+r)^2,s_{2,2})
(1,s_0)
((1+r)^2,s_{2,3})
2/3
2/3
((1+r),s_{1,2})
1/3 ((1+r_^2,s_{2,4})
On en conclut que
2 2 2
P? (ω 1 ) = P? (S 2 = s2,1 , S 1 = s1,1 |S 0 = s0 )
2 2 2 2 1 4
= P? (S 2 = s2,1 |S 1 = s1,1 ) × P? (S 1 = s1,1 |S 0 = s0 ) = ×
3 5
2 2 2
P? (ω 2 ) = P? (S 2 = s2,2 , S 1 = s1,1 |S 0 = s0 )
2 2 2 2 1 1
= P? (S 2 = s2,2 |S 1 = s1,1 ) × P? (S 1 = s1,1 |S 0 = s0 ) = ×
3 5
2 2 2
P? (ω 3 ) = P? (S 2 = s2,3 , S 1 = s1,2 |S 0 = s0 )
2 2 2 2 2 2
= P? (S 2 = s2,3 |S 1 = s1,2 ) × P? (S 1 = s1,2 |S 0 = s0 ) = ×
3 3
2 2 2
P? (ω 4 ) = P? (S 2 = s2,4 , S 1 = s1,2 |S 0 = s0 )
2 2 2 2 2 1
= P? (S 2 = s2,4 |S 1 = s1,2 ) × P? (S 1 = s1,2 |S 0 = s0 ) = ×
3 3
2. La couverture de l’option f revient à trouver une stratégie (Φ21 , Φ22 ) prévisible, et une
condition initiale V 0 (Φ), pour lesquelles le portefeuille réactualisé
k
X 2
V k (Φ) = V 0 (Φ) + Φ2l ∆S l
l=1
5.2. CHAPITRE 2 185
Sous la probabilité à risque neutre, le coût initial du portefeuille de couverture est donné
par l’une des formules suivantes :
V 0 (Φ) = g0 (s0 )
= g1 (s1,1 ) P? ({ω 1 , ω 2 }) + g1 (s1,2 ) P? ({ω 3 , ω 4 })
4
X
= g(s2,i )P? (ω i )
i=1
où (gk )k=0,1,2 désignent les fonctions définies par les équations de récurrence inverse
2 2
g2 (S 2 ) = g(S 2 )
2 2 2
2 2
g1 (S 1 ) = E? (g2 (S 2 ) | S 1 ) = E? (g(S 2 ) | S 1 )
2 2 2
2 2 2
g0 (S 0 ) = E? (g1 (S 1 ) | S 0 ) = E? (g(S 2 ) | S 0 )) = E? (g(S 2 ))
Ω= {w^1,w^2,w^3,w^4}
overline{f}_1 w^1
4/5
g_1(overline{s}_{1,1})
= 4/5 overline{f}_1 + 1/5 overline{f}_2
g_0(s_0)
overline{f}_3 w^3
g_1(overline{s}_{1,2}) 2/3
2/3
= 2/3 overline{f}_3 + 1/3 overline{f}_4
Fig. 5.9 –
g1 (s1,2 ) − g1 (s1,1 )
Φ21 =
s1,2 − s1,1
2 1
4 1
3f3 + 3f4 − 5f1 + 5f2 1 2f 3 + f 4 4f 1 + f 2
= = −
6−3 3 3 5
186 CHAPITRE 5. CORRIGÉS
et
g(s2,2 )−g(s2,1 ) f 2 −f 1 f 2 −f 1 2
g (b
2 2 ) − g (a
2 2 )
s2,2 −s2,1 = 7−2 = 5 si S 1 = 3 (= s1,1 )
Φ22 = = g(s2,4 )−g(s2,3 ) f 4 −f 3 f 4 −f 3 2
b2 − a 2 = = si S 1 = 6 (= s1,2 )
s2,4 −s2,3 10−4 6
D’après les propriétés d’autofinancement, les aménagements des actifs non risqués (Φ 11 , Φ12 )
sont donnés par les formules
2
Φ11 = V 0 (Φ) − Φ21 S 0 = g0 (s0 ) − Φ21 s0
2 2 2 2
Φ12 = V 1 (Φ) − Φ22 S 1 = g0 (s0 ) + Φ21 [S 1 − S 0 ] − Φ22 S 1
3. Nous avons
2 2
V 2 (Φ) = V 0 (Φ) + Φ21 ∆S 1 + Φ22 ∆S 2
g1 (s1,2 ) − g1 (s1,1 ) 2 g2 (b2 ) − g2 (a2 ) 2 2
= g0 (s0 ) + [S 1 − s0 ] + [S 2 − S 1 ]
s1,2 − s1,1 b2 − a 2
2 2
En décomposant cette expression sur les évènements {S 1 = 3}, et {S 1 = 6}, on obtient
4 1 4 2
V 2 (Φ) = f + f + f + f
15 1 15 2 9 3 9 4
1 2f 3 + f 4 4f + f 2
+ − 1 [3 − 5] 1S 2 =3 + [6 − 5] 1S 2 =6
3 3 5 1 1
f2 − f1 2 f − f3 2
+ 1S 2 =3 [S 2 − 3] + 4 1S2 =6 [S 2 − 6]
5 1 6 1
De même, on obtient
4 1 4 2 2 2f 3 + f 4 4f + f 2
V 2 (Φ)(ω 2 ) = f + f + f + f − − 1
15 1 15 2 9 3 9 4 3 3 5
f2 − f1
+ [7 − 3]
5
4 8 12 1 2 12 4 4
= f1 + − + f2 + + + f3 −
15 15 15 15 15 15 9 9
2 2
+f 4 − = f2
9 9
5.2. CHAPITRE 2 187
et
3 4 1 4 2 1 2f 3 + f 4 4f 1 + f 2
V 2 (Φ)(ω ) = f1 + f2 + f3 + f4 + −
15 15 9 9 3 3 5
f4 − f3
+ [4 − 6]
6
4 1 4 2 1 2f 3 + f 4 4f 1 + f 2 f − f3
= f + f + f + f + − − 4
15 1 15 2 9 3 9 4 3 3 5 3
4 4 1 1 4 2 3
= f1 − + f2 − + f3 + +
15 15 15 15 9 9 9
2 1 3
+f 4 + − = f3
9 9 9
et enfin
4 4 1 4 2 1 2f 3 + f 4 4f 1 + f 2
V 2 (Φ)(ω ) = f + f + f + f + −
15 1 15 2 9 3 9 4 3 3 5
f4 − f3
+ [10 − 6]
6
4 1 4 2 1 2f 3 + f 4 4f + f 2 2
= f1 + f2 + f3 + f4 + − 1 + f4 − f3
15 15 9 9 3 3 5 3
4 4 1 1 4 2 6
= f1 − + f2 − + f3 + −
15 15 15 15 9 9 9
2 1 6
+f 4 + + = f4
9 9 9
En reprenant les formules obtenues dans l’exercice 4.3.2, on obtient le prix de l’option
4 1 4 2 2
V 0 (Φ) = g0 (s0 ) = f 1 + f 2 + f 3 + f 4 = = 4, 5
15 15 9 9 9
et le portefeuille de couverture
2 1 2f 3 + f 4 4f 1 + f 2 1 1
Φ1 = − = et Φ22 = 1 2
3 3 5 9 6 S1 =6
Les aménagements des actifs non risqués (Φ11 , Φ12 ) sont donnés par les formules
2 2 5 1
Φ11 = V 0 (Φ) − Φ21 S 0 = − =−
9 9 3
2
2 2 1 2 1 S
Φ12 = V 1 (Φ) − Φ22 S 1 = + [S 1 − 5] − 1S2 =6 = − + 1 − 1S2 =6
9 9 1 3 9 1
188 CHAPITRE 5. CORRIGÉS
En reprenant les formules obtenues dans l’exercice 4.3.2, on obtient le prix de l’option
4 1 4 2 4 4 8
V 0 (Φ) = g0 (s0 ) = f1 + f2 + f3 + f4 = ×5+ ×3=
15 15 9 9 15 9 3
et le portefeuille de couverture
1 2f 3 + f 4 4f 1 + f 2 1 2
Φ21 = − = [2 − 4] = −
3 3 5 3 3
et
1
Φ22 = −1S2 =3 − 1 2
1 2 S 1 =6
Les aménagements des actifs non risqués (Φ11 , Φ12 ) sont donnés par les formules
28 10
Φ11 = V 0 (Φ) − Φ21 S 0 = + =6
3 3
2 8 2 2 1 2
Φ12 2
= V 1 (Φ) − Φ2 S 1 = − (S 1 − 5) + 1S =3 + 1S =6 S 1
2 2
3 3 1 2 1
2 2
= 6 − S 1 + 3 2 × 1S 2 =3 + 1S2 =6
3 1 1
= 6 + 4 × 1S2 =3 − 1S 2 =6 = 10 × 1S2 =3 − 5 × 1S 2 =6
1 1 1 1
Exercice 4.4.1 : Lorsque les actifs non risqués sont plus rentables que les actif risqués, il faut
vendre à découvert le maximum d’actif risqués, disons m, et placer par exemple cette argent
(m S02 ) dans un compte épargne bancaire au taux r. Plus formellement, on aménage notre
portefeuille initial en posant
Φ1 = (Φ11 , Φ21 ) = (mS02 , −m)
La valeur d’acquisition du portefeuille initial est tout simplement nulle
∀1 ≤ k < n Φ k = Φ1
A la date n, on revend nos (mS02 ) parts d’actifs non risqués avec les intérêts, pour rembourser
les m parts d’actifs risqués. Autrement dit, on utilise à nouveau la stratégie
Φn = (m S02 , −m)
Par conséquent, la mesure P? est définie explicitement pour chaque environnement aléatoire
(δ1 , . . . , δn ) ∈ {b, h}n , par la formule suivante
forment une martingale. Il est alors impossible de gagner de l’argent à un horizon donné, sans
une mise initiale, et ceci dans n’importe quel environnement aléatoire ! En effet, nous avons
dans cette situation
0 = V 0 (Φ) = E? (V n (Φ)) et V n (Φ) ≥ 0 =⇒ ∀ω ∈ Ω V n (Φ)(ω) = 0
Exercice 4.4.4 : D’après l’exercice précédent, que le marché soit à tendance à la hausse, ou
à la baisse, l’existence de P? entraı̂ne qu’il est impossible d’arbitrer le marché financier. La
possibilité de neutraliser le marché tient compte des probabilités aussi faibles soient elles des
évènements à tendances inverses. Ainsi dans un marché à tendance à la hausse, un investisseur
ayant misé sur les actifs risqués ne peut toujours pas prédire leur chute avant d’avoir pu s’en
séparer. Cette chute imprévisible annulerait dans le meilleur des cas ses espoirs de gain, ou
tout simplement elle le ruinerait.
1. D’après les formules (4.3), le portefeuille de couverture associé à cette fonction de paiement
est donné par
2
V 0 (Φ) = V0 (Φ) = g0 (S 0 ) = g0 (s0 )
1+r 1+h 1+b
2 2 2
Φ2k = gk S k−1 − gk S k−1 /S k−1
h − b 1 + r 1 + r
2 2
Φ1k = gk−1 (S k−1 ) − Φ2k S k−1
190 CHAPITRE 5. CORRIGÉS
V0 (Φ) = g0 (s0 )
Pn s0 l n−l K
= l=0 (1+r) n (1 + b) (1 + h) − (1+r) n
l + n−l
l h−r r−b
× Cn h−b h−b
Pn
s0 n−l l K
= l=0 (1+r)n (1 + b) (1 + h) − (1+r) n
n−l+ l
× Cnl h−r
h−b
r−b
h−b
3. Analogue à l’exercice 4.3.1. Supposons, à titre d’exemple que le vendeur offre un prix
C > C ? (f ) = V0 (Φ)
On en conclut que
V0 (Φ)
Pn n−l Pn n−l
= s0 × l=k0 Cnl p0 l (1 − p0 ) − (1 + r)−n K l=k0 Cnl p? l
(1 − p? )
5.2. CHAPITRE 2 191
(c) Par définition des v.a. de Bernoulli (ip )1≤i≤n , nous avons
Exercice 4.4.6 :
1. On a n
X
E(Σp,n ) = E(ip ) = np
i=1
et
" #2
n
X
E([Σp,n − E(Σp,n )]2 ) = E (ip − E(ip ))
i=1
n
X
= E (ip − E(ip ))2 = np(1 − p)
i=1
et
1 K σ2 σ
k0 ' √ log +T +√
2σ ∆ s0 2 ∆
3. D’après les estimations précédentes, nous avons
0 T 2 σ
np − k0 ' √ ρ+σ + √
2σ ∆ ∆
2
1 K σ σ
− √ log +T +√
2σ ∆ s0 2 ∆
1 σ2
= √ T ρ+ + log (s0 /K)
2σ ∆ 2
5.2. CHAPITRE 2 193
et
? T σ
np − k0 ' √ ρ+ √
2σ ∆ ∆
2
1 K σ σ
− √ log +T +√
2σ ∆ s0 2 ∆
1 σ2
= √ T ρ− + log (s0 /K)
2σ ∆ 2
on en conclut que
np0 − k0 1 σ2
p ' √ T ρ+ + log (s0 /K)
np0 (1 − p0 ) σ T 2
np? − k0 1 σ2
p ' √ T ρ− + log (s0 /K)
np? (1 − p? ) σ T 2
Exercice 4.5.1 : Supposons qu’il existe une probabilité à risque neutre P? sur l’espace
filtré (Ω, (Fk )0≤k≤n ). Dans ces conditions, et d’après la proposition 4.5.2, pour toute
stratégie d’aménagement (Φk )1≤k≤n de portefeuilles (autofinancés), leurs valeurs réactualisées
(V k (Φ))0≤k≤n forment une P? -martingale. Par conséquent, nous avons
V 0 (Φ) = 0 , V n (Φ) ≥ 0 =⇒ E? (V n (Φ) | F0 ) = V 0 (Φ) = 0, V n (Φ) ≥ 0
=⇒ V n (Φ) = 0
194 CHAPITRE 5. CORRIGÉS
Bibliographie
[1] S. Ben Hamida, and R. Cont. Recovering volatility from option prices by evolutionary
optimization. Journal of Computional Finance, (2005).
[2] R. Cont, and M. Löwe. Social distance, heterogeneity and social interaction. CMAP No
549, École Polytechnique (2003).
195