Академический Документы
Профессиональный Документы
Культура Документы
. Pardoux
11 septembre 2006
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
12
13
18
22
26
2 Chanes de Markov
2.1 Dfinition et proprits lmentaires.
2.2 Exemples . . . . . . . . . . . . . . .
2.2.1 Marche alatoire sur E = Zd .
2.2.2 Processus de GaltonWatson .
2.2.3 File dattente en temps discret
2.3 Proprit de Markov forte . . . . . .
2.4 Etats rcurrents et transitoires . . . .
2.5 Le cas rcurrent irrductible . . . . .
2.6 Le cas apriodique . . . . . . . . . .
2.7 Chane de Markov rversible . . . . .
2.8 Statistique des chanes de Markov . .
2.9 Exercices . . . . . . . . . . . . . . . .
2.10 Problmes corrigs . . . . . . . . . .
2.10.1 Enoncs . . . . . . . . . . . .
2.10.2 Corrigs . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
34
37
37
38
38
39
41
44
52
58
60
61
68
68
74
3 Algorithmes stochastiques
3.1 Mthode MCCM . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Un cadre dapplication . . . . . . . . . . . . . . . . . .
3.1.2 Le modle dIsing . . . . . . . . . . . . . . . . . . . . .
85
85
88
90
3.2
3.3
3.4
3.5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
92
93
94
95
99
101
105
107
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
111
. 111
. 112
. 113
. 113
. 115
. 115
. 116
. 117
. 118
. 118
. 119
. 121
. 122
. 123
. 129
. 129
. 130
. 131
. 132
. 133
. 136
. 137
. 138
. 142
. 144
. 146
. 148
.
.
.
.
.
.
.
.
.
6 Le processus de Poisson
6.1 Processus ponctuels et f.a. de comptage
6.2 Le processus de Poisson . . . . . . . .
6.3 Proprit de Markov . . . . . . . . . .
6.4 Comportement asymptotique . . . . .
6.5 Exercices . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
149
. 149
. 151
. 152
. 154
. 156
. 156
. 158
. 161
. 163
.
.
.
.
.
165
. 165
. 166
. 170
. 174
. 176
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
181
. 181
. 186
. 189
. 192
. 195
. 197
. 202
. 203
. 206
. 212
. 216
. 219
. 221
. 228
. 230
. 230
. 234
6
8 Files dattente et rseaux
8.1 File dattente M/M/1 . . . . .
8.2 File dattente M/M/1/K . . .
8.3 File dattente M/M/s . . . . .
8.4 File dattente M/M/s/s . . .
8.5 Atelier de rparation . . . . .
8.6 Files dattente en srie . . . .
8.7 File dattente M/G/ . . . .
8.8 File dattente M/G/1 . . . . .
8.8.1 Une chane incluse . .
8.8.2 Le cas rcurrent positif
8.9 Rseau de Jackson ouvert . .
8.10 Rseau de Jackson ferm . . .
8.11 Rseau tlphonique . . . . .
8.12 Rseau de Kelly . . . . . . . .
8.12.1 Une seule file dattente
8.12.2 Rseau multiclasse . .
8.13 Exercices . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
239
. 240
. 242
. 243
. 246
. 246
. 247
. 248
. 249
. 249
. 250
. 252
. 257
. 259
. 263
. 263
. 267
. 268
9 Mathmatiques financires
9.1 Les concepts de fondamentaux . . . . . . . . . . .
9.1.1 Option . . . . . . . . . . . . . . . . . . . .
9.1.2 Arbitrage . . . . . . . . . . . . . . . . . .
9.1.3 Marchs viables et complets . . . . . . . .
9.2 Options europennes dans le modle discret . . .
9.2.1 Le modle . . . . . . . . . . . . . . . . . .
9.2.2 Stratgie admissible . . . . . . . . . . . . .
9.2.3 Martingales . . . . . . . . . . . . . . . . .
9.2.4 Le march est viable et complet . . . . . .
9.2.5 Prix du call et du put . . . . . . . . . . .
9.2.6 La formule de BlackScholes . . . . . . . .
9.3 Le modle et la formule de BlackScholes . . . . .
9.3.1 Introduction au calcul stochastique . . . .
9.3.2 quations diffrentielles stochastiques . . .
9.3.3 Formule de FeynmanKac . . . . . . . . .
9.3.4 LEDP de BlackScholes . . . . . . . . . .
9.3.5 La formule de BlackScholes (2) . . . . . .
9.3.6 Gnralisation du modle de BlackScholes
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
271
272
272
273
274
275
275
275
277
278
281
281
284
284
292
294
295
297
298
9.4
9.5
9.6
9.7
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
299
302
303
305
308
308
310
310
312
314
316
316
317
318
318
319
320
320
323
324
326
Bibliographie
329
Index
333
Prface
Les briques de base de ce manuel sont le chapitre 1 sur les mthodes
de Monte Carlo, le chapitre 2 sur les chanes de Markov en temps discret
valeurs dans un ensemble fini ou dnombrable, et les chapitres 6 et 7 sur
le processus de Poisson et les processus markoviens de sauts, qui sont des
processus en temps continu, nouveau valeurs dans un ensemble fini ou
dnombrable.
A partir de ces bases, ce manuel prsente des applications de ces outils
probabilistes dans plusieurs domaines. Le chapitre 3 traite dalgorithmes stochastiques. Il sagit dune part de la mthode de Monte Carlo par chanes de
Markov invente dans les annes 50 pour la mcanique statistique, utilise
en traitement dimages, et qui est devenue loutil de calcul indispensable en
statistique baysienne, ds que les donnes traiter sont complexes. Il sagit
dautre part dun algorithme doptimisation, savoir le recuit simul.
Une autre application concerne la biologie molculaire, avec deux aspects
bien distincts. Lun, prsent au chapitre 4, concerne lannotation des squences dADN (autrement dit la recherche de gnes) et lalignement des
squences. Loutil principal est ici les chanes de Markov caches, qui est par
ailleurs une technique utilise dans bien dautres domaines que la biologie
molculaire (en particulier en traitement du signal et en reconnaissance de la
parole). Une seconde application en biologie a trait la phylognie, qui est
ltude des relations entre espces vivantes, ces relations sillustrant en particulier par un arbre phylogntique. Plusieurs des mthodes de construction
de tels arbres font appel des modles probabilistes dvolution sur larbre
en question. Il sagit de modles de processus markoviens de sauts. Cette
application est traite dans le chapitre 7.
Auparavant, le chapitre 5 prsente une introduction au contrle et au
filtrage, avec en particulier une prsentation du clbre filtre de Kalman
Bucy, un algorithme trs utilis en particulier dans le guidage des fuses et
9
10
des satellites.
Le chapitre 8 prsente une application des processus markoviens de sauts
aux files dattente et aux rseaux (informatiques, tlphoniques, etc..).
Enfin le chapitre 9 donne une introduction aux mathmatiques financires, partant des modles discrets, avec un traitement des modles continus,
y compris une prsentation du calcul stochastique dIt et des processus de
diffusion, qui sont encore des processus de Markov, mais cette fois la fois
en temps continu, et valeurs dans lespace euclidien IRd .
Chaque chapitre est suivi dun certain nombre dexercices. Certains de
ces exercices sont suivis de la mention (en gras) Programmation. Cela veut
dire quils proposent de raliser des simulations, par exemple sous Matlab,
avec le plus souvent visualisation des rsultats sous forme de courbes. Enfin
les chapitres 2 et 7 se terminent par des problmes corrigs.
Ce livre a commenc exister comme polycopi de divers cours, en
deuxime et troisime anne dEcole dingnieurs (tout dabord lEcole Suprieure de Mcanique de Marseille, puis lEGIM/Ecole Centrale de Marseille) et lUniversit de Provence, en DESS, puis en Master. Il contient
la matire pour plusieurs cours sur les chanes et processus markoviens et
leurs applications, qui doivent pouvoir tre suivis par des tudiants en Master de Mathmatiques et Applications, et des lves dEcoles dIngnieurs.
Le contenu convient des cours de second semestre de M1, et des options de
M2. Il peut aussi tre utilis avec profit par des tudiants prparant loption
ProbabilisStatistique loral de lagrgation de Mathmatiques.
La lecture complte de cet ouvrage (en particulier celle du chapitre 9)
suppose que le lecteur a acquis le niveau dun cours de probabilits bas
sur la thorie de la mesure, y compris la notion desprance conditionnelle,
tel quenseign normalement au premier semestre du Master 1 de Mathmatiques. Cependant, une trs grosse partie de louvrage ne fait appel quaux lois
discrtes, et quelques lois densit, ainsi quaux thormes limites usuels
(loi des grands nombres et thorme de la limite centrale). Tout ce matriel
est normalemnt enseign au cours des annes de Licence de Mathmatiques,
et en premire anne de nombreuses Ecoles dIngnieurs.
Je remercie Genevive Foissac qui a assur lessentiel de la dactylographie de ce texte, et mes Collgues Julien Berestycki, Fabienne Castell, Yuri
Golubev, Arnaud Guillin et Laurent Miclo, qui ont relu certaines portions
de cet ouvrage, et mont fait des remarques et critiques qui mont permis
damliorer le manuscript original.
Marseille, Septembre 2006.
Chapitre 1
Simulations et mthode de Monte
Carlo
Introduction
Pour donner une premire ide de la mthode de Monte Carlo, nous allons
considrer un problme dintgration numrique. Il existe de trs nombreuses
mthodes dapproximation de lintgrale :
Z
f (x)dx
[0,1]
Pn
par des formules du type
i=1 wi f (xi ), avec les wi qui sont des nombres
positifs dont la somme vaut 1 et les xi sont des points de lintervalle [0, 1].
Par exemple, lorsque w0 = wn = 2/n, wi = 1/n sinon, les points xi =
i/n tant rgulirement rpartis, on a affaire la mthode des trapzes.
Mais il existe bien dautres mthodes comme la mthode de Gauss ou de
Simpson. Une mthode de Monte Carlo est du mme type : on choisit wi =
1/n et lon tire les xi au hasard (mais pas nimporte comment, il faut tirer
les points selon la loi uniforme sur [0, 1]). Comme on le verra cidessous,
la convergence est assure parla loi des grands nombres, et la vitesse de
convergence, de lordre de K/ n, est donne par le thorme de la limite
centrale. Evidemment, cette vitesse de convergence peut paratre faible si on
la compare aux autres mthodes dintgration en dimension 1. Mais toutes ces
mthodes numriques seffondrent lorsque la dimension augmente. En effet,
dans toutes ces mthodes, la prcision est fonction de la distance entyre deux
11
12
1.1
Description de la mthode
Pour utiliser une mthode de Monte Carlo, on doit tout dabord mettre
sous forme dune esprance la quantit que lon cherche calculer. Cest
souvent simple, comme pour le cas dun calcul dintgrale, mais a peut tre
plus compliqu, comme lorsque lon cherche rsoudre une quation aux
drives partielles parabolique ou elliptique (cf. les sections 7.9 et 9.3). Nous
reviendrons longuement par la suite sur cette tape dans des cas particuliers.
A lissue de cette tape, il nous reste calculer une quantit de la forme
IE(X), o X est une variable alatoire. Pour pouvoir calculer IE(X), il
convient de savoir simuler des variables alatoires indpendantes X1 , . . . , XN ,
ayant toutes la loi de X. Il ne reste plus alors qu approximer IE(X) par :
1
IE(X) (X1 + + XN ).
N
On va donner un exemple dapplication de la mthode de Monte Carlo, au
cas du calcul dune intgrale, en dtaillant les deux tapes cites : mise sous
forme desprance et simulation de la variable alatoire.
Imaginons que lon cherche calculer une intgrale de la forme :
Z
I=
f (u1 , . . . , ud )du1 . . . dud .
[0,1]d
13
IRn
R
avec f (x) positive et f (x)dx = 1. Alors I scrit sous la forme IE(g(X)) si
X est une variable alatoire valeurs dans IRn de loi f (x)dx. Le problme est
alors de savoir comment simuler une variable alatoire selon cette loi. Pour
beaucoup de lois usuelles, cest simple (loi gaussienne, loi exponentielle, . . . ).
Nous allons maintenant rpondre deux questions :
Quand et pourquoi cet algorithme convergetil ?
Quelle ide peut on se faire de la prcision de lapproximation ?
1.2
Thormes de convergence
La rponse ces deux questions est donne par deux des thormes les
plus importants du calcul des probabilits, la loi forte des grands nombres
qui permet de justifier la convergence de la mthode et le thorme de la
limite centrale qui prcise la vitesse de convergence.
14
n+
1
(X1 + + Xn ).
n
alors :
n
n converge en loi vers une gaussienne centre rduite Z.
lim IP( a n b) =
n+
n
n
b
a
x2 dx
e 2 .
2
En pratique, ds que n nest pas trop petit (ce qui est toujours le cas dans
les calculs de Monte Carlo), la probabilit cidessus est pratiquement gale
sa limite, donc on remplace n par une gaussienne centre de variance 2 /n.
15
X1 + + X n
p + Z.
n
n
Comme p(1 p) 1/4, si lon veut faire une erreur moyenne n de lordre
de 0.01 sur la valeur de p, il convient de prendre n de lordre de 2500. Si lon
16
En =
E + Z.
n
n
q
2
= e n1 . Si lon se fixe un
Lerreur relative moyenne est de lordre de E
n
ordre de grandeur de lerreur respecter, on voit quil convient de choisir
2
n 2 (e 1). Si = 1 et = 5, cela donne n = 7 1010 , ce qui est
beaucoup (et mme trop !). Par exemple, dans le cas = 5, la valeur exacte
est de lordre de 27 104 , et aprs 105 tirages, on pourra obtenir comme
valeur estime une quantit de lordre de 85 104 , avec comme intervalle de
confiance 95% [467647, 2176181]. Le seul ct rassurant est que lon est
au courant de ce que lapproximation est trs mauvaise.
Cet exemple montre une des limites pratiques de la mthode de Monte
Carlo lorsquon utilise des variables alatoires de variance grande, et donc
conduit formuler une :
Rgle : dans tout calcul de Monte Carlo, on doit systmatiquement estimer laide des simulations ralises la variance de la v.a. dont on cherche
approcher lesprance.
Un exemple plus concret Dans les applications la finance (cf. ci
dessous le chapitre 9), on est amen calculer des quantits du type :
Z
C = IE e K + ,
(1.1)
17
+
=e
2 /2
log(K)
1
F (x) =
2
eu
KF
2 /2
log(K)
(1.2)
du.
Mais nous allons ici supposer que lon cherche calculer ces quantits par
simulation, soit
C'N
Z1
++ e
ZN
i
i
Supposons maintenant que lon cherche valuer une option de vente appele
put, cest dire :
P = IE K eZ + ,
(1.3)
donc
P 'N
Ke
K eZ
Z1
i
+
++ K e
< Var
eZ K
2 /2
ZN
i
+
K,
18
1.3
Simulation dune loi uniforme sur [0, 1] Tous les langages de programmation des ordinateurs possdent un gnrateur de nombres pseudo
alatoires. Il sagit dun programme qui gnre une suite de nombres parfaitement dterministe, et en plus priodique, mais dont les proprits statistiques lui donnent beaucoup de caractristiques de la ralisation dune suite
de v. a. indpendantes, toutes de loi uniforme sur [0, 1]. La difficult est de
construire en un temps de calcul raisonnable une formule de rcurrence qui
gnre une suite que les tests statistiques acceptent comme tant une suite i.
i. d. de loi uniforme sur [0, 1], avec une priode aussi grandes que possibles.
Ltude de ces algorithmes relve de la thorie des systmes dynamiques. On
trouvera une prsentation des algorithmes classiques de gnration de nombre
pseudoalatoires dans [26] et [37] notamment. Plus rcemment, Matsumoto
et Nishimura [29] ont propos un gnrateur de priode 219937 1 !
Il reste examiner comment simuler les lois usuelles, sachant que lon sait
simuler des v. a. de loi uniforme.
Inversion de la fonction de rpartition Rappelons le rsultat trs classique :
Lemme 1.3.1. Soit X une v. a. r. de fonction de rpartition F continue.
Posons, pour 0 t 1,
F 1 (t) = inf{x, F (x) t}.
Alors si U suit la loi U [0, 1], F 1 (U ) a mme loi que X.
Preuve On utilise la dfinition F (x) = IP(X x). Alors
IP(F 1 (U ) x) = IP(U F (x)) = F (x).
Donc chaque fois que lon a une formule explicite pour linverse de la
fonction de rpartition, cette mthose est utilisable. Cest en particulier le
cas pour la loi exponentielle.
19
Simulation dune loi exponentielle Rappelons quune variable alatoire X suit une loi exponentielle de paramtre si et seulement si pour tout
t IR,
IP(X > t) = exp(t).
Donc si F dsigne la fonction de rpartition de X, F (t) = 1 et , et
F 1 (x) =
log(1 x)
.
log U
' E().
20
N1 a donc mme loi que la variable X que lon cherche simuler. Dautre
part, on peut toujours mettre les variables exponentielles Ti sous la forme
log(Ui )/, o les (Ui )i1 sont des variables alatoires suivant la loi uniforme
sur [0, 1] et indpendantes. N1 scrit alors :
X
N1 =
n1{U1 U2 Un+1 e <U1 U2 Un } .
n1
f (x)
.
k g(x)
p1 = P (U1 (X1 )) =
Z
1
1
f (x)dx = ,
=
k
k
par lindpendance de U1 et X1 .
a(x)g(x)dx
21
f (x)
est proche de
k g(x)
1 et donc si la fonction g a une allure similaire celle de f .
IP(X A) =
f (x)(dx)
= lim IP(
N
pN
pN
{X 6= Xp })
{Up > (Xp )})
= lim (1 p1 )N ,
N
puisque les v.a. (Xp , Up ) sont indpendantes et de mme loi. Par consquent
22
IP[X A] =
=
nN
nN
nN
IP[X = Xn , X A]
IP[
pn1
\
\
{Un (Xn )} {Xn A}]
1
IP[{U1 (X1 )} {X1 A}]
p1
= IP[X1 A|U1 (X1 )].
\
{X1 A}]
(x)g(x)dx =
A
f (x)dx.
A
Pour la simulation dautres lois que nous navons pas cites, ou pour
dautres mthodes de simulation des lois prcdentes, on pourra consulter en
particulier les ouvrages [3], [11], [5] et [42].
1.4
g(x)f (x)dx.
IR
IR
23
g(x)f (x)
f (x)dx.
f(x)
g(Y )f (Y )
f(Y )
g(Y1 )f (Y1 )
g(Yn )f (Yn )
++
f (Y1 )
f(Yn )
IR
g 2 (x)f 2 (x)
dx IE(g(X))2 .
f (x)
24
Z
1 1
(f (x) +
Comme x 1 x laisse invariante la mesure dx sur [0, 1], I =
2 0
f (1 x))dx. On peut donc calculer I de la faon suivante. On tire n variables
alatoires uniformes sur [0, 1] indpendantes U1 , . . . , Un , et on approxime I
par :
I2n
1 1
1
=
(f (U1 ) + f (1 U1 )) + + (f (Un ) + f (1 Un ))
n 2
2
1
(f (U1 ) + f (1 U1 ) + + f (Un ) + f (1 Un )) .
=
2n
25
Lorsque lon compare cette mthode une mthode de Monte Carlo directe lissue de n tirages, on peut montrer que la qualit de lapproximation
samliore pourvu que
IEf (U )f (1 U ) < IEf 2 (U ),
qui est vrai ds que le v. a. f (U ) et f (1U ) sont linairement indpendantes.
On peut gnraliser ce genre dide en dimension suprieure et dautres
transformations prservant la loi de la variable alatoire.
Par exemple, si lon cherche calculer le prix dun put (1.3), on peut
utiliser le fait que la loi de Z est identique celle de Z et rduire la variance
dun coefficient proche de 2.
Mthode de stratification Cest une mthode bien connue de nos statisticiens sondeurs. Supposons que lon cherche calculer I :
Z
I = IE(g(X)) = g(x)f (x)dx.
o X suit la loi f (x)dx. On commence par dcomposer I en :
I=
m
X
Ii =
i=1
m
X
i=1
IE(1{XDi } g(X))
i=1
m
X
i=1
!2
ni
i=1
1 X
Le minimum vaut alors
i . On peut montrer quil est infrieur
n i=1
la variance que lon obtiendrait avec n tirages alatoires par une mthode de
Monte Carlo. Evidemment on ne peut que rarement calculer les i , ce qui
limite la porte de cette technique (mais on peut toujours les estimer laide
dune mthode de Monte Carlo !). Pour des considrations approfondies sur
cette technique on pourra consulter [9].
26
1.5
Exercices
1.5. EXERCICES
27
Exercice 1.5.5. Soit X une variable alatoire relle de fonction de rpartition F . On supposera cette fonction de rpartition inversible et lon note F 1
son inverse.
28
1.5. EXERCICES
29
30
n
X
i h(Vi )
i=0
1
0
R1
0
h(u)du.
(1 v n )f (v) dv
1.5. EXERCICES
31
32
Chapitre 2
Chanes de Markov
Introduction
Une chane de Markov est une suite alatoire {Xn ; n = 0, 1, 2, . . .}, dfinie
sur un espace de probabilit (, F , IP), valeurs dans un ensemble E qui
peut tre arbitraire, mais qui sera ici soit fini soit dnombrable, et qui jouit
de la proprit de Markov. Sans donner tout de suite une dfinition formelle,
indiquons quune suite de Markov a la proprit que connaissant Xn , on peut
oublier le pass pour prdire lavenir. Une faon de fabriquer une telle suite
est de se donner une suite de v.a.{Yn , n 1} qui sont mutuellement indpendantes, et globalement indpendantes de X0 , valeurs dans F , et une
application f : IN E F E, t.q. pour n 1,
Xn = f (n, Xn1 , Yn ).
Dune certaine faon, cest le modle le plus simple dune suite de v. a. non
indpendantes.
Les deux chapitres qui suivent donneront un aperu des nombreuses applications des chanes de Markov. Notons que nous allons prsenter la thorie
des chanes de Markov homognes (dans la formule de rcurrence cidessus,
cela revient prendre f indpendante de n, et les Yn de mme loi), mme
si dans plusieurs applications on a besoin de chanes non homognes. Mme
dans ces casl, les proprits asymptotiques des chanes homognes sont
cruciales.
33
34
2.1
Nous allons dfinir et tudier les chanes de Markov {Xn ; n IN} valeurs dans un espace (fini ou) dnombrable E. On notera x, y, . . . les points
de E. Pour allger la rdaction, on conviendra que pour chaque condition faisant intervenir une probabilit conditionnelle IP(A|B), celleci nest suppose
vrifie que dans le cas o IP(B) > 0.
Dfinition 2.1.1. Le processus stochastique {Xn ; n IN} valeurs dans
E est appel une chane de Markov si pour tout n IN, la loi conditionnelle de Xn+1 sachant X0 , X1 , . . . , Xn est gale la loi conditionnelle sachant
Xn , i.e x0 , . . . , xn , y E,
IP(Xn+1 = y|X0 = x0 , X1 = x1 , . . . , Xn = xn ) = IP(Xn+1 = y|Xn = xn ).
Un critre simple qui permet dans la plupart des cas de vrifier quun
processus est une chane de Markov est donn par le :
Lemme 2.1.2. Soit E et F deux ensembles dnombrables, et f une application de IN E F dans E. Soit X0 , Y1 , Y2 , . . . des v.a. mutuellement indpendantes, X0 valeurs dans E et les Yn valeurs dans F , et {Xn , n 1}
le processus valeurs dans E dfini par
Xn+1 = f (n, Xn , Yn+1 ), n IN.
Alors {Xn , n IN} est une chane de Markov.
Preuve
IP(Xn+1 = y|X0 = x0 , . . . , Xn = xn )
IP(X0 = x0 , . . . , Xn = xn , Xn+1 = y)
=
IP(X0 = x0 , . . . , Xn = xn )
X
IP(X0 = x0 , . . . , Xn = xn , Yn+1 = z)
=
IP(X0 = x0 , . . . , Xn = xn )
{z;f (n,xn ,z)=y}
X
=
IP(Yn+1 = z)
{z;f (n,xn ,z)=y}
IP(Xn = xn , Xn+1 = y)
IP(Xn = xn )
35
Une chane de Markov est lanalogue dun systme dterministe dfini par
une relation de rcurrence du type :
xn+1 = f (n, xn ),
par opposition aux systmes avec mmoiredu type :
xn+1 = f (n, xn , xn1 , . . . , x1 , x0 ).
Ici la fonction f (n, ) est remplace par la matrice de transition :
Pxy = IP(Xn+1 = y|Xn = x).
Dans toute la suite, cette matrice P = (Pxy ; x, y E) sera indpendante de
linstant n. On dit que la chane de Markov est homogne.
La matrice P est dite markovienne (ou stochastique), au sens o elle
vrifie la proprit que x E, le vecteur ligne (Pxy ; y E) est une mesure
de probabilit sur E, cest dire :
X
Pxy 0, y E;
Pxy = 1.
yE
Comme on va le voir, la loi dune chane de Markov est entirement dtermine par la donne dune loi initiale (x ; x E), qui est la loi de X0 , et de
la matrice de transition de la chane.
Dfinition 2.1.3. Soit une probabilit sur E, et P une matrice markovienne. Un processus stochastique {Xn ; n IN} valeurs dans E, et dfini
sur un espace de probabilit (, F , IP), est une chane de Markov (, P ) (i.e.
de loi initiale et de matrice de transition P ) si :
(i)
IP(X0 = x) = x , x E.
36
Preuve
CN. Si IP(X0 = x0 , . . . , Xn1 = xn1 ) > 0,
IP(X0 = x0 , . . . , Xn = xn ) = IP(Xn = xn |X0 = x0 , . . . , Xn1 = xn1 )
IP(X1 = x1 |X0 = x0 )IP(X0 = x0 )
et lgalit cidessus rsulte de la dfinition. Sinon, les deux membres de
lgalit de lnonc sont nuls (considrer le plus petit indice k tel que IP(X0 =
x0 , . . . , Xk = xk ) = 0).
CS. Le (i) de la dfinition rsulte de lgalit de lnonc. Le (ii) sen
dduit aisment. Dmontrons en fait plus que (ii).
IP(Xn+1 = xn+1 , . . . , Xn+p = xn+p |X0 = x0 , . . . , Xn = xn )
x Px x Pxn+p1 xn+p
= 0 0 1
x0 Px0 x1 Pxn1 xn
(ii) sen dduit en choisissant p = 1.
On a en fait montr le :
Corollaire 2.1.5. Si {Xn ; n IN} est une chane de Markov (, P ), alors
pour tous n, p, x0 , . . . , xn+p
IP(Xn+1 = xn+1 , . . . , Xn+p = xn+p |X0 = x0 , . . . , Xn = xn )
= Pxn xn+1 Pxn+p1 xn+p .
Une probabilit sur E est considre comme un vecteur ligne, une application g : E IR est considre comme un vecteur colonne, ce qui justifie
les notations
X
(P )y =
x Pxy
xE
(P g)x =
Pxy gy ,
yE
et lintgrale dune fonction g par rapport une mesure scrit (si la somme
converge absolument)
X
g =
x g x
xE
2.2. EXEMPLES
37
x1 ,...,xn1
x1 ,...,xn1
x1 ,...,xn1
x Pxx1 Pxn1 y
x
Pxx1 Pxn1 y
= (P n )xy
(ii)
On remarque que
IP(Xn = y) =
IP(Xn = y, X0 = x)
xE
xE
et on utilise (i).
(iii)
2.2
2.2.1
Exemples
Marche alatoire sur E = Zd
Soit {Yn ; n IN } une suite de v.a. i.i.d. valeurs dans Zd , de loi commune
, et X0 une v.a. valeurs dans Zd indpendantes (Yn ). Alors
Xn+1 = Xn + Yn+1 , IN
38
2.2.2
Processus de GaltonWatson
Zn
X
in .
i=1
2.2.3
2.3
39
Soit {Xn ; n IN} une chane de Markov valeurs dans E, dfinie sur
lespace de probabilit (, F , IP). Etant donn une probabilit sur E, on
utilisera la notation IP pour dsigner nimporte quelle probabilit sur (, F )
telle que sous IP la suite {Xn , n 0} est une chane de Markov de loi initiale
, i. e. la loi de X0 est la probabilit , soit
IP (X0 = x) = x , x E.
Dans le cas = x , on notera IPx pour IPx . IPx sinterprte comme la probabilit conditionnelle, sachant que X0 = x. Pour tout n 0, on notera Fn
la tribu des vnements dtermins par X0 , X1 , . . . , Xn , i.e.
Fn = {; (X0 (), . . . , Xn ()) Bn }, Bn P(E n+1 ) .
Preuve
Il suffit de faire la preuve dans le cas A = {X0 = y0 , X1 = y1 , . . . , Xn =
yn } (A est une runion au plus dnombrable dvnements disjoints de cette
forme, et le cas gnral sen dduira donc par la additivit de IP). Il suffit
de considrer le cas yn = x, car dans le cas contraire les deux membres de
lgalit sont nuls. Le membre de gauche de lgalit de lnonc vaut
IP(X0 = y0 , . . . , Xn = x, Xn+1 = x1 , . . . , Xn+m = xm )
IP(Xn = x)
ce qui vaut, en appliquant deux fois la Proposition 2.1.4,
IP(A)
Pxx1 Px1 x2 Pxm1 xm ,
IP(Xn = x)
soit
IP(A|Xn = x)IPx (X1 = x1 , . . . , Xm = xm ).
40
Le rsultat prcdent dit en particulier que le pass et le futur sont conditionnellement indpendants, sachant la position de la chane linstant prsent n.
Nous allons maintenant tendre la proprit de Markov en remplaant
linstant fixe n par un instant alatoire qui vrifie une proprit particulire.
Dfinition 2.3.2. Une v.a. T valeurs dans IN {+} est appele un
temps darrt si n IN,
{T = n} Fn .
Autrement dit, lobservation de X0 , X1 , . . . , Xn , la chane jusqu linstant
n, permet de dcider si oui ou non T vaut n.
Exemple 2.3.3. i) i n, linstant Si du premier passage ltat x :
(
inf{n 0; Xn = x} si un tel n existe,
Sx =
+,
sinon;
est un temps darrt, ainsi que linstant du premier retour ltat x :
(
inf{n 1; Xn = x} si un tel n existe,
Tx =
+,
sinon.
Remarque 2.3.4. Avec la convention que linf de lensemble vide vaut +,
il est inutile de dfinir ces temps sur deux lignes :
Tx = inf{n 1; Xn = x}.
Tx est bien un temps darrt, puisque
{Tx = n} = {X1 6= x} . . . {Xn1 6= x} {Xn = x}.
TA = inf{n 1; Xn A}
est un temps darrt.
iii) Par contre, linstant de dernier passage en A
LA = sup{n 1; Xn A}
41
2.4
Proposition 2.4.2. a)
Si x est rcurrent,
IPx (Nx = +) = 1.
b) Si x est transitoire,
IPx (Nx = k) = (1 x )kx , k 0,
avec x = IPx (Tx < ) (en particulier Nx < , IPx p.s.)
42
Preuve Posons
X
=
IPx (Tx2 = Tx + n|Tx < )IPx (Tx < ).
n=1
(P n )xx = +
n=0
Preuve
IEx (Nx ) =
IPx (Xn = x)
n1
X
n1
(P n )xx
43
Daprs la proposition, cette quantit est infinie lorsque x est rcurrent. Mais
si x est transitoire,
IEx (Nx ) =
X
k=1
Y
x
k(1 x )kx
(1 x )1 <
X
r=0
(P )yy
X
1
44
2.5
Proposition 2.5.1. Sous IPx la suite (E0 , E1 , . . .) des excursions est i.i.d.,
cest dire quil existe une probabilit {pu , u U } telle que pour tout k > 0,
u0 , . . . , u k U ,
IPx (E0 = u0 , E1 = u1 , . . . , Ek = uk ) =
k
Y
p u` .
`=0
{E1 = u1 , . . . , Ek = uk }
{XTx +1 = x1 , . . . , XTx +p = xp },
IPx (E0 = u0 , E1 = u1 , . . . , Ek = uk )
= IPx ({E0 = u0 } {XT1 +1 = x1 , . . . , XT1 +p = x}|Tx < )
= IPx (E0 = u0 )IPx (X1 = x1 , . . . , Xp = x)
= IPx (E0 = u0 )IPx (E0 = u1 , . . . , Ek1 = uk )
= IPx (E0 = u0 )IPx (E0 = u1 ) . . . IPx (E0 = uk )
= p u0 p u1 p uk ,
45
y Pyx = x , x E.
y Pyx = x (1 Pxx ),
soit
IP(Xn 6= x, Xn+1 = x) = IP(Xn = x, Xn+1 6= x),
ce qui signifie qu lquilibre, le nombre moyen de dparts de ltat x entre
les instants n et n + 1 est gal au nombre moyen darrives ltat x entre
n et n + 1. On voit que lquation qui caractrise la probabilit invariante est
trs intuitive.
Thorme 2.5.3. Soit {Xn ; n IN} une chane de matrice de transition P
rcurrente irrductible. Alors il existe une mesure strictement positive invariante , unique une constante multiplicative prs.
Preuve Existence Posons yx =nombre moyen de visites ltat y lors de
46
lexcursion E0 partant de x, soit
yx = IEx
Tx
X
n=1
X
n=1
=
=
1{Xn =y}
IPx (Xn = y, n Tx )
XX
zE n=1
X X
zE
x
n=2
= ( P )y .
Notons que lon a utilis la rcurrence lavant dernire galit. On va maintenant utiliser lirrductibilit de la chane. n, m tels que (P n )xy > 0,
(P m )yx > 0. Donc, puisque xx = 1,
z 1 P z 1 y
z1 6=x
= Pxy +
=
=
Pxz1 Pz1 y +
z1 6=x
z 2 P z 2 z 1 P z 1 y
z1 ,z2 6=x
n=0
yx .
47
IPx (Xn+1 = y, Tx n + 1)
Donc y = 0, et ceci y E.
yx
yE
yx
, y E) est une
mx
48
X
yE
yx =
X y
yE
1
< .
x
49
invariante dont le support est cette classe, et toutes les mesures invariantes
sobtiennent comme combinaison linaire convexe des prcdentes. Donc ds
quil existe au moins deux classes rcurrentes, il y a une infinit non dnombrable de probabilits invariantes.
Revenons au cas irrductible. On peut maintenant tablir le thorme
ergodique, qui constitue une gnralisation de la loi des grands nombres.
Thorme 2.5.7. Supposons la chane irrductible et rcurrente positive.
Dsignons par = (x , x E) son unique probabilit invariante. Si f : E
IR est borne, alors IP p. s., quand n ,
n
X
1X
f (Xk )
x f (x).
n k=1
xE
N (n)
N (n)1
Sx0 + + Sx x
Nx (n)
n
S 0 + + Sx x
x
Nx (n)
Nx (n)
Sx0 + + Sx x
Nx (n)
n
mx IPx p.s.
Nx (n)
50
1
Nx (n)
IPx p.s.
n
mx
Cette convergence a galement lieu IP p.s., loi initiale, puisque les limites de Nxn(n) sont les mmes pour la chane {Xn ; n 0} et pour la chane
{XTx +n ; n 0}.
X
Soit maintenant F E. On note f =
x f (x).
xE
n
X N (n)
1 X
x
f (Xk ) f =
x f (x)
n
n
xE
k=1
X Nx (n)
X Nx (n)
+ x
c
n x + c
n
xF
xF
/
X Nx (n)
X
X
N
(n)
x
=c
x
+ 2c
x
n x + c
n
xF
xF
xF
/
X Nx (n)
X
2c
x
n x + 2c
xF
xF
/
x
4c
n
xF
x
On va maintenant tablir un thorme de la limite centrale, en nous limitant - pour simplifier - au cas E fini.
Thorme 2.5.8. Soit {Xn ; n IN} une chane de Markov valeurs dans
E fini, de matrice de transition P irrductible. Soit lunique probabilit
invariante de la chane, et f : E IR telle que
X
f =
x fx = 0.
xE
1 X
51
f (Xk ) =
nfx
x
n 1
n
xE
!
r
p
X
Nx (n)
n
Nx (n)
p
=
x f x
n
Nx (n)
x
xE
,
x f x
n
N
(n)
x
xE
X
(Qf )x =
IEx [f (Xn )], x E.
n=0
Notons que
(I P )Qf = f.
52
On a
f2 =
X
xE
=2
X
x
2.6
x (Qf )2x
X
x
x (Qf )x fx
x (P Qf )2x
X
x fx2 .
Le cas apriodique
1X k
(P )xy y , x, y E.
n k=1
On voit que les moyennes de Csaro des (P k )xy convergent. On peut se poser
la question : estce que
(P n )xy y , x, y E
Il est facile de voir que ce nest pas toujours le cas sous lhypothse irrductible et rcurrent positif.
Considrons une marche alatoire sur E = Z/N , N entier pair (i.e. on
identifie 0 et N )
Xn = X 0 + Y 1 + + Y n ,
avec les Yn i.i.d. valeurs dans {1, 1}, autrement dit
Xn = (X0 + Y1 + + Yn ) mod N.
Cette chane est irrductible, et rcurrente positive car E est fini. Mais
(P 2k+1 )xx = 0, pour tout x E. Dans le cas particulier N = 2, on a P 2k = I
et P 2k+1 = P .
Pour esprer avoir la convergence souhaite, il faut faire une hypothse
supplmentaire
53
pour tout n N.
54
Xn , n T ;
Yn , n > T .
55
Elle entrane que cet tat x est apriodique. Mais elle nentrane pas lirrductibilit (il est facile de construire un contreexemple). On verra lexercice
2.9.5 que cette condition entrane lexistence dune unique classe rcurrente,
donc dune unique probabilit invariante.
Lemme 2.6.6. Si P est irrductible et apriodique, et E fini, alors la condition (D) est satisfaite.
Preuve Choisissons x E. y E, ny tel que n ny (P n )yx > 0.
Posons n
= sup ny , = inf (P n )yx . Alors > 0, et y E,
yE
(P n )yx .
Donc la condition (D) est satisfaite avec n0 = n
, = , = x .
xE
56
inf
(X,Y ) couplage de p, q
IP(X 6= Y ).
X
xE
px q x ,
do
IP(X 6= Y ) 1
=
X
xE
px q x
(px qx )+ ,
|px qx |
xE
et
kp qk1 =
xE
2IP(X 6= Y ).
P
Dun autre cot, posons =
xE px qx . Si , U , V et W sont des v.
a. indpendantes, avec IP( = 1) = 1 IP( = 0) = , U de loi r t.q.
rx = 1 px qx , V de loi p t.q. px = (1 )1 (px qx )+ , W de loi q t.q.
qx = (1 )1 (qx px )+ , alors
X = U + (1 )V,
Y = U + (1 )W
ralise un couplage (X, Y ) de p et q tel que 2IP(X 6= Y ) = kp qk1 .
57
Notons que lon a bien construit un couplage (X`n0 , Y`n0 ) de P `n0 et P `n0 ,
pour ` = 0, . . . , k, tel que
IP(X`n0 6= Y`n0 ) IP(`m=0 m = 0) = (1 )` .
Il reste construire un couplage (Xn , Yn ) de P n et P n , tel que {Xn 6=
Yn } {Xkn0 6= Ykn0 }, ce qui est facile.
58
2.7
IP(Xn = x)
.
IP(Xn+1 = y)
59
Pxy =
Pxx ,
si x = y.
60
2.8
x =
1{X` =x}
n+1
`=0
n
Pxy
=
n1
X
`=0
n1
X
`=0
On a la
1{X` =x}
2.9. EXERCICES
61
n
Proposition 2.8.2. Pour tout x, y E, Pxy
Pxy p.s. quand n .
Preuve On a bien sr
n1
n
Pxy
=
On sait que
1X
1{X` =x}
n `=0
!1
n1
1X
1{X` =x,X`+1 =y} .
n `=0
n1
1X
1{X` =x} x .
n `=0
1X
1{X` =x,X`+1 =y} x Pxy
n
`=0
2.9
Exercices
1
0
0
Q = p 1 p q q (p, q > 0, p + q 1)
0
0
1
1/2 0
0 1/2
0
P =
0
0 1/4
1/2 0
0
0 1/2
0 1/2 0
1
0
0
.
1/4 1/4 1/4
0
0 1/2
62
2/3 1/3 0
0
0
1/4
0
0 1/5 2/5
0
0
1/2
0
0
P =
0
0
2/3
0
0
0
0
0
0
1/2
0
0
0
0 1/2
1 Dterminer les termes diagonaux de la matrice de transition P .
2 Montrer que E est constitu de trois classes dquivalence que lon prcisera, lune T tant transitoire, les deux autres R1 , R2 rcurrentes.
2.9. EXERCICES
63
quil existe x E, > 0 tels que la chane puisse tre simule comme
suit : chaque instant n, on va ltat x avec la probabilit , et on
fait un autre mouvement (qui lui dpend de ltat o est la chane) avec
probabilit 1 ).
2. Montrer que le rsultat est encore vrai dans le cas gnral de lhypothse (D). (Indication : considrer la chane chantillonne {Xkn0 , k =
0, 1, . . .}).
X
Exercice 2.9.6. Montrer que si x est rcurrent, alors
(P n )xy = + ssi
n0
x y, = 0 ssi x 6 y.
o les Xn prennent leurs valeurs dans Z, les Yn dans {1, 1}, X0 , Y1 , .., Yn , ..
tant une suite indpendante, et pour tout n,
IP(Yn = 1) = p = 1 IP(Yn = 1),
0 < p < 1.
1 i d,
64
n
X
k=1
Yk 1{Ta,b >k1} .
a Montrer que les v.a. Yk et 1{Ta,b >k1} sont indpendantes. En dduire que
IEXnTa,b = x.
b Montrer que |XnTa,b | sup(|a|, |b|), Ta,b < p.s., et
IEXTa,b = x.
c Etablir les identits
IP(XTa,b = a) =
bx
,
ba
IP(XTa,b = b) =
xa
.
ba
2.9. EXERCICES
65
a Montrer que la chane ainsi dfinie est irrductible valeurs dans IN.
Prciser sa matrice de transition.
b Montrer que p.s., Xn Xn0 , n. En dduire que {Xn } est transitoire
dans le cas p > 1/2.
c On pose T = inf{n 0, Xn = 0}. Montrer que Xn = Xn0 si T n.
En dduire que la chane est rcurrente dans le cas p 1/2 (on pourra
par exemple montrer que ltat 1 est rcurrent).
d Montrer que la chane est rcurrente nulle dans le cas p = 1/2, rcurrente positive dans le cas p < 1/2 (on montrera que dans le premier
(resp. le second) cas, la mesure (1/2, 1, 1, 1, . . .) (resp. la mesure dfinie par
0 =
1 2p
,
2(1 p)
x =
1 2p px1
, x1
2 (1 p)x+1
Px,x = rx ,
Px,x+1 = px ,
2. Pour a < x < b, tablir une relation entre u(x) u(x + 1) et u(x 1)
u(x). Calculer u(a) u(b) en fonction des x , et en dduire que pour
a < x < b,
y=b1
y=b1
X
X
y .
u(x) =
y /
y=x
y=a
3. Calculer
IP1 (0 = ) et montrer que la chane est rcurrente ssi
P
0 y = +.
66
X
p0 p1 px1
x=1
q1 q2 q x
< .
5. Montrer que dans le cas rcurrent positif la chane est rversible. (Indication : on remarque tout dabord que pour x > 0 la relation x = (P )x
scrit
x Px,x1 + x Px,x+1 = x1 Px1,x + x+1 Px+1,x .
On considre ensuite le cas x = 0, puis on montre par rcurrence que
x Px,x+1 = x+1 Px+1,x ,
x 0).
2. Donner une CNS sur p et q pour que la chane {Xn } possde une probabilit invariante. On supposera dans la suite que cette condition est
satisfaite et on notera {x , x IN} lunique probabilit invariante que
lon dterminera.
3. Calculer IE (Xn ).
4. On prcise maintenant que les clients sont servis dans lordre de leur
arrive. On dsigne par T le temps de sjour dun client quelconque. Le
systme tant initialis avec sa probabilit invariante, quelle est lesprance de T ?
2.9. EXERCICES
67
68
n
X
k=1
1{Xk =x} ,
x IN
2.10
2.10.1
Problmes corrigs
Enoncs
1/2 0
0
0
0
1/3
0
0
0
0
0
0
0
7/8
0
P =
1/4 1/4 0
1/4
1/4
0
0 3/4 0
0
0 1/5 0 1/5 1/5
69
X
yE
Pxy y ,
si x T .
6. Calculer 4 et 6 .
7. En dduire (quasiment sans calcul !) les valeurs de IP 4 (TC 0 < ) et de
IP6 (TC 0 < ), o TC 0 := inf{n 0; Xn C 0 }.
Problme 2.10.2. Supposons quune mmoire dordinateur contient n donnes 1, 2, . . . , n. Cette mmoire reoit des requtes successives, qui consistent
en une des donnes. Plus la donne requise est proche de la tte de liste,
plus laccs la requte est rapide. On suppose que les requtes successives
sont des v. a. i. i. d. Si la loi commune des requtes tait connue, on aurait
intrt ranger les donnes par ordre dcroissant de probabilit dtre requis.
Mais cette probabilit (p1 , p2 , . . . , pn ) est inconnue (ou lentement variable).
On suppose que pk > 0, 1 k n.
On va donc choisir une faon de replacer la donne aprs consultation,
de telle sorte qu long terme le rang moyen des donnes requises soit le plus
petit possible.
On va considrer deux telles mthodes. La premire consiste replacer
en tte de liste la donne qui vient dtre requise. La seconde consiste faire
progresser celleci dun rang en la replaant dans la mmoire. Dans chacun
des ceux cas, on a une chane de Markov irrductible valeurs dans lensemble
E des permutations de lensemble {1, 2, . . . , n}. On notera Q la matrice de
transition de la premire chane et la mesure invariante associe, P la
matrice de transition de la seconde chane et la mesure invariante associe.
A la chane de matrice Q, on associe la quantit
def
JQ =
n
X
(position de k)pk ,
k=1
70
JP =
n
X
(position de k)pk .
k=1
m
Y
1
Y
Pki+1 ki Pk1 k
i=m1
i=2
est rversible.
3. Montrer que P vrifie (i) et (ii).
4. Montrer que la seconde procdure est prfrable, au sens o J P < JQ .
Problme 2.10.3.
A Soit X le nombre alatoire dindividus dans une
population donne, de fonction gnratrice (u) = IE[uX ], 0 u
1. Indpendemment des autres, chaque individu est slectionn avec
probabilit q (0 < q < 1). On note Y le nombre dindividus slectionns
parmi la population initiale de X individus. Montrer que la fonction
gnratrice de Y (dfinie par (u) = IE[uY ]) est donne par
(u) = (1 q + qu).
B On considre un systme de service (pourvu dun nombre illimit de
serveurs), et on note Xn (n = 0, 1, 2, . . .) le nombre de clients prsents
dans le systme linstant n. On suppose qu linstant n + 1/3 chacun
des Xn clients prsents est servi et quitte le systme avec probabilit
1 p, et reste avec probabilit p (indpendemment des autres, et de tout
le reste) (on notera Xn0 le nombre de clients restant), et qu linstant
n + 2/3 Yn+1 clients nouveaux arrivent. On suppose que les variables
alatoires X0 , Y1 , Y2 , . . . sont indpendantes entre elles et globalement
indpendantes des fin de service des clients aux diffrents instants, et
que la loi commune des Yn est la loi de Poisson de paramtre > 0
(i.e. IP(Y = k) = e k /k!, et IE[uYn ] = exp[(u 1)]).
71
1/4 1/3 0
0
0
1/4
0 1/4 1/3 0
1/2 0
0
0
0
.
P =
0
0
0
1/2 1/3
0
0
0 1/2 1/2
0
0
0 1/3 1/4
1. Dterminer les termes diagonaux de la matrice de transition P .
2. Montrer que E est constitu de deux classes dquivalence que lon prcisera, lune R tant rcurrente et lautre T transitoire.
hx = 1 +
X
yE
Pxy hy .
72
Problme 2.10.5. Soit X0 , A0 , D0 , A1 , D1 , . . . des v.a. indpendantes valeurs dans IN. Les Dn suivent la loi de Bernoulli de paramtre q, i. e.
IP(Dn = 1) = 1 IP(Dn = 0) = q, avec 0 < q < 1. Les An suivent toutes la
mme
k , k IN, avec 0 rk < 1, 0 < r0 < 1
Ploi dfinie par IP(An = k) = rP
et k=0 rk = 1. On suppose que p = k krk < .
On considre la suite de v.a. {Xn ; n IN} dfinie par rcurrence partir
de X0 par
Xn+1 = (Xn + An Dn )+ ,
avec la notation usuelle x+ = sup(x, 0).
1. Montrer que {Xn ; n IN} est une chane de Markov, prciser sa matrice de transition P , et montrer que cette chane est irrductible.
On suppose dornavant
Pn1que X0 = 0. On note T = inf{n > 0; Xn = 0},
et on dfinit Sn = k=0
(Ak Dk ).
2. Montrer que Xn Sn , et que Xn+1 = Sn+1 sur lvnement {T > n}.
73
p 1p 0
0
0
0
p 1 p
.
P =
p 1 p 0
0
0
0
p 1p
1 2 3 4
1 2 3 4
1 2 3 4 .
1 2 3 4
1
1
1
0 41
4
4
4
p 0 1p 0 1p
1p 2 1p 2
P =
0
0
2
p 2 1p
,
1p
p 0
0
2
2
1p
1p
p 2
0
0
2
k=1
74
x, y E,
2.10.2
Corrigs
75
5. Soit x T .
IPx (T < ) = IPx (T = 0) + IPx (T = 1) + IPx (2 T < )
X
= 0 + IPx (X1 C) +
IPx (X1 = z, T < )
=
Pxy +
yC
zT
Pxz z
zT
Pxy y ,
yE
zT
6 = 1/5 + 4 /5 + 26 /5,
76
Ik` .
`6=k
Donc
JQ =
pk (position de k)
1kn
"
pk 1 +
1kn
=1+
XX
k
=1+
(` prcde k)
`6=k
pk (` prcde k)
`6=k
k<`
=1+
X
k<`
p` .
k<`
p`
.
p` + p k
77
p`
.
p` + p k
pk
(. . . , `, i1 , . . . , ij , k, . . .).
p`
def
p`
.
p` + p k
X
IE[uY |X = x]IP(X = x)
=
x=0
= IE (qu + 1 q)X
= (qu + 1 q).
78
Xn
X
Zn+1,k
k=1
et
Xn+1 = X 0 n + Yn+1 .
On voit alors aisment que lon peut appliquer le Lemme 2.1.2 pour
montrer que {Xn ; n IN} est une chane de Markov. Remarquons
cependant que la suite des Yn du lemme est ici la suite des (Yn , Zn, ),
qui prend ses valeurs dans {0, 1}IN , qui nest pas dnombrable mais
continu (le lemme est bien sr encore vrai dans ce cas). Cette chane
est irrductible, sa matrice de transition P ayant mme la proprit
Px,y > 0, pour tous x, y IN, puisque
Px,y > IP(X 0 n = 0|Xn = x)IP(Yn+1 = y) > 0.
2. La seconde galit cidessous rsulte de lindpendance entre Yn+1 et
le couple (Xn , Xn0 ).
i
h 0
Xn+1
X n +Yn+1
|Xn = x
|Xn = x = IE u
IE u
i
Yn+1 h X 0 n
IE u |Xn = x
= IE u
= e(u1) (pu + 1 p)x ,
79
4. Lidentit de lnonc sobtient en crivant que le temps mis pour atteindre R, partant de x linstant 0, vaut 1 plus le temps mis atteindre R, partant du point X1 , soit
hx = 1 + IE [IEX1 (T )] .
Tenant compte de ce que h4 = h5 = h6 = 0, on obtient le systme
linaire
5
1
1
h1 + h2 + h3
12
4
3
1
1
h2 = 1 + h1 + h2
4
6
1
1
h3 = 1 + h1 + h3 .
2
2
h1 = 1 +
80
P0 0 = IP(An Dn 0) = r0 + qr1
P
x x+k = qrk+1 + (1 q)rk , k IN,
Px x1 = q r0 , i IN
Px x` = 0, ` 2, i `
2.
Puisque r0 < 1, il existe k > 0 tel que rk > 0. En outre q < 1. Donc
Px,x+k > 0 et en outre Px,x1 > 0, donc partant de x, la chane peut
atteindre x + nk ` en n + ` coups, n, ` IN . Or pour tout x 6= y, il
existe n, ` IN tels que y = x + nk `.
Xn+1 Xn + An Dn .
n1
Sn
1X
1X
Ak
Dk
=
n
n 0
n 0
IE A0 IE D0 = p q
81
6. Dans le cas p > q, on vient de voir que ltat 0 est transitoire (un tat
rcurrent est visit une infinit de fois), donc la chane est transitoire.
Dans le cas p < q, P (T < ) = 1, ce qui veut dire exactement que 0
est rcurrent, donc la chane est rcurrente.
7. On a P =
1 p + qp
(1 q)p
0
0
0
q(1 p) qp + (1 q)(1 p)
(1 q)p
0
0
0
q(1
p)
qp
+
(1
q)(1
p)
(1
q)p
0
..
..
..
..
..
.
.
.
.
.
..
..
..
..
..
.
.
.
.
.
8. Dans le cas p = q, tant quelle est dans IN , la chane se comporte
comme une marche alatoire symtrique, sauf que IP(Xn+1 = Xn ) > 0.
Si on dfinit T1 = inf{n 0, Xn 6= X0 }, T2 = inf{n T1 ; Xn 6=
XT1 }, . . . alors Zn = XTn , n N est une chane de Markov de matrice
de transition
0
1
0
0
0
0
1/2 0 1/2 0
0
0
0
0
1/2
0
1/2
0
0
P =
0
0
1/2
0
1/2
0
..
..
..
..
.. ..
.
.
.
.
.
.
donc
( P )x = x , x 1.
82
Corrig du problme 2.10.6
5. Daprs le thorme 2.5.4 du cours, IEx (Tx ) = 1/x , donc IE4 (T4 ) =
(1 p)2 .
Corrig du problme 2.10.7
1. Les tats 1, 2, 3 et 4 communiquent avec ltat 0, donc la chane est
irrductible, donc rcurrente puisque lespace dtat est fini.
2. Posons E 0 = {1, 2, 3, 4}. Pour k 2, on a
{T = k} = {X1 E 0 , . . . , Xk1 E 0 , Xk = 0},
IP0 (T = k) = IP0 (X1 E 0 , . . . , Xk1 E 0 , Xk = 0)
= (1 p)k2 p,
X
k=2
k(1 p)k2 p =
p+1
.
p
83
y Pyx =
z0 P z, u =
donc si x = u,
u0 =
z P z,x ,
z0 Pzu .
84
Chapitre 3
Quelques algorithmes
stochastiques
Introduction
Le but de ce chapitre est de prsenter des algorithmes qui sont bass sur
la simulation dune chane de Markov.
Les trois premires sections seront consacres ltude de la mthode de
Monte Carlo par chane de Markov, trs utilise pour simuler suivant une
loi de probabilit sur un ensemble de cardinal trop grand pour permettre
lutilisation de la mthode de Monte Carlo standard. La section suivante est
consacre la prsentation dun algorithme doptimisation : le recuit simul.
Dans ce chapitre, toutes les chanes de Markov prendront leurs valeurs
dans un ensemble fini E.
3.1
85
86
f (x)x
par
xE
N
1 X
f (Xn ).
N n=1
P
=
1
xx
xy
y6=x
1 k n.
87
Rxy =
P
0,
{z;(x,z)G} z
1
y , si (x, y) G;
si (x, y) 6 G.
(nx )1 , si (x, y) G;
0,
si (x, y) 6 G;
88
3.1.1
Un cadre dapplication
Nous allons maintenant dcrire le cadre classique dapplication de la mthode de Monte Carlo par chane de Markov en physique statistique et en
traitement dimages. Cette mthode est galement trs utilise en statistique
baysienne, cf. la section 7.8.3 cidessous.
On prend E de la forme :
E = S ,
i.e. un point x E est une application :
m x(m) S.
est lensemble des sites (ensemble des points (ou pixels) de limage
discrtise). et S sont finis, et donc aussi E.
Typiquement, est trs grand. Par contre, S (ensemble des niveaux de
gris dans le cas dune image) est de taille plus modeste. Dans certaines applications, S = {1, +1}. Mme dans ce cas le plus simple, card E = 2card ,
donc effectivement E est gigantesque ds que est grand.
Chaque v.a. Xn de la chane prend ses valeurs dans S . Cest donc une
application de dans S. Pour chaque m , Xn (m) est une v.a. valeurs
dans S.
La chane {Xn ; n IN} volue de telle sorte quentre les instants n et
n + 1 une seule composante de X est modifie, i.e. il existe m tel que
m
Xn+1 Xn ,
au sens o Xn+1 (m0 ) = Xn (m0 ), m 6= m0 . Autrement dit le graphe G ci
dessus est tel que (x, y) G si et seulement si x et y ne diffrent quen un
seul site. La mthode de simulation de la chane de Markov va consister
choisir chaque tape un site m modifier, et modifier de faon alatoire
la valeur de Xn (m).
Dcrivons dabord la faon de passer de Xn (m) Xn+1 (m). On verra
ensuite comment choisir la faon de visiter les diffrents sites, i.e. quel m
choisir linstant n. La faon de passer de Xn (m) Xn+1 (m) est dcrite par
m
(m)
une matrice markovienne P (m) , qui a la proprit que Pxy = 0, sauf si x y
(i.e. si toutes les composantes de x et y concident, sauf peut tre celle note
m). On veut que la mesure soit invariante par P (m) .
Pour cela, on va chercher assurer la rversibilit, i.e. que
(m)
(m)
x Pxy
= y Pyx
, x, y E, m .
89
(m)
(m)
(m)
x Pxy
= (x Rxy
) (y Ryx
),
et
(m)
Pxx
=1
X
y6=x
(m)
Pxy
0.
(m)
yx
Yn avec probabilit y R(m)
1,
x Rxy
Xn+1 =
(m)
X avec probabilit 1 y Ryx 1.
n
(m)
x Rxy
1
X
m
(m)
(m)
Pxy
= Rxy
=
z y , si x y,
m
z x
(il consiste choisir Xn+1 (m) en tirant suivant la loi conditionnelle sous ,
sachant les autres composantes (autres que m)), et lalgorithme de Mtropolis,
qui sous sa forme la plus simple consiste choisir
m
(m)
Rxy
= (|S| 1)1 , si x y, si bien que
y
m
(m)
1
Pxy = (|S| 1)
1 , x y, x 6= y.
x
90
On a alors clairement
x Pxy = y Pyx ,
et donc si P est irrductible, est lunique probabilit invariante de la chane
{Xn ; n IN}. Notons que lirrductibilit est assure avec les deux choix
dcrits cidessus pour R(m) , et un tirage uniforme du site chaque pas.
3.1.2
Le modle dIsing
H(x) =
1
2
m,m0
|mm0 |=1
Notons que H est petit lorsque x tend prendre la mme valeur aux points
voisins. On dfinit :
E + = {x E; x(m) = 1, m }.
Pour tout > 0 (1/ sinterprte comme une temprature), on dfinit la
probabilit sur E + :
x =
1 H(x)
e
, x E +,
Z()
91
avec bien sr
Z() =
eH(x) ,
xE +
lorsque sinh 2 1, on obtient que pour N trs grand, la loi de X(0) nest
gure influence par la condition au bord choisie (i. e. le choix des valeurs de
{x(m), m }), alors que linverse est vrai mme la limite N si
sinh 2 > 1.
Les physiciens sont trs intresss raliser des simulations sous la probabilit pour N grand (pour tenter dobserver des phnomnes, du type
du rsultat dOnsager, mais que lon ne sait pas encore dmontrer concernant ventuellement des modles plus compliqus et moins bien connus que
le modle dIsing). Mais pour N vraiment grand, il est impossible de simuler
directement selon la loi . Il est mme quasiment impossible de calculer la
constante de normalisation Z(). Nous allons dcrire la mthode de Monte
Carlo par chane de Markov dans une version paralllisable, qui exploite la
forme particulire du modle dIsing.
Dcrivons tout dabord lchantillonneur de Gibbs. Considrons une partition de suivant la parit de la somme de deux coordonnes du point m
considr :
+ = {(m1 , m2 ) ; m1 + m2 est pair}
= {(m1 , m2 ) ; m1 + m2 est impair}
Pour x E, on note :
x+ = (x(m), m + ),
x = (x(m), m )
Il rsulte de la forme du modle dIsing que + (x+ |x ), la probabilit que
X + = x+ , sachant que X = x , si X est une v.a. de loi , est de la forme (on
92
utilise la notation pour dire que deux fonctions sont gales une constante
de normalisation prs) :
Y
+ (x+ |x )
ex(m)s(m) ,
m+ \
avec, si m + \,
s(m) =
x (m0 ).
m0 ;|m0 m|=1
|m0 m|=1
On a ainsi obtenu
On simule ensuite Xn+1
(m) en conditionnant
+
par la valeur de Xn+1 (m). Le processus obtenu {Xn , n IN} est bien une
chane de Markov irrductible, de probabilit invariante .
3.1.3
93
p(m, x, y) =
3.1.4
Chanes chauffes
La convergence de lalgorithme MCCM requiert que la chane simule visite suffisament souvent tous les tats. Or la forme de la probabilit de transition peut tre telle que la chane a tendance rester pige trs longtemps
dans certaines zones de lespace des tats. Supposons pour fixer les ides que
94
2 exp[H(x) H(y)],
Pxy = 1 21 exp[H(x) H(x + 1) 21 exp[H(x) H(x 1)],
0,
simuler la
si y = x 1,
si y = x,
sinon.
1
exp[(H(x) H(y))],
2
si y = x 1,
3.2
95
3.2.1
Simulation parfaite
xE
cest dire quil existe y E tel que Pxy > 0, x E. Cette condition n est
autre que la condition (D) de la section 2.6, mais avec la restriction n0 = 1.
Il est clair que (P ) 1. On pose
y =
inf x Pxy
, y E,
(P )
96
Donc si {Un , n IN} est une suite de v.a. i.i.d. de loi U ([0, 1]), indpendante de X0 ,
Xn = F (Xn1 , Un ), n 1
97
Donc
IP(XT = x, T = n) = (1 (P ))n (P )x
On va maintenant construire une chane stationnaire de matrice de transition P .
On se donne une suite i.i.d. {Un , n Z} de v.a. de loi U ([0, 1]), et on
pose
Nk = 1{Uk <(P )} , k Z.
Les {Nk } sont des v.a. de Bernoulli indpendantes.
Pour tout n Z, on pose
(n) = max{k n; Uk < (P )}.
Notons que (k) = (n), k [ (n), n]. En outre, on a IP(n (n) >
k) = (1 (P ))k .
On dfinit alors le processus {Xn , n Z} comme suit. k Z tel que
Nk = 1, on pose
X
Xk =
y1{Uk J(y)} .
yE
Soit maintenant k tel que Nk = 0. X (k) est dfini par la formule cidessus.
En outre,
X (k)+1 = F (X (k) , U (k)+1 ), . . . , Xk = F (Xk1 , Uk ).
Proposition 3.2.4. Le processus {Xn , n Z} ainsi dfini est stationnaire
(i.e. ` Z, k IN, (X`+1 , . . . , X`+k ) ' (X1 , . . . , Xk ), au sens o ces deux
vecteurs ont la mme loi).
En particulier, la loi de X0 est lunique probabilit invariante de la chane
de matrice de transition P .
Preuve Il suffit de montrer le dernier point. On note
Pxy = (1 )Pxy + y .
98
On a
IP(X0 = x) =
X
k=0
IP(X0 = x, (0) = k)
IP(X0 = x| (0) = k)(1 )k
k=0
k=0
( P k )x (1 )k
X
k=0
X
k=0
( P k )x (1 )k P
( P k+1 )x (1 )k+1 +
= ,
3.2.2
99
Xn2,k
si n = k
2,
2,k
2,k
1,k
2
= F (Xn1 , Un ), si n > k et Xn1
6= Xn1
2,k
2,k
1,k
F (Xn1
, Un1 ), si n > k et Xn1
= Xn1
;
XnN,k
N,
si n = k
i,k
N,k
et iN = inf{i; Xn1
= Xn1
}
100
IP({X0
Donc
x, (0)
IP(X0
X
zE
zE
X
zE
0, quand k
Algorithme de couplage depuis le pass
On choisit k Z
i
, . . . , U0i , 1 i N .
1. On gnre Uki , Uk+1
2. On construit laide de la suite prcdente, et de lalgorithme cidessus,
(X`1,k , . . . , X`N,k , ` = k, k + 1, . . . , 0).
3. On teste si oui ou non
X01,k = X02,k = = X0N,k .
Si oui, alors X01,k est une ralisation de la probabilit invariante .
Si non, on repart plus loin dans le pass. Pour ce faire, on gnre
i
i
i
U2k
, U2k+1
, . . . , Uk1
; 1 i N,
101
3.3
102
f (y, x2 , . . . , xd )1 (dy)
,
f (z, x2 , . . . , xd )1 (dz)
E1
103
104
Or on a
X
xE
(x)Pxy =
x1 ,...,xn
f (y , x , . . . , xn )1 (y1 )
P 1 2
z1 f (z1 , x2 , . . . , xn )1 (z1 )
f (y1 , y2 , x3 . . . , xn )2 (y2 )
z2 f (y1 , z2 , x3 , . . . , xn )2 (z2 )
f (y1 , . . . , yn1 , xn )n1 (yn1 )
P
zn1 f (y1 , . . . , zn1 , xn )n1 (zn1 )
f (y1 , . . . , yn1 , yn )n (yn )
P
zn f (y1 , . . . , yn1 , zn )n (zn )
f (y1 , x2 , x3 , . . . , xn )2 (x2 )
P
z2 f (y1 , z2 , x3 , . . . , xn )2 (z2 )
f (y1 , . . . , yn1 , xn )
P
zn f (y1 , . . . , yn1 , zn )n (zn )
3.4
105
Le recuit simul
N
X
k=1
d(xk , xk+1 ),
106
xE
xE
3.5. EXERCICES
107
et convenablement complte sur la diagonale, a les proprits requises. Notons que plus est grand, plus les transitions qui diminuent la valeur de U
sont rares. Pourvu que le choix du graphe G ne rende pas la chane priodique, si est fix et {Xn , n 0} est une chane de Markov de matrice de
transition P , la loi de Xn converge vers quand n . Lide de lalgorithme du recuit est de faire dpendre de n, de telle sorte que +
quand n , avec lespoir que alors Xn converge vers le (ou lensemble des)
maximum de la fonction U . Ceci est vrai si tend suffisamment lentement
vers + (do la terminologierecuit). Nous donnerons un rsultat dans ce
sens pour lanalogue dune chane de Markov, mais en temps continu, la
section 7.10 cidessous.
3.5
Exercices
(3.2)
108
2. Montrer que sil existe une mesure de probabilit invariante, elle est
forcment unique et que pour toute probabilit la suite P n est de
Cauchy.
3. Soit (Xn , n 0) une chane de Markov de matrice de transition P .
Montrer que quelle que soit la loi initiale de X0 , la loi de Xn converge
vers une unique loi de probabilit invariante et que de plus :
|P n | Cn
(3.3)
(3.4)
A(X0 , X1 ) A(Xn1 , Xn )
b(Xn )
(X0 )P (X0 , X1 ) P (Xn1 , Xn )
3.5. EXERCICES
109
e0 )
W = y(X
e0 , X
e1 ) A(X
eT 2 , X
eT 1 )
A(X
eT 1 )
b(X
e0 )Pe(X
e0 , X
e1 ) Pe(X
eT 2 , X
eT 1 )Pe(X
eT 1 , X
eT )
e(X
110
Chapitre 4
Chanes de Markov et gnome
Introduction
Ce chapitre est consacr la prsentation de mthodes dannotation du
gnome (en particulier la recherche des rgions codantes, donc des gnes) et
aussi dalignement de squences dADN, qui utilisent les chanes de Markov.
Ce chapitre contient en particulier une prsentation des chanes de Markov
caches et des algrithmes qui leur sont associs. Cette notion est utilise
dans de nombreuses applications autres que la gnomique, par exemple en
reconnaissance de la parole, cf. Jelinek [23]. On pourra consulter sur le sujet
de ce chapitre entre autres [15], [16] et [31], dont nous nous sommes inspir.
4.1
On considre un fragment dADN, sous la forme dun simple brin constitu dune succession de nuclotides, que nous considrerons comme des lettres
dans lalphabet a, c, g, t, a pour adnine, c pour cytosine, g pour guanine,
t pour thymine, par exemple
a c c g t a a t t c g g a t t g c
112
rgions codantes en introns et exons. Notons que les rgions codantes sont lues
par codons, i.e. triplets de nuclotides, chaque codon tant ensuite traduit
en un acide amin. La succession des acides amins cosntitue une protine.
Il est donc essentiel de lire chaque rgion codante dans la bonne phase de
lecture. Oublier un codon nest pas forcment trs grave, mais se tromper en
dcalant la lecture dun ou de deux nuclotides est catastrophique !
On est aid dans cette dmarche par la prsence dun codon START (resp.
STOP) au dbut (resp. la fin) de chaque rgion codante. Mais tout START
potentiel nen est pas forcment un. Par contre, un STOP potentiel, dans
une rgion codante, rencontr dans la bonne phase de lecture, est un STOP.
Et il ny a pas de signaux aussi nets marquant la transition entre intron et
exon.
Pour pouvoir faire la distinction entre plages codantes et non codantes,
une premire possibilit est que les proportions respectives de a, de c, de g
et de t soient nettement diffrentes entre plage codante et non codante. Une
seconde possibilit est que ces proportions ne sont pas vraiment nettement
diffrentes, et quil faut compter les di ou trinuclotides.
Dans le premier cas, on va distinguer entre rgion codante et non codante
en comparant les proportions de a, de c, de g et de t. Dans le second cas,
il faudra compter les paires ou les triplets. Et quelque soit le critre adopt,
le plus difficile est de localiser correctement les ruptures (ou changements de
plage).
Les mthodes que nous venons dvoquer pour dcomposer une squence
dADN en ses diffrentes plages dans le but de dtecter les gnes peuvent
tre vues comme des procdures statistiques associes une modlisation
probabiliste. Cette modlisation nest pas la mme suivant que lon regarde
des frquences de nuclotides, de bi ou de trinuclotides. Dans tous les cas,
on considrera la suite des nuclotides comme une suite de v. a. valeurs
dans lensemble E = {a, c, g, t}.
Avant de faire un dtour par les modles probabilistes possibles pour
une squence dADN, considrons deux problmes parmi les plus simples
danalyse de squences.
4.1.1
113
que lorsque la cytosine c est suivie par la guanine g, elle a tendance tre
modifie par mthylation, et mthylc mute facilement en thymine t. Do le
fait que les dinuclotides cpg sont plus rares que ce que donne le produit de la
frquence des c par celle des g. Mais le processus de mthylation est inhib
dans certaines portions du gnome, autour des promoteurs et des codons
START. Dans ces rgions on trouve beaucoup de cpg (en fait plus que le
produit de la frquence des c par celle des g). On appelle ces rgions des
ilts cpg.
On peut donc se poser deux questions. Etant donne une petite portion de
gnome, comment dcider sil provient ou non dun ilts cpg ? Etant donne
une longue squence, comment isoler les ilts cpg ?
4.1.2
4.2
Le modle i.i.d
114
Notons que pa , pc , pg , pt 0 et pa + pc + pg + pt = 1.
On dit que les v.a. (X1 , . . . , Xn ) sont i.i.d. (indpendantes et identiquement distribues) si elles sont indpendantes et toutes de mme loi. On dit
aussi (dans le langage des statisticiens) que la suite (X1 , . . . , Xn ) est un chantillon de taille n de la loi commune des Xi . A cet chantillon, on associe la
loi de probabilit empirique
pna
1X
1X
=
1{Xi =a} , pnc =
1{Xi =c} ,
n i=1
n i=1
png =
1X
1X
1{Xi =g} , pnt =
1{Xi =t} .
n i=1
n i=1
pna
1X
=
1{Xi =a} IE(1{X1 =a} ) = IP(X1 = a)
n i=1
p
)
a
a
n
IP
e 2 dx,
pa pa
n
n
2
et donc puisque
p
1
pa (1 pa ) ,
2
r Z
x2
2
e 2 dx
2 n
On peut donc estimer la loi inconnue p, sous lhypothse que les nuclotides sont i.i.d., donc en particulier que la plage considre est homogne.
Lhypothse dindpendance nest pas forcment vrifie, mais en ralit
elle nest pas absolument ncessaire pour que la dmarche cidessus puisse
tre justifie.
4.3
115
Le modle de Markov
Supposer que les nuclotides sont indpendants les uns des autres nest pas
trs raisonnable. On peut penser par exemple que, dans une rgion codante, la
loi du 2me nuclotide dun codon dpend de quel en est le premier nuclotide.
Do lide de supposer que la suite (X1 , . . . , Xn ) forme une chane de
Markov. Cependant, il est utile pour lapplication au gnome de considrer une proprit de Markov plus gnrale que ce que nous avons introduit
jusquici.
Dfinition 4.3.1. La suite (X1 , . . . , Xn ) est une chane de Markov dordre
` ( 1) (Modle M `) si k > `,
IP(Xk = xk |X1 = x1 , . . . , Xk1 = xk1 )
= IP(Xk = xk |Xk` = xk` , . . . , Xk1 = xk1 )
Notons quune suite indpendante constitue un modle M 0. Le modle
M 1, est le modle usuel, qui a t tudi dans les chapitres prcdents. Remarquons que lon peut toujours considrer un modle M k valeurs dans E
comme un modle M 1 valeurs dans E k .
4.3.1
a
0.180
0.171
0.161
0.079
c
0.274
0.368
0.339
0.355
g
0.426
0.274
0.375
0.384
t
0.120
0.188,
0.125
0.182
a
P = c
g
t
a
0.300
0.322
0.248
0.177
c
0.205
0.298
0.246
0.239
g
0.285
0.078
0.298
0.292
t
0.210
0.302.
0.208
0.292
P+
116
S(x) = log
n
X
Rxi1 xi .
i=2
a
R=c
g
t
a
0.740
0.913
0.624
1.169
c
0.419
0.302
0.461
0.573
g
0.580
1.812
0.331
0.393
t
0.803
0.685.
0.730
0.679
Lorsque lon compare les S(x) pour diverses squences dont on sait sil sagit
ou non dilt cpg, on voit que le score cidessus discrimine bien les ilts cpg
des autres types de squence.
4.3.2
117
S(x) = log
n
X
Rxi1 xi .
i=2
Il savre que cette statistique discrimine trs mal les vrais gnes des faux
gnes.
Par contre, si lon prend comme modle + un modle de Markov M 1 sur
les codons, et que lon procde comme cidessus, alors la nouvelle statistique
S(x) discrimine bien les vrais gnes des faux gnes.
4.3.3
qui converge p.s. vers Pxy,z quand n . Remarquons que cette statistique
inclut le dcompte des trinuclotides, donc en particulier des codons, ce qui
fait que les chanes dordre 2 sont trs utilises pour modliser les rgions
codantes de lADN.
118
4.3.4
4.3.5
119
4.4
120
k=1
n
Y
Q y k xk .
k=1
(y1 , . . . , yN
) qui explique le mieux ces observations ? Autrement dit, il sagit
de calculer la suite qui maximise la vraisemblance de la loi a posteriori sachant les observations, i.e.
(y1 , . . . , yN
) = argmaxIP(Y1 = y1 , . . . , YN = yN |X1 = x1 , . . . , XN = xN ).
y1 ,...,yN
4.4.1
121
Calcul de la vraisemblance
Mais cette formule nest pas utilisable en pratique, car elle suppose deffectuer de lordre de N dN oprations, ce qui, ds que N est un peu grand,
devient irralisable. On va maintenant voir une procdure rcursive pour le
calcul de la vraisemblance, savoir la :
Procdure progressive
Considrons la suite (indexe par n) des vecteurs ligne (n), dfinis par :
y (n) = IP (X1 = x1 , X2 = x2 , . . . , Xn = xn , Yn = y), y F.
Cette suite se calcule par une rcurrence progressive comme suit :
1. Initialisation :
y (1) = y Qyx1 , y F.
2. Rcurrence :
y (n + 1) = ((n)P )y Qyxn+1 , y F.
La quantit cherche est donne par :
X
y (N ).
yF
122
1. Initialisation :
y (N ) = 1,
y F.
2. Rcurrence :
2-a y (n) = y (n)Qyxn , y F .
2-b (n 1) = P (n).
(1).
A nouveau, le nombre doprations requises est de lordre de d2 N . Notons
que
y (n) = IP (Xn = xn , Xn+1 = xn+1 , . . . , XN = xN |Xn = y), y F.
4.4.2
Lalgorithme de Viterbi
la suite (y1 , . . . , yN
) qui maximise la vraisemblance. Dfinissons la suite de
vecteurs ligne (n) par :
y (n) = max IP (Y1 = y1 , . . . , Yn1 = yn1 , Yn = y, X1 = x1 , . . . , Xn = xn )
y1 ,y2 ,...,yn1
y (n) est en quelque sorte la plus forte probabilit dune trajectoire des
{Yk , 1 k n 1}, qui se termine par Yn = y, et correspondant la suite
des nuclotides observs x1 , . . . , xn . On a la formule de rcurrence suivante
entre les vecteurs (n) :
y (n + 1) = ((n) P )y Qyxn+1
o lopration qui un vecteur ligne de dimension d et une matrice d d
associe un vecteur ligne de dimension d est dfinie comme suit :
( P )y = sup z Pzy .
zF
123
yn1
= yn (n),
avec
y (n) = argmaxzF z (n 1)Pzy .
y (1) = y Qyx1 , y F ;
(1) = 0.
2. Rcurrence : pour 1 < n N ,
y (n) = ((n 1) P )y Qyxn ,
y (n) = argmaxzF z (n 1)Pzy , y F.
3. Etape finale :
= max y (N )
yF
yN
= arg max y (N ).
yF
4. Rcurrence rtrograde
yn = yn+1
(n + 1), 1 n < N.
Remarque 4.4.1. Notons que lalgorithme de Viterbi est un exemple dalgorithme de la programmation dynamique. Cet algorithme a t invent par
Richard Bellman en 1950, comme algorithme de calcul dun contrle optimal,
cf. chapitre 5 cidessous.
4.4.3
124
X
1
IP0 (Y N = y N , ON ) log IP (Y N = y N , ON )
IP0 (ON ) N
y
X
N
log IP (ON ) =
yN
125
X
1
IP0 (Y N = y N , ON ) log IP (Y N = y N , ON )
=
IP0 (ON )
yN
X
yN
IP0 (Y N = y N |ON )
IP (Y N = y N |ON )
IP0 (Y N = y N , ON ) log IP (Y N = y N , ON )
y N F N
126
Notons que :
IP (Y
log IP (Y
= y , O N ) = y 1 Q y 1 x1
N
= y , ON ) = log y1 +
N
Y
Pyn1 yn Qyn xn
n=1
N
X
log Pyn1 yn +
n=2
N
X
log Qyn xn
n=1
Q1 (0 , Py ) +
yF
Q2 (0 , Qy ),
yF
avec
Q0 (0 , ) =
yF
Q1 (0 , Py ) =
N X
X
n=2 xF
Q2 (0 , Qy ) =
N X
X
n=1 zE
vy =1
yF
P
o les wj [0, 1]. On supprime les contraintes y vy = 1 en exprimant un des
vy en fonction des autres, et lannulation du gradient conduit la solution :
vy = P
wy
y 0 F
wy 0
:
Do les formules suivantes pour = (
, P , Q)
y =
IP0 (ON , Y1 = y)
= IP0 (Y1 = y|ON ), y F.
IP0 (ON )
Pxy =
xz =
Q
PN
127
n=2
PN
n=1
P
N
n=1
IP0 (ON , Yn = x)
, x F, z E.
y = P
y (1)y
yF y (1)y
x (n 1)Pxy y (n)
Pxy = PNn=2
n=2 x (n 1)x (n 1)
PN
n=1
P
N
x (n)x (n)xn z
n=1
x (n)x (n)
yF
Pxy y (n). On
128
Remarques sur limplmentation Les algorithmes cidessus (algorithme de Viterbi et de BaumWelch) ne sont pas implmentables tels quels sur
machine. La raison en est que lon manipule des produits dun grand (si N
est grand) nombre de termes plus petits que 1, ce qui donne des quantits
microscopiques.
Lalgorithme de Viterbi ne comportant que des produits et des maxima,
la solution est de calculer les logarithmes des quantits qui interviennent (ce
qui remplace les produits par des sommes). Ltape finale de recherche de la
trajectoire optimale est inchange, puisque la fonction log est croissante.
Lalgorithme de BaumWelch comporte des sommes, et dans ce cas la
solution passe par lutilisation de constantes de normalisation.
En pratique, on va remplacer les par les
dfinis par :
!1
X
x (n) =
y (n)
x (n)
yF
si lon note
C(n) =
X
yF
y (n)
!1
, alors
C(n) = c1 c2 cn , o
cn =
X
yF
((n
1)P )y Qyxn
!1
,
en fonction des
et on voit aisment comment rcrire P et Q
et des ,
de telle sorte que chaque terme de la somme apparaissant au numrateur,
comme au dnominateur, soit multipli par C(N ).
Notons quavec ces notations
log IP (ON ) = log C(N ) =
N
X
n=1
log cn .
129
IP Y1N = y1N |X1N = xN
1 .
Lalgorithme SEM est un algorithme itratif, que lon initie avec une valeur
0 . Litration qui remplace n par n+1 se dcompose en deux tapes comme
suit :
Simulation On tire au hasard une ralisation de la suite alatoire Y1N ,
N
suivant la loi IPn (Y1N = |X1N = xN
1 ). Notons y1 (n) la suite obtenue
ainsi.
Maximisation On choisit
n+1 = argmax IP Y1N = y1N (n), X1N = xN
1 .
Dans lalgorithme EM, ltape de simulation est remplace par le calcul de
IEn (Y1N |X1N = xN
1 ).
4.5
4.5.1
130
tats codants et 3 tats STOP, chacun correspondant une des trois phases
de lecture, le tout doit tre multipli par deux pour tenir compte du brin
complmentaire. On ajoute un tat non codant. Cela fait en tout 19 tats.
Certes, la plupart des termes de la matrice de transition sont nuls, mais
cela fait quand mme beaucoup dtats, et dans le cas eukaryote la situation
est bien pire. On peut rduire ce nombre avec un modle phas, mais on
rcupre la mme complexit en multipliant par trois le nombre de matrices
de transition estimer. Enfin on pourrait penser travailler sur la suite des
codons plutt que sur celle des nuclotides, mais ceci ne serait pas valable
pour les parties non codantes.
On va voir cidessous que le modle semimarkovien permet de rduire
le nombre dtats trois dans le cas prokaryote, en outre quil permet de
choisir une loi plus raliste que la loi gomtrique pour la longueur des plages
codantes.
4.5.2
131
4.5.3
132
4.5.4
133
4.5.5
134
Pour y = 0, on dfinit
0 (n) = max IP(Y1n1 = y1n1 , Yn = 0, Xn1 = x1n ).
y1 ,...,yn1
n
Y
q xk .
k=1
Pour n 3m,
Voyons dabord la formule de rcurrence dans le cas y = 0. Si n >
3m, la collection des y1 , . . . , yn1 sur laquelle on prend le maximum se
subdivise en trois classes, suivant la valeur de yn1 . On a
0 (n) = max[0 (n 1)p0 , 1 (n 1), 2 (n 1)]qxn .
135
y1 ,...,ynk1
n
IP(Y1nk = y1nk , Ynk+1
= 1, Yn+1 = 0, X1n = xn1 )
= 0 (n k)p1
n
n
= 1, Yn+1 = 0|Ynk+1 = 1, Ynk = 0)
IP(Xnk+1
= xnnk+1 , Ynk+1
= 0 (n k)p1
n
n
= 1, Yn+1 = 0)d1 (k).
IP(Xnk+1
= xnnk+1 |Ynk = 0, Ynk+1
La probabilit conditionnelle cidessus se factorise en
k/3
Y
j=0
nk+3j+3
nk+3j+3
n
IP(Xnk+3j+1
= xnk+3j+1
|Ynk = 0, Ynk+1
= 1, Yn+1 6= 1)
k/31
IPSTART (xnk+3
nk+1 )
nk+3j+3
IPCODANT (xnk+3j+1
)IPSTOP (xnn2 )
j=1
:= IPC+ (xnnk+1 ).
Finalement, avec la convention 0 (0) = 1 /p1 ,
1 (n) =
k
max
0 (nk)p1 IPC+ (xnnk+1 )d1 (k).
multiple entier de 3; 3mkn
136
4.6
137
{acgt}2 dans IR, qui est maximale sur la diagonale. Dans le cas de squences
dacides amins, on remplace bien sr {acgt} par lensemble des 20 acides
amins. Dans les deux cas, s sera choisi de telle sorte que, pour a 6= b, s(a, b)
sera dautant plus grand quune mutation entre a et b est plus probable.
4.6.1
Algorithme de NeedlemanWunsch
M (i 1, j 1) + s(xi , yj ),
M (i, j) = max Ix (i 1, j 1) + s(xi , yj ),
Iy (i 1, j 1) + s(xi , yj );
(
M (i 1, j) d,
Ix (i, j) = max
Ix (i 1, j) e;
(
M (i, j 1) d,
Iy (i, j) = max
Iy (i, j 1) e.
On a exclu dans ces formules quun trou dans une squence puisse tre immdiatement suivi par un trou dans lautre, ce qui est vrai pour lalignement
optimal si d e < inf a,b s(a, b). Dans le cas e = d, la triple rcurrence
cidessus se rduit lunique rcurrence
F (i 1, j 1) + s(xi , yj ),
F (i, j) = max F (i 1, j) d,
F (i, j 1) d.
Il existe de nombreuses variantes de cet algorithme. En particulier, on peut
sintresser la recherche du meilleur alignement local (et non ncessairement
138
0,
F (i 1, j 1) + s(x , y ),
i j
F (i, j) = max
F (i 1, j) d,
F (i, j 1) d.
Le fait que le maximum soit atteint par 0 indique le dbut dun alignement local. Notons que dans ce cas, F (, 0) = F (0, ) 0. Lalgorithme dalignement
local que nous venons de dcrire sappelle lalgorithme de SmithWaterman.
4.6.2
1 2
1 0
1 0 .
0
0 0 1
On choisit comme loi de Z1 la probabilit
(1 )1 (1 2
0).
139
P =
1
1
1
1
1
0 .
et des Y ,
Prcisons maintenant la loi conditionnelle de la suite des X
sachant (Z1 , . . . , ZT ). A nouveau, on crit les choses dans le cas de squences
de nuclotides. La transposition aux squences dacides amins ne pose pas de
difficult. On se donne dune part une probabilit {pa,b , (a, b) {acgt}2 },
et dautre part une probabilit {qa , a {acgt}}. Conditonnellement en
t , Yt ), 1 t < T sont indpendantes. Sachant que
(Z1 , . . . , ZT ), les v. a. (X
t , Yt ) est distribu suivant la loi p. Sachant que
1 t < T et Zt = A, (X
t = et Yt suit la loi q. Sachant que 1 t < T
1 t < T et Zt = I, X
IP
T 1
X
1
Y T 1
1
Y
Y
x1t1 T
t
Z
=
z
=
p
1{xj =} qyj
xi y i
1
y1t1 1
1i<t;zi =A
1j<t;zj =I
Y
qxk 1{yk =}
1k<t;zk =S
140
x1t1
T
t
, Z1 = z 1
IP
y1t1
Y
= z1 (1 )t2
p xi y i
1T 1
X
Y1T 1
1jn xj =
1in xi 6=,yi 6=
qyj
q xk
1kn yk =
`
`2
`3
`
1 2 1
1 4
1
1
1
1
Y
Y
Y
= z1
p xi y i
qyj
q xk
1jn;xj =
1in;xi 6=,yi 6=
`1 `2 `3
1kn;yk =
`4
(1 2 ) (1 ) ,
1
T 1
X
X
,...
,
Y1
YT 1
(X1N
xn1 , Y1M
y1m , Z1T
z1t )
t1
Y
v(i),
=
1 i=1
141
avec
v(i) =
px
y
(1 2 ) qx k(i)qy`(i) , si zi = A et i = 1 ou zi1 = A,
k(i) `(i)
pxk(i) y`(i)
(1
)
, si zi = A, i > 1 et zi1 = I ou S,
qxk(i) qy`(i)
qy`(i) = ,
si zi = I, et i = 1 ou zi1 = A,
y
`(i)
qx
si zi = S, et i = 1 ou zi1 = A,
qxk(i) = ,
k(i)
qy`(i)
= ,
qy`(i)
qxk(i) = ,
si zi = I, i > 1 ou zi1 = I,
si zi = S, i > 1 ou zi1 = S,
k(i)
k(i) = i +
i1
X
j=1
On note que
Qt1
i=1
v(i) =
1{zj =I} ,
Qt
i=1
`(i) = i +
j=1
v 0 (t) =
(
1,
1
,
12
1{zj =S} .
v 0 (i), o
px
y
(12 ) qx k(i)qy`(i) ,
k(i) `(i)
,
12
v 0 (i) = 1 ,
12
pour 1 i < t, et
i1
X
si zi = A,
si
si
si
si
zi
zi
zi
zi
= I, et i = 1 ou zi1 = A,
= S, et i = 1 ou zi1 = A,
= I, i > 1 ou zi1 = I,
= S, i > 1 ou zi1 = S,
si zt1 = A,
si zt1 = I ou S.
Chercher un (z )t1 qui maximise IP (X1N = xn1 , Y1M = y1m , Z1T = z1t ) est quivalent chercher un (z )t1 qui maximise
log IP
(X1N
xn1 , Y1M
y1m , Z1T
z1t ) log
t
X
log v 0 (i).
i=1
Il est alors facile de voir que lalgorithme de Viterbi pour rsoudre ce probme
142
s(a, b) = log
Notons que lalgorithme calcule une trajectoire z1t qui maximise la probabilit
a posteriori. En particulier, la valeur t de la longueur de lalignement optimal
est donne par
t = inf{s, k(s 1) = n, `(s 1) = m}.
4.6.3
Nous venons de donner un cadre probabiliste lalgorithme de NeedlemanWunsch. Nous allons maintenant exploiter ce cadre probabiliste, pour
faire des choses nouvelles.
Lide de chercher aligner deux squences est lie la croyance quil y a
une similitude entre ces deux squences, par exemple parce quelles drivent
dune mme squence ancestrale. Lorsquun alignement nest pas performant,
cela peut provenir de ce que cet alignement nest pas le bon, ou quil ny en
a pas de bon, par exemple parce que ces squences nont rien voir entre
elles. Il peut tre intressant de disposer dun critre qui permette de dcider
dans quelle mesure deux squences xn1 et y1m sont alignables. Un tel critre
(dalignabilit ?) est donn par la probabilit que notre modle de chane de
Markov cache produise la paire de squences observe, i. e. par la quantit
X
IP(X1N = xn1 , Y1M = y1m ) =
IP(X1N = xn1 , Y1M = y1m , Z1T = z1t ).
z1t alignements
Quel est lensemble des alignements que parcourt z1t ? Cest lensemble des
suites de longueur arbitraire t, dont les t 1 premiers termes appartiennent
lensemble {A, I, S}, et le dernier terme est un F . Evidemment, pour que
la probabilit correspondante soit non nulle, une contrainte trs forte liant
z1t n et m doit tre satisfaite, savoir
t = inf{s, k(s 1) = n, `(s 1) = m}.
143
i, j
+ (1 )(f I (i 1, j 1) + f S (i 1, j 1))]
Le cas le plus favorable est celui o cette loi est trs concentre autour de
lalignement optimal, i.e. o la quantit IP(Z1T = (z )t1 |X1N = xn1 , Y1M = y1m )
est sinon proche de 1, du moins nettement non nulle. Lorsque ce nest pas le
cas, il peut tre intressant de savoir si lensemble des alignements proches
de lalignement optimal concentre ou non une masse significative de la loi
a posteriori. La loi a posteriori contient donc beaucoup dinformation sur
la qualit et la pertinence de lalignement optimal. Nous allons maintenant
dcrire un algorithme rtrograde pour simuler suivant cette loi a posteriori,
qui utilise le calcul des quantits (f A (i, j), f I (i, j), f S (i, j)) fait ci dessus.
On commence par tirer au hasard avec la probabilit
(f A (n, m) + f I (n, m) + f S (n, m))1 (f A (n, m) f I (n, m) f S (n, m))
si lalignement se termine au site t1 par lalignement de xn avec ym (choix de
A), ou par lalignement de ym avec un trou dans la premire squence (choix
144
(4.1)
S
+ (1 )(f (i 1, j 1) + f (i 1, j 1))].
(4.2)
On dcide alors
px y (12 )f A (i1,j1)
,
daligner xi1 avec yj1 avec la probabilit i j
f A (i,j)
daligner yj1 avec un trou dans la premire squence avec la probabilit
pxi yj (1 )f I (i1,j1)
,
f A (i,j)
Si par contre lalgorithme nous avait conduit aligner yj avec un trou dans
la premire squence, xi tant le dernier nuclotide de celleci non encore
utilis, on dcide
qy f A (i,j1)
4.6.4
z1t xi yj
145
On a en fait
IP(X1N = xn1 , Y1M = y1m , xi yj ) = IP(X1i = xi1 , Y1j = y1j , xi yj )
Le premier facteur dans cette formule nest autre que la quantit f A (i, j) que
lon a calcule par un algorithme progressif la soussection prcdente.
Le second facteur est la quantit bA (i, j), que lon calcule par une rcurrence rtrograde comme suit.
bA (n, m) = bI (n, m) = bS (n, m);
b (, m + 1) b (n + 1, ) 0.
Pour tous les (i, j) 6= (n, m),
On notera alors
A(i 1, j 1) + IP(xi yj ),
A(i, j) = max A(i 1, j),
A(i, j 1).
146
4.7
1 i |x|, 1 j |y|
donne par
|x|
|y|
et on pose
E(x, y) =
1
A |x| |y| (a ).
min(|x|, |y|) x1 ,y1
147
|z|
X
k=1
1 X
P (x, z)P (z, y).
|S| zS
E(x, z) + E(y, z)
.
2
148
et des pnalits pour les trous (d et e) gales zro. Deux groupes sont
aligns selon le meilleur alignement de deux squences, une prise dans
chaque groupe.
Raffinement itratif.
On partitionne de faon alatoire lensemble S en deux sousgroupes,
auxquels on fait subir les tapes 4 et 5.
4.8
Exercices
Chapitre 5
Contrle et filtrage des Chanes
de Markov
Introduction
Considrons un mobile (par exemple un avion ou un satellite) dont on veut
contrler la trajectoire, laquelle est soumise des perturbations alatoires. Le
but du contrle peut tre notamment de rapporcher la trajectoire du mobile
dune trajectoire nominale dsire. Le problme est trs diffrent suivant que
la trajectoire perturbe est ou non observe directement.
Aprs une brve section sur le contrle optimal dterministe, nous prsenterons des notions sur le contrle des chanes de Markov, puis celui des
suites gaussiennes, avec un cot quadratique. Nous aborderons ensuite le
problme du filtrage (cest dire le suivi dun mobile qui suit un mouvement alatoire, et dont la trajectoire est partiellement observe) des chanes
de Markov, et des suites gaussiennes, dont la solution est donne par le clbre filtre de KalmanBucy. Nous clturerons ce chapitre par le problme
de contrle linaire quadratique, avec observation partielle, dont la solution
combine le filtre de Kalman et le contrle linaire avec cot quadratique.
5.1
150
N
X
L(Xn , un ).
n=1
En admettant quun tel contrle optimal existe (on peut donner des conditions pour que cela soit le cas ; lexistence est triviale si U est un ensemble
fini), on va maintenant donner un algorithme permettant de le calculer. Pour
cela on introduit les quantits suivantes :
(n, x) =
min
uk U,nkN
N
X
L(Xk , uk ),
k=n
o Xn1 = x. On a alors
Equation de la programmation dynamique (R. Bellman).
(n, x) = min{L(f (x, u), u) + (n + 1, f (x, u))}
uU
151
min
u1 ,...,uN U
J(u), si X0 = x,
pour tout x E.
A condition davoir gard en mmoire toutes les valeurs {u (n, x); 1
n N, x E}, on peut maintenant construire la trajectoire optimale (et
surtout dterminer un contrle optimal) en repartant dans le sens usuel du
temps :
X1 = f (X0 , u (1, X0 )),
Xn = f (Xn1
, u (n, Xn1
)),
5.2
On suppose maintenant que {Xn , n = 0, 1, 2, . . .} est une chane de Markov contrle valeurs dans E dnombrable, cestdire que son volution
est rgie par :
Xn = f (Xn1 , Yn , un ), n 1, X0 E donne,
o {Yn , n 1} est une suite de v.a. indpendantes et de mme loi valeurs
dans F , {un , n 1} est une suite de v.a. valeurs dans U , tel que pour
tout n 1, un est (Xn1 ) mesurable et f : E F U E. On vrifie
aisment que {Xn , n 0} dfinie ainsi est une chane de Markov. On cherche
minimiser le cot
N
X
J(u) = IE
L(Xn , un ).
n=1
152
On va voir quun contrle optimal u = (u1 , . . . , uN ) est tel que pour tout
n, un ne dpend que de Xn1 , ce qui fait que la suite {Xn , 0 n N }
correspondante est une chane de Markov.
On introduit comme la section prcdente les quantits (1 n N, x
E) :
N
X
(n, x) =
min
IEn,x
L(Xk , uk ),
uk Uk ,nkN
k=n
5.3
Dans cette section, on suppose que {Xn , n IN} est une suite gaussienne
valeurs dans IRd , qui satisfait la formule de rcurrence linaire :
Xn = AXn1 + Bun + fn + n , n 1,
avec X0 , 1 , 2 , . . . une suite indpendante de vecteurs alatoires gaussiens,
0 , 0 ), et n ' N (0, Q), et les fn sont des vecteurs donns dans
X0 ' N ( X
d
IR . On suppose que les contrles un prennent leurs valeurs dans U = IRk ,
153
N
X
n=1
o (x1 , . . . , xN ) est la cible dont on cherche se rapprocher, le cot pondrant lloignement entre Xn et xn , et la norme du contrle que lon applique.
Cependant un problme de ce type peut se mettre sous la forme de notre
n = Xn xn , grce lintroduction des
problme cidessus, en posant X
vecteurs fn dans la formule de rcurrence.
Avec les notations de la section 5.2. on a le
Thorme 5.3.2. Pour tout 1 n N, x IRd ,
(n, x) = hGn x, xi + 2hhn , xi + cn ,
et u (n, x) = (R + B (F + Gn+1 )B)1 B [(F + Gn+1 )(Ax + fn ) + hn+1 ] o
la suite {(Gn , hn , cn ); 1 n N } est dfinie par la rcurrence rtrograde :
Gn = A (I (F + Gn+1 )B(R + B (F + Gn+1 )B)1 B )(F + Gn+1 )A,
hn = A (I (F + Gn+1 )B(R + B (F + Gn+1 )B)1 B )[(F + Gn+1 )fn + hn+1 ]
cn = cn+1 + T r[(F + Gn+1 )Q] + h(F + Gn+1 )f + 2hn+1 , fn i
< B(R + B (F + Gn+1 )B)1 B [(F + Gn+1 )fn + hn+1 ], (F + Gn+1 )fn + hn+1 >
et GN +1 = 0, hN +1 = 0, cN +1 = 0.
La preuve du thorme repose sur le rsultat lmentaire :
154
5.4
155
La situation est en fait celle des chanes de Markov caches, mais cette fois
on se place dans une situation dynamique, o lon cherche chaque instant
n estimer la vraie valeur de Xn , au vu des observations Y1 , Y2 , . . . , Yn .
On veut un algorithme rcursif, tel que linstant n + 1, le calcul utilise le
rsultat du calcul de linstant n, et la nouvelle observation Yn+1 , sans quil
soit ncessaire de rutiliser les anciennes observations Y1 , Y2 , . . . , Yn . Le but
est de pouvoir faire tourner lalgorithme en temps rel. Il savre que la
bonne quantit calculer chaque instant n est la loi conditionnelle n
de Xn , sachant Y1 , Y2 , . . . , Yn . On introduit galement la loi conditionnelle
n|n1 de Xn , sachant Y1 , Y2 , . . . , Yn1 .
Pour tout x E, y F , on pose
g(x, y) = IP(h(x, n ) = y)
= IP(Yn = y|Xn = x).
Lvolution des lois conditionnelles {n } est alors donne par le
Thorme 5.4.1. Pour tout n 1,
n|n1 (x) = (n1 P )x
g(x, Yn )n|n1 (x)
n (x) = P
0
0
x0 F g(x , Yn )n|n1 (x )
Preuve On peut considrer que la chane (Xn ) est gnre par la formule
de rcurrence
Xn = f (Xn1 , n ),
o les {n } sont i.i.d., globalement indpendants des {n }. Il en rsulte en
particulier que
IP(Xn = x|Y1 , . . . , Yn1 , Xn1 ) = IP(Xn = x|Xn1 ),
do :
n|n1 (x) = IP(Xn = x|Y1 , . . . , Yn1 )
= IE [IP(Xn = x|Xn1 )|Y1 , . . . , Yn1 ]
= (n1 P )x .
156
Pour tablir la seconde relation, notons tout dabord que si IP Y1 ,...,Yn1 dsigne
la probabilit conditionnelle IP(|Y1 , . . . , Yn1 ),
IP(Xn = x|Y1 , . . . , Yn1 , Yn ) = IPY1 ,...,Yn1 (Xn = x|Yn )
Mais pour toute probabilit Q,
Q(Xn = x|Yn ) = H(x, Yn ), o
H(x, y) = Q(Xn = x|Yn = y)
Q(Yn = y|Xn = x)Q(Xn = x)
=P
0
0
x0 Q(Yn = y|Xn = x )Q(Xn = x )
5.5
Le filtre de KalmanBucy
5.5.1
Motivation
157
x0 donn.
x0 donn,
Notons que cette approximation nest pas toujours valable, et des mthodes
plus compliques doivent alors tre mises en oeuvre.
Pour suivre le satellite, des observations radar sont prises depuis la terre.
Mais ces observations ne concernent pas forcment tout le vecteur Xn (typiquement, Xn dsigne le couple positionvitesse du satellite linstant n ,
alors que le radar ne mesure que la position), et en outre cette mesure est
entache dune erreur (comme toute erreur physique !). Sans compter que
suivant la position du satellite dans sa trajectoire il est observ par lun ou
lautre des radars prvus pour le suivre, ou par aucun dentre eux. On peut
donc modliser ces mesures par lobservation chaque instant n de
Y n = H n Xn + W n ,
o Hn = 0 aux instants o le satellite nes pas observ, et les Wn sont de
nouveau des v. a. gaussiens centrs. En outre la condition initiale est elle
aussi un vecteur alatoire, que lon suppose gaussien.
158
5.5.2
Solution du problme
On suppose que Xn prend ses valeurs dans IRd , Yn dans IRk , et que
Xn = AXn1 + n , n 1
Yn = HXn + n , n 1,
0 , P0 ), les n
avec X0 , 1 , 1 , 2 , 2 , . . . , n , n , . . . indpendants, X0 de loi N (X
de loi N (0, Q) et les n de loi N (0, R). On suppose que la matrice R est
inversible. Bien sr, il ne sagit plus de chane de Markov valeurs dans un
ensemble dnombrable.
On note encore n la loi conditionnelle de Xn , sachant Y1 , . . . , Yn .
n , n ), o (X
n , n )n0 est donne
Thorme 5.5.1. La loi n est la loi N (X
par la formule de rcurrence :
n+1
X
n
n+1
0
X
X
11 12
d + k, de loi N
,
. On suppose 22 > 0. Alors, la loi
Y
21 22
),
avec
Y = N (X,
=X
+ 12 1 (Y Y )
X
22
(ii) = 11 12 1
22 21
(i)
En outre,
159
Preuve
dsigne le vecteur alatoire dfini par (i), on pose
Si X
= X X.
X
X
On montre facilement que
est un vecteur alatoire gaussien, et que
Y
Y ) = 0.
Cov(X,
et Y sont indpendants, alors que X
est une fonction de Y . Soit
Donc X
d
maintenant Cb (IR ).
+ X)|Y
IE[(X)|Y ] = IE[(X
]
Z
+ x)IP (dx)
=
(X
X
d
ZIR
=
(x)
Y (dx),
IRd
),
si
= Cov(X).
avec
Y = N (X,
Enfin
= Cov(X X)
Cov(X)
12 1
= Cov(X X
22 (Y Y ))
1
= 11 212 1
22 21 + 12 22 21
= 11 12 1
22 21 .
X
Proposition 5.5.3. Soit Y un vecteur alatoire gaussien de dimension
Z
)
la loi
d + k + `, tel que Y et Z soient indpendants. On note
Y = N (X,
Y,Z = N (X,
conditionnelle de X sachant Y , et
) la loi conditionnelle de
= IE(X). Alors
X sachant (Y, Z). On note nouveau X
+ IE(X X|Z)
+X
X
=X
=X
Cov(X).
(jj)
=
(j)
160
i |Z),
la somme de Xi , la projection orthogonale de Xi sur Y, et de IE(Xi X
la projection orthogonale de Xi sur Z. (j) est tabli.
Donc
=XX
+ IE(X X|Z)
X X
i |Z) Z U , donc est orthogonal dans
pour tout 1 i, j d, IE(Xi X
j .
L2 (, Z, IP) Xj X
Ceci entrane que
= Cov(X X)
Cov(X X)
+ Cov(IE(X X|Z)),
ce qui joint la dernire affirmation de la Proposition 5.5.2, tablit (jj).
On peut maintenant passer la :
Preuve du Thorme 5.5.1
Puisque (Xn , Y1 , Y2 , . . . , Yn ) est un vecteur alatoire gaussien, il rsulte de
n , n ), o X
n est une fonction affine de
la Proposition 5.5.2 que n = N (X
n ). Il nous reste calculer (X
n+1 , n+1 ) en
Y1 , . . . , Yn , et n = Cov(Xn X
161
Il nous reste appliquer la Proposition 5.5.3, pour rajouter le conditionnement par Yn+1 . Pour cela, il nous faut dfinir linnovation :
In+1 = Yn+1 IE(Yn+1 |Y1 , . . . , Yn )
n
= Yn+1 HAX
n + Hn+1 + n+1 ,
= HAX
n = Xn X
n .
o X
Notons que le v.a. (Y1 , . . . , Yn , In+1 ) est un vecteur alatoire gaussien,
et que les coordonnes de In+1 sont orthogonales dans L2 (, Z, IP) celles
de Y1 , . . . , Yn . Donc (Y1 , . . . , Yn ) et In+1 sont indpendants, et de plus In+1
est centr. Comme en outre (Y1 , . . . , Yn , Yn+1 ) = (Y1 , . . . , Yn , In+1 ), on va
pouvoir utiliser la Proposition 5.5.3, qui nous dit que
n+1 = AX
n + IE(Xn+1 IEXn+1 |In+1 )
X
n+1 AX
n )
et n+1 = An A + Q Cov(X
IEIn+1 In+1
= An A H + QH
= HAn A H + HQH + R
Donc
n+1 = AX
n + (An A + Q)H [H(An A + Q)H + R]1 (Yn+1 HAX
n)
X
et
n+1 = An A + Q
(An A + Q)H [H(An A + Q)H + R]1 H(An A + Q),
5.6
162
N
X
n=1
u
Xnu = AXn1
+ Bun , n 1, X0u = 0,
Ynu = HXnu , n 1.
0
est Yn+1
mesurable.
N
X
n=1
5.7. EXERCICES
163
Or
n + X
n,
Xn = X
n = IE(Xn |Yn ), et X
n est indpendant de Yn . Donc si lon note n =
avec X
n ),
cov(X
J(u) = IE
N h
X
n=1
hF Xn , Xn i + hRun , un i + T rF n .
N h
X
n=1
i
n, X
n i + hRun , un i ,
hF X
5.7
Exercices
164
Chapitre 6
Le processus de Poisson
Introduction
Dans ce chapitre et les deux suivants, on va tudier des processus de
Markov dfinis sur IR+ , valeurs dans un ensemble fini ou dnombrable E,
qui sont constants entre leurs sauts qui se produisent des instants alatoires : on les appelle processus markoviens de saut.
Dans ce chapitre, nous allons introduire le prototype des processus markoviens de saut, savoir le processus de Poisson.
Ce processus modlise des rpartitions alatoires de point sur IR+ , qui
peuvent correspondre des instants de collision de particules, mais aussi
des instants darrive de clients dans une file dattente, dappels un central
tlphonique.
6.1
166
On posera
S1 = T 1
S2 = T 2 T 1
.........
Sn = Tn Tn1
.........
les v.a. Tn sont les instants o se produisent un vnement, les Sn sont les
dlais ou les temps dattente entre deux vnements successifs.
On dfinit la f.a. de comptage {Nt , t 0} du processus ponctuel
{Tn , n IN} de la faon suivante :
Nt = sup{n; Tn t}
X
=
1{Tj t}
j1
6.2
Le processus de Poisson
167
4
3
2
1
0
T0
T1
T2
T3
T4
Fig. 6.1 Trajectoire dun processus de Poisson
a) quels que soient t0 < t1 < < tn dans IR+ , les accroissements {Ntj
Ntj1 ; 1 j n} sont des v.a. indpendantes ;
b) pour 0 s < t, la loi de Nt Ns ne dpend que de s et t que par la
diffrence t s.
168
169
Mais puisque 0 u 1,
0
X1
k2
1
IP(Nt = k)(1 uk ) IP(Nt 2)
t
t
nIN
IP(T2 < T1 + t)
Mais, quand t 0,
P (T2 < T1 + t) P (T2 T1 ) = 0
et pour tout t suffisamment petit,
((0)t)1 < (1 exp((0)t))1 < 2((0)t)1 .
Remarque 6.2.4. Il rsulte de la dernire partie de la preuve cidessus que
IP(Nt+h Nt = 0) = 1 h + (h)
IP(Nt+h Nt = 1) = h + (h)
IP(Nt+h Nt 2) = (h)
Donc des probabilits petites devant h prs, N (t + h) N (t) est une v.a.
de Bernoulli prenant la valeur 0 avec la probabilit 1 h et la valeur 1 avec
170
n
X
j=1
s
,
n
entraine que Nt+s Nt suit approximativement une loi binomiale de paramtres (n, s/n). Or, quand n , cette loi converge vers la loi de Poisson
de paramtre s.
Notons que pour tout n, 0 < t1 < t2 < < tn , la loi du vecteur alatoire
(Nt1 , Nt2 . . . , Ntn ) est entirement dtermine par la Proposition 6.2.2 et la
condition a) de la dfinition 6.2.1.
Corollaire 6.2.5. La loi de linstant T1 du premier vnement est la loi
exponentielle de paramtre (i.e. la loi sur IR + de densit et ). Il en est
de mme pour la loi du temps dattente aprs s du premier vnement aprs
s, TNs +1 s, pour tout s > 0.
Preuve Il suffit de remarquer que pour tout t > 0,
IP(T1 > t) = IP(Nt = 0)
= et
et de mme
IP(TNs +1 s > t) = IP(Ns+t Ns = 0)
= P (Nt = 0).
6.3
Proprit de Markov
171
172
Pour tout s dans IR+ , S s est un temps darrt. Pour tout n, Tn est un
temps darrt. TNs +1 est galement un temps darrt. Par contre, TNs nest
pas un temps darrt, car si t < s,
{TNs t} = {Ns Nt = 0}
/ FtN , 0 t < s.
A tout temps darrt S de {Nt }, on associe la tribu des vnements dtermins par la trajectoire {NtS , t 0} arrte S :
def
N
FSN ={A F
; A {S t} FtN , t 0}.
On a la :
Proposition 6.3.2. Soit {Nt , t 0} un processus de Poisson dintensit ,
et S un temps darrt de {Nt }. Sur lvnement {S < } on pose pour t 0
NtS = NS+t NS .
Conditionnellement en {S < }, {NtS , t 0} est un processus de Poisson
dintensit , indpendant de FSN .
Preuve On sait dj que le rsultat est vrai si S est constant. Supposons
maintenant que S prend ses valeurs dans une suite croissante (sj , j 1) de
rels positifs. Notons que comme S est un temps darrt,
N
{S = sj } = {S sj }\{S sj1 } Fsj
X
j
X
j
IP {S = sj } A
IP({S = sj } A)IP
= IP(A)IP
`
\
k=1
`
\
k=1
`
\
k=1
{Ntk = nk } ,
!!
173
N
o on a utilis la proprit {S = sj } A Fsj
pour la seconde galit, et le
fait que le second facteur de lavant dernire expression ne dpend pas de sj ,
par stationnarit des accroissements de {Nt }.
Le rsultat est tabli pour un temps darrt prenant ses valeurs dans une
suite croissante dinstants. Mais tout temps darrt S peut tre approch par
une suite dcroissante de temps darrt de cette forme. En effet, pour tout
n, posons
X
Sn =
k2n 1{(k1)2n <Sk2n } .
kIN
k=1
174
6.4
Comportement asymptotique
+
.
t
[t]
t
t
Il suffit donc de montrer que
Nt N n
0, quand n .
n
n<t<n+1
sup
Or si
def
n =
sup
n<t<n+1
Nt N n ,
= Nn+1 Nn ,
175
1 + + n
p.s., do
n
n
0 p.s.
n
On a un thorme de la limite centrale :
Proposition 6.4.2. Soit {Nt ; t 0} un processus de Poisson dintensit .
Alors
Nt t
Z en loi, quand t ,
t
o Z est une v.a.r de loi gaussienne centre rduite (i.e. desprance 0 et de
variance 1).
Preuve On raisonne comme dans la preuve prcdente.
Nn n
Z en loi, quand n ,
n
daprs le thorme de la limite centrale classique. Et
p
Nt N[t]
p
[t] / [t],
[t]
0, quand n .
Donc a fortiori
Nt N[t]
p
0 en probabilit quand t . Finalement :
[t]
r
N[t] [t]
Nt t
[t]
= p
t
t
[t]
r
Nt N[t]
[t] [t] t
+ ,
+
t
t
t
176
Bt en loi quand u ,
u
o Bt est une v.a.r. gaussienne
centre de variance t. Remarquons que pour
chaque u, {[Ntu tu]/ u, t 0} est un processus accroissements indpendants, dont les sauts sont damplitude (u)1/2 . Il en rsulte que lon
peut passer la limite cidessus quand u de faon coordonne pour les
diffrents t, de telle sorte que la limite {Bt , t 0} soit un processus gaussien
centr, accroissements indpendants, trajectoires continues, et vrifiant
E[Bt ] = t. {Bt ; t 0} est ce quon appelle le mouvement brownien.
6.5
Exercices
Exercice 6.5.1. Soit X une v.a.r. valeurs dans IR + t.q. IP(X > t) >
0, t > 0. On suppose en outre que s, t > 0,
IP(X > s + t/X > t) = IP(X > s).
En dduire que la loi de X est une loi exponentielle.
Exercice 6.5.2. Trois personnes A, B et C arrivent la poste en mme
temps pour tlphoner. Il y a deux cabines quoccupent immdiatement A et
B. C remplace le premier sorti. A, B et C quittent immdiatement la poste
aprs avoir tlphon.
On dsigne par X, Y et Z les temps doccupation de la cabine par A, B et
C respectivement. Ces trois variables alatoires sont supposes indpendantes
et quidistribues, de loi commune la loi sur IR + de densit exp(t), t 0
(avec > 0).
a Calculer la probabilit que C sorte le dernier.
6.5. EXERCICES
177
Y2 =
inf
1in,i6=i1
Xi
178
f (t)
,
1 F (t)
o f dsigne la densit de la loi de X, F sa fonction de rpartition. Lexercice 6.5.1 dit que la loi exponentielle est la seule avoir un taux de panne
constant.
On appelle loi de Weibull de paramtres , > 0 la loi de fonction de
survie
F (t) = e(t) ,
et de taux de panne
(t) = (t)1 .
La loi de Weibull a un taux de panne croissant si > 1 et dcroissant si
< 1. On retrouve la loi exponentielle de paramtre dans le cas = 1.
6.5. EXERCICES
179
t
e (t)1 ,
()
R
o () = 0 et t1 dt.
A nouveau la loi Gamma a un taux de panne croissant si > 1 et dcroissant si < 1. Notons que si lon additionne n v. a. indpendantes, toutes
exponentielles de mme paramtre , on obtient une v. a. de loi (n, )
taux de panne croissant.
Supposons que deux machines travaillent en parallle, et ont besoin pour
leur fonctionnement dune pice M quelque peu fragile. On dispose dune
seule pice de rechange, qui est place instantanment sur la machine dont la
pice M tombe en panne la premire. Les trois pices M (les deux en place au
dbut, et celle de rechange) ont des temps de vie i. i. d. La deuxime panne
est fatale la machine qui la subit. Si les temps de vie de ces pices suivent
une loi exponentielle, alors lexercice 6.5.2 montre que les deux machines ont
mme probabilit de subir la deuxime panne.
On peut supposer que si lon remplace la loi exponentielle par une loi
taux de panne croissant, la machine qui a vu sa pice remplace a plus de
chance de vivre plus longtemps que lautre, et que cest linverse dans le cas
dune loi taux de panne dcroissant.
On demande dillustrer laide de tirages alatoires le rsultat de lexercice 6.5.2, et les deux conjectures que nous avons formules.
Successivement pour IP = la loi exponentielle de paramtre 1, la loi
(3, 1), la loi de Weibull de paramtres (1,0.5) (que lon simule aisment
en inversant sa fonction de rpartition), on simule une matrice 3 N de v.
a. indpendantes de loi IP, note X. On trace alors, en fonction de n variant
de 1 N , et sur le mme graphique les trois quantits
n
n
X
k=1
180
Chapitre 7
Processus markoviens de saut
Introduction
Dans ce chapitre, nous allons prsenter lessentiel de la thorie des processus de Markov en temps continu, valeurs dans un ensemble fini ou dnombrable E. Comme on le verra la section 7.4, ces processus sont en quelque
sorte une combinaison dun processus de Poisson et dune chane de Markov
en temps discret (la chane incluse). Dans une seconde partie de ce chapitre,
nous prsenterons des applications la phylognie, aux quations aux drives partielles discrtises, et lalgorithme du recuit simul. La preuve de
la convergence de lalgorithme du recuit prsente ici est de Francis Comets (communication prive). Les files dattente seront traites au chapitre
suivant.
7.1
Gnralits
182
Z3
Z0
Z2
T0
T1
T2
T3
T4
Z4
Z1
quand n .
(7.1)
7.1. GNRALITS
183
184
xE
zE
Preuve Il rsulte immdiatement de la dfinition des probabilits conditionnelles et de la proprit de Markov que
IP(X0 = x0 , Xt1 = x1 , . . . , Xtn = xn )
= IP(X0 = x0 )P (Xt1 = x1 |X0 = x0 )IP(Xt2 = x2 |X0 = x0 , Xt1 = x1 )
IP(Xtn = xn |X0 = x0 , Xt1 = x1 , . . . , Xtn1 = xn1 )
= x0 Px0 x1 (t1 )Px1 x2 (t2 t1 ) Pxn1 xn (tn tn1 ).
Dans le cas n = 1, cette formule scrit :
IP(X0 = x, Xt = y) = x Pxy (t)
et le second rsultat sen dduit en sommant sur x E. Par dfinition de
P (t),
IP(Xt = y|X0 = x) = Pxy (t),
le troisime rsultat sen dduit en multipliant par gy et sommant en y E.
Enfin la formule cidessus dans le cas n = 2 donne, aprs division par x0
IP(Xs = k, Xs+t = y|X0 = x) = Pxz (s)Pzy (t)
7.1. GNRALITS
185
si y x;
sinon.
X (t)2n
n0
(2n)!
X (t)2n+1
(2n + 1)!
n0
X
n=0
186
7.2
Gnrateur infinitsimal
La proprit de semigroupe fait que P (t) est connu pour tout t ds quil
est connu pour t petit. En fait, on va voir quil est entirement dtermin par
sa drive droite en t = 0 (on sait que P (0) = I).
Thorme 7.2.1. Soit {P (t), t > 0} le semigroupe des matrices de transition dun processus markovien de sauts {Xt , t 0}.
Il existe une matrice {Qxy ; x, y E} (appele le gnrateur infinitsimal du semigroupe {P (t); t 0} qui vrifie
(i)
(ii)
Qxy 0 si x 6= y
X
Qxx =
Qxy 0,
yE\{x}
(cette dernire galit tant stricte sauf si ltat x est absorbant) et telle que,
lorsque h 0,
Pxy (h) = hQxy + (h) si x 6= y
Pxx (h) = 1 + hQxx + (h).
En outre, conditionnellement en X0 = x, linstant de premier saut T1 et la
position aprs le premier saut Z1 = XT1 sont indpendants, T1 de loi exponentielle de paramtre qx = Qxx , et Z1 de loi sur E donne par {Qxy /qx ; y 6= x}.
Preuve Remarquons tout dabord que
{T1 > nh} {X0 = Xh = = Xnh } {T1 > nh} {T2 T1 h}.
Comme P (T2 T1 h) 0 quand h 0, on a que si, h 0, nh t (avec
nh t),
IP(T1 > t|X0 = x) = lim IP(X0 = Xh = = Xnh |X0 = x)
= lim[Pxx (h)]n
Lexistence de cette dernire limite entrane que
1
[1 Pxx (h)] qx [0, +],
h
187
quand h 0, et donc
IP(T1 > t|X0 = x) = eqx t .
Do ncessairement qx < et qx = 0 ssi x est absorbant. On pose Qxx =
qx .
1
La dmonstration de lexistence des limites de Pxy (h) pour x 6= y se fait
h
de faon analogue :
{T1 t, Z0 = x, Z1 = y}
= lim 1mn {X0 = Xh = = X(m1)h = x, Xmh = y}
h0,nht
1 Pxx (h)n
Pxy (h)
1 Pxx (h)
1
1 eqx t
lim Pxy (h)
=
qx
h
1
Donc Qxy = lim Pxy (h) existe pour x 6= y et
h
IP(T1 t, Z1 = y|X0 = x) = (1 eqx t )
Qxy
qx
do
IP(T1 t, Z1 = y|X0 = x) = IP(T1 t|X0 = x)IP(Z1 = y|X0 = x)
et
IP(Z1 = y|X0 = x) =
Qxy
.
qx
188
X
u
(t, x) =
Qxy u(t, y), t > 0, x E;
t
yE
u(0, x) = g(x), x E.
189
X
v
(t, x) +
Qxy u(t, y) = 0, t > 0, x E;
t
yE
v(T, x) = g(x), x E.
Lquation pour v est une quation rtrograde au sens o elle se rsout dans
le sens ngatif du temps, de t = T vers t = 0. Notons que dans le cas non
homogne, o le gnrateur infinitsimal Q dpend de t, la quantit v(t, x) =
IE[g(XT )|Xt = x] est bien solution de cette mme quation, alors que lon na
plus lquation pour u.
La dmonstration cidessus nest pas rigoureuse dans le cas cardE = ,
puisquelle implique la permutation dune drivation et dune sommation
infinie. Nous tablirons lquation de Kolmogorov rtrograde dans le cas
gnral dans la section suivante.
7.3
190
Nous allons maintenant tablir lquation de Kolmogorov rtrograde dans
le cas gnral.
Thorme 7.3.2. Pour tout x, y E, la fonction t Pxy (t) est drivable,
et
d
Pxy (t) = (QP )xy (t).
dt
Preuve Dfinissons pour tout n IN la loi conditionnelle de (Zn , Tn ) sachant
que X0 = Z0 = x :
Rn (x; y, B) = IP(Zn = y, Tn B|Z0 = x), B borlien de IR+ .
Notons que
(
1, si x = y, 0 B;
R0 (x; y, B) =
0, sinon.
Q
eqx t dt, si x 6= y;
xy
R1 (x; y, B) =
B
0,
si x = y.
La proprit de Markov forte linstant Tm entrane que
IR+
Autrement dit,
Rm+n (x; z, B) =
XZ Z
yE
R+
XZ
y
191
IR+
Il est clair que les {Rn , n 1} sont entirement dtermins par R1 et cette
quation fondamentale.
Remarquons que
X
Pxy (s) =
IP(Zm = y, Tm s < Tm+1 |Z0 = x)
m0
m0
m0
m0
XZ
m0
Pxy (s) = xy e
qx s
m0,zE
soit
Pxy (t) = xy e
e
0
qx t
qy (st)
XZ
zE
eqx s
0
t
0
X
z6=x
R1 (x; z, ds)Pzy (t s)
Qxz Pzy (s)ds.
192
X
d
Pxy (t) =
Qxz Pzy (t) qx Pxy (t)
dt
z6=x
X
=
Qxz Pzy (t).
z
Le raisonnement qui prcde montre que
IP(Z1 = y, T1 B, Z2 = z, T2 T1 C|Z0 = x)
Z Z
=
R1 (x, y, dt)R1 (y, z, du)
B
7.4
193
Posons, pour n 1,
Sn = qZn1 (Tn Tn1 )
et pour t 0,
Nt = sup{n;
n
X
k=1
(o qx = Qxx ),
Sk t}.
Alors {Nt ; t 0} est un processus de Poisson dintensit 1 (utiliser la proprit de Markov forte de {Xt }, et le fait que si U ' exponentielle (), U '
exponentielle (1)).
Rciproquement, soit Q un gnrateur infinitsimal, i. e. une matrice
indxe par E E, telle que pour tout x E,
X
Qxy < 0.
Qxy 0, y 6= x; Qxx =
y6=x
(7.2)
Sn =
(7.3)
n0
194
Il est clair que que chacune des deux conditions du Corollaire entrane
(7.4). La Proposition rsulte maintenant du Lemme suivant, en posant
An = Tn+1 Tn ,
Bn =
1
q Zn
n 0.
Preuve Il rsulte de lindpendance des deux suites que le Lemme est une
consquence du fait que pour toute suite {bn , n 1} de nombres strictement
positifs,
X
X
An bn = + p. s.
bn = +.
(7.5)
P
n=1
n=1
Si n bn < , alors IE n An bP
n =
n bn < , donc a fortiori
p. s. Il reste montrer que si n bn = +, alors
n :=
n
X
k=1
A n bn <
Ak bk + p. s., quand n .
Dans le cas P
o il existe une soussuite nj telle que bnj +, clairement
P
n A n bn
j Anj bnj = +, car les Anj tant i. i. d. de loi exponentielle,
195
une infinit dentre euxPest plus grande que 1. Il reste donc considrer le
cas o 0 bn C et n bn = +. Alors pour tout M > 0, si n est assez
grand pour que IEn > 2M ,
IEn
IP(n M ) IP |n IEn |
2
Pn 2
V ar(n )
b
= 4 Pn1 k 2
4
2
(IEn )
( 1 bk )
4C
Pn 0,
1 bk
Remarque 7.4.4. Au chapitre suivant, nous prciserons des processus markoviens de sauts en indiquant leur gnrateur infinitsimal Q. On pourra
vrifier que tous les exemples traits satisfont lune des conditions (en fait
en gnral la premire) du Corollaire 7.4.2.
7.5
Dans ce qui suit, on dsignera comme dans le cas du temps discret par
IPx la loi conditionnelle de {Xt , t 0}, sachant que X0 = x. Les classes
dquivalence du processus de Markov {Xt ; t 0} sont celles de la chane
incluse. Notons que ds que {Xt ; t 0} est irrductible,
Pxy (t) > 0,
x, y E, t > 0.
(7.6)
196
qxy = xy qx ,
Notons que lhypothse que le processus est irrductible entrane que qx > 0,
x E. Donc on va pouvoir sans problme diviser par q. Lhypothse est
que la chane incluse est irrductible et rcurrente. Donc la mesure x dfinie
dans la preuve du Thorme 2.5.3 est strictement positive, et elle est lunique
( une constante multiplicative prs) solution de lquation x P = x . Donc
la mesure strictement positive x = q1 x vrifie x Q = 0, et toute autre
solution 0 de cette quation est telle que q0 est invariante par P , donc il
existe une constante c telle que 0 = c. On a la formule suivante pour la
mesure x :
xy
yx
=
= IEx
qy
= IEx
Z
Z
Rx
1{Xs =y} ds
IEx
t
0
Rx +t
Rx
= IEx
197
Rx +t
1{Xs =y} ds
t
Rx
= IEx
1{Xt+s =y} ds
0
Z
=
IPx (Xt+s = y, s < Rx )ds
0
Z X
IPx (Xs = z, s < Rx )Pzy (t)ds
=
0
xz Pzy (t).
7.6
Dfinition 7.6.1. Ltat x est dit rcurrent positif sil est rcurrent et si
IEx (Rx ) < , rcurrent nul sil est rcurrent et si IEx (Rx ) = +.
A nouveau, dans le cas irrductible rcurrent, tous les tats sont soit rcurrents nuls, soit rcurrents positifs, et suivant le cas on dit que le processus
{Xt } est transitoire, rcurrent nul ou rcurrent positif. Le cas rcurrent positif est quivalent lexistence dune unique probabilit invariante, comme
on va maintenant le montrer.
Thorme 7.6.2. Soit {Xt , t 0} un processus markovien de sauts irrductible. Alors un tat x E est rcurrent positif si et seulement si tous
les tats sont rcurrents positifs, si et seulement si il existe une probabilit
invariante , et dans ce cas
1
, x E.
IEx Rx =
x q x
198
Preuve Si x est rcurrent positif pour {Xt }, alors x est rcurrent pour la
chane incluse {Zn , n 0}. On dsigne par yx le nombre moyen de visites
ltat y lors dune excursion de {Zn } partant de x. Il rsulte de ce que la
dure de chaque sjour ltat y est indpendante de la chane incluse, et
desprance qy1 que
X yx
.
IEx Rx =
q
y
yE
yx
qy
199
k=1
k=1
N (t)
N (t)
1 X x
1 X x N x (t)
x
T =
T
t k=1 k
t
N (t) k=1 k
1
1
IEx Rx qx
= x .
N (t)
1 X x
1
Tk IEx (T1x ) = .
x
N (t)
qx
k=1
IEx (Rx )
200
si n N.
1 Pxx (h).
201
y Qyx = x
Qxy .
y6=x
y6=x
xy
On pose
C(f ) := 2
f x g x x ,
xE
que lon supposera non nul (alors C(f ) > 0). Alors
1
p
tC(f )
t
0
f (Xs )ds Z,
tu
p
f (Xs )ds, t 0
uC(f ) 0
mouvement brownien {Bt , t 0}, quand u .
vers un
202
7.7
Rversibilit
est satisfaite. Dans ce cas, on dit que le processus {Xt } est rversible (pour
la probabilit , qui est ncessairement invariante).
Preuve : On a, pour les mmes raisons que la formule analogue pour le
temps discret,
y
Pxy (t) = Pyx (t),
x
do lon dduit en prenant la drive en t = 0
xy = y Qyx .
Q
x
Le rsultat est maintenant vident.
Remarque 7.7.2. Comme dans le cas des chanes en temps discret, un
processus markovien de saut irrductible rcurrent positif nest pas ncessairement rversible. A nouveau, un contreexemple est donn par le cas o pour
un certain couple x 6= y, Qxy = 0 6= Qyx , ce qui nest pas contradictoire avec
lirrductibilit ds que cardE 3.
Remarque 7.7.3. Comme dans le cas du temps discret, dterminer un gnrateur Q connaisant une probabilit invariante nest pas difficile. Le plus
simple est de chercher Q telle que le processus correspondant soit rversible
par rapport , donc de chercher Q gnrateur infinitsimal irrductible, tel
que la quantit x Qxy soit symtrique en x, y.
Dterminer la probabilit invariante, connaissant le gnrateur infinitsimal irrductible, est en gnral plus difficile. On peut chercher rsoudre
lquation
x Qxy = y Qyx ,
mais celleci na de solution que dans le cas rversible. Dans le cas non
rversible, il faut rsoudre lquation Q = 0. Si on sait deviner une
constante multiplicative prs, on peut utiliser le rsultat suivant
7.8. PHYLOGNIE
203
X
y6=x
xy =
Q
Qxy ,
y6=x
y Qyx = x
y6=x
xy
Q
y6=x
= x
Qxy
y6=x
= x Qxx ,
soit lgalit Q = 0. La seonde partie de lnonc est alors une consquence
de la formule contenue dans la preuve du thorme 7.7.1.
Notons que si lon sait deviner le gnrateur du processus retourn, on
en dduit la probabilit invariante une constante multiplicative prs, qui se
calcule laide dune seule sommation.
7.8
On va prsenter les processus de Markov sur les arbres, qui sont couramment utilises comme modle en phylognie. On considrera des arbres
binaires, avec ou sans racine. On reprsente la figure 7.2 un arbre binaire
avec racine (avec la racine en haut et les feuilles en bas !), et la figure 7.3
un arbre binaire sans racine.
204
7.8. PHYLOGNIE
205
206
7.8.1
Modles dvolution
a
Q=c
g
t
a
x
x
x
x
c
x
x
x
x
g
x
x
x
x
t
x
x
x
x
3
.
Q=
3
La probabilit invariante associe est la probabilit uniforme sur les 4 nuclotides. Les probabilits de transition se calculent explicitement. P (t) =
0, 25 + 0, 75e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 + 0, 75e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 + 0, 75e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
0, 25 0, 25e4t
.
0, 25 0, 25e4t
0, 25 + 0, 75e4t
Les modles de Kimura (1980 et 1981) Parmi les quatre types de nuclotides, la cytosine et la thymine sont des pyrimidines, alors que ladnine
et la guanine sont des purines. Il est raisonnable de supposer que les transitions (remplacement dune purine par une autre, ou dune pyrimidine par
une autre) sont plus frquentes que les transversions (remplacement dune
purine par une pyrimidine ou vice versa). Donc on est amen supposer que
les taux de sustitution entre a et g ou entre c et t sont plus levs que tous
7.8. PHYLOGNIE
207
.
Q=
si x 6= y sont soit tous deux des purines, soit tous deux des pyrimidines,
Pxy (t) = 0, 5 0, 5e4t
dans le dernier cas.
Kimura a propos un second modle, de la forme
,
Q=
u(a 1)
uc
ug
ut
ua
u(c 1)
ug
ut
.
Q=
ua
uc
u(g 1)
ut
ua
uc
ug
u(t 1)
Notons que clairement pour x 6= y,
x Qxy = y Qyx ,
donc est la probabilit invariante, et la chane est rversible. La matrice Q
possde deux valeurs propres : u, dont lespace propre associ est constitu
208
des vecteurs orthogonaux dans IR4 , et 0, dont lespace propre associ est
constitu des vecteurs colinaires au vecteur (1, 1, 1, 1). Passant lexponentielle, on montre aisment que
Pxy (t) = etQ xy = eut xy + (1 eut )y .
Dans le cas particulier o = (1/4, 1/4, 1/4, 1/4), ce modle se rduit celui
de JukesCantor.
Le modle dHasegawa, Kishino, Yano (1985) Il sagit dune gnralisation la fois du premier modle de Kimura, et de celui de Felsenstein.
Soit nouveau une probabilit sur E, et u, v deux nombres positifs.
ug v2
vc
ug
vt
va
ut v1
vg
ut
,
Q=
ua
vc
ua v2
vt
va
uc
vg
uc v1
u v
v
u
v(1 )
1 v(1 ) u(1 ) v
v
u(1 )
.
Q=
v
u(1 ) v v(1 )
2 u(1 )
v(1 )
u
v
u v
Le modle rversible gnral Comme le cardinal de E est trs petit,
on peut chercher utiliser le modle le plus gnral. Tavar a propos une
paramtrisation du modle le plus gnral, qui prend la forme
Q=
uGa uHc uY uIt ,
uJa uKc uLg uZ
7.8. PHYLOGNIE
209
= Ac + Bg + Ct
= Da + Eg + F t
= Ga + Hg + It
= Ja + Kc + Lg ,
210
Le modle GY scrit
x2 y2 z2
Q(x1 y1 z1 )(x2 y2 z2 ) = x2 y2 z2
x2 y2 z2
x2 y 2 z 2
Notons que sur les 63 paramtres estimer, les 60 paramtres de la probabilit invariante ne sont en gnral pas estims par le maximum de
vraisemblance, mais par les frquences empiriques des divers codons dans les
donnes. Une autre possibilit est destimer xyz par le produit x1 y2 z3 des
frquences des divers nuclotides aux positions 1, 2 et 3 du codon.
Modles non homognes Une hypothse implicite dans les modles markoviens considrs jusquici est la stationnarit. Le gnrateur infinitsimal
est le mme sur les diverses branches de larbre phylogntique. Donc la
probabilit invariante est la mme sur les diverses branches, autrement dit
les diverses squences doivent avoir aproximativement la mme composition
en bases. Certaines donnes contredisent nettement cette situation. On peut
alors relcher lhypothse dhomognit du processus de Markov sur tout
larbre. Galtier et Gouy adoptent le modle de Tamura, avec des paramtres
et homognes sur tout larbre, et un paramtre (qui rgle la proportion
de g + c) qui peut varier dune branche lautre de larbre.
Dpendance ou indpendance entre les sites La plupart des modles
markoviens supposent que le comportement des divers sites au cours de lvolution est un comportement i.i.d. Evidemment cette hypothse nest pas raisonnable, mais elle simplifie grandement les calculs.
Il y a ce jour trs peu de travaux qui proposent des modles markoviens o les volutions des diffrents sites sont corrles. Citons le travail de
G. Didier, qui propose un modle o lvolution de chaque site dpend des
sites voisins. Indiquons une autre approche, utilise par Pollock, Taylor et
Goldman pour modliser lvolution de squences de protines.
Considrons un modle du type
Qxy = sxy y ,
7.8. PHYLOGNIE
211
212
7.8.2
Vraisemblance en phylognie
La comparaison des gnomes de diverses espces est maintenant le principal outil pour tenter de reconstruire des arbres phylogntiques. Il existe
plusieurs algorithmes qui construisent de tels arbres. Nous allons donner des
indications sur la mthode du maximum de vraisemblance.
Notons que lon peut comparer des gnes (i.e. des collections dacides
amins), ou bien des squences dADN. Nous nous limiterons pour fixer les
ides aux squences dADN.
Calcul de la vraisemblance dun arbre Pour fixer les ides, supposons
que lon utilise le modle de Felsenstein. Le temps t correspond ici une
distance sur larbre. Notons que le seul paramtre dintrt est le produit
u t. Quitte modifier en consquence les longueurs des branches de larbre,
on peut toujours se ramener u = 1, ce que nous supposons dornavant.
Nous ne considrerons dans la suite que des arbres binaires.
On va supposer dans cette section que les diffrents sites voluent indpendemment les uns des autres, et tous au mme taux, ce taux tant galement constant dans tout larbre. Cette hypothse nest pas trs raliste,
et beaucoup de travaux rcents se concentrent sur la dtection des sites qui
voluent plus vite que les autres, ventuellement dans une partie seulement
de larbre, mais pour dmarrer ltude et construire un premier arbre, il est
naturel de faire lhypothse simplificatrice que nous venons dnoncer. Une
autre hypothse assez utilise est que les taux dvolution des diffrents sites
sont des v.a. i. i. d., de loi commune une loi Gamma.
7.8. PHYLOGNIE
213
214
0
2
2.2
1.1
1.1.1
1.1.2
2.1
2.2.1
1.1.1.1
2.2.1.2
2.2.2
x.1 ,x.2 E
(.2)
Pxx.1 (`.1 )L(.1)
s,x.1 Pxx.2 (`.2 )Ls,x.2 .
(0)
x L(0)
s,x ,
xE
et
L(T ) =
m
Y
Ls (T ).
s=1
On aurait pu tout aussi bien crire chaque Ls (T ) comme une somme de 4|T \0 |
termes. Mais les formules cidessus constituent lalgorithme quil faut utiliser
en pratique.
7.8. PHYLOGNIE
215
() ()
y Pyx (` )Ls,x
Ls,y .
x,yE
216
7.8.3
Reprenons lcriture de la vraisemblance. Notons D le vecteur des variables alatoires qui sont observes, et d le vecteur des valeurs observes (d
comme donnes), i. e. d est constitu des diverses squences gnomiques
alignes.
Prcisons maintenant les paramtres dont dpend la vraisemblance. Dans
les paramtres inconnus (que lon cherche prciser), il y
dune part la forme de larbre, que nous noterons , qui est une inconnue
dans un ensemble fini T (de cardinal (2n3)!! dans le cas dun arbre enracin
avec n feuilles, (2n 5)!! dans le cas sans racine si k est un entier impair,
k!! = 1 3 5 k),
dautre part les longueurs des diverses branches, et la matrice de transition Q du modle dvolution (ou du moins les paramtres de cette matrice
autres que la probabilit invariante). Les longueurs de branche et les paramtres inconnus de la matrice Q varient dans une partie dun espace euclidien
V IRd . On notera cet ensemble de paramtres .
Le paramtre inconnu est donc le couple = (, ), dont la valeur est
arbitraire dans = T V , et la vraisemblance est la fonction
L() = IP (D = d).
La vraisemblance de la valeur du paramtre inconnu est la probabilit
dobserver les donnes que nous avons sous les yeux, si est la vraie valeur
de ce paramtre.
Dans le point de vue baysien, le paramtre inconnu est la ralisation
dune variable alatoire, autrement dit (, ) est la ralisation dun vecteur
alatoire (T, ). Prendre ce point de vue impose de se donner une loi de
probabilit a priori, dont le baysien nous dit quelle permet dintgrer des
informations a priori sur le paramtre inconnu, ce que refusent les anti
baysiens, pour qui la seule information que lon a le droit dutiliser est celle
contenue dans les donnes.
On va donc se donner une loi a priori pour le vecteur (T, ), que lon
prendra de la forme suivante :
7.8. PHYLOGNIE
217
on se donne la loi de T , qui est une loi sur un ensemble fini T , donc on
se donne des = IP(T = ), T ;
on se donne la loi conditionnelle de , sachant la valeur de T , et on
suppose que pour tout T , la loi conditionnelle de , sachant que T = ,
admet une densit q (), autrement dit pour toute fonction mesurable
f : T V IR+ ,
XZ
IE[f (T, )] =
f (, )p ()d,
T
f : T V IR+ ,
R
T V f (, )IP (D = d|(T, ) = (, )) p ()d
R
P
IE [f (T, )|D = d] =
.
T V IP (D = d|(T, ) = (, )) p ()d
Par exemple, on peut sintresser la loi de probabilit a posteriori de
la forme de larbre, i. e. de la v. a. T . Celleci est donne par la formule
suivante : pour tout T ,
R
IP (D = d|(T, ) = (, )) p ()d
IP (T = |D = d) = P V R
.
T V IP (D = d|(T, ) = (, )) p ()d
P
218
sous rserve que P ainsi dfinie soit irrductible, ce qui est par exemple vrai si
Q est irrductible et vrifie la proprit : pour tout x, y, Qxy > 0 Qyx > 0.
Il est clair que cette matrice P est bien une matrice de transition (Pxy Qxy ,
x 6= y implique que Pxx 0), et que est invariante par P , pusique la relation
dquilibre ponctuel
x Pxy = y Pyx , x 6= y
219
7.9
Soit D un domaine born de IR2 (le rsultat qui suit est en fait vrai en
dimension quelconque), de frontire D lipschitzienne. On suppose pour fixer
les notations que lorigine 0 D. On considre le problme de Dirichlet :
(
u(x) = 0, x D;
u(x) = f (x), x D;
avec f C(D c ). Il est bien connu que cette quation admet une solution
unique u lment de C(D).
Etant donn h > 0, soit hZ2 lensemble des points du plan dont les
coordonnes sont des multiples entiers relatifs de h. On pose Dh = D hZ2 .
220
Dh est constitu des points de D c hZ2 qui sont distance h dau moins
h = Dh Dh . e1 et e2 dsignant les deux vecteurs de
un point de Dh , et D
base, on dfinit loprateur approch h par :
2
(h v)(x) =
1X
(v(x + hei ) + v(x hei )) v(x).
4 i=1
1
h , valeurs
2
221
partielles ! Mme sil faut laisser tourner lordinateur un peu plus longtemps
opour avoir la mme prcision quavec une mthode de diffrences, lments
ou volumes finis, le fait que la programmation soit facile, rapide, et surtout
permette facilement la reprise du programme par un autre programmeur,
quand le premier aura quitt le service ou lentreprise.
7.10
Dans cette section, E est suppos fini. Rappelons que que lon cherche
maximiser une fonction
U : E IR ,
telle que, pour fixer les ides,
max Ux = 0.
xE
o G est un graphe non orient dans E, i.e. une collection de paires de point
de E, choisie de telle sorte que le processus de gnrateur Qxy soit irrductible
(ce qui revient dire que x, j E, n et x1 , x2 , . . . , xn tels que (x, x1 ) G,
(x1 , x2 ) G, . . . , (xn , y) G).
Le processus markovien de gnrateur infinitsimal Q est clairement rversible par rapport sa probabilit invariante dfinie par
,x = Z1 eUx ,
x E.
1X
2
x,y
|x y |2 Qxy x ,
222
Qxy = 0, donc Q :
xE
xE
Lemme 7.10.2. Q tant le gnrateur infinitsimal dun processus de Markov irrductible valeurs dans un espace fini E, son trou spectral vrifie
> 0.
Preuve Daprs la formule cidessus pour E(, ), le quotient
E(, )
V ar ()
reste inchang si lon ajoute une constante. On peut donc se contenter
de minimiser ce rapport pour tel que IE () = 0, do
=
inf
60;IE ()=0
h, Qi
,
h, i
donc a fortiori
0=
X
x,y
x Qxy y x =
1X
|x y |2 Qxy x ,
2 x,y
223
Soit maintenant {Xt , t 0} un processus de Markov de gnrateur infinitsimal Q. Pour tout t > 0, on note (t) = (x (t); x E) la loi de Xt . On
pose
2
X x (t)
(t) =
1 x ,
x
xE
et on remarque que (t) = 0 ssi (t) = .
x
x
X x (t)y (t)Qyx
=2
x
x,y
X x (t)
y (t)
y Qyx
x
y
x,y
(t)
(t)
,
=2<Q
>
(t)
2V ar
= 2(t).
=2
Soit
d
log (t) 2.
dt
224
1
1+t
M
e(t) 2
Qxy (t)x (t) = Qxy (0)
Z(t)
(t)M
e
|E|
Qxy (0)
x (0)
Z(t)
225
Donc
Et (, ) =
1X
|x y |2 Qxy (t)x (t)
2 x,y
e(t)M |E| X
|x y |2 Qxy (0)x (0)
2Z(t)
x,y
X
1
(0)e(t)M
2x
Z(t)
x
X
(0)e(t)M
2x x (t)
(0)e
(t)M
V ar(t) ().
Les deux termes extrmes de cette ingalit tant invariants par addition
dune constante , lingalit rsultante est vraie sans la restriction que
IE(0) [] = 0. Le lemme est tabli, puisque
(t)M
1
1+t
M
X x (t)
x
x (t)
X x (t)2
x
x (t)
2
x (t)
1.
|x (t) x (t)| =
X |x (t) x (t)| p
p
p
x (t) (t).
x (t)
x
226
On a
X d x (t)2
d
(t) =
dt
dt x (t)
x
X
dx
2 dx
2
(t)x (t) x (t)
(t)
=
x (t)
2x (t)
dt
dt
x
X 2 (t)
(t) (t)
,
= 2Et
0 (t)
Ux x2 x (t)
(t) (t)
x (t)
x
X Uy e(t)Uy
2x (t) (t)Ux
+ 0 (t)
e
Z 2 (t)
x2 (t)
x,y
2(t)(t) + 0 (t)M ((t) + 1)
(2(t) M ( 0 (t))(t) + M 0 (t)
M
M
2(0)
(t) +
M/
(1 + t)
(1 + t)
(1 + t)
et le thorme rsulte du
Lemme 7.10.6. Soit x, b C 1 (IR+ ; IR+ ), a C(IR+ ; IR+ ) tels que
Z
(i)
a(t) dt = + ;
0
(ii)
Preuve
d
dt
x(t) exp
Z
a(s)ds
0
=e
Rt
0
a(s)ds
Rt
a(s)ds
dx
(t) + a(t)x(t)
dt
a(t)b(t).
227
Rt
a(s)ds
Rt
s
a(r)dr
a(s)b(s)ds.
y(t) = e
Rt
0
a(s)ds
RN
0
y(0)
a(s)ds
y(0) +
Rt
s
a(r)dr 0
b (s)ds
|b (s)|ds + e
Rt
a(r)dr
e
0
RN
s
a(r)dr
|b0 (s)|ds.
Soit > 0 arbitraire. On choisit N assez grand pour que la somme des deux
alors t assez grand, le troisime terme son tour est plus petit que . Le
2
lemme est tabli.
1
Remarque 7.10.7. La fonction (t) =
log(1 + t) tend trop lentement
228
7.11
Exercices
Exercice 7.11.1. Soit {Tn , n 1} un processus ponctuel de Poisson dintensit , et {Zn , n 0} une chane de Markov indpendante de {Tn , n 1}
valeurs dans E, de matrice de transition Pxy , x, y E. On pose
Xt =
X
n=0
Montrer que {Xt , t 0} est un processus markovien de sauts dont on prcisera la matrice de transition, le gnrateur infinitsimal, et la loi de linstant
du premier saut.
Exercice 7.11.2. Soit {Xt ; t 0} un processus markovien de sauts valeurs dans lensemble fini ou dnombrable E, de gnrateur infinitsimal
{Qxy ; x, y E}. On suppose que := supx Qxx < . Soit {Nt ; t 0}
le processus de comptage des sauts de {Xt }, et {Nt0 , t 0} un processus de
Poisson dintensit .
Comparer IP(Nt n) et IP(Nt0 n), ainsi que IE[f (Nt )] et IE[f (Nt0 )],
avec f une fonction croissante de IN dans IR. Montrer que lexercice 7.11.1
fournit une autre dmonstration de ce rsultat.
Exercice 7.11.3. Soit {Nt , t 0} et {Pt , t 0} deux processus de Poisson
indpendants, dintensit respective et .
a Montrer que {Xt , t 0} dfini par
Xt = N t P t
est un processus markovien de sauts irrductible valeurs dans Z, dont
on prcisera le gnrateur infinitsimal.
7.11. EXERCICES
229
Qu(x) = 0, x E\F
u(x) = h(x), x F ;
Qv(x) + 1 = 0, x E\F
v(x) = 0, x F ;
(on introduira le conditionnement par (T1 , X(T1 ))).
b
230
7.12
7.12.1
Probmes corrigs
Enoncs
q p 0 0 ...
q 0 p 0 . . .
P = 0 q 0 p . . .
0 0 q 0 p . . .
.. .. .. .. . .
.
. . . .
p p
0
0
...
q 1 p
0
...
q 1 p
...
Q= 0
,
0
0
q
1
p
.
.
.
..
..
..
..
..
.
.
.
.
.
231
o 0 < p, q < 1, p + q = 1.
On pourra dans la suite comparer la chane {Xn ; n IN} et la marche
alatoire valeurs dans Z tudie dans lexercice 2.9.7 (pour laquelle on a
montr le caractre transitoire lorsque p 6= q, et rcurrent nul lorsque p = q),
et remarquer que le processus {Xt ; t 0} est une file dattente M/M/1
comme tudie dans le chapitre suivant.
1. La chane {Xn ; n IN} estelle la chane incluse du processus {Xt ; t
0} ?
2. Montrer que les deux processus {Xn ; n IN} et {Xt ; t 0} sont irrductibles.
3. Montrer que toute mesure invariante de {Xn ; n IN} est une mesure
invariante de {Xt ; t 0}, et viceversa. Montrer que les chanes sont
de mme nature (toutes deux transitoires, ou rcurrentes positives, ou
rcurrentes nulles).
4. Montrer que les deux chanes sont transitoires dans le cas p > q.
5. Montrer que les deux chanes sont rcurrentes dans le cas p = q = 1/2
(on pourra utiliser la comparaison avec lexercice 2.21.4). Calculer dans
ce cas une mesure invariante (on dterminera 1 en fonction de 0 , puis
2 en fonction de 0 , . . .), et en dduire que le processus est rcurrent
nul.
6. On se place maintenant dans le cas p < q. On pose = p/q, et on
remarque que q 1 ( p) = 2 . Montrer quil existe une probabilit gomtrique invariante pour les deux chanes (on calculera 1 en fonction
de 0 , 2 en fonction de 0 , . . .).
La fin du problme tudie deux variantes de la chane en temps continu
{Xt ; t 0}.
7. On modifie le gnrateur infinitsimal Q en multipliant p et q par une
mme constant c > 0. Montrer que ni la nature de la chane (transience,
rcurrence nulle ou positive), ni lventuelle mesure invariante nest
modifie par la prsence de la constante c. Questce qui est modifi
dans le processus ?
8. On se place dans le cas p < q, on utilise toujours la notation = p/q,
et on considre maintenant le processus markovien de sauts {Yt ; t 0}
232
p,
0
Q0y p,
0,
et pour x 1 :
x
q,
x ,
Q0xy
x p,
0,
par :
si y = 0;
si y = 1;
sinon;
si y = x 1;
si y = x;
si y = x + 1;
sinon.
IP(Vn = 1) = 1IP(Vn = 0) = p,
233
p/2 p/2 0
0
0
...
1 p/2 1 p/2 0
0
...
1 p p/2 1 p/2 0
...
Q=
.
1p
0
p/2
1
p/2
0
.
.
.
..
..
..
..
..
. ...
.
.
.
.
0
0 0 ...
( + )
0 0 . . .
.
Q= 0
( + ) 0 . . .
..
..
.. .. ..
0
.
.
. . .
avec , > 0.
1. Dterminer la chane incluse. Montrer que {Xt ; t 0} est irrductible.
2. Montrer que {Xt ; t 0} est rcurrente dans le cas , transitoire
dans le cas < .
3. Montrer que dans le cas > , il existe une unique mesure invariante
de la forme donne la question 9 du problme 2.10.5, avec a que
lon dterminera en fonction de et .
4. Montrer que {Xt ; t 0} est rcurrente positive dans le cas > ,
rcurrente nulle dans le cas = .
Problme 7.12.4. P dsignant la matrice de transition dfinie au problme
2.10.6, on pose Q = P I, et on considre une chane de Markov en temps
continu {Xt , t 0} de gnrateur infinitsimal Q.
1. Dterminer la matrice de transition P 0 de la chane incluse.
2. Dcrire les trajectoires de la chane {Xt }, en prcisant les paramtres
des lois exponentielles des temps de sjour dans les divers tats.
234
3. Montrer que la chane {Xt } est irrductible, rcurrente positive. Dterminer sa probabilit invariante.
4. Dterminer la probabilit invariante de la chane incluse.
7.12.2
Corrigs
235
P
Donc Xn P
X0 + nk=1 Yk , et comme les Yk sont i.i.d., avec IE(Yk ) =
p q > 0, nk=1 Yk + quand n , et a fortiori Xn +
quand n , et {Xn } est transitoire.
236
1 p/2 p/2 0
0
0 0
1 p/2 0 p/2 0
0 0
1 p p/2 0 p/2 0 0
P =
,
1p
0
p/2
0
p/2
0
..
..
..
..
..
..
.
.
.
.
.
.
et puisque les deux diagonales infrieures et suprieure ne contiennent
pas de 0, on peut avancer et reculer dun pas chaque instant, donc
aller en temps fini de x y, pour tout couple dtats x, y IN, do
lirrductibilit.
2. Soit T le temps du premier retour en 0, partant de 0. IP(T > k) < pk
pour tout k 1. Donc
IE(T ) =
X
k=0
237
0
1
0
0
0
0
+
0
0
0
0
0
0 + 0
0
P =
+
0 + 0 + 0
..
..
..
..
..
..
.
.
.
.
.
.
...
. . .
. . .
. . .
..
.
1
si Xn = 0
Zn + Yn si Xn > 0.
Le caractre rcurrent ou transitoire de {Zn }, donc aussi de {Xt }, stablit comme dans le problme 2.10.5.
3. Lgalit ( Q)0 = 0 entrane que a = /, et on vrifie aisment que
ce choix de a donne bien Q = 0.
4. Daprs ce que lon vient de voir, {Xt } est rcurrente positive si > .
Si = , la mesure = (1, 1, 1, . . .) est invariante, cest une mesure
de masse infinie, donc {Xt } est rcurrente nulle.
238
p1 1p 0
0
0
1
0
1
p
1
p
0
0
, P0 =
Q=
p
1 p 1
0
p 1p
0
0
p
p
0
0
0
0
p 1 p
.
0
0
1
0
Chapitre 8
Files dattente et rseaux
Introduction
Les processus markoviens de saut servent modliser les files dattente.
Cellesci ont dabord t tudies pour les besoins du tlphone, puis pour
ceux de la recherche oprationnelle. On est pass ensuite ltude des rseaux
de files dattente, lequels servent valuer les performances des systmes
informatiques, et aussi des systmes de production.
Le modle mathmatique de base des files dattente est le suivant. Des
clients arrivent suivant un certain processus. Quand un client arrive, si un
guichet est libre il se prsente celuici et commende tre servi. Sinon il
se met en attente, et sera servi lorsquun guichet sera libre (et que les clients
arrivs avant lui auront t servis - moins quun systme de priorits plus
complexe ne soit mis en place). Les temps de service suivent une certaine loi
(qui dans certains modles plus complexes que ceux que nous allons considrer pourrait dpendre du type de client). Nous supposerons implicitement
que la salle dattente est de capacit infinie, et quaucun client nest rejet,
sauf mention explicite du contraire.
Pour nous, la file dattente sera caractrise par la loi des arrives, la
loi des temps de service et le nombre de guichets disponibles. On supposera
toujours les temps de service i.i.d. et indpendants du processus des arrives.
On pourra consulter la monographie [39] pour un expos beaucoup plus
complet sur le sujet.
239
240
8.1
Qx,x1 = , x 1;
Qxy = 0 si |x y| 2;
et donc
Q00 = ,
Qxx = ( + ), x 1.
IP(Xt+h
= eh heh + (h),
h1 Px,x+1 (h) , h 0.
= x 1|Xt = x) = IP(Nt+h Nt = 0, S h) + (h)
= eh (1 eh ) + (h),
h1 Px,x1 (h) , h 0.
241
x = 1
.
xx =
x=1
=
q 0 0
( )
1
1
=
q0
Calculons le temps moyen pass par un client dans le systme. Conditionnellement au fait de trouver x clients devant lui en arrivant, le temps moyen
pass par un client est (x + 1)/. Donc le temps moyen est :
IE (Xt + 1)/ =
1
.
242
(H2)
et on suppose en outre que les dures de sjour de tous les clients sont finies,
et que si Dn dsigne la dure du sjour du nime client arriv aprs linstant
telle que
0, il existe une constante D
n
X
= lim 1
D
Dk .
n n
k=1
(H3)
X
Preuve Dsignons par N (t) le nombre de clients arrivs avant t, et {tn , n
IN} une suite telle que Xtn = 0, n et tn , quand n . Alors il nest
pas difficile de vrifier que si X0 = 0 :
N (tn )
X
k=1
Donc
1
tn
tn
0
Dk =
tn
Xs ds.
0
N (tn )
N (tn )
1 X
Xs ds =
Dk .
tn
N (tn ) 1
8.2
243
1 /
x =
, 0 x K.
1 (/)K+1
1
.
Dans le cas = , on a x = K+1
La probabilit quun client arrivant soit rejet est gale la proportion
du temps o la file est pleine, soit
K
K =
8.3
1
K+1 si 6= ,
1
K =
1
si = .
K +1
244
pour x s,
Qx,x+1 = , Qx,x1 = s, Qxy = 0, |x y| > 1.
Le seul calcul nouveau faire est le suivant : si S1 , . . . , Sx sont i.i.d.
exponentielles (),
IP(S1 Sx > h) = (eh )x .
Donc la probabilit quil y ait au moins un dpart dans un intervalle de temps
de longueur h, lorsque x guichets sont occups, est
1 exh ,
et
1 exh
x.
h
En outre, la probabilit quil y ait au moins deux dparts pendant un intervalle de temps de longueur h est un (h).
{Xt } est rcurrent positif si < s. Dans ce cas, on peut chercher une probabilit invariante en cherchant une solution de lquation dquilibre ponctuel :
x Qx,x+1 = x+1 Qx+1,x .
On trouve que
(
(/)x /x!,
si 0 x s;
x /0
x xs
(/) /s s!, si x > s.
Les deux cas qui conduisent une formule simple sont le cas s = 1 (dj
trait, loi gomtrique) et le cas s = , auquel cas 0 = e/ , et
x = e/ (/)x /x!,
i.e. la probabilit invariante est la loi de Poisson (/).
On a le Thorme de Burke : si < s, lquilibre le processus des
dparts est un processus de Poisson dintensit . En effet, {Xt } est rversible
par rapport . Donc lquilibre (i.e. sous IP ), {XT t ; 0 t T } a
mme loi de {Xt , 0 t T }, et les dparts de {Xt } sont les arrives de
{XT t }.
Calculons maintenant la probabilit quun client arrive alors que tous les
serveurs sont occups (et donc quil soit mis en attente avant dtre servi).
245
Celleci est gale la proportion du temps pendant laquelle tous les serveurs
sont occups, donc
x
X
ss X
x = 0
s! x=s s
x=s
= 0
avec
0 =
" s1
X (/)x
x!
x=0
s
(/)s
,
s!
s
(/))s
s
+
s!
s
#1
La formule que nous venons dobtenir fait partie des formules dErlang.
Enfin, posons nous la question de savoir ce qui est le plus efficace, du point
de vue de lutilisateur, pour faire face des arrives poissoniennes dintensit
2 : deux serveurs en parallle, avec temps de service de loi exponentielle de
paramtre (solution 1), ou bien un seul serveur, avec temps de service de
loi exponentielle de paramtre 2 (solution 2) ( < ) ?
Calculons les temps de sjour moyen des clients dans le systme, dans les
deux cas. Dans la premire solution, lquilibre
la loi du nombre de clients
x
1 /
1 /
; x = 2
, x 1.
est donne par 0 =
1 + /
1 + /
Donc le nombre moyen de clients prsents dans le systme vaut
x
1 / X
X1 = 2
x
1 + / x=1
2/
(1 /)(1 + /)
1
= X1 =
D
2
( )(1 + /)
Dans la seconde solution,
2 =
D
1
( )2
2 < D
1 , et la solution dun seul serveur, avec temps
Mais 1 + / < 2, donc D
de service de loi exp(2), est la solution prfrable.
246
8.4
On considre la file M/M/s, mais cette fois sans salle dattente, i.e. tout
client arrivant alors que les s guichets sont occups est rejet. Cest le modle
de fonctionnement dun central tlphonique.
Le nombre Xt de clients dans le systme linstant t constitue un processus de Markov valeurs dans {0, 1, . . . , s}, avec le gnrateur infinitsimal :
Q01 = , Q0x = 0, x > 1;
si 0 < x < s,
Qx,x+1 = ,
Qx,x1 = x,
Qs,s1 = s,
Qxy = 0, |x y| > 1;
Qsy = 0, y 6= s, y 6= s 1.
Par le thorme ergodique, la proportion du temps pendant laquelle le systme est plein, qui est aussi la proportion dappels perdus, est
s
(/)s X (/)y
s =
/
,
s!
y!
y=0
8.5
Atelier de rparation
247
Son gnrateur infinitsimal est le mme que celui de la file M/M/s/s, mais
avec et intervertis ! Donc la probabilit invariante de ce processus est
x =
s
(/)x X (/)y
/
, 0 x s.
x!
y!
y=0
s
X
x x
x=1
s1
X
x=0
s
(/)x X (/)y
/
x!
y!
y=0
8.6
Supposons que les clients demandent deux services : ils font dabord la
queue au guichet A, puis au guichet B, dont les deux temps de service sont
indpendants, le temps de service de A suivant une exponentielle (), et celui
de B une loi exponentielle ().
Quelle est la longueur moyenne de la file au guichet B ? Notons {Xt } le
nombre de clients (en service ou en attente) au guichet A, {Yt } le nombre de
clients au guichet B.
Les arrives au guichet A sont supposes former un processus de Poisson
dintensit . Si > , Xt , on peut admettre quil y a toujours des
clients en A, et ils sortent suivant un processus de Poisson dintensit . Si
< , daprs le thorme de Burke les dparts de A forment un processus
de Poisson dintensit . Il est donc naturel de prtendre que le processus
des arrives en B est un processus de Poisson dintensit . Donc {Yt }
est rcurrent positif ssi < , et dans ce cas la longueur moyenne de la
248
Dans ce cas, lquilibre, le temps moyen pass par un client dans le systme
A+B est
1
1
+
.
8.7
n=0
X
n=x
=e
t (pt)
x!
X
((1 p)t)nx
n=x
(n x)!
(1 F (s))ds =
Si IE(T ) < , la file a comme loi limite, la loi de Poisson (IE(T )).
8.8
249
L(u) =
eut (dt),
u > 0.
8.8.1
IRn
+
n
YZ
i=1
n
Y
i=1
L((1 zi )).
Il est clair que la chane de Markov {Xn } valeurs dans IN est irrductible.
On note que
def
= IE(Yn ) = .
250
8.8.2
quand n , ce qui contredit le fait que Xn 0, et la chane est ncessairement rcurrente. Prenons lesprance dans la formule de rcurrence cidessus.
Puisque Xn 0,
0 < 1 n1 IEX0 + n1 IEZn 1/m0
quand n , o m0 est lesprance du temps de retour en 0, daprs le
thorme ergodique. Donc
m0
1
< .
1
251
(1 z)A(z)
.
A(z) z
Calculons la longueur moyenne de la file. Diffrentiant (), on obtient
G(z) = (1 )
Donc
A(z) 1 A0 (z)(z 1)
(A0 (z) 1)(1 z) + A(z) z
=
(A(z) z)2
(A(z) z)2
1 00
(1 z)2
' A (z)
2
(A(z) z)2
00
A (1)
.
2(1 )2
IE (Xn ) = G0 (1)
A00 (1)
=+
2(1 )
2 L00 (0+)
=+
2(1 )
2 IES 2
=+
,
2(1 )
252
Donc
M (u) =
Do lon tire
(1 )u
.
u (1 L(u))
IEQ = M 0 (0+) =
IE(S 2 )
.
2(1 )
= L(u + (1 B(u))).
On en dduit lesprance de O :
IE(O) = (1 + IE(O))
=
.
1
8.9
253
Le taux avec lequel les clients quittent la station p est p (n), si n clients sont
la station p. Par exemple
(
p 1{n>0} , dans le cas dun serveur M/M/1 ;
p (n) =
n sp p , dans le cas de s guichets : file M/M/s.
Un client quittant la station p se dirige vers la station q avec la probabilit
rpq (1 q N ), et quitte le rseau avec la probabilit rp0 . On suppose pour
simplifier que rpp = 0, 1 p N ; cette hypothse peut tre leve sans
difficult.
Le processus Xt = (Xt1 , . . . , XtN ) des nombres de clients prsents aux
stations 1, . . . , N linstant t est un processus markovien de sauts valeurs
dans lespace E = INN
+.
On note ep = (0, . . . , 0, 1, 0, . . . , 0) le vecteur dont seule la pime coordonne est non nulle et vaut 1.
Les seuls termes hors diagonaux non nuls du gnrateur infinitsimal du
processus {Xt } sont donns par
Qx,x+ep = p , x E, 1 p N ;
Qx+ep ,x = p (xp + 1)rp0 , x E 1 p N ;
(8.1)
On considre lquation
0p +
X
q6=p
q rqp = p , 1 p N ;
(8.2)
dinconnues p , 1 p N .
Lemme 8.9.1. Sous lhypothse (8.1), lquation (8.2) a une unique solution
positive et finie.
Preuve Soit R la matrice N N , de coordonnes Rpq = rpq . Lquation
(8.2) scrit sous forme vectorielle
(I R) = 0 ,
254
r10
r20
R
P =
r N 0
1 00
X
(P n )xy < , 1 x, y N.
n=0
np = bp Qn
avec bp =
Y
n
X
p
1+
(r)
n=1 r=1 p
!1
255
np
p
1
p
p
p
n
, 1 p N, n IN.
avec
bp =
"sp 1
X (p /p )r
r=0
r!
(p /p )
sp !
sp
1
1 p /p sp
#1
0p
p (xp + 1)
p
x,x+ep = p rp0
Q
x+ep ,x+eq = q rpq p (xp + 1)
Q
p
La formule pour est alors correcte pourvu que pour tout x E (cf. Remarque 7.7.3) :
X
X
xy =
Q
Qxy
y6=x
y6=x
256
Or
Qxy =
p=1
y6=x
et
X
xy =
Q
N
X
N
X
0 + p (xp ) ,
X
0p
p (xp )
p rp0 + p (xp ) +
q rqp
p
p
p=1
y6=x
N
X
q6=p
(p rp0 + p (xp )) ,
p=1
p rp0
do lgalit dsire.
Il rsulte de la preuve du Thorme les formules pour le gnrateur infinitsimal du processus retourn, do lon dduit le
Corollaire 8.9.5. Si les conditions du Thorme 8.9.2 sont satisfaites, et
{Xt } est initialise avec la probabilit invariante, alors le processus retourn
t = XT t , 0 t T , est un processus markovien de saut, qui
en temps X
sinterprte comme un rseau de Jackson avec N files interconnectes, de
paramtres :
Intensit des arrives exognes la station p :
0 = p rp0 ;
p
Probabilit de routage de p vers q :
rpq =
q
rqp
p
0p
p
257
p (xp ) = p (xp ).
En outre, les processus de sortie du systme pour le processus initial
partir des stations {1, . . . , N } sont des processus de Poisson indpendantes
dintensits respectives p rp0 .
8.10
La matrice R = (rpq )1p,qN est donc markovienne. On la supposera irrductible dans toute la suite.
Sous ces hypothses, il y a clairement conservation du nombre de clients
dans le rseau. On notera I(> 0) ce nombre.
Ici le processus {Xt } est un processus markovien de saut valeurs dans
E(I) = {x INN
+ , x1 + + xp = I}.
N
Y
p=1
avec
G(I) =
N
Y
xE(I) p=1
p p
Q xp
,
r=1 p (r)
x
p p
Q xp
.
r=1 p (r)
258
=
=
G(I k) k
p
G(I)
G(I k) k
p .
G(I)
yIk
yE(Ik)
Donc
IEXtp
I
X
kp
k=1
o G(0) = 1.
G(I k)
,
G(I)
259
p rpq G(I 1)
.
G(I)
p G(I 1)
.
G(I)
X
1
, 1 p N, |z| 1.
p (z) =
(p z)n
1 p z
n=0
En comparant les coefficients des z J dans les deux membres, on obtient lgalit
N
X
Y
n
G(n)z =
p (z)
n=0
Soit
p (z) =
p
Y
q=1
On a
p=1
q (z), 1 p N, |z| 1.
8.11
Rseau tlphonique
On considre un rseau tlphonique constitu de N canaux interconnects. Ltablissement dune communication requiert lusage exclusif des n
260
canaux demands pour la communication. Si un ou plusieurs des canaux demands est occup, lappel est rejet. Sinon, la communication est tablie,
et dure un temps alatoire, de loi exponentielle de paramtre n . Les appels
demandant n canaux arrivent suivant un processus de Poisson dintensit n .
Les flux darrives de type diffrent et les dures des communications sont
mutuellement indpendants.
Soit Xt = (Xt1 , . . . , XtP ) o Xtn reprsente le nombre de communications
tablies linstant t, qui utilisent n canaux. Xt est un processus markovien
de saut valeurs dans
E = {x = (x1 , . . . , xP ) INP |
x N },
o x = x1 + 2x2 + + P xP , de gnrateur infinitsimal Q, dont les seuls
termes hors diagonaux non nuls sont donns par :
Qx+en ,x = n (xn + 1),
Cn
Qx,x+en = n Nnx ,
CN
o en = (0, . . . , 0, 1, 0, . . . , 0) i.e. le vecteur de E dont toutes les coordonnes
sont nulles, sauf la nime qui vaut 1. Notons que CNn x /CNn est la probabilit
de nonrejet si Xt = x. Posons n = (CNn )1 n .
Probabilit invariante
Thorme 8.11.1. Le processus markovien de saut {Xt } dcrit cidessus
est rversible par rapport sa probabilit invariante
xn
P
Y
N!
n
1
x = 0
(N x)! n=1
n n!
xn !
Preuve Cherchons une solution lquation dquilibre local
x n
(N x)!
= x+en n (xn + 1), x E, 1 n P, x + en E;
n!(N x n)!
Soit
x+en =
n
1
(N x)!
x .
n xn + 1 n!(N x n)!
1
1
x = xx1 e1 x2 e2
261
n 1 (N x + n)!
xen .
n n! xn
(N x)!
x1
1 (N x + x1 )!
x1 !
(N x)!
x1
x2
1
1
2
1 (N x + x1 + 2x2 )!
1 1!
x1 !
2 2!
x2 !
(N x)!
n
, y = (y1 , . . . , yP ),
n n!
G(N, x) =
X
xE
P
Y
N!
ynxn
.
(N x)! n=1 xn !
La rversibilit entrane que cette quantit est gale lintensit des communications mettent en jeu n canaux qui sont accepts. Donc le rapport
taux dacceptation/taux de demande pour les communications mettant en
jeu n canaux, qui reprsente la probabilit dacceptation, vaut IE(Xtn )n /n .
Il reste donc calculer le
Nombre moyen de communications mettant en jeu n canaux.
X
xE
xn x = G(N, y)
X
xE
P
xn
Y
N!
ym
xn
(N x)! m=1 xm !
262
Or
X
Y y xm
N!
ynxn 1
m
G(N, y) =
yn
(N
)!
(x
1)!
x
n
m!
xE
m6=n
Donc
xn x = yn G(N, y)1
xE
G(N, y).
yn
xn
X
X
N!
ynxn 1 Y ym
G(N, y) =
yn
(N x)! (xn 1)! m6=n xm !
x =0
x =0
1
soit encore
xn
X
X
N!
(N n)! Y ym
G(N, y) =
,
yn
(N n)! x =0
(N
)!
x
!
m
m
x =0
1
donc
et
N!
G(N, y) =
G(N n, y),
yn
(N n)!
IEXtn =
n G(N n, y)
.
n
G(N, y)
G(N n, y)
.
G(N, y)
X
zN
G(N, y),
g(z, y) =
N!
N =0
263
g(z, y) = exp z +
P
X
n=1
yn z n ,
8.12
N
X
nyn
(N 1)!
G(N n, y), N = 1, 2, . . . , P ;
(N n)!
nyn
(N 1)!
G(N n, y), N P.
(N n)!
n=1
P
X
n=1
Rseau de Kelly
On va maintenant considrer les rseaux multiclasse, aussi appels rseaux de Kelly. La principale diffrence avec les rseaux de Jackson est que
le trajet suivi par un client donn nest pas le rsultat de tirages alatoires
qui sont les mmes pour tous, mais cest un trajet dterministe qui dpend
de la classe dont fait partie ce client.
Plus prcisment, on considre des clients de classe j = 1, 2, . . . , J, o
J IN.
Puisque les clients sont maintenant diffrents les uns des autres, pour tudier lvolution des flux dans le rseau il convient de prciser le systme de
priorit dans chaque file, qui jusqu prsent navait pas rellement dimportance (dans la mesure o lon sintresse aux flux globaux, et non ce quil
advient dun client particulier).
Afin de fixer les notations, considrons tout dabord le cas de :
8.12.1
264
serveur travaille donc avec une intenstit (n) > 0, ds que n > 0.
Ltat de la file est dcrit par un processus de Markov valeurs dans
E=
n=1
{1, . . . , J}n
Notons que la classe dun client ninflue ni sur la faon dont il est plac dans
la file, ni sur son service.
Exemple 8.12.1. File M/M/K/P AP S(F IF O) (comme premier arriv
265
1
, 1 ` n.
n
|c|
Y
c `
, c E.
(`)
`=1
266
Aj (c)
i
QAj (c),c
i
j
(|c| + 1)(i, |c| + 1)
(|c| + 1)
= j (i, |c| + 1)
(|c|)
QSi (c),c
=
i
(|c|)
=
i (i, |c| 1)
i
= (|c|)(i, |c| 1)
=
c,S (c)
Q
i
On remarque que
|c|+1
j = j =
Q
c,A (c)
i
Qc,Aj (c)
i
i=1
i=1
|c|
X
|c|+1
et
i=1
|c|
X
Qc,Si (c) ,
i=1
i=1
8.12.2
267
Rseau multiclasse
n=1
{1, . . . , J}n
Xt = (Xt1 , . . . , XtN ), o
Xti Ei est ltat de la file au noeud i linstant t. Le processus markovien de
N
Y
sauts {Xt } prend ses valeurs dans E =
Ei . Cest un processus irrductible.
i=1
268
s+1
On pose
Z=
|xi |
N
Y
X Y
i=1
xE
k=1
cik
i (k)
N
Y
xi i ,
i=1
avec
xi i
|xi |
Y
k=1
cik
,
i (k)
est la probabilit invariante du processus {Xt } qui dcrit les clients prsents
dans le rseau de files dattente multiclasses. En outre, lquilibre, le processus de sortie des clients de classe j est un processus de Poisson dintensit
j , 1 j J.
8.13
Exercices
8.13. EXERCICES
269
infinitsimal
0
0
0
( + )
0
0
Q= 0
(
+
)
..
..
..
.. ..
.
.
.
.
.
..
.
4 On suppose maintenant que la file est initialise avec sa probabilit invariante (i.e. loi de X0 = ). Calculer la loi de XT1 . Montrer que pour
P
toute fonction f croissante de IN dans IR, IEf (XT1 )
x=0 x f (x), et
que lon a lingalit stricte pour certaines fonctions croissantes f . Ce
rsultat vous paratil conforme lintuition ? Pourquoi la loi de X T1
diffretelle de la loi ? Comparer avec le rsultat de lexercice 6.5.3.
270
Chapitre 9
Introduction aux Mathmatiques
Financires
Introduction
Le but de ce chapitre est de prsenter les modles mathmatiques permettant de rsoudre le problme de la fixation des prix (pricing) des options
europennes et amricaines, ainsi que de prciser les stratgies de couverture associes. On prsentera en particulier la clbre formule de Black et
Scholes, obtenue par leurs auteurs en 1972, et qui a t un des arguments pour
lattribution rcente du prix Nobel dconomie Black et Merton (Scholes
tant dcd).
On va prsenter en parallle le modle discret de Cox, Ross et Rubinstein,
et le modle continu de Black et Scholes.
Lintrt du modle discret est de permettre de dmontrer les rsultats
de faon lmentaire ; celui du modle continu est daboutir aux formules
qui sont celles utilises couramment par les professionnels de la finance. On
introduira les outils du calcul stochastique ncessaires, qui nous permettront
de dcrire les processus de diffusion, qui sont des processus de Markov en
temps continu valeurs dans IRd .
Ce chapitre se termine par une introduction aux modles de taux dintrt
et dobligations.
Nous nous sommes beaucoup inspirs de louvrage de Lamberton, Lapeyre
[27], et aussi de [2] et [32] pour la rdaction de ce chapitre.
271
272
9.1
9.1.1
Option
Une option est un contrat aux termes duquel son dtenteur a le droit (et
non lobligation) dacheter (sil sagit dune option dachat, call en anglais)
ou de vendre (sil sagit dune option de vente, put en anglais) une quantit
fixe dun actif donn (qui peut tre une action, une obligation, une devise,
une matire premire, . . .) un prix fix lavance (appel prix dexercice),
une date (lchance) fixe lavance dans le cas dune option europenne ;
une option amricaine peut au contraire tre exerce nimporte quelle date
entre celle de la signature du contrat et la date dchance.
Dans le cas dun call europen dchance T , sur une action dont le cours
linstant t est St , de prix dexercice K, le dtenteur de loption gagne
linstant T (ST K)+ . En effet, il gagne ST K par action en exerant
son option si ST > K (en achetant au prix K et en revendant au prix du
march ST ), et il ne gagne ni ne perd rien en nexerant paqs son option
si ST K. Par un raisonnement analogue, dans le cas dun put, le gain du
dtenteur de loption linstant T est (K ST )+ . Le gain du dtenteur (donc
de lacheteur) de loption est la perte du vendeur de loption. La prime est
273
9.1.2
Arbitrage
Une des hypothses que lon est amen faire dans ltude mathmatique
des options est labsence dopportunit darbitrage, i.e. limpossibilit de gagner de largent sans risque. Cette hypothse entrane une relation dite de
parit entre call et put europens :
Proposition 9.1.1. Si le modle ne prsente pas dopportunit darbitrage,
alors les prix Ct et Pt linstant t dune option dachat et dune option de
vente dchance T et de prix dexercice K vrifient la relation
Ct Pt = St Ker(T t) ,
o r est le taux dintrt du compte rmunr.
Remarque 9.1.2. Ici et dans tout ce qui va suivre, on suppose que les taux
demprunt et de dpt la banque sont identiques, cest la constante r. Cette
hypothse nest bien sr pas raliste. Elle est essentielle pour que notre modle
soit linaire, et que lon obtienne la formule explicite de BlackScholes. Le
modle gnralis de BlackScholes, qui saffranchit de cette hypothse, sera
prsent la section 9.3.6.
Preuve Supposons la relation de parit non satisfaite, i.e. supposons qu
linstant t on ait par exemple :
Ct Pt > St Ker(T t) .
(un raisonnement analogue peut tre fait dans le cas <). On va montrer quil
existe alors une opportunit darbitrage. A linstant t, on achte une action
274
9.1.3
9.2
9.2.1
275
9.2.2
Stratgie admissible
276
La stratgie est dite autofinance (cest dire sans apport ni retrait dargent)
si
Xt Rt + Yt St = Xt+1 Rt + Yt+1 St
ou de faon quivalente
Vt+1 (X, Y ) Vt (X, Y ) = Xt+1 (Rt+1 Rt ) + Yt+1 (St+1 St )
ou encore
Xt + Yt Set = Xt+1 + Yt+1 Set .
i.e.
Vt (X, Y ) = V0 (X, Y ) +
t
X
(Xs Rs + Ys Ss ).
s=1
On a en outre la
t
X
s=1
Ys Ses
277
t
X
s=1
Ys Ses ,
9.2.3
Martingales
1st
Ys Ms , t 1
278
0 t T,
9.2.4
Thorme 9.2.9. Le march dfini cidessus est viable (i.e. il nexiste pas
de stratgie darbitrage) ssi a < 1 + r < b.
Preuve Il nest pas difficile de montrer que si 1 + r 6]a, b[, il existe une
stratgie darbitrage (exercice).
Rciproquement, si a < 1 + r < b, la probabilit IP sur (, F ) telle que
sous IP les t sont i.i.d tels que
IE (t ) = 1 + r.
279
Rt
IE (H|Ft ).
RT
Preuve Sil existe une stratgie admissible telle que VT (X, Y ) = H, alors
daprs la proposition 9.2.1 (iii), pour tout 0 t < T ,
T
X
H
e
= Vt (X, Y ) +
Ys Ses .
RT
s=t+1
Par le mme calcul qu la Proposition 9.2.6, pour s t+1, IE (Ys Ses |Ft ) =
0, donc
H
e
Vt (X, Y ) = IE
|Ft ,
RT
soit encore
Vt (X, Y ) =
Rt
IE (H|Ft ).
RT
H
IE
Ys Ses =
R
T
s=1
H
RT
280
e := H/RT , soit
o H
Yt =
e t ) IE (H|F
e t1 ))
c(IE (H|F
.
Set1 (t c)
Il reste donc montrer que Yt est Ft1 mesurable (i.e. ne dpend pas de t !).
e t)
IE (H|F
t1
Notons
:= (1 , . . . , t1 ). Alors la v.a.
est une fonction du
Set1
couple ( t1 , t ).
Posons
e t)
IE (H|F
.
gt ( t1 , t ) := c
Set1
On a
Notons que
donc
gt ( t1 , t ) IE (gt ( t1 , t )|Ft1 )
.
Yt =
t c
ca
bc
IE gt ( t1 , t )|Ft1 = gt ( t1 , a)
+ gt ( t1 , b)
,
ba
ba
Yt =
bc
+ (gt ( t1 , t ) gt ( t1 , b)) ca
(gt ( t1 , t ) gt ( t1 , a)) ba
ba
,
t c
gt ( t1 , b) gt ( t1 , a)
.
ba
Remarque 9.2.11. La dernire formule donne la fraction de la richesse
investir dans lactif risqu, chaque instant t, pour raliser une stratgie de
couverture. Notons la forme particulire du membre de droite, qui sapparente une drive approche. Dans le cas du modle continu du chapitre
suivant, on aura une drive, do la terminologie produit driv utilise
pour dsigner les options.
Yt =
9.2.5
281
Nous allons maintenant prciser la formule pour Vt (X, Y ) dans les deux
cas du call et du put. Notons
p=
bc
= IP (1 = a),
ba
donc
1 p = IP (1 = b).
"
T
Y
s=t+1
s K)+ |Ft .
T
Y
s = ak bT tk
s=t+1
Donc
Vt (X, Y ) = c
(T t)
T t
X
k=0
n!
,
k!(nk)!
= CTk t pk (1 p)T tk .
(T t)
T t
X
k=0
9.2.6
CTk t pk(1p)
T tk
(K St k)+ .
La formule de BlackScholes
Nous allons maintenant tablir les formules du modle continu qui sera
prsent b la section 9.3, savoir la formule de BlackScholes, par passage
la limite sur le modle discret, avant de la robtenir plus loin directement
partir du modle continu.
On suppose maintenant que, T tant un rel positif arbitraire, t prend les
valeurs
1
[N T ]
0, , . . . ,
,
N
N
282
et que
[N t]
St = S 0
k=1
kN
St = S0 exp
avec
kN = log kN
[N t]
X
k=1
kN ,
r
.
N
aN = exp(r/N / N ),
bN = exp(r/N + / N ).
S0 exp(ZTN ) KerT
i
IE
KerT S0 exp(ZTN )
i
(resp.
).
P[N t]
Thorme 9.2.12. Si ZtN := k=1 kN et pour chaque N les {kN , k 0}
sont i.i.d. valeurs dans { N , N }, avec IEkN = N , et N N quand
N , alors sous IP, quand N ,
ZtN t + Bt ,
t 0,
283
Preuve On sait (cf. par exemple [6] page 180) que si une v.a.r. X admet un
moment dordre 3, pour tout r IR,
r3
r2
2
IE(exp(irX)) = 1 + irIE(X) IE(X ) i (IE(X 3 ) + (X, r)),
2
6
avec |(X, r)| 3IE(|X|3 ). Donc
IE(exp(irkN )) = 1 + irN
r2 2
+ O(N 3/2 ),
2N
donc
IE(exp(irZtN ))
r2 2
= 1 + irN
+ O(N 3/2 )
2N
r2 2 t
.
exp irt
2
[N t]
e
e
pb =
1e
1
2
+ ( ).
2N
N
Il rsulte alors du thorme 9.2.12 que sous IP ,
IE kN =
ZtN
2
t + Bt .
2
284
2
2
2T + T y
1/2
rT
S0 e
C0 = (2)
Ke
ey /2 dy,
+
et celle du put
P0 = (2)
1/2
KerT S0 e
2 T
2
+ T y
ey
2 /2
dy.
avec
S0
1
+
d1 = log
K
T
1
S0
d2 = log
+
K
T
T
r T
+
,
r T
T
Notons que lon retrouve bien la parit callput, en remarquant que F (di ) +
F (di ) = 1, i = 1, 2.
9.3
9.3.1
Toutes les v.a. et les processus qui suivent seront dfinis sur un espace de
probabilit (, F , IP).
Le modle de BlackScholes stipule que
St = S0 exp(t + Bt ),
285
Dfinition 9.3.1. Un processus stochastique {Bt , t 0} est appel mouvement brownien si ses trajectoires sont continues, B0 = 0 et
(i) pour tout n IN, 0 = t0 < t1 < < tn , la suite Bt1 , Bt2 Bt1 , . . . , Btn
Btn1 est une suite de v.a. indpendantes ;
(ii) pour tout 0 s < t, la loi de Bt Bs est la loi N (0, t s).
St
On en dduit que le processus {log
, t 0} est accroissements
S0
indpendants (i.e. possde lui aussi la proprit (i) de la dfinition), et que
St
est la loi N ((t s), 2 (t s)). Le processus
pour 0 s < t, la loi de log
Ss
{St } est appel mouvement brownien gomtrique.
Une proprit fondamentale du mouvement brownien est donne par la
Proposition 9.3.2. Soit t > 0, et 0 = tn0 < tn1 < < tnn = t une suite de
subdivisions de lintervalle [0, t] telle que sup(tnk tnk1 ) , quand n 0.
kn
Alors
n
X
k=1
(Btnk Btnk1 )2 t,
IE
n
X
k=1
Or
Btnk Btnk1
n
X
Var
(Btnk Btnk1 )2
k=1
n
X
2
= t.
h
V ar (Btnk Btnk1 )
k=1
n
X
=2
k=1
(tnk tnk1 )2
2t sup(tnk tnk1 )
kn
0,
286
quand n .
s dBs , t 0,
0
t
dBs
dBs
ds, parce que la drive
nexiste
ds
ds
0
pas). On distinguera deux types dintgrale stochastique
(que lon ne peut pas crire
T
0
f 2 (s)ds < .
t
0
f (s)dBs , pour 0 t T.
n
X
fk 1]tk tk+1 ]
k=1
k=1
287
k=1
n
X
fk2 (t
k=1
Z t
2
tk+1 t tk )
f (s)ds.
La formule disomtrie
IE
" Z
f (s)dBs
0
2 #
f 2 (s)ds
0
permet dtendre la dfinition de lintgrale de Wiener, des fonctions en escalier toutes les fonctions de carr intgrable. On vrifie aisment que le
processus
Z
t
f (s)dBs , 0 t T }
Ft = FtB = {Bs ; 0 s t} N ,
i.e. Ft est la plus petite tribu qui rend mesurables toutes les v.a. Bs , pour
0 s t, et qui contient en outre les ensembles de IPmesure nulle de la
tribu F .
Notons M 2 (0, T ) le sousespace de Hilbert de
L2 ( [0, T ], F B([0, T ]), dIP dt)
288
k=1
s dBs =
0
n
X
k=1
=0
et
IE
" Z
s dBs
0
2 #
X
k
+2
h
2 i
IE 2k Bttk+1 Bttk
X
`<k
X
k
= IE
IE ` Btt`+1 Btt` k Bttk+1 Bttk
2s ds.
A nouveau, la proprit disomtrie que nous venons dtablir permet dtendre lintgrale dIt tout M 2 [0, T ].
On a le
289
IE
s dBs
= IE
En outre le processus {
0 < s < t,
Rt
0
IE
2s ds.
Z
t
0
r dBr |Fs =
r dBr .
0
Nous admettrons que lon peut tendre lintgrale dIt des {t } adapts
qui vrifient seulement
Z
T
2t dt < p. s.
s dBs est
0
intgrable, et les trois formules du thorme 9.3.3 nont plus de raison dtre
vraies. On a cependant toujours lingalit (exercice)
" Z
2 #
Z t
t
IE
s dBs
IE
2s ds
0
290
k
t, n IN, 0 k n. Alors
n
n
X
(Bt ) (0) =
(Btnk (Btnk1 )
k=1
=
+
n
X
k=1
n
X
1
2
k=1
00
= IE
n Z tn
X
k
k=1
tn
k1
k=1
k=1
t.
291
k=1
!2
n
h
i
X
00
0,
(Btnk1 ) (Btnk Btnk1 )2 (tnk tnk1 )
IE
k=1
n
X
00
(Btnk1 )(tnk
k=1
tnk1 )
00
(Bs )ds.
0
s (s, Xs )ds
(t, Xt ) = (0, x) +
0
Z t
Z t
0
0
+
x (s, Xs )s ds +
x (s, Xs )s dBs
0
0
Z
1 t 00
+
(s, Xs )2s ds.
2 0 xx
292
9.3.2
0tT
293
Nous allons prendre lesprance dans cette identit ; nous admettrons que lintgrale stochastique est intgrable et desprance nulle. Il vient, en utilisant
en outre la condition de Lipschitz :
Z T
T
2
e
IE|F (X)T F (Y )T | + IE
et |F (X)t F (Y )t |2 dt
0
Z T
= IE
et [2(F (X)t F (Y )t )(f (t, Xt ) f (t, Yt ))
0
+|g(t, Xt ) g(t, Yt )|2 dt
Z T
IE
et 2K|F (X)t F (Y )t | |Xt Yt | + K 2 |Xt Yt |2 dt.
0
Donc
( 1)IE
e
0
|F (X)t F (Y )t | dt 2K IE
T
0
et |Xt Yt |2 dt
294
On choisit alors = 2K 2 + 2, do :
Z T
2
IE
e(2K +2)t |F (X)t F (Y )t |2 dt
0
9.3.3
2K 2
IE
2K 2 + 1
e(2K
0
2 +2)t
|Xt Yt |2 dt.
Formule de FeynmanKac
u
1
2u
u
(t, x) + f (x) (t, x) + g 2 (x) 2 (t, x) = c(x)u(t, x),
(9.3)
t
x
2
x
0 t T, x IR;
u(T, x) = h(x), x IR.
On a alors le
Thorme 9.3.8. Supposons que u Cb1,2 ((0, T ) IR) est solution de lEDP
(9.3). Alors u est donn par la formule de FeynmanKac :
Z T
t,x
t,x
u(t, x) = IE h(XT ) exp
c(Xs )ds
t
Preuve
On applique la formule dIt au processus (Xst,x , Ys ), avec Ys =
Z s
c(Xrt,x )dr, et la fonction (s, x, y) = u(s, x) exp(y). Il vient
Z T
t,x
u
1 2 2u
o Lu(s, x) = f (x) (s, x) + g (x) 2 (s, x). Il reste prendre lesprance,
x
2
x
et exploiter le fait que u est solution de (9.3) pour conclure.
9.3.4
295
LEDP de BlackScholes
296
Par ailleurs,
Vt (X, Y ) = Xt Rt + Yt St ,
et la condition dautofinancement scrit en temps continu
dVt (X, Y ) = Xt dRt + Yt dSt .
Mais
dRt = rRt dt
et en utilisant une fois de plus la formule dIt, on obtient
dSt = St dt + St dBt .
On dduit des dernires identits une seconde formule pour la diffrentielle
de Et , savoir
dEt = (rXt Rt + Yt St ) dt + Yt St dBt
On va maintenant utiliser un rsultat bien connu des aficionados du calcul
stochastique, savoir que lorsque deux processus dIt sont identiques, on a
ncessairement identit des coefficients de dBt , et identit des coefficients de
dt.
Do dune part :
u
Yt St = St (t, St ),
x
soit encore
u
(t, St )
Yt =
x
(on vient didentifier la stratgie de couverture, sur laquelle nous reviendrons
cidessous), et en outre
u
u
(t, St ) + St (t, St )
t
x
2
2
u
+ St2 2 (t, St )
2
u
rXt Rt + Yt St =
u
(t, St ),
x
297
u
2 2 u
u
(t, St ) + rSt (t, St ) + St2 2 (t, St ) = ru(t, St )
t
x
2 x
u(T, ST ) = h(ST )
Une C.N.S. pour que ces relations soient satisfaites p.s. est que u soit solution
de lEDP parabolique
u
2 x2 2 u
u
(t, x) + rx (t, x) +
(t, x) = ru(t, x),
(9.4)
t
x
2 x2
9.3.5
Rappelons que
St = S 0 +
Ss ds +
0
Posons
Bt := Bt +
Alors
St = S 0 + r
Ss dBs .
0
r
t.
Ss ds +
0
t
0
Ss dBs .
298
soit
et en particulier
Et = u(t, St ) = IE er(T t) h(ST )|St ,
E0 = u(0, S0 ) = IE erT h(ST ) .
Sachant que sous IP , la loi de log(ST /S0 ) est la loi N ((r 2 )T, 2 T ), on
en dduit en particulier les formules pour C0 et P0 que lon avait obtenues
une premire fois la section 9.2.6.
9.3.6
u
(t, x) 0 : toutes choses gales par ailleurs, si le cours du sousjacent
x
monte, le prix de loption monte ; donc on sattend ce que Yt 0. Notons
que ces ingalits sont renverses dans le cas du put !
Par contre rien nindique si la somme dargent Xt mise sur lactif non
risqu est positive ou ngative (i.e. sil sagit dun dpt ou dun prt), et
lhypothse que le taux dintrt est le mme pour les deux cas est tout fait
irraliste.
Supposons donc que les dpts bnficient dun taux r + , alors que les
prts se font aux taux r . En posant
+
Rt+ = er t , Rt = er t ,
on a, dans le cas dune stratgie autofinance, si Xt+ = max(0, Xt ), Xt =
max(0, Xt ),
dVt = (Xt+ r + Rt+ Xt r Rt )dt + Yt dSt .
Si lon reprend la dmarche qui a conduit la section 9.3.4 lEDP de
BlackScholes, on voit que lon obtient nouveau
Yt =
u
(t, St ),
x
et cette fois
u
(t, St ))+
x
u
Xt Rt = (u(t, St ) St (t, St )) ,
x
299
2 x2 2 u
u
u
(t, x) +
= H(r + , r , x, u(t, x), (t, x));
2
t
2 x
x
u(T, x) = h(x),
9.3.7
Nous allons nous poser une question un peu plus gnrale que la question
prcdente.
Etant donne une option qui rapporte son dtenteur la somme H( 0)
linstant T , quel est le juste prix de cette option ? On suppose que la v.a.
H est FT mesurable, o nouveau, aux ensembles de mesure nulle prs,
Ft = {Bs , 0 s t} = {Ss ; 0 s t}.
Un exemple particulier est le cas o
H = h(ST ),
notamment pour le call et le put europens, mais on verra plus loin dautres
types doptions, qui ne sont pas de cette forme particulire.
Nous allons nous laisser guider par ce que nous avons fait dans le cas du
modle discret, et dans les sections prcdentes.
On pose la question sous la forme suivante : trouver V0 et une stratgie
autofinance {(Xt , Yt ); 0 t T }, tels que
VT (X, Y ) = V0 +
= H.
Xt dRt +
0
Yt dSt
0
300
4
en posant Yet = Rt1 Yt St ; cest la valeur actualise de la partie du portefeuille
investie sur lactif risqu. Alors
Yet = Vet Xt .
En outre
Mais
dSt = St dt + St dBt ,
donc
Posons finalement
Bt =
Alors
r
t + Bt .
soit
Vet = erT H
Yes dBs
IE
|Yet |2 dt < ,
0
donc en particulier
301
soit
Vt = er(T t) IE (H|Ft ),
ce qui redonne encore une fois la formule de BlackScholes pour les prix du
call et du put europen.
Quen estil de la stratgie de couverture ? Sous IP , {Vet } est une mar
tingale de carr intgrable adapte la filtration FtB . Un thorme gnral
dIt nous dit alors que
Vet = V0 +
t
0
Zs dBs , 0 t T,
R t Zt
.
St
1
T
T
0
St dt K
302
9.3.8
Le thorme de Girsanov
La probabilit IP peut paratre mystrieuse. En fait elle apparat naturellement dans le thorme de Girsanov, dont nous allons en fait donner une
version simplifie de Cameron et Martin.
Etablissons tout dabord le
Lemme 9.3.9. Un processus continu {Bt , 0 t T } est un mouvement
brownien ssi pour tout n, tous 0 = t0 < t1 < < tn T , u1 , , un IR,
" n
#
#
" n
X
1X 2
IE exp
uk Btk Btk1 = exp
u (tk tk1 )
2 1 k
1
Preuve La CN rsulte de ce que si {Bt } est un mouvement brownien, la loi
du v.a. (Bt1 , Bt2 Bt1 , , Btn Btn1 ) est la loi N (0, n ), avec n matrice
diagonale n n, dont le kime terme diagonal vaut tk tk1 .
La CS rsulte de ce que si la formule est vraie, la loi de (Bt1 , Bt2
Bt1 , , Btn Btn1 ) est la loi N (0, n ), pour tous n, 0 < t1 < < tn1
tn , donc (i) et (ii) de la Dfinition 9.3.1 sont satisfaits.
On a alors le
Thorme 9.3.10. Soit {Bt , 0 t T } un mouvement brownien dfini sur
lespace de probabilit (, F , IP).
Si f L2 (0, T ),
Z t
Bt = B t
f (s)ds, 0 t T ;
0
Z t
Z
1 t 2
Zt = exp
f (s)ds
f (s)dBs
2 0
0
et IP est la probabilit sur (, FT ) telle que
dIP
= ZT ,
dIP
alors {Bt , 0 t T } est un mouvement brownien sous IP .
2
IE exp
g(t)dBt
g (t)dt
= exp
2 0
0
303
Mais
IE
exp
Z
T
0
g(t)dBt
Z
1
= IE exp
[f (t) + g(t)]dBt
2
0
Z T
1
= exp
g 2 (t)dt
2 0
9.3.9
T
2
Rt
IE (H|Ft ).
RT
304
Donc
Z
1
2
2
IE [f (St )|Fs ] =
f Ss exp (r )(t s) + x t s ex /2 dx
2
2 IR
= IE [f (St )|Ss ],
Nous pouvons maintenant nous demander si dans les cas de loption barrire
et de loption asiatique, le calcul du prix de loption peut encore se ramener
la rsolution dune EDP.
EDP associe loption barrire
Reprenons loption barrire dachat de lexemple 3.1. Posons
St = St ,
o = inf{t T ; St }, et
0, si x K;
h(x) = x K, si K x < ;
0, si x .
Rt
h(ST )|St
Et = IE
RT
305
u
2 x2 2 u
u
(t, x) + rx (t, x) +
(t, x) = ru(t, x), 0 < t < T, 0 < x < ;
t
x
2 x2
H = h(UT ),
avec cette fois h(x) = (T 1 x K)+ . Il nest pas trop difficile de vrifier que
{Ut , 0 t T } nest pas un processus de Markov ; par contre {(St , Ut ); 0
t T } est un processus de Markov, do
Rt
H|Ft
Et = IE
RT
Rt
H|St , Ut
= IE
RT
= u(t, St , Ut ),
o {u(t, x, y); 0 t T, x > 0, y > 0} est solution de lEDP
2 2 2
x u
u
u
u
+ rx
+x
ru (t, x, y) = 0,
t (t, x, y) +
2 x2
x
y
0 t T, x, y > 0;
u(T, x, y) = h(y),
x > 0, y > 0.
9.3.10
Jusquici nous nous sommes contents dtudier des options portant sur
un seul actif risqu. Mme si cest le cas dun grand nombre doptions, il en
existe qui portent sur plusieurs actifs risqus la fois. Un premier exemple
typique de ce second type est le cas des options spread, qui portent sur
lcart entre les prix de deux actifs, i.e. H = (ST1 ST2 )+ , o S 1 et S 2 sont les
prix de deux actifs risqus. Un second exemple est constitu par les options
306
sur portefeuille appeles aussi options panier (basket option en Anglais). Les
options sur indice (type CAC 40) en sont un exemple. Une option de vente
(put) sur portefeuille est un moyen dassurer son portefeuille. tant donn
un portefeuille composPde ai actions de prix Sti linstant t, i = 1, . . . , d,
un put qui paye (K ni=1 ai STi )+ garantit que le portefeuille pourra tre
revendu au moins au prix K lchance.
Suposons que, outre lactif non risqu, qui cote Rt = ert linstant t le
march est compos de d actifs risqus, dont les prix Sti , i = 1, . . . , d, fluctuent
suivant le modle
dSti
i Sti dt
Sti
d
X
j=1
ij dBtj , 1 i d, t 0,
Pd
1
1
11 . . 1d
.
, = . . . . .
=
.
. . . .
d
d1 . . dd
(r )t = (Bt Bt ), t 0.
307
(9.5)
(9.7)
d
d
X
2u
u
1X
u (t, x) + r
xi xj aij
xi
(t, x) +
(t, x) = ru(t, x),
t
xi
2 i,j=1
xi xj
i=1
0 t T, x IRd+ ;
u(T, x) = h(x), x IRd+ .
308
u
(t, St ), 1 i d, 0 t T,
xi
au sens o Yti est le nombre dactifs numro i que doit contenir ce portefeuille. La richesse associ est donc
Vt (X, Y ) = Xt Rt +
d
X
i=1
9.3.11
Yti Sti , 0 t T.
Viabilit et Compltude
i=1
Thorme 9.3.13. Le march est viable ssi il existe au moins une probabilit risque neutre IP quivalente IP. Le march est complet sil existe
exactement une probabilit risque neutre IP quivalente IP.
Le fait que lexistence dune probabilit risque neutre entrane le caractre
viable du march se dmontre comme dans le cas du modle discret. Nous
admettrons les autres affirmations de ce thorme.
9.3.12
Nous avons associ toutes les options rencontres jusquici une EDP (au
prix cependant dun doublement de la dimension de la variable spatiale pour
loption asiatique, ce qui alourdit singulirement la rsolution numrique).
Peuton donner une formule probabiliste pour le prix de loption dans le cas
309
310
9.3.13
9.4
Contrairement aux options dites europennes, une option dite amricaine peut tre exerce tout instant entre la date de signature du contrat
(linstant 0) et lchance (linstant T ). Notons h(St ) ce que rapporte loption,
lorsquelle est exerce linstant t. Dans le cas dun call amricain, h(x) =
(x K)+ , dans le cas dun put amricain, h(x) = (K x)+ . On notera
Zt = h(St ), 0 t T , et At le prix de loption amricaine linstant
t, 0 t T . En particulier, A0 est la prime dont lacheteur de loption
amricaine doit sacquitter au moment de la signature du contrat (linstant
0).
On suppose nouveau que
Rt = (1 + r)t ,
0 t T,
Zt
,
(1 + r)t
At =
At
.
(1 + r)t
311
Pour poursuivre notre tude des options amricaines, nous allons prciser
ce quest la plus petite surmartingale majorant une suite adapte donne.
312
9.4.1
Enveloppe de Snell
Commenons par la :
Dfinition 9.4.3. Une v.a. valeurs dans lensemble {0, 1, . . . , T } est
appele un temps darrt si pour tout 0 t T ,
{ = t} Ft .
Etant donne une suite alatoire adapte {Xt , 0 t T } et un temps
darrt, la suite arrte {Xt , 0 t T } est encore adapte. Ceci rsulte
de ce que est un temps darrt ssi { t} Ft pour tout 0 t T . On
a en outre le thorme darrt
Thorme 9.4.4. Si {Mt , 0 t T } est une martingale (resp. une surmartingale), alors {Mt , 0 t T } est aussi une martingale (resp. une
surmartingale).
Preuve Il suffit de remarquer (avec la notation de la proposition 9.2.6) que
Mt = M (Y )t , 0 t T,
si Yt = 1{t} . Puisque {t } = { t 1}c , la suite Y est prvisible, et le
rsultat pour les martingales est la proposition 9.2.6. Le mme raisonnement,
en exploitant la positivit de Y donne le rsultat pour les surmartingales.
Etant donne une suite adapte {Zt , 0 t T }, on veut tudier son
enveloppe de Snell, autrement dit la plus petite surmartingale qui la majore.
Celleci est la suite {Ut , 0 t T } dfinie par
(
UT = Z T ,
Ut = Zt IE(Ut+1 |Ft ), 0 t < T.
Notons que tant que Ut > Zt , Ut = IE(Ut+1 |Ft ). Cette remarque se formalise
en la
Proposition 9.4.5. La v.a. dfinie par
= inf{0 t T |Ut = Zt }
est un temps darrt, et la suite arrte {Ut , 0 t T } est une martingale.
313
Notons Tt lensemble des temps darrt qui prennent leurs valeurs dans
lensemble {t, t + 1, . . . , T }.
Corollaire 9.4.6. On a
U0 = IE(Z |F0 ) = sup IE(Z |F0 ).
T0
= IE(Zt |Ft ),
si t = inf{s t|Us = Zs }. On appelle temps darrt optimal un temps
darrt qui vrifie la proprite doptimalit du temps darrt tablie au
corollaire 9.4.6. Le thorme qui suit dit que ce est le plus petit des temps
darrt optimaux.
314
Thorme 9.4.7. Le temps darrt est optimal ssi les deux conditions
suivantes sont vrifies
(i)
(ii)
Z = U
{Ut , 0 t T } est une martingale.
9.4.2
Dcomposition de Doob
On a la
Proposition 9.4.8. Toute surmartingale {Ut , 0 t T } scrit de faon
unique sous la forme
Ut = M t C t ,
315
et
Mt+1 Mt = Ut+1 IE(Ut+1 |Ft ).
En outre
Proposition 9.4.9. Soit {Zt , 0 t T } une suite adapte, denvelope de
Snell Ut = Mt Ct . Alors le plus grand temps darrt optimal est donn par
max = inf{t T, Ct+1 6= 0}.
Preuve Le fait que max est un temps darrt rsulte de ce que {C } est
prvisible. De Ct = 0 pour t max , on dduit que
Umax = Mmax ,
donc {Umax } est une martingale. Daprs le thorme 9.4.7, il suffit pour
montrer que max est optimal, de montrer lgalit Umax = Zmax . Posons
Yt = 1{max =t} .
Umax =
=
=
T 1
X
t=0
T
1
X
t=0
T
1
X
Yt U t + Y T U T
Yt max(Zt , IE(Ut+1 |Ft )) + YT ZT
Yt Z t + Y T Z T
t=0
= Zmax ,
o on a utilis les faits suivants : IE(Ut+1 |Ft ) = Mt Ct+1 , et sur {Yt = 1},
Ct = 0 et Ct+1 > 0, soit IE(Ut+1 |Ft ) = Mt Ct+1 < Ut , do ncessairement
Ut = Z t .
Il reste montrer quil nexiste pas de temps darrt optimal tel que
max et IP( > max ) > 0. En effet on aurait
IE(U ) = IE(M ) IE(C ) = IE(U0 ) IE(C ) < IE(U0 ),
donc {U } nest pas une martingale.
316
9.4.3
x E;
X
Pxy u(t + 1, y),
u(t, x) = (t, x)
y
x E, 0 t < T.
9.4.4
soit
At = Rt sup IE (R1 h(S )|Ft ).
Tt
t Ct , avec {M
t } une IP
Daprs la dcomposition de Doob, At = M
martingale et Ct croissant prvisible et nul en 0.
Puisque le march est complet, il existe une richesse initiale V0 et une
T , soit VT (X, Y ) =
stratgie autofinance {(Xt , Yt )} t.q. VT (X, Y ) = RT M
317
optimale vrifie A = h(S ). Elle doit vrifier max = inf{t, Ct+1 6= 0},
car en exerant loption la date max , son propritaire se constitue le capital
Amax = Vmax (X, Y ), et grce la stratgie {(X, Y )}, son portefeuille vaut
strictement plus que loption aux instants max + 1, max + 2, . . . , N .
On vrifie galement que si lacheteur de loption exerce celleci un
instant non optimal, le vendeur ralise un profit strictement positif.
9.4.5
= St RT1 K, donc
Rt
K
Et S t
RT
St K,
318
9.4.6
(9.9)
9.5
r
r/N
N
N
v(t , x) = g(x)e
p+ v(t, x +
+ ) + p v(t, x +
) ,
N
N
N
N
N
(9.10)
avec
1
N
pN
+ 0(N 3/2 ),
+ = IP(k = ) =
2 4 N
N
N
+ + 0(N 3/2 ).
pN
= IP(k = ) =
2 4 N
N
r/N
pN
+ v(t, x
319
r
r
N
+ ) + p v(t, x +
) .
+
N
N
N
N
1
, x) g(x),
N
1
(AN v)(t, x) v(t , x) 0,
N
1
1
(v(t , x) g(x))((AN v)(t, x) v(t , x)) = 0.
N
N
En admettant que v est suffisamment rgulire, on obtient, aprs multiplication par N , laide dun dveloppement limit, que quand N ,
v(t
1
, x)]
N
2 v
2 2 v
v
(t, x) + (r ) (t, x) +
(t, x) rv(t, x).
Av(t, x) :=
t
2 x
2 x2
Donc le prix le loption amricaine est
N [(AN v)(t, x) v(t
At = v(t, log St ),
o v est la solution de linquation variationnelle
v(t, x) g(x),
Av(t, x) 0,
(v(t, x) g(x))Av(t, x) = 0,
9.6
Jusquici nous avons suppos que le taux dintrt est une constante (ne
dpendant ni de lala ni du temps). Une telle hypothse est acceptable
lorsque lon traite des actions et des options sur actions, mais ce nest plus
le cas lorsquil sagit des obligations et des options sur obligations.
On appelle obligation zro coupon un titre donnant droit un Euro
lchance T . On notera Ot,T la valeur de ce titre linstant t.
320
9.6.1
9.6.2
r(s)ds .
t
321
Ot,u = IE exp
rs ds |Ft , donc aussi
0
Z u
Ot,u = IE exp
rs ds |Ft .
t
= IE
Y ,
Lt
322
IE[XLT |Ft ]
,
Lt
do le rsultat.
Proposition 9.6.3. Pour chaque chance u, il existe un processus adapt
{tu , 0 t u} tel que sur [0, u]
dOt,u = (rt tu qt )Ot,u dt + Ot,u tu dWt .
Preuve Utilisant dabord la formule tablie dans la dernire preuve, puis la
t,u , 0 t u} sous IP , on obtient que pour
proprit de martingale de {O
0 s t u,
t,u Lt |Fs ) = IE (O
t,u |Fs )Ls
IE(O
s,u Ls .
=O
t,u Lt , 0 t u} est une martingale sous IP, qui est strictement
Donc {O
positive, donc son log est une semimartingale, dont la partie martingale est
de la forme
Z t
0
su dWs ,
323
on voit que lobligation est plus risque quun dpt la banque. Le terme
rt tu qt est une sorte de rendement moyen relatif par unit de temps de
lobligation. Le terme tu qt est la diffrence entre ce rendement et le taux
sans risque. Do linterprtation de qt comme une prime
R t de risque. Notons
9.6.3
Considrons pour fixer les ides une option europenne dchance T sur
une obligation zro coupon dchance T 0 , avec bien sr T T 0 . Sil sagit
dun call de prix dexercice K, la valeur de loption linstant T est videmment (OT,T 0 K)+ , et on va voir que lon peut appliquer ici la mme
mthodologie qu la section 9.3.7.
Lvolution du portefeuille de couverture est donne dans le cas dune
stratgie autofinance par la formule
dVt (X, Y ) = Xt dRt + Yt dOt,T 0 .
Dfinition 9.6.4. Une stratgie {(Xt , Yt ), 0 t T } est admissible si elle
est autofinance et si la valeur actualise
t,T 0
Vt (X, Y ) = Xt + Yt O
du portefeuille correspondant est, pour tout t, positive et de carr intgrable
sous IP .
Sous des hypothses raisonnables, on peut couvrir une option europenne
dchance T < T 0 .
0
Proposition 9.6.5. Supposons que sup0tT |rt | < p. s., inf 0tT |tT | >
RT
0, et T < T 0 . Soit H une v. a. FT mesurable, telle que He 0 rs ds soit de IP
carr intgrable.
Alors il existe V0 et une stratgie admissible {(X, Y )} tels que VT (X, Y ) =
H. En outre
RT
Vt (X, Y ) = IE e t rs ds H|Ft .
324
Preuve On a
t,T 0
dVt (X, Y ) = Yt dO
t,T 0 tT 0 dWt .
= Yt O
On en dduit que {Vt , 0 t T } est une IP martingale, donc
RT
Rt
Vt (X, Y ) = e 0 rs ds IE e 0 rs ds H|Ft .
+
Jt dWt ,
He
= IE He
0
RT
0T rs ds
|F
,
X
=
IE
He
Yt =
t
t
0.
0
t,T 0 tT
tT
O
9.6.4
at
+ b(1 e
at
) + e
at
eas dWs ,
0
325
et sous IP la mme loi, avec b remplac par b . Donc rt prend une valeur
ngative avec probabilit non nulle, mme si elle est ventuellement proche
de 0.
Voyons maintenant le prix de lobligation zrocoupon.
RT
Ot,T = IE e t rs ds |Ft
RT
b (T t)
t Xs ds
=e
IE e
|Ft ,
avec {Xs = rs b } solution de lEDS
RT
t
Xs ds
(9.11)
|Ft = F (T t, rt b ),
F (s, x) = IE
Rs
0
Xtx dt
x
t } dsignant la solution de lEDS (9.11) qui vrifie X0 = x. Comme
R{X
s
Xtx dt est une v. a. r. gaussienne,
0
Z s
Z s
1
x
x
F (s, x) = exp IE
Xt dt + Var
Xt dt .
2
0
0
Or
IE
et
Var
mais
Z
s
0
s
0
Cov(Xtx , Xrx )
Xtx dt
Xtx dt = x
=
Z sZ
0
2 a(t+r)
= e
= 2 ea(t+r)
do
Var
Z
s
0
Xtx dt
IE
e
1 eas
,
a
s
0
Z
0
2a(tr)
2a
as
dWs
e
0
as
dWs
2
2s 2
as
(1
e
)
(1 eas )2 .
2
3
3
a
a
2a
326
Finalement
o R(T t, rt ), le taux dintrt moyen sur la priode [t, T ], est donn par la
formule
2
as 2
1
as
R(s, r) = R (as)
(R r)(1 e ) 2 (1 e ) ,
4a
avec R = b 2 /2a2 . R sinterprte comme un taux long terme, qui est
ici indpendant du taux instantan spot r. Cette dernire proprit est un
dfaut du modle.
9.7
Exercices
9.7. EXERCICES
327
avec 1 000 tirages. On prendra soin dvaluer (de faon approche) la variance
de la v.a. dont on cherche estimer lesprance, et on donnera un intervalle
de confiance pour la quantit cherche.
2 Faire le mme calcul (y compris lintervalle de confiance) en combinant la
mme mthode applique la formule pour le prix du put :
h
i
P0 = IE KerT ST + ,
328
1
r T
S0
+
d1 = log
+
K
1
r T
S0
d2 = log
+
T
,
2
T
,
2
et P = E0 avec
h(x) =
d
X
i=1
a i xi
,
+
a=
8 , S0 = 105 , K = 2000, rT = 0, 05,
75
2
35
4
9.7. EXERCICES
329
0, 3 0
0
0
0
0 0, 5 0
0
0
0 0, 4 0
0
T = 0
.
0
0
0 0, 7 0
0
0
0
0 0, 4
330
Bibliographie
[1] S. Audic, J. M. Claverie : Selfidentification of proteincoding regions in
microbial genomes, Proc. Natl. Acad. Sci. USA 95, 1002610031, 1998.
[2] F. E. Benth : Option theory with stochastic analysis, Universitext, Springer, 2004.
[3] N. Bouleau : Probabilits de lIngnieur, Hermann, 1986.
[4] N. Bouleau : Processus Stochastiques et Applications, Hermann, 1988.
[5] P. Bratley, B.L. Fox, E.L. Schrage : A Guide to Simulation, New York,
Springer Verlag.
[6] L. Breiman : Probability, AddisonWesley, 1968. Rdition SIAM 1992.
[7] P. Brmaud : Point Processes and Queues, Springer 1981.
[8] E. Cinlar : Introduction to Stochastic Processes, Prentice Hall 1975.
[9] W.G. Cochran : Sampling Techniques, John Wiley and Sons, 1977.
[10] C . CocozzaThivent : Processus stochastiques et fiabilit des systmes
Mathmatiques et Applications, 28, Springer, 1997.
[11] L. Devroye : Non Uniform Random Variate Generation, New York,
Springer Verlag, 1986.
[12] P. Diaconis, The Cut-off Phenomena in Finite Markov Chains, Proc.
Nat. Acad. Sci., vol. 93, 1659-1664, 1996.
[13] P. Diaconis, K. Khare, L. SaloffCoste, Gibbs-Sampling, Exponential
Families, and Orthogonal Polynomials, Preprint.
[14] C. B. Do, M. S. P. Mahabhashyam, M. Brudno, S. Batzoglou, ProbCons :
Probabilistic consistencybased multiple sequence alignment, Genome
Research 15, 330340, 2005.
[15] R. Durbin, S. Eddy, A. Krogh, G. Mitchison, Biological sequence analysis. Probabilistic models of proteins and nucleic acids, Cambridge Univerfsity Press, 1998.
331
332
BIBLIOGRAPHIE
BIBLIOGRAPHIE
333
Index
Burke, thorme de , 244
volatilit, 285
tat apriodique, 53
tat rcurrent, 41, 195
nul, 47, 197
positif, 47, 197
tat transitoire, 41, 195