Академический Документы
Профессиональный Документы
Культура Документы
processus stochastiques
Avner Bar-Hen
Université Aix-Marseille II
2001-2002
Table des matières
5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.1 Lois marginales et conditionnelles . . . . . . . . . . . . . . . . . 16
5.2 Binomiale et Poisson . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 Famille nombreuse . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 Chaı̂nes de Markov 17
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Propriété fondamentale des chaı̂nes de Markov homogènes . . . . . . . . 19
3 Calcul de la loi de Xn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Matrice de transition dans le temps . . . . . . . . . . . . . . . . . . . . . 20
5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.1 Weather in the Land of Oz . . . . . . . . . . . . . . . . . . . . . 22
5.2 Propriétés des chaı̂nes de Markov homogènes . . . . . . . . . . . 22
5.3 Chaı̂ne à deux états . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.4 Météo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
bar-hen.net
Chapitre 1
1 Matrices
1.1 Définition
Une matrice p × q est un tableau à p lignes et q colonnes. On note A = (aij )1≤i≤p;1≤j≤q
la matrice dont aij est l’élément de la ième ligne et la j ème colonne.
1 0 1 2 3
Exemple : A = 0 0 2 1 0 est une matrice 3 × 5 et a1,5 = 3.
1 2 7 0 8
Une matrice carrée est une matrice ayant le même nombre de lignes et de colonnes. Une
matrice carrée n × n est dite d’ordre n. Une matrice est dite symétrique si elle est égale
à sa transposée.
3
4 Matrices
1 0 1 2
0 0 2 1
Exemple : B = 1 2 7 0 est une matrice symétrique.
2 1 0 3
Une matrice carrée A = (aij )1≤i≤n;1≤j≤n est dite diagonale si aij = 0 ∀i 6= j.
La matrice In vérifie AIn = In A = A pour toute matrice d’ordre n (In est l’élément
neutre pour la multiplication dans l’ensemble des matrices carrées d’ordre n).
bar-hen.net
1. R APPELS DE CALCUL MATRICIEL ET DE PROBABILIT É ( CAS DISCRET ) 5
Am = AA · · · A}
| {z
m fois
2 Probabilités
2.1 Axiomes de probabilité
1. Pour tout événement aléatoire A, on a : 0 ≤ P(A) ≤ 1
2. P(Ω) = 1
bar-hen.net
6 Probabilités
Cas particulier :
B et B forment une partition disjointe de Ω donc P(A) = P(A ∩ B) + P(A ∩ B)
Formule de Bayes
Soit (B1 , B2 , . . . , Bn ) une partition disjointe de Ω.
On a P(A) = P(A ∩ B1 ) + P(A ∩ B2 ) + . . . + P(A ∩ Bn ).
En particulier P(A) = P(A|B)P(B) + P(A|B)P(B).
bar-hen.net
1. R APPELS DE CALCUL MATRICIEL ET DE PROBABILIT É ( CAS DISCRET ) 7
bar-hen.net
8 Quelques lois discrètes
On rappelle que k! = k × (k − 1) × · · · × 3 × 2 × 1
Formule du binôme
X n
∀a, b ∈ R Cnk ak bn−k = (a + b)n
k=0
n!
On rappelle que Cnk = k!(n−k)!
Séries géométriques
1−xn+1
Pn P+∞ 1
• ∀x ∈ R k=0 xk = 1−x
et ∀x ∈] − 1, 1[ k=0 xk = 1−x
x−xn+1
Pn P+∞ x
• ∀x ∈ R k=1 xk = 1−x
et ∀x ∈] − 1, 1[ k=1 xk = 1−x
P+∞ P+∞ 1
• et en dérivant ∀x ∈] − 1, 1[ k=0 kxk−1 = k=1 kxk−1 = (1−x)2
bar-hen.net
1. R APPELS DE CALCUL MATRICIEL ET DE PROBABILIT É ( CAS DISCRET ) 9
On dit que Sn suit une loi binomiale de paramètres n et p et on note Sn ∼ B(n, p).
On montre que E(Sn ) = np et V(Sn ) = np(1 − p).
Remarquons que l’on peut écrire Sn = X1 + X2 + · · · + Xn où les Xi sont des variables
indépendantes telles que :
1 si le résultat de la ième expérience est A
Xi =
0 si le résultat de la ième expérience est A
e−λ λk
P(X = k) = ∀k ∈ N
k!
où λ est un réel positif. On dit que X suit une loi de Poisson de paramètre λ et on note
X ∼ P(λ). On montre que E(X) = λ et V(X) = λ ; Remarquons que lorsque n → +∞,
p → 0, np → λ (en pratique n ≥ 100, 0.1 ≤ np ≤ 10) alors la variable binomiale
Sn ∼ B(n, p) peut être approchée par la loi de Poisson X ∼ P(λ). En pratique cela
revient à considérer que P(Sn = k) ≈ P(X = k).
bar-hen.net
10 Quelques lois discrètes
bar-hen.net
1. R APPELS DE CALCUL MATRICIEL ET DE PROBABILIT É ( CAS DISCRET ) 11
4 Exercices
4.1 Calcul
1. Calculer
1 2 3 2 0 −1
(a) +
3 2 1 −1 −2 −3
1 i 2 −i
3 4 −2 i
(b) i
3 4 −2 i
i −1 0 2
6 5 0
3 −5 4 2 8 −2 4
(c)
0 1 −1 0 0 3 1
1 0 2
5 2
2 3
(d) 3 4
0 1
0 1
2. Soient A, B et C les matrices définies par :
0 0
0 1 2 3 1 3 0 2 0 1
A= B= C=
4 5 6 7 −1 −6 7 1 1 0
0 0
4.2 Puissance
Soit M , P , D les matrices définies par ;
2 0 4 −4 −4 2 0 0 0
M = 3 −4 12 P = 3 0 1 D= 0 1 0
1 −2 5 2 1 0 0 0 2
4.3 Voisins
1. Mon voisin a deux enfants dont une fille. Quelle est la probabilité que l’autre soit
un garçon
2. Mon autre voisin a deux enfants. Le plus jeune est une fille. Quelle est la probabilité
que l’aı̂né soit un garçon ?
bar-hen.net
12 Exercices
4.4 Parapluie
On cherche un parapluie qui, avec la probabilité p/7, se trouve dans l’un quelconque des
7 étages d’un immeuble. On a exploré en vain les 6 premiers étages. Quelle est la proba-
bilité que le parapluie se trouve au 7ème étage ? Soit f (p) cette probabilité. Représenter
graphiquement f (p).
4.5 Moutons
On a décelé dans un élevage de moutons une probabilité 0.3 pour qu’un mouton soit
atteint par une maladie M . La probabilité qu’un mouton qui n’est pas atteint par M ait
une réaction négative à un test est 0.9. S’il est atteint par M , la probabilité qu’il ait une
réaction positive à T est 0.8. Quelle est la probabilité qu’un mouton pris au hasard et
ayant une réaction positive soit atteint par M ?
bar-hen.net
Chapitre 2
13
14 Loi marginale
2 Loi marginale
Si on connaı̂t la loi du couple (X, Y ), on peut retrouver la loi de X et celle de Y . La loi
de X est alors appelée loi marginale de X :
X
P(X = x) = P(X = x, Y = y)
y
Par contre, si on connaı̂t les deux lois marginales, on ne peut pas en général reconstituer
la loi du couple, sauf si X et Y sont indépendantes :
Théorème 2.1 X et Y indépendantes ⇔ P(X = x, Y = y) = P(X = x)P(Y = y).
C’est-à-dire que si les variables sont indépendantes, la loi du couple est égale au produit
des lois marginales.
3 Loi conditionnelle
Si (X, Y ) est un couple de variables aléatoires discrètes, on appelle loi conditionnelle de
X sachant Y = y la donnée de :
{P((X = x|Y = y) , x valeur possible de X}
4 Espérance conditionnelle
P(X = x|Y = y) est une probabilité. On peut donc définir l’espérance de X sachant
Y =y: X
E(X = x|Y = y) = xP(X = x|Y = y)
x
Si on connaı̂t la loi conditionnelle de X sachant Y , on connaı̂t E(X = x|Y = y) pour
toutes les valeurs possibles y de Y .
On peut alors définir la variable E(X|Y ), qui vaut E(X|Y = y) quand Y = y.
Cette variable s’appelle l’espérance conditionnelle de X sachant Y , elle prend la valeur
E(X|Y = y) avec la probabilité P(Y = y).
On peut alors montrer les propriétés suivantes :
bar-hen.net
2. C OUPLE DE VARIABLES AL ÉATOIRES , LOI MARGINALE , LOI CONDITIONNELLE 15
bar-hen.net
16 Exercices
5 Exercices
5.1 Lois marginales et conditionnelles
X et Y étant deux variables aléatoires discrètes ayant pour ensemble de valeurs possibles
X = {1, 2, 3} et Y = {−1, 1}, la distribution de probabilité du couple (X, Y ) est donnée
par le tableau suivant :
x 1 2 3
y
−1 0.1 0.3 0.1
1 0.2 0.1 0.2
bar-hen.net
Chapitre 3
Chaı̂nes de Markov
1 Définitions
Soient X0 , X1 , X2 , . . . , Xn , . . . une suite de variables aléatoires définies sur un même
espace de probabilité Ω et à valeurs dans un même espace E :
Xn : Ω 7→ E
Dans tout ce cours, E sera fini ou dénombrable. On peut donc l’identifier à N ou à une
partie de N. On dit que E est l’espace d’états.
Exemple :
Xn : temps qu’il fait au jour n
E = {pluie, beau temps, neige}
' {1, 2, 3}
Définition 3.1 On dit que la suite (Xn )n∈N est une chaı̂ne de Markov si :
P(Xn+1 = in+1 |Xn = in , . . . , X1 = i1 , X0 = i0 ) = P(Xn+1 = in+1 |Xn = in ) ∀i0 , i1 , . . . , in , in+1 ∈ E
Le futur ne dépend que du présent et pas du passé. On peut aussi dire que les variables
sont indépendantes mais de mémoire 1 seulement.
Définition 3.2 Si (Xn )n∈N est une chaı̂ne de Markov, on dit qu’elle est homogène si :
∀i, j ∈ E ∀n ∈ N P(Xn+1 = j|Xn = i) = π(i, j)
La probabilité de passer de l’état i à l’état j au nème coup ne dépend que de i et de j et
pas de n.
17
18 Définitions
1 : pluie
2 : beau temps
3 : neige
r 1 p 1 q1
Π = p 2 r 2 q2
q3 p 3 r 3
Comme l’espace d’états est fini, on peut visualiser la chaı̂ne de Markov sur un graphe.
q3
@
@
p2 p3
@ @
@ @
r1 r2 r3
@ @ @
@ 1 @ 2 @ 3
@ @
@ @
p1 q2
@ q1
@
bar-hen.net
3. C HA ÎNES DE M ARKOV 19
3 Calcul de la loi de Xn
Pour simplifier, on suppose que l’espace d’états est fini :
E = {1, 2, . . . , d}
Il y a d états possibles
La loi de Xn est représentée par le vecteur ligne :
et donc :
d
X
P(Xn = 1) = P(Xn = 1|Xn−1 = i)P(Xn−1 = i)
i=1
Xd
= π(i, 1)P(Xn−1 = i)
i=1
bar-hen.net
20 Matrice de transition dans le temps
Pn = Pn−1 Π
= (Pn2 Π)Π = Pn−2 Π2
= (Pn3 Π)Π = Pn−3 Π3
.
= ..
= P 0 Πn
où P0 = (P(X0 = 1), P(X0 = 2), . . . , P(X0 = d)) est la loi initiale de la chaı̂ne de
Markov.
Théorème 3.1 Pn = P0 Πn où P0 est la loi initiale et où Π est la matrice de transition.
Ceci implique qu’une chaı̂ne de Markov homogène à espace d’états dénombrable est
entièrement caractérisée par P0 et Π.
bar-hen.net
3. C HA ÎNES DE M ARKOV 21
d
X
= π(k, j) (π m ) (i, k)
k=1
m+1
= π (i, j)
bar-hen.net
22 Exercices
5 Exercices
5.1 Weather in the Land of Oz
In the Land of Oz they never have two nice days in a row. If they have a nice day they are
just as likely to have snow as rain in the next . If they have snow (or rain) they have an
even chance of having the same in the next day. If there is a change from snow or rain,
only half of the time is this change to a nice day.
1. Montrer que le temps au pays d’Oz est une chaı̂ne de Markov homogène et donner
sa matrice de transition Π. Calculer Π5 .
Vous avez prévu d’arriver au pays d’Oz un lundi mais pas dans n’importe quelles
conditions : vous n’entreprenez le voyage qui s’il a plu au pays d’Oz le dimanche
sinon vous repoussez votre voyage à la semaine suivante.
2. Quelle est la probabilité qu’il ne fasse pas beau le lundi de votre arrivée ?
3. Quelle est la probabilité qu’il fasse beau le samedi qui suit votre arrivée ?
4. Vous arrivez enfin et il neige. Quelle est la probabilité qu’il fasse beau le samedi ?
5. Le mardi vous dormez toute la journée et le mercredi il neige encore. Quelle est la
probabilité qu’il ait fait beau pendant votre sommeil ?
bar-hen.net
3. C HA ÎNES DE M ARKOV 23
5.4 Météo
1. On suppose que le fait qu’il pleuve demain ou non dépend seulement du fait qu’il
pleuve ou non aujourd’hui. On suppose que si il pleut aujourd’hui, il pleuvra de-
main avec une probabilité 1 − α, et s’il ne pleut pas aujourd’hui, il pleuvra demain
avec une probabilité β. On représente le temps qu’il fait par 0 quand il pleut et 1
quand il ne pleut pas. Ceci définit un processus Xn état du temps au jour n.
(a) Écrire la matrice de transition Π.
(b) Calculer la probabilité qu’il pleuve dans quatre jours sachant qu’il pleut au-
jourd’hui.
(c) Calculer la probabilité qu’il pleuve quatre jours de suite sachant qu’il pleut
aujourd’hui.
(d) Montrer qu’il existe une probabilité invariante Q, la calculer en fonction de
α et β
(e) Convergence ?
2. On suppose maintenant que le fait qu’il pleuve ou non demain dépend aussi du
temps qu’il a fait hier.
• S’il a plu hier et aujourd’hui, il pleuvra demain avec une probabilité 1 − α.
• S’il a plu aujourd’hui et pas hier, il pleuvra demain avec une probabilité 1 − γ.
• S’il a plu hier et pas aujourd’hui, il pleuvra demain avec une probabilité β.
• S’il n’a plu ni hier ni aujourd’hui, il pleuvra demain avec une probabilité δ.
(a) Si l’on considère le processus défini à la question 1, montrer que ce processus
n’est plus une chaı̂ne de Markov (sauf conditions particulières sur α, β, γ, δ).
(b) On définit alors le processus Yn ainsi :
• Yn = 0 s’il pleut au jour n et au jour n − 1.
• Yn = 1 s’il pleut au jour n et pas au jour n − 1.
• Yn = 2 s’il pleut au jour n − 1 et pas au jour n.
• Yn = 3 s’il ne pleut ni au jour n ni au jour n − 1.
Écrire la matrice de transition
(c) Sachant qu’il a plu lundi et mardi, calculer la probabilité qu’il pleuve jeudi.
(d) Sachant qu’il n’a plu ni samedi ni dimanche, calculer la probabilité qu’il
pleuve mardi.
(e) Déterminer la probabilité stationnaire et la proportion de jours où il pleut,
observée sur un temps assez long, en supposant que α, β, γ, δ ∈]0, 1[.
bar-hen.net
Chapitre 4
P0 = (1, 0, 0)
P1 = P0 Π = ( 1/2, 1/4, 1/4)
P2 = P1 Π = ( 7/16, 3/16, 6/16)
À première vue, la question : ”Quelle est la probabilité qu’il fasse beau au pays d’Oz ?”,
c’est-à-dire ”Combien vaut P(Xn = 2) ?” n’a pas de réponse. Mais si n devient grand :
25
26 Probabilité invariante et convergence
et dans ce cas Q = QΠ
Preuve :
n→+∞
• Pn = P0 Πn donc si Pn converge alors Πn −→ Γ.
n→+∞
(0, . . . , 0, i, 0, . . . , 0)Πn −→ (0, . . . , 0, i, 0, . . . , 0)Γ = (Γ1,i , Γ2,i , . . . , Γd,i ) = Q
• Réciproquement : si Πn converge vers un Γ de cette forme :
P n = P 0 Πn → P 0 Γ
et !
d
X d
X
P0 Γ = P0 (i)Q(1), P0 (i)Q(2), . . . , = (Q(1), Q(2), . . .)
i=1 i=1
Pd
car i=1 P0 (i) = 1.
Théorème 4.2 Si l’espace d’état est fini et si Π a
une seule valeur
propre de module 1
... Q ...
n→+∞ ... Q ... et donc Pn n→+∞
(elle en a toujours au moins une), alors Πn −→ −→
···
... Q ...
Q
Q est le vecteur propre associé à la valeur propre de module 1
bar-hen.net
4. C ONVERGENCE DES CHA ÎNES DE M ARKOV HOMOG ÈNES 27
noter qu’un arc possède une orientation. Ce point de vue structurel consiste en fait à
visualiser le graphe des transitions possibles d’une chaı̂ne de Markov (voir figure 4.1).
Dans la mesure où les arcs sont orientés, on parle de graphe orienté. Si des poids sont
associés aux arcs, on parle d’automate
Dans la théorie des graphes, on appelle chemin une succession d’arcs, telle que l’extrémité
du nème arc soit l’origine du (n + 1)ème arc et on appelle circuit un chemin fermé.
Le graphe des transitions possibles de la figure 4.1 comporte par exemple le chemin
[0,1,2,3,4,5] et le circuit [0,1,2,0].
Pour la suite on note πn (i, j) la probabilité que le système soit dans l’état i au temps t et
dans l’état j au temps t + n :
On dit que l’état j est accessible à partir de l’état i si la probabilité de passer de i à j est
non nulle :
i → j ⇐⇒ ∃n ≥ 0 : πn (i, j) > 0
En théorie des graphes ceci signifie qu’il existe un chemin entre i et j.
On dit que les états i et j communiquent si chacun d’eux est accessible à partir de
l’autre :
i→j
i ↔ j ⇐⇒
j→i
bar-hen.net
28 Classification des chaı̂nes de Markov
Pour que deux états ne communiquent pas il faut que l’un des deux ne soit pas accessible
à partir de l’autre, c’est-à-dire :
∀n ≥ 0 πn (i, j) = 0 ou ∀n ≥ 0πn (j, i) = 0
La relation de communication entre deux états est réflexive (par convention ∀i π0 (i, i) = 1),
symétrique (par définition) et transitive, c’est donc une relation d’équivalence.
Il est donc possible de construire une partition des états d’une chaı̂ne de Markov en
classes d’équivalence telle que tous les états d’une classe communiquent entre eux et que
deux états appartenant à deux classes différentes ne communiquent pas. Par construction,
ces classes sont deux à deux disjointes et leur réunion est l’ensemble des états.
En théorie des graphes, une classe d’équivalence correspond à une composante forte-
ment connexe, c’est-à-dire dont tous les éléments sont communiquants. On peut donc
construire le graphe réduit (par exemple la figure 4.2). Dans ce graphe, les sommets
représentent les classes et les arcs représentent les transitions possibles entre classes.
Ce graphe possède la propriété d’être sans circuit (on ne peut jamais revenir au point
d’origine), tous les circuits du graphe d’origine des transitions possibles ayant servi à
construire les différentes classes.
Il est alors possible de distinguer deux types de classe :
• une classe est dite transitoire s’il est possible d’en sortir mais dans ce cas, le processus
ne pourra plus jamais y revenir (classe (0,1,2) et classe (3) dans la figure 4.2) ;
• une classe est dite récurrente s’il est impossible de la quitter (classe (4,5) et classe (6)
dans la figure 4.2).
Si une classe récurrente est composée d’un seul état, cet état est dit absorbant (état 6 dans
la figure 4.2). Un état i absorbant est donc tel qu’une fois dans cet état on ne peut le quitter
(par exemple la ruine dans le cas du jeu de “Pile ou Face”). En terme de probabilités de
transition, ceci signifie que ∀k 6= i , πik = 0 et donc πii = 1.
Les états absorbants sont très particuliers puisqu’ils constituent des états terminaux du
système. Il est notamment intéressant d’étudier les probabilités d’absorption, c’est-à-dire
les probabilités que le système finisse par atteindre un tel état.
Les états d’une classe transitoire sont dits transitoires alors que les états d’une classe
récurrente sont dits récurrents. Un état absorbant est donc un type particulier d’état
récurrent.
Une chaı̂ne de Markov pour laquelle il n’existe qu’une seule classe récurrente (égale à
l’ensemble des états) est dite irréductible. Ceci signifie que tous les états communiquent.
0,1,2 - 6
HH
HH
? j
H
3 - 4,5
Pour un état i de la chaı̂ne, on appelle temps de retour le temps minimal pour revenir à
l’état i ; c’est-à-dire le plus petit n tel que πn (i, i) > 0.
bar-hen.net
4. C ONVERGENCE DES CHA ÎNES DE M ARKOV HOMOG ÈNES 29
1i+1
p
i
iP
ri - i
PPqi
PPqi−1
Soit i un état d’une chaı̂ne de Markov. La période de retour de i, notée Ti est la quantité
définie par :
c’est-à-dire que les retours à l’état i ne sont possibles que pour des durées multiples à la
période.
Une autre manière équivalente de dire les choses est de définir la période comme le
pgcd{n ∈ T : πn (i, i) > 0}
L’état i est dit périodique si Ti > 1 et apériodique si Ti = 1.
Il est possible de montrer que deux états communiquants ont la même période et donc
que la période est constante à l’intérieur des classes de communication.
La période commune des éléments de la classe est appelée période de la classe.
Si la chaı̂ne est irréductible et qu’elle a une période, on parle d’une chaı̂ne périodique ;
si elle n’a pas de période on parle de chaı̂ne apériodique.
Une chaı̂ne irréductible et apériodique est dite ergodique.
Exemple 4.1 Soit la matrice de transition de la chaı̂ne :
0 1
Π=
1 0
bar-hen.net
30 Résultat fondamental pour les chaı̂nes à espace d’états fini
état initial
q1
q2
r0@
@
r1 r2
2 .................
R
0 1
p p
0 1
bar-hen.net
4. C ONVERGENCE DES CHA ÎNES DE M ARKOV HOMOG ÈNES 31
4 Exercices
4.1 Weather in the Land of Oz
Sur un temps assez long, peut-on prévoir la proportion de jours de neige, de pluie et
de soleil au pays d’Oz ? Dans l’affirmative faut-il attendre très longtemps pour que ces
prévisions soient bonnes ?
avec 0 ≤ p ≤ 1
On pose Z0 = 1 et pour tout entier n ≥ 1 on pose Zn = ni=1 Xi .
Q
1. Quel est l’espace d’états de la chaı̂ne Zn ? Montrer que (Zn )n∈N est une chaı̂ne
de Markov homogène. Déterminer sa matrice de transition et sa loi initiale. Les
variables aléatoires Z0 , Z1 , Z2 , . . . sont-elles indépendantes entre elles ? (la réponse
dépend de la valeur de p.)
2. Établir que les probabilité de transition dans le temps (i.e. P(Zn+k = j|Zk = i))
sont données par la matrice :
1 − pn pn
pn 1 − pn
1−(1−2p)n
avec pn = 2
3. Déduire du 2 que la variable aléatoire Zn possède une loi limite quand n → +∞
et déterminer cette loi limite. Établir ensuite que la suite de variables aléatoires
(Zn , Zn+1 ) converge en loi et déterminer sa loi limite dans le cas où p ∈]0, 1[.
bar-hen.net
32 Exercices
bar-hen.net
4. C ONVERGENCE DES CHA ÎNES DE M ARKOV HOMOG ÈNES 33
bar-hen.net
Chapitre 5
1 Description du proccessus
Ces processus sont utilisés pour décrire l’évolution des populations, la croissance (ou la
décroissance) de leurs effectifs, les probabilités d’extinction, etc.
On considère qu’à la génération 0 on a 1 individu. Cet individu peut avoir des descen-
dants qui constituent la génération 1. Chaque individu peut avoir des descendants qui
constituent la génération 2.
Les exemples d’application de ces processus sont nombreux en physique, en épidémiologie,
en généalogie ou encore en génétique.
La survivance des noms de famille est un des premiers exemples de ce processus. Sir
Galton (fondateur de l’eugénisme et cousin de Darwin) posa le problème de l’extinction
des noms de famille au cours des générations. Watson fut le premier à proposer une so-
lution mathématique à ce problème. Dans ces modèles, les seuls descendants considérés
sont les enfants mâles.
On note Yn l’effectif à la nème génération et Xj,n le nombre de descendants du jème individu
à la nème génération (j = 1, . . . , Yn ).
Par définition, une génération est égale à la réunion des descendants de tous les individus
de la génération précédente :
Yn−1
X
Yn = X1,n−1 + · · · + XYn−1 ,n−1 = Xj,n−1
j=1
On suppose que les individus se reproduisent indépendamment les uns des autres et que
le nombre de descendants suit une loi qui ne dépend ni de l’individu parent ni de la
génération.
{Xn,j : n ≥ 0 et 1 ≤ j ≤ Yn−1 } i.i.d.
Le phénomène suit une loi stable au cours du temps et indépendante des individus. On
note
pk = P(Xn,j = k) = P(X = k)
35
36 Description du proccessus
On note que :
• G(0) = P(X = 0)
• G(1) = 1
• G0 (1) = E(X)
k λk −λ
Exemple : Si X ∼ P(λ) alors G(s) = +∞ = e−λ esλ = eλ(s−1)
P
k=0 s k! e
bar-hen.net
5. P ROCESSUS DE BRANCHEMENT ( OU DE RAMIFICATION OU DE G ALTON -WATSON ) 37
2 Exercices
1. Étudier les processus de branchement dont la loi de la descendance est définie par :
(a) P(X = 0) = P(X = 3) = 1/2
(b) P(X = 0) = p0 , P(X = 1) = 1 − p0 . Dans ce cas étudier la loi de la variable
aléatoire T : instant où la population s’éteint.
(c) P(X = 0) = p, P(X = 2) = 1 − p.
(d) P(X = 0) = p, P(X = N ) = 1 − p.
(e) X suit une loi binomiale B(N, p)
(f) X = Y − 1 où Y suit une loi géométrique de paramètre p : P(Y = k) =
p(1 − p)k−1 , k ∈ N
(g) X suit une loi de Poisson de paramètre λ.
2. On suppose que tout homme dans une certaine société a exactement trois enfants,
avec des probabilités 1/2 pour chaque enfant d’être un garçon ou une fille.
(a) Étudier le processus de branchement associé et la probabilité d’extinction du
nom de famille d’un homme donné.
(b) Si un homme donné a deux garçons et une fille, quelle est la probabilité que
son nom ne s’éteigne jamais ?
3. Étudier le processus de branchement pour lequel Y0 = N .
4. Au temps 0, une culture sur le sang commence avec une cellule rouge. Au bout
d’une minute, la cellule rouge meurt et donne naissance à l’une des combinaisons
suivantes (avec les probabilités indiquées) :
• 2 cellules rouges avec une probabilité de 1/4
• 1 cellule rouge, 1 cellule blanche avec une probabilité de 2/3
• 2 cellules blanches avec une probabilité de 1/12
Chaque cellule rouge fonctionne de la même façon et chaque cellule blanche meurt
au bout d’une minute sans reproduction.
(a) Modéliser l’évolution de la population
(b) Quelle est la probabilité qu’aucune cellule blanche n’apparaisse avant le
temps n + 1/2 ?
(c) Quelle est la probabilité que la culture toute entière meure ?
bar-hen.net