Вы находитесь на странице: 1из 50

Cours méthodes numériques (S.T. 2).

Professeur Ibtissem ZEROUKI

16 février 2019
Table des matières

1 Introduction. 3
1.1 Erreur absolue - Erreur relative. . . . . . . . . . . . . . . . . . 3
1.2 Représentation décimale des réels. . . . . . . . . . . . . . . . . 5

2 Résolution numérique des équations non linéaires de la forme


f (x) = 0. 6
2.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Séparation des racines. . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Méthode de Dichotomie (ou de Bissection) . . . . . . . . . . . 7
2.4 Méthode de Newton –Raphson (ou de la tangente). . . . . . . 9
2.5 La méthode des approximations successives (ou du point …xe). 10

3 Interpolation polynômiale. 13
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Approximation polynômiale. (hors programme) . . . . . . . . 13
3.2.1 Approximation aux sens des moindres carrées. . . . . . 14
3.2.2 Approximation aux sens des moindres carrées discrète. 15
3.3 Interpolation polynômiale. . . . . . . . . . . . . . . . . . . . . 16
3.3.1 Introduction –Position du problème. . . . . . . . . . . 16
3.4 Formule d’interpolation de Lagrange. . . . . . . . . . . . . . . 17
3.5 Intrepolation d’Hermite. . . . . . . . . . . . . . . . . . . . . . 19
3.6 Erreur de l’interpolation. . . . . . . . . . . . . . . . . . . . . . 21

4 Intégration numérique. 22
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Approximation d’une intégrale dé…nie. . . . . . . . . . . . . . 22
4.3 Formules de quadrature de Newton–Côtes. . . . . . . . . . . . 23

1
4.3.1 Méthode des trapèzes. . . . . . . . . . . . . . . . . . . 24
4.3.2 Méthode de Simpson (pour n = 2p). . . . . . . . . . . . 25
4.4 Formule de Quadrature de Gauss. (Hors programme) . . . . . 27

5 Résolution des systèmes d’équations linéaires - Méthodes di-


rectes. 29
5.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.2 Méthode de l’élimination de Gauss. . . . . . . . . . . . . . . . 32
5.3 Méthode de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . 33
5.4 Méthode de décomposition LU: . . . . . . . . . . . . . . . . . 33
5.5 Décomposition de Cholesky. . . . . . . . . . . . . . . . . . . . 35

6 Résolution des systèmes d’équations linéaires - Méthodes ité-


ratives. 37
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.2 Les méthodes itératives. . . . . . . . . . . . . . . . . . . . . . 38
6.3 Convergence des méthodes itératives . . . . . . . . . . . . . . 39
6.4 Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . 41
6.4.1 Estimation de l’erreur de la méthode de Jacobi. . . . . 41
6.5 Méthode de Gauss –Seidel . . . . . . . . . . . . . . . . . . . . 41
6.5.1 Estimation de l’erreur de la méthode de Gauss –Seidel. 42

7 Résolution numérique des équations di¤érentielles ordinaires


du premier ordre. 46
7.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2 Méthode d’Euler. . . . . . . . . . . . . . . . . . . . . . . . . . 47
7.3 Méthodes de Runge –Kutta. . . . . . . . . . . . . . . . . . . . 48

2
Chapitre 1

Introduction.

L’objectif de l’analyse numérique est de concevoir et d’étudier des mé-


thodes de résolution de certains problèmes de mathématiques issus de la
modélisation des problèmes réels et dont on cherche à calculer la solution à
l’aide d’un ordinateur, i. e. à trouver ou à donner des valeurs approchées de
la solution exacte avec une certaine précision.

Le but de ce cours, est donc, de fournir les principes de base des méthodes
numériques les plus utilisées.

1.1 Erreur absolue - Erreur relative.


Dé…nition 1.1.1 L’analyse numérique est l’étude des algorithmes per-
mettant de résoudre des problèmes de mathématiques continues.

Cela signi…e qu’elle s’occupe principalement de répondre numériquement


à des questions à variable réelle ou complexe, comme l’analyse linéaire nu-
mérique sur R ou C; la recherche de solutions numériques d’équations di¤é-
rentielles et d’autres problèmes liés aux sciences physiques et téchnologiques.

Dé…nition 1.1.2 Un algorithne est une suite …nie de règles à appliquer


dans un ordre déterminé à un nombre …ni de données, pour arriver en un
nombre …ni d’étapes (dont la quantité, ou réciproquement le temps d’exécution
est dé…ni par le terme coût), à un certain résultat et cela indépendament du
type des données.

3
Les algorithmes sont intégrés dans des calculateurs par l’intermédiaire des
programmes.

Dé…nition 1.1.3 Un programme est la réalisation d’un algorithme au moyen


d’un language machine donné.

Soient x une quantité exacte et x une valeur approché de x.


- Si x > x, x est dite valeur approchée de x par excés.
- Si x < x, x est dite valeur approchée de x par défaut.

Dé…nition 1.1.4 On appelle erreur absolue de x sur x la valeur notée par


E et donnée par
E = jx x j :

Dé…nition 1.1.5 On appelle erreur relative de x sur x la valeur notée par


jx x j E
Er et donnée parEr = = :
jxj jxj

Dans la majorité des cas, l’erreue absolue et relative sont inconuues, alors
pour les estimer on introduit la notion du majorant de l’erreur.

Dé…nition 1.1.6 On appelle majorant de l’erreur absolue d’une valeur ap-


prochée x ; tout réel x véri…ant

E = jx xj x,x x x x + x:

Remarque 1.1.7 1 On prend on pratique le plus petit x possible.


2 x est appelé par abus de language erreur absolue de x sur x et on écrit
dans ce cas : x = x x ou encore x ' x ( x) :
3 L’erreur relative est souvent donnée en pourcentage

Dé…nition 1.1.8 On appelle majorant de l’erreur relative d’une valeur ap-


prochée x la quantité x donnée par
x
x= ;
jxj

appelé par un abus de language erreur relative.

4
1.2 Représentation décimale des réels.
Tous réel strictement positif x peut prendre la forme suivante

x = am :10m + am 1 :10m 1
+ a0 :100 + a 1 :10 1
+ a i :10 i
+

où am 6= 0 et les ai 2 f0:1: ; 9g et ils sont appelés chi¤res signi…catifs


(c.s.) du réel x:

Dé…nition 1.2.1 Si l’erreur absolue véri…e


n
x 0:5 10

alors le chi¤re correspondant à la nième puissance de 10 1 est dit signi…catif


exact, noté c.s.e., ainsi que tous ceux avant lui. Dans ce cas on dit que x est
une valeur approchée de x avec n chi¤res signi…catifs exacts aprés la virgule
et au total (m + 1 + n) c.s.e.

Exemple 1.2.2 On obtient une approximation de au moyen de la quantité


22
= 3:142875::: , on en conclut que
7
22 2
x= = 0:00126::: ' 0:126 10 0:5 10 2 ;
7

donc le chi¤re des centième est signi…catif et on a en tous 3 chi¤res signi…-


catifs (3:14):

5
Chapitre 2

Résolution numérique des


équations non linéaires de la
forme f (x) = 0.

2.1 Introduction.

Nous nous interressons dans ce chapitre, à la l’approximation des zéros


d’une fonction réelle à variable réelle, i.e.qu’on se propose de résoudre numé-
riquement le problème suivant

Soit f une fonction réelle à variable réelle.


(Pr)
Trouver 2 R (ou C) telle que f ( ) = 0:

Toutes les méthodes de résolution numérique du problème (Pr), que nous


allons présenter sont des méthodes itératives, car elles ont pour principe de
construire des suites itératives fxn gn 0 (i. e. xn+1 = F (xn )), qui, on l’espère,
convergent sous certaines conditions, vers .i.e. lim xn = :
n!+1

Dans le cas de la convergence et pour l’utilisation pratique de telles mé-


thodes, il faut introduire un critère ou un test d’arrêt. Si " > 0 est la
précision (majorant de (x)) voulue lpour le calcul approché de les itéra-
tions s’achèvent dés que jxn+1 xn j < ":

6
2.2 Séparation des racines.
Pour toutes les méthodes numériques pour la résolution de (Pr), il faut
d’abord faire une étape trés importanten, qui consiste à trouver des intervalles
de la forme [ai ; bi ] dans lesquels l’équation f (x) = 0 admet une seule et une
solution. Cette étape est appelée séparation des zéos. Pour cela, on fait
appelle au théorème suivant.

Théorème 2.2.1 (Théorème des valeurs intermédiaires)


Soit f une fonction dé…nie continue dans l’intervalle [a; b].
–Si f (a):f (b) < 0, alors il existe au moins un réel c 2]a; b[ tq f (c) = 0:
0
– Si en plus on a f (x) 6= 0 pour tout x 2]a; b[, alors la solution est unique.

Remarque 2.2.2 Si f (a):f (b) > 0, alors soit f n’a pas de zéros, soit elle
admet un nombre pair de zéros dans [a; b].

Le détermination d’un l’intervalle [a; b] tel que les conditions du théorème


précédent soient véri…ées, doitt se faire en deux étapes :
1ére étape : Etape graphique : en traçant le graphe de la fonction f et
dans ce cas [a; b] contient l’abscisses du point d’intersection entre ce graphe
et l’axe des abscisses, ou bien en écrivant f (x) = f1 (x) f2 (x), où f1 etr f2
sont deux fonctions simples à étudier et dans ce cas [a; b] contient l’abscisses
du point d’intersection des graphes des ces deux fonctions.
2ième étape : Justi…er le choix du bon intervalle [a; b] en utilisant le Théo-
rème 2.2.1.

2.3 Méthode de Dichotomie (ou de Bissec-


tion)
Après avoir isolé un zéro dans un intervalle [a; b], on considère le point
a+b
x0 = . On a deux cas :
er
2
1 cas : Si f (x0 ) = 0, alors = x0 :
2eme cas : Si f (x0 ) 6= 0; alors la racine se trouve dans l’un des deux inter-
valles [a; x0 ]; [x0 ; b]:
–Si f (a):f (x0 ) < 0; alors 2 [a; x0 ]; qu’on pose [a1 ; b1 ].
–Si f (x0 ):f (b) < 0; alors 2 [x0 ; b]; qu’on pose [a1 ; b1 ].

7
De cette manière on a obtenu un autre intervalle [a1 ; b1 ] contenant et
dont la longueur est égale à la moitié de la longueur de [a; b] = b a
a1 + b 1
Dans ce cas on considère le point x1 = :, On a deux cas :
er
2
1 cas : Si f (x1 ) = 0, alors = x1 :
2eme cas : Si f (x1 ) 6= 0; alors la racine se trouve dans l’un des deux inter-
valles [a1 ; x1 ]; [x1 ; b1 ]:
–Si f (a1 ):f (x1 ) < 0 alors 2 [a1 ; x1 ]; on pose dans ce cas a2 = a1 et b2 = x1 .
–Si f (x1 ):f (b1 ) < 0 alors 2 [x1 ; b1 ]; on pose dans ce cas a2 = x1 et b2 = b1 .
De cette manière on a obtenu un autre intervalle [a2 ; b2 ] contenant et
b a
dont la longueur est égale à la moitié de la longueur de [a1 ; b1 ] = :
2
En itérant le procédé, on obtient une suite de points
a+b a1 + b 1 an+1 + bn+1
x0 = ; x1 = ; : : : ; xn+1 =
2 2 2

[an ; xn ] ; si f (an ):f (xn ) < 0
[an+ ; bn+1 ] =
[xn ; bn ] ; sinon.

Proposition 2.3.1 Soit f une fonction continue sur [a; b]; véri…ant f (a):f (b) <
0 et soit 2]a; b[ l’unique solution de l’équation f (x) = 0: Alors la suitefxn gn 0
construite par la méthode de Dichotomie converge ves et on a l’estimation
de l’erreur suivante
b a
en = j xn j ; pour tout n 2 N:
2n+1
Remarque 2.3.2 Cett estimation fournie directement un critère d’arrêt,
puisque, à une précision " donnée, cette dérnière nous permet d’approcher
en un nombre prévisible d’iterations (prévoir à l’avance le nombre d’ité-
rations nécéssaire sans faire à chaque fois le test d’aérrêt). On e¤et, pour
b a
avoir en = j xn j < "; il su¢ t de supposer que < " , n
2n+1
ln [(b a)="]
1:
ln 2
Dé…nition 2.3.3 (Ordre de convergence) Soit fxn gn 0 une suite réelle
qui converge vers : On dit que cette suite est convergente d’ordre r 1;

8
s’il existe deux constantes réelles 0 < C1 C2 < +1 et un entier n0 ; telles
que
jx;+1 j
C1 r C2 ; pour tout n n0 :
jxn j

La méthode de Dichotomie ne garantit pas une réduction monotone de


l’erreur absolue d’une itération à l’autre, donc la suite fxn gn 0 ne véri…e pas
la dé…nition précédente.

2.4 Méthode de Newton –Raphson (ou de la


tangente).
Soit x0 2 [a; b], tel que f (x0 ) 6= 0. La tangente à la courbe y = f (x)
au point M0 = (x0 ; f (x0 )) coupe l’axe (ox) en un point d’abscisse x1 . La
tangente à la courbe y = f (x) au point M1 = (x1 ; f (x1 )) coupe l’axe (ox) en
un point d’abscisse x2 , . . . etc.
En itérant le procédé on obtient une suite de points d’abscisses fxn gn 0
dé…nie par 8
< f (xn )
xn+1 = xn ; pour tout n 1
f 0 (xn ) (1.5)
:
x0 = approximation initiale.
applé algorithme de Newton –Raphson.

Remarque 2.4.1 Une bonne approximation initiale x0 est celle qui véri…e
l’inégalité suivante
f (x0 ):f "(x0 ) > 0: (1:6)

Théorème 2.4.2 Si f 2 C 2 [a; b] et si f 0 et f " gardent des des signes constants


sur [a; b], c–à–d : f 0 (x) 6= 0 et f "(x) 6= 0 sur [a; b], alors la méthode de New-
ton – Raphson est dite convergente, i. e. lim xn = .
n!+1

Donc la racine exacte de l’équation (1.1) peut être calculer à l’aide


de la méthode de Newton –Raphson, avec la précision donnée et pour une
approximation initiale véri…ant la condition (1.6).

9
Proposition 2.4.3 L’estimation de l’erreur commise par la méthode de New-
ton – Raphson est donnée par
jf (xn )j
en = j xn j ;
m1
où m1 = min jf 0 (x)j.
[a;b]
f (xn )
Le test d’arrêt jxn+1 xn j ", ".
f 0 (x)
Remarque 2.4.4 1) Si l’estimation (1:7) est mauvaise, alors on peut res-
treindre l’intervalle [a; b].
2) Lorsque la méthode de Newton –Raphson converge, alors on a suivant le
signe de f " :
(a) f " > 0, alors si f 0 > 0 (respectivement f 0 < 0), la suite fxn gn 0 est
monotone et converge vers la racine par excès, c–à–d xn > (respective-
ment par défaut).
(b) f " < 0, alors si f 0 < 0 (respectivement f 0 > 0), la suite fxn gn 0 est
monotone et converge vers la racine par excès, c–à–d xn > (respective-
ment par défaut).

2.5 La méthode des approximations succes-


sives (ou du point …xe).
L’équation f (x) = 0 peut toujours s’écrire sous la forme équivalence à
l’équation x = F (x):
Théorème 2.5.1 Soit [a; b] un intervalle non vide de R et soit g une ap-
plication de [a; b] dans lui même. Si g est continue, alors il existe 2 [a; b]
véri…ant g( ) = ; appellé point …xe de g.
Par conséquent, sous certaines conditions, approcher les zéros de f est
équivalent à approcher les point …xes de F: Une méthode courante pour la
détermination des point …xes, se résume à la construction d’une suite fxn gn 0
par le procédéiteratif suivant
x0 approximation initiale donnée
(1)
xn+1 = F (xn );

10
La méthgode d’approximation résultante est appelée méthode (algoriothme)
du point …xe ou encore méthode des approximations succéssives. Si
cette suite converge, cela ne peut être que vers le point …xe : En e¤et, si
lim xn = l; alors
n!+1

l = lim xn+1 = lim F (xn )


n!+1 n!+1
= F ( lim xn ):(à cause de la continuité de F )
n!+1
= F (l):
Comme le point …xe est unique dans [a; b] on = l:
Proposition 2.5.2 On suppose que la fonction F I ! I est une application
contractante de rapport k (0 < k < 1), i. e.
90 < k < 1; jF (x1 ) F (x2 )j k jx1 x2 j ; pour tout x1 ; x2 2 I; (2)
(si k > 0 on dit que F est lipschitzienne ). Alors F possède un unique point
…xe (i. e. = F ( )) ;dans [a; b]: De plus, la suite dé…nie par l’algorithme
(1) converge vers ce point …xe pour toute approximation initiale x0 dans [a; b]
et on a les deux estimations suivantes
kn
en = jxn j jx1 x0 j : (3)
1 k
en = jxn j k n jx0 j (4)
Remarque 2.5.3 (1) La condition (2) peut être remplacer par la condition
suivant
90 < k < 1; jF 0 (x)j k; pour tout x 2 I: (5)
(2) L’inégalité (4) montre que la convergence est géomètrique.
(3) La formule (3) nous permet de prévoir à l’avance le nombre d’itérations
nécessaires à l’approximation de :
En e¤et,
kn
jxn j jx1 x0 j "
1 k
m
1 k
kn "
jx1 x0 j
m

11
"(1 k)
ln
jx1 x0 j
n : (6)
ln k
(4) Sous la condition (2) (ou (4)) la méthode des approximations successives
converge quelque soit le choix de l’approximation initiale x0 . Il en résulte que
cette méthode est "auto correctrice".
(5) (a) Si 0 F 0 (x) k < 1, alors la suite fxn gn 0 converge vers d’une
façon monotone.
(b) Si 1 < k F 0 (x) 0, alors la suite fxn gn 0 converge vers
alternativement par exés et par défaut.
(6) Si jF 0 (x)j > 1; la suite diverge.

12
Chapitre 3

Interpolation polynômiale.

3.1 Introduction

Soit fx0 ; x1 ; ; xn g un ensemble …ni de réels dans l’intervalle [a; b]. Nous
supposerons qu’à chaque point xi on peut associer un réel yi (exp : résul-
tat d’une expérience) telle que yi = f (xi ), mais que cette opération soit
impossible pour tout x 6= xi ; i = 0; n. Nous voudrions déterminer donc
une fonction facilement calculable, qui nous permet d’obtenir une estimation
"raisonnable" de la réponse de ce phénomène pour tout x 2 [a; b].

Notons g cette fonction, nous avons donc 2 choix :

I- Nous pouvons chercher une fonction g d’un type préalablement choisi,


telle que la distance entre les deux fonctions f et g soit minimale. C’est
l’approximation.

II- Nous pouvons chercher une fonction g d’un type préalablement choisi,
telle que yi = f (xi ) = g(xi ), pour tout i = 0; n. C’est l’interpolation.

3.2 Approximation polynômiale. (hors pro-


gramme)
Dé…nition 3.2.1 L’approximation d’une fonction f par un polynômes est
dite approximation polynômiale. Cette approximation est la plus utilisée,

13
car les polynômes sont très faciles à dériver, à intégrer et constituent un
espace vectoriel.

Théorème 3.2.2 Si f 2 C[a; b], alors quelque soit " > 0 il existe Pn un
polynôme de degré n, telle que max jf (x) Pn (x)j < ".
a x b

3.2.1 Approximation aux sens des moindres carrées.


On dé…nit sur l’espace vectoriel des fonctions continues sur [a; b] le produit
scalaire suivant :
Zb
hf; gi = f (x)g(x)w(x)dx;
a

où w est une fonction positive continue par morceaux sur [a; b]. Dans ce cas,
on peut dé…nir une distance d dans cet espace de la manière suivante
p
d(f; g) = hf g; f gi pour tous f; g 2 C ([a; b])

Théorème 3.2.3 Une condition nécessaire et su¢ sante pour que la fonction
g soit une meilleure approximation de la fonction f est

hf g; hi = 0 pour toute fonction continue h. (2.1)

La fonction g est appelée meilleure approximation de la fonction f au


sens des moindres carrées.

Si g = Pen 2 Pn qui est l’ensemble des polynômes de degré inferieur ou


égale à n et comme les fonctions xi ; i = 0; n; forment une base de cette
espace, alors on peut ecrire
X
n X
n
Pen (x) = e
ai x n i
et Pn (x) = aj x n j

i=0 j=0

pour tout polynôme Pn . La condition (2.1) devient dans ce cas


* +
Xn X
n
f ai x n i ;
e aj xn j = 0 pour tout (a0 ; a1 ; : : :; an ) 2 Rn+1 :
i=0 j=0

14
Ceci est équivalent à
* n +
X
n X
n X
aj f; xn j
= aj ai x n i ; x n
e j
pour tout (a0 ; a1 ; : : :; an ) 2 Rn+1 :
j=0 j=0 i=0

Ceci nous donne le système d’équation suivant


X
n
n j
f; x = ai x n i ; x n
e j
pour tout j = 0; n: (2.2)
i=0

En remplaçant le produit scalaire par sa valeur on obtient

Zb X
n Zb
n j
x f (x)w(x)dx = ai x2n
e i j
w(x)dx pour tout j = 0; n: (2.3)
a i=0 a

3.2.2 Approximation aux sens des moindres carrées


discrète.
La résolution de (2.3) nous permet de déterminer l’approximation au sens
des moindres carrés pour une fonction f connue analytiquement. Cela n’est
pas le cas si f n’est pas connues sur tout l’intervalle [a; b] et ou on a la valeur
de cette fonction dans un nombre …ni de points x0 ; x1 ; : : :; xm :

Dans ce cas le produit scalaire sera dé…ni de la manière suivante


X
m
hf; gi = f (xk )g(xk )w(xk ):
k=0

Donc (2.2) devient


" #
X
m X
n X
m
xnk j f (xk )w(xk ) = e
ai xk2n i j w(xk ) (2.4)
k=0 i=0 k=0

pour tout j = 0; n:

15
3.3 Interpolation polynômiale.
3.3.1 Introduction –Position du problème.
Soit y = f (x) une fonction dont on ne connait que les valeurs yi qu’elle
prend aux n + 1 points distincts xi , i = 0; n. On a donc

yi = f (xi ); i = 0; n: (2.5)

Les (xi ; f (xi )) pour i = 0; 1; 2; ; n, sont appelés points d’interpolation


ou points de collocation.

Le problème d’interpolation consiste à trouver la fonction g (appelée


fonction d’interpollation) qui appartient à une certaine classe de fonctions
et qui prend aux points d’interpolation les mêmes valeurs que f , c–à–d

g(x0 ) = y0 ; g(x1 ) = y1 ; : : : ; g(xn ) = yn :

Dans notre cas on considère que g appartient à l’ensemble des polynômes de


degré n. On écrit donc

yi = Pn (xi ); i = 0; n: (2.6)

C’est ce qu’on appele interpoler f par un polynôme Pn sur l’intervalle


[min fxi g ; max fxi g] appelé intervalle d’interpolation.
Pn s’appele polynômes d’interpolation de f en x0 ; x1 ; : : : ; xn .

Le problème posé sous sa forme générale peut avoir une in…nité de solu-
tions ou non avoir point. Toutefois, il existe une seule solution si on cherche
un polynôme Pn .

En e¤et, soit a0 ; a1 ; : : :; an les coe¢ cients d’un tel polynôme, i. e.

Pn (x) = a0 xn + a1 xn 1
+ : : : + an ;

comme Pn (xi ) = yi ; i = 0; n, on obtient le système suivant


8
>
> a0 xn0 + a1 x0n 1 + : : : + an = y0
>
< a0 x n + a1 x n 1 + : : : + an = y 1
1 1
..
>
> .
>
: a xn + a xn 1 + : : : + a = y ;
0 n 1 n n n

16
qui est un système linéaire de déterminant noté par V (x0 ; x1 ; : : ; xn ) et
donné par

xn0 x0n 1
x0 1
xn1 x1n 1
x1 1
.. .. .. ..
V (x0 ; x1 ; : : ; xn ) = . . . . 6= 0
.. .. . . . ..
. . .
xnn xnn 1
xn 1

appelé déterminant de Vandermonde et la matrice de ce système est


appelée matrice de Vondermonde..

V (x0 ; x1 ; : : ; xn ) 6= 0 car les xi sont distincts. Par conséquent, le


polynôme d’interpolation existe et il est unique.

3.4 Formule d’interpolation de Lagrange.


Essayons d’abord de résoudre le problème suivant :
8
< Construire un polynômeli (x) de degré n et tel que
0 : i 6= j (2.7)
: li (xj ) = ij =
1 : i = j:

où ij est le symbole de ronicker. Ces polynômes sont appelés les poly-


nômes de Lagrange.

On en déduit d’après (2.7) que chaque polynôme li (x) admet exactement


n racines, qui sont x0 ; ; xi 1 ; xi+1 ; ; xn , donc on peut écrire que

li (x) = ci (x x0 ) (x xi 1 )(x xi+1 ) (x xn ):

Comme

1 = li (xi ) = ci (xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn );

on a
1
ci = :
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )

17
Par conséquent
(x x0 ) (x xi 1 )(x xi+1 ) (x xn )
li (x) =
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )
ou encore
Yn
x xj
li (x) = : (2.8)
x
j=0 i
xj
j6=i

Passons maintenant à la résolution du problème générale, qui consiste à for-


mer le polynôme Pn véri…ant (2.6), noté par Ln (x) et qui est de la forme
X
n
Ln (x) = yi li (x) pour tout x 2 [min fxi g ; max fxi g]: (2.9)
i=0

X
n
On a deg Ln n et Ln (xj ) = yi li (xj ) = yj lj (xj ) = yj :
i=0
Ainsi
X
n Yn
x xj
Ln (x) = yi pour tout x 2 [min fxi g ; max fxi g]: (2.10)
i=0
x
j=0 i
xj
j6=i

Ln s’appelle le polynôme d’interpolation de Lagrange.

Exemple 3.4.1 Pour n = 1 nous avons 2 points x0 = a et x1 = b et la


formule de Lagrange dans ce cas est l’équation d’une droite y = L1 (x) qui
passe par les deux points (a; y0 ) et (b; y1 ), donnée par
x b x a
y= y0 + y1 : (2:11)
a b b a
Exemple 3.4.2 Pour n = 2 nous avons 3 points x0 = a; x1 = c et x2 = b et
la formule de Lagrange dans ce cas est l’équation d’une parabolle y = L2 (x)
qui passe par les trois points (a; y0 ) ; (c; y1 ) et (b; y2 ), donnée par
(x b) (x c) (x a) (x b) (x a) (x c)
y= y0 + y1 + y2 : (2:12)
(a b) (a c) (c a) (c b) (b a) (b c)
Remarque 3.4.3 Une fois la formule d’interpolation est obtenue, on l’utilise
dans le calcul approché des valeurs de f pour x 6= xi pour i = 0; 1; 2; ; n,
i. e. f (x) Ln (x) pour tout x 2 [min fxi g ; max fxi g].

18
3.5 Intrepolation d’Hermite.
L’utilisation de la formule d’interpolation de Lagrange s’avère peut com-
mode d’un point de vue pratique. D’autre part, l’expression des li (x) montre
qu’on peut di…cilement déduire un polynôme de Lagrange à partir d’un autre
polynôme de Lagrange. Immaginant que l’on connaisse le polynôme d’in-
terpolation Pn 1 (x) associés aux n points (xi ; yi ); i = 0; 1; ; n 1; et
qu’étant donné un point suplémentaire (xn ; yn ) on souhaite calculer Pn (x):
La formule d’interpolation de Lagrange faisant intervenir les polynômes li (x)
aux noeuds fxi gni=0 conduit au calcul de tous les polynômes (de degré n)
li (x); i = 0; 1; ; n:

La formule d’interpolation de Newton donne une autre alternative à la


détermination de Pn (x); bien moins couteuse en temps, en écrivant ce dernier
comme somme de Pn 1 (x) et d’un autre polynôme de degré inférieur ou égale
à n et qui dépend seulement des noeuds (points d’interpolation).

Nous allons à présent expliciter la formule de Newton en notant Pn (x)


par n (x): Posons pour cela

n (x) = n 1 (x) + qn (x)


où deg qn n:

Comme qn (xi ) = n (xi ) n 1 (xi ) = 0; pour tout i = 0; 1; ;n 1; on


a nécessairement
qn (x) = an : (x x0 ) (x x1 ) (x xn 1 ) :
Y1
n
Notons alors wn (x) = (x xi ) ; pour n 1; le polynôme de Newton
i=0
de degré n associé aux noeuds fxi gni=01 et déterminons le coe¢ cient an :

Comme n (xn ) = yn ; on en déduit que


yn n 1 (xn )
an = :
wn (xn )
Le coe¢ cient an donné par la formule ci-dessus est appelée la n-ième dif-
férence divisée de Newton et notée généralement
an = f [x0 ; x1 ; ; xn ]; n 1;

19

yi yj f (xi ) f (xj )
f [xi ; xj ] = = ; pour i 6= j;
xi xj xi xj
f [xi ; xj ] f [xj ; xk ]
f [xi ; xj ; xk ] = ; pour i 6= j 6= k et
xi xk
Xn
yi
f [x0 ; x1 ; ; xn ] = :
Y n
i=0
(xj xi )
j=0
j6=i

Nous avons par conséquent


n (x) = n 1 (x) + f [x0 ; x1 ; ; xn ]:wn (x):
Par convention nous pouvons écrire que f [xi ] = f (xi ) et w0 (x) = 1; pour
tout x; donc nous obtenons
X
n

n (x) = f [x0 ; x1 ; ; xi ] :wi (x);


i=0

appelée formule des di¤érences divisées de Newton du polynômes d’in-


terpolation d’ordre n.
Pour la mise en oeuvre de la formule de Newton on construit le tableau
des di¤érences divisées suivant
x0 f [x0 ]&
x1 f [x1 ] ! f [x0 ; x1 ]&
x2 f [x2 ] ! f [x1 ; x2 ] ! f [x0 ; x1 ; x2 ]&
x3 f [x3 ] ! f [x2 ; x3 ] ! f [x1 ; x2 ; x3 ] ! f [x0 ; x1 ; x2 ; x3 ]
.. .. .. .. .. ...
. . . . .
xn f [xn ] ! f [xn 1 ; xn ] ! f [xn 2 ; xn 1 ; xn ] ! f [xn 3 ; ; xn ] f [x0 ; ; xn ]
au sein du quel les di¤érences divisées sont disposées de manière à ce que
leur évaluation se fasse de proche en proche en observant la règle suivante :
La valeur d’une di¤érence divisée est obtenue en soustrayant à la di¤é-
rence placée immédiatement à sa gauche et celle située au dessus de cette
dernière, puis en divisant le résultat par la di¤érence entre les deux point de
fxi gni=0 situées respectivement sur la ligne de la di¤érence à calculer et sur la
ligne atteinte en remontant diagonalement dans le tableau à partir de cette
même di¤érence.

20
3.6 Erreur de l’interpolation.

Dans la pratique l’interpolation polynômiale sert à remplacer une fonc-


tion inconnue f par une fonction simple qui est un polynôme. On dit que
l’on approxime f par le polynôme d’interpolation. Il est fondamental alors,
d’étudier l’erreur de l’interpolation.

Théorème 3.6.1 Soit [a; b] un intervalle contenant les points x0 ; x1 ; ; xn .


On suppose que f est (n+1) fois dérivable sur ]a; b[. Alors pour tout x 2 [a; b]
il existe = x 2]a; b[ tel que

f (n+1) ( ) Y
n
En (x) = f (x) Pn (x) = (x xi ): (2:13)
(n + 1)! i=0

Dans ce cas
Mn+1 Y
n
jf (x) Pn (x)j jx xi j ; (2:14)
(n + 1)! i=0

où Mn+1 = max f (n+1) (x) .


[a;b]

21
Chapitre 4

Intégration numérique.

4.1 Introduction
Soit f une fonction dé…nie sur un intervalle [a; b]. Nous supposerons l’in-
tégrale dé…nie suivant
Zb
I = f (x)dx.
a

Il n’est pas toujours possible de connaître exactement la valeur de cette inté-


grale. En e¤et, on ne peut pas toujours trouver explicitement une primitive
de f , même dans le cas ou f est donnée par une formule analytique expli-
cite, encore moins si on ne connait que les valeurs de f en un nombre …ni de
points.
On se propose de chercher une approximation numérique de cette inté-
grale.

4.2 Approximation d’une intégrale dé…nie.


Nous voulons approcher la valeur de l’intégrale dé…nie

Zb
I= f (x)dx. (3.1)
a

Supposons que f soit connue en (n + 1) points x0 ; x1 ; ; xn . Nous allons

22
écrire que
X
n
I= i f (xi ) +R (3.2)
i=0
où les coe¢ cients i seront choisis de telle sorte que le reste R soit nul lorsque
f est d’un type déterminé.
Pour f quelconque on appellera la formule suivante
X
n
I t An = i f (xi ) (3.3)
i=0

formule de quadrature et dans ce cas An sera une valeur approchée de I si


R est su¢ sament petit. La question essentielle est de savoir si en augmentant
le nombre de points xi , on obtiendra une valeur de An de plus en plus proche
de I, plus précisément, a –t –on
X
n
lim An = lim i f (xi ) = I. (3.4)
n!+1 n!+1
i=0

La réponse est positive que sous certaines conditions sur les i et les xi .
Théorème 4.2.1 Lorsque f est continue sur [a; b], nous avons (3:4) si les
conditions suivantes sont véri…ées.
1) (3:4) est vrai pour tout polynôme P .
X n
2) j i j est bornée pour tout n.
i=0

4.3 Formules de quadrature de Newton–Côtes.


Dans ce paragraphe, nous allons supposer que les xi sont équidistants (i.e.
xi+1 xi = h = const) et que l’on a
x0 = a;
x1 = a + h;
..
.
xi = xi 1 + h = a + ih
..
.
xn = xn 1 + h = a + nh.

23
b a
Dans ce cas h = .
n
En interpolant f par des polynômes de degré m par morceaux, on obtient
les formules de quadrature de Newton–Côtes suivantes
Zb X
m
f (x)dx t (b a) Hi f (xi ) (3.5)
a i=0


Zm
( 1)m i q [m+1]
Hi = dq
i!(m i)!m q i
0
[m+1]
et q = q(q 1)(q 2) (q m), appelé puissance généralisée.

4.3.1 Méthode des trapèzes.


En interpolant f par un polynôme de degré 1 sur le sous intervalle [x0 ; x1 ]
(i.e. on remplace m par 1 dans (3.5)) on peut écrire que
Zx1
f (x)dx t h(H0 y0 + H1 y1 )
x0
avec
Z1 Z1
( 1)1 q [2]
H0 = dq = (q 1)dq = 1=2 et
0!1!1 q
0 0

1Z Z1
1
( 1) q [2]
H1 = dq = qdq = 1=2.
1!0!1 q 1
0 0

Donc
Zx1
h
f (x)dx t (y0 + y1 ).
2
x0
De la même manière nous pouvons écrire
Z
xi+1
h
f (x)dx t (yi + yi+1 ), pout tout i = 0; n 1.
2
xi

24
Zb n 1 Zi+1
X
x

Comme I = f (x)dx = f (x)dx, alors


a i=0 x
i

X
n 1
h
I t (yi + yi+1 )
i=0
2
h
= [(y0 + y1 ) + (y1 + y2 ) + (y2 + y3 ) (yn 2 + yn 1 )(yn 1 + yn )]
2
h
= [y0 + 2y1 + 2y2 + 2yn 1 + yn ]
2
Donc la formule des trapèzes est
b a h y0 y0 i
I= + y1 + y2 + + RT (3.6)
n 2 2
où RT est l’erreur commise par cette méthode véri…ant

h2
jRT j = (b a)f 00 ( ) ; 2]a; b[ (3.7)
12
nh3
max jf 00 (x)j
12 a x b
et dans ce cas on dit que l’erreur de la formule des trapèzes est d’ordre 2 en
h.

4.3.2 Méthode de Simpson (pour n = 2p).


En interpolant f par un polynôme de degré 2 sur le sous intervalle [x0 ; x2 ]
(i. e. on remplace m par 2 dans (3.5)) on peut écrire que
Zx2
f (x)dx t 2h(H0 y0 + H1 y1 + H2 y2 )
x0

25
avec
Z2 Z2
( 1)2 q [3] 1
H0 = dq = (q 1)(q 2)dq = 1=6;
0!2!2 q 4
0 0
Z2 Z2
( 1)1 q [3]
H1 = dq = q(q 2)dq = 2=3 et
1!1!2 q 1
0 0
Z2 Z2
( 1)0 q [3]
H2 = dq = q(q 1)dq = 1=6.
2!0!2 q 2
0 0

D’où
Zx2
h
f (x)dx t (y0 + 4y1 + y2 ).
3
x0

En sommant nous obtiendrons pour n = 2p


x2(i+1)
Zb p 1 Z
X
I = f (x)dx = f (x)dx
a i=0 x2i
h
t (y0 + 4y1 + y2 ) + (y2 + 4y3 + y4 ) + (y4 + 4y5 + y6 ) + (y2(p 1) + 4y2p 1 + y2p )
3
h
= y0 + 4 (y1 + y3 + y2p 1 ) + 2 y2 + y4 + y2(p 1) + y2p
3
h
= [y0 + 4 (y1 + y3 + yn 1 ) + 2 (y2 + y4 + yn 2 ) + yn ] .
3
En posant 1 = y1 + y3 + yn 1 et 2 = y2 + y4 + yn 2 on obtient la
formule de Simpson suivante
h
I= [y0 + 4 1 +2 2 + y n ] + RS (3.8)
3
où RS est l’erreur commise par cette méthode avec
(b a)5 (4) (b a)h4
jRS j 4
max f (x) = max f (4) (x) (3.9)
180n a x b 180 a x b
et dans ce cas on dit que l’erreur de la formule de Simpson est d’ordre 4 en
h.

26
4.4 Formule de Quadrature de Gauss. (Hors
programme)
Dé…nition 4.4.1 On appele polynômes de Legendre les expressions de la
forme
1 dn
Pn (x) = n (x2 1)n ; n 0 (3.10)
2 n! dxn
Voici les propriétés fondamentales de ces polynômes
1) Pn (1) = 1; Pn ( 1) = ( 1)n pour tout n 0.
2) deg Pn = n pour tout n 0:
Z1 Z1
k
3) x Pn (x)dx = 0, k < n , Pm (x)Pn (x)dx = 0 pour tout m 6= n: On dit
1 1
dans ce cas que ces polynômes sont orthogonaux par rapport à la fonction
Zb
poids w (x) = 1(i.e. Pm (x)Pn (x)w(x)dx = kn mn ).
a
4) Le polynôme de Legendre Pn (x) possède n racines distintes et réelles com-
prise entre [ 1; 1].
On cite ci–dessous les 5 premiers polynômes

P0 (x) = 1;
P1 (x) = x;
P2 (x) = 1=2(3x2 1);
P3 (x) = 1=2(5x3 3x) et
P4 (x) = 1=8(35x4 30x2 + 3).

Considérons d’abord que la fonction y = f (t) est dé…nie sur [ 1; 1]. Le


problème est de trouver une formule de quadrature (i.e trouver les Ai et les
ti ) de la forme
Z1 X
n
f (t)dt t Ai f (ti ) (3.11)
1 i=1

qui soit exacte pour tout polynômes dont le degré est le plus grand possible.

27
En on déduit alors que pour résoudre ce problème il su¢ t de déterminer
les ti et les Ai à partir du système d’équations suivant
Z1 ( 2
X n
; k pair
Ai tki = tk dt = k+1 ; ; k = 0; ; n 1,
i=1 1
0 ; k impair
où les ti sont les zéros du polynôme de Legendre de degré n.
D’où 8 n
> X
>
> Ai = 2
>
>
>
>
>
>
i=1
>
> X n
>
> ti1 Ai = 0
>
>
>
< i=1
X n
(3.12)
>
> t2i Ai = 2=3
>
>
>
> i=1
>
> X n
>
> t3i Ai = 0
>
>
>
>
>
>
i=1
: ..
.
La formule obtenue ainsi, est appelée formule de quadrature de Gauss
à n coordonnées.
Pour f dé…nie sur un intervalle quelconque [a; b], on considère le change-
ment de variable suivant
b a b+a
x= t+ , pour tout t 2 [ 1; 1],
2 2
qui transforme l’intervalle [ 1; 1] à [a; b]. Donc on peut écrire que
Zb Z1
b a b a b+a
f (x)dx = f t+ dt, (3.13)
2 2 2
a 1

par conséquent la formule de quadrature de Gauss sur [a; b] est donnée par
Zb
aX
n
b
f (x)dx t Ai f (xi )
2 i=1
a

b a b+a
où xi = ti + , pour tout i = 1; n
2 2

28
Chapitre 5

Résolution des systèmes


d’équations linéaires -
Méthodes directes.

5.1 Introduction.
Dans ce chapitre, on se propose d’étudier quelques méthodes permet-
tant de résoudre les systèmes de n équations à n inconnues de la forme
8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a21 x1 + a22 x2 + + a2n xn = b2
.. (4.1)
>
> .
>
: a x +a x +
n1 1 n2 2 +a x =b :
nn n n

Soient A = (aij ) 2 Mn (R) (l0 ensemble des matrices carrées d0 ordre n à élé-
ments dans R), B le vecteur de composantes (b1 ; b2 ; ; bn ) et X le vecteur
inconnu de composantes (x1 ; x2 ; ; xn ). Résoudre le système (4.1) revient
alors a résoudre l’équation matricielle

AX = B: (4.2)

Pour résoudre ce genre de système, la première idée qui nous vient à

29
l’esprit est l’utilisation des formules de Cramer données par

a11 : : : a1;i 1 b1 a1;i+1 : : : a1n


a21 : : : a2;i 1 b2 a2;i+1 : : : a2n
1 .. .. .. .. ..
xi = . . . . . : (4.3)
det A .. .. .. .. ..
. . . . .
an1 : : : an;i 1 bn an;i+1 : : : ann

Il en résulte que pour la résolution du système (4.1) par ces formules nécessite
au total TCramer = (n + 1)2 n! 1 opérations élémentaires, par exemple pour
n = 5, on a TCramer = 4319 et pour n = 10, on a TCramer v 4:108 :
Dans ce cas, elle devient trés lente en temps d’execution (de calculs) dés
que n dépasse 4.
Une autre méthode consiste à calculer la matrice inverse de A, c’est–à–
dire :
A 1 A X = A 1 B d’où X = A 1 B: (4.4)
Pour cela on utilise au total TInverse = n!(n2 + n + 1) + 3n2 n opérations
élémentaires, par exemple pour n = 5, on a TInverse = 3790 et pour n = 10,
on a TInverse v 4:108 :
Cette méthode n’est donc pas plus avantageuse que la première.
Dans ce chapitre, nous fairions appelle à des méthodes numériques ayant
des temps de calcul acceptables et dont lee nombre d’opératons est d’ordre
n3 . Ces métodes peuvent être :
- Directes qui sont utilisées seulement si le nombre d’équations n’est pas
trop élevé (n 100):

- Iteratives qui sont utilisées dès que la taille du système est grande (n
100), ce qui ne les empèches pas d’être également utiles pour des petits
systèmes.

Dé…nition 5.1.1 On appelle méthode directe de résolution du système (1),


une méthode qui aboutit à la solution exacte du problème au bout d’un
nombre …ni d’opérations arithmétiques, en fonction de la dimension du
système.

Si la matrice A du système (4.1) est triangulaire, sa résolution est immé-


diate. En e¤et, si A est triangulaire supérieure, le système (4.1) peut s’écrire

30
sous la forme suivante
8
>
> a11 x1 + a12 x2 + : : : + ain xi + : : : a1n xn = b1
>
> a22 x2 + : : : + ai2 xi + : : : a2n xn = b2
>
>
>
< .. .. .. .. ..
. . . . .
(4.5)
>
> aii xi + : : : ain xn = bi
>
> . . . .. .. ..
>
> . . .
>
:
ann xn = bn

puisque nous supposons A inversible, alors det A 6= 0, c’est–à–dire aii 6= 0


pour tout i = 1; : : :; n, et l’algorithme de résolution s’écrira
8
< xn = bn =ann n
> !
X 1 (4.6)
: x i = bi
> aij xj
aii
:
j=i+1

Et si A est triangulaire inférieure, le système (4.1) peut s’écrire sous la forme


suivante
8
>
> a11 x1 = b1
>
> a21 x1 + a22 x2 = b2
>
>
>
< .. ... .. ..
. . .
(4.7)
>
> ai1 x1 + ai2 x2 + : : : + aii xi = bi
>
> .. .. .. ... .. ..
>
> . . . . .
>
:
an1 x1 + an2 x2 + : : : + ani xi + : : : +ann xn = bn

dans ce cas l’algorithme de résolution devient


8
< x1 = b1 =a11 i 1
> !
X 1 (4.8)
: x i = bi
> aij xj
aii
:
j=1

pour cela on utilise au total n2 opérations élémentaires.

Mais si A est quelconque, on doit chercher une matrice M inversible telle


que le produit M:A soit triangulaire. On résoud alors le nouveau système
M:A X = M:B par l’algorithme (4.6) ou (4.8).

31
5.2 Méthode de l’élimination de Gauss.
Théorème 5.2.1 Théorème de Gauss. Etant donnée une matrice carrée
A, il existe une matrice inversible M , telle que la matrice A0 = M:A soit
triangulaire supérieure.
La méthode de Gauss transforme le système (4.1) en un système triangu-
laire équivalent au système (4.5), à l’aide d’un algorithme d’élimination en
utilisant seulement les trois opérations élémentaires suivantes :

1. Opération (li li ) : remplacer la ligne i par un multiple d’elle même.

2. Opération (li lj ) : intervertir la ligne i et la ligne j.

3. Opération (li li + lj ) : remplacer la ligne i par la ligne i plus un


multiple de la ligne j.

Ces 3 opérations élémentaires sont permise, car elle nous permettent d’ob-
ternir un système triangulaire équivalent au système (4.1) (i. e. ayant la même
solution).

Exemple 5.2.2 Voir au cours.


Remarque 5.2.3 Il peut arriver que lors de l’élimination, dans l’ordre na-
turelle des lignes, un pivot soit nul, en outre pour des raisons de stabilité, on
(k)
a intérêt, à chaque étape d’élimination à choisir le pivot telle que akk soit
le plus grand possible. C’est la méthode de Gauss à un pivot partiel.
La méthode de l’élimination de Gauss consiste à éliminer tous les termes
sous la diagonale de la matrice A en utilisant au total TGauss = (4n3 + 9n2 7n) =6
opérations élémentaires, par exemple pour n = 5; TGauss = 115 et pour
n = 10; TGauss = 805. Ce qui montre l’énorme amélioration que cette mé-
thode apporte par rapport aux deux autres méthode.
Remarque 5.2.4 La méthode de Gauss permet de calculer le déterminant
de la matrice A, et ceci en utilisant le faite que
Y
n
(k)
det A = ( 1)p akk ; (4.9)
k=1

où p est le nombre de permutations.

32
Algorithme de Gauss
1- Triangularisation

w = aik =akk
(i) (4.10)
aij = aij w:akj
pour j = k + 1; : : : ; n + 1, i = k + 1; : : : ; n et k = 1; : : : ; n 1:

2- Résolution
!,
(n)
X
n
(n) (n)
xi = bi aij xj aii : (4.11)
j=i+1

5.3 Méthode de Jordan.


Théorème 5.3.1 Théorème de Jordan. Soit A = (aij ) 2 Mn (R). Alors il
dxiste des matrice S telle que la matrice D = S:A soit diagonale d’ordre n.

La méthode de Jordan consiste donc, à transformer le système (1) en un


système à matrice diagonale DX = B 0 , X = D 1 B 0 :

Algorithme de Jordan
Transformation (A=B) v I=D 1 B 0
(
(k) (k 1) (k 1)
akk = akj =akk ; j = k + 1; : : : ; n + 1
(k) (k 1) (k 1) (k) (12)
aij = aij aik :akj ; j = k + 1; : : : ; n + 1
pour i et k = 1; : : : ; n et i 6= k:

Remarque 5.3.2 On peut calculer la matrice inverse de A par cette méthode


et ceci en écrivant (A=I) v I=A 1 :

5.4 Méthode de décomposition LU:


Ces méthodes consiste à décomposer la matrice A en écivant A = L:U ,
ou L est une matrice triangulaire inférieure et U est une matrice triangulaire
supérieure. Le sytème (4.1) s’écrit alors

AX = B , L (U X) = B; (4.13)

33
qui peut se décomposer en 2 systèmes trangulaires

LY = B
(4.14)
U X = Y:

Théorème 5.4.1 Une condition nécessaire et su¢ sante pour qu’une matrice
inversible A puisse se décomposer sous la forme A = L:U est que

det Ak 6= 0, pour tout k = 1; : : : ; n 1;

avec Ak = (aij )ki;j=1 (i.e. les mineurs sont tous non nuls)

Remarque 5.4.2 Il faut souligner que la décomposition LU n’est pas unique,


donc il faut faire au préalable des choix arbitraires. Les deux choix les plus
populaires consistent à imposer que la matrice U ait des 1 sur la diagonale
(décomposition de Crout) ou bien que la matrice L ait des 1 sur la diagonale
(décomposition de Doolittle).

Algorithme de Doolittle.

8
>
> lii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< urj = arj lrk ukj j = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.15)
>
>
>
> X
r 1
>
>
: lir = air lik ukr urr i = r + 1; : : : ; n r = 1; : : : ; n
k=1

Algorithme de Crout.

8
>
> uii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< lir = air lik ukr i = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.16)
>
>
>
> X
r 1
>
>
: urj = arj lrk ukj lrr j = r + 1; : : : ; n r = 1; : : : ; n
k=1

34
Remarque 5.4.3 Le déterminant de la matrice A peut–être calculer aisé-
ment, en e¤et,
det A = det L: det U
pour la méthode de Doolittle comme det A = 1, on a
Y
n
det A = det U = ukk
k=1

et pour la méthode de Crout comme det U = 1, on a


Y
n
det A = det L = lkk :
k=1

5.5 Décomposition de Cholesky.


Théorème 5.5.1 Théorème de Cholesky. Si A est une matrice symé-
trique dé…nie positive, alors elle peut se décomposer sous la forme

A = L:LT

ou L est une matrice réelle triangulaire inférieure.

Dé…nition 5.5.2 Une matrice A est dite dé…nie positive si

hAx; xi > 0 , pour tout vecteur x 2 Rn

ou h:; :i désigne le produit scalaire dans Rn , c’est –à–dire que pour tout x et
Xn
n
y dans R on a hx; yi = xi yi :
i=1

Supposant que A est une matrice symétrique dé…nie positive, alors on a

LY = B
AX = B , L: LT X = B , (4.17)
LT X = Y:

Le problème consiste donc à construire explicitement la matrice L:

35
L’algorithme de factorisation

8 v
> u
>
> u X
r 1
>
> l = tarr 2
lrk ; r = 1; : : : ; n
< rr
k=1 (4.18)
!
>
> X
r 1
>
>
>
: ljr = arj lrk lkj =lrr ; j = r + 1; : : : ; n et r = 1; : : : ; n
k=1

La méthode de Cholesky utilise


8 3
< (n + 6n2 7n) =6 additions et soustractions
n2 + 3n=2 divisions
:
n racines carrées,
soit au total TCholesky = (2n3 + 15n2 + n) =6 opérations élémentaires, par
exemple pour n = 5; TCholesky = 105 et pour n = 10; TCholesky = 585.

Remarque 5.5.3 Si la matrice A n’est pas dé…nie positive, alors on a au


2
moins un des lkk < 0.

36
Chapitre 6

Résolution des systèmes


d’équations linéaires -
Méthodes itératives.

6.1 Introduction
Dans ce chapitre on considère le système (4.2) qui est un système d’équa-
tions linéaires d’ordre N . Nous avons vu que pour résoudre numériquement
ce système, il su¢ t de procéder à une élimination de Gauss avec ou sans
changement de pivot, ou eventuellement, de procéder à une décomposition
LU de A (ou LLT si A est symétrique dé…nie positive), puis résoudre deux
systèmes triangulaires.

Dans le cas ou la matrice A est pleine, le nombre d’opérations nécessaires


à la mise en oeuvre de ces algorithmes est de l’odre N 3 ; ce qui peut être
énorme lorsque N est grand. Dans ces conditions il devient beaucoup plus
commode de rechercher les racines de ce système en utilisant les méthodes
numériques approchées dites méthodes itératives.

Le principe de ces méthodes est de construire une suite de vecteurs


x ; x(1) ; :::; x(n) ; :::; dé…nie par
(0)

x(0) vecteur initial


(5.1)
x(n+1) = Bx(n) + C

37
ou B esty une matrice d’ordre N N dite matrice d’itération et C est un
vecteur de RN telle que

lim x x(n) = 0: (5.2)


n!1

On dit dans ce cas que la suite x(n) converge vers la la solution exacte de
systèe (4.1) et on peut ecrire

x = Bx + C:

Donc cette équation est du type point …xe.


Remarquons au passage que les indices i de x(i) sont placés en haut du
symbole x pour ne pas le confondre la i-ième composante xi :

Remarque 6.1.1 L’utilisation pratique de ces méthodes nécéssite non seule-


ment la convergence,mais aussi que cette convergence ne soit pas trop lente.

6.2 Les méthodes itératives.


Les méthodes de décomposition sont un premier exemple des méthodes
itératives. Supposons que l’on est décomposé A en une di¤erence de deux
matrices carrée d’ordre N; K et M , c’est à dire

A=K M (5.3)

Si K est une matrice régulière, nous pouvons transformer (4.1) en utilisant


(5.3) de la façon suivante :

(K M ) x = b () Kx = M x + b

soit encore
1 1
x=K Mx + K b (5.4)
1 1
et dans ce cas on peut prendre B = K M et C = K b. Donc (5.1) devient

x(0) valeur initiale donnée


(5.5)
x(n+1) = K 1 M x(n) + K 1 b
Nous ferons en sorte que la décomposition (5.3) donne lieu à une matrice
K telle que le système (5.5) soit facile à résoudre, ce qui est par exemple le

38
cas si K est diagonale ou triangulaire. Pour cela écrivons la matrice A sous
la forme
A = D E F; (5.6)
où D est la matrice diagonale formée des éléments (aii )1 i N, E est la
matrice formée des éléments sous-diagonaux de A
0 1
0 0 ::: ::: 0
B a21 0 ::: 0 C
B .. C
B ..
. C
E = B a31 a32 0 . C
B . ... ... C
@ .. 0 A
aN 1 aN 2 : : : aN (N 1) 0
et F est la matrice formée des éléments surdiagonaux de A,
0 1
0 a12 : : : : : : a1N
B 0 0 a23 a2N C
B . C
B . . . . . . .. C
F = B .. . C
B . . .. C
@ .. .. . 0 a(N 1)N A
0 0 ::: 0

Schèmatiquement nous avons


0 1
: : : : :
B : : : F : C
B C
A=B B : : D : : C
C
@ : E : : : A
: : : : :

Si nous supposons que aii 6= 0 pour tout i = 1; 2; :::; N; alors D et (D E)


sont régulières et nous pouvons choisir par exemple K = D ( méthode de
Jacobi ) ou K = D E ( méthode de Gauss –Seidel ).

6.3 Convergence des méthodes itératives


Dé…nition 6.3.1 On dit que la méthode (le processus) itérative (5:1) converge
pour tous vecteur C si (5:2) est véri…ée pour toute valeur initiale x(0) :

39
Dé…nition 6.3.2 Soit A est une matrice carrée d’ordre m; on appele rayon
spectral de A la quantité suivante :
% (A) = max j j j
1 j m

où 1; 2 ; ::: m sont les valeurs propres de la matrice A


Nous donnons sans démonstration les résultats suivants :
Théorème 6.3.3 La méthode itérative (5:2) converge si % (B) < 1.
Théorème 6.3.4 Si A est une matrice symétrique alors
kAxk
% (A) = kAke = max
x6=0 kxk
s
X
m
où kxke = x2i est la norme matricielle induite de la norme vectorielle
i=1
euclidienne.
Dé…nition 6.3.5 Soit A = (aij )ni;j=1 est une matrice carrée d’ordre m; alors
on peut dé…nir les normes matricielles suivantes
Xm
kAkc = max jaij j ; (5.7)
i
j=1

X
m
kAkl = max jaij j (5.8)
j
i=1
et v
uX
u m X
m
kAkr = t a2ij (5.9)
i=1 j=1

Théorème 6.3.6 Si pour une morme matricielle donnée on a kBk < 1 alors
la métgode itérative (5:1) est convergente.
Dé…nition 6.3.7 Soit A = (aij )ni;j=1 est une matrice carée d’ordre m. On
dit que A est une matrice à diagonale strictement dominante si
X X
jaii j > jaij j ou jajj j > jaij j :
j6=i i6=j

Théorème 6.3.8 Si la matrice A du système (4:2) est à diagonale stricte-


ment dominante alors toute méthode itérative de résolution est convergente.

40
6.4 Méthode de Jacobi
Revenons aux relation (5.3) et (5.6). Si on pose K = D et M = E + F;
on peut ecrire le système (4.1) comme suit :
X X
aii xi = bi aij xj aij xj ; pour tout i = 1; 2; N:
j<i j>i

Donc on peut écrire la relation (5.5) composante par composante de la ma-


nière suivante :
0 1
1 B X C
(n+1)
xi = Bb i aij xj C
(n)
; 1 i N: (5.10)
aii @ j=1
A
j6=i

(n+1)
Cette relation permet de calculer explicitement les composantes xi ;i =
(n+1) (n)
1; 2; :::; N; du vecteur x à partir des composantes xi ; i = 1; 2; :::N; du
(n)
vecteur x : La matrice J dé…nie par
1
J =K M = D 1 (E + F )
est appelée matrice de Jacobi.

6.4.1 Estimation de l’erreur de la méthode de Jacobi.


L’estimation de l’erreur dû à la méthode de Jacobi véri…e
kJkn
x x(n) x(1) x(0) (5.11)
1 kJk

6.5 Méthode de Gauss –Seidel


En posant K = D E et M = F; le système (5.1) prend la forme
(D E) x(n+1) = F x(n) + b
qui est un système triangulaire inférieur pour l’inconnue x(n+1) : Donc on peut
écrire

(n+1)
X
i 1
(n+1)
X
N
(n)
aii xi + aij xj = bi aij xj ; pour tout i = 1; 2; N:
j=1 j=i+1

41
Par conséquent la relation (5.5) sera écrite composante par composante de
la manière suivante :
!
(n+1) 1 X (n+1)
X (n)
xi = bi aij xj aij xj ; 1 i N: (5.12)
aii j<i j>i

(n)
Si les composantes (xi )1 i N du vecteur x(n) sont connues, les relations
(n+1) (n+1)
(5.12) permettent de calculer successivement x1 ; x2 ; :::; de la manière
suivante :
8 Pn
>
> x1
(n+1)
= a111
(n)
>
> j=2 a1j xj + b1
>
> Pn
< x(n+1) = 1 (n+1)
a21 x1
(n)
2 a22 j=3 a2j xj + b2
> (n+1) (n+1) (n+1) Pn (n)
>
> x3 = a133 a31 x1 a32 x2 j=4 a3j xj + b3
>
>
>
: ...

La matrice G dé…nie par


1
G=K M = (D E) 1 F
est appelée matrice de Gauss-Seidel.
Remarque 6.5.1 A priori la méthode de Gauss-Seidel devrait être plus per-
formante que la méthode de Jacobi puisqu’on tient compte au fur et à mesure,
(n+1)
des valeurs xi déjà calculées.

6.5.1 Estimation de l’erreur de la méthode de Gauss


–Seidel.
Si on écrit G = (gij )N
i;j=1 ; alors l’estimation de l’erreur dû à la méthode
de Gauss –Seidel véri…e
n
x x(n) x(1) x(0) (5.13)
1

X
N
jgij j
j=i
= max :
0 i N X
i 1
1 jgij j
j=1

42
Exemple 6.5.2 On considère le système
8 0 10 1 0 1
>
> 5x 1 x 2 x 3 x 4 = 4 5 1 1 1 x1 4
< B 1 10 C B x2 C B 12 C
x1 + 10x2 x3 x4 = 12 1 1
,B@ 1
CB C B
A @ x3 A = @ 8
C
A
>
> x 1 x 2 + 5x 3 x 4 = 8 1 5 1
:
x1 x2 x3 + 10x4 = 34 1 1 1 10 x4 34
dont la solution est x = (1; 2; 3; 4)t :
(a) Méthode de Jacobi :
La matrice de Jacobi est J = K 1 M = D 1 (E + F ); où
0 1 0 1 0 1
5 0 0 0 0 0 0 0 0 1 1 1
B 0 10 0 0 C B 1 0 0 0 C B 0 0 1 1 C
D=B C
@ 0 0 5 0 A; E = @ 1 1
B C et F = B C
0 0 A @ 0 0 0 1 A
0 0 0 10 1 1 1 0 0 0 0 0
et l’algorithme de Jacobi est x(p+1) = J:x(p) + D 1 b:
0 10 1
1=5 0 0 0 0 1 1 1
B 0 1=10 0 0 C B 1 C
D 1 (E + F ) = B CB 1 0 1 C
@ 0 0 1=5 0 A@ 1 1 0 1 A
0 0 0 1=10 1 1 1 0
0 1
0 1=5 1=5 1=5
B 1=10 0 1=10 1=10 C
= B @ 1=5 15
C:
0 1=5 A
1=10 1=10 1=10 0
Donc l’algorithme devient
0 (p+1) 1 0 1 0 (p) 1 0 1
x1 0 1=5 1=5 1=5 x1 4=5
B (p+1) C B B C B
1=10 C C B 12=10 C
(p)
B x2 C 1=10 0 1=10 CB x2
B (p+1) C = B B C+@ C;
@ x3 A @ 1=5 15 0 1=5 A @ x(p)
3 A 8=5 A
x4
(p+1) 1=10 1=10 1=10 0 (p)
x4 34=10
ou encore 8
> (p+1) 1 (p) (p) (p)
>
> x1 = x2 + x3 + x4 4
>
> 5
>
> 1
< x(p+1)
2 =
(p) (p)
x1 + x3 + x4 + 12
(p)
10
> (p+1) 1 (p) (p) (p)
>
> x3 = x1 + x2 + x4 + 8
>
> 5
>
>
: x(p+1) = 1 (p) (p) (p)
x1 + x2 + x3 + 34 :
4
10
43
(F) La convergence de cette méthode.
La méthode itérative x(n+1) = Bx(n) + C converge si pour une norme
matricielle donnée on a kBk < 1:
X
4
kJk = max jjnm j = max f3=5; 3=10g = 3=5 < 1
n
m=1

donc la méthode de Jacobi converge.


On peut aussi utiliser le Théorème 6:3:8:
(F) Les itérations
En partant de l’approximation initiale x(0) = (0; 0; 0; 0)t ; on obtient les
itérations suivantes :
p 0 1 2 3 4 5
(p)
x1 0 0:8 0:44 0:716 0:8828 0:947448
(p)
x2 0 1:2 1:62 1:84 1:929 1:96912
(p)
x3 0 1:6 2:36 2:732 2:8796 2:948412
(p)
x4 0 3:4 3:6 3:842 3:9288 3:96914:

(b) Méthode de Gauss –Seidel :


1
La matrice de Gauss – Seidel est G = (D E) F:
0 1
5 0 0 0
B 1 10 0 0 C
D E=B @ 1
C;
1 5 0 A
1 1 1 10
alors en utilisant la méthode de Jordan on obtient
0 1
1=5 0 0 0
B 1=50 1=10 0 0 C
(D E) 1 = B @ 11=250
C:
1=50 1=5 0 A
33=1250 3=250 1=50 1=10
Donc
0 1
0 1=5 1=5 1=5
B 0 1=50 3=25 3=25 C
G = (D E) 1 F = B
@ 0 11=250 8=125
C
3=125 A
0 33=1250 24=625 75=1250

44
(F) La convergence de cette méthode.
kGk = 3=5 < 1 ) la convergence de la méthode de Gauss – Seidel.
(F) L’algorithme de Gauss –Seidel .
L’algorithme de cette méthode est
(D E) x(p+1) = F x(p) + b;
ou encore
0 1 0 (p+1) 1 0 1 0 (p) 1 0 1
5 0 0 0 x1 0 1 1 1 x1 4
B 1 10 0 B (p+1) C B B (p) C B
B 0 C CB x2 C B 0 0 1 1 C C B x2 C B 12 C C;
@ 1 B C = B C+@
1 5 0 A @ x3 (p+1)
A @ 0 0 0 1 A @ x(p) 3 A 8 A
1 1 1 10 x4
(p+1) 0 0 0 0 x4
(p) 34
ou encore 8 (p+1) (p) (p) (p)
>
> 5x1 = x2 + x3 + x4 4
>
< (p+1) (p+1) (p) (p)
x1 + 10x2 = x3 + x4 + 12
(p+1) (p+1) (p+1) (p)
>
> x1 x2 + 5x3 = x4 + 8
>
: (p+1) (p+1) (p+1) (p+1)
x1 + x2 + x3 + 10x4 = 34:
Par conséquent on obtient
8
> (p+1) 1 (p) (p) (p)
>
> x1 = x2 + x3 + x4 4
>
> 5
>
> 1
< x(p+1)
2 = x1
(p+1) (p)
+ x3 + x4 + 12
(p)
10
> (p+1) 1 (p+1) (p+1) (p)
>
> x3 = x1 + x2 + x4 + 8
>
> 5
>
>
: x(p+1) = 1 x(p+1) + x(p+1) + x(p+1) + 34 :
4
10 1 2 3

Alors en partant de l’approximation initiale x(0) = (0; 0; 0; 0)t on on btient


les résultats suivant
p 0 1 2 3 4
(p)
x1 0 0:8 0:47648 0:889130752 0:97700051
(p)
x2 0 1:12 1:7773888 1:956089651 1:990591378
(p)
x3 0 1:664 2:7697536 2:949446513 2:989411716
(p)
x4 0 3:3:5984 3:90201216 3:979466692 3:99570036:
En comparant les results des deux méthodes avec la valeur exacte de la
solution, on peut dire que la méthode de Gauss – Seidel est plus précise que
la méthode de Jacobi.

45
Chapitre 7

Résolution numérique des


équations di¤érentielles
ordinaires du premier ordre.

7.1 Introduction.
Dans ce chapitre on s’intéresse aux équations di¤érentielles ordinaires du
premier ordre de la forme
8
< Trouver la fonction y 7! y(x) telle que
>
dy
(Pr) = f (x; y); pour tout x 2 [a; b] (P)
>
: dx
y(a) = y0 donné.

Les problémes di¤éretielles de ce type sont appelés problèmes de Cauchy


ou problémes à valeur initiale.
Si f est une fonction continue véri…ant une condition de Lipschitz (fonc-
tion lipschitzienne) par rapport à la deuxième variable y; i. e.

9M > 0 telle que 8x 2 [a; b]; 8y1 ; y2 on ait jf (x; y1 (x)) f (x; y2 (x))j jy1 (x) y2 (x)j ;

alors le problème (Pr) admet une solution unique y pour toute valeur initiale
y0 . On dit, dans ce cas, que ce problème est bien posé.

En pratique, il s’est avéré qu’il était impossible de trouver les solutions


exactes de certains problèmes bien posés du point de vue théorique. Pour cela,

46
il devient plus commode de chercher des solutions approchées, en utilisant
les méthodes numériques conçues pour ce type de problèmes.
Comme les ordinateurs ne peuvent fournir qu’un nombre …ni de résultats,
c – à – d, qu’on ne peut pas avoir des valeurs approchées de la solution y
du problème (P) sur tout l’intervalle [a; b]. Tous commence donc par un
choix préalable d’un nombre …ni de points xi 2 [a; b]. Ceci s’appelle une
discrétisation ou un maillage du domaine (ici c’est le segment [a; b]). On
limitera donc le calcul au calcul approché de la solution en ces points.
On va cité dans ce chapitre quelques méthodes (schémas) d’intégration
à un pas, c–à–d, les méthodes qui nous permettent de calculer la valeur
approchée de la solution au point xi+1 ; notée yi+1 = y (xi+1 ) ; en fonction de
la valeur appopchée de la solution au point xi notée yi = y (xi ).

7.2 Méthode d’Euler.


Discrétisant l’intervalle [a; b] à l’aide des points équidistants a = x0 <
x1 < < xn = b, où xi+1 xi = h pour tout i = 0; 1; ; n 1 et
b a
h= .
n
dy
En intégrant par rapport à x les deux cotés de l’equation = f (x; y)
dx
sur l’intervalle [xi ; xi+1 ], on obtient
Z
xi+1 Z
xi+1

y (xi+1 ) y (xi ) = yi+1 yi = dy = f (x; y(x)) dx;


xi xi

alors, en utilisant la formule de quadrature des réctangles (ou on interpole


f par rapport à la variable x par un polynôme constant sur chaque sous
intervalle [xi ; xi+1 ]) suivante
Zb
g(x)dx t (b a)g( )
a

a+b
où = a ou b ou , on obtient en remplaçant par a; la formule
2
d’Euler explicite suivante
yi+1 = yi + hf (xi ; yi ) (6.1)

47
et si on remplace par b; on obtient la la formule d’Euler implicite
suivante
yi+1 = yi + hf (xi+1 ; yi+1 ) : (6.2)

Géomètriquement, la méthode d’Euler explicite revient à remplacer loca-


lement en chaque point xi ; la courbe solution par sa tangente. ainsi on va
réunir sur le plan des cordonnées les points (x0 ; y0 ) ; (x1 ; y1 ) ; ; (xn ; yn ) par
des segment de droites pour obtenir une ligne brisée qui est la représenta-
tion approchée de la courbe d’intégrale. Cette ligne brisée est appelée ligne
brisée d’Euler.

Remarque 7.2.1 On peut démontrer que si (Pr) admet une solution unique
y pour toute valeur initiale y0 ; la méthode d’Euler explicite converge, c–à–d
que si on note la solution approchée de ce problème correspondant au pas h
par yh on obtient
lim [yh (x) y (x)] = 0 pour tout x 2 [a; b]
h!0

et que l’erreur R = yh (x) y (x) est d’ordre 1 en h; i. e.


yh (x) y (x)
yh (x) y (x) = o (h) () lim = 0:
h!0 h

7.3 Méthodes de Runge –Kutta.


Les méthodes de Runge – Kutta sont les généralisations de la méthode
d’Euler à des ordres supérieurs à un. Elles s’obtiennent à partir des formules
d’intégrations numériques plus précises que la formule des rectangles.

En e¤et, l’utilisation de la formule des trapèzes


Z
xi+1
h
g(x)dx t [g(xi ) + g(xi+1 )]
2
xi

nous conduit à la méthode (schéma) suivante


(
y0 , valeur initiale donnée
h (6.3)
yi+1 = yi + [f (xi ; yi ) + f (xi+1 ; yi+1 )] :
2
48
Cette méthode est une méthode implicite. Si on veut obtenir une méthode
explicite du même ordre, on peut procéder de la manière suivante
8
< y0 , valeur initiale donnée
>
yi+1 = yi + hf (xi ; yi ) (6.4)
>
: y = y + h f (x ; y ) + f x ; y
i+1 i i i i+1 i+1 :
2
On obtient ainssi la formule de Runge –Kutta d’odre 2.

De même, l’utilisation de la formule d’intégration numérique de Simpson


est à la base de la formule de formule de Runge –Kutta d’odre 4. C’est
l’une des formules les plus utilisées, elle s’écrit
8
> y0 , valeur initiale donnée
>
>
>
> k1 = hf (xi ; yi )
>
>
>
> h k1
>
> k = hf x + ; y +
>
>
2 i
2
i
2
<
h k2 (6.5)
> k3 = hf xi + ; yi +
>
> 2 2
>
> h k3
>
> k4 = hf xi + ; yi +
>
>
>
> 2 2
>
>
: yi+1 = yi + 1 [k1 + 2k2 + 2k3 + k4 ] :
6

49

Вам также может понравиться