Вы находитесь на странице: 1из 203

ESTIA 1eAnne - Mathmatiques

Cours dalgbre linaire


Edition 2008
Xavier Dussau, Jean Esterle, Fouad Zarouf et Rachid Zarouf
26 novembre 2008

I.Harlouchet-en eskuhartzearekin

Introduction
Ce cours dalgbre linaire se compose de 9 Chapitres. Dans le premier Chapitre on rappelle la dfinition et on donne sans dmonstration les rsultats classiques sur les espaces vectoriels et les applications linaires (thorme de base
incomplte, thorme de la dimension, etc. . .), avec en annexe une discussion de
la notion dapplication injective, surjective, bijective, illustre par lintroduction
des fonctions inverses des fonctions trigonomtriques.
Au Chapitre 2 on introduit le calcul matriciel et on traite en dtail des
formules classiques concernant les changements de base. Au Chapitre 3 on rappelle les principales proprits des dterminants, et on donne en annexe une
introduction aux notations de la Physique (convention de sommation sur
lindice rpt, etc. . .). Au Chapitre 4 on introduit le polynme caractristique
pA dune matrice carre A, et on tudie la diagonalisation des matrices et des
endomorphismes.
On dmontre directement au Chapitre 5 que pA (A) = 0 (thorme de CayleyHamilton) par la mthode des dterminants, on introduit le polynme minimal
qA dune matrice carre A, et on dmontre le thorme de dcomposition
de Jordan : toute matrice carre A dont le polynme caractristique est scind
scrit de manire unique sous la forme A = D + N, avec D diagonalisable, N
nilpotente et DN = N D. Un calcul explicite de D et N est obtenu grce au
thorme chinois pour les polynmes.
Ces rsultats sont appliqus au Chapitre 6 litration des matrices et la
thorie des systmes diffrentiels linaires. On prsente au Chapitre 7 la thorie
des espaces vectoriels euclidiens (projections orthogonales, procd dorthogonalisation de Gram-Schmidt), et le Chapitre 8 est consacr aux matrices carres
symtriques et orthogonales, avec applications la Gomtrie. Le dernier Chapitre est consacr la notion de tenseur en Physique.
De mme que dans le cours dalgbre, on a mis laccent sur la possibilit
de faire des calculs effectifs, et quand ctait possible on a systmatiquement
utilis le logiciel de calcul formel MUPAD. Ceci dit leffectivit des calculs trouve
vite ses limites en algbre linaire ds quon scarte de problmes relevant de la
mthode du pivot de Gauss : limpossibilit de trouver des formules algbriques
exactes pour rsoudre les quations de degr suprieur 4, et la complexit des
formules de Cardan-Tartaglia, font quen pratique on soccupe essentiellement
des matrices carres 3 lignes et 3 colonnes ayant 2, 1, 0, 1 ou 2 comme valeur
propre vidente.

Aitzin solasa
Algebra linealaren ikastaldi hau bederatzi kapituluz osatua da. Lehen kapituluan definizioa oroitarazi eta frogapenik gabe espazio bektorialei eta aplikazio
linealei buruzko emaitza klasikoak (oinarri ezosoaren teorema, dimentsioaren
teorema, etab.) emanak dira. Aplikazio injektibo, suprajektibo eta bijektiboen

ii
nozioak eranskinean eztabaidatuak dira, funtzio trigonometrikoen alderantzizko
funtzioen aurkezpenaz ilustraturik.
Bigarren kapituluan matrize-kalkulua aurkeztu eta oinarri-aldaketen formula
klasiko batzu xeheki landuak dira. Hirugarren kapituluan, determinanteen propietate nagusiak oroitaraziak dira, eta eranskinean Fisikako idazkeren sarrera
bat egina da (indize errepikatuarekiko batuketaren hitzarmena, etab.). Laugarren kapituluan, A matrize karratuaren pA polinomio karakteristikoa aurkeztua
da, eta matrizeen eta endomorfismoen diagonalizazioa ikertua.
Boskarren kapituluan pA (A) = 0 (Cayley-Hamiltonen teorema) zuzenean
determinanteen metodoaren bidez frogatua da, A matrize karratu baten qA polinomio minimala aurkeztua da, eta Jordan-en deskonposaketa teorema
frogatua : polinomio karakteristiko zatitua duen A matrize karratu oro era bakarrean A = D + N forman idazten da, non D diagonalizagarria den, N nilpotentea eta DN = N D. D eta N -ren kalkulu esplizitua polinomioendako teorema
txinoari esker lortua da.
Emaitza hauek matrizeen iterazioari eta sistema diferentzial linealen teoriari
aplikatuak zaizkie seigarren kapituluan. Zazpigarren kapituluan, espazio bektorial euklidearren teoria aurkeztua da (projekzio ortogonalak, Gram-Schmidt-en
ortonormalketa prozedura), eta zortzigarren kapitulua matrize karratu simetrikoei eta ortogonalei buruzkoa da, Geometriarako aplikazioez horniturik. Azken
kapitulua Fisikako tentsore nozioari eskainia zaio.
Algebra ikastaldian bezala, kalkulu eraginkorrak egiteko aukera azpimarratu da, eta ahal zenean MUPAD kalkulu formalaren programa sistematikoki
erabili da. Dena den, algebra linealean, Gauss-en ezabapen-metodoari dagozkion problemetarik urrunduz gero, kalkulu eraginkortasuna laster bere mugetara heltzen da : 4. mailatik gorako ekuazioen ebazteko formula algebraiko zehatzen aurkitzeko ezintasunak, eta Cartan-Tartaglia-ren formulen konplexutasunak, funtsean 2, 1, 0, 1 edo 2 balore propio nabaria duten 3 errenkadako
eta 3 zutabeko matrize karratuez arduratzea ekartzen

Table des matires


1 Espaces vectoriels,applications linaires
1.1 Indpendance linaire, bases . . . . . . . . . . . . . . . . . . . . .
1.2 Thorme de la dimension pour la somme de deux espaces vectoriels
1.3 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Thorme de la dimension pour les applications linaires . . . . .
1.5 Annexe au Chapitre 1 : Application rciproque dune bijection .
1.6 Les fonctions Arctg, Arccos et Arcsin . . . . . . . . . . . . . . . .
1.7 Chapitre 1 sous MUPAD . . . . . . . . . . . . . . . . . . . . . .
1.8 Exercices sur le Chapitre 1 . . . . . . . . . . . . . . . . . . . . .

1
1
3
4
7
10
13
15
17

2 Matrices, changements de base


21
2.1 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Matrice associe une application linaire . . . . . . . . . . . . . 22
2.3 Formule de changement de base pour les coordonnes de vecteurs 25
2.4 Formule de changement de base pour les applications linaires . . 27
2.5 Chapitre 2 sous MUPAD . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Exercices sur le Chapitre 2 . . . . . . . . . . . . . . . . . . . . . 31
3 Dterminants, notations indicielles de la Physique
33
3.1 Proprits des dterminants . . . . . . . . . . . . . . . . . . . . . 33
3.2 Matrices carres inversibles . . . . . . . . . . . . . . . . . . . . . 37
3.3 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Mthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . 40
3.5 Dterminant dun endomorphisme et dune famille de vecteurs . 42
3.6 Rang dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7 Rang dune famille de vecteurs, rang dune application linaire . 45
3.8 Annexe au Chapitre 3 : Introduction aux notations indicielles de
la Physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.9 Chapitre 3 sous MUPAD . . . . . . . . . . . . . . . . . . . . . . 48
3.10 Exercices sur le Chapitre 3 . . . . . . . . . . . . . . . . . . . . . 54
4 Valeurs propres,vecteurs propres,diagonalisation
59
4.1 Introduction la diagonalisation des matrices . . . . . . . . . . . 59
4.2 Polynme caractristique dune matrice . . . . . . . . . . . . . . 61
iii

iv

TABLE DES MATIRES


4.3
4.4
4.5
4.6
4.7
4.8

Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . .
Dimension dun sous-espace propre et ordre de multiplicit dune
valeur propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . .
Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . .
Chapitre 4 sous MUPAD . . . . . . . . . . . . . . . . . . . . . .
Exercices sur le Chapitre 4 . . . . . . . . . . . . . . . . . . . . .

5 Polynme minimal, dcomposition de Jordan


5.1 Thorme de Cayley-Hamilton . . . . . . . . . . . . . .
5.2 Polynme minimal . . . . . . . . . . . . . . . . . . . . .
5.3 Nouvelle caractrisation des matrices diagonalisables . .
5.4 Matrices nilpotentes . . . . . . . . . . . . . . . . . . . .
5.5 Thorme de dcomposition de Jordan . . . . . . . . . .
5.6 Un algorithme de calcul rapide pour la dcomposition de
5.7 Chapitre 5 sous Mupad . . . . . . . . . . . . . . . . . .
5.8 Exercices sur le Chapitre 5 . . . . . . . . . . . . . . . .

62
63
63
69
71
78

81
. . . . . 81
. . . . . 83
. . . . . 85
. . . . . 88
. . . . . 90
Jordan 94
. . . . . 99
. . . . . 105

6 Itration, systmes diffrentiels linaires


6.1 Calcul des puissances dune matrice . . . . . . . . . . . . . . . .
6.2 Rappel sur les quations diffrentielles linaires du premier ordre
6.3 Systmes diffrentiels linaires et exponentielles de matrices . . .
6.4 Chapitre 6 sous Mupad . . . . . . . . . . . . . . . . . . . . . . .
6.5 Exercices sur le Chapitre 6 . . . . . . . . . . . . . . . . . . . . .

109
109
116
118
127
130

7 Espaces vectoriels euclidiens


7.1 Produit scalaire, ingalit de Cauchy-Schwartz
7.2 Procd dorthonormalisation de Gram-Schmidt
7.3 Projections orthogonales . . . . . . . . . . . . .
7.4 Chapitre 7 sous Mupad . . . . . . . . . . . . .
7.5 Exercices sur le Chapitre 7 . . . . . . . . . . .

.
.
.
.
.

135
135
137
140
142
144

.
.
.
.
.
.
.
.
.

147
147
149
154
163
167
173
175
184
189

8 Matrices symtriques, matrices orthogonales


8.1 Matrices symtriques . . . . . . . . . . . . . .
8.2 Matrices orthogonales . . . . . . . . . . . . .
8.3 Formes quadratiques . . . . . . . . . . . . . .
8.4 Matrices dfinies positives . . . . . . . . . . .
8.5 Applications aux coniques et quadriques . . .
8.6 Chapitre 8 sous Mupad . . . . . . . . . . . .
8.7 Trac de coniques sous Matlab . . . . . . . .
8.8 Trac de quadriques sous Matlab . . . . . . .
8.9 Exercices sur le Chapitre 8 . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.

TABLE DES MATIRES


9 Les
9.1
9.2
9.3

tenseurs en Physique (en prparation)


Coordonnes covariantes et contravariantes . . . . . . . . . . . .
A suivre... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exercices sur le Chapitre 9 . . . . . . . . . . . . . . . . . . . . .

v
191
191
194
194

vi

TABLE DES MATIRES

Chapitre 1

Espaces
vectoriels,applications
linaires

1.1

Indpendance linaire, bases

Dfinition 1.1.1 Un espace vectoriel E sur un corps K (on dit aussi un Kespace vectoriel) est un groupe ablien additif muni dune loi de composition
externe (, x) " .x de K E dans E possdant les proprits suivantes
(i) ( + ).x = .x + .x x E, K, K,
(ii) .(.x) = ().x x E, K, K,
(iii) .(x + y) = .x + .y x E, y E K,
(iv) 1.x = x x E.
On crira x au lieu de .x si aucune confusion nest craindre. On a
limportante notion de sous-espace vectoriel.
Dfinition 1.1.2 On dit quune partie non vide F dun K-espace vectoriel E
est un sous-espace vectoriel de E si on a les deux proprits suivantes
(i) x + y F x F, y F.
(ii)x F
K x F.
Il est clair que si F est un sous-espace vectoriel de E alors F est lui-mme
un K-espace vectoriel pour la restriction F de laddition de E et du produit
dun lment de E par un lment de K. De plus pour quune partie non vide
F de E soit un sous-espace vectoriel de E il faut et il suffit que lon ait :
(1.1)

x + y F

K, K, x F, y F.
1

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES


Une rcurrence immdiate montre que lon a alors la proprit suivante

(1.2)

n
!
j=0

j xj F n 1, x1 , . . . , xn F , 1 , . . . , n K.

Dautre part il est clair que lon a la proprit suivante


Proposition 1.1.3 Soit (Ei )iI une famille quelconque de sous-espaces vectoriels dun espace vectoriel E.
Alors iI Ei est un sous-espace vectoriel de E.
Corollaire 1.1.4 Soit E un espace vectoriel sur un corps K et soit A une
partie non vide de E. Alors lintersection de tous les sous-espaces vectoriels de
E contenant A est un sous-espace vectoriel de E contenant A, qui est appel le
sous-espace vectoriel de E engendr par A, et qui est not V ect(A).
Dfinition 1.1.5 1) On dit quune famille (e1 , . . . , ek ) dlments dun K-espace
vectoriel E est libre (ou que les vecteurs e1 , . . . , ek sont linairement indpendants) si on a la condition suivante
(1.3)

1 e1 + . . . k ek = 0 = i = 0

i k.

2) On dit quune famille (e1 , . . . , ek ) dlments dun K-espace vectoriel E


est gnratrice si pour tout x E il existe 1 , . . . , k K tels que x = 1 e1 +
. . . + k ek .
3) On dit quune famille (e1 , . . . , ek ) dlments dun K-espace vectoriel E
est une base de E si elle est la fois libre et gnratrice.
On dit quun K-espace vectoriel E += {0} est de dimension finie sil existe une
famille finie dlments de E qui est une base de E. On a le rsultat fondamental
suivant.
Thorme 1.1.6 1) Pour quun K-espace vectoriel E += {0} soit de dimension
finie il faut et il suffit quil possde une famille gnratrice finie. Dans ce cas
toutes les bases de E ont le mme nombre dlments, et ce nombre est appel
la dimension de E.
2) Si dim(E) = n , et si (f1 , . . . , fk ) est une famille gnratrice dlments
de E alors k n. Si k = n, alors (f1 , . . . , fk ) est une base de E. Si k > n, alors
il existe une suite strictement croissante i1 , . . . , in dentiers infrieurs ou gaux
k tels que (fi1 , . . . , fin ) soit une base de E.
3) Si dim(E) = n, et si (e1 , . . . , ep ) est une famille libre dlments de
E alors p n. Si p = n, alors (e1 , . . . , ep ) est une base de E. Si p < n,
alors il existe une famille (ep+1 , . . . , en ) de n p lments de E telle que
(e1 , . . . , ep , ep+1 , . . . , en ) soit une base de E("thorme de la base incomplte").
On dira par convention que lespace vectoriel rduit {0} est de dimension
nulle.

1.2. THORME DE LA DIMENSION POUR LA SOMME DE DEUX ESPACES VECTORIELS3


Corollaire 1.1.7 Soit E un espace vectoriel de dimension finie, et soit F un
sous espace vectoriel de E. Alors F est de dimension finie, et dimF dimE.
Si on a dim F = dim E, alors E = F.
Dmonstration : Si F = {0} il ny a rien dmontrer. Sinon toute famille libre
dlments de F possde au plus n lments, o n = dim(E). Soit p le plus
grand entier pour lequel il existe une famille libre (e1 , . . . , ep ) de p lments de
F. On a p n. Soit x F. Comme la famille (e1 , . . . , ep , x) nest pas libre,il
existe une famille (1 , . . . , p+1 ) dlments non tous nuls de K telle que 1 e1 +
. . . + p ep + p+1 x = 0. On a p+1 += 0 , car sinon 1 , . . . , p seraient galement
tous nuls puisque (e1 , . . . , ep ) est libre. On obtient
x=

p
!
j=1

j
ej .
p+1

Ceci montre que (e1 , . . . , ep ) est gnratrice. Cest donc une base de F . Donc
F est de dimension finie, et dim(F ) = p n = dim(E).
Si dim(F ) = dim(E), soit B une base de F. Alors B est une base de E, donc
E = F.
Exemple 1.1.8 1) Soit K un corps. On munit lensemble K n des familles
(x1 , . . . , xn ) de n lments de K des oprations suivantes
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) (x1 , . . . , xn ) K n ,
(y1 , . . . , yn ) K n ,
(x1 , . . . , xn ) = (x1 , . . . , xn ) K, (x1 , . . . , xn ) K n .

Posons ei = (i,j )1jn pour 1 i n. On vrifie facilement que K n est


un K-espace vectoriel de dimension n et que (e1 , . . . , en ) est une base de K n .
2) Le plan vectoriel du Lyce est un espace vectoriel rel de dimension 2, et
lespace vectoriel du Lyce est un espace vectoriel rel de dimension 3.
3) Muni des oprations usuelles, C est un espace vectoriel rel de dimension
2, et (1, i) est une base de C.
4) Lespace K[x] des polynmes sur un corps K est un K-espace vectoriel
pour les oprations usuelles.Il nest pas de dimension finie.
5) Pour n 0, lespace Kn [x] des polynmes de degr infrieur ou gal n
coefficients dans K est un K-espace vectoriel de dimension n + 1, et la famille
(1, x, . . . , xn ) est une base de Kn [x].

1.2

Thorme de la dimension pour la somme de


deux espaces vectoriels

Dfinition 1.2.1 Soient F et G deux sous-espaces vectoriels dun espace vectoriel E. On pose F + G = {x + y}xF,yG .

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES


On a alors le thorme suivant.

Thorme 1.2.2 Soient F et G deux sous-espaces vectoriels de dimension finie


dun espace vectoriel E. Alors dim(F + G) = dim(F ) + dim(G) dim(F G).
On dit que F et G sont en somme directe si F G = {0}. Dans ce cas tout
x F + G secrit de manire unique sous la forme x = y + z, avec y F, z G.
Dans cette situation on crit F G au lieu de F + G.
Exemple 1.2.3 On considre lespace vectoriel R2 [X] des polynmes coefficients rels de degr infrieur ou gal 2. On pose E = {p R2 [x] | p(2) = 0}
et F = {p R2 [x] | p(1) = p(1) = 0}. Alors E et F sont deux sous-espaces
vectoriels de R2 [x], et R2 [x] = E F.
En effet pour p, q E, , R on a (p + q)(2) = p(2) + q(2) = 0, donc
E est un sous-espace vectoriel de R2 [x]. De mme pour p, q F, , R on a
(p + q)(1) = p(1) + q(1) = 0, et (p + q)(1) = p(1) + q(1) = 0,
donc F est un sous-espace vectoriel de R2 [X].
Soit p E F. On a p(1) = p(1) = p(2) = 0. Comme un polynme non
nul de deg infrieur ou gal 2 possde au plus deux racines distinctes, on a
p = 0 et E F = {0}, et on peut considrer la somme directe E F.
Posons u = x 2, v = x(x 2). On a u E et v E. Si R, R, et si
u + v = 0 alors ( + x)(x 2) = 0, donc + x = 0 et = = 0. Donc la
famille {u, v} est libre.
Si p E, alors p est divisible par x2 et il existe q R[x] tel que p = q(x2).
On a d (q)+d (x2) = d (p) 2 donc d (q) 1, et q est de la forme q = +x
avec , R. On a alors p = (x 2) + x(x 2) = u + v et on voit que
{u, v} est une famille gnratrice de E. Par consquent {u, v} est une base de
E et dim(E) = 2.
Posons w = x2 1 F. Si p F alors p est divisible par x 1 et x + 1
qui sont premiers entre eux. Daprs le thorme de Gauss, p est divisible par
(x 1)(x + 1) = w. On a donc p = qw, avec w R[x]. On a 2 d (p) =
d (q)+d (w) = d (q)+2 donc d (q) = 0 ou q = 0, et le polynme q est constant.
Donc p = w, avec R, et F est le sous-espace vectoriel de dimension 1 de
R2 [x] engendr par w.
On a E F R2 [x], et dim(E F ) = dim(E + F ) = dim(E) + dim(F )
dim(E F ) = dim(E) + dim(F ) = 3 = dim(R2 [x]). Donc R2 [x] = E F.

1.3

Applications linaires

On va maintenant introduire limportante notion dapplication linaire.


Dfinition 1.3.1 Soient E et F deux espaces vectoriels sur un corps K. On dit
quune application u : E F est linaire si les deux proprits suivantes sont
vrifies

1.3. APPLICATIONS LINAIRES

1) u(x + y) = u(x) + u(y) x E, y F.


2) u(x) = u(x) x E, K.
Si u : E F est linaire , on appelle noyau de u lensemble Ker(u) :=
{x E | u(x) = 0}, et on appelle image de u lensemble Im(u) := u(E) =
{u(x)}xE .
Une application linaire u : E E est appelle un endomorphisme de
E.
Il est clair quune application u : E F est linaire si et seulement si la
condition suivante est vrifie
(1.4)

u(x + y) = u(x) + u(y)

x, y E, , K.

Si A, B, C sont trois ensembles et si : A B et : B C sont deux


applications , la compose : A C est lapplication dfinie par la formule
(1.5)

( )(x) = ((x))

On a alors le rsultat vident suivant :

x A.

Proposition 1.3.2 Soient E1 , . . . , Ek des espaces vectoriels sur un corps K,


avec k 3, et pour 1 i k 1 soit ui : Ei+1 Ei une application linaire.
Alors lapplication compose uk1 . . . u1 : Ek E1 est linaire.
Proposition 1.3.3 Soient E et F deux espaces vectoriels sur un corps K et
soit u : E F une application linaire.
(i) Ker(u) est un sous-espace vectoriel de E, et Im(u) est un sous-espace
vectoriel de F.
(ii) Si E est de dimension finie, et si B = (e1 , . . . , en ) est une base de E,
alors u(B) := (u(e1 ), . . . , u(en )) est une famille gnratrice de Im(u). De plus
u(B) est une base de Im(u) si Ker(u) = {0}.
Dmonstration (i) Si x1 , x2 Ker(u) , 1 , 2 K, on a u(1 x1 + 2 x2 ) =
1 u(x1 )+2 u(x2 ) = 0, donc 1 x1 +2 x2 Ker(u), et Ker(u) est un sous-espace
vectoriel de E.
Soient maintenant y1 , y2 Im(u) et 1 , 2 K. Il existe x1 , x2 E tels que
u(x1 ) = y1 , u(x2 ) = y2 , et on a 1 y1 + 2 y2 = 1 u(x1 ) + 2 u(x2 ) = u(1 x1 +
2 x2 ) Im(u). Donc Im(u) est un sous-espace vectoriel de F.
(ii) Si E est de dimension finie , et si B = (e1 , . . . , en ) est une base de E, soit
y Im(u).
Il existe x E tel que u(x) = y,"et il existe 1 ,"
. . . , n K tels que
"n
n
n
x = k=1 k ek . On a alors y = u(x) = u( k=1 k ek ) = k=1 k u(ek ). Donc
u(B) est une famille gnratrice de Im(u).
Si on suppose de plus que Ker(u) = {0}, soient 1 , . . . , n K tels que
1 u(e1 )+. . .+n u(en ) = 0. On a u(1 e1 +. . .+n en ) = 1 u(e1 )+. . .+n u(en ) =
0, donc 1 e1 + . . . + n en = 0.
Comme Ker(u) = {0}, on obtient 1 e1 + . . . + n en = 0. Comme B est libre,
on a k = 0 pour 1 k n, ce qui prouve que u(B) est libre, et u(B) est dans
ce cas une base de Im(u).

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

Exemple 1.3.4 1) Lapplication D : p " p% est un endomorphisme de Cn [x]


pour n 1. Le noyau de D est lespace vectoriel de dimension 1 form des
polynmes constants, et limage de D est gale Cn1 [x].
2) Les homothties vectorielles et les symtries vectorielles sont des endomorphismes du plan vectoriel et de lespace vectoriel de dimension 3 vus au
Lyce. Les rotations vectorielles sont des endomorphismes du plan vectoriel euclidien.
3) Soit E un espace vectoriel sur un corps K et soit B = (e1 , . . . , ep ) une
famille finie dlments de E. On note FB = {1 e1 + . . . + p ep }(1 ,...,p )K p
lensemble des combinaisons linaires dlments de B. Alors FB est un sousespace vectoriel de E, et FB = V ect(B).
4) Si E est un espace vectoriel et si F et G sont des sous-espaces vectoriels
de E tels que E = F G, lapplication P = PF,G qui x E associe lunique
y F tel que x y G est un endomorphisme de E tel que Im(P ) = F
et Ker(P ) = G. Cette application linaire est appele projection de E sur F
paralllement G , et on a P P = P.
En effet il est clair que D est linaire et que Ker(D) = {p Cn [x] | d (p) =
0}, qui est lespace vectoriel de dimension 1 form des polynmes constants.Dautre
part Im(D) Cn1 [x]. Si p = 0 + . . . + n1 xn1 Cn1 [x], on a
n1 n
1 2
x + ... +
x ) Im(D),
p = D(0 x +
2
n
et par consquent on a bien Im(D) = Cn1 [x].
Considrons maintenant une famille finie B = (e1 , . . . , ep ) dlments dun
espace
vectoriel E sur un corps K. Pour = (1 , . . . , p ) K p , posons () =
"p
p
k=1 k ek . Une vrification immdiate montre que : K E est lnaire, et
par consquent FB = Im() est un sous-espace vectoriel de E. Dautre part il
est clair que FB G si G est un sous-espace vectoriel de E contenant B. Par
consquent FB coincide avec le sous-espace vectoriel V ect(B) de E engendr par
B.
Considrons maintenant deux sous-espaces vectoriels F et G dun espace
vectoriel E tels que E = F G. Pour x E, il existe un unique couple (y, z)
F G tel que x = y + z, et par consquent lapplication P = PF,G introduite
ci-dessus est bien dfinie.Soient x1 , x2 E et soient1 , 2 K. On a 1 x1 +
2 x2 1 P (x1 ) 2 P (x2 ) = 1 (x1 P (x1 )) + 2 (x2 P (x2 )) G, et on a
donc P (1 x1 + 2 x2 ) = 1 P (x1 ) + 2 P (x2 ), ce qui montre que P est linaire.
On a Im(P ) F. Si y F on a par dfinition P (y) = y, car y 0 = y F, et
y Im(P ), ce qui montre que Im(P ) = F. Donc si x E, on a P (x) F et
P (P (x)) = P (x), ce qui montre que P P = P.
Si z G on a z 0 = z G, donc P (z) = 0. Rciproquement si P (z) = 0,
on a z = z P (z) F, et par consquent Ker(P ) = G.
Notons que si E = F G, et si (y, z) est lunique lment de F G tel que
x = y + z, on a y = PF,G (x) et z = PG,F (x). Avec les notations ci-dessus, on
obtient, si E = F G,

1.4. THORME DE LA DIMENSION POUR LES APPLICATIONS LINAIRES7

(1.6)

PF,G + PG,F = IE ,

o IE : x " x est lapplication identit de E.

1.4

Thorme de la dimension pour les applications linaires

On va maintenant dmontrer un "thorme de la dimension" pour les applications linaires.


Thorme 1.4.1 Soient E et F deux espaces vectoriels sur un corps K et soit
u : E F une application linaire.
Si E est de dimension finie, alors dim(Ker(u)) + dim(Im(u)) = dim(E).
Dmonstration : Si Ker(u) = E, le rsultat est vident. Si Ker(u) = {0},
il rsulte de la proposition 1.13 (ii) que dim(E) = dim(Im(u)), et le rsultat
est encore vrifi.
Supposons maintenant que Ker(u) += {0} et Ker(u) += E. Soit (e1 , . . . , ep )
une base de Ker(u). Daprs le thorme de la base incomplte, il existe ep+1 , . . . ,
en E tels que (e1 , . . . , en ) soit une base de E. Comme u(e1 ) = . . . = u(ep ) = 0,
il rsulte de la proposition 1.13 (ii) que (u(ep+1 ), . . . , u(en )) est une famille gnratrice de Im(u). Soit G le de E engendr par ep+1 , .., en .
Si x G Ker(u), il existe 1 , . . . , p et 1 , . . . , np K tels que x =
1 e1 + . . . p ep = 1 ep+1 + . . . + np en . On a alors
1 e1 + . . . p ep 1 ep+1 . . . np en = 0.

Comme (e1 , . . . , en ) est une base de E, on a 1 = . . . = p = 1 = . . . =


p = 0, et x = 0. Soit maintenant v la restriction de u G , cest dire
lapplication v : G F dfinie par la formule v(x) = u(x) pour x G. On
a Ker(v) = Ker(u) G = {0}. Il rsulte alors de la proposition 1.13 (ii) que
(u(ep+1 ), . . . , u(en )) = (v(ep+1 ), . . . , v(en )) est libre. Donc (u(ep+1 ), . . . , u(en ))
est une base de Im(u) et dim(Im(u)) = n p.
On a alors dim(Ker(u)) + dim(Im(u)) = n p + p = n = dim(E), ce qui
achve la dmonstration.
Exemple 1.4.2 Posons F := {(x, y, z) R3 | x 7y + 8z = 0}. Alors F est
un sous-espace vectoriel de R3 , et dim(F ) = 2.
En effet posons u(x, y, z) = x 7y + 8z pour (x, y, z) R3 . Il est clair que u
est une application linaire de R3 dans R. Comme u += 0 on a dim(Im(u)) 1,
donc dim(Im(u)) = 1 puisque Im(u) R. Comme F = Ker(u), F est un
sous-espace vectoriel de R3 et dim(F ) = dim(R3 ) dim(Im(u)) = 2.

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

Soient A et B deux ensembles, soit : A B une application, et soit y B.


On dit quun lment x de A est un antcdent de y pour quand (x) = y.
On dit que est injective quand tout y B possde au plus un antcdent
pour , et on dit que est surjective quand tout y B possde au moins
un antcdent pour . On dit enfin que est bijective quand est la fois
injective et bijective.
Si est bijective, on appelle application rciproque de lapplication
1 : B A qui y B associe lunique x A tel que (x) = y. Cette
application rciproque est caractrise par les proprits suivantes
(1.7)

1 = IA

et 1 = IB

o IA et IB dsignent lapplication identit x " x sur A et B.


On donnera en annexe divers exemples illustrant ces notions. En ce qui
concerne les applications linaires, on a les deux proprits suivantes
(1.8) U ne application lin
eaire u est injective si et seulement si Ker(u) = {0}.

(1.9)

Si u : E F est lin
eaire et bijective, alors u1 : F E est lin
eaire.

En effet Ker(u) est lensemble des antcdents de 0. Comme u(0) = 0, on


voit que Ker(u) = {0} si u est injective. Supposons maintenant que u : E F
est linaire et non injective. Il existe alors y F possdant deux antcdents
distincts x1 et x2 pour u. On a alors u(x1 x2 ) = y y = 0, donc x1 x2
Ker(u) et Ker(u) += {0}, ce qui tablit (1.8).
Supposons maintenant que u : E F est linaire et bijective, et soient
y1 , y2 F et 1 , 2 K. On a u(1 u1 (y1 ) + 2 u1 (y2 )) = 1 (u u1 )(y1 ) +
2 (uu1 )(y2 ) = 1 y1 +2 y2 . Donc 1 u1 (y1 )+2 u1 (y2 ) = (u1 u)(1 u1 (y1 )+
2 u1 (y2 )) = u1 [u(1 u1 (y1 ) + 2 u1 (y2 ))] = u1 (1 y1 + 2 y2 ), ce qui prouve
que u1 est linaire.
On a alors la consquence suivante du thorme de la dimension.
Corollaire 1.4.3 Soient E et F deux espaces vectoriels sur un corps K, et soit
u : E F une application linaire. Si E et F sont de dimension finie, et si
dim(E) = dim(F ), alors les conditions suivantes sont quivalentes
(i) u est injective
(ii) u est surjective
(iii) u est bijective
Dmonstration : Si u est injective on a dim(Ker(u)) = 0, donc dim(Im(u))
= dim(E) dim(Ker(u)) = dim(E) = dim(F ). Comme Im(u) F, on a
alors Im(u) = F et u est surjective. Si u est surjective le mme calcul montre

1.4. THORME DE LA DIMENSION POUR LES APPLICATIONS LINAIRES9


que dim(Ker(u)) = dim(E) dim(Im(u)) = dim(E) dim(F ) = 0, donc
Ker(u) = {0} et u est injective daprs la proprit (1.8). Donc (i) et (ii)
sont quivalents, ce qui montre que (i) (iii). Dautre part il est vident que
(iii) (i).
Exemple 1.4.4 Il existe une application linaire v : Rn [x] Rn [x] telle que
v(p) + v(p)% = p pour p Rn [x].
En effet posons u(p) = p+p% pour p Rn [x]. Il est clair que u : Rn [x] Rn [x]
est linaire. Si p += 0 on a d (p% ) < d (p) donc d (u(p)) = d (p + p% ) = d (p) 0
et u(p) += 0. Par consquent Ker(u) = {0}, u est injective et donc u est bijective.
Posons v = u1 . Alors v est linaire. Si p Rn [x] on a u(v(p)) = p, cest dire
que v(p) + v(p)% = p.
Pour conclure ce Chapitre on va introduire une structure vectorielle sur
lensemble L(E, F ) des applications linaires dun espace vectoriel E dans un
espace vectoriel F , et une structure danneau sur lensemble des endomorphismes
dun espace vectoriel E.
Pour K, u L(E, F ), on dfinit u L(E, F ) par la formule
(1.10)

(u)(x) = u(x) x E.

De mme pour u L(E, F ), v L(E, F ), on dfinit u + v L(E, F ) par la


formule
(1.11)

(u + v)(x) = u(x) + v(x) x E.

Une vrification immdiate montre que les application u et u + v dfinies


ci-dessus sont bien des applications linaires de E dans F.
Des vrifications de routine permettent alors dobtenir le rsultat suivant
Proposition 1.4.5 (i) Soient E et F deux espaces vectoriels sur un corps K et
soit L(E, F ) lensemble des applications linaires de E dans F. Alors L(E, F )
est un espace vectoriel sur K pour les lois dfinies par les formules (1.10) et
(1.11).
(ii) Soit E un espace vectoriel sur un corps K. Alors L(E, E) est un anneau
unitaire pour laddition dfinie par la formule (1.11) et pour la composition des
applications.
On verra au Chapitre suivant que si dim(E) = m et dim(F ) = n alors
dim(L(E, F )) = mn.

10

1.5

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

Annexe au Chapitre 1 : Application rciproque dune bijection

Soient U1 , U2 , U3 trois ensembles et soient 1 : U2 U1 et 2 : U3 U2


deux applications. On dfinit lapplication compose 2 1 : U1 U3 par la
formule
(1.12)

(2 1 )(u) = 2 (1 (u))

u U1 .

Soient maintenant U1 , U2 , U3 , U4 quatre ensembles et soient 1 : U2 U1 ,


2 : U3 U2 et 3 : U4 U3 trois applications. On dduit immdiatement de
la formule (1.12) que lon a
(1.13)

3 (2 1 ) = (3 2 ) 1 .

Supposons maintenant que : U V est bijective.Dans ce cas tout lment


v de V possde un unique antcdent u pour . Autrement dit il existe un unique
u U tel que (u) = v.
Dfinition 1.5.1 Soit : U V une application bijective. On appelle application rciproque de lapplication 1 : V U qui a v V associe
lunique lment de U tel que (u) = v. Autrement dit si u U, v V, alors
u = 1 (v) v = (u).
Notons IU : u " u lapplication identit sur U et notons IV : v " v
lapplication identit sur V. Si : U V est bijective, on obtient les formules
(1.14)

1 = IU ,

1 = IV .

En effet comme (u) = (u) on a (1 )(u) = 1 ((u)) = u pour u U.


Dautre part on a par dfinition ( 1 )(v) = (1 (v)) = v pour v V.
Proposition 1.5.2 Soit U un ensemble, et soit S(U ) lensemble des bijections
de U sur lui-mme. Alors (S(U ), ) est un groupe dont lunit est IU , et linverse
de S(U ) est gal lapplication rciproque 1 . De plus si U est un ensemble
fini possdant n lments alors S(U ) possde n! lments.
Dmonstration : Le nombre des bijections dun ensemble de n lments dans
lui-mme est gal au nombre darrangements de cet ensemble, et on a vu en Terminale que ce nombre est gal n!. Les autres proprits rsultent des formules
(1.13) et (1.14).
Nous utiliserons au Chapitre 3 un certain nombre de proprits du groupe
Sn des permutations dordre n, qui est le groupe des bijections de lensemble
{1, . . . , n} sur lui-mme. Nous allons maintenant illustrer les notions dapplication injective, surjective, bijective et la notion dantcdent dans le cadre des
fonctions continues dune variable relle. Si I et J sont deux intervalles de R

1.5. ANNEXE AU CHAPITRE 1 : APPLICATION RCIPROQUE DUNE BIJECTION11


et si f : I J est une fonction, le ou les antcdents pour f dun rel v J
sont donns par les abscisses des points dintersection de la droite horizontale
dquation y = v avec la courbe reprsentative F de f. Ce type de discussion
graphique est abord ds la classe de seconde. On va maintenant prendre divers
exemples.
Exemple 1 : On considre
f :RR
x " x2
"

y = f (x)

y=v>0

u1

u2

y=v<0

Si v > 0 la droite dquation y = v rencontre le graphe de f en deux points


distincts. Dans ce cas v possde deux antcdents distincts x1 et x2 pour f.
Donc f nest pas injective. Si v < 0 la droite dquation y = v ne rencontre
pas le graphe de f . Dans ce cas v na pas dantcdent pour f donc f nest pas
surjective.
Exemple 2 : On considre
f : [0, +[ R
x " x2
"

y = f (x)

y=v>0

u
y=v<0

12

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

Si v 0 la droite dquation y = v rencontre le graphe de f en un seul


point. Dans ce cas v possde exactement un antcdent u pour f. Si v < 0 la
droite dquation y = v ne rencontre pas le graphe de f . Dans ce cas v na pas
dantcdent pour f . Donc f est injective, mais f nest pas surjective.
Exemple 3 : On considre
f : R [0, +[
x " x2
"

y = f (x)

y=m>0

u1
u2
Si v > 0 la droite dquation y = v rencontre le graphe de f en deux points
distincts. Dans ce cas v possde deux antcdents distincts u1 et u2 pour f.
Donc f nest pas injective. Si v = 0 lintersection de la droite dquation
y = 0 et du graphe de f est rduite au point (0, 0). Dans ce cas v a au moins
un dantcdent pour f pour tout v 0 donc f est surjective.
Exemple 4 : On considre
f : [0, +[ [0, +[
x " x2
"

y = f (x)

y=v0

1.6. LES FONCTIONS ARCTG, ARCCOS ET ARCSIN

13

Si v 0 la droite dquation y = v rencontre le graphe de f en un point et un


seul, donc v possde un unique antcdent pour tout v 0, et f est bijective.
Comme on la vu en Terminale, le graphe de f 1 : [0, +[ [0, +[ est le
symtrique du graphe de f par rapport la droite dquation y = x.
On obtient la figure suivante

"

y = f (x) = x2

y = f 1 (x) =

On sait depuis la Terminale que si I est un intervalle de R et si f : I R est


continue et strictement monotone alors J = f (I) = {f (x)}xI est un intervalle
de R et que f, considre comme application de I dans J, est une bijection
de I sur J. De plus si f est drivable en f 1 (x), et si f % (f 1 (x)) += 0, alors
1
f 1 est drivable en x et (f 1 )% (x) = f ! (f 1
(x)) (gomtriquement, ceci rsulte
immdiatement du fait que la drive de f en x reprsente la pente de la tangente
au graphe de f au point de coordonnes (x, f (x)) et du fait que le graphe de
f 1 est le symtrique du graphe de f par rapport la droite dquation y = x).
Si f : [0, +[ [0, +[ est la fonction de lexemple4 il est clair que f 1 :
[0, +[
[0,+[ est dfinie par la formule f 1 (x) = x pour x 0.Comme

%
f ( x) = 2 x += 0 pour x += 0, on retrouve le fait que si g(x) = x, alors
g % (x) = 21 x pour x > 0.

1.6

Les fonctions Arctg, Arccos et Arcsin

Ces considrations permettent dintroduire de nouvelles fonctions utiles pour


le calcul intgral.
Proposition 1.6.1 Soit f : ] 2 , 2 [] , +[
x " tg(x).
La fonction rciproque f 1 : ] , +[] 2 , 2 [ est une primitive de
1
1+x2 sur R. Cette fonction est appele "Arc tangente" et note Arctg.

14

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

Dmonstration : La fonction tangente est strictement croissante sur ] 2 , 2 [,


1
donc la fonction Arctg est bien dfinie sur R. On a (Arctg)% (x) = f ! (Arctg(x))
=
1
1
1+tg 2 (Arctg(x)) = 1+x2 pour x R.
Il rsulte de la dfinition ci-dessus que si u et v sont deux rels alors u =
Arctg(v) tg(u) = v et u ] 2 , 2 [. On retiendra les valeurs suivantes :

Arctg(0) = 0, Arctg(1/ 3) = /6, Arctg(1) = /4, Arctg( 3) = /3,


limx+ Arctg(x) = /2.
Dautre part Arctg(x) = Arctg(x) pour x R, cest dire que la fonction
Arctg est impaire. Cette fonction est videmment croissante sur R.
La dfinition de la fonction Arctg peut causer quelques difficults.Par exemple
1
tg( 2 Arctg(v)) = tg(Arctg(v))
= v1 = tg(Arctg( v1 )) pour v += 0, mais 2
Arctg(v) += Arctg( v1 ) pour v < 0. On renvoie aux exercices 10 et 11 pour ce
type de questions. On retiendra de la fonction Arctg la formule suivante (nous
renvoyons au Chapitre 4 du Cours dalgbre pour une tude gnrale de lintgration des fractions rationnelles).
(1.15)

dx
= Arctg(b) Arctg(a) a R, b R.
1 + x2

Les fonctions x " sinx et x " cosx ne sont videmment pas monotones
sur R, mais leurs restictions des intervalles convenables le sont. Ceci permet dintroduire les fonctions Arccos et Arcsin, galement utiles pour le calcul
intgral.
Proposition 1.6.2 Soient g : [ 2 , 2 ] [1, 1] et h : [0, ] [1, 1]
x " sinx
x " cosx.
1
La fonction rciproque g 1 : [1, +1] [ 2 , 2 ] est une primitive de 1x
2
sur ] 1, 1[. Cette fonction est appele "Arc sinus" et note Arcsin.
De mme la fonction rciproque h1 : [1, +1] [0, ] est une primitive de
1
1x
sur ] 1, 1[. Cette fonction est appele "Arc cosinus" et note Arccos.
2
Dmonstration : Il est clair que la restriction de la fonction sinus lintervalle [ 2 , 2 ] est strictement croissante et que la restriction de la fonction cosinus lintervalle [0, ] est strictement dcroissante, donc les fonctions Arcsin
et Arccos sont bien dfinies sur [1, 1]. Pour x [1,$
1] on a sin(Arccos(x))
0 et cos(Arcsin(x))

0,
donc
sin(Arccos(x))
=
1 cos2 (Arccos(x)) et
$
2
cos(Arcsin(x)) = 1 sin (Arcsin(x)). On obtient
(1.16) sin(Arccos(x)) =

1 x2 , cos(Arcsin(x)) =

1 x2

x [1, 1].

1
1
Pour x ]1, 1[ on a alors (Arcsin)% (x) = g! (Arcsin(x))
= cos(Arcsin(x))
=
1
1
1
%
et (Arccos) (x) = h! (Arccos(x)) = sin(Arccos(x)) = 1x2 .

1
,
1x2

1.7. CHAPITRE 1 SOUS MUPAD

15

La fonction Arcsin est impaire et croissante sur [1, 1], et la fonction Arccos
est dcroissante sur [0, ]. Dautre part on a cos(Arccos(x)) = x = cos(
Arccos(x)). Comme Arccos(x) et Arccos(x) appartiennent [0, ] on
obtient
(1.17)

Arccos(x) = Arccos(x) x [0, 1].

Il rsulte de la dfinition de Arccos(x) et Arcsin(x) que lon a

Arccos(1) = 0, Arccos( 23 ) = 6 , Arccos( 22 ) = 4 , Arccos( 12 ) = 3 , Arccos(0) =

1
2
2
3
3
5
2 , Arccos( 2 ) = 3 , Arccos( 2 ) = 4 , Arccos( 2 ) = 6 , Arccos(1) = ,

Arcsin(1) = 2 , Arcsin( 23 ) = 3 , Arcsin( 22 ) = 4 , Arcsin( 12 ) =

6 , Arcsin(0) = 0, Arcsin( 12 ) = 6 , Arcsin( 22 ) = 4 , Arcsin( 23 ) = 3 , Arcsin(1)


= 2 .
La dfinition des fonctions Arccos et Arcsin prsente encore un peu plus de
difficults que celle de la fonction Arctg : le fait que cos(u) = v est quivalent
au fait que u = Arccos(v) + 2k ou u = Arccos(v) + 2k, avec k Z,
et le fait que sin(u) = v est quivalent au fait que u = Arcsin(v) + 2k ou
u = Arcsin(v) + 2k, avec k Z. Ceci est la base de nombreux exercices,
dun intrt souvent relatif (voir par exemple lexercice 13). On retiendra la
formule suivante, qui rsulte immdiatement de la proposition 1.6.2.
#

(1.18)

dx
= Arcsin(b) Arcsin(a)
1 x2

= Arccos(a) Arccos(b),
Par exemple

1.7

1
2

12

dx
1x2

a [1, 1], b [1, 1].

= Arcsin( 12 ) Arcsin( 12 ) =

3.

Chapitre 1 sous MUPAD

MUPAD est programm pour calculer une base de lespace vectoriel engendr
par une famille finie de vecteurs. par exemple voici comment on calcule une base

4
3

du sous-espace vectoriel F de R3 engendr par v1 , v2 et v3 , o v1 = 7 ,

8
1

16

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

1
3
0
3

v2 = 9 , v3 = 16 ,

5
13
6
7
M:=Dom::Matrix ();
v1:= M([-4,3,7,8,1]): v2:= M([1,0,9,5,6]):v3:=M([-3,3,16,13,7]):
linalg::basis([v1,v2,v3]);
Dom::Matrix(Dom::ExpressionField(id, iszero))
-|
|
|
|
|
|
|
|
|
--

+-+
| -4 |
|
|
|
3 |
|
|
|
7 |,
|
|
|
8 |
|
|
|
1 |
+-+

+|
|
|
|
|
|
|
|
|
+-

1
0
9
5
6

-+ -| |
| |
| |
| |
| |
| |
| |
| |
| |
-+ --

On voit donc que (v1 , v2 ) est une base de F.


On peut galement utiliser Mupad pour calculer une base de lintersection de
deux sous-espaces vectoriels.Par exemple on va calculer ci-dessous
de

unebase
1
2
G H, o G est le sous-espace vectoriel de R3 engendr par 0 et 1 ,
1 0
1
1
et o H est le sous-espace vectoriel de R3 engendr par 0 et 1 .
1
0

M:=Dom::Matrix() :
u1:= M([1,0,-1]): u2:=M([2,-1,0]) : u3:=M([1,0,1]) : u4:=M([1,1,0]):
linalg::intBasis([u1,u2],[u3,u4]);
{ +-+ }
{ | -1/2 | }
{ |
| }

1.8. EXERCICES SUR LE CHAPITRE 1


{
{
{
{

|
1
|
|
|
| -3/2 |
+-+

17
}
}
}
}

On voit
donc que G H est la droite vectorielle de vecteur directeur u =
1/2
1 .
3/2

1.8

Exercices sur le Chapitre 1

exercice 1
Parmi les sous-ensembles de R2 suivants, identifier ceux qui sont stables pour
laddition, pour la multiplication externe, et enfin ceux qui sont des sous-espaces
vectoriels de R2 :
Z2 , A = {(x, y) | |x| = |y|}, B = {(x, y) | x + 2y = 0}.
exercice 2
Montrer que {(1 + x)k }0kn est une famille libre de Rn [x]. En dduire que
cest une base de Rn [x].
exercice 3
On pose E := {(x, y, z) R3 | 2236x + 3458y + 5256z + 1438 = 0} et
F := {(x, y, z) R3 | 4x + 2y + 3z = 0}. Ces ensembles sont- ils des sousespaces vectoriels de R3 ? Si oui, calculer leur dimension et leur trouver une
base.
exercice 4
(a) Soit F(R, R) lespace vectoriel sur R constitu des fonctions de R dans
R. Montrer que F(R, R) nest pas de dimension finie.
(b) Les ensembles suivants sont ils des espaces vectoriels sur R?
V1 = {f F(R, R) | f (0) = 0}, V2 = {f F(R, R) | f (3) > 0},
V3 = {f F(R, R) | f est paire }.
exercice 5
Dans R3 , dterminer F := V ect{(0, 0, 1), (1, 0, 0)}. Comparer F et G :=
V ect{(1, 0, 1), (1, 0, 2)}.
exercice 6

18

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES


Soient U := {(x, x, x)}xR et V := {(0, y, z)}y,zR .
Montrer que R3 = U V.

exercice 7
Soit E un espace vectoriel de dimension finie sur un corps K. En utilisant le
thorme de la base incomplte, montrer que si F est un sous-espace vectoriel
de E il existe un sous-espaces vectoriel G de E tel que E = F G.
exercice 8
On considre lapplication
: R2 [x] R2 [x]
p " 2p p% .
Dterminer limage et le noyau de .
exercice 9
Soit E un ensemble possdant au moins 3 lments. Montrer que le groupe
S(E) des bijections de E dans lui-mme nest pas commutatif.
exercice 10
On pose g(x) = Arctg(x) + Arctg( x1 ) pour x += 0. Montrer que g % (x) = 0
pour x += 0. En dduire que g(x) = 2 pour x < 0 et que g(x) = 2 pour x > 0.
exercice 11
v+w
Comparer Arctg(v) + Arctg(w) et Arctg( 1vw
) pour v, w R, vw += 1.
exercice %12
%L
+
On pose 0 f (x)dx = limL+ 0 f (x)dx pour f continue sur [0, +[
quand cette %limite existe.
+ dx
Calculer 0
4+x2 .
exercice 13
Soit x [1, 1].
a) Comparer 2Arccos(x) et Arccos(2x2 1).
b) Comparer 2Arcsin(x) et Arcsin(2x 1 x2 ).

exercice% 14
% a#
a
On pose 0 f (x)dx = lim#0+ 0 f (x)dx pour f continue sur [0, a[, a > 0,
quand cette limite existe.
% 2 dx
Calculer 0 4x
.
2
exercice 15(sous Mupad)

1.8. EXERCICES SUR LE CHAPITRE 1

19

Dterminer une base du sous-espace vectoriel de R5 engendr par v1 , v2 , v3

1
2
3
1
2
3
5
1

et v4 , o v1 = 3 , v2 = 4 , v3 = 7 , v4 = 1 .

1
4
5
1
2
1
3
7

exercice 16
1) Trouver une base du plan vectoriel P1 dquation x + y + z = 0 et une
base du plan vectoriel P2 dquation x + 7y + 3z = 0.
2) En utilisant Mupad, trouver un vecteur directeur de la droite vectorielle
D = P1 P2 .

20

CHAPITRE 1. ESPACES VECTORIELS,APPLICATIONS LINAIRES

Chapitre 2

Matrices, changements de
base

2.1

Calcul matriciel

Soit K un corps. Une matrice coefficients dans K est un tableau rectangulaire dlments de K.

a1,1 a1,2 . . . a1,n


a2,2 . . . a2,n
a
On les note sous la forme A = 2,1
ou sous la forme
...
... ... ...
am,1 am,2 . . . am,n
synthtique A = (ai,j )1im (on notera que lindice correspondant la ligne
1jn

est crit avant celui correspondant la colonne). Lensemble des matrices m


lignes et n colonnes coefficients dans K est not Mm,n (K).
Pour A = (ai,j )1im Mm,n (K), B = (bi,j )1im Mm,n (K), K, on
1jn
1jn
pose
A + B = (ai,j + bi,j )1im
1jn

A = (ai,j )1im
1jn

Dautre part pour A = (ai,j )1im Mm,n (K) , B = (bi,j )1in Mn,p (K),
1jn
1jp
on pose

!
AB =
ai,k bk,j
1kn

21

1im
1jp

22

CHAPITRE 2. MATRICES, CHANGEMENTS DE BASE

On vrifie que ce produit est associatif : si A Mm,n (K), B Mn,p (K), C


Mp,q (K) alors A(BC) = (AB)C.
Rappelons que le symbole de Kronecker i,j est dfini par les formules i,j = 0
si i += j, i,j = 1 si i = j. On a le rsultat suivant
Proposition 2.1.1 (i) Muni de laddition et du produit par un lment de K
dfinis ci-dessus, Mm,n (K) est un espace vectoriel sur K de dimension mn.
(ii) Muni de laddition et de la multiplication dfinies ci-dessus, Mn,n (K) est
un anneau unitaire dunit In = (i,j ) 1in , o i,j est le symbole de Kronecker.
1jn

Dmonstration : Des vrifications de routine montrent que Mm,n (K) est


un espace vectoriel sur K et que Mn,n (K) est un anneau unitaire dunit In .
Dautre part si on note Ei,j la matrice de Mm,n (K) dont le terme dindice i, j
est gal 1 et dont tous les autres termes sont nuls on vrifie immdiatement
que {Ei,j }1im est une base de Mm,n (K) et par consquent Mm,n (K) est de
1jn

dimension mn.

2.2

Matrice associe une application linaire

On va maintenant associer une matrice une application linaire u : E F,


o E et F dsignent deux espaces vectoriels de dimension finie munis de bases.
Dfinition 2.2.1 Soient E un espace vectoriel de dimension finie muni dune
base B0 = (e1 , . . . , en ), soit F un espace vectoriel muni dune base B1 = (f1 , . . . , fm )
et soit u : E F une application linaire. On appelle matrice de u"
par rapport
n
aux bases B0 et B1 la matrice Mu,B0 ,B1 := (mi,j )1im , o u(ej ) = i=1 mi,j fi
1jn

pour 1 i m, 1 j n.
Autrement dit la j e colonne de Mu,B0 ,B1 est forme des coordonnes de
limage par u du j e vecteur de la base B0 de E dans la base B1 de F.

Un moyen mnmotechnique de se souvenir de la facon decrire la matrice


Mu,B0 ,B1 consiste crire

Mu,B0 ,B1

f1
.
=

.
fm

u(e1 ) . . . . .

u(en )

Exemple 2.2.2 Soit D : p " p%loprateur


de drivation sur R2 (x), et soit
0 1 0
B0 = (1, x, x2 ). Alors MD,B0 ,B0 = 0 0 2 .
0 0 0

2.2. MATRICE ASSOCIE UNE APPLICATION LINAIRE

23

En effet D(1) = 0, D(x) = 1 et D(x2 ) = 2x.


Exemple 2.2.3 Pour n 1 soit Bn = (e1 , . . . , en ) la "base canonique" de K n ,

1,i
.
dfinie par la formule ej =
pour 1 j n, soient m et n deux entiers
.
n,j
et soit A Mm,n (K). Soit uA : K n K m lapplication linaire dfinie par la
formule uA (X) = AX pour X K n . Alors MuA ,Bn ,Bm = A.

a1,j
. "

m
En effet on a uA (ej ) = Aej = . = i=1 ai,j ei pour 1 j n. Par

.
am,j
consquent toutes les colonnes de MuA ,Bn ,Bm et A coincident, et MuA ,Bn ,Bm = A.
Le rsultat simple suivant permet de ramener les calculs concernant les applications linaires des calculs matriciels.
Proposition 2.2.4 Soient E et F deux espaces vectoriels non nuls de dimension finie, soit B0 une base de E, soit B1 une base de F et soit u L(E, F ).
On a la formule
(2.1)

Y = Mu,B0 ,B1 X

o X dsigne les coordonnes dun lment quelconque x de E dans la base


B0 et o Y dsigne les coordonnes de u(x) dans la base B1 .
Dmonstration : Posons B0 = (e1 , . . . , en ), B1 = (f1 , . . . , fm ), Mu,B0 ,B1 :=

x1
y1
.
.


(mi,j )1im , X = . , Y = . .

1jn
.
.
ym
xn
"n

m1,j xj
.

"n

On a Mu,B0 ,B1 X =
.
. Dautre part u(x) = j=1 xj u(ej ) =

"n .
j=1 mm,j xj
"n
"m
"
m "m
j=1 xj (
i=1 mi,j fi )) =
i=1 (
j=1 mi,j xj )fi .
"n

j=1 m1,j xj
.

Par consquent
.
est la matrice colonne forme des coor

.
"n
j=1 mm,j xj
j=1

24

CHAPITRE 2. MATRICES, CHANGEMENTS DE BASE


donnes de u(x) dans la base B1 , et on a bien
Y = Mu,BO ,B1 X.

Notons que la relation Y = Mu,B0 ,B1 X caractrise la matrice Mu,B0 ,B1 . En


effet si une matrice N = (ni,j )1im vrifie la mme relation, on a , en appliquant
1jn

1,j
.

cette formule avec x = ej pour 1 j n, ce qui donnne X = . ,

.
n,j

n1,j
1,j
m1,j
.
. .

. = Y = NX = N . = . .

.
.
.
n,j
nm,j
mm,j
Par consquent toutes les colonnes de Mu,B0 ,B1 et N sont gales, et N =
Mu,B0 ,B1 .
Soient maintenant E, F, G trois espaces vectoriels non nuls de dimension
finie, soit B0 une base de E, soit B1 une base de F et soit B2 une base de G.
Pour x E notons X le vecteur colonne form des coordonnes de x dans B0 , Y
le vecteur colonne form des coordonnes de u(x) dans B1 et Z le vecteur colonne
form des colonnes de (u v)(x) = u(v(x)) dans B2 . On a Z = Mv,B1 ,B2 Y =
Mv,B1 ,B2 Mu,B0 ,B1 X et on obtient
(2.2)

Mvu,B0 ,B2 = Mv,B1 ,B2 Mu,B0 ,B1 .

Soient E et F deux espaces vectoriels sur un corps K. On dira quune application : E F est un isomorphisme linaire si est linaire et bijective,
et dans ce cas lapplication rciproque 1 : F E est galement un isomorphisme linaire. Si A et B sont deux anneaux unitaires dunits 1A et 1B , on
dira quune application : A B est un homomorphisme danneaux si les
conditions suivantes sont vrifies

(x + y) = (x) + (y) x A, y B
(2.3)
(xy) = (x)(y)
x A, y B

(1A ) = 1B
On dira que : A B est un isomorphisme danneaux si est un homomorphisme danneaux bijectif. Dans ce cas on voit galement que lapplication
rciproque 1 : B A est un isomorphisme danneaux. On a le rsultat
suivant.

Proposition 2.2.5 (i) Soient E et F deux espaces vectoriels de dimensions


finies n 1 et m 1 sur un corps K, soit B0 une base de E et soit B1 une base
de F. Alors lapplication u Mu,B0 ,B1 est un isomorphisme linaire de L(E, F )
sur Mm,n (K).

2.3. FORMULE DE CHANGEMENT DE BASE POUR LES COORDONNES DE VECTEURS25


(ii) Soit E un espace vectoriel de dimension n 1 sur un corps K et soit B0
une base de E. Alors lapplication u Mu,B0 ,B0 est un isomorphisme danneaux
de L(E, E) sur Mn,n (K).
Dmonstration : (i) Posons B0 ,B1 (u) = Mu,B0 ,B1 pour u L(E, F ). Comme
(u + v)(x) = u(x) + v(x) pour , K, u, v L(E, F ), x E, il est clair
que B0 ,B1 est linaire. Si Mu,B0 ,B1 = 0, soit x E, et soit Y le vecteur colonne
form des coordonnes de u(x) dans la base B1 . Il rsulte de la formule (2.1)
que Y = 0, donc u(x) = 0 pour tout x E et u = 0, ce qui prouve que B0 ,B1
est injective.
Notons e1 , . . . , en les lments de la base B0 , notons f1 , . . . ,"
fm les lments
n
de la base B1 et soit M = (mi,j )1im Mm,n (K). Pour x = j=1 j ej E,
1jn
6
"m 5"n
posons u(x) = i=1
j=1 j mi,j fi . Comme lapplication qui x E associe
sa j e coordonne j dans la base B0 est linaire pour 1 j 5
n, on voit que6u est
"m "n
une application linaire de E dans F. On a u(ek ) = i=1
j=1 k,j mi,j fi =
"m
i=1 mi,k fi pour 1 k m. Donc toutes les colonnes de Mu,B0 ,B1 et M
coincident, et Mu,B0 ,B1 = M, ce qui prouve que B0 ,B1 est surjective. Donc
B0 ,B1 est bien un isomorphisme linaire de L(E, F ) sur Mm,n (K).
(ii) On sait dj que B0 ,B0 est une application bijective de L(E, E) sur
Mn,n (K), et que B0 ,B0 (u + v) = B0 ,B0 (u) + B0 ,B0 (v) pour u, v L(E, E).
Soit I : x " x lapplication identit sur E, qui est llment unit de L(E, E),
et soit In la matrice unit introduite la proposition 2.1.1. On a B0 ,B0 (I) = In ,
et il rsulte de la formule (2.2) que B0 ,B0 (u v) = B0 ,B0 (u)B0 ,B0 (u) pour
u, v L(E, E).
Corollaire 2.2.6 Si dim(E) = m et dim(F ) = n, alors dim(L(E, F )) = mn.
Corollaire 2.2.7 Soit E un espace vectoriel de dimension n 1 et soit B une
base de E.
(i) Pour que u L(E, E) soit bijective, il faut et il suffit que la matrice
1
Mu,B,B soit inversible, et dans ce cas Mu1 ,B,B = Mu,B,B
.
n
(ii) On a Mun ,B,B = Mu,B,B pour u L(E, E), n 1.

2.3

Formule de changement de base pour les coordonnes de vecteurs

On va maintenant tudier la question du changement de base sur un espace


vectoriel de dimension finie.
Dfinition 2.3.1 Soit E un espace vectoriel de dimension n 1, soit B =
(e1 , . . . , en ) une base de E et soit B % = (e%1 , . . . , e%p ) une famille de p lments
%
!
de E. On appelle matrice
"n reprsentant B dans la base B la matrice PB,B :=
%
(pi,j )1in , o ej = i=1 pi,j ei pour 1 i n, 1 j p.
1jp

26

CHAPITRE 2. MATRICES, CHANGEMENTS DE BASE

Autrement dit la j e colonne de PB,B! est forme des coordonnes du j e vecteur


de la famille B % dans la base B.
De mme que plus haut, un moyen mnmotechnique de se souvenir de la
facon decrire la matrice PB,B! consiste crire

PB,B!

e%1

e%p

. . . . .

e1
.
=

.
em

Proposition 2.3.2 Soit E un espace vectoriel de dimension n 1, soit B =


(e1 , . . . , en ) une base de E et soit B % = (e%1 , . . . , e%n ) une famille de n lments de
E. Pour que B % soit une base de E, il faut et il suffit que la matrice PB,B! soit
inversible dans Mn,n (K). Dans ce cas la matrice PB,B! est appele la matrice
1
de passage de la base B la base B % , PB! ,B = PB,B
! , et on a la formule
(2.4)

X = PB,B! X %

o X dsigne la matrice colonne forme coordonnes dun lment quelconque x


de E dans la base B et o X % dsigne la matrice colonne forme des coordonnes
de x dans la base B % .
Dmonstration : Avec les notations de la dfinition prcdente, on a pour
toute famille (1 , . . . , n ) dlments de K

7 n
8
n
n
n
n
!
!
!
!
!

j pi,j ei =
j
pi,j ei =
j e%j .
i=1

j=1

j=1

i=1

j=1

Supposons que PB,B!"soit inversible, soit (1 , . . . , n ) une"


famille de n ln
%
ments de K telle que
posons i =
1jn j ej = 0, et "
j=1 j pi,j pour
1 i n. Daprs la formule ci-dessus, on a 1in i ei = 0, et i = 0 pour


1
1
1
0
0
.
.
.
.

1 .
1 i n. Comme = PB,B!
, on a
= PB,B! = ,
.
.
.
.
.
n
n
n
0
0
ce qui prouve que la famille B % est libre. Comme le nombre dlments de B % est
gal la dimension de E, il rsulte du thorme 1.6 que B % est une base de E.
Supposons maintenant que B % est une base de E, et soit x E. Il rsulte de
la formule ci-dessus que si X dsigne la matrice colonne forme des coordonnes
de x dans la base B, et si X % dsigne la matrice colonne forme des coordonnes
de x dans la base B, on a X = PB,B! X % , ce qui tablit la formule (2.4).
Notons que la formule (2.4) caractrise la matrice PB,B! . En effet si avec
les notations prcdentes une matrice A = (ai,j )1im vrifie X = AX % pour
1jn

2.4. FORMULE DE CHANGEMENT DE BASE POUR LES APPLICATIONS LINAIRES27

p1,j
.

tout x E, en appliquant cette formule pour x = e%j on obtient . =

.
pn,j

1,j
a1,j
. .

A . = . pour 1 j n, et par consquent A = PB,B! .

.
.
n,j
an,j
Supposons de nouveau que B % est une base de E. Avec les notations prcdentes on a X = PB,B! X % = PB,B! PB! ,B X et X % = PB! ,B X = PB! ,B PB,B! X % .
Donc PB,B! PB! ,B = PB,B = In et PB! ,B PB,B! = PB! ,B! = In . Ceci montre que
1
PB,B! est inversible et que PB! ,B = PB,B
!.

a1,n
a1,1
.
.

Exemple 2.3.3 1) Soit B = . , . . . , . une famille de n l

.
.
am,1
am,n
ments de K m , et soit B0 la base canonique de K m . Alors PB0 ,B = (ai,j )1im .

1jn

2)La famille B = (x(x 1), x(x + 1), (x + 1)(x 1)) est une base de R2 [x],
et si on pose B0 = (1, x, x2 ) on a

1
12 12
0 0 1
2
1
1
.
PB0 ,B = 1 1
0 , PB,B0 = 12
2
2
1
0 0
1 1
1

En effet si X K m , le vecteur colonne form des coordonnes de X dans


la base canonique de K m est gal X, ce qui donne la formule du premier
exemple. Dans le deuxime exemple le calcul de PB0 ,B est immdiat. Si 1 x(x
1) + 2 x(x 1) + 3 (x + 1)(x 1) = 0 on obtient 1 = 0 en remplacant x par 1,
2 = 0 en remplacant x par 1 et 3 = 0 en remplacant x par 0, ce qui montre
que B est libre. Comme R2 (x) est de dimension 3, B est une base de R2 (x).
Pour calculer PB,B0 le plus simple est de rsoudre l quation 1 x(x 1) +
2 x(x+1)+3 (x+1)(x1) = 0 +1 x+2 x2 . On obtient 1 = 12 (0 1 +2 )
en remplacant x par 1, 2 = 12 (0 +1 +2 ) en remplacant
x par
1 et 3 = 0
1
1
1

2
2
2
1
1
en remplacant x par 0, ce qui donne bien PB,B0 = 12
.
2
2
1
0 0

2.4

Formule de changement de base pour les applications linaires

On va maintenant tudier leffet dun changement de bases sur la matrice


reprsentant une application linaire.

28

CHAPITRE 2. MATRICES, CHANGEMENTS DE BASE

Proposition 2.4.1 Soient E et F deux espaces vectoriels non nuls de dimension finie, soient B0 et B0% deux bases de E, soient B1 et B1% deux bases de F et
soit u : E F une application linaire. On a alors
Mu,B0! ,B1! = PB1
! Mu,B0 ,B1 PB0 ,B !
0
1 ,B

(2.6)

Dmonstration : Soit x E, soit X le vecteur colonne form des coordonnes


de x dans la base B0 , soit X % le vecteur colonne form des coordonnes de x
dans la base B0% , soit Y le vecteur colonne form des coordonnes de u(x) dans
la base B1 , et soit Y % le vecteur colonne form des coordonnes de u(x) dans la
base B1% .
Il rsulte des formules (2.1), (2.4) et (2.5) que Y = Mu,B0 ,B1 X, X = PB0 ,B0! X % ,
%
%
%
Y = PB1
= PB1
! Y, ce qui donne Y
! Mu,B0 ,B1 PB0 ,B ! X , relation qui caract0
1 ,B1
1 ,B1
rise la matrice Mu,B0! ,B1! .
Corollaire 2.4.2 Soit E un espace vectoriel non nul de dimension finie, soient
B et B % deux bases de E et soit u : E E un endomorphisme de E. On a alors
1
Mu,B! ,B! = PB,B
! Mu,B,B PB,B !

(2.7)

Exemple 2.4.3 Soit B = (x(x 1), x(x + 1), (x + 1)(x 1)) la base de R2 (x)
introduite lexemple 2.12 et soit D : p " p% loprateur de drivation sur
R2 [x]. On a alors

3
2 12 1
3
1
MD,B,B = 12
2
1 1
0
En effet posons B0 = (1, x, x2 ). On a vu que MD,B0 ,B0

0 0 1
PB0 ,B = 1 1
0 , et que PB1
= PB,B0
0 ,B
1 1
1
On a donc
1

12 12
0 1
2
1
1
MD,B,B = 12
0 0
2
2
1
0 0
0 0

1
2
1
2

12
1
2

1
2
1
2

1
2
0
0

1
2
1
2

0 1 0
= 0 0 2 , que
0 0 0

12
1
2

1
2
1
2

0
0 0 1
2 1 1
0
0
1 1
1

3
1 0
2
2 2 = 12
0 0
1

12
3
2

1
1
0

2.5. CHAPITRE 2 SOUS MUPAD

2.5

29

Chapitre 2 sous MUPAD

Le logiciel Mupad est bien adapt aux oprations sur les matrices abordes
dans ce chapitre. On notera quon commence par la commande M := Dom ::
M atrix(); On dfinit ensuite les matrices utilises en dclarant
A := M ([[., . . . , .], . . . , [., . . . , .]]), [., . . . , .] dsignant les lignes de la matrice.
A titre dexemple
la formule
D,B,B en utilisant

1on va 1calculer
la matrice M
1
0
1
0

2
2
2
1
1
et MD,B0 ,B0 = 0 0 2 .
2.7 , avec PB,B0 = 12
2
2
0 0 0
1
0 0
M:=Dom::Matrix():
P:=M([ [0, 0,-1],[-1,1,0],[1,1,1]]);
A:=M([ [0,1,0],[0,0,2],[0,0,0]]);
P^(-1)*A*P;

+-+
|
0, 0, -1 |
|
|
| -1, 1, 0 |
|
|
|
1, 1, 1 |
+-+
+-+
| 0, 1, 0 |
|
|
| 0, 0, 2 |
|
|
| 0, 0, 0 |

+-+
| -3/2, -1/2, -1 |
|
|
|
1/2, 3/2, 1 |
|
|
|
1,
-1,
0 |

30

CHAPITRE 2. MATRICES, CHANGEMENTS DE BASE

1
3
On retrouve donc sans surprise le fait que MD,B,B = 12
1 .
2
1 1
0
Nous concluons ce Chapitre en montrant comment on peut utiliser Mupad pour
calculer le carr et linverse dune matrice un peu plus grande que les matrices
ci-dessus.
32

12

M:=Dom::Matrix();
P:= M([ [1,6,8,9, 13],[11,4,77,9,2],[12,8,9,0,5],[6,8,9,11,0],[5,4,3,3,1]]);
P^2;
P^(-1);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+-+
|
1, 6, 8, 9, 13 |
|
|
| 11, 4, 77, 9, 2 |
|
|
| 12, 8, 9, 0, 5 |
|
|
|
6, 8, 9, 11, 0 |
|
|
|
5, 4, 3, 3, 1 |
+-+

2.6. EXERCICES SUR LE CHAPITRE 2

31

+-+
|
282, 218, 662, 201, 78 |
|
|
| 1043, 778, 1176, 240, 538 |
|
|
|
233, 196, 808, 195, 222 |
|
|
|
268, 228, 844, 247, 139 |
|
|
|
108, 98, 405, 117, 89 |
+-+
+-+
|
66/11665,
291/11665, -3112/11665, -4143/11665, 2824/2333
|
|
|
| -3589/69990, -3629/69990, 35963/69990, 6707/11665, -12590/6999 |
|
|
|
-32/6999,
71/6999,
307/6999,
104/2333,
-1261/6999 |
|
|
|
1328/34995, 553/34995, -9241/34995, -1983/11665, 5567/6999
|
|
|
|
2684/34995, 169/34995, -2128/34995, -1724/11665, 2081/6999
|

2.6

Exercices sur le Chapitre 2

exercice 1
On considre lespace vectoriel R2 muni de sa base canonique B = (e1 , e2 ).
Soit u lendomorphisme de R2 dfini par u(e1 ) = 2e1 + e2 et u(e2 ) = e1 + e2 .
a) Dterminer la matrice de u dans la base B.
b) Soient v1 = e1 e2 et v2 = e1 + e2 . Montrer que (v1 , v2 ) est une base de
R2 et dterminer la matrice de u dans cette nouvelle base.
exercice 2
On considre lapplication f : R3 R3 dfinie par la formule
f (x, y, z) = (z + x + y, x y, z 2x)

(x, y, z) R3 .

a) Montrer que f est un endomorphisme de R3 .


b) Dterminer le noyau et calculer le rang de f. Lappication f est-elle injective ? surjective ?

32

CHAPITRE 2. MATRICES, CHANGEMENTS DE BASE

c) Dterminer la matrice de f dans la base canonique B = (e1 , e2 , e3 ) de R3 .


d) On pose u1 = (1, 1, 2), u2 = (1, 1, 0), u3 = (0, 1, 1). Montrer que B1 =
(u1 , u2 , u3 ) est une base de R3 .
Dterminer la matrice de f dans la base B1 .
e) Dterminer w R3 tel que B2 = (f (u1 ), f (u2 ), w) soit une base de R3 .
Dterminer la matrice de f dans la base B2 .
exercice 3
On munit R3 de la base canonique B = (e1 , e2 , e3 ).
Pour a R, on dfinit f : R3 R3 par les formules
fa (e1 ) = ae1 + e2 + e3 , fa (e2 ) = e1 + ae2 + e3 , fa (e3 ) = e1 + e2 + ae3 .
a) Donner une base de Ker(f2 ) et une base de Im(f2 ).
b) Donner une base de Ker(f1 ) et une base de Im(f1 ).
c) Montrer que lapplication f0 est bijective.
d) Montrer que R3 = Ker(f2 ) Ker(f1 ).
e) Ecrire la matrice A de fa dans la base B. Appelons B1 la base de Ker(f2 )
trouve au a), et B2 la base de Ker(f1 ) trouve au b). Ecrire la matrice B de
fa dans la base B % = B1 B2 . Donner une formule matricielle exprimant B en
fonction de A.
f) Calculer B n pour n 0.
g) Montrer que A2 (2a + 1)A + (a 1)(a + 2)I = 0, I dsignant la matrice
unit de M3 (R).
h) Pour quelles valeurs de a) la matrice A est-elle inversible ? Dans le cas o
A est inversible, calculer A1 .
exercice 4(sous Mupad)
1) Soit B = (1 + x x2 + x3 x4 , 7 4x + x2 + x3 + 2x4 , 8 x + 3x2 + 7x3 +
4
4x , 2 + 3x + 7x2 5x3 + x4 , 4 + 7x 5x2 + 8x3 + x4 ).
Montrer que B est une base de R4 [x].
2) Donner les coordonnes de q = 1 + x + x2 + x3 + x4 dans la base B.
3) Soit D : p " p% loprateur de drivation sur R4 [x]. Calculer MD,B,B .

Chapitre 3

Dterminants, notations
indicielles de la Physique
3.1

Proprits des dterminants

Dans toute la suite du cours on notera Mn (K) lanneau des matrices n


lignes et n colonnes coefficients dans un corps K, on notera L(E) lanneau
des endomorphismes dun K-espace vectoriel E de dimension finie, et on notera
Mu,B = Mu,B,B la matrice reprsentant u L(E) dans une base B de E.
On note Sn le groupe des permutations dordre n, cest dire lensemble
des bijections de lensemble {1, . . . , n} sur lui mme muni de la composition des
applications. On adopte la notation suivante, pour Sn :
=

1
(1)

2
(2)

...
...

n
(n)

La signature dune permutation est dfinie par la formule


9

)() =

1i<jn

(j) (i)
.
ji

On vrifie que )() {1, 1} et que )( ) = )())( ) pour Sn , Sn .


Ceci permet dintroduire la dfinition suivante :
Dfinition 3.1.1 Soit A = (ai,j ) 1in Mn (K). On dfinit le dterminant
1jn

de A par la formule

det(A) =

)()a(1),1 . . . a(n),n .

Sn

33

34CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


On utilisera galement la notation
:

. . . a1,n
: a1,1
:
...
.
: .

:
...
. ) = : .
:

...
.
: .
:
. . . an,n
an,1

a1,1
.

det( .

.
an,1

:
. . . a1,n :
:
...
. :
:
...
. :.
:
...
. :
:
. . . an,n

Les dterminants possdent la proprit fondamentale suivante, que nous


admettrons sans dmonstration.
Thorme 3.1.2 : Soient A, B Mn (K). Alors det(AB) = det(A)det(B).
Le groupe S2 se rduit deux lments 1 et 2 , avec
1
1

1 =

2
2

1
2

et 2 =

2
1

On a )(1 ) = 1 et )(2 ) = 1, donc


"2
i=1 ai (1),1 ai (2),2 = a1,1 a2,2 a2,1 a1,2 et on obtient
:
:
:a b:
:
:
(3.1)
: c d : = ad bc.

Le groupe S3 possde six lments 1 , 2 , 3 , 4 , 5 et 6 , avec


1 =

1
1

2
2

3
3

, 2 =

1
2

2
3

3
1

, 3 =

1
3

2
1

3
2

4 =

1
3

2
2

3
1

, 5 =

1
1

2
3

3
2

, 6 =

1
2

2
1

3
3

On a )(1 ) = 1, )(2 ) = (32)(12)(13)


= 1, )(3 ) = (13)(23)(21)
=
2
2
(23)(13)(12)
(31)(21)(23)
1, )(4 ) =
= 1, )(5 ) =
= 1, et )(6 ) =
2
2
(12)(32)(31)
=
1.
On
obtient,
si
A
=
(a
)

M
(K)
:
i,j 1i3
3
2
1j3
"6
det(A) = i=1 )(i )ai (1),1 ai (2),2 ai (3),3 = a1,1 a2,2 a3,3 +a2,1 a3,2 a1,3 +a3,1 a1,2 a2,3
a3,1 a2,2 a1,3 a1,1 a3,2 a2,3 a2,1 a1,2 a3,3 .
On en dduit la rgle de Sarrus
a1,1

(3.2)

:
: a1,1
:
:
:
: a2,1
:
:
:
a3,1

a1,2

a1,3

a2,2

a2,3

a3,2

a3,3

:
a2,1
:
:
:
:
: = a3,1
:
:
:
a1,1
a2,1

a1,2

a1,3

a2,2

a2,3

a3,2

a3,3

a1,2

a1,3

a2,2

a2,3

#
#
# $
# #
$
#
$ $# # $#$# #
#$#$ #
#
$
#
$ +
$#$# $
#$#$ $
# #$ $ +
3.1. PROPRITS DES DTERMINANTS
$
#
$ $
#
$ +
$
$

35

Autrement dit on recopie en dessous de la matrice ses deux premires lignes


et on trouve le dterminant en calculant la somme obtenue en affectant les
trois produits obtenus en descendant 45 de gauche droite du signe + et
en affectant les trois produits obtenus en montant 45 de gauche droite du
signe . On obtient par exemple
#
$
1 2 #
3 #:
:
#
:1 2 3: $
3 $2 #
1 #:
:
#
##
$1$
:3 2 1: =$
1
1
:
: ##$$
:1 1 1:
1 $2# 3 $
##$$ +
3 2 1$
#
$ +
$
+
:
:1
:
Donc :: 3
:1

:
2 3 ::
2 1 :: = 2 + 9 + 2 6 1 6 = 0.
1 1:

On peut galement dvelopper un dterminant suivant une ligne ou une colonne. Si A Mn (K) on appellera cofacteur dindice (i, j), et on notera Ci,j (A),
le dterminant de la matrice (n1) lignes et (n1) colonnes obtenu en retirant
A sa ie ligne et sa j e colonne. On a alors le thorme suivant.
Thorme 3.1.3 Soit A = (ai,j ) 1in Mn (K).
1jn

1) (Dveloppement
selon les lignes)
"
On a det(A) = 1jn ai,j (1)i+j Ci,j (A) pour 1 i n.
2) (Dveloppement
selon les colonnes)
"
On a det(A) = 1in ai,j (1)i+j Ci,j (A) pour 1 j n.

:
:1
:
Par exemple on a, en dveloppant par rapport la premire colonne, :: 3
:1
:
:
:
: :
:
:2 1:
:2 3: :2 3:
:
:
:
: :
:
: 1 1 : 3 : 1 1 : + : 2 1 : = 1 + 3 4 = 0.

:
2 3 ::
2 1 :: =
1 1:

On dira que A = (ai,j ) 1in Mn (K) est triangulaire suprieure si ai,j = 0


1jn

pour i > j, on dira qua A est triangulaire infrieure si ai,j = 0 pour i < j, et on
dira que A est triangulaire si elle est triangulaire suprieure ou infrieure. On
dduit du thorme 3.3 le rsultat suivant.

Corollaire 3.1.4 Si A = (ai,j ) 1in Mn (K) est triangulaire, det(A) =


1jn
a1,1 . . . an,n .

36CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


Dmonstration : Cest vident si n = 1. Supposons la proprit vrifie pour
n, et soit A = (ai,j ) 1in+1 Mn+1 (K) une matrice triangulaire. En dvelop1jn+1

pant par rapport la premire ligne ou la premire colonne de A, on obtient


det(A) = a1,1 C1,1 (A), et C1,1 (A) = a2,2 . . . an,n daprs lhypothse de rcurrence. Donc la proprit est vrifie pour tout n 1.
La Proposition suivante rsume quelques proprits classiques des dterminants.
Proposition 3.1.5 Soit A Mn (K).
1) Si on change deux colonnes de A, ou si on change deux lignes de A, le
dterminant de A est multipli par 1.
2) Lapplication X " det(A(i) (X)), o A(i) (X) dsigne la matrice obtenue
en remplacant la ie ligne de A par un vecteur ligne X, est une application linaire
de K n dans K pour 1 i n.
3) Lapplication Y " det(A(j) (Y )), o A(j) (Y ) dsigne la matrice obtenue
en remplacant la j e colonne de A par Y, est une application linaire de K n dans
K pour 1 i n.
4) Si deux lignes de A sont gales, ou si deux colonnes de A sont gales, le
dterminant de A est nul.
5) Le dterminant ne change pas si on ajoute une ligne de A une combinaison linaire des autres, ou si on ajoute une colonne de A une combinaison
linaire des autres.
Ces rsultats sont dun grand intrt pratique pour le calcul des dterminants.
Considrons par exemple le dterminant suivant :
:
:
5 :
:1 2 3 4
:
:
1 :
:1 2 1 2
:
:
: 1 1 4 3 1 : .
:
:
4 :
: 2 1 3 1
:
:
5 2 3 1 3
On retranche la premire ligne la 2e et la 3e , on retranche Deux fois la
premire ligne la quatrime et 5 fois la premre ligne la cinquime.
L2 L2 L1 , L3 L3 L1 , L4 L4 2L1 , L5 L5 5L1

:
:
2
3
4
5 : :
:1
:
2 2 4 :
:
: : 0
0
2 2 4 : :
:0
:
1
1 6 :
:
: : 3
D = : 0 3
1
1 6 : = :
:
:
: : 5 3 7 6 :
: 0 5 3 7 6 : :
:
12 12 21 22
:
:
0 12 12 21 22
:
:
:
:
1
1
2 :
1
1
1 :
: 0
: 0
:
:
:
:
1
1 6 :
1
1 3 :
: 3
: 3
= 2 :
: = 4 :
:
: 5 3 7 6 :
: 5 3 7 3 :
:
:
:
:
12 12 21 22
12 12 21 11

3.2. MATRICES CARRES INVERSIBLES

37

0n retranche la dernire colonne la deuxime et la troisime.


C2 C2 C4 , C3 C3 C4 .

:
:
:
:
:
:
0
0
1 :
: 0
: 3
: 3
4
2 ::
4
1 ::
:
:
:
:
4
2
3 :
: 3
D = 4 :
0
4 :: = 8 :: 5
0 2 :: .
: = 4 :: 5
0
4 3 :
: 5
:
:
:
12 1 10
12 1 5 :
:
:
12 1 10 11

C1 C1 + 3C3 ,
:
: 0
0
:
D = 8 :: 11 8
: 27 19

3.2

C2 C2 4C3 .
:
:
:
1 ::
: 11 8 :
: = 8(209 + 216) = 56.
2 :: = 8 ::
27 19 :
5 :

Matrices carres inversibles

Le thorme 3.3 permet dobtenir des formules pour calculer linverse dune
matrice. Rappelons quon dit quun lment b dun anneau B est inversible
gauche sil existe c B tel que cb = e, e dsignant llment unit de B pour la
mutiplication. De mme on dit que b est inversible droite sil existe c B tel
que bc = e.
Dfinition 3.2.1 Soit B = (bi,j )1im Mm,n (K). On appelle transpose
1jn

de B, la matrice B t = (bj,i ) 1jn obtenue en changeant les lignes et les co1im

lonnes de B.

On a les proprits suivantes


(3.3)

(B t )t = B

B Mm,n (K).

(3.4)

(B + C)t = B t + C t

(3.5)

(BC)t = C t B t

(3.6)

det(B t ) = det(B)

On a le rsultat suivant.

, K, B, C Mn (K).

B Mm,n (K), C Mn,p (K).

B Mn (K).

38CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


Thorme 3.2.2 Soit A Mn (K). Les conditions suivantes sont quivalentes
1) A est inversible droite
2) A est inversible gauche
3) A est inversible
4) det(A) += 0.
Dautre part on a dans ce cas
A1 =

1
(C(A))t ,
det(A)

o C(A) est la matrice des cofacteurs de A dfinie par la formule


;
<
C(A) = (1)i+j Ci,j (A) 1in .
1jn

Dmonstration : On a det(In ) = 1, donc si A possde un inverse gauche B


on a det(B)det(A) = det(In ) = 1 et det(A) += 0. De mme det(A) += 0 si A est
inversible gauche. Supposons maintenant que det(A) += 0. On a
n
!

ai,k (1)k+j Cj,k (A) = det(A(i,j) ),

k=1

o A(i,j) est la matrice obtenue en remplacant la j e ligne de A par la ie , car


ce changement naffecte pas les cofacteurs Cj,k pour 1 k n. Si i += j, les ie
et j e lignes de la matrice A(i,j) sont gales, donc det(A(i,j) ) = 0. Si i = j, alors
A(i,j) = A(i,i) = A. On voit donc que A.(C(A))t = det(A)In .
Dautre part
n
!
ak,j (1)k+i Ck,i (A) = det(A(i,j) ,
k=1

o A(i,j) dsigne la matrice obtenue en remplacant la ie colonne de A par


la j e . On a donc det(Ai,j ) = 0 pour i += j, det(Ai,j ) = det(A) pour i = j, et on
obtient
(3.7)

A.(C(A))t = (C(A))t .A = det(A)In

A Mn (K).

1
Donc si det(A) += 0 alors A est inversible, et A1 = det(A)
(C(A))t A. Comme
toute matrice inversible est fortiori inversible droite et gauche,ceci achve
la dmonstration.
Pour les matrices deux lignes et deux colonnes on obtient

(3.8)

a b
c d

>1

1
ad bc

d b
c a

>

si ad bc += 0.

3.3. FORMULES DE CRAMER

3.3

39

Formules de Cramer

On obtient aussi les formules de Cramer.


Thorme 3.3.1 On considre le systme linaire de n quations n inconnues

a1,1 x1 + . . . +a1,n xn = b1

.
...
.

.
...
.

.
.
.
.
.

an,1 x1 + . . . +an,n xn = bn
:
:
: a1,1 . . . a1,n :
:
:
...
. :
: .
:
:
Si : .
...
. : += 0, le systme admet une solution unique (x1 , . . . , xn )
:
:
...
. :
: .
:
:
an,1 . . . an,n
donne par les formules
xj =

detAj,b1 ,...,bn
pour 1 j n,
det(A)

o A = (ai,j ) 1in , et o Aj,b1 ,...,bn est la matrice obtenue en remplacant


1jn

b1
.
la j e colonne de A par .
.
bn
:
:
: a1,1 . . . a1,n :
:
:
...
. :
: .
:
:
...
. : = 0, alors ou bien le systme nadmet
Dautre part si : .
:
:
...
. :
: .
:
:
an,1 . . . an,n
aucune solution, ou bien le systme admet plusieurs solutions(en fait une infinit
de solutions si le corps K est infini).


x1
b1
Dmonstration : Posons X = . . , B = . . . Le systme est quivalent
xn
bn
lquation AX = B. Si det(A) += 0, A est inversible et cette quation admet
1
pour solution unique X = A
" B.
"
1
On a alors xj = det(A) 1kn (1)j+k Ck,j bk , et 1kn (1)j+k Ck,j bk coincide avec le dterminant de la matrice obtenue en remplacant la j e colonne de
A par B.
Considrons maintenant lapplication linaire U : K n K n dfinie par
lquation U (X) = AX. Si det(A) = 0, A nest pas inversible. Il rsulte alors de
la proposition 2.6 que U nest pas bijective, et il rsulte du corollaire 1.18 que
U nest ni bijective, ni surjective. Si B
/ Im(U ), le systme nadmet aucune
solution. Si B Im(U ), il existe X K n tel que AX = U (X) = B. Soit Y un

40CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


lment non nul de Ker(U ). On a A(X + Y ) = U (X) + U (Y ) = U (X) = B
pour tout K, ce qui fait que le systme admet plusieurs solutions(et une
infinit de solutions si le corps K est infini).

10 5 4
Considrons par exemple la matrice A = 5 2 3 .
3 1 2

On a par la rgle de Sarrus


: det(A)
: = 40 + 20 + 45
: 24 :30 50 = 1.
:2 3:
:5 3:
:
:
: = 1, C1,3 (A) =
Dautre part C1,1 (A) = :
= 1, C1,2 (A) = ::
:
:
1
2
3
2
:
:
:
:
:
:
:5 2:
:5 4:
: 10 4 :
:
:
:
:
:
:
: 3 1 : = 1, C2,1 (A) = : 1 2 : = 6, C2,2 (A) = : 3 2 : = 8, C2,3 (A) =
:
:
:
:
:
:
: 10 5 :
:5 4:
: 10 4 :
:
:
:
:
:
:
: 3 1 : = 5, C3,1 (A) = : 2 3 : = 7, C3,2 (A) = : 5 3 : = 10, C3,3 (A) =
:
:
: 10 5 :
:
:
: 5 2 : = 5.

1
1 1
1 6
7
Donc C(A) = 6
8
5 et A1 = (C(A))t = 1 8 10 .
1 5
5
7 10 5
Considrons maintenant le systme

10x + 5y + 4z = 1
5x + 2y + 3z = 2

3x + y + 2z = 1

Comme det(A) = 1, on peut appliquer les formules de Cramer, et le systme


possde une solution unique donne par les formules
:
:
:
:
:
:
: 10 5 1 :
: 10 1 4 :
: 1 5 4:
:
:
:
:
:
:
2 3 :: , z = :: 5 2 2 :: .
x = :: 2 2 3 :: , y = :: 5
: 3 1 1 :
: 3 1 2 :
: 1 1 2 :

En appliquant la rgle de Sarrus on obtient x = 4+815+8320 = 18,


y = 40 20 + 9 24 + 30 10 = 25, z = 20 + 5 + 30 6 20 + 25 = 14.
En fait comme A1 a dj t calcul, on pouvait crire directement

x
1
1 6
7
1
18
y = A1 2 = 1 8 10 2 = 25 .
z
1
1 5
5
1
14

3.4

Mthode du pivot de Gauss

En pratique le calcul des cofacteurs pour obtenir linverse dune matrice est
long et fastidieux ( 25 determinants dordre 4 si A M5 (K)), et les formules

3.4. MTHODE DU PIVOT DE GAUSS

41

de Cramer peuvent aussi mener des calculs assez longs pour rsoudre des
systmes linaires. On est plutt amen utiliser la mthode du pivot de
Gauss, dcrite dans le Cours dAnalyse numrique de X. Fischer.[5] Cette
mthode, qui consiste "trianguler le systme", permet aussi de rsoudre des
systmes o le nombre dquations est diffrent du nombre dinconnues. Nous
dcrivons cette mthode en reprenant la matrice prcdente.
On va rsoudre directement lquation AX = B.

10x + 5y + 4z = a
5x + 2y + 3z = b

3x + y + 2z = c
Pour simplifier les calculs on crit en premier la variable y et on change les
premires et troisimes quations.

y + 3x + 2z = c
2y + 5x + 3z = b

5y + 10x + 4z = a
L2 L2 2L1 , L3 L3 5L1 .

c
y +3x +2z =
x z = b 2c

5x 6z = a 5c
L3 L3 5L2 .

c
y +3x +2z =
x z =
b 2c

z = a 5b + 5c

La dernire quation donne z = a + 5b 5c. En reportant dans la deuxime


on obtient x = z b + 2c = a 5b + 5c b + 2c = a 6b + 7c. Enfin en reportant
dans la premire quation on obtient y = 3x 2z + c = 3a + 18b 21c +
2a 10b + 10c + c = a + 8b 10c.
Le systme admet donc une solution unique :

x = a 6b + 7c
y = a + 8b 10c

z = a + 5b 5c

Pour a = 1, b = 2, c = 3 on retrouve le fait que x = 1 12 7 = 18,


y = 1 + 16 + 10 = 25, z = 1 + 10 + 5 = 14.


x
1 6
7
a
Dautre part on a y = 1 8 10 b , et on retrouve le fait
z
1 5
5
c

10 5 4
1 6
7
que 5 2 3 = 1 8 10 .
3 1 2
1 5
5

42CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE

3.5

Dterminant dun endomorphisme et dune


famille de vecteurs

On peut galement dfinir la notion de dterminant dun endomorphisme


dun espace vectoriel de dimension finie.
Proposition 3.5.1 Soit E un espace vectoriel non nul de dimension finie, et
soit B une base de E. Pour u L(E), on pose
det(u) = det(Mu,B ).
Cette dfinition est indpendante du choix de la base B, et u est inversible
si et seulement si det(u) += 0. Dautre part det(u v) = det(u)det(v) pour
u, v L(E).
Dmonstration : Si B1 est une autre base de E, on a Mu,B1 = P 1 Mu,B P,
o P = PB,B1 est la matrice de passage de B B1 . Donc det(Mu,B1 ) =
det(P 1 )det(Mu,B )det(P ) = det(P )1 det(P )det(Mu,B ) = det(In )det(Mu,B ) =
det(Mu,B ), et la dfinition de det(u) est indpendante du choix de la base B. Le
fait que det(u v) = det(u)det(v) pour u, v L(E) est alors une consquence
immdiate de la proposition 2.6 et du thorme 3.2.
Dautre part on peut dfinir le dterminant dune famille B de n lments
dun espace vectoriel E de dimension finie n 1 dans une base donne B0 de
E.
Proposition 3.5.2 Soit E un espace vectoriel de dimension finie n 1 sur
un corps K, soit B0 une base de E, et soit F = {f1 , . . . , fn } une famille de n
lments de E. On dfinit le dterminant detB0 (F) de F dans la base B0 par la
formule
detB0 (F) = det(PB0 ,F ).
Alors F est une base de E si et seulement si detB0 (F) += 0.
De plus lapplication : E n K dfinie par la formule (F) = detB0 (F)
est une "forme multilinaire alterne" de E n dans K :
si Fi,j dsigne la famille obtenue en changeant fi et fj , avec 1 i < j n,
alors (Fi,j ) = (F), et si F(i, x) dsigne la famille obtenue en remplacant
fi par x E, alors lapplication x (Fi,x ) est une application linaire de E
dans K pour 1 i n.
Dmonstration : Ceci rsulte de la dfinition de la matrice PB0 ,F , de la
proposition 2.10 et de la proposition 3.5.

3.6. RANG DUNE MATRICE

3.6

43

Rang dune matrice

Les dterminants sont galement utiles pour calculer le rang dune matrice,
qui se dfinit de la manire suivante.
Dfinition 3.6.1 Soit B = (bi,j )1im Mn (K). On appelle rang de B, et
1jn

on note rg(B), la dimension du sous-espace vectoriel de K n engendr par les


colonnes de B.
Soient p, m, n trois entiers, avec 1 p inf (m, n). On dit quune matrice
A Mp (K) est une matrice extraite dune matrice B Mm,n (K) si A est une
matrice obtenue en retirant B m p de ses lignes et n p de ses colonnes. On
a alors le rsultat suivant.
Proposition 3.6.2 Soit B Mm,n (K) une matrice non nulle. Alors le rang de
B est gal au plus grand entier p 1 pour lequel il existe une matrice p lignes
et p colonnes extraite de B dont le dterminant soit non nul. En particulier
le rang de B est gal celui de sa transpose,cest dire la dimension du
sous-espace vectoriel de K m engendr par les lignes de B.
Dmonstration : Notons B1 , . . . , Bn les colonnes de B, soit E le sous-espace
vectoriel de K n engendr par les colonnes de B et soit p le rang de B. Il existe
des entiers i1 < i2 . . . < ip tels que (Bi1 , . . . , Bip ) soit une base de E. Soit
C = (ci,j )1im Mm,p (K) la matrice dont les colonnes sont Bi1 , . . . , Bip , soit
1jp

F le sous-espace vectoriel de K p engendr par les lignes L1 , . . . , Lm de C, et soit


q p la dimension de F. Il existe un sous-ensemble S de {1, . . . , m} possdant
q lments tel que (Lj )jS soit une base de F.

x1
.
Soit X = K p tel que Lj X = 0 pour j S, et soit k m. Il
.
xp
"
existe une famille
" (j )jS dlments de K telle que Lk = jS j Lj . On a
alors Lk X = jS j Lj X = 0, ce qui prouve que CX = 0. Comme les colonnes
de C forment une famille libre, on a X = 0. Soient j1 , . . . , jq les lments de
S, et soit D Mq,p (K) la matrice dont les lignes sont Lj1 , . . . , Ljq . Il rsulte
de ce qui prcde que les p colonnes de D forment une famille libre de K q , ce
qui prouve que q p. Donc q = p. Comme lquation DX = 0 admet 0 pour
unique solution dans K p , on a det(D) += 0, et D est une matrice p lignes et p
colonnes extraite de B dont le dterminant est non nul.
Supposons maintenant quil existe une matrice U r lignes et r colonnes
extraite de B telle que det(U ) += 0. Il existe un sous-ensemble R de {1, . . . , m}
possdant r lments et un sous-ensemble T de {1, . . . , n} possdant aussi r
lments tels que U = (bi,j ) iS . Soient j1 < . . . < jr les lments de T , et soit
jT

V Mm,r la matrice dont les colonnes sont Bj1 , . . . , Bjr . Si X K r vrifie


V X = 0, on a fortiori U X = 0, donc X = 0 et (Bj )jT est une famille libre de
K m . Donc r rg(B), et le rang de B est gal au plus grand entier p pour lequel

44CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


il existe une matrice p lignes et p colonnes extraite de B dont le dterminant
soit non nul. Comme le dterminant dune matrice carre est gal celui de sa
transpose, ceci montre que rg(B) = rg(B t ), cest dire que le rang de B est
gal la dimension du sous-espace vectoriel de K m engendr par les lignes de
B.
En fait on utilise rarement en pratique les dterminants pour calculer le rang
dune matrice. En effet le rang dune matrice B ne change pas si on ajoute une
ligne de B une combinaison linaire des autres, ou si on ajoute une colonne de
B une combinaison linaire des autres. Il ne change pas non plus si on intervertit
lordre des lignes ou lordre des colonnes de B, ou si on multiplie une ligne ou
une colonne de B par un coefficient non nul. On va calculer titre dexemple le
rang de la matrice suivante

5 6
2 1
B=
1 3
1 1

7 11 4
3 3
0
2 4
2
2 0 2

18
6
.
6
2

L1 L1 5L3 , L2 L2 2L3 , L4 L4 + L3 .

0 9 3 9 6 12
0 5 1 5 4 6
.

1 3
2
4
2
6
0 4
4
4
0
8

C2 C2 3C1 , etc. . .

0 9 3 9 6 12
0 5 1 5 4 6
.

1 0
0
0
0
0
0 4
4
4
0
8

L1 31 L1 , L2 L2 , L4 14 L4 .

1
1
0
1

3
5
0
1

2
4
0
0

4
6
.
0
2

0
0

1
0

3
5
0
1

0 2 0 2 2
0 4 0 4 4
.
0 0 0 0 0
1 1 1 0 2

L1 L1 3L4 , L2 L2 5L4 .
0
0

1
0

C3 C3 C2 , etc. . .

3.7. RANG DUNE FAMILLE DE VECTEURS, RANG DUNE APPLICATION LINAIRE45

0
0

1
0

0 2 0 2 2
0 4 0 4 4
.
0 0 0 0 0
1 0 0 0 0

0
0

1
0

0 2 0
0 0 0
0 0 0
1 0 0

0
0

1
0

0
0
0
1

0
0
0
1

L2 " L2 2L1 .

L1 " 12 L1 .
1
0
0
0

0
0
0
0

2 2
0 0
.
0 0
0 0

1 1
0 0
.
0 0
0 0

C5 " C5 + C3 , C6 " C6 C3 .
0
0

1
0

1
0
0
0

0
0
0
0

0
0
0
0

0
0
.
0
0

5 6 7 11 4 18
0
6
2 1 3 3
Donc le rang de
est gal 3 (on peut montrer
1 3 2 4
2
6
1 1 2 0 2 2
que les oprations ci-dessus permettent toujours daboutir une matrice dont
tous les coefficients sont gaux 0 ou 1 qui possde au plus un coefficient gal
1 sur chaque ligne et chaque colonne).
:
:
:5 6 7:
:
:
On a, daprs la rgle de Sarrus, :: 2 1 3 :: = 10 + 42 + 18 7 45 24 =
:1 3 2:
70 76 = 6. Donc le dterminant de la matrice B M3 (K) obtenue en
retirant A ses deux dernires lignes et ses trois dernires colonnes est non nul.
Pour montrer que le rang de A est gal 3 par cette mthode il faudrait encore
vrifier que le dterminant de toutes les matrices obtenues en retirant A une
ligne et deux colonnes est nul, ce que nous ferons plus loin en utilisant Mupad.

3.7

Rang dune famille de vecteurs, rang dune


application linaire

46CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


On peut galement dfinir le rang dune famille de vecteurs ou dune application linaire.
Dfinition 3.7.1 1) Soit E un espace vectoriel de dimension, et soit F une
famille finie dlments de E. Le rang de F est la dimension du sous-espace
vectoriel de E engendr par F.
2) Soient E et F deux espaces vectoriels de dimension finie et soit u
L(E, F ). Le rang de u est gal la dimension de u(E).

Proposition 3.7.2 1) Soit E un espace vectoriel de dimension finie m 1,


soit B une base de E et soit F une famille finie dlments de E. Alors le rang
de F est gal au rang de la matrice PB,F .
2) Soient E et F deux espaces vectoriels non nuls de dimension finie, soit
B une base de E, soit B % une base de F et soit u L(E, F ). Alors le rang de u
est gal celui de la matrice Mu,B,B! .
Dmonstration : 1) Pour x E notons [x]B le vecteur colonne form des
coordonnes de x dans la base B. Lapplication : x " [x]B est une bijection
linaire de E sur K m .
Soit F le sous-espace vectoriel de E engendr par F. Alors F et (F ) ont la
mme dimension. Comme (F ) est le sous-espace vectoriel de K m engendr par
les colonnes de PB,F , on voit que le rang de F est gal au rang de PB,F .
2) Soient e1 , . . . , en les lments de la base B. Posons u(B) = (u(e1 ), . . . , u(en )).
Lespace vectoriel u(E) est le sous-espace vectoriel de F engendr par u(B). Donc
rg(u) = rg(PB! ,u(B) ) = rg(Mu,B,B! ).

3.8

Annexe au Chapitre 3 : Introduction aux


notations indicielles de la Physique

On utilise souvent en Physique la convention de sommation


de lindice
"
rpt : par exemple si i varie de 1 n, alors la somme 1in xi,i sera note
xi,i .
Dans le cas dun indice rpt j coexistant avec un indice non rpt i,
lindice i est appel indice libre et lindice rpt est appel indice muet. On
peut changer le nom de lindice muet sans changer
la valeur de"lexpression : si
"
j varie entre 1 et n, on a ai,j xj = ai,k xk car 1jn ai,j xj = 1kn ai,k xk .
Sauf mention expresse du contraire, lindice libre prend les mmes valeurs que
lindice muet. Par exemple si n = 4, crire ai,j xj = bi est une facon concentre
dcrire le systme

3.8. ANNEXE AU CHAPITRE 3 : INTRODUCTION AUX NOTATIONS INDICIELLES DE LA PHYSIQUE 47

a1,1 x1 + a1,2 x2 + a1,3 x3 + a1,4 x4

a2,1 x1 + a2,2 x2 + a2,3 x3 + a2,4 x4

a3,1 x1 + a3,2 x2 + a3,3 x3 + a3,4 x4


a4,1 x1 + a4,2 x2 + a4,3 x3 + a4,4 x4

= b1
= b2
= b3
= b4

Pour n quelconque, en introduisant les cofacteurs de la matrice A = (ai,j ) 1in ,


1jn

les formules de Cramer donnent pour det(A) += 0


ai,j xj = bi bi = (1)i+j Cj,i (A)bj .

La convention de lindice rpt stend pour plusieurs indices. Par exemple


si les indices varient de 1 n,

ai,k bk,l cl,j =

ai,k bk,l cl,j =

1kn 1ln

1ln

1kn

1kn

ai,k

1ln

bk,l cl,j

ai,k bk,l cl,j .

Notons que ceci montre au passage que ai,k (bk,l cl,j ) = (ai,k bk,l )cl,j . Compte
tenu de la dfinition du produit matriciel, on en dduit notamment que (AB)C =
A(BC) pour A, B, C Mn (K).
Ces conventions posent des problmes de substitution. Par exemple si on
considre lexpression A = ai,j xi yj , avec xi = bi,j zj , les indices variant de 1
n, lindice i est muet dans le premier cas, mais pas dans le second, tandis que
lindice j est muet dans les deux cas. Il faut donc dans la substitution remplacer
j par un autre symbole, tout en gardant i. On crira donc xi = bi,k zk , ce qui
donne

7 n
8
n
n
!
!
!

A = ai,j bi,k zk yj =
ai,j
bi,k zk yj .
i=1

j=1

k=1

On place souvent en Physique des indices placs plus haut que la variable
concerne. Ces le cas des coordonnes dun vecteur dans une base. On note
souvent en caractres gras les vecteurs. Par exemple si ((e1 , . . . , en ) est
une base dun espace vectoriel E, on notera souvent x1 , . . . , xn les coordonnes
dun vecteur x dans cette base. Ceci se traduit par la formule
x = xi ei .
Les exposants seront alors nots avec des parenthses. Par exemple (x3 )2
reprsentera le carr de la troisime coordonne du vecteur x. Si E est un espace
vecoriel euclidien, et si (e1 , . . . , en ) est une base orthonormale de E (ces notions
seront dtailles au Chapitre
@" 7), la norme euclidienne dun vecteur x est donne
2
i i
i 2
par la formule 4x4 =
1in (x ) (on pourrait aussi crire 4x4 = x x ).

48CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE


Nous terminons cette brve prsentation en introduisant les symboles danti
symtrie. Soient i1 , . . . , in des entiers compris entre 0 et n. Si ces entiers ne
sont pas tous distincts le symbole dantisymtrie )i1 ,...,in est nul. Si les entiers
i1 , . . . , in sont tous distincts le symbole dantisymtrie )i1 ,...,in est gal la
signature )() de la permutation
1
i1

2
i2

...
...

n
in

En particulier le symbole dantisymtrie est gal 1, 0 ou 1, et il change


de signe si on permute ip et iq avec p += q.
Quand on a deux indices variant entre 1 et 2, on obtient
=
>
a1,1 a1,2
1,1
2,2
1,2
2,1
) = ) = 0, ) = 1, ) = 1. On a alors, si A =
a2,1 a2,2
det(A) = )i,j ai,1 aj,2 = )i,j a1,i a2,j

que lon peut aussi crire sous la forme


det(aij ) = )ij ai1 aj2 = )ij a1i a2j

3.9

Chapitre 3 sous MUPAD

On a vu au chapitre prcdent comment calculer linverse dune matrice avec


MUPAD. On peut videmment aussi calculer les dterminants avec MUPAD,en
utilisant la commande linalg : :det() ;

M:=Dom::Matrix();
A:=M([[1,2,3,4,5],[1,2,1,2,1],[1,-1,4,3,-1],[2,-1,3,1,4],[5,-2,3,-1,3]]);
linalg::det(A);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+|
|
|
|
|
|
|

1,

2, 3,

1,

2, 1,

1, -1, 4,
2, -1, 3,

-+
|
|
2, 1 |
|
3, -1 |
|
1, 4 |
4,

3.9. CHAPITRE 3 SOUS MUPAD

49

|
| 5, -2, 3, -1,
+-

|
|
-+

56
:
:
5 :
:1 2 3 4
:
:
1 :
:1 2 1 2
:
:
Donc : 1 1 4 3 1 : = 56.
:
:
4 :
: 2 1 3 1
:
:
5 2 3 1 3

M:=Dom::Matrix();
A:=M([[5,6,7,11,4,18],[2,1,3,3,0,6],[1,3,2,4,2,6],[-1,1,2,0,-2,2]]);
linalg::rank(A);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+|
5,
|
|
2,
|
|
1,
|
| -1,
+-

-+
|
|
6 |
|
6 |
|
2 |
-+

6, 7, 11,

4, 18

1, 3,

3,

0,

3, 2,

4,

2,

1, 2,

0, -2,

On peut galement utiliser Mupad pour ajouter a une ligne dune matrice
un multiple dune autre.Par exemple L1 L1 5L3 (retrancher 5 fois la
troisime ligne la premire) se traduit pour la matrice A par la commande
linalg : :addRow(A,3,1,-5), et C3 C2 3C1 (Retrancher deux fois la premire colonne la deuxime) se traduit pour la matrice A par la commande linalg : :addCol(A,1,2,-3). On peut ainsi effectuer sous Mupad le dbut des calculs

5 6 7 11 4 18
0
6
2 1 3 3
faits plus haut pour calculer le rang de la matrice A =
.
1 3 2 4
2
6
1 1 2 0 2 2

50CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE

M:=Dom::Matrix ():
A:=M([[5,6,7,11,4,18],[2,1,3,3,0,6],[1,3,2,4,2,6],[-1,1,2,0,-2,2]]);
A1:=linalg::addRow(A,3,1,-5):
A2:=linalg::addRow(A1,3,2,-2):
A3:=linalg::addRow(A2,3,4,1);
A4:=linalg::addCol(A3,1,2,-3):
A5:=linalg::addCol(A4,1,3,-2):
A6:=linalg::addCol(A5,1,4,-4):
A7:=linalg::addCol(A6,1,5,-2):
A8:=linalg::addCol(A7,1,6,-6);
+|
5,
|
|
2,
|
|
1,
|
| -1,
++|
|
|
|
|
|
|
++|
|
|
|
|
|
|
+-

-+
|
|
6 |
|
6 |
|
2 |
-+

6, 7, 11,

4, 18

1, 3,

3,

0,

3, 2,

4,

2,

1, 2,

0, -2,

-+
|
|
-6 |
|
6
|
|
8
|
-+

0, -9, -3, -9, -6, -12


0, -5, -1, -5, -4,
1,

3,

2,

4,

2,

0,

4,

4,

4,

0,

-+
|
|
-6 |
|
0
|
|
8
|
-+

0, -9, -3, -9, -6, -12


0, -5, -1, -5, -4,
1,

0,

0,

0,

0,

0,

4,

4,

4,

0,

3.9. CHAPITRE 3 SOUS MUPAD

51

Dautre part on peut utiliser Mupad pour extraire des matrices dune matrice
donne. On utilise la commande linalg : :submatrix(A, [i1 , . . . , ip ], [j1 , . . . , jq ]) ;
qui permet de faire apparaitre la matrice obtenue en supprimant les lignes autres
que i1 , . . . , iq et les colonnes autres que j1 , . . . , jq . A titre dexemple on calcule
ci-dessous les dterminants de la matrice carre 4 lignes et 4 colonnes extraite

5 6 7 11 4 18
0
6
2 1 3 3
de la matrice A =
en gardant les coefficients ap1 3 2 4
2
6
1 1 2 0 2 2
partenant la fois une des quatre premires lignes et une des quatre dernires
colonnes de A.

M:=Dom::Matrix():
A:= M([[5,6,7,11,4,18],[2,1,3,3,0,6],[1,3,2,4,2,6],[-1,1,2,0,-2,2]]);
A1:=linalg::submatrix(A,[1,2,3,4],[3,4,5,6]);
+|
5,
|
|
2,
|
|
1,
|
| -1,
++|
|
|
|
|
|
|
+-

-+
|
|
6 |
|
6 |
|
2 |
-+

6, 7, 11,

4, 18

1, 3,

3,

0,

3, 2,

4,

2,

1, 2,

0, -2,

7, 11,

4, 18

3,

3,

0,

2,

4,

2,

2,

0, -2,

-+
|
|
6 |
|
6 |
|
2 |
-+

52CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE

0n peut enfin utiliser Mupad pour rsoudre des systmes linaires. On doit
ramener le systeme un systme de la forme AX = B, avec A Mm,n (K),
B K n.
0n
traite ci-dessous lexemple du systme
5x + 6y + 7z = 4
2x + y + 3z = 5

x + 3y + 2z = 1
M:=Dom::Matrix():
A:=M([[5,6,7],[2,1,3],[1,3,2]]);
B:=M([4,5,1]);
linalg::matlinsolve(A,B);
+-+
| 5, 6, 7 |
|
|
| 2, 1, 3 |
|
|
| 1, 3, 2 |
+-+
| 4 |
|
|
| 5 |
|
|
| 1 |
+-+

+-+
| -14/3 |
|
|
|
-5/3 |
|
|
|
16/3 |
+-+
On a donc une solution unique x = 14/3, y = 5/3, z = 16/3.
On considre maintenant le systme

3.9. CHAPITRE 3 SOUS MUPAD

53

5x + 6y + 7z + 11t = 1

2x + y + 3z + 3t = 1

x + 3y + 2z + 4t = 1
x + y + 2z = 1
A1:=M([[5,6,7,11],[2,1,3,3],[1,3,2,4],[-1,1,2,0]]);
B1:=M([1,1,1,1]);
linalg::matlinsolve(A1,B1);
+|
5,
|
|
2,
|
|
1,
|
| -1,
+-

-+
|
|
3 |
|
4 |
|
0 |
-+

6, 7, 11
1, 3,
3, 2,
1, 2,

+|
|
|
|
|
|
|
+-

-+
|
|
1 |
|
1 |
|
1 |
-+
1

[]
Ceci veut dire que le systme na pas de solution.
Considrons maintenant le systme

5x + 6y + 7z + 11t = 29

2x + y + 3z + 3t = 9
x

+ 3y + 2z + 4t = 10
x + y + 2z = 2
B2:=M([29,9,10,2]);
linalg::matlinsolve(A1,B2);

54CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE

+-+
| 29 |
|
|
|
9 |
|
|
| 10 |
|
|
|
2 |
+-+
-|
|
|
|
|
|
|
--

+|
|
|
|
|
|
|
+-

-+
|
|
2 |
|,
1 |
|
0 |
-+
2

-|
|
|
|
|
|
|
--

+-+ -- -| -1 | | |
|
| | |
| -1 | | |
|
| | |
|
0 | | |
|
| | |
|
1 | | |
+-+ -- --

Ceci veut dire que le systme a une infinit de solutions. Mupad donne
dabord une solution particulire, puis une base du sous-espace vectoriel de K n
dfini par lquation AX = 0. La solution gnrale du systme est donc

x=2

y =2
, o R.

z=1
t=

3.10

Exercices sur le Chapitre 3

exercice 1
On considre la matrice

1
A = 3
2

2 3
4 1
1 3

Calculer det(A). La matrice A est-elle inversible ?


En dduire que le systme ci-dessous admet une solution unique, et trouver
cette solution en utilisant les formules de Cramer.

3.10. EXERCICES SUR LE CHAPITRE 3

55

x + 2y + 3z = 5
3x + 4y + z = 2

2x + y + 3z = 1

exercice 2 (Matrices nilpotentes)


Soit A Mn (R) telle que An = 0, avec n 2. Montrer que det(A) = 0.
exercice 3 (Matrices antisymtriques)
Soit n un entier positif impair et soit A M(R) telle que t A = A. Montrer
que det(A) = 0.
exercice 4
Calculer les dterminants suivants :
:
: :
:
2
3 5 : :
: 4 1 10 : :: 1
:
:
:
1
0
4 : :: a
: 2 5 3 : , :: 0
:,
: : 7
:
3 2 1 : : c id
:1 6
2 : :
:
3 5 1
2
:
: :: 1 1
: :
:
1
1 :
:a b c: :1 a b + c: :
: : 1 i 1 i ::
: :
:
: b c a:, :1 b c + a:, :
:,
:
: :
:
: c b a : : 1 c a + b : :: 1 1 1 1 ::
1 i 1 i
exercice 5

:
: :
:
1
c + id :: :: a 1
:,
,
a2 + a + 1 :
b : : a3

:
:
: a 1 1 1 :
:
:
:1 a 1 1 :
:.
:
:1 1 a 1 :
:
:
1 1 1 a

:
:
:x 2 3 4:
:
:
:2 x 3 4:
Dterminer les racines du polynme p(x) = :
:.
:3 4 x 2:
:
:
4 3 2 x

exercice 6
a) Dterminer en fonction de a et b les coefficients de la matrice

1
a b
A = 1
a b.
a+b+1 1 1


x
u
b) Rsoudre dans R3 le systme AX = B, avec X = y et B = v .
z
w
exercice 7
Soit une racine cubique de

y
+
z
=
x +
x + y + 2 z =

x + 2 y + z =
exercice 8
a) Rsoudre le systme

lunit.Rsoudre dans C le systme


a
b
c

56CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE

x
x

x
x

+ y
+ 2y
+ y
+ y
y

+ z
+ z
+ 2z
+ z
+ z

+ t =
+ t =
+ t =
+ 2t =
t =

b)Discuter selon les valeurs

3y
2(a + 1)x +
(4a 1)x + (a + 1)y

(5a 4)x + (a + 1)y

3
1
2
4
0

de a lensemble
+
az
+ (2a 1)z
+ (3a 4)z

des
=
=
=

solutions du systme
a+4
2a + 4
a1

exercice 9
Utiliser la convention de sommation pour crire les relations suivantes
a) a1,1 x1 + a2,2 x2 + a3,3 x3 + a4,4 x4 = 8.
b) B1,1 y1,1 + B2,1 y1,2 + B3,1 y1,3 = A.

exercice 10
Exprimer le produit de deux matrices A = (aij ) Mn (K) et B = (bij )
Mn (K) en utilisant la convention de lindice rpt.
exercice 11
Ecrire la dfinition de lindpendance linaire dune famille (e1 , . . . , en ) de
vecteurs en utilisant la convention de lindice rpt.
exercice 12
Dvelopper lexpression ai,j bk,j,i , avec n = 3.
exercice 13
Calculer aj,i xi yj , avec xi = bi,j uj , yj = ci,j vi , n = 2.
exercice 14
a) Calculer tous les symboles dantisymtrie )ijk pour i, j, k {1, 2, 3}.
b) Soit A = (aij ) M3 (K). Exprimer det(A) en utilisant les symboles
dantisymtrie et la convention de lindice rpt.
exercice 15(sous Mupad)

2 4 1 7
1
3
9 2 6
5 1 6

1
5
7 5 2 6

1) Calculer le dterminant de la matrice 5 1


1 6 2 9

6
7
2
3
1 4

3 2
1
1 1 4
5 6
2
3 6 1
2) Rsoudre le systme

4
2

4.

2
3

3.10. EXERCICES SUR LE CHAPITRE 3

57

2x1 + 4x2 x3 + 7x4 + x5 + 3x6 + 4x7 = 2

5x

1 x2 + 6x3 + 9x4 2x5 + 6x6 + 2x7 = 3

7x1 5x2 2x3 + 6x4 + x5 + 5x6 + x7 = 12


5x1 + x2 + x3 6x4 + 2x5 9x6 + 4x7 = 1

1 + 4x2 + 6x3 + 7x4 + 2x5 + 3x6 + 2x7 = 4

3x1 + 2x2 + x3 + x4 x5 + 4x6 + 2x7 = 2


5x1 + 6x2 + 2x3 + 3x4 6x5 x6 + 3x7 = 6
exercice 16(sous Mupad)

2
4 1 7
1
3
16
9 2 6
23
5 1 6

1
6
13
7 5 2 6
1) Dterminer le rang de la matrice A =
.
1
1 6 2 9 6
5

1
4
6
7
2
3
23
20 3
10 23
4
9
69
2) Retrouver ce rsultat en calculant le dterminant des 7 matrices 6 lignes
et 6 colonnes extraites de A et en calculant le dterminant dune des matrices
5 lignes et 5 colonnes extraites de A.
3) Rsoudre le systme

2x1 + 4x2 x3 + 7x4 + x5 + 3x6 + 16x7 = 2

5x

1 x2 + 6x3 + 9x4 2x5 + 6x6 + 23x7 = 3

7x1 5x2 2x3 + 6x4 + x5 + 6x6 + 13x7 = 12


5x1 + x2 + x3 6x4 + 2x5 9x6 6x7 = 1

1 + 4x2 + 6x3 + 7x4 + 2x5 + 3x6 + 23x7 = 4


20x1 + 3x2 + 10x3 + 23x4 + 4x5 + 9x6 + 69x7 = 2
4) Rsoudre le systme

2x1 + 4x2 x3 + 7x4 + x5 + 3x6 + 16x7 = 1

5x1 x2 + 6x3 + 9x4 2x5 + 6x6 + 23x7 = 1

7x1 5x2 2x3 + 6x4 + x5 + 6x6 + 13x7 = 1


5x1 + x2 + x3 6x4 + 2x5 9x6 6x7 = 1

x1 + 4x2 + 6x3 + 7x4 + 2x5 + 3x6 + 23x7 = 1

20x1 + 3x2 + 10x3 + 23x4 + 4x5 + 9x6 + 69x7 = 1

58CHAPITRE 3. DTERMINANTS, NOTATIONS INDICIELLES DE LA PHYSIQUE

Chapitre 4

Valeurs propres,vecteurs
propres,diagonalisation

4.1

Introduction la diagonalisation des matrices

Dans tout ce chapitre K dsigne un corps quelconque, et Mn (K) dsigne


lensemble des matrices carres n lignes et n colonnes coeffients dans K. Lespace vectoriel K n est identifi lespace vectoriel Mn,1 des matrices unicolonnes
n lignes.
Dfinition 4.1.1 Soit A Mn (K), et soit K. On dit que est une valeur
propre de A sil existe un lment non nul X de K n tel que AX = X. Dans
ce cas on dit que X est un vecteur propre associ la valeur propre .
Si est une valeur propre de A, lensemble E (A) = {X K n | AX = X}
est appell le sous-espace propre associ la valeur propre .
Afin dallger les notations, on crira E au lieu de E (A) si aucune confusion
nest craindre. Soit u : K n K n lapplication linaire dfinie par la formule
u(X) = AX et soit In lapplication identit sur K n . Il est clair que si est une
valeur propre de A alors E = Ker(u In ), et par consquent le sous-espace
propre E est un sous-espace vectoriel non nul de Kn .
Dfinition 4.1.2 Soit p = a0 + a1 x . . . + am xm K[x], et soit A Mn (K).
On pose p(A) = a0 In + a1 A + . . . + am Am .
Autrement dit p(A) est la matrice obtenue en remplacant xk par Ak dans
lexpression de p, avec la convention A0 = In . On a les proprits videntes
suivantes.
59

60CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION

(4.1)

(4.2)

(4.3)

(p + q)(A) = p(A) + q(A) p K[x], q K[x], A Mn (K).


(p)(A) = p(A) K, p K[x], A Mn (K).
(pq)(A) = p(A)q(A) p K[x], q K[x], A Mn (K).

Autrement dit si on fixe A Mn (K), alors lapplication p " p(A) est


la fois une application linaire et un homomorphisme danneaux de K[x] dans
Mn (K). Notons que lon dduit de (4.3) la proprit suivante.
(4.4)

q(A)p(A) = p(A)q(A) p K[x], q K[x], A Mn (K).

Si E1 , . . . , Ep sont des sous-espaces vectoriels dun espace vectoriel E on


dfinit lespace somme E1 + . . . + "
Ep comme tant lensemble des x E qui
p
peuvent scrire sous la forme x = i=1 xj avec xi Ei pour 1 i p. Il est
clair que E1 + . . . + Ep est un sous-espace vectoriel de E.
Lemme 4.1.3 Soit A Mn (K), soit une valeur propre de A et soit p K[x].
Alors p(A)X = p()X pour tout X E .
Dmonstration : Soit X E . On a IX = X, et une rcurrence immdiate
montre que Ak X = k X pour k 1. Soit maintenant p = a0 +a1 x . . .+am xm
K[x]. On a p(A)X = a0 X + a1 X + . . . + am m X = p()X.
Proposition 4.1.4 Soit A Mn (K), soient 1 , . . . , p des valeurs propres
distinctes de A et soit Bi une base de Ei pour 1 i p. Alors B = 1ip Bi
est une base de E1 +. . .+Ep . En particulier dim(E1 +. . .+Ep ) = dim(E1 )+
. . . + dim(Ep ).
Dmonstration : Il est clair que B est une famille gnratrice de E1 + . . . + Ep .
Posons Bi = (fi,1 , . . . , fi,q(i) ), et soit (i,j )1jq(i) une famille dlments de K
1ip
"
telle que 1jq(i) i,j fi,j = 0.
1ip
"
Posons gi = 1jq(i) i,j fi,j , de sorte que fi Ei pour 1 i p.
"
A
On a 1kp gk = 0. Posons pi = 1kp (x k ) pour 1 i p.
k%=i
"
On a pi (A)(gk ) = pi (k )gk pour 1 k n, donc 1kn pi (k )gk
=
" pi (A)(0) = 0. Comme pi (k ) = 0 pour k += i, et comme pi (i ) += 0, on a
1jk(j) i,j fi,j = 0 pour 1 i p. Comme Bi est libre, on obtient i,j = 0
pour 1 j q(i), 1 i p, ce qui prouve que B est libre. Donc B est une base
de E1 + . . . + Ep , et dim(E1 + . . . + Ep ) = dim(E1 ) + . . . + dim(Ep ).

4.2. POLYNME CARACTRISTIQUE DUNE MATRICE

4.2

61

Polynme caractristique dune matrice

On va maintenant donner un moyen pratique de trouver les valeurs propres


de A.
Dfinition 4.2.1 Soit A Mn (K). Le polynme pA = det(xIn A) = (1)n det(A
xIn ) est appel le polynme caractristique de A.
Soit p K[x] un polynme non nul. Rappelons quon dit que K est une
racine de p quand p() = 0. On sait que est une racine de p si et seulement
si p est divisible par x . Dans ce cas le plus grand entier k tel que p soit
divisible par (x )k est appel lordre de multiplicit de la racine .
Proposition 4.2.2 Soit A Mn (K) et soit K. Alors est valeur propre
de A si et seulement si det(In A) = 0. Autrement dit lensemble des valeurs
propres de A coincide avec lensemble des racines de son polynme caractristique pA .
Dmonstration : Il est clair que est valeur propre de A si et seulement si il
existe un lment non nul X K n tel que (In A)X = 0. Il rsulte alors du
corollaire 3.8 que cette condition est vrifie si et seulement si det(In A) = 0.

1/2 1/2 1/2


Exemple 4.2.3 Soit A = 1/4 1/2
0 . Alors pA = x(x 12 )(x 1), et
1/4
0
1/2
les valeurs propres de A sont 0, 12 et 1.
:
:
: 1/2 x
1/2
1/2 ::
:
:.
1/2 x
0
En effet pA = :: 1/4
:
: 1/4
0
1/2 x :
En dveloppant par rapport la dernire colonne on obtient
:
:
:
:
: 1/4 1/2 x : ; 1
<:
B
;
<C
1/2 ::
: x : 1/2 x
pA = 12 ::
= 12 14 12 x
2
:
:
:
1/4
0
1/4
1/2 x
;1
< D; 1
<2 1 E 1 ; 1
< ;1
<3
;1
< D; 1
<2 1 E
2 x

x
=

x
4
8
4 2
2
2
2
;1
<2
;
<
1
= x 2 x (1 x) = x x 2 (x 1) .
Si A Mn (K), on dfinit la trace de A, note T r(A), comme tant la
somme des coefficients situs sur la diagonale. Autrement dit on a la formule
(4.5)

=
> !
n
T r (ai,j ) 1in =
ai,i .
1jn

i=1

Il rsulte de la dfinition des dterminants que le terme de plus haut degr


du polynme caractristique de A Mn (K) est gal 1, que le coefficient de

62CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION


son monme de degr n 1 est gal T r(A), et que son terme constant est
gal (1)n det(A). On a alors le rsultat suivant.
Proposition 4.2.4 Soit A Mn (K). Alors la sommes des valeurs propres de
A, rptes selon leurs multiplicits, est gale T r(A), et le produit des valeurs
propres de A, rptes selon leurs multiplicits, est gal det(A).

4.3

Matrices semblables

On va maintenant introduire la notion de similarit.


Dfinition 4.3.1 Soient A, B Mn (K). On dit que B est semblable A sil
existe une matrice inversible P telle que B = P 1 AP.
Cette relation est ce quon appelle une relation dquivalence, car on a les
trois proprits suivantes :
1) A est toujours semblable A, car A = In1 AIn .
2) Si B = P 1 AP est semblable A, alors A = P BP 1 est semblable B,
car P = (P 1 )1 .
3) Si B = P 1 AP est semblable A, et si C = Q1 BQ est semblable B,
alors C = Q1 P 1 AP Q est semblable A, car Q1 P 1 = (P Q)1 .
On a les proprits suivantes.
Proposition 4.3.2 Soit A Mn (K), et soit B = P 1 AP Mn (K) une
matrice semblable A. Alors A et B ont le mme polynme caractristique. De
plus q(A) = P q(B)P 1 pour tout q K[x], et en particulier Am = P B m P 1
pour m 1.
Dmonstration : On a pB = det(xIn B) = det(P 1 (xIn )P (P 1 AP )) =
det(P 1 (xIn A)P ) = det(P 1 )det(xIn A)det(P ) = det(P )1 pA det(P ) =
det(In )pA = pA .
Dautre part on a A = P BP 1 . Supposons que Am = P B m P 1 , avec m 1.
Alors Am+1 = (P B m P 1 )(P BP 1 ) = P B m (P 1 P )BP 1 = P B m+1 P 1 . On
voit donc par rcurrence que Am = P B m P 1 pour m 1. Comme In = P P 1 ,
on voit que si q = b0 + . . . + bk xk K[x], alors q(A) = b0 P In P 1 + . . . +
bm P B m P 1 = P (b0 In )P 1 + . . . + P (bm B m )P 1 = P q(B)P 1 .
Corollaire 4.3.3 Soient A, B Mn (K). Si A et B sont semblables, alors
T r(A) = T r(B).

4.4. DIMENSION DUN SOUS-ESPACE PROPRE ET ORDRE DE MULTIPLICIT DUNE VALEUR PROPRE63

4.4

Dimension dun sous-espace propre et ordre


de multiplicit dune valeur propre

On va maintenant comparer lordre de multiplicit dune valeur propre et la


dimension du sous-espace propre associ cette valeur propre.
Proposition 4.4.1 Soit A Mn (K), soit une valeur propre de A de multiplicit n(). Alors dim(E ) n().
Dmonstration : Soit (f1 , . . . , fp ) une base de E . Daprs le thorme de la base
incomplte il existe fp+1 , . . . , fn K n tels que B = (f1 , . . . , fp ) soit une base de
K n.
Soit B0 = (e1 , . . . , en ) la base canonique de K n , dfinie lexemple 2.4, et
soit u lendomorphisme de K n dfini par la formule u(X) = AX pour X K n .
On a vu lexemple 2.4 que Mu,B0 = A. Posons B = MB . Il rsulte de la
formule de changement de base que A et B sont semblables,donc pA = pB .
Comme u(fj ) = fj pour 1 j p, on a

f1
.
B=

.
fn

u(f1 ) . . . . .

u(fn )

Ip

0np,p

C
D

>

o 0np,p dsigne la matrice n p lignes et p colonnes dont tous les coefficients sont nuls, et o C Mp,np (K) et D Mnp (K).
En utilisant le dveloppement des dterminants par rapport la premire
colonne, on obtient
par une rcurrence :finie immdiate, pour
1 k p 1,
:
:
:
:
:
:
: ( x)Ipk
C
Ck
n : ( x)Ip
n
k
:,
: = (1) (x) :
pB = (1) :
:
:
0np+,pk D xInp :
0np,p
D xInp
avec Ck Mpk,np .
:
:
: x
Cp1 ::
Donc pA = pB = (1)n ( x)p1 ::
= (1)np (x
0np,1 D xInp :
)p det(D xInp ) = (x )p pD .
Ceci montre que n() p = dim(E ), n() dsignant lordre de multiplicit
de la valeur propre .

4.5

Matrices diagonalisables

On dit quune matrice D = (di,j ) 1in est diagonale si di,j = 0 pour i += j.


1jn

On a les proprits videntes suivantes

64CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION

d1,1
0
d2,2
0

... ...
(4.6) Si D =
0
0

... ...
0
0
(x d1,1 ) . . . (x dn,n ).

d1,1
0

...
(4.7) Si D =
0

...
0

0
d2,2
...
0
...
0

... ...
0
...
... ...
. . . dj,j
... ...
... ...

...
0
...
0

... ...
est diagonale, alors pD =
...
0

... ...
0 dn,n

... ...
0
...
... ...
. . . dj,j
... ...
... ...

...
0
...
0

... ...
est diagonale , et si p
...
0

... ...
0 dn,n

K[x], alors p(D) est diagonale, et

p(d1,1 )
0
p(d2,2 )
0

...
...
p(D) =
0
0

...
...
0
0

On voit en particulier que si D

dp1,1
0

...
p
diagonale , alors D =
0

...
0

0
dp2,2
...
0
...
0

...
...
0
...
...
...
. . . p(dj,j )
...
...
...
...

d1,1
0
d2,2
0

... ...
=
0
0

... ...
0
0
... ... ...
0
... ...
... ... ...
. . . dpj,j . . .
... ... ...
... ...
0

...
0
...
0

...
...
.
...
0

...
...
0 p(dn,n )

... ... ...


0
0
... ...
0

... ... ... ...


est
. . . dj,j . . .
0

... ... ... ...


... ...
0 dn,n

0
0

...
pour p 1.
0

...
dpn,n

Dfinition 4.5.1 Soit A Mn (K). On dit que A est diagonalisable quand


A est semblable une matrice diagonale.
Proposition 4.5.2 Soit A Mn (K), et soit P Mn (K) une matrice inversible. Alors P 1 AP est diagonale si et seulement si les colonnes p1 , . . . , pk de
P sont des vecteurs propres de A.
Dmonstration : Soient p1 , . . . , pn les colonnes de D. Comme P est de rang n,
B = (p1 , . . . , pn ) est une base de K n . Soit B0 la base canonique de K n , et soit
u lendomorphisme de K n dfini par la formule u(X) = AX. On a PB0 ,B = P,

4.5. MATRICES DIAGONALISABLES

65

donc daprs la formule de changement de bases on a Mu,B = PB1


APu,B0 ,B =
0 ,B
P 1 AP. Comme la j e colonne de Mu,B est forme des coordonnes de pj dans
la base B = (p1 , . . . , pn ), on voit que P 1 AP est diagonale si et seulement si
pj est un vecteur propre de A pour 1 j n.
Corollaire 4.5.3 Soit A Mn (K). Alors A est diagonalisable si et seulement
si il existe une base de K n forme de vecteurs propres de A.
Dmonstration : Si A est diagonalisable, il existe une matrice inversible P
Mn (K) telle que P 1 AP est diagonale, et les colonnes de P forment une base
de K n forme de vecteurs propres de A. Rciproquement soit B = (f1 , . . . , fn )
une base de K n forme de vecteurs propres de A, et soit P = PB0 ,B , B0 dsignant
la base canonique de K n . Alors P est inversible, et les colonnes de P sont gales
f1 , . . . , fn . Il rsulte alors de la proposition que P 1 AP est diagonale , donc
A est diagonalisable .
On dira quun polynme p K[x] de degr suprieur ou gal 1 est scind
sil se factorise dans K[x] en produit de polynmes de degr 1. On a alors le
thorme suivant.
Thorme 4.5.4 Soit A Mn (K). Alors A est diagonalisable si et seulement
si les deux conditions suivantes sont vrifies
(i) Le polynme caractristique pA de A est scind.
(ii) Lordre de multiplicit de chaque valeur propre de A est gal la dimension du sous-espace propre correspondant.
Dmonstration : Supposons que A est diagonalisable, et soit D une matrice
diagonale semblable A. Il rsulte de la proposition 4.3.2 applique D que
pA = pD est scind. Soient 1 , . . . , p les valeurs propres distinctes de A et pour
1 j p soit nj lordre de multiplicit
de j . Comme pA est scind , on a
"
pA = (x 1 )n1 . . . (x p )np , et 1jn nj = n. Puisquil existe une base
de K n forme de vecteurs propres de A, on a K n = E1 + . . . + Ep , donc
n = dim(E
" 1 + . . . + Ep ) = dim(E1 ) + . . . + dim(Ep ) n1 + . . . + np = n.
Donc 1jp (nj dim(Ej )) = 0. Comme nj dim(E(j ) on voit que nj =
dim(Ej ) pour 1 j p, et les conditions 1) et 2) sont vrifies.
Rciproquement supposons que A satifait 1) et 2). Soient 1 , . . . , p les valeurs propres distinctes de A et pour 1 j p soit nj lordre de multiplicit de
j .
"
Comme pA est scind , on a de nouveau 1jn nj = n. Soit Bj une base
de
Ej pour 1 j p. Alors B = 1jp Bj est libre daprs la proposition 4.1.
Comme Bj possde nj lments pour 1 j p, B possde n lments et cest
donc une base de K n forme de vecteurs propres de A, ce qui montre que A est
diagonalisable .
On dit quune valeur propre de A Mn (K) est simple quand elle est sa
multiplicit n() est gale 1. Comme 1 dim(E ) n(), on a dans ce cas

66CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION


dim(E ) = 1 = n(). Comme tout polynme p C[x] est scind dans C[x], on
a alors le corollaire suivant.
Corollaire 4.5.5 Soit A Mn (K). Si le polynme caractristique de A est
scind, et si toutes les valeurs propres de A sont simples, alors A est diagonalisable. En particulier une matrice A Mn (C) dont toutes les valeurs propres
sont simples est diagonalisable.

1/2
Exemple 4.5.6 La matrice A = 1/4
1/4

1/2
1/2
0

1/2
0 est diagonalisable sur R.
1/2

En effet on a vu que pA = x(x 12 )(x 1). Donc pA est scind dans R[x],
et les valeurs propres 0, 12 et 1 de A sont toutes des valeurs propres simples.
On va maintenant diagonaliser A, cest dire trouver une matrice inversible
P telle que P 1 AP soit diagonale . Pour cela il faut trouver une base de K 3
forme de vecteurs propres de A.
Les lments du sous-espace propre E0 sont les solutions du systme

x/2 + y/2 + z/2 = 0


x/4 + y/2 = 0

x/4 + y/2 = 0

En additionnant membre membre les deux dernires quations on obtient


la premre. On peut donc retirer la premire quation et on est ramen au
systme
F
x = 2y
x = 2z

On
voit
donc que E0 est lespace vectoriel de dimension 1 engendr par
2
f1 = 1 .
1
Les lments du sous-espace E1/2 sont les solutions du systme

x/2 + y/2 + z/2 = x/2


x/4 + y/2 = y/2

x/4 + z/2 = z/2

La deuxime et la troisime quation donnent x = 0, et on est ramen au


systme
F
x=0
z = y

4.5. MATRICES DIAGONALISABLES

67

On
voit
donc que E1/2 est lespace vectoriel de dimension 1 engendr par
0
f2 = 1 .
1
Les lments du sous-espace vectoriel E1 sont les solutions du systme

x/2 + y/2 + z/2 = x


x/4 + y/2 = y

x/4 + z/2 = z

La deuxime quation donne x = 2y, la troisime quation donne x = 2z,


ce qui implique que y = z, x/2 + y/2 + z/2 = 2y = x. On est donc ramen au
systme
F
x = 2y
y=z
On
voit
donc que E1 est lespace vectoriel de dimension 1 engendr par
2
f3 = 1 .
1
Donc (f1 , f2 , f3 ) est une base de K 3 forme de vecteurs propres de A et on
peut prendre

2 0 2
P = 1
1 1.
1 1 1

Pour les applications, on aura besoin de calculer P 1 . Pour cela on resout


le systme suivant.

2x + 2z = a
x+y+z =b

xy+z =c
L3
" L3 + L2 + L1 .

2x + 2z = a
x+y+z =b

+4z = a + b + c
On obtient z =

+ 4b + 4c , x = z a2 = a4 + 4b + 4c , et y = x + z c = 2b 2c .


x
a
Comme le systme ci-dessus a pour solution y = P 1 b , on obtient
z
c

1/4 1/4 1/4


P 1 = 0
1/2 1/2 .
1/4 1/4 1/4
a
4

68CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION

0 0 0
Posons D = 0 1/2 0 . On a P 1 AP = D, et on obtient
0 0 1

2 0 2
0
0
0
1/4
An = P Dn P 1 = P = 1
1 1 0 1/2n 0 0
0
0
1
1/4
1 1 1

2 0 2
0
0
1 1 0 1/2n+1
= 1
1 1 1
1/4
1/4

pour n 1

1/4 1/4
1/2 1/2
1/4 1/4


1/2
1/2
0
1/2n+1 = 1/4 1/4 + 1/2n+1
1/4 1/4 1/2n+1
1/4

1/2
1/4 1/2n+1
1/4 + 1/2n+1

2 1 1
Exemple 4.5.7 Soit B = 2 1 2 . Alors pB = (x 3)(x + 1)2 , et B
1 0 2
nest diagonalisable ni sur R, ni sur C.

En ajoutant aux deux premires colonnes un multiple de la troisime on


obtient
:
:
:
:
:
:2 x
0
0
1 ::
1
1 ::
:
:
2 + 2(2 x)
3x
2 ::
1x
2 :: = ::
pB = :: 2
:
: 1
:
1 + (2 x)(2 + x) 2 + x 2 x :
0
2 x
:
:
: 2
1 ::
= (x 3)(x2 + 2x + 1) = (x 3)(x + 1)2 .
= (x 3) ::
3 x2 2 + x :
Les lments du sous-espace propre E1 sont les solutions du systme

2x + y + z = x
2x + y + z = x
3x + y + z = 0
2x + y 2z = y 2x + y 2z = y
x+yz =0

2z
=
z
x

2z
=
z
x
+z =0
F
2x + y = 0

x+z =0
3
3
Dans

R ou C , on obtient lespace vectoriel de dimension 1 engendr par


1
2 . Donc dim(E1 ) = 1. Comme 1 est une valeur propre de B de
1
multiplicit 2, B nest pas diagonalisable.

1 2 2
Exemple 4.5.8 Soit C = 0 0 1 . Alors C est diagonalisable sur C,
0 1 0
mais C nest pas diagonalisable sur R.
:
:
: 1 x 2 2 :
:
:
En effet pC = :: 0
x 1 :: = (x 1)((x)2 + 1) = (x 1)(x2 + 1).
: 0
1 x :
Le polynme x2 + 1 na pas de racines relles, donc il est irrductible dans R[x],

4.6. ENDOMORPHISMES DIAGONALISABLES

69

pC nest pas scind dans R[x], et C nest pas diagonalisable sur R. Par contre
x2 + 1 = (x i)(x + i) et les trois valeurs propres 1, i et i de C M3 (C) sont
simples, donc C est diagonalisable sur C.

4.6

Endomorphismes diagonalisables

On va maintenant considrer le cas des endomorphismes sur un espace vectoriel de dimension finie. On introduit les notions suivantes.
Dfinition 4.6.1 Soit E un espace vectoriel de dimension finie sur un corps
K, soit u L(E), et soit K.
On dit que est une valeur propre de u sil existe x E\{0} tel que u(x) =
x. Dans ce cas on dit que x est un vecteur propre de u associ la valeur
propre , et lensemble E (u) = {x E |u(x) = x} est appel le sous-espace
propre associ la valeur propre .
Le rsultat simple suivant permet de se ramener au cas des matrices.
Proposition 4.6.2 Soit E un espace vectoriel de dimension finie sur un corps
K, soit B une base de E, soit u L(E), et soit K.
Pour que soit une valeur propre de u, il faut et il suffit que soit une valeur
propre de la matrice Mu,B reprsentant u dans la base B. Le sous-espace propre
E (u) est alors lensemble des lments x de E pour lesquels le vecteur colonne
[x]B form des coordonnes de x dans la base B appartient au sous-espace propre
E (Mu,B ) associ .
Dmonstration : Soit x E. Posons X = [x]B , et soit Y le vecteur colonne
form des coordonnes de u(x) dans la base B. Il rsulte de la formule (2.1) que
Y = Mu,B X. Par consquent u(x) = x si et seulement si Mu,B X = X. La
proposition rsulte alors immdiatement de cette observation.
Soit IE : x " x lapplication identit sur E. On dfinit le polynme
caractristique pu de u L(E) par la formule
(4.6)

pu = det(xIE u).

Il rsulte de la Proposition 3.9 que le polynme caractristique de u coincide


avec le polynme caractristique de la matrice Mu,B pour toute base B de E, et
il rsulte de la Proposition 4.22 que lensemble des valeurs propres de u coincide
avec lensemble des racines du polynme caractristique pu .
Dfinition 4.6.3 Soit E un espace vectoriel de dimension finie sur un corps
K, et soit u L(E). On dit que u est diagonalisable sil existe une base de E
forme de vecteurs propres de u.

70CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION


Proposition 4.6.4 Soit E un espace vectoriel de dimension finie sur un corps
K, soient B et B % deux bases de E et soit u L(E).
Alors la base B % est forme de vecteurs propres de u si et seulement la matrice
1
de passage PB,B! est telle que PB,B
! Mu,B PB,B ! est diagonale.
En particulier que u soit diagonalisable, il faut et il suffit que la matrice
Mu,B reprsentant u dans la base B soit diagonalisable.

1
Dmonstration : Il rsulte de la formule (2.6) que Mu,B! = PB,B
! Mu,B PB,B ! .
%
Donc pour que B soit une base de E forme de vecteurs propres de u il faut
1
et il suffit que PB,B
! Mu,B PB,B ! soit diagonale . Ceci prouve que Mu,B est diagonalisable si u est diagonalisable . Rciproquement supposons que Mu,B est
diagonalisable, et soit P Mn (K) une matrice inversible telle que P 1 Mu,B P
soit diagonale . Soient p1 , . . . , pn les colonnes de P et pour 1 j n soit fj
llment de E tel que le vecteur colonne form des coordonnes de fj dans la
base B soit gal pj . Posons B % = (f1 , . . . , fn ). On a PB,B! = P. Comme P est
inversible, il rsulte de la Proposition 2.10 que B % est une base de E, et il rsulte
de ce qui prcde que fj est un vecteur propre de u pour 1 j n, ce qui
montre que u est diagonalisable .

Rappelons (voir lexemple 1.15) que si E = F G on note PF,G lendomorphisme de E qui x E associe lunique y F tel que x - y G.
Exemple 4.6.5 Soit E un espace vectoriel de dimension finie, et soient F et
G deux sous-espaces vectoriels de E tels que E = F G. Alors la projection
PF,G est diagonalisable.
Si F = {0} alors PF,G (x) = 0 pour tout x G, et le rsultat est vident. De
mme si G = {0} alors PF,G (x) = x pour tout x G, et le rsultat est aussi
vident. Si F += {0} et si G += {0}, soit B1 une base de F et soit B2 une base
de G. On a vu au Chapitre 1 que B = B1 B2 est une base de E. Comme
PF,G (x) = x pour x B1 , et comme PF,G (x) = 0 pour x B2 on voit que B
est une base de E forme de vecteurs propres de PF,G , ce qui montre que PF,G
est diagonalisable (on voit galement que le polynme caractristique de PF,G
est gal (1)p+q (x 1)p xq , o p = dim(F ) et q = dim(G)).
Exemple 4.6.6 Posons u(p) = (x 1)p% + p pour p R2 [x]. Alors u est un
endomorphisme diagonalisable de R2 [x] qui a pour valeurs propres 1, 2 et 3, et
(1, x 1, x2 2x + 1) est une base de R2 [x] forme de vecteurs propres de u.
En effet posons B0 = (1, x, x2 ). Alors B0 est une base de R2 [x]. On a u(1) =
1, u(x) =x 1 + x =2x 1, u(x2 ) = (x 1)2x + x = 3x2 2x, donc
1 1 0
Mu,B0 = 0 2 2 , et pu = (x 1)(x 2)(x 3). Comme u(1) =
0 0
3


1 1 0
a
a
1, u E1 . Lquation 0 2 2 b = 2 b donne le systme
c
c
0 0
3

4.7. CHAPITRE 4 SOUS MUPAD

a b = 2a
2b 2c = 2b

3c
= 2c
1 1
tion 0 2
0

71

1
soit c = 0, a = b. Donc 1 convient, et x1 E2 . Lqua0



0
a
a
a b = 3a
2 b = 3 b donne le systme
2b 2c = 3b soit

3
c
c
3c = 3c

1
b = 2a = 2c. Donc 2 convient, x2 2x+1 E2 , et (1, x1, x2 2x+1)
1
est une base de R2 [x] forme de vecteurs propres de u.
Exemple 4.6.7 Posons v(p) = 2p% + p pour p R2 [x]. Alors v est un endomorphisme non diagonalisable de R2 [x].
2
En effet considrons de nouveau la base B0 = (1, x, x
) de R2 [x].
On a
1 2 0
v(1) = 1, v(x) = x + 2, v(x2 ) = x2 + 4x, donc Mv,B0 = 0 1 4 , donc
0 0 1
3
pv = (x 1). Si v tait
diagonalisable , il existerait
P M3 (R) inversible
1 2 0
1 2 0
telle que P 1 0 1 4 P = I3 . On aurait alors 0 1 4 = P I3 P 1 =
0 0 1
0 0 1

1 0 0
I3 = 0 1 0 , ce qui est videmment absurde. Donc v nest pas diago0 0 1
nalisable.

4.7

Chapitre 4 sous MUPAD

On peut demander Mupad de calculer le polynme caractristique dune


matrice en utilisant la commande linalg : :charpoly(A,x) ;
M:=Dom::Matrix();
A:=M([[1,2,3,4,5],[1,2,1,2,1],[1,-1,4,3,-1],[2,-1,3,1,4],[5,-2,3,-1,3]]);
linalg::charpoly(A,x);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+| 1,

2, 3,

4,

-+
|

72CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION


|
|
|
|
|
|
|
|
+-

|
|
|
1, -1, 4, 3, -1 |
|
2, -1, 3, 1, 4 |
|
5, -2, 3, -1, 3 |
-+
1,

2
8 x + 60 x

2, 1,

2,

3
4
5
+ 10 x - 11 x + x - 56

1 2 3 4
5
1
1 2 1 2

Si A = 1 1 4 3 1 , on a donc pA = x5 + 11x4 10x3

2 1 3 1
4
5 2 3 1 3
60x2 8x + 56.
On peut galement utiliser Mupad pour calculer les valeurs propres, avec
la commande linalg : :eigenvalues(A) ; Mais le calcul symbolique bute sur les
quations algbriques de degr suprieur ou gal 5.

linalg::eigenValues(A);
2
{RootOf(8 ____eigenValue_x + 60 ____eigenValue_x

3
+ 10 ____eigenValue_x -

4
5
11 ____eigenValue_x + ____eigenValue_x - 56, ____eigenValue_x)}

Le logiciel ne sait que rpter que les valeurs propres sont les racines du
polynme caractristique . Il faudrait faire appel aux possibilits de calcul numrique sous Mupad pour obtenir des valeurs approches des valeurs propres
de la matrice ci-dessus, ce que nous ferons un peu plus loin.
On a plus de succs avec les matrices 4 lignes et 4 colonnes, mais on se
heurte la complexit des formules de Cardan-Tartaglia (voir le Cours dalgbre).

M:=Dom::Matrix();

4.7. CHAPITRE 4 SOUS MUPAD

73

A:=M([[1,2,3,4],[1,2,1,2],[1,-1,4,3],[2,-1,3,1]]);
linalg::charpoly(A,x);
linalg::eigenvalues(A);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+|
|
|
|
|
|
|
+-

-+
|
|
1, 2, 1, 2 |
|
1, -1, 4, 3 |
|
2, -1, 3, 1 |
-+
1,

2
36 x + 2 x

2, 3, 4

3
4
- 8 x + x + 4

{
1/2
1/2
1/3
{ 2 - (132 (40/9 I 3
5263
+ 23264/27)
+
{
1/2
9 (40/9 I 3

1/2
2/3
5263
+ 23264/27)
+ 916)^(1/2) /

1/2
(6 (40/9 I 3

1/2
1/6
5263
+ 23264/27)
) - (264

... suivent 3 pages de formules, dont voici la fin

1/2
132 (40/9 I 3
1/2
9 (40/9 I 3

1/2
1/3
5263
+ 23264/27)
+

1/2
2/3
1/2
1/2
5263
+ 23264/27)
+ 916)^(1/2))^(1/2) / (6

1/2
1/2
1/6
(40/9 I 3
5263
+ 23264/27)
(

2/3

74CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION

1/2
132 (40/9 I 3
1/2
9 (40/9 I 3

1/2
1/3
5263
+ 23264/27)
+

1/2
2/3
}
5263
+ 23264/27)
+ 916)^(1/4)) + 2 }
}

On voit que dans ce cas Mupad a donn en plus de 3 pages des formules
certes exactes, mais illisibles et inutilisables.
On a dans mme dans les cas o le calcul symbolique fonctionne intrt
tenter sa chance avec les possibilits de calcul numrique de Mupad, en utilisant
la commande numeric : :eigenvalues(A) ; On applique galement cette mthode
la premire des matrices tudies plus haut
M:=Dom::Matrix();
A:=M([[1,2,3,4,5],[1,2,1,2,1],[1,-1,4,3,-1],[2,-1,3,1,4],[5,-2,3,-1,3]]);
linalg::charpoly(A,x);
numeric::eigenvalues(A);
Dom::Matrix(Dom::ExpressionField(id, iszero))

+|
|
|
|
|
|
|
|
|
+-

1,

2, 3,

4,

1,

2, 1,

2,

1, -1, 4,

3, -1

2, -1, 3,

1,

5, -2, 3, -1,

2
8 x + 60 x

-+
|
|
|
|
|
|
|
|
|
-+

3
4
5
+ 10 x - 11 x + x - 56

[- 1.313899679 + 0.4452307358 I, - 1.313899679 - 0.4452307358 I,

4.7. CHAPITRE 4 SOUS MUPAD

75

0.8958378463, 3.529623176, 9.202338336]


M:=Dom::Matrix();
B:=M([[1,2,3,4],[1,2,1,2],[1,-1,4,3],[2,-1,3,1]]);
numeric::eigenvalues(B);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+|
|
|
|
|
|
|
+-

-+
|
|
1, 2, 1, 2 |
|
1, -1, 4, 3 |
|
2, -1, 3, 1 |
-+
1,

2, 3, 4

[-1.75933678, -0.1121272467, 2.914685186, 6.95677884]

1 2 3 4
5
1
1 2 1 2

On voit donc que la matrice A = 1 1 4 3 1 possde 2 valeurs

2 1 3 1
4
5 2 3 1 3
propres non rlles, approximativement gales 1.313899679 + 0.4452307358i
et 1.313899679 0.4452307358i, et trois valeurs propres relles, approximativement gales 0.8958378463, 3.529623176, et 9.202338336.

1 2 3 4
1 2 1 2
De mme la matrice B =
possde 4 valeurs propres relles,
1 1 4 3
2 1 3 1
approximativement gales 1.75933678, 0.1121272467, 2.914685186 et 6.95677884.
On revient maintenant des matrices accessibles au calcul symbolique. Avec
la commande linalg : :eigenvectors(A), on obtient pour chaque valeur propre
lindication de lordre de multiplicit et une base du sous-espace propre correspondant.

76CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION


M:=Dom::Matrix();
A:=M([ [2,1,1],[2,1,-2],[-1,0,-2]]);
linalg::eigenvalues(A);
linalg::eigenvectors(A);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+-+
|
2, 1, 1 |
|
|
|
2, 1, -2 |
|
|
| -1, 0, -2 |
+-+
{-1, 3}
-|
|
|
|
|

--|
|
|
|
| -1, 2, |
|
|
|
|

+-+ -- -| -1 | | |
|
| | |
|
2 | | |,
|
| | |
|
1 | | |

--|
|
|
|
| 3, 1, |
|
|
|
|

+-+ -- -- -| -5 | | | |
|
| | | |
| -6 | | | |
|
| | | |
|
1 | | | |

1 1
1 2 a -1 comme valeur propre
0 2
simple, et que le sous-espace
propre

1
E1 est le sous-espace vectoriel de dimension 1 de R3 engendr par 2 ,
1
tandis que le sous-espace
propre
E
est
le
sous-espace
vectoriel
de
dimension
3

5
2 1 1
1 de R3 engendr par 6 . On voit donc que 2 1 2 nest pas
1
1 0 2
diagonalisable.
On peut galement diagonaliser des matrices relles ou complexes diagonalisable s sous Mupad. On utilise pour cela la commande linalg : :jordanform(A,All) ; On obtient deux matrices. La premire matrice est triangulaire
infrieure, et A est diagonalisable uniquement dans le cas o est diagonale
2
Ceci signifie que la matrice A = 2
1
de multiplicit 2 et 3 comme valeur propre

4.7. CHAPITRE 4 SOUS MUPAD

77

(nous expliquerons ce phnomne au Chapitre suivant). La deuxime matrice est


une matrice inversible P telle que P 1 AP = . Avec la commande linalg : :jordanForm(A), on obtient seulement la matrice . Nous donnons deux exemples.

M:=Dom::Matrix();
A:=M([[1,-1,0],[0,2,-2],[0,0,3]]);
linalg::jordanForm(A,All);
Dom::Matrix(Dom::ExpressionField(id, iszero))
+-+
| 1, -1, 0 |
|
|
| 0, 2, -2 |
|
|
| 0, 0, 3 |
+-+
-|
|
|
|
|
--

+-+
| 1, 0, 0 |
|
|
| 0, 2, 0 |,
|
|
| 0, 0, 3 |
+-+

+-+ -| 1, -1, 1 | |
|
| |
| 0, 1, -2 | |
|
| |
| 0, 0, 1 | |
+-+ --

1 1 0
Ceci signifie que la matrice 0 2 2 est diagonalisable , et que
0 0
3

1 1 1
1 1 0
1 1 1
1 0 0
0 1 2 0 2 2 0 1 2 = 0 2 0 .
0 0
1
0 0
3
0 0
1
0 0 3
On reprend un autre exemple o la matrice nest pas diagonalisable .
M:=Dom::Matrix();
A:=M([ [2,1,1],[2,1,-2],[-1,0,-2]]);
linalg::jordanForm(A,All);
Dom::Matrix(Dom::ExpressionField(id, iszero))

78CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION

+-+
|
2, 1, 1 |
|
|
|
2, 1, -2 |
|
|
| -1, 0, -2 |
+-+
-|
|
|
|
|
--

+-+
| -1, 0, 0 |
|
|
|
1, -1, 0 |,
|
|
|
0, 0, 3 |
+-+

+-+ -| -1/2, -1/2, -5 | |


|
| |
|
1,
1, -6 | |
|
| |
|
0,
1/2, 1 | |
+-+ --

La matrice triangulaire infrieure


qui apparait
en premier nest pas diagonale

2 1 1
, et on retrouve le fait que 2 1 2 nest pas diagonalisable.
1 0 2

4.8

Exercices sur le Chapitre 4

exercice 1
Dans chacun des cas suivants, dterminer si la matrice A M3 (C) est
diagonalisable . Si oui, trouver une base de C3 forme de vecteurs propres de A
et calculer An pour n N.

5 3 2
a) A = 6 4 4 .
4 4 5

1 1
0
b) A = 0 1 1 .
1
0 1

2 2 1
c) A = 2 1 2 .
1 2 2

0 1 0
d) A = 4 4 0 .
2 1 2

4.8. EXERCICES SUR LE CHAPITRE 4

79

exercice 2
Soit A Mn (K).
a) Montrer que si est valeur propre de A alors k est valeur propre de
k
A pour k 1. b) Soit p = a0 + a1 x + . . . + ap xp K[x]. On pose p(A) =
a0 In + a1 A + . . . + ap Ap . Montrer que si est valeur propre de A alors p() est
valeur propre de p(A).
c) On suppose de plus que A est inversible. On pose An = (A1 )n pour
n > 0. Montrer que si est valeur propre de A, alors n est valeur propre de
An pour n Z\{0}.
exercice 3
Soit A Mn (K) une matrice inversible.
a) Trouver une relation entre le polynme caractristique de A et celui de
A1 .
b) En dduire que si est valeur propre de A alors 1 est valeur propre de
1
A avec le mme ordre de multiplicit.

80CHAPITRE 4. VALEURS PROPRES,VECTEURS PROPRES,DIAGONALISATION


exercice 4
a) Soit D : p " p% loprateur de drivation sur Rn [x]. Dterminer les
valeurs propres de D et les sous-espaces propres associs. Lendomorphisme D
est-il diagonalisable ?
b) Soit E = C (R) lespace vectoriel des fonctions indfiniment drivables
de R dans R. On pose d(f ) = f % pour f C (R). Montrer que d est un
endomorphisme de E. Dterminer les valeurs propres de d et les sous-espaces
propres correspondants.
exercice 5
Soit F le sous-espace vectoriel de R3 dfini par lquation x + y
7z
= 0 et
1
soit G le sous-espace vectoriel de dimension 1 de R3 engendr par 3 .
2
1) Montrer que R3 = F G.
2) Donner la matrice A repsentant u dans la base canonique de R3 .
3) En tudiant A, retrouver le fait que la projection PF,G est diagonalisable
.
exercice 6
Rsoudre lexercice 1 ainsi que la troisime question de lexercice 5 en utilisant Mupad.
exercice 7 (sous Mupad)

1
9 9 6
7
8
2
0
6
12
1
4 12 7
16
2
5 6 7 6

4
3
2
1
9
8
7
6
5
4

2
3
4
5
6
5
4
3
2
1

9 9 6
7
8
2
0
6
12
1
On considre A =
.
4
6
8
10 12
14
16
18
20
2

1
1
1
1
1 1 1 1 1 1

3
3
2
2
3
4
5
6
7
2

2
1
0
2
1
0
1 2 3 2
5
3
1 1 3 5 7 9 11 8
1) Dterminer le polynme caractristique de A.
2) Dterminer des valeurs approches des valeurs propres de A.
3) En utilisant la commande numeric : :eigenvectors(A) ; donner pour chaque
valeur propre de A une valeur approche dun vecteur propre x ainsi quune
estimation de la diffrence Ax x .

Chapitre 5

Polynme minimal,
dcomposition de Jordan
Le rsultat principal de ce Chapitre est le thorme de dcomposition de
Jordan : si le polynme caractristique de A Mn (K) est scind alors A possde
une unique dcomposition de la forme A = D + N, avec D diagonalisable , N
nilpotente vrifiant DN = N D.

5.1

Thorme de Cayley-Hamilton

Nous allons commencer par dmontrer limportant thorme de CayleyHamilton .


Thorme 5.1.1 Soit K un corps, et soit A Mn (K). Alors pA (A) = 0.
Dmonstration : Soit B un anneau commutatif. On peut munir lensemble
Mn (B) des matrices carres n lignes et n colonnes coefficients dans B de
laddition et de la multiplication usuelles des matrices, et on obtient ainsi un
anneau.
Pour B = (bi,j ) 1in Mn (B), on dfinit le dterminant de B par la
formule

1jn

det(B) =

)()b(1),1 . . . b(n),n .

Sn

On a des proprits analogues celles des dterminants dune matrice


coefficients dans un corps. En particulier si on note Ci,j (B) le dterminant de la
matrice obtenue en retirant B sa ie ligne et sa j e colonne, on a pour 1 i n
la formule
81

82CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

(5.1)

det(B) =

n
!

(1)i+j bi,j Ci,j (B)bi,j

j=1

En appliquant cette formule la matrice obtenue en remplacant la k e colonne


de B par la ie , qui est de dterminant nul, on obtient, pour 1 i n, 1 k n,
k += i
(5.2)

det(B) =

n
!

(1)i+j Ck,j (B)bi,j

j=1

Soit maintenant A = (ai,j ) 1in Mn (K). On a pA = det(xIn A) =


1jn

0 + a1 x + . . . + n1 xn1 + xn , avec 0 , . . . , n1 K (on notera que 0 =


(1)n det(A) et que n1 = T r(A)). Soit B = {q(A)}qK[x] . Il est clair que B
est un anneau commutatif. Comme pA (A) = 0 In + 1 A + . . . + n1 xn1 + xn ,
il rsulte de la dfinition des dterminants que si on pose B = (Bi,j ) 1in , avec
1jn

Bi,j = ai,j In pour 1 i n, 1 j n, i += j, et Bi,i = A ai,i In pour


1 i n, alors pA (A) = det(B).
Soit (e1 , . . . , en ) la base canonique de K n . On sait que la ie colonne de A
est gale Aei pour 1 i n. 0n a Bi,j ei = ai,j In ei = ai,j ei pour i += k, et
Bj,j ej = Aej aj,j In ej = Aej aj,j ej . On obtient, pour 1 j n


a1,j
0
a1,j
. . .
Bi,j ei = Aej
ai,j ei =

= .
.
.
.
i=1
i=1
0
an,j
an,j

n
!

n
!

On obtient donc le systme dquations

B e + . . . + B1,n en = 0

1,1 1

... ... ...

Bi,1 e1 + . . . + Bi,n en = 0

... ... ...

Bn,1 e1 + . . . + Bn,n en = 0


e1
0
. .
Ceci peut scrire sous la forme matricielle B = , o 0 dsigne
.
.
en
0
dans le second membre la matrice unicolonne dont tous les coefficients sont nuls.
Soit maintenant C Mn (B). Lassociativit du produit matriciel reste valable dans ce contexte, et on a



e1
e1
0
0
.
.
. .
CB = C B = C = .
.
.
.
.
en
en
0
0

5.2. POLYNME MINIMAL

83

Posons maintenant C = ((1)i+j Cj,i (B) 1in Mn (B), et soit D = CB.


1jn

Il resulte des formules (5.1) et (5.2) que, de mme que dans le cas des matrices
coefficients dans K, la matrice D est une matrice diagonale : si on pose D =
(Di,j ) 1in , alors Di,i = det(B) pour 1 i n, et Di,j = 0 pour 1 i n,
1jn

1 j n, i += j.



det(B)e1
e1
0
0
.

.
. .
On a alors
= C B = C = . Donc
.
.
.
.
det(B)en
en
0
0

det(B)ej = 0 pour 1 j n, et pA (A) = det(B) = 0.

La thorme de Cayley-Hamilton permet notamment de calculer simplement


linverse dune matrice inversible A Mn (K) : en crivant pA = (1)n det(A) +
1 x + . . . + n1 xn1 + xn , on a 0 = pA (A) = (1)n det(A)In + A(1 In + . . . +
n+1
n2
+ An1 ) si
n1 An2 + An1 ), donc A1 = (1)
det(A) (1 In + . . . + n1 A
det(A) += 0.

5.2

Polynme minimal

Rappelons (voir la Dfinition 3.7 du Cours dAlgbre) quon dit que I K[x]
est un idal de K[x] quand les deux conditions suivantes sont vrifies
(i) I est un sous-groupe de (K[x], +),
(ii) P Q I P I, Q K[x].
Dautre part on sait daprs le thorme 3.8 du Cours dalgbre[?] que
pour tout idal I de K[x] non rduit {0} il existe un unique polynme unitaire
B K[x] tel que I = BK[x]. Ceci permet dintroduire la notion de polynme
minimal.
Proposition 5.2.1 Soit A Mn (K). Lensemble IA = {q K[x] | q(A) =
0} est un idal de K[x] non rduit {0}, appel idal annulateur de A. Le
polynme unitaire qA K[x] tel que IA = qA .K[x] est appel le polynme
minimal de A.
Dmonstration : Comme pA IA on a IA += {0}. Si p IA , q IA on
a (p q)(A) = p(A) q(A) = 0, et p q IA , ce qui prouve que IA est un
sous-groupe de (K[x], +). Dautre part si p IA , q K[x] alors (pq)(A) =
p(A)q(A) = 0, et pq IA .
On notera que qA = qA .1 IA , donc qA (A) = 0.
Proposition 5.2.2 Soit A Mn (K). Alors le polynme minimal qA de A
divise le polynme caractristique pA de A, et toute racine de pA est racine de
qA .

84CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


Dmonstration : Il rsulte du thorme de Cayley-Hamilton que pA IA =
qA K[x], donc qA divise pA .
Soit une valeur propre de A, et soit X += 0 un lment de K n tel que
AX = X. Daprs le lemme 4.3 on a qA ()X = qA (A)X = 0, donc qA () = 0.

Exemple 5.2.3 Soit A M4 (R) telle que pA = (x2 1)2 . Alors qA est lun
des 4 polynmes (x 1)(x + 1), (x 1)2 (x + 1), (x 1)(x + 1)2 , (x 1)2 (x + 1)2 ,
et il existe des matrices correspondant chacun des quatre cas.
En effet il rsulte de la proposition que qA = (x1)a (x2)b , avec 1 a 2,
1 b 2, ce qui correspond bien aux quatre cas ci-dessus. Pour trouver des
exemples correspondant
=
> chacun des cas, on va considrer des matrices de
B 02
la forme A =
avec B M2 (R) triangulaire suprieure de termes
02 C
diagonaux gaux 1, C M2 (R) triangulaire suprieure
=
> de termes diagonaux
0 0
gaux -1, le symbole 02 dsignant la matrice
, ce qui garantit que
0 0
pA = (x 1)2 (x + 1)2 , pB = (x 1)2 , pC ==(x + 1)2 . Dans
cette situation on
>
m
B
0
2
a un "produit par blocs" qui donne Am =
pour m 0, avec la
02 C m
=
>
p(B)
02
0
0
0
convention A = I4 , B = C = I2 , et par consquent p(A) =
02
p(C)
pour p R[x]. Donc IA = IB IC , ce qui montre que qA est gal au p.p.c.m
de qB et qC . Notons que qB divise (x 1)2 , donc qB = (x 1)a , avec 1 a 2,
et que qC divise (x + 1)2 , donc qC = (x + 1)b , avec 1 b 2. Comme (x 1)a
et (x + 1)b sont premiers entre eux, leur p.p.c.m est gal leur produit, et
qA = qB qC . =
>
=
>
1 0
1 1
Si B =
, on a videmment qB = x 1, et si B =
on
0 1
0 >1
=
1 0
a qB = (x 1)2 , puisque B I2 += 0. De mme si C =
, on a
0 1
=
>
1 1
qC = x + 1, et si C =
on a qC = (x + 1)2 , puisque C + I2 += 0. On
0 1
obtient ainsi les exemples cherchs :

0 0
0
1 0
0
, alors pA = (x 1)2 (x + 1)2 et qA = (x 1)(x + 1).
0 1 0
0 0 1

1 0
0
1 0
0
, alors pA = (x 1)2 (x + 1)2 et qA = (x 1)2 (x + 1).
0 1 0
0 0 1

1
0
Si A =
0
0
1
0
Si A =
0
0

5.3. NOUVELLE CARACTRISATION DES MATRICES DIAGONALISABLES85

1
0
Si A =
0
0

1
0
Si A =
0
0

5.3

0 0
0
1 0
0
, alors pA = (x 1)2 (x + 1)2 et qA = (x 1)(x + 1)2 .
0 1 1
0 0 1

1 0
0
1 0
0
, alors pA = (x 1)2 (x + 1)2 .
0 1 1
0 0 1

Nouvelle caractrisation des matrices diagonalisables

On va maintenant caractriser les matrices diagonalisables s par une condition portant sur le polynme minimal .
Thorme 5.3.1 Soit A Mn (K). Alors A est diagonalisable si et seulement
si le polynme minimal qA de A est un polynme scind dont toutes les racines
sont simples, et dans ce cas qA = (x 1 ) . . . (x k ) o 1 , . . . , k dsignent
les valeurs propres distinctes de A.
Dmonstration : Supposons que A est diagonalisable . Il existe une matrice

1 0 . . . . . . . . . 0
0 2 0 . . . . . . 0

... ... ... ... ... ...


diagonale D =
et une matrice inversible P
0 . . . j . . . 0
0

... ... ... ... ... ...


0
0 . . . . . . 0 n
Mn (K) telles que A = P DP 1 soit diagonale .Soient 1 , . . . , k les valeurs
propres distinctes de A, et soit q = (x 1 ) . . . (x k ).

q(1 )
0
...
...
...
0
q(2 ) 0
...
...
0
0

...
...
...
...
...
...
On a q(D) =
. Pour 1 j n,
0
. . . q(j ) . . .
0
0

...
...
...
...
...
...
0
0
...
...
0 q(n )

j est une valeur propre de A donc il existe i k tel que j = i , et q(j ) =


0. On a donc q(D) = 0, et q(A) = P q(D)P 1 = 0, ce qui montre que qA
divise q. Comme toute valeur propre de A est racine de qA , qA = q = (x
1 ) . . . (x k ) est un polynme scind dont toutes les racines sont simples.
Supposons maintenant que le polynme minimal de A est scind et que toutes
ses racines sont
A simples. On a qA = (x1 ) . . . (xk ), avec 1 , . . . , k distincts.
Posons pi = j)=i (x j ). Comme les polynmes p1 , . . . , pk nont pas de racine
commune, leur p.g.c.d. est gal 1. Il rsulte alors du thorme de Bezout

86CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


(Thorme 3.9 du Cours dalgbre) quil existe des polynmes u1 , . . . , uk tels
"k
que j=1 pj uj = 1. On a alors
k
!

In =

pj (A)uj (A).

j=1

Soit X K n , et posons Xj = pj (A)uj (A)X pour 1 j n. On a (A


j I)pj (A) = qA (A) = 0. Par consquent (A j I)Xj = qA (A)uj (A)X = 0, et
Xj appartient au sous-espace propre Ej associ j pour 1 j n. Comme
"k
X = i=1 Xj , ceci montre que K n = E1 + . . . + Ek . Soit Bj une base de Ej ,
et soit B = 1jn Bj . Alors B est une partie gnratrice de K n . Comme B est
libre daprs la Proposition 4.4, on voit que B est une base de K n forme de
vecteurs propres de A, ce qui montre que A est diagonalisable .
Supposons que A est diagonalisable . Avec les notations ci-dessus on a
pj (A)uj (A) = vi,j (A)(A i In ), o vi,j K[x] pour i += j. Donc si Y Ei
"k
on a pj (A)uj (A)Y = 0 pour j += i et X = j=1 pj (A)uj (A)Y = pi (A)ui (A)Y.
Soit X K n . En appliquant ce rsultat Y = pi (A)ui (A)X Ei , on voit que
[pi (A)ui (A)]2 X = pi (A)ui (A)X, et par consquent [pi (A)ui (A)]2 = pi (A)ui (A)
pour 1 i n.
Soit Ui : X " pi (A)X lendomorphisme de K n associ pi (A) et soit i :
X " pi (A)ui (A)X lendomorphisme de K n associ pi (A)ui (A). Il rsulte
de ce qui prcde que Im(i ) "
= Ei . Si X Ej avec j += i on a i (X) =
vj,i (A)(A j In )X "
= 0, donc j)=i Ej "
Ker(i ). Rciproquement si X
p
(A)u
(A)X

Ker(
)
on
a
X
=
j
j
i
j)=i
j)=i Ej , et on voit que Ker(i ) =
"
E
.
Il
est
clair
que
Im(U
)

Im(
) = Ei . Rciproquement si X

i
i
j
j)=i
Im(Ui ) on a X = pj (A)Y, avec Y K n , et (A i )X = (A i )pi (A)Y =
qA (A)Y = 0, donc X Ei , ce qui montre que Ei = Im(Ui ) coincide avec
le sous-espace vectoriel de K n engendr par les colonnes de A. On a donc le
rsultat suivant.
Thorme 5.3.2 Soit A Mn (K) une matrice A
diagonalisable , et soient 1 , . . . , k
les valeurs propres distinctes de A. On pose pi = 1jk (xj ) pour 1 i k.
i%=j

(i) Pour 1 i k, le sous-espace propre associ i est le sous-espace


vectoriel de K n engendr par les colonnes de pi (A).
" (ii) Si u1 , . . . , uk est une famille de polynmes coefficients dans K telle que
1ik ui pi = 1, alors lapplication i : X " pi (A)ui (A)X est la projection
de K n sur Ei paralllement

"

1jk
j%=i

Ej .

Ce rsultat permet de simplifier les calculs permettant


de trouver une base
de
1/2 1/2 1/2
0 on
K n forme de vecteurs propres de A. Par exemple si A = 1/4 1/2
1/4
0 1/2

5.3. NOUVELLE CARACTRISATION DES MATRICES DIAGONALISABLES87


a vu au Chapitre prcdent
que pA =x(x 12 )(x1),

donc A est diagonalisable

0 1/2 1/2
1/2 1/2
1/2
. On a A 12 I3 = 1/4 0
0 , A I3 = 1/4 1/2
0 .
1/4 0
0
1/4
0
1/2

1/2 1/2 1/2


1/2 1/2
1/2
On obtient A(A I3 ) = 1/4 1/2
0 1/4 1/2
0 =
1/4 0 1/2
1/4
0
1/2

0
0
0
0
0 1/8 1/8 . Donc le vecteur 1 engendre E1/2 .
0 1/8 1/8
1

1/2 1/2 1/2


1/2 1/2
1/2
On a aussi A(A 12 I3 ) = 1/4 1/2 0 1/4 1/2
0 =
1/4
0
1/2
1/4
0
1/2


1/4 1/4 1/4
2
1/8 1/8 1/8 . Donc le vecteur 1 engendre E1 .
1/8 1/8 1/8
1

0 1/2 1/2
1/2 1/2
1/2
Enfin (A 12 I3 )(A I3 ) == 1/4
0 =
0
0 1/4 1/2
1/4
0
1/2
1/4
0 0

1/4 1/4 1/4


2
1/8 1/8
1/8 . Donc le vecteur 1 engendre E0 , et on a obtenu
1/8 1/8
1/8
1
une base de K n forme de vecteurs propres de A.
Soit E est un espace vectoriel non nul de dimension finie sur un corps K et
soit u L(E). Pour p = 0 +. . .+n xn K[x] on pose p(u) = 0 IE +. . .+n un ,
o la puissance ne un est calcule au sens de la composition des applications.
Il est clair que lapplication p " p(u) est un homomorphisme danneaux de
K[x] dans L(E). On dfinit alors le polynme minimal qu de u comme tant
lunique polynme unitaire q tel que Iu = qK[x], o Iu = {p K[x] | p(u) = 0}.
Soit B une base de E. Il rsulte de la Proposition 3.9 que le polynme minimal
de u coincide avec celui de la matrice Mu,B reprsentant u dans la base B. On
dduit alors de la Proposition 4.2.4 et du Thorme 5.5 le rsultat suivant.
Thorme 5.3.3 Soit E += {0} un espace vectoriel de dimension finie, et soit
u L(E). Alors u est diagonalisable si et seulement si le polynme minimal de
u est un polynme scind dont toutes les racines sont simples.
On dit quun sous-espace vectoriel F dun espace vectoriel E est invariant
pour u L(E) si u(x) F pour tout x F. Dans ce cas on appelle restriction
de u F lendomorphisme v de F dfini par la formule v(x) = u(x) pour x F.
On a alors le corollaire suivant.
Corollaire 5.3.4 Soit E += {0} un espace vectoriel de dimension finie, soit
u L(E), et soit F += {0} un sous-espace vectoriel de E invariant pour u. Si u
est diagonalisable, alors la restriction de u F est diagonalisable.

88CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


Dmonstration : Soit v la restriction de u F. Pour x F on a qu (v)(x) =
qu (u)(x) = 0. Donc qu (v) = 0, et qv divise qu . Par consquent qv est un polynme
scind dont toutes les racines sont simples, et v est diagonalisable .
Corollaire 5.3.5 Soient A Mn (K) et B Mn (K) deux matrices diagonalisables. Si AB = BA, alors il existe une base de K n forme de vecteurs propres
communs A et B. En particulier A B est diagonalisable.
Dmonstration : Soit une valeur propre de A, soit E le sous-espace propre
correspondant, et soit v : X " BX lendomorphisme de K n associ B. Pour
X E , on a Av(X) = ABX = BAX = v(X) = v(X). Donc v(X) E , et
E est invariant pour V. Comme B est diagonalisable , la restriction de V E
est diagonalisable, ce qui signifie quil existe une base de E forme de vecteurs
propres de B. Soient maintenant 1 , . . . , k les valeurs propres distinctes de A.
Daprs ce qui precde on peut trouver pour i n une base Bi de Ei forme de
vecteurs propres de B. Posons B = 1in Bi . Puisque A est diagonalisable , B
est une base de K n , et tous les lments de B sont des vecteurs propres communs
A et B, cest dire aussi des vecteurs propres de A B. En particulier A B
est diagonalisable .

5.4

Matrices nilpotentes

On va maintenant sintresser une classe particulire de matrices.


Dfinition 5.4.1 Soit A Mn (K). On dit que A est nilpotente sil existe p 1
telle que Ap = 0.
=
>
0 1
Par exemple la matrice A =
est une matrice nilpotente non nulle,
0 0
2
car A = 0. Une matrice nilpotente non nulle nest pas diagonalisable . En
effet si A est nilpotente et diagonalisable, il existe p 1 tel que Ap = 0, et
il existe P inversible telle que D = P 1 AP est diagonale . On a alors Dp =
P 1 Ap P = 0. Comme D est diagonale , on a D = 0, et A = P DP 1 = 0.
Proposition 5.4.2 Soient A Mn (K) et B Mn (K) deux matrices nilpotentes. Si AB = BA, alors A B est nilpotente.
Dmonstration : Soient p 1 et q 1 deux entiers tels que Ap = B q = 0.
Comme AB = BA, on peut calculer (AB)p+q en utilisant le binme de Newton
(voir la formule (1.7) du Cours dAlgbre) et on obtient
(A B)p+q =

p+q
!

k
(1)p+qk Cp+q
Ak B p+qk .

k=0

Si p k p + q, on a Ak = 0. Si 0 k p, on a p + q k q, et
B p+qk = 0. Donc (A B)p+q = 0.

5.4. MATRICES NILPOTENTES

89

Si A est nilpotente, il est clair que toutes les valeurs propres de A sont nulles.
En particulier si A Mn (C) est nilpotente, alors pA = xn . Ce rsultat est en
fait vrai pour un corps quelconque.
Proposition 5.4.3 Soit A Mn (K) une matrice nilpotente. Alors pA = xn .
En particulier An = 0.
Dmonstration : Le rsultat est trivial si n = 1. Supposons que ce rsultat
est vrai pour n 1, et soit A Mn+1 (K) une matrice nilpotente. Si A = 0,
pA = (1)n+1 xn+1 . Si A += 0, soit p 2 le plus petit entier positif tel que
Ap = 0, et soit X1 K n+1 tel que Ap1 X1 += 0. Posons Y1 = Ap1 X1 , et soit
(Y2 , . . . , Yn+1 ) une famille dlments de K n telle que B = (Y1 , . . . , Yn+1 ) soit
une base de K n+1 . Soit u : X " AX lendomorphisme de K n+1 associ A, et
soit B = Mu,B . Comme A = Mu,B0 , B0 dsignant la base canonique de K n+1 ,
B est semblable A et pA = pB . Comme u(Y1 ) = 0, la premire colonne de B
est nulle, et on peut crire
=
>
0
L1
B=
,
0n C

avec L1 M1,n (K) et C = Mn (K), 0n dsignant llment nul de Mn,1 (K).


Une rcurrence immdiate montre que pour p 1 la matrice B p est de la
forme
=
>
0
Lp
p
B =
,
0n C p

avec Lp M1,n (K). Donc C est nilpotente, et pC = xn . En dveloppant par


rapport la premire colonne on obtient pB = xpC = xn+1 , et on voit par
rcurrence sur n que pA = xn si A Mn (K) est nilpotente. Le fait que dans ce
cas An = 0 rsulte alors du thorme de Cayley-Hamilton .
Corollaire 5.4.4 Soit D Mn (K) une matrice diagonalisable, et soit N
Mn (K) une matrice nilpotente telle que DN = N D. Alors D et D + N ont
mme polynme caractristique.
Dmonstration : On va procder par rcurrence sur le nombre de valeurs
propres de D. Si D possde une seule valeur propre , il existe P Mn (K)
inversible telle que D = P (In )P 1 . Donc D = In et pD+N = det((x
)In N ) = (x )n = pIn = pD . Supposons maintenant que le rsultat
est vrai quand D possde k valeurs propres distinctes, soit D Mn (K) une
matrice diagonalisable possdant k + 1 valeurs propres distinctes 1 , . . . , k+1
de multiplicits n1 , . . . , nk . Soit u : X " DX lendomorphisme de K n associ
n
D et soit v : X "=N X lendomorphisme
> de K associ N. Notons que si A
B
0m,nm
est de la forme A =
, avec B Mm (K), C Mnm (K),
0nm,m
C
0p,q dsignant la matrice p lignes et q colonnes dont tous les coefficients sont

90CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


nuls, on a det(A) = det(B)det(C). Ceci montre en particulier que dans ce cas
on a pA = pB pC .
Soit Bi une base du sous-espace propre Ei associ i et posons B =
1jk+1 Bj , C = 2jk+1 Bj . La matrice= reprsentant u dans>la base B est
1
0m1 ,nm1
une matrice diagonale de la forme =
, avec 1 =
2
0nm1 ,m1
1 Im1 , 2 Mnm1 diagonale , et on a p1 = (x 1 )m1 et p2 = (x
2 )m2 . . . (x k+1 )mk+1 . Si X Ej on a de mme que plus haut DN X =
N DX = j N X, donc N X
= Ej . Donc la matrice>R reprsentant v dans la
R1
0m1 ,nm1
base B est de la forme R =
, avec R1 Mm1 (K) et
0nm1 ,m1
R2
R2 Mnm1 (K). Comme N1 est la matrice reprsentant la restriction de v
E1 , N1 est nilpotente, et N1 commute videmment avec 1 . Dautre part
comme N2 est la matrice reprsentant la restriction de v E2 , N2 est nilpotente,
et comme 2 est la matrice reprsentant la restriction de u 2 , N2 commute
avec 2 .
On sait que p1 = p1 +N1 , et daprs lhypothse de rcurrence on a p2 =
p2 +N2 . Donc pD+N = p+R = p1 +N1 p2 +N2 = (x1 )n1 . . . (xk )nk = pD ,
et le rsultat est dmontr par rcurrence.

5.5

Thorme de dcomposition de Jordan

Nous sommes maintenant en mesure de dmontrer le thorme de dcomposition de Jordan.


Thorme 5.5.1 (Thorme de dcomposition de Jordan)
Soit A Mn (K) une matrice dont le polynme caractristique est scind.
Alors il existe un unique couple (D, N ) dlments de Mn (K) vrifiant les proprits suivantes
(1) A = D + N.
(2) D est diagonalisable.
(3) N est nilpotente.
(4) DN = N D.
De plus A et D ont mme polynme caractristique, et si 1 , . . . , k dsignent
les valeurs propres distinctes de A, de sorte que pA = (x 1 )n1 . . . (x k )nk ,
avec n1 1, . . . , nk 1, on a D = p(A), o p K[x] est une solution quelconque
du systme dquations de congruence

5.5. THORME DE DCOMPOSITION DE JORDAN

91

p 1 mod(x 1 )n1

.....................

.....................
p j mod(x j )nj

.....................

. . . . . . . . . . . . . . . . . . . .n.
p k mod(x k ) k

Dmonstration : Comme 1 , . . . , k sont distincts, (x i )ni et (x j )nj sont


premiers entre eux pour i += j. Il rsulte alors du thorme chinois ( Thorme
3.17 du Cours dAlgbre) que le systme dquations de congruence ci-dessus
admet bien une solution p K[x].
Pour 1 j k, on a p j = (x j )nj uj , avec uj K[x]. Donc (p
1 ) . . . (pk ) = pA u, avec u = u1 . . . uk K[x]. Posons q = (x1 ) . . . (xk ),
et posons D = p(A). On a q(D) = (p(A) 1 In ) . . . (p(A) k In ) = [(p
1 ) . . . (p k )](A) = pA (A)u(A) = 0. Donc le polynme minimal qD de D
divise q, et qD est un polynme scind dont toutes les racines sont simples. Il
rsulte alors du thorme 5.1 que D est diagonalisable .
Posons N = A p(A). On a N D = DN, A = D + N, et si on pose v = x p
on a N = v(A). Pour 1 j k on a v = x p = x j + (x j )nj uj =
(xj )(1+(xj )nj 1 uj ) = (xj )wj , avec wj = (1+(xj )nj 1 uj ) K[x].
Comme n = n1 + . . . + nk , on a q n = (x 1 )n1 . . . (x k )nk w1n1 . . . wknk =
pA w, avec w = w1n1 . . . wknk K[x]. On a donc N n = q n (A) = pA (A)w(A) = 0,
et N est nilpotente, ce qui prouve lexistence de la dcomposition cherche.
Soit (D1 , N1 ) un autre couple de matrices vrifiant les quatre conditions du
thorme. On a D1 A = D12 +D1 N1 = D12 +N1 D1 = AD1 et N1 A = N1 D1 +D12 =
D1 N1 + D12 = AN1 . Donc D1 q(A) = q(A)D1 et N1 q(A) = q(A)N1 pour tout
polynme q K[x]. En particulier D1 commute avec D = p(A) et N1 commute
avec N = v(A).
On a D1 D = N N1 . Il rsulte alors du Corollaire 5.9 et de la Proposition
5.11 que D D1 est la fois diagonalisable et nilpotente. Donc D D1 = 0,
D = D1 , N = N1 et la dcomposition de Jordan est unique. Le fait que pA = pD
rsulte du corollaire 5.4.4.
Notons que le thorme ci-dessus donne un moyen effectif de calculer la
dcomposition de Jordan dune matrice quand on a pu calculer effectivement
ses valeurs propres. La situation est particulirement simple dans M2 (C). En
effet dans ce cas ou bien A possde deux valeurs propres distinctes, ce qui
implique que A est diagonalisable, et la dcomposition de Jordan est alors la
dcomposition triviale D = A, N = 0, ou bien A possde une valeur propre
double 1 . Dans ce cas D = p(A), o p C[X] est une solution quelconque de
lquation de congruence
p 1

mod(x 1 )2

on peut donc prendre p = 1 , ce qui donne

(5.1)

92CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

D = 1 I2 =

1
0

H
G
0

, N = A 1 I2 = A 1
1
0

Exemple 5.5.2 Dcomposition de Jordan de A =

3
1

H
1
.
1

0
1

(5.2)

On a det(A) = 4, T r(A) = 4, donc pA = x2 4x + 4 = (x 2)2 . Donc A


possde 2 comme valeur propre double.
On a donc daprs la formule ci-dessus
G

2
D = 2I2 =
0

H
G
0
3
, N = A 2I2 =
2
1

H G
1
2

1
0

H G
H
0
1
1
=
.
2
1 1

Pour les matrices 3 3, on dduit du thorme 5-5-1 le rsultat suivant.


Corollaire 5.5.3 Soit A M3 (C), et soit pA = (x 1)(x 2 )(x 3 ) le
polynme caractristique de A, et soit A = D + N, avec D diagonalisable, N
nilpotente, N D = DN la dcomposition de Jordan de A.
(i) Si les trois valeurs propres 1 , 2 , 3 sont distinctes, alors D = A et
N = 0.
(ii) Si les trois valeurs propres 1 , 2 , 3 sont gales, alors D = 1 I, et
N = A 1 I.
(iii) Si 3 = 2 += 1 , alors D = 2 I +
1 I)(A 2 I).

1
2 1 (A

1
1 2 (A

2 I)2 , et N = A D =

Dmonstration : (i) Il est clair que siA admet trois valeurs propres distinctes,
alors A est diagonalisable, ce qui donne D = A et N = A A = 0.
(ii) Si 1 est valeur propre de A de multiplicit 3, alors le polynme constant
p = 1 vrifie trivialement p 1 (mod (x 1 )3 ).
Daprs le thorme 5-5-1, on a alors D = 1 I, N = A 1 I.
(iii) Supposons maintenant que 3 = 2 += 1 . Il rsulte du thorme 5-5-1
que N = p(A), o p C[x] est une solution quelconque du systme dquations
de congruence
F

p 1
p 2

(mod (x 1 ))
(mod (x 2 )2 )

Ce type dquations est tudi dans le Chapitre 3 du Cours dalgbre [?]. Il


est plus simple ici de partir de la seconde quation, dont la solution gnrale est
p = 2 + q(x 2 )2 ,

avec q C[x].

5.5. THORME DE DCOMPOSITION DE JORDAN

93

La premire quation est alors vrifie si et seulement si p 1 = 2 1 +


q(x 2 )2 est divisible par x 1 , ce qui quivaut au fait que ce polynme
admet 1 pour racine. On obtient
0 = p(1 ) 1 = 2 1 + q(1 )(1 2 )2 .

En simplifiant par 1 2 , on obtient q(1 ) =

q constant, q =

1
1 2 ,

D = p(A) = 2 I+

ce qui donne p = 2 +

de prendre

1
1
(A2 I)2 , N = AD = A2 I
(A2 I)2
1 2
1 2
=

1
1 2 , et il suffit
2
(x2 )
1 2 . On obtient

1
(A 1 I)(A 2 I).
2 1

0
Exemple 5.5.4 Dcomposition de Jordan de A = 1
1

2
4
4

1
2 .
2

On voit tout de suite que det(A) = 0, puisque les deux dernires lignes de A
sont gales. On obtient, en retirant la seconde ligne la troisime dans le calcul
du dterminant ci -dessous, puis en ajoutant la troisime colonne la seconde
:
:
:
:
: x
: x
2
1 ::
2
1 ::
:
:
2 :: = :: 1 4 x 2 ::
pA = :: 1 4 x
: 0
: 1
x
x :
4
2 x :
:
:
: x
1
1 ::
:
= :: 1 2 x 2 :: = x(x(x 2) + 1) = x(x 1)2 .
: 0
0
x :

On voit donc que A admet 0 pour valeur propre simple et 1 pour valeur
propre double. Dapres le corollaire prcdent, on
a

1 2 1
D = I (A I)2 , N = A(A I). Ici A I = 1 3 2 , (A I)2 =
1 4 3

1 2 1
1 2 1
0 0 0
1 3 2 1 3 2 = 0 1 1 .
1 4 3
1 4 3
0 2 2
On obtient

0 0 0
1 0 0
D = I 0 1 1 = 0 2 1 ,
0 2 2
0 2 1

0 2 1
1 0 0
1 2 1
N = A D = 1 4 2 0 2 1 = 1 2 1 .
1 4 2
0 2 1
1 2 1

94CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

5.6

Un algorithme de calcul rapide pour la dcomposition de Jordan

Soit K un corps, et soit 1 llment unit de K. On dfinit n.1 pour n entier,


n 1, par la formule n.1 := 1 + ... + 1 (n fois) et on dira que le corps K est
de caractristique nulle quand n.1 += 0 pour tout n 1. Si K nest pas de
caractristique nulle on appelle caractristique de K le plus petit entier n 1
tel que n.1 = 0.
Dfinition 5.6.1 Soit K un corps, et soit p K[x] un polynme non nul. On
pose
p =

p
.
p.g.c.d.(p, p% )

(5.3)

Nous commenons par lobservation suivante.


Proposition 5.6.2 Soit K un corps de caractristique nulle, soit p = (x
1 )n1 ...(x k )nk un polynme scind sur K, avec nj 1 pour 1 j k et
i += j pour i += j. Alors p = (x 1 )...(x k ).

"k
Dmonstration : On a p% = j=0 nj (x j )nj 1 i)=j (x i )ni . Par consquent (x j )nj 1 divise p% . Comme (x i )ni 1 et (x j )nj 1 sont premiers
entre eux deux deux pour i += j, p% est divisible par le produit (x1 )n1 1 ...(x
k )nk 1 , et il existe u K[x] tel que lon ait
p% = (x 1 )n1 1 ...(x k )nk 1 u.

Comme nj .1 += 0, on a u(j ) += 0 et u est premier avec (x j ) pour


1 j k. Donc u est premier avec q := (x 1 )...(x k ). On a alors
p = (x 1 )n1 1 ...(x k )nk 1 q,

avec q premier avec u, ce qui montre que p.g.c.d.(p, p% ) = (x 1 )n1 1 ...(x


p
k )
. Donc p = p.g.c.d.(p,p
! ) = (x 1 )...(x k ).
nk 1

Ce rsultat a une premire consquence importante : dans la situation cidessus, le calcul de (x 1 )...(x k ) ne ncessite pas de connaitre les valeurs
propres, il suffit dappliquer lalgorithme dEuclide pour obtenir le p.g.c.d. q(p)
de p et p% et de diviser p par q(p).
contenant K et
On admettra que pour tout corps K il existe un corps K
possdant les deux proprits suivantes
est racine dun polynme coefficients dans K.
(i) Tout lment de K
est scind sur K.

(ii) Tout polynme coefficients dans K


= C, daprs le thorme de dAlembert.
On notera que R
On a le corollaire suivant.

5.6. UN ALGORITHME DE CALCUL RAPIDE POUR LA DCOMPOSITION DE JORDAN95


Corollaire 5.6.3 Soit K un corps de caractristique nulle, et soit p K[x] un
polynme non constant. Alors p et p% sont premiers entre eux, et il existe un
polynme up K[x] tel que p% up 1 (mod p).

Dmonstration : Il rsulte de la proposition que p = (x 1 )...(x k ),


Comme p est scind
1 , ..., k dsignant les racines distinctes de p dans K.
%

racines simples sur K, on a p (j ) += 0 pour 1 j k. Comme tout polynme


ceci montre que p et p%
non constant coefficients dans K est scind sur K,
sont premiers entre eux, et il rsulte du thorme de Bezout quil existe deux
polynmes up et vp coefficients dans K tels que p% up + pvp = 1.

On va maintenant donner un algorithme efficace pour obtenir la dcomposi dune matrice A Mn (K) quand K est de caractristion de Jordan dans K
tique nulle. On notera que cette mthode est directement inspire de la mthode
de Newton, qui fournit un schma dapproximation dune racine de lquation
f (x) = 0. Cette mthode consiste choisir convenablement x0 et poser, pour
m 0,
f (xm )
.
f % (xm )
Certaines hypothses, que nous ne dtaillerons pas ici, permettent de garantir
que la suite (xm )m0 converge vers une solution x de lquation f (x) = 0.
Lide qui sous-tend lalgorithme ci-dessous est de trouver une solution non
triviale D de lquation matricielle pA (D) = 0, qui se trouve tre la partie dia dune matrice donne A Mn (K). Il ny a aucun problme
gonalisable (sur K)
de convergence ici, car la suite obtenue est stationnaire : on a Dm = D pour
m assez grand.
Cette utilisation la mthode de Newton est due au grand mathmaticien
contemporain Alexandre Grothendieck, qui la introduite dans les annes 60,
et elle joue un rle important dans la thorie des groupes algbriques. Le choix
pdagogique consistant considrer la dcomposition de Jordan dune matrice
carre comme le rsultat central de lalgbre linaire classique t suggr au second auteur par les travaux de son lve Danielle Couty [2], o la dcomposition
de Jordan joue un rle essentiel. Le caractre effectif de la procdure prsente
ci-dessous conforte lide que la dcomposition de Jordan est bien un rsultat
central. On peut toujours la calculer, alors que le calcul de la forme de Jordan
(de mme que la trigonalisation) dune matrice carre ncessite la connaissance
des ses valeurs propres, ce qui mne un calcul impossible raliser sauf valeur
propre vidente pour A Mn (K), n 5. Notons que cet algorithme, sil est
bien connu (on le trouvera par exemple propos en exercice p.62-63 de louvrage
rcent de A.Boyer et J.Risler [1]), reste curieusement trs peu enseign.
xm+1 = xm

Nous utiliserons le rsultat suivant, qui est une consquence immdiate de


la formule du binme de Newton (voir le Chapitre 1 du Cours dalgbre [?]).
Lemme 5.6.4 Soit K un corps, soit q K[x], et soit A un anneau commutatif.
On a alors, pour U, V A,

96CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

q(U + V ) q(U ) V A, q(U + V ) q % (U )V V 2 A.


Dmonstration : Pour j 1, on a
(U + V )j U j jU j1 V =
=

j
!
i=2

j
!
i=0

Cji U i V ji U j jU j1 V

Cji U ji V i V 2 A,

ce qui implique par linarit la seconde relation, et la premire sen dduit.

Thorme 5.6.5 Soit K un corps de caractristique nulle, soit A Mn (K),


soit p = pA le polynme caractristique de A, soit n(p) un entier positif tel que p
divise pn(p) , et soit up K[x] tel que up p% 1 (mod p).On dfinit par rcurrence
une suite (Dm )p0 dlments de Mn (K) en posant
F

D0 = A,
Dm+1 = Dm p(Dm )up (Dm )

pour m 0.

Alors pDm = p, p(Dm ) = 0, et p% (Dm ) est inversible dinverse gal up (Dm )


pour m 0. De plus p(Dm ) = 0 et Dm coincide avec la partie diagonalisable
de A pour 22m n(p).
sur K
Dmonstration : Soit A := {h(A)}hK[x] , de sorte que A est commutative.
Il est clair que Dm A pour m 0. Il rsulte du thorme de Cayley-Hamilton
que p(A) = 0. On a p(Dm+1 ) = p (Dm p(Dm )u(Dm )) = p(Dm ) p(Dm )Um =
p(Dm )(I + Um ), avec Um A. Une rcurrence immdiate montre alors que
p(Dm ) p(A)A, et p(Dm )n(p) = 0 pour m 0. Donc p(Dm )up (Dm ) est nilpotent et il rsulte du corollaire 5.4.4 et de lexistence de la dcomposition de Jor que Dm et Dm+1 ont le mme polynme caractristique. Donc
dan de Dm sur K
pDm = pA = p, p(Dm ) = 0, et up (Dm )
p% (Dm ) = p% (Dm )up (Dm ) = In , p% (Dm )
%
1
est inversible, et [
p (Dm )]
= up (Dm ). On voit donc que la suite (Dm )m0
vrifie la relation
Dm+1 = Dm p(Dm )[
p% (Dm )]1 ,
ce qui est la formule de lalgorithme de Newton applique p, considre comme
une fonction oprant sur Mn (K).
On a D0 = A et, pour m 1,
A Dm =

m1
!
j=0

p(Dj )u(Dj ),

5.6. UN ALGORITHME DE CALCUL RAPIDE POUR LA DCOMPOSITION DE JORDAN97


ce qui prouve que (A Dm )n(p) = 0 pour m 0. Dautre part, comme
p(U + V ) p(U ) p% (U )(U V ) (U V )2 A pour U, V A, il existe Wm A
vrifiant, pour m 0,
p(Dm+1 ) = p(Dm p(Dm )u(Dm ))

= p(Dm ) p(Dm )u(Dm )


p% (Dm ) + p(Dm )2 u(Dm )2 Wm
= p(Dm )2 u(Dm )2 Wm [
p(Dm )]2 A.

Une rcurrence immdiate montre alors que lon a, pour m 0,


m

p(Dm ) [
p(A)]2 A.

(5.4)

Donc p(Dm ) = 0 si 2m n(p). Dans ce cas Dm est diagonalisable sur K,

puisque p est scind racines simples sur K. Comme A Dm est nilpotent et


commute avec Dm , on voit que Dm = D, o D est la partie diagonalisable sur
de A.
K
Notons que la dmonstration ci-dessus fournit une preuve directe de lexistence dune dcomposition de Jordan (avec la partie diagonalisable D diagona pour A Mn (K) quand le corps K est de caractristique nulle.
lisable sur K)
On a au dbut de la dmonstration utilis lexistence de la dcomposition de
Jordan, mais cette rfrence la dcomposition de Jordan peut tre vite en
remplaant up par un polynme u tel que u
p% 1 soit divisible par pnp . Dautre
part cet algorithme fonctionne sans modification pour un corps de caractris du polynme caractristique pA
tique > 0 quand aucune des racines dans K
nest de multiplicit de la forme m avec N.
Notons galement que le plus petit entier n(p) tel que p divise pn(p) peut
se calculer sans connaitre les racines de p. Ce nombre est gal au plus grand
voir lexercice 10. . On voit donc
ordre de multiplicit des racines de p dans K,
sont de
quune seule itration va suffire si toutes les valeurs propres de A dans K
multiplicit au plus 2, que deux itrations vont suffire si toutes les valeurs propres
sont de multiplicit au plus 4, et que trois itrations vont suffire
de A dans K
si toutes les valeurs propres de A sont de multiplicit au plus 8. La formule 5.4
est donc une trs bonne version algbrique des majorations derreurs obtenues
en Analyse pour la mthode de Newton pour les fonctions dont on contrle les
deux premires drives.
G
H
3 1
Exemple 5.6.6 Dcomposition de Jordan de A =
par lalgorithme
1 1
rapide.
Posons p = pA = x2 4x + 2. On a p% = 2x 4, et p.g.c.d.(p, p% ) = x 2. Donc
p
= x 2, et p% = 1. Il est clair que n(p) = 2, et on a p 0 + p% = 1. Pour
p = x2
appliquer lalgorithme on peut donc prendre u = 1, et on a
D0 = A, D1 = A p(A) = A (A 2I) = 2I.

98CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


La dcomposition de Jordan de A est donc A G= D + N,
H avec D = 2I
1
1
diagonalisable (en fait diagonale), et N = A 2I =
nilpotente.
1 1

0
Exemple 5.6.7 Dcomposition de Jordan de A = 1
1
rithme rapide.

2
4
4

1
2 par lalgo2

Posons p = pA = x3 2x2 +x. On a p% = 3x2 4x+1, donc p.g.c.d.(p, p% ) = x1,


p
et p = x1
= x2 x. Donc p% = 2x1, et on vrifie bien que p et p% sont premiers
entre eux. Comme p = 6x 4 est premier avec p, on peut prendre n(p) = 2.
La partie diagonalisable D de A est donc donne par la formule
D = D1 = A p(A)[
p% (A)1 ] = A (A2 A)(2A I)1 .
On a

1 2 1
A I = 1 3 2 ,
1 4 3

1 2 1
1 2 1
0 2 1
A(A I) = 1 4 2 1 3 2 = 1 2 1 ,
1 4 2
1 4 3
1 2 1

1 4 2
3 4 2
2A I = 2 7 4 , (2A I)1 = 2 1 0 ,
2 8 5
2
0 1

1 2 1
3 4 2
A(A I)(2A I)1 = 1 2 1 2 1 0
1 2 1
2
0 1

1 2 1
= 1 2 1 ,
1 2 1

1 0 0
D = A A(A I)(2A I)1 = 0 2 1 ,
0 2 1

1 2 1
N = A D = 1 2 1 .
1 2 1

Lalgorithme rapide est videmment trs performant pour les grosses matrices, et il prsente le trs gros intrt de ne pas demander le calcul des valeurs
propres. On peut le programmer sous Mupad (cest propos lexercice 12).

5.7. CHAPITRE 5 SOUS MUPAD

5.7

99

Chapitre 5 sous Mupad

La commmande "linalg : :minpoly(A,x)" permet dobtenir le polynome minimal, exprim en fonction


de lindtermine
x, dune matrice carre A donne.

0 2 1
Par exemple si A = 1 4 2 est la matrice tudie ci-dessus, on obtient
1 4 2
3
2
qA = x 2x + x = x(x 1)2 . Par contre Mupad ne donne pas spontanment
la dcomposition de Jordan , comme on va le voir ci-dessous.
Avec la commande "linalg : :jordanForm(A,All)," Mupad donne deux matrices. La premere est une "forme de Jordan" B de A cest dire une matrice
semblable A qui est somme dune matrice diagonale DB et dune matrice
NB dont tous les termes sont nuls, sauf ceux situs au dessus de la diagonale
qui sont gaux 0 ou 1, et quivrifient DB .NB = NB .DB . Il est clair que
NB est nilpotente, donc la dcomposition de Jordan de B est la dcomposition triviale B = DB + NB . La deuxime matrice est une matrice P telle que
A = P BP 1 . Pour rcuprer la dcomposition de Jordan de A il suffit de calculer D = P DB P 1 et N = P NB P 1 , que lon a nots ci-dessus D1 et N 1 car
le symbole D est dj reserv sous Mupad.
On va ma maintenant utiliser lalgorithme rapide pour calculer la dcomposition de Jordan de la matrice

1 2 5 2 0 1
5 2 10 4 0 2

6 7 17 6 0 3
B :=
.
11 19 36 13 0 8

15 23 47 21 3 10
17 25 52 23 1 13

Il sagit certes dun exemple quelque peu acadmique, puisque cette matrice
admet 3 et 4 comme racines doubles et 1 et 2 comme racines simples (on peut
voir que les racines doubles sont 3 et 4 en observant dans le calcul ci-dessous que
pgcd(pB , p%B ) = x2 7x+12). Ceci dit il sagit dune matrice 66 pour laquelle le
calcul des valeurs propres sous Mupad nest pas possible. On voit que n(p) = 2,
donc il suffit dune seule itration pour obtenir la dcomposition de Jordan.
Le rsultat est vrifi la fin : la matrice D1 obtenue est bien diagonalisable,
puisque p(D1 ) = 0, avec p racines simples, elle commute avec B, et si on pose
N = B D1 on a N 2 = 0.
On notera le calcul dexpressions du type q(B), o p est un polynme et
B une matrice carre, est effectu ci-dessous de manire trs naive : on calcule
q(B) en posant
q(B) = coef f (q, x, 0)B 0 +coef f (q, x, 1)B+coef f (q, x, 2)B 2 ...+coef f (q, x, n)B n ,
ce qui impose dcrire manuellement une somme de n + 1 termes, n dsignant
le degr de q. Une mthode plus performante sera propose dans la prochaine

100CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


dition de ce cours. Nous proposons lexercice 11 un calcul de dcomposition
de Jordan pour une matrice non diagonalisable sans valeur propres calculables.

5.7. CHAPITRE 5 SOUS MUPAD

101

M:=Dom::Matrix();
A:=M([[0,2,-1],[-1,4,-2],[-1,4,-2]]);
q:=linalg::minpoly(A,x);

Dom::Matrix()
!
$
"0 2 ! 1 %
#! 1 4 ! 2 &
!1 4 !2
x3 ! 2 " x2 + x
u:=linalg::jordanForm(A,All);

'!
$ !
1 1 0 % "1 ! 2 0
"
(#
) 0 1 0 &, #1 ! 1 1
0 0 0
1 !1 2

$*
%+
&,

P:=op(u,2);D1:=P*M([[1,0,0],[0,1,0],[0,0,0]])*(1/P);
N1:=P*M([[0,1,0],[0,0,0],[0,0,0]])*(1/P);

!
$
"1 ! 2 0 %
#1 ! 1 1 &
1 !1 2
!
$
"1 0 0 %
#0 2 ! 1 &
0 2 !1
!
$
"! 1 2 ! 1 %
#! 1 2 ! 1 &
!1 2 !1

102CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

M:=Dom::Matrix();
B:=M([[-1,-2,5,-2,0,1],[-5,-2,10,-4,0,2],
[-6,-7,17,-6,0,3],[-11,-19,36,-13,0,8],
[-15,-23,47,-21,3,10],[-17,-25,52,-23,1,13]]);

Dom::Matrix()
!
! 1 !2 5 !2 0
" ! 5 ! 2 10 ! 4 0
"
" ! 6 ! 7 17 ! 6 0
"
"
"
"! 11 ! 19 36 ! 13 0
#! 15 ! 23 47 ! 21 3
! 17 ! 25 52 ! 23 1

1
2
3
8
10
13

$
%
%
%
%
%
%
%
&

linalg::eigenValues(B);

Fail
p:=linalg::charpoly(B,x);

x6 ! 17 " x5 + 117 " x4 ! 415 " x3 + 794 " x2 ! 768 " x + 288
pprime:=diff(p,x);
5

6 " x ! 85 " x + 468 " x ! 1245 " x + 1588 " x ! 768


p1:=gcd(p,pprime);
tildep:=p/p1;tildepprime:=diff(tildep,x);

x2 ! 7 " x + 12
x4 ! 10 " x3 + 35 " x2 ! 50 " x + 24
4 " x3 ! 30 " x2 + 70 " x ! 50
tildep^2/p;
C:=coeff(tildep,x,0)*B^0+coeff(tildep,x,1)*B^1
+coeff(tildep,x,2)*B^2+coeff(tildep,x,3)*B^3
+coeff(tildep,x,4)*B^4;

x2 ! 3 " x + 2

5.7. CHAPITRE 5 SOUS MUPAD

103

! 26 ! 11
" ! 64 ! 27
"
" ! 85 ! 36
"
"
"
"! 224 ! 95
#! 245 ! 104
! 283 ! 120

52 ! 23 4
128 ! 57 10
170 ! 75 13
448 ! 197 34
490 ! 215 37
566 ! 249 43

4
10
13
34
37
43

$
%
%
%
%
%
%
%
&

u:=gcdex(p,tildepprime,x);

8 " x'2 + 94
"'
x ! ''
121
" x'5 ! ''''
85 " x'4 + '''''
310 " x3 ! ''''''
1000 " x2 + ''''
949 " '
x ! '''
155
'''
', 2
'''
1, ! '''
27
27
27 27
54
27
27
18
6
v:=op(u,3);
5

2 " x' ! ''''


85 " x' + '''''
310 " x ! ''''''
1000 " x + ''''
949 " 'x ! ''
155
'''
'
27
54
27
27
18
6
C1:=_plus(coeff(v,x,i)*B^i $ i=0..5);

!
145
''
" 27
"391
''
" 27
"965
"''
" 54
"1222
'
"''
" 27
"
'''
"1237
# 27
2993
'''
54

D1:=B-C*C1;

N:=B-D1;

7
517
'
! ''
4
6
54
8
1339
2
' ! ''' '1
3

54

$
1'
0
!'
27
%
5'3 %
!'
54 %
%
3'
7 %
!'
27 %
'' %
%
! 203
54 %
%
233 %
! ''
54 &
''
! 239

41
!'
54
! 5'5
27

2'
5
1705
61
'
' 13 ! '
! ''
6
54
27
6
'
'7 ! 4339
''' 33 ! 148
''
6
54
27
'
3
'5 ! 2213
''' 34 ! ''
145
3
3
'
'8
3

!
1
1
''4 '
"239 29
"' '
"3
"7'3 2
"
1
"6
"''
3
'
"107
2
"3
"
"211
'' ! 1
#6
253
''
1
6

27

27

''' 8'1 ! 193


''
! 2624
27
2
27

54

$
1'
9
5
2
1
' !'
'
!'
3
2
3
3
%
'
5
8 '
1'
5
'
5
1 %
! 3 2 !3 '
3 %
%
5
8 1
7
1
3 '
'
'
'
'
'
! 3 2 ! 6 56 %
%
%
172 '
4'
9
1'
7 '
7 %
''
'
! 3 2 ! 3 3 %
'' 3'
'9 ! 1''9 2'3 %
%
! 160
3
2
6
6 &
'' 4'
'9 ! 3'
'7 3'5
! 199
3

104CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

N^2;

!
1$
7
!$
" 3
" ! 4$4
" 3
" $$
"! 109
" 6
" 140
"! $$
" 3
"
301
"! $$
# 6
$$
! 355
6

%
5
3$
4
9
2
2
$
$
$ $
!$
!
2
3
2
3
3
&
$3 $
88
23 $
$
5
$ &
5
! 1$
!
2
3
2
3
3 &
&
2$
9 $
1$
3 $
1$
3 &
$$ ! $
! 8 109
3
2
6
6 &
&
4 1 $$
280
75 $
1$
7 $
1$
7 &
!$
!$
2
3
2
3
3 &
$$ ! 8$1 3$7 3$7 &
&
! 22 301
3
2
6
6 '
$$ ! 9$5 4$3 4$3
! 26 355
3
2
6
6

!
0
"0
"
"0
"
"
"0
#0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

%
&
&
&
&
&
&
'

_plus(coeff(tildep,x,i)*D1^i $i=0..5);

B*D1-D1*B;

!
0
"0
"
"0
"
"
"0
#0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

!
0
"0
"
"0
"
"
"0
#0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

%
&
&
&
&
&
&
'

%
&
&
&
&
&
&
'

5.8. EXERCICES SUR LE CHAPITRE 5

5.8

105

Exercices sur le Chapitre 5

exercice 1
Soit A M3 (R) dfinie par

3
A = 1
1

2 2
0 1
1 0

a) Dterminer le polynme caractristique de A.


b) Dterminer le polynme minimal de A.
c) La matrice A est-elle diagonalisable ?

exercice 2
Soit P Mn (R) telle que P 2 = P ; montrer que P est une matrice diagonalisable .
exercice 3
Calculer p(A) = 2A8 3A5 + A4 + A2 4I3 , o A est llment de M3 (R)
dfini par

1 0 2
A = 0 1 1
0 1 0

exercice 4
Pour A Mk (C) on note A Mk (C) la matrice dont les coefficients sont
les conjugus des coefficients de A.
1) Vrifier que AB = A.B pour A, B Mk (C).
2) En dduire que si A Mk (C) est diagonalisable sur C, alors A lest aussi.
3) Montrer galement que si A Mk (C) est nilpotente, alors A lest aussi.
4) Soit A Mk (R) et soit A = D + N, avec D Mk (C) diagonalisable sur
C, N Mk (C) nilpotente, N D = DN la dcomposition de Jordan de A dans
Mk (C). Montrer que D Mk (R) et N Mk (R).
exercice 5
Caractriser toutes les matrices A M2 (C) dont le polynme minimal est
x2 + 1.
exercice 6 Soit E un espace vectoriel de dimenson finie sur C ; on considre
un endomorphisme f de E pour lequel il existe un entier n 1 vrifiant f n = IE .
Montrer que f est diagonalisable .

106CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN


exercice 7

3 1 1
On considre la matrice A = 2 2 1
2 2 0
a) Calculer le polynme caractristique de A.
b) Dterminer la dimension du sous-espace propre associ la valeur propre 2.
La matrice A est-elle diagonalisable ?
c) Quel est le polynme minimal de A ?
d) Calculer la partie diagonalisable D(A) et la partie nilpotente N (A) de A.
e) Dterminer une matrice P inversible telle que

2 0 0
P 1 D(A)P = 0 2 0
0 0 1
exercice 8
On considre les matrices relles suivantes :

3
0
1 0
0

B = 1 2 0 ; C =
2
1 1 2
0

3 2
1 0
3 1
0 0

1
0

2
1

Pour chacune delles, on rpondra aux deux questions suivantes :


a) Est-elle diagonalisable ?
b) Si la rponse est non donner sa dcomposition de Jordan .
exercice 9
a) Montrer que les matrices
blables.

0 1
A= 0 0
0 0

A et B de M3 (C)

0
0
1 ; B= 1
0
0

dfinies ci-dessous sont sem


0 0
0 0
1 0

b) En dduire que toute matrice appartenant M3 (C) est semblable sa transpose.


c) Gnraliser ce rsultat pour des matrices carres coefficients complexes
quelconques.
exercice 10
Soit K un corps de caractristique nulle, et soit p K[x] un polynme non
nul. Montrer que le plus petit entier m 1 tel que p divise pm est gal la plus

grande multiplicit des racines de p dans K.


exercice 11 (sous Mupad, exclusivit ESTIA)
a) Dterminer le polynme caractristique p := pB de la matrice

5.8. EXERCICES SUR LE CHAPITRE 5

240
22

612

416

183

326

17

412

266

128

216

12

212

116
33

220
21
560
392
194
328
17
412
266
128
216
12
212
116
33

202
21
518
379
201
324
17
412
266
128
216
12
212
116
33

183
17
478
356
190
311
17
412
266
128
216
12
212
116
33

165
11
440
330
176
297
17
412
266
128
216
12
212
116
33

150
10
400
300
150
275
17
412
266
128
216
12
212
116
33

107

135
9
360
270
125
234
16
360
242
139
218
12
212
116
33

120
8
320
240
102
197
16
318
229
146
214
12
212
116
33

105
7
280
210
82
162
12
278
206
135
201
12
212
116
33

90
6
240
180
66
132
6
240
180
121
187
12
212
116
33

75 60 45 30 15
5
4
3
2
1

200
160
120
80
40

150 120 90 60 30

55
44
33
22
11

110 88 66 44 22

5
4
3
2
1

200
160
120
80
40 .

150 120 90 60 30

95
70
47
27
11

165 124 87 52 22

12
11
11
7
1

212
160
118
78
40

116 92 79 56 30
33
44
51
40
26

b) Calculer le pgcd q de p et p% ainsi que le polynme p := p/q. Vrifier que


p = p.
3

c) En suivant lalgorithme rapide propos dans le cours, dterminer la dcomposition de Jordan de la matrice B.
exercice 12
Ecrire un programme permettant de calculer sous Mupad la dcomposition
de Jordan dune matrice carre coefficients complexes quelconque.

108CHAPITRE 5. POLYNME MINIMAL, DCOMPOSITION DE JORDAN

Chapitre 6

Itration, systmes
diffrentiels linaires
6.1

Calcul des puissances dune matrice

Le rsultat suivant donne un moyen effectif de calculer les puissances dune


matrice dont le polynme caractristique est scind quand on connait ses valeurs
propres.
Proposition 6.1.1 Soit A Mn (K) une matrice dont le polynme caractristique est scind, et soit A = D + N, avec D diagonalisable, N nilpotente,
N D = DN la dcomposition de Jordan de A. On a alors, pour p 1,
Ap =

p
!

min(m1,p)

Cpk Dpk N k =

k=0

Cpk Dpk N k

k=0

p!
o Cpk = p(p1)...(pk+1)!
= k!(pk)!
pour 0 k p, avec les conventions
k!
0! = 1! = 1, et o m est le plus petit entier 1 tel que N m = 0.

Dmonstration : Comme N D = DN, ceci rsulte immdiatement du binme


de Newton, voir par exemple le Chapitre 1 du Cours dalgbre [?]. Le fait que
lon peut arrter la sommation m 1 si m 1 p provient du fait que N k = 0
pour k m.
Le calcul de Dp se fait en diagonalisant D : il existe diagonale et P
Mn (K) inversibles telles que = P 1 DP, soit D = P P 1 . Une rcurrence
immdiate montre que lon a, pour p 1,
Dp = P p P 1
109

(6.1)

110CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

1,1
0

...
Dautre part si =
0

...
0
pour p 1

p
1,1
0

...
p
=
0

...
0

0
2,2
...
0
...
0
0

p
2,2

...
0
...
0

... ...
0 ...
... ...
. . . j,j
... ...
... ...

...
0
...
0

... ...
est diagonale, on a
...
0

... ...
0 n,n

... ...
0 ...
... ...
p
. . . j,j
... ...
... ...

...
0
...
0

... ...
,
...
0

... ...
p
0 n,n

ce qui permet de calculer effectivement Dp .

Exemple 6.1.2 On a, pour p 0,


G
Hp G p
H
1 1
2 p2p1
p2p1
=
.
1 3
p2p1
2p + p2p1
G
H
1 1
En effet posons A =
. On a pA = x2 T r(A)x + det(A) = x2
1 3
4x + 4 = (x 2)2 , donc A possde une valeur propre double gale 2. Comme le
polynme constant p = 2 vrifie trivialement lquation p 2 (mod (x 2)2 ),
la dcomposition
deH Jordan A = D + N de A donne D = p(A) = 2I, N =
G
1 1
A 2I =
. On a N 2 = 0, et on obtient, pour p 0,
1
1
G p
H
2 p2p1
p2p1
p
p
p1
A = 2 I + p2 N =
.
p2p1
2p + p2p1
Exemple 6.1.3 On a, pour p 1,

p
0 2 1
1p
1 4 2 = p
1 4 2
p
En
0
1
1

effet on
connait la
2 1
4 2 , qui est
4 2

1
D = 0
0

2p
2 + 2p
2 + 2p

p
1 p .
1 p

dcomposition de Jordan A = D + N de A =

0 0
2 1 ,
2 1

1 2 1
N = 1 2 1 .
1 2 1

Les polynmes caractrisques pA et pD de A coincident, et daprs un calcul effectu au chapitre prcdent on a pD = pA = x(x 1)2 . Comme D est

6.1. CALCUL DES PUISSANCES DUNE MATRICE

111

associ la valeur propre 0 de D est engendr


0 0
1 1 et le sous espace propre associ la
2 2

1 0 0
valeur propre 1 de D est engendr par les colonnes de D = 0 2 1 . Donc
0 2 1

1 0 0
si on pose P = 0 1 1 , on obtient une matrice inversible dont les colonnes
0 1 2
sont des vecteurs propres
de D

associs aux valeurs propres 1, 1 et 0 de D. On


1 0 0
obtient P 1 DP = 0 1 0 , soit pour p 1,
0 0 0
diagonalisable le sous-espace E0
0
par les colonnes de D I = 0
0

p
p
1 0 0
1
Dp = P 0 1 0 P 1 = P 0
0 0 0
0
Dautre part on a

0
1p
0

0
1
0 P 1 = P 0
0p
0


1 2 1
1 2 1
0
N 2 = 1 2 1 1 2 1 = 0
1 2 1
1 2 1
0

1
N D = DN = 0
0

0
1
0

0
0 P 1 = D.
0

0 0
0 0,
0 0

0 0
1 2 1
1 2 1
2 1 1 2 1 = 1 2 1 = N,
2 1
1 2 1
1 2 1

et on obtient, pour p 1,

1p
2p
p
Ap = Dp + pDp1 N = D + pN = p 2 + 2p 1 p .
p 2 + 2p 1 p

Un exemple classique dapplication de litration des matrices est donn par


le calcul des suites rcurrentes, que nous dcrivons ci-dessous.
Exemple 6.1.4 On considre une suite rcurrente (un )n0 , vrifiant pour n
k la formule
un = a1 un1 + a2 un2 + ... + ak unk

un
Alors si on pose Un = un+1 on a Un = An U0 , o
un+k1

(6.2)

112CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

0
0

...

A = ...

0
ak

1
0
...
...
0
0
ak1

0
1
...
...
...
...
...

...
0
...
...
...
...
...

...
...
...
...
0
...
...

...
...
...
...
1
0
a2

0
0

...

... ,

1
a1

En effet il rsulte de la formule 6.2 que Un+1 = AUn pour n 0, et la


formule Un = An U0 sobtient par une rcurrence immdiate.
Considrons par exemple la suite de Fibonacci (un )n0 , avec u0 = 0, u1 = 1,
qui vrifie pour n 2 la relation
un = un1 + un2 .
On obtient, pour n 0,
G

0 1
=
1 1

Hn G

H
u0
.
u1

H
0 1
. On a
1 1
pA = x2 T r(A)x
+ detA = x2 x 1, donc A possde deux valeurs propres

distinctes 1 = 12 5 et 2 = 1+2 5 . On a
J I
J

G
H I 1+5
1+ 5
0

1
0 1
2
2

A 2 I =

=
,
1+ 5
1 5
1 1
0
1
2
2
J I
J

G
H I 15
0
12 5
1
0 1
2

A 1 I =

=
.
1 5
1+ 5
1 1
0
1
2
2
Posons A =

un
un+1

(6.3)

Les matrices A 2 I et A 1 I sont de rang 1, et les colonnes de A 2 I


engendrent le sous-espace propre E1 de A associ 1 tandis que les colonnes
de A 2 I engendrent le sous-espace propre E1 de A associ 1 . Donc si on
pose
I
J
1+ 5
1
2

P =
,
1+ 5
1
2
on voit que les colonnes de P donnent une base de R2 forme de vecteurs
propres de A et on a
I
J
I
J
1 5
1 5
0
0
2
2

P 1 AP =
, A=P
P 1 .
1+ 5
1+ 5
0
0
2
2
On obtient, pour p 0,

6.1. CALCUL DES PUISSANCES DUNE MATRICE

A =P
p

(1+ 5)2
4

On a det(P ) =

51
.
2 5

( 12 5 )p
0

+1 =

3+ 5
2

( 1+2 5 )p

+1 =

113

P 1 .

5+ 5
1
2 , det(P )

2
5+ 5

2(5 5)
255

On a donc
P

51

2 5

On obtient, comme
1
Ap =
5

1+ 5
2

51
2

1+ 5
2

1+ 5
2

5+1
2

1+ 5
2

1
=
5

1 5
2

51
2

= 1,

JI

( 12 5 )p
0

( 1+2 5 )p

JI

1 5
2

1
51
2

I
JI
J

1+ 5
1 5 p
1 5 p+1
1
1
(
)
(
)
2
2

2
=
1+ 5
5
1
( 1+2 5 )p1
( 1+2 5 )p
2
I
J

1 ( 1+2 5 )p1 ( 12 5 )p1


( 1+2 5 )p ( 12 5 )p

=
.
5
( 1+2 5 )p ( 12 5 )p
( 1+2 5 )p+1 ( 12 5 )p+1
En revenant la suite de Fibonacci, on obtient, pour n 0,
G

un
un+1

1
=
5

( 1+2 5 )n1 ( 12 5 )n1

( 1+2 5 )n ( 12 5 )n

1
un =
5

( 1+2 5 )n ( 12 5 )n

( 1+2 5 )n+1 ( 12 5 )n+1

JG H
0
,
1

7
8n
8n
1+ 5
1
1 5

.
2
2
5

Notons quil existe une mthode bien connue plus simple pour calculer les
termes de la suite de Fibonacci : si a et b sont deux rels, on vrifie immdiatement que si on pose vn = an1 + bn2 pour n 0, alors la suite (vn )n0 vrifie la
relation de rcurrence 6-3. Comme une suite vrifiant cette relation est dtermine de manire unique par la donne de ses deux premiers termes, on a, pour
n 0,
un = an1 + bn2 ,
o a et b vrifient le systme
G

a+b=0
a1 + b2 = 1

114CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES


:
:
:0 1 :
:
:
: 1 2 :
:=
On obtient a = ::
1 ::
: 1
: 1 2 :

1
2 1

= 15

n n

:
:
: 1 0:
:
:
: 1 1 :
:=
et b = ::
1 ::
: 1
: 1 2 :

1
2 1

1 .
5

Donc un = 25 1 pour n 0, et on retrouve le rsultat prcdent. On peut


en fait appliquer la mthode des suites rcurrentes pour calculer les puissances
successives dune matrice carre A. En effet soit qA = a0 +a1 x+...+an1 xm1 +
xm le polynme minimal de A. Comme qA (A) = 0, on a pour n m,
An = am1 An1 am2 An2 ... a0 Anm ,
et on obtient une suite rcurrente valeurs matricielles.
Soient 1 , ..., k les racines distinctes de qA et soient p1 , ..., pk leurs ordres
de multiplicit. On vrifie, avec la convention 00 = 1, que la suite (np nj )n0
vrifie la forme scalaire de la relation de rcurrence ci-dessus pour 1 j k,
0 p pj . On a donc, pour n 0,
A =
n

7pj 1
!

k
!

np nj Bp,j

p=0

j=1

condition que les matrices Bp,j vrifient le systme

"k
j=1 B0,j = I 6
5
"k
"pj 1
p=0 j Bp,j = A
j=1
... ... ... ... ...
... ... ... ... ...

"k

j=1

"k

j=1

5"

pj 1 p s
p=0 s j Bp,j

... ... ... ... ...


... ... ... ... ...

5"

pj 1
p=0 (m

= As

6
1)p m1
Bp,j = Am1
j

On obtient un systme de Cramer inconnues matricielles, qui admet une


solution unique permettant dobtenir une formule explicite pour le calcul de An .
Nous illustrons
ceciHsur les exemples tudis plus haut.
G
1 1
Si A =
, qui possde une valeur propre double gale 2, on rsout
1 3
le systme
F
B=I
2B + 2C = A
qui a pour solution B = I, C =

A2I
2 ,

et on obtient, pour p 0,

6.1. CALCUL DES PUISSANCES DUNE MATRICE

A = 2 I + p2
p

pA

115

G
H G p
2I
2 p2p1
p
p1 1 1
= 2 I +2
=
1
1
p2p1
2
G

H
p2p1
.
2p + p2p1

H
0 1
Soit maintenant A =
, dont les valeurs propres sont 1 =
1 1

2 = 1+2 5 . On rsout le systme


F

1 5
2

et

B+C =I
1 B + 2 C = A

On obtient 1 B + 2 (I B) = A, soit B = 15 (A 2 I) , et 1 (I C) +
2 C = A, soit C = 15 (A 1 I) . On obtient, pour p 0, en remarquant que
1 2 = 1, et que 1 et 2 sont solutions de lquation xp+1 = xp + xp1 .
G

0
1

1
1

1
=
5

Hp

p
p
p p
p1 p1
= 1 (A 2 I) + 2 (A 1 I) = 2 1 A 2 1 I =
5
5
5
5

( 1+2 5 )p1 ( 12 5 )p1


( 1+2 5 )p ( 12 5 )p

( 1+2 5 )p ( 12 5 )p
( 1+2 5 )p + ( 1+2 5 )p1 ( 12 5 )p ( 12 5 )p1
I
J

1 ( 1+2 5 )p1 ( 12 5 )p1


( 1+2 5 )p ( 12 5 )p

=
.
5
( 1+2 5 )p ( 12 5 )p
( 1+2 5 )p+1 ( 12 5 )p+1

0 2 1
Posons maintenant A = 1 4 2 . On a vu que pA = x(x 1)2 = pD ,
1 4 2
o A = D + N est la dcomposition de Jordan de A. On a donc qD = x(x 1)
et D2 D = qD (D) = 0. Donc Dp = D pour tout p 1, ce qui donne

1p
2p
p
Ap = D + pDN = D + pN = p 2 + 2p 1 p .
p 2 + 2p 1 p

En rgle gnrale quand une matrice carre 3 lignes et 3 colonnes possde


une valeur propre simple 1 et une valeur propre double 2 , le polynme minimal
qD est gal (x1 )(x2 ), A = D+N dsignant la dcomposition de Joprdan
de A, et on a Dp = p1 B + p2 C, o B et C sont les solutions du systme
F

B+C =I
1 B + 2 C = D

On voit donc que dans ce cas il est inutile de diagonaliser D pour calculer
Dp .

116CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

6.2

Rappel sur les quations diffrentielles linaires


du premier ordre
On tudie en Terminale les quations diffrentielles du type
y % (t) = ay(t),

o a R. Il est bien connu que la solution gnrale dune telle quation est
de la forme
y(t) = eta ,
o est une constante relle, videmment gale y(0).
On sintresse plus gnralement aux quations diffrentielles du type
y % t) = ay(t) + g(t),
o g est une fonction continue sur un intervalle ouvert I de R. On dispose
de deux mthodes. La premire, base sur le principe de la "variation de la
constante", donne une formule trs gnrale.
Thorme 6.2.1 Soit I un intervalle de R, soit g : I R une fonction continue et soit a R. On considre lquation diffrentielle
()

y % (t) = ay(t) + g(t).

Alors pour tout t0 I et pour tout b R il existe sur I une unique solution
y de lquation (*) vrifiant y(t0 ) = c, qui est donne par la formule

(6.1)

y(t) = e

(tt0 )a

c+

t
(ts)a

g(s)ds = e

tt0 )a

y(t0 ) +

t0

e(ts)a g(s)ds.

t0

Preuve : Soit y : t " y(t) une fonction drivable sur I, et posons (t) =
y(t)eta . Alors y(t) = (t)eta (do le nom de "variation de la constante"),
y % (t) = % (t)eta + a(t)eta = % (t)eta + ay(t), donc y est solution de lquation
() si et seulement si on a, pour tout t I,
% (t)eta = g(t),

% (t) = eta g(t).

Dautre part y(t0 ) = c si et seulement si (t0 ) = et0 a c. Les deux conditions


ci-dessus caractrisent lunique primitive sur I de la fonction t " eta g(t) qui
prend la valeur et0 a c en t0 . Cette fonction est dfinie sur I par la formule
(t) = et0 a c +

esa g(s)ds.

t0

On obtient une unique solution y, dfinie sur I par la formule

6.2. RAPPEL SUR LES QUATIONS DIFFRENTIELLES LINAIRES DU PREMIER ORDRE117

y(t) = e (t) = e
ta

(tt0 )a

c+

t
(ts)a

g(s)ds = e

tt0 )a

y(t0 ) +

t0

e(ts)a g(s)ds.

t0

Exemple 6.2.2 Rsoudre lquation diffrentielle


y % (t) = 2y(t) + 1,
avec la condition initiale y(0) = 1.
On a la condition initiale y(0) = 1, et ici g(t) 1, a = 2. On obtient, en
appliquant la formule (6.1) :

y(t) = e2t +

G
H
G 2s Ht
e2t
1
e
= e2t 1
+
e2(ts) ds = e2t + e2t
2 0
2
2

3 2t 1
e .
2
2
La deuxime mthode, plus empirique, est base sur le "principe de superposition" suivant, qui permet de simplifier les calculs quand on a un moyen simple
de trouver une solution particulire.
=

Proposition 6.2.3 Soit I un intervalle de R, soit g : I R une fonction


continue et soit a R. On considre lquation diffrentielle
()

y % (t) = ay(t) + g(t).

Si y0 : I R est une solution particulire de lequation (*), alors la solution


gnerale de cette quation est donne par la formule
y(t) = y0 (t) + eta ,
o est une constante relle.
Preuve : Soit t " y(t) une fonction drivable sur I, et posons u(t) =
y(t) y0 (t).
On a y % (t) ay(t) g(t) = u% (t) au(t) + y0% (t) ay0 (t) g(t) = u% (t) au(t).
Par consquent y est solution de lquation (*) si et seulement si u est solution
de lquation homogne associe
()

u% (t) = au(t),

ce qui donne u(t) = eta , y(t) = y0 (t) + eta , o est une constante relle.

118CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES


Exemple 6.2.4 La solution gnrale de lquation diffrentielle y % (t) = 2y(t)+1
est donne par la formule
1
y(t) = e2t ,
2
o est une constante relle.
En effet on peut chercher une solution particulire constante de la forme
y0 (t) b. On obtient 0 = y0% (t) = 2b + 1, soit b = 12 . On dduit alors du
principe de superposition que la solution gnrale de lquation propose est
donne par la formule y(t) = e2t 12 , o est une constante relle. Avec la
condition y(0) = 1 on obtient = 32 , et on retrouve le rsultat de lexemple
6.1.2.

6.3

Systmes diffrentiels linaires et exponentielles de matrices

.
Un systme diffrentiel linaire coefficients constants est un systme de la
forme
%
y1 (t) = a1,1 y1 (t) + ... + a1,k yk (t) + g1 (t)

..................................................................
..................................................................

.................................................................
yk% (t) = ak,1 y1 (t) + ... + ak,k yk (t) + gk (t)

(6.4)

o les coefficients ai,j sont des nombres rels ou complexes, et o les fonctions
t " g1 (t), ..., t " gk (t) sont dfinies et continues sur un intervalle ouvert I
de R.
On va maintenant interprter un systme diffrentiel linaire coefficients
constants en faisant intervenir des fonctions valeurs matricielles. Nous utiliserons (principalement dans le cas particulier des matrices coefficients rels) les
notions naturelles suivantes.
Dfinition 6.3.1 Soient p et q deux entiers , et soit Mp,q (C) lespace vectoriel
des matrices p lignes et q colonnes = coefficients>dans C.
1) On dit quune suite (Un )n0 =

(ui,j,n ) 1ip
1jq

n0

dlments de Mp,q (C)

converge vers U = (ui,j ) 1ip Mp,q (C) quand limn+ ui,j,n = ui,j pour
1 i p, 1 j q.

1jq

2) On dit quune srie

+
"

Un =

n=0
+
"

convergente quand la srie

n=0

+
"

n=0

(ui,j,n ) 1ip dlments de Mp,q (C) est


1jq

ui,j,n est convergente pour 1 i p, 1 j q,

6.3. SYSTMES DIFFRENTIELS LINAIRES ET EXPONENTIELLES DE MATRICES119


et dans ce cas on pose
+
!

Un =

n=0

7 +
!

ui,j,n

1ip
1jq

n=0

3) On dit quune fonction F : t " (fi,j (t)) 1ip dfinie sur un intervalle
1jq

ouvert I de R et valeurs dans Mp,q (C) est continue sur I quand fi,j est
continue sur I pour 1 i p, 1 j q, et dans ce cas on pose, pour a, b I,
#

F (t)dt =

7#

fi,j (t)dt

1ip
1jq

4) On dit quune fonction F : t " (fi,j (t)) 1ip dfinie sur un intervalle
1jq

ouvert I de R et valeurs dans Mp,q (C) est drivable sur I quand fi,j est
drivable sur I pour 1 i p, 1 j q, et dans ce cas on pose, pour t I,
<
; %
(t) 1ip .
F % (t) = fi,j
1jq

Revenons un systme diffrentiel linaire coefficients constants de la forme


(6.1) et posons

y1 (t)
g1 (t)
.
.

.
.
A = (ai,j ) 1ik , Y (t) =
.
, G(t) =
.
.
1jk

.
.
gk (t)
yk (t)

Compte tenu de la dfinition ci-dessus, on a

y1% (t)
.

.
%
Y (t) =
.
.

.
yk% (t)
Le systme prend la forme
Y % (t) = AY (t) + G(t).
On va maintenant rsoudre ce systme en utilisant une forme approprie
de la mthode de la variation de la constante. On va utiliser le rsultat simple
suivant.

120CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES


Proposition 6.3.2 Soit I un intervalle ouvert de R.
(i) Soit t0 I, et soit F : I Mp,q (C) une application continue. Posons,
pour t I,
# t
G(t) =
F (s)ds.
t0

Alors G(t0 ) est la matrice nulle, G est drivable sur I et G% t) = F (t) pour
tout t I.

(ii) Soient F : I Mp,q (C) et G : I Mq,r (C) deux applications drivables sur I. Alors F G : t " F (t)G(t) est drivable sur I, et on a pour
tI
(F G)% (t) = F (t)G% (t) + F % (t)G(t).

(6.5)

Preuve : (i) rsulte immdiatement du rsultat analogue pour les fonctions


continues valeurs relles ou complexes et de la dfinition 6.2.1. Pour dmontrer
(ii) notons fi,k (t) le coefficient dindice i, k de F (t) pour 1 i p, 1 k q,
notons gk,j (t) le coefficient dindice k, j de G(t) pour 1 k q, 1 j r, et
notons (f g)i,j (t) le coefficient dindice i, j de F (t)G(t) pour 1 i p, 1 j r.
On a
(f g)i,j (t) =

q
!

fi,k (t)gk,j (t).

k=1

Par consquent (f g)i,j est drivable sur I pour 1 i p, 1 j q, et on a


(f g)%i,j (t) =

q
!

%
fi,k (t)gk,j
(t) +

k=1

q
!

%
(t)gk,j (t).
fi,k

k=1

Par consquent F G est drivable sur I, et on a


(F G)% (t) = F (t)G% (t) + F % (t)G(t).

Pour a R, (voir par exemple le Chapitre 1 du Cours dAnalyse) [3] on a


ea =

+ n
!
a
.
n!
n=0

Soit maintenant A Mk (C) une matrice carre k lignes et k colonnes


coefficients rels
On a vu au Chapitre 4 du cours danalyse [3]
"+ou complexes.
m
que la srie m=0 Am! converge dans Mk (C). On dfinit alors lexponentielle
de la matrice A par la formule
eA =

+
!
Am
.
m!
m=0

On a le rsultat suivant (Proposition 4.5.3 de [3])

(6.6)

6.3. SYSTMES DIFFRENTIELS LINAIRES ET EXPONENTIELLES DE MATRICES121


Proposition 6.3.3 Soient A, B Mk (C). Si AB = BA, alors eA+B = eA eB .
En particulier eA est inversible pour toute matrice A Mk (C), et on a
;

eA

<1

= eA .

(6.7)

Il rsulte galement du thorme 4.5.4 de [3] que si on pose F (t) = etA pour
t R, avec A Mk (R), alors F est drivable sur R, et que lon a pour t R
F % (t) = AF (t) = AetA ,
ce qui peut scrire sous la forme
d(etA ) = AetA dt

(6.8)

Dans la suite de ce Chapitre on identifiera Rk lespace vectoriel Mk,1 (R)


des matrices unicolonnes k coefficients rels. Nous sommes maintenant en
mesure dadapter aux systmes diffrentiels linaires coefficients constants la
mthode de la variation de la constante, ce qui amne au rsultat suivant.
Thorme 6.3.4 Soit I un intervalle de R, soit A Mk (R), et soit G : I
Rk une fonction continue. On considre le systme diffrentiel
Y % (t) = AY (t) + G(t)

(6.9)

Alors pour tout t0 I et pour tout C Rk il existe sur I une unique solution
Y du systme diffrentiel vrifiant Y (t0 ) = C, qui est donne par la formule

Y (t) = e(tt0 )A C +

e(ts)A G(s)ds = e(tt0 )A Y (t0 ) +

t0

t0

e(ts)A G(s)ds.
(6.10)

Preuve : Soit Y : t " Y (t) une fonction drivable sur I, et posons (t) =
etA Y (t). Alors Y (t) = etA (t) , Y % (t) = etA % (t) + AetA (t) = etA % (t) +
AY (t), donc Y est solution du systme propos si et seulement si on a, pour
tout t I,
etA % (t) = G(t),

% (t) = etA G(t).

Dautre part Y (t0 ) = C si et seulement si (t0 ) = et0 A C. Les deux


conditions ci-dessus caractrisent lunique primitive sur I de la fonction t "
etA G(t) qui prend la valeur et0 A C en t0 . Cette fonction est dfinie sur I par
la formule
(t) = et0 A C +

esA G(s)ds.

t0

On obtient une unique solution Y : I Rk , dfinie sur I par la formule

122CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

Y (t) = e (t) = e
tA

(tt0 )A

# t
# t
(ts)A
(tt0 )A
C+
e
G(s)ds = e
Y (t0 )+
e(ts)A G(s)ds.
t0

t0

On a vu au chapitre 4 de [3] que si B Mk (C), et si P Mk (C) est


inversible, on a
eP BP

= P eB P 1 ,

b1,1
0
...
b2,2 0
0

... ... ...


Dautre part soit B =
0
...
0

... ... ...


0
0
...
gonale. On a, daprs les formules 4.7 et 6.3
"
n bm
1,1
m=0 m!

...
eB =limn+

...

0
n
"

bm
2,2
m!

m=0
...

0
...
0

...
...
...
bj,j
...
...

(6.11)

...
0
...
0

... ...
une matrice dia...
0

... ...
0 bk,k

...

...

...

0
...
...
...
...

...
...
n bm
"
j,j

...
...
...
...
0

0
...
0
...
n bm
"
k,k

m!
m=0
...

...

m=0

On obtient

eb1,1
0

...
B
e =
0

...
0

do, pour t R,

etB

etb1,1
0

...
=
0

...
0

0
b2,2

e
...
0
...
0

0
tb2,2

...
0
...
0

... ...
0
...
... ...
. . . ebj,j
... ...
... ...

... ...
0
...
... ...
. . . etbj,j
... ...
... ...

m!

...
0
...
0

... ...
,
...
0

... ...
0 ebk,k

...
0
...
0

...
...

...
0

...
...
tbk,k
0 e

Si N Mk (C) est nilpotente, on a N p = 0, avec 1 p k, et on a

(6.12)

6.3. SYSTMES DIFFRENTIELS LINAIRES ET EXPONENTIELLES DE MATRICES123

eN =
do, pour t R,

p1
+
!
!
Nm
Nm
=
,
m!
m!
m=0
m=0

etN =

p1 m m
!
t N
.
m!
m=0

(6.13)

Soit maintenant A Mk (R), et soit A = D + N, avec D diagonalisable sur


C, N nilpotente, N D = DN, la dcomposition de Jordan de A vue au Chapitre
prcdent (thorme 5.5.1). On a alors, pour t R,
etA = etD etN ,

(6.14)

et on calcule sparment etD et etN comme indiqu ci-dessus.


On notera que mme dans le cas o A Mk (R) possde des valeurs propres
complexes non relles, la partie diagonalisable D et la partie nilpotente N de
la dcomposition de Jordan de A dans Mk (C) appartiennent Mk (R), voir
lexercice 4 du Chapitre 5.
Exemple 6.3.5 Rsoudre le systme diffrentiel
F %
x (t) = 3x(t) +y(t)
y % (t) = x(t) +y(t)

+1
1

avec la condition initiale x(0) = 1, y(0) = 0.


G
H
G
H
x(t)
3 1
Si on pose X(t) =
,A=
, le systme devient
y(t)
1 1
G
H
1
%
X (t) = AX(t) +
.
1

Soit A = D + N la dcomposition de GJordan


H de A.GOn a vu Hau Chapitre
2 0
1
1
prcdent (exemple 5.5.2) que lon a D =
,N =
.
0 2
1 1
On obtient
G 2t
H
e
0
etD =
= e2t I2 ,
0 e2t
G
H
1+t
t
etN = I2 + tN =
,
t 1 t
G
H
(1 + t)e2t
te2t
tA
tD tN
e =e e =
,
te2t
(1 t)e2t
G H # t
G
H
1
1
X(t) = etA
+
e(ts)A
ds
0
1
0

124CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES


G
HG
H
H # t
(1 + t)e2t
(t s)
1
2(ts) 1 + (t s)
ds
+
e
te2t
(t s) 1 (t s)
1
0
G
H
G
H
# t
1
(1 + t)e2t
2s
2t
=
e
ds.
+
e
1
te2t
0
D 2s Et
%t
2t
Comme 0 e2s ds = e 2
= e2 + 12 , on obtient
0
%t
F
x(t) = (1 + t)e2t + e2t 0 e2s ds = ( 32 + t)e2t 12
%t
y(t) = te2t e2t 0 e2s ds = ( 12 + t)e2t + 12
=

Le fait que certaines matrices carres relles soient diagonalisables sur C


mais pas sur R peut causer quelques complications dans le calcul de leur exponentielle, comme le montre lexemple suivant.
Exemple 6.3.6 Rsoudre le systme diffrentiel
F %
x (t) = x(t) +y(t)
y % (t) = x(t) +y(t)

+1
1

avec la condition initiale x(0) = y(0) = 0.


G
H
G
H
x(t)
1 1
Si on pose X(t) =
,A=
, le systme devient
y(t)
1 1
G
H
1
%
X (t) = AX(t) +
.
1

On a Tr(A) = det(A) = 2, donc pA = x2 2x + 2. On obtient deux racines


complexes 1 = 1 + i et 2 = 1 i, donc A possde deux valeurs propres
distinctes etG estH diagonalisable
G
H sur C.
G H
G H
u
u+v
u
u
On a A
=
. Lquation A
= (1 + i)
donne
v
u + v
v
v
G
v = iu
u = iv
G H
1
qui se rduit lquation y = ix. Donc V1 =
est un vecteur propre da
i
A associ la valeur propre
1 + i.G Comme
G
H
H les coefficients de A sont rels il est
1
1
clair que V2 = V 1 :=
=
est un vecteur propre de A associ
1+i
1i
la valeur propre 1 + i = 1 G i.
H
G
H
1 1
1+i
0
1
Posons P = [V1 , V2 ] =
. Alors P AP =
est diagoi i
0
1i
nale, et on obtient, pour t R,
G t(1+i)
H
e
0
tA
e =P
P 1 .
0
et(1i)

6.3. SYSTMES DIFFRENTIELS LINAIRES ET EXPONENTIELLES DE MATRICES125


Comme det(P ) = 2i, on a

1
det(P )

= 2i , P 1 =

et on obtient

etA =

G
H G t(1+i)
1 1 1
e
0
2 i i

et
=
2

eit + eit
ieit ieit

0
et(1i)

HG

i
2

H
i 1
=
i 1

1
2

H
G
H G it
et 1 1
1 i
e
=
1 i
eit
2 i i

H
ieit + ieit
=
eit + eit
G
cos(t)
t
=e
sin(t)

H
1 i
,
1 i

ieit
ieit

2cos(t)
i(2isin(t))
i(2isin(t))
2cos(t)
H
sin(t)
.
cos(t)

et
2

La condition
G
H initiale donne est x(0) = y(0) = 0, donc la solution cherche
x(t)
X(t) =
est donne par la formule
y(t)
G
H
# t
1
X(t) =
e(ts)A
ds.
1
0
En posant r = t s, on obtient dr = ds, donc on a
X(t) =

erA

H
G
H
# t
1
1
dr =
erA
dr.
1
1
0

On peut alors procder


un
G
H calcul direct : comme det(A)
G
H= 2, A est inver1
1 1 1
1 rA
1
. Posons F (r) = A e
. On a F % (r) =
sible et A
= 2
1
1
1
G
H
G
H
1
1
A1 AerA
= erA
, et on obtient
1
1
X(t) =

erA

G
G
H
1
1
t
dr = [F (r)]0 = A1 etA
0
1

0
1

HH G

G
HG t
HG
H
1 1 1
e cos(t) 1
et sin(t)
1
=
et sin(t) et cos(t) 1
1
2 1 1
G
HG t
H
1 1 1
e cos(t) et sin(t) 1
=
et cos(t) et sin(t) + 1
2 1 1
G t
H
e cos(t) 1
=
.
et sin(t)
Ceci donne
F

x(t) = et cos(t) 1
y(t) = et sin(t)

1
1

126CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES


Exemple 6.3.7 Rsoudre le systme diffrentiel

x% (t) = x(t) + 2y(t) z(t)


y % (t) = x(t) + 5y(t) 2z(t)
%
z (t) = x(t) + 4y(t) z(t) + t
avec la condition initiale x(0) = y(0) = z(0) = 0.

x(t)
1 2 1
0 2 1
Posons X(t) = y(t) , A = 1 5 2 , et B = 1 4 2 . Le
z(t)
1 4 1
1 4 2
systme scrit

0
X % (t) = AX(t) + 0 .
t

On a A = I + B et on avu
1
B p = D + pN, o D = 0
0
etB = I +

+ p
!
t
p=1

On obtient

etA = et etB

p!

plus haut
que lona, pour
0 0
1 2
2 1 et N = 1 2
2 1
1 2

D+

+
!
ptp
p=1

p!

p 1,

1
1 . On a donc
1

N = I D + et D + tet N.

0 0 0
1
= et 0 1 1 + e2t 0
0 2 2
0

0 0
1 2 1
2 1 + te2t 1 2 1 .
2 1
1 2 1

La solution cherche est donc donne par la formule

# t
# t
0
0
x(t)
y(t) = etA
esA 0 ds =
esA 0 ds.
0
0
z(t)
s
ts

On a

0
0
0
st
esA 0 = es t s + e2s s t + se2s s t
ts
2t 2s
st
st



0
1
0
= (t s)es 1 + (s t)e2s 1 + s(s t)e2s 1 .
1
2
1

Par intgration par parties, on obtient

6.4. CHAPITRE 6 SOUS MUPAD

(t s)es ds = [(t s)es ]0 +


G

es ds = [(t s)es ]0 + [es ]0 = 1 t + et .

G
Ht G 2s Ht
e2s
(s t)e2s
e
1 t e2t
ds =

= + .
2
2
4 0
4 2 4
0
0
0
0
G
H
# t
# t
#
t
s(s t)e2s
t t 2s
s(s t)e2s ds =

se2s ds +
e ds
2
2 0
0
0
0
#
# t
1 t e2t te2t t
t t 2s
1 t e2t te2t
e ds = +
=
(st)e2s dt

+ = +

2 0
4 2
4
4
4
4 4
4
4
0
On obtient alors
#

(st)e2s ds =

(s t)e2s
2

Ht #

127

2t

2t

x(t) = 14 4t + e4 te4
2t
2t
2t
te2t
t
y(t) = 1 t + et + 14 + 2t e4 14 4t + e4 te4 = 1 3t
4 +e 4

2t
2t
2t

te2t
t
z(t) = 2 2t + 2et + 14 + 2t e4 14 4t + e4 te4 = 2 7t
4 + 2e 4
On verra dans [4] que lon peut galement rsoudre les systmes diffrentiels
linaires en utilisant la transforme de Laplace.

6.4

Chapitre 6 sous Mupad

Il nexiste pas de commande directe permettant de calculer sous Mupad


les puissances dune matrice dont on connait les valeurs propres, et Mupad
refuse dentrer comme donnes initiales dune suite rcurrente des matrices (voir
ci-dessous). Par contre Mupad accepte de rsoudre les relations de rcurrence
scalaires associes au
dune matrice. On peut calculer
polynme caractristique
n
G
Hn
0 2 1
0 1
ainsi
et 1 4 2 (on notera que Mupad ne simplifie pas le
1 1
1 4 2
premier rsultat).
En ce qui concerne les systmes diffrentiels coefficients constants, on dispose dun moyen de les rsoudre directement sous Mupad (pourvu que lon puisse
calculer les valeurs propres de la matrice associe au systme), en utilisant la
commande solve(ode...). . Par exemple pour rsoudre le systme diffrentiel
de lexemple 6.3.7 on peut utiliser la commande solve(ode...), et rsoudre directement le systme, o utiliser la
exp(x A), pour calculer exA ,
commande

0
effectuer le produit W = exA 0 , puis la commande map(W, int, x = 0..t),
x

0
%t
pour calculer 0 exA 0 dx. Il suffit alors de multiplier la matrice colonne
x
obtenue par etA pour obtenir la solution du systme.

128CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

M:=Dom::Matrix();
I1:=M([[1,0],[0,1]]);
A:=M([[0,1],[1,1]]);
solve((rec(x(n+2)=x(n+1)+x(n), x(n),{x(0)=I1,x(1)=A})));

Dom::Matrix()

1 0
0 1

0 1
1 1

1 0
0 1
solve rec x(n) x(n + 1) + x(n + 2), x(n), x(0) =
, x(1) =
0 1
1 1
u:=solve((rec(x(n+2)=x(n+1)+x(n), x(n),{x(0)=a,x(1)=b})));

n
p n
p
p p
p
p
5
5
5
5
a+a
aa
1 5
1

+ 5
+

+b

2
2
2
10
5
2
2
2
10
5

u1:=1/2 +sqrt(5)/2;u2:=1/2 -sqrt(5)/2;v1:=1/2 +sqrt(5)/10;v2:=1/2 -sqrt(5)/10;


An:=(u2^n*v1+u1^n*v2)*I1 +(u1^n-u2^n)*(sqrt(5)/5)*A;

p
5+
1

2
2
p
5
1

2
2
p
5+
1

10 2
p
5
1

2 10
0 p p p p
1
p p n p n
1
1
n
n
5 5 +
+ 5 +
5
5
1
5
1
5 +
1
1

2
2
2
2

B
C
2
2 +2
5
B 1 0 + 2 p 2 + 2 p + 1 0 p
C

p A
@
p
p n p p n p p
1 n +
5 +
1 n
1 n +
5 +
1 n
5 5 +
5 5 +

2
2
2
2
5 +
1
5 +
1
5 +
1
5 +
1

2
2
2
2

+
10
2
2
2
10
2
2
2
5
5

B:=M([[0,2,-1],[-1,4,-2],[-1,4,-2]]);
v:=solve((rec(x(n+2)=2*x(n+1)-x(n), x(n),{x(1)=a,x(2)=b})));

0
1
B0 2 1 C
@ 1 4 2 A
1 4 2

{2 a b + n (b a)}
Bn:=2*B-B^2 +n*B^2-n*B;

0
1
n C
B n + 1 2 n
@ n 2n + 2 n 1 A
n 2n + 2 n 1

6.4. CHAPITRE 6 SOUS MUPAD

129

M:=Dom::Matrix();
A:=M([[1,2,-1],[-1,5,-2],[-1,4,-1]]);
solve(ode({x'(t)=x(t)+2*y(t)-z(t),y'(t)=-x(t)+5*y(t)-2*z(t),z'(t)=-x(t)+4*y(t)-z(t)+t,x(0)=0,y(0)=0,z(0)=0},{x(t),y(t),z(t)}));

Dom::Matrix()
0
1
B1 2 1 C
@ 1 5 2 A
1 4 1

2 t
2 t
2t
2t
t t
e 1, z(t) = 2 et 7
t t
e 2, x(t ) = e t t
e 1

y(t) = et 3
4
4
4
4
4
4
4
4
U:=exp(-x*A);
simplify(U);
V:=M([[0],[0],[x]]);
W:=U*V;
simplify(W);

2 x
2x
2x
e
4 e
x e 2 x +
4 e 2 x x 2 e 2 x
x
x
B2 e

B
2 x
2x
2x
B
e
4 e
x e 2 x +
e x 2 e 2 x x 2 e 2 x
Be
x
x
@

2 x
2 x
2x
2 x
x
2 x
2 x
4e
e
x e
+ e
2e 2e
x 2 e

x
x
0
e 2 x + x e 2 x
2 x e 2 x
x e 2 x
B
@ x e 2 x
e x + 2 e 2 x 2 x e 2 x
e x e 2 x + x e 2 x
x e 2 x
2 e x + 2 e 2 x 2 x e 2 x 2 e x e 2 x + x e 2 x
0 1
B0 C
@0 A
x
0

2 x
2 x
e
x e 2 x + 2
x
B x 2 e

B
2 x
x
2 x
B
2 e
x e 2 x +
B x e + e
x
@

2 x
x
2 x
2x
2 e
x 2 e + e
x e
+
x
0
1
x2 e 2 x
B
C
@ x e x x e 2 x + x2 e 2 x A

2x
2 e
2 e 2 x x e 2 x +
x

2x
e
e x + e 2 x x e 2 x + 2
x

2x
x
2 x
2x
e
2e +e
x e
+ 2
x
1
C
A

1
C
C
C
C
A

2 x e x x e 2 x + x2 e 2 x
H:=map(W,int,x=0..t);

t
1
t

2
2 4
1

+
B
t 2
4
e
B
B
2
t
1
B
t +
+1
t
B 2 et 2
e
@
2
2 t 2
t +

+2
t
t 2

2 e

C
C
C
C
C
A

X:=exp(t*A)*H;
simplify(X)
array(1..3, 1..1,
(1, 1) = (2*exp(2*t) + t*(- exp(2*t) - 2/t*exp(2*t)))*(- 1/2*t^2/exp(t)^\
2 + 1/exp(t)*(- 2*t - 2) + 2) + (- 4*exp(2*t) + t*(2*exp(2*t) + 4/t*exp(2*\
t)))*(- 1/2*t^2/exp(t)^2 + 1/exp(t)*(- t - 1) + 1) + (2*exp(2*t) + t*(- ex\
p(2*t) - 1/t*exp(2*t)))*(1/exp(t)^2*(- 1/2*t - 1/2*t^2 - 1/4) + 1/4),
(2, 1) = (exp(t) + exp(2*t) + t*(- exp(2*t) - 2/t*exp(2*t)))*(- 1/2*t^2/\
exp(t)^2 + 1/exp(t)*(- 2*t - 2) + 2) + (- exp(t) - 2*exp(2*t) + t*(2*exp(2\
*t) + 4/t*exp(2*t)))*(- 1/2*t^2/exp(t)^2 + 1/exp(t)*(- t - 1) + 1) + (exp(\
2*t) + t*(- exp(2*t) - 1/t*exp(2*t)))*(1/exp(t)^2*(- 1/2*t - 1/2*t^2 - 1/4\
) + 1/4),
(3, 1) = (2*exp(t) + exp(2*t) + t*(- exp(2*t) - 2/t*exp(2*t)))*(- 1/2*t^\
2/exp(t)^2 + 1/exp(t)*(- 2*t - 2) + 2) + (- 2*exp(t) - 2*exp(2*t) + t*(2*e\
xp(2*t) + 4/t*exp(2*t)))*(- 1/2*t^2/exp(t)^2 + 1/exp(t)*(- t - 1) + 1) + (\
exp(2*t) + t*(- exp(2*t) - 1/t*exp(2*t)))*(1/exp(t)^2*(- 1/2*t - 1/2*t^2 -\
1/4) + 1/4)
)

2 t
2 t
t
t e

+ e
1
4
4
B 4 4
B 3 t
2t
t
t e

B
+
e

1
4
@ 4
2t
7t
t e

+ 2 e t
2
4
4

1
C
C
C
A

1
C
C
C
C
A

130CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

6.5

Exercices sur le Chapitre 6

exercice
=1
>
6 1
Soit A =
.
1 8
1) Dterminer la dcomposition de Jordan de A et calculer An pour n 0.
2) Calculer etA pour t R.
3)
le systme diffrentiel
F Rsoudre
x% (t) = 6x(t) y(t) + 1
,
y % (t) = x(t) 8y(t)
avec la condition initiale x(0) = 0, y(0) = 1.
exercice
2

2 1 1
Soit A = 2 1 2 .
1 0 2
1)Vrifier que pA = (X 3)(X + 1)2 , o pA dsigne le polynme caractristique de A.
2)Calculer (A 3I)(A + I). En dduire que A nest pas diagonalisable.
3)Dterminer la decomposition de Jordan de A et calculer An pour n 0.
4)Interprter le rsultat obtenu en appliquant la formule de la question prcdente pour n < 0.
exercice 3
Trs du par les rsultats de llection prsidentielle amricaine, le milliardaire G.Soros dcide de placer 108 euros en France, en Espagne et en Allemagne.
Chaque annee il modifie son placement de la faon suivante : si xn est la partie
du capital place en France lannee n , yn la partie du capital place en Espagne lanne n et zn la partie du capital place en Allemagne a lanne n, on a
1
(xn + yn + zn )
2
1
1
yn+1 = xn + yn
4
2
1
1
zn+1 = xn + zn .
4
2

xn+1 =

On a videmment x0 0 , y0 0 , z0 0 , et x0 + y0 + z0 = 108 .
1)Vrifier que xn + yn + zn = 108 pour tout n 0.
2)Montrer que les trois suites (xn )n0 , (yn )n0 et (zn )n0 sont convergentes,et
dterminer leurs limites.
exercice 4(Archives
ESTIA,
examen davril 2003)
G
H
0
1
On pose A =
.
4 4

1) Dterminer le polynme caractristique et le polynme minimal de A.

6.5. EXERCICES SUR LE CHAPITRE 6

131

Circuit electrique 1

1.pdf

2) Dterminer la dcomposition de Jordan de A et calculer An pour n 0.


3) Calculer etA pour t R.
4) On considre lquation diffrentielle
y %% (x) + 4y % (x) + 4y(x) = 4x.
%
avec la condition initiale
G y(0)H = y (0) = 0.
y(x)
a) On pose Z(x) =
. Montrer que Z(x) est solution du systme
y % (x)
diffrentiel

Z % (x) = AZ(x) +

H
0
,
4x

G H
0
avec Z(0) =
.
0
b) Exprimer Z(x) au moyen de la formule intgrale du cours.
c) Calculer Z(x) par la mthode de votre choix et en dduire la solution de
lquation diffrentielle.
exercice 5

132CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES


On considre le circuit lectrique suivant (circuit 1) o la rsistance R est
mesure en ohms, la capacit du condensateur C est mesure en farads, et le
coefficient dinduction du solnoide L est mesur en henrys. On rappelle les deux
lois de Kirchhoff :
1) La perte de voltage dans tout sous-circuit est nulle
2) La somme des intensits des courants en chaque noeud est nulle.
On note V la perte de voltage au travers du condensateur, I lintensit
du courant au travers de L. On note I1 lintensit du courant au niveau du
condensateur, I2 lintensit du courant au niveau de la rsistance, I lintensit
du courant au travers du solnoide, V la perte de voltage au niveau du condensateur, V2 la perte de voltage au niveau de la rsistance et V3 la perte de voltage
au travers du solnoide. Les voltages sont exprims en volts, et les intensits en
ampres. On rappelle que lon a
V2 (t) = RI2 (t), CV1% (t) = I1 (t), LI % (t) = V3 (t).
1) En utilisant les lois de physique ci-dessus, montrer que I1 (t)+I2 (t)+I(t) =
0, que V (t) = V2 (t) = V3 (t), et que lon a
HG
H
G % H G
1
I(t)
I (t)
0
L
(6.15)
=
1
C1 RC
V (t)
V % (t)
2) Vrifier que les deux racines de la matrice ci-dessus sont relles et distinctes si L > 4R2 C, et quelles sont imaginaires conjugues si L < 4R2 C.
3) On suppose que R = 1 ohm, C = 2 farad, et L = 1 henry. Dterminer
la solution gnrale du systme, et dterminer la solution correspondant aux
conditions initiales I(0) = 2ampres et V (0) = 1volt.
4) Les hypothses tant celles de la question 2 etudier le comportement de
I(t) et V (t) quand t +. Les limites obtenues dpendent elles de I(0) et
V (0)?
exercice 6
On considre maintenant le circuit lectrique 2, et on note I lintensit du
courant au travers de la rsistance R1 et V la perte de voltage au travers du
condensateur.
1) En sinspirant de lexercice prcdent, montrer que lon a
G % H G R
HG
H
I (t)
L1
L1
I(t)
=
1
1
V % (t)
CR
V (t)
C
2

(6.16)

2) Donner la solution gnrale de ce systme quand R1 = R2 = 1 ohm,


L = 1 henry et C = 2 farad, ainsi que la solution correspondant aux conditions
initiales I(0) = 2ampres et V (0) = 5 volts.
3) Discuter en fonction des donnes et des conditions initiales le comportement de I(t) et V (t) quand t +.

6.5. EXERCICES SUR LE CHAPITRE 6

133

R1

R2

Circuit electrique 2

exercice 7
Reprendre quand cest possible sous Mupad les calculs demands dans les
exercices prcdents.

134CHAPITRE 6. ITRATION, SYSTMES DIFFRENTIELS LINAIRES

Chapitre 7

Espaces vectoriels euclidiens

7.1

Produit scalaire, ingalit de Cauchy-Schwartz

Tous les espaces vectoriels considrs dans ce Chapitre sont des espaces vectoriels sur R.
Dfinition 7.1.1 Soit E un espace vectoriel sur R.
1) On dit quune application : E E R est une forme bilinaire
symtrique quand les deux conditions suivantes sont vrifies
(i) (u, v) = (v, u)
u E, v E,
(ii) (1 u1 + 2 u2 , v) = 1 (u1 , v) + 2 (u2 , v) 1 R, 2 R, u1
E, u2 E, v E.
2) On dit quune forme bilinaire symtrique est un produit scalaire sur E
(ou que est dfinie positive) si (x, x) > 0 pour x E, x += 0.
3) On dit quune application x " 4x4 de E dans R est une norme sur E
quand les trois conditions suivantes sont vrifies
(i) 4x + y4 4x4 + 4y4 x E, y E.
(ii) 4x4 = ||4x4 R, x E,
(iii) 4x4 > 0 pour x E, x += 0.
Lensemble des formes bilinaires symtriques sur E sera not L2 (E).
% 1/2
%1
Exemple 7.1.2 1) La formule (f, g) = 0 f (t)g(t)dt 1/2 f (t)g(t)dt dfinit une forme bilinaire symtrique sur lespace vectoriel C(0, 1) des fonctions
continues sur [0, 1]. Ce nest pas un produit scalaire car (1, 1) = 0.
135

136

CHAPITRE 7. ESPACES VECTORIELS EUCLIDIENS

2) Les produits scalaires du lyce dans le plan vectoriel ou lespace vectoriel


de dimension 3 usuels sont des produits scalaires.


x1
y1
.
.
3
3) Pour X = R , Y = R3 , posons < X, Y >= t X.Y =
.
.
x
y
n
n
"
3
1in xi yi . On obtient un produit scalaire sur R , appel le produit scalaire
3
canonique de R (notons que lon identifie la matrice t X.Y M1,1 (R) son
unique coefficient).
%b
4) La formule (f, g) = a f (t)g(t)dt dfinit un produit scalaire sur lespace
vectoriel C(a, b) des fonctions continues sur un intervalle ferm born [a, b].
5) La valeur absolue est une norme sur R, et le module est une norme sur
C (considr comme espace vectoriel sur R).
6) Les formules 4(x, y, z)41 = |x| + |y| + |z| et 4(x, y, z)4 = sup(|x|, |y|, |z|)
dfinissent des normes sur R3 .
7) La formule 4f 4 = maxatb |f (t)| dfinit une norme sur C(a, b).
Notons que si est une forme bilinaire symtrique sur E alors lapplication
x : y " (x, y) est une application linaire de E dans R pour tout x E.
On voit par symtrie que lapplication y : x " (x, y) est linaire pour tout
y E. On obtient alors, pour 1 , . . . , m R, 1 , . . . , n R, x1 , . . . , xm E,
y1 , . . . , yn E
(7.1)

m
n
m !
n
!
!
!
(
i xi ,
j yj ) =
i j xi yj .
i=1

j=1

i=1 j=1

On va maintenant introduire lingalit de Cauchy-Schwartz.

Thorme 7.1.3 Soit E un espace vectoriel sur R muni dun produit scalaire
(u, v) "< u, v > . Pour tout couple (u, v) dlments de E, on a lingalit
| < u, v > |

< u, u > < v, v >

Dmonstration : Si v = 0 alors < u, v >= 0 =< v, v >, et lingalit est


vrifie. Supposons maintenant que v += 0. Pour x R, on a
0 < u + xv, u + xv >=< u, u > +x < v, u > +x < u, v > +x2 < v, v >
=< u, u > +2x < u, v > +x2 < v, v > .
On reconnait un trinme de signe constant, dont le discriminant est ncessairement ngatif ou nul. Ceci donne 4 < u, v >2 4 < u, u >< v, v >, et en
simplifiant par 4 et en passant aux racines carres on obtient lingalit cherche.

En appliquant cette ingalit au produit scalaire introduit lexemple 7.2


(4) on obtient une ingalit classique du calcul intgral.

7.2. PROCD DORTHONORMALISATION DE GRAM-SCHMIDT

137

Corollaire 7.1.4 Soit I = [a, b] un intervalle ferm born de R, et soient f et


g deux fonctions continues sur I valeurs relles. On a alors
:#
: I#
J1/2
J1/2 I#
: b
:
b
b
:
:
2
2
g (t)dt
.
f (t)g(t)dt:
f (t)dt
:
: a
:
a
a

Dans toute la suite on appellera espace euclidien un espace vectoriel rel


muni dun produit scalaire. On a limportant rsultat suivant.
Corollaire 7.1.5 Soit E un espace euclidien. Lapplication u " 4u4 =
est une norme sur E, appele norme euclidienne.

< u, u >

Dmonstration : On a videmment 4u4 > 0 pour u E\{0}, et 4u4 =


||4u4 pour R, u E. Soient u, v E. On a 4u + v42 =< u + v, u + v >=
< u, u > +2 < u, v > + < v, v > < u, u > +2| < u, v > |+ < v, v >=

< u, u > +2 < u, u > < v, v >+ < v, v >= ( < u, u > + < v, v >)2 =
(4u4 + 4v4)2 .
Donc 4u + u4 4u4 + 4v4, et les trois conditions de la dfinition 7.1 (3)
sont vrifies.
Un exemple important de norme euclidienne est donn par la norme 4.42
associe au produit scalaire canonique sur Rk , qui est donne par la formule
4(x1 , ..., xk )42 =

7.2

k
!

x2j .

(7.1)

j=1

Procd dorthonormalisation de Gram-Schmidt

Dans toute la suite on munit les espaces euclidiens de leur norme euclidienne.
Dfinition 7.2.1 On dit que deux lments u et v dun espace euclidien E
sont orthogonaux, et on crit u v quand < u, v >= 0. On dit quune base
B = (e1 , . . . , en ) de E est orthogonale si ses lments sont orthogonaux deux
deux, et on dit quune base de E est orthonormale si elle est orthogonale et si
4ei 4 = 1 pour 1 i n.
On a le "thorme de Pythagore".
Proposition 7.2.2 Soit u1 , . . . , un une famille finie dlments dun espace euclidien E orthogonaux deux deux. On a alors
4

n
!
i=1

ui 42 =

n
!
i=1

4ui 42 .

138

CHAPITRE 7. ESPACES VECTORIELS EUCLIDIENS


Dmonstration : Comme ui uj pour j += i, on a daprs la formule 7.1
4

n
!
i=1

ui 42 =

n !
n
!

< ui , uj >=

i=1 j=1

n
!
i=1

< ui , ui >=

n
!
i=1

4ui 42 .

Notons galement que lon a l "identit du parallllogramme".


Proposition 7.2.3 Soit E un espace euclidien, et soient u, v E. On a
4u + v42 + 4u v42 = 2(4u42 + 4v42 ).

(7.2)

Dmonstration : On a 4u + v42 + 4u v42 =< u + v, u + v > + < u


v, u v >=< u, u > +2 < u, v > + < v, v > + < u, u > 2 < u, v > + <
v, v >= 2(4u42 + 24v42 ).
On va maintenant donner un procd concret permettant de fabriquer des
bases orthonormales.
Thorme 7.2.4 (Algorithme de Gram-Schmidt)
Soit E un espace euclidien, soit e1 , . . . , ep une famille libre dlments de E,
et soit F le sous-espace vectoriel de E engendr par (e1 , . . . , ep ). On pose f1 = e1
"
<e ,f >
et fk = ek 1jk1 +fkj +j2 fj pour 2 k p. Alors (f1 , . . . , fp ) est une base
f

orthogonale de F, de sorte que ( +ff11 + , . . . , +fpp + ) est une base orthonormale de F.

On va dmontrer par rcurrence finie que la famille (f1 , . . . , fk ) est orthogonale, que fk += 0, et que fk appartient au sous-espace vectoriel de E engendr
par (e1 , . . . , ek ) pour 1 k p. Cest vident si k = 1. Supposons maintenant
que ces proprits sont vrifies pour un entier k tel que 1 k p 1. Il est
clair que fk+1 += 0 et que fk+1 appartient alors au sous-espace vectoriel de E
engendr par (e1 , . . . , ek+1 ). Dautre part on a, pour i k,
< fk+1 , fi >=< ek+1 , fi > <

1jk

< ek+1 , fj >

! < ek+1 , fj >


fj , fi >=< ek+1 , fi >
4fj 42

1jk

< fj , f i >
=< ek+1 , fi > < ek+1 , fi >= 0.
4fj 42

Donc (f1 , . . . , fk+1 ) est orthogonale, ce qui prouve les deux proprits par
rcurrence finie. On voit donc que (f1 , . . . , fp ) est une famille orthogonale dlments de F.
"
On a fk = ek 1jk1 j ej , avec 1 , . . . , j1 R. On voit donc que
la matrice P reprsentant (f1 , . . . , fp ) dans la base (e1 , . . . , ep ) de F est une
matrice triangulaire suprieure dont tous les termes diagonaux sont gaux
1. Donc det(P ) = 1, P est inversible et il rsulte de la Proposition 2.10 que
f
(f1 , . . . , fp ) est une base de F. Donc ( +ff11 + , . . . , +fpp + ) est une base orthonormale
de F.

7.2. PROCD DORTHONORMALISATION DE GRAM-SCHMIDT

139

Exemple 7.2.5 On munit lespace vectoriel E des polynmes de degr infrieur


ou gal 2 de la base B0 = {1, x, x2 }. En appliquant le procd dorthogonalisation de Gram-Schmidt a base B0 , trouver une base de E orthonorme pour le
produit scalaire dfini pour f, g E par la formule
< f, g >=

f (t)g(t)dt.

Posons e0 = 1, e1 = x et e2 = x2 . On a f0 = e0 , et 4f0 42 =
Dautre part on a
< e1 , f0 >=

<e1 ,f0 >


+f0 +2 f0

4f1 4 =
2

< e2 , f0 >=

dt = 1.

= x 12 . On a alors

1
1 1 1
1
(t t + )dt = + =
=
4
3 2 4
12
2

1
t dt = ,
3
2

1
,
2

tdt =

donc f1 = e1

%1

< e2 , f1 >=

t2
t
2
3

>

2 3

dt =

>2

1 1
1
=
.
4 6
12

On obtient
< e2 , f0 >
< e2 , f1 >
1
1
1
f0
f1 = x2 x + = x2 x + .
2
2
4f0 4
4f1 4
3
2
6

f2 = e2
On a alors

4f2 42 =

t2 t +

1
6

>2

dt =

t4 + t2 +

1
t2
t
2t3 +
36
3
3

1 1
1
1 1 1
36 + 60 + 5 90 + 20 30
1
= + +
+ =
=
=
5 3 36 2 9 6
180
180

>

6 5

La base orthonormale cherche est donc

B=

f0
f1
f2
,
,
4f0 4 4f1 4 4f2 4

dt

L
M

= 1, 3(2x 1), 5(6x2 6x + 1) .

>2

140

7.3

CHAPITRE 7. ESPACES VECTORIELS EUCLIDIENS

Projections orthogonales

Dfinition 7.3.1 Soit (E, < ., . > un espace vectoriel euclidien, et soit A une
partie non vide de E.
On pose A := {x E | < x, y >= 0 x A}.
Autrement dit A est lensemble des y E qui sont orthogonaux tous les
lments de A. Lensemble A est appel lorthogonal de A.
Proposition 7.3.2 1) {0} = E, et E = {0}.
B C
2) A est un sous espace vectoriel de E, A A , et ou bien AA = ,
ou bien A A = {0}.
Dmonstration : 1) Il est clair que {0} = E, et que 0 E . Dautre part
si x E , alors x x, donc 4x42 = 0, et x = 0.
2) Soit x E. Posons x (y) =< x, y > pour y E. il rsulte de la
dfinition des produits scalaires que x : E E est linaire, et par consquent
A = xA Ker(x ) est un sous-espace vectoriel de E. Il est clair que si x A
B C
on a x y pour tout y A , et par consquent A A .
Si x A A , on a < x, x >= 0, donc x = 0.
Lintrt des bases othonormales (BON) vient du fait quelles permettent de
ramener les calculs de produit scalaire dans un espace euclidien quelconque des
calculs dans Rn , identifi Mn,1 (R), muni de son produit scalaire canonique,


y1
x1
.
.


dfini pour X = . Rn et Y = . Rn par la formule


.
.
xn
yn
n
!
< X, Y >=
xj yj =t X.Y
(7.3)
j=1

On a le rsultat suivant.

Proposition 7.3.3 Soit E += {0} un espace euclidien de dimension finie et soit


B = {e1 , ..., en } une base orthonormale de E. On a alors, pour x E
x=

n
!

< x, ej > ej .

(7.4)

j=1

< x, e1 >
< y, e1 >
.
.

En particulier si x, y E, et si xB =
.
.
et yB =

.
.
< x, en >
< y, en >
dsignent les vecteurs colonnes forms des coordonnes de x et y dans la base
B, on a

7.3. PROJECTIONS ORTHOGONALES

< x, y >=< xB , yB >=

n
!
j=1

141

< x, ej >< y, ej >=t xB yB

(7.5)

"n
Dmonstration : Soit x E, et posons u =
< x, ej > ej . Pour
"n j=1
1 p n, on a < x u, ep >=< x, ep > j=1 < x, ej >< ej , ep >=<
x, ep > < x, ep >= 0. Donc x u E = {0}, et x = u.
On a alors, pour x, y E,

I
J
n
n
!
!
< x, ej > ej
< x, y >=
< y, ek > ek
j=1

k=1

< x, ej >< y, ek >< ej , ek >=

n
!

< x, ej >< y, ej > .

j=1

1jn,1kn

Rappelons que si F et G sont deux sous-espaces vectoriels dun espace vectoriel E, on pose F + G = {y+z}yF,zG . Si F G = {0}, tout lment x de F +G
scrit de manire unique sous la forme x = xF + xG , avec xF F, xG G.
Dans ce cas on crit F G au lieu de F + G. Les applications PF,G : x " xF
et PG,F : x " xG sont linaires et sont appeles projection de F G sur F
paralllement G et projection de F G sur G paralllement F. On a alors
(voir le Chapitre 1 du prsent cours)
PF,G + PG,F = IF G , PF,G PF,G = PF,G , PG,F PG,F = PG,F , Im(PF,G ) =
Ker(PG,F ) = F, Im(PG,F ) = Ker(PF,G ) = G.
On a limportant rsultat suivant
Thorme 7.3.4 Soit E un espace vectoriel euclidien, et soit F un sous-espace
vectoriel de dimension finie de E.
1) On a E = F F , et [F ] = F.
2) Posons PF = PF,F , PF = PF ,F . On a les proprits suivantes, pour
x E,
(i) 4x42 = 4PF (x)42 + 4PF (x)42 .
(ii) Si F += {0}, on a
PF (x) =

p
!

< x, ej > ej ,

(7.6)

j=1

o {e1 , ..., ep } est une base orthonormale quelconque de F.


Dmonstration : Si F = {0}, F = E, PF = 0, PF = IE et il ny rien
dmontrer. Supposons maintenant que F += {0},
"pet soit {e1 , ..., ep } une base
orthonormale de E. Soit x E, et posons u = j=1 < x, ej > ej . De mme
que plus haut on voit que < x u, ek >= 0 pour 1 k n, ce qui montre
que x u F . Comme u F, on voit que x = u + (x u) F + F . Donc

142

CHAPITRE 7. ESPACES VECTORIELS EUCLIDIENS

F + F = E. Comme
"p F F = {0}, on a E = F F , et on vient de montrer
que PF (x) = u = j=1 < x, ej > ej , et que PF (x) = xu. Comme u xu,
on a bien 4x42 = 4PF (x)42 + 4PF (x)42 , et la condition 2) est vrifie.

7.4

Chapitre 7 sous Mupad

On peut videmmenteffectuer sous Mupad le procd dorthogonalisation de


Gram-Schmidt dans Rn . On procde en deux temps
1) Aprs avoir tabli la liste dlments de Rn concerne, en dclarant ces
lments comme matrices unilignes ou comme matrices unicolonnes, on applique
la commande
linalg : :orthog(.)
pour obtenir une famille orthogonale.
On applique ensuite la commande map(.,linalg : :normalize)
pour remplacer les vecteurs orthogonaux de la premire famille par des vecteurs
de norme 1 qui leur sont proportionnels. On peut effectuer les deux oprations
en mme temps grce la commande map(linalg : :orthog(.),linalg : :normalize)

7.4. CHAPITRE 7 SOUS MUPAD

143

M:=Dom::Matrix();
S:=[M([1,1,1,1,1,1,1,1]),M([1,2,3,4,5,6,7,8]),M([1,12,33,44,55,66,77,88])];
U:=linalg::orthog(S);

Dom::Matrix()
20 1 0 1 0 1
3
1
1
1
6 B1 C B2 C B12 C
7
6B C B C B C
7
6 B1 C B3 C B33 C
7
6B C B C B C
7
6 B C B4 C B44 C
7
6 B1 C
B
C
B
C
7
, B C
, B C
6B C
7
6 B1 C B5 C B55 C
7
6B C B C B C
7
6
B
C
B
C
7
B
1
C
6
66
6
B C B C
7
4 @1 A @7 A @77 A
5
1
8
88
2
0 1 0
13
7

5
2
2
60 1 B C B
C7
5
5 C
6 1
7
B 5 C B
6 B C B 2 C B 1 4 C7
6 1
B
C
7
B
C
6
5 C
6 B C B 3 C B
7
C
2 C B 14
6B
C
7
B
6 B1 C B
B
C
7
C
4
5 C
C B 12 C B
6B
7
1
14
C
6B
B
C
B
C
, B 1 C, B 2 5 C7
6 B1 C
7

C 2 C B 1 4 C7
6B
6 B1 C B
B
C7
B
C
6 B C B 3 C B 5 C7
6 @ A B 2 C B 1 4 C7
6 1
B
C7
B
B 5 C
C B 15 C7
6
@ 2 A @ 1 4 A5
4 1
7

5
2
2

V:=map(U,linalg::normalize);
-|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
--

+|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
+-

1/2
8
---8
1/2
8
---8
1/2
8
---8
1/2
8
---8
1/2
8
---8
1/2
8
---8
1/2
8
---8
1/2
8
---8

-+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|,
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-+

+-+
|
1/2
|
|
42
|
|
- ----|
|
12
|
|
|
|
1/2 |
|
5 42
|
| - ------- |
|
84
|
|
|
|
1/2
|
|
42
|
|
- ----|
|
28
|
|
|
|
1/2
|
|
42
|
|
- ----|
|
84
|
|
|,
|
1/2
|
|
42
|
|
----|
|
84
|
|
|
|
1/2
|
|
42
|
|
----|
|
28
|
|
|
|
1/2
|
|
5 42
|
|
------|
|
84
|
|
|
|
1/2
|
|
42
|
|
----|
|
12
|
+-+

+-+ -|
1/2
1/2
| |
|
7
450
| |
|
- ----------| |
|
180
| |
|
| |
|
1/2
1/2 | |
|
11 7
450
| |
| - -------------- | |
|
1260
| |
|
| |
|
1/2
1/2
| |
|
13 7
450
| |
|
-------------| |
|
1260
| |
|
| |
|
1/2
1/2
| |
|
7
450
| |
|
----------| |
|
140
| |
|
| |
|
1/2
1/2
| |
|
7
450
| |
|
----------| |
|
252
| |
|
| |
|
1/2
1/2
| |
|
7
450
| |
|
----------| |
|
1260
| |
|
| |
|
1/2
1/2
| |
|
7
450
| |
|
- ----------| |
|
420
| |
|
| |
|
1/2
1/2
| |
|
7
450
| |
|
- ----------| |
|
180
| |
+-+ --

144

CHAPITRE 7. ESPACES VECTORIELS EUCLIDIENS

7.5

Exercices sur le Chapitre 7

exercice 1
Soit ABCD un paralllogramme du plan usuel. En utilisant la Proposition
7.2.3 , montrer que AB 2 + BC 2 + CD2 + DA2 = AC 2 + BD2 .
exercice 2
Soit E lespace vectoriel des fonctions continues et priodiques de priode 2
sur R, que lon munit du produit sacalaire dfini pour f, g E par la formule
1
< f, g >=
2

f (t)g(t)dt.

On dfinit e1 , e2 , e3 E par les formules


e1 (t) = 1, e2 (t) = cos(t), e3 (t) = cos2 (t).
Dterminer la famille orthonormale obtenue en appliquant {e1 , e2 , e3 } le
procd dorthonormalisation de Gram-Schmidt.
exercice 3
On considre lespace vectoriel E des fonctions continues et priodiques de
priode 2 sur R, muni du produit sacalaire introduit la question prcdente.
On pose u0 (t) = 1, et, pour n 1,
un (t) = cos(nt), vn (t) = sin(nt).
1) Montrer que la famille B := (n0 un ) (n1 vn ) est une famille orthonormale dlments de E.
2) Pour p 1, on note Fp le sous-espace vectoriel de E engendr par
{u0 , ..., up } {v1 , ..., vp }. Soit P la projection orthogonale de E sur Fp . En utilisant une formule du cours, expliciter P (f )(x) pour f E, x R. Quel est le
lien entre le polynme trigonomtrique P (f ) et la srie de Fourier de f ?
exercice 4

1 1 1
Soit F limage de R3 par lapplication u : X " 2 1 2 X.
1 0 1
Trouver une base orthogonale de F, et calculer la matrice reprsentant la
projection orthogonale de R3 sur F par rapport la base canonique de R3 .
exercice 5

7.5. EXERCICES SUR LE CHAPITRE 7

145

En saidant de Mupad, rpondre aux mmes questions que dans lexercice


prcdent pour G := {AX}XR8 , avec

1
1

1
A=
15

22
1

1
2
7
3
13
4
19
5

1 1
1 1
1 1
3 4
5 6
7 8

6 5
4 3
2 1

5 7
9 11 13 15
.
11 9
7 5
3 1

7 10 13 16 19 22

16 13 10 7
4 1
9 13 17 21 25 29

exercice 6
Dans le plan affine euclidien rapport un repre orthonorm (O,.i, .j) on
considre la droite D dquation
ax + by + c = 0,
avec (a, b) += (0, 0).
1) Ecrire lquation de la droite perpendiculaire D et passant par le point
M0 de coordonnes (x0 , y0 ).
2) En dduire que la distance de M0 la droite D est donne par la formule
d(M0 , D) =

|ax0 + by0 + c|

.
a2 + b2

exercice 7
Dans lespace affine euclidien usuel rapport un repre orthonorm (O,.i, .j, .k),
on considre le plan P dquation
ax + by + cz + d = 0,
avec (a, b, c) += (0, 0, 0).
1) Ecrire lquation de la droite perpendiculaire P et passant par le point
M0 de coordonnes (x0 , y0 , z0 ).
2) En dduire que la distance de M0 au plan D est donne par la formule
d(M0 , P ) =

|ax0 + by0 + cz0 + d|

.
a2 + b2 + c2

exercice 8
Dans lespace affine euclidien usuel rapport un repre orthonorm (O,.i, .j, .k),
on considre les droites D1 et D2 dquations paramtres

146

CHAPITRE 7. ESPACES VECTORIELS EUCLIDIENS

x = x0 + u0
y = y0 + v0

z = z0 + w0

x = x1 + u1
y = y1 + v1

z = z1 + w1

On suppose D1 et D2 non parallles. Donner lquation de la perpendiculaire


commune D1 et D2 .

Chapitre 8

Matrices symtriques,
matrices orthogonales
8.1

Matrices symtriques

Dfinition 8.1.1 (i) Si A = (ai,j )1im Mm,n (K), on appelle transpose


1jn

de A la matrice

A = (aj,i ) 1jn Mn,m (K)


1im

obtenue en changeant les lignes et les colonnes de A.


(ii) On dit que B Mn (K) est symtrique si B =t B.
Il est clair que lapplication A "t A est une application linaire de Mm,n (K)
sur Mn,m (K), et que si A Mm,n (K), on a
( A) = A.

t t

(8.1)

Dautre part si Mm,n (K), et si B Mn,p (K), on a


t

(AB) = (t B)(t A) Mp,m (K).

(8.2)

Enfin si P Mn (K), alors det(P ) =det(t P ). En particulier P et sa transpose ont le mme polynme caractristique.
Dans toute la suite on munit Rn , identifi Mn,1 (R), du produit scalalre
canonique dfini pour X, Y Rn par la formule
< X, Y >=t X.Y,

et on note 4X42 := < X, X > la norme euclidienne associe sur Rn . On


peut tendre ce produit scalaire en une "forme hermitienne" sur C n identifi
Mn,1 (C) en posant, pour X, Y Cn ,
< X, Y >=t X.Y ,
147

148CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


o A = (ai,j )1im Mm,n (K) pour A = (ai,j )1im Mm,n (K).
1jn
1jn

x1
.

n
"

Il est clair que < X, X >=
|xk |2 > 0 si X = . Cn \ {0}.

k=1
.
xn
On va montrer que toute matrice symtrique relle est diagonalisable, et plus
prcisment que si A Mn (R) est symtrique il existe une base orthonormale
de Rn forme de vecteurs propres de A. Nous aurons besoin de trois lemmes.
Lemme 8.1.2 Soit A Mn (R) une matrice symtrique relle. Alors toutes les
valeurs propres de A sont relles (autrement dit le polyme caractristique de A
est scind sur R).
Dmonstration : Soit C une valeur propre de A et soit X Cn \ {0}
tel que AX = X. On a t X =t (X) = (t X)(t A) = (t X)A, et AX = A X =

(AX) = X.
On obtient

< X, X >= (t X)X = (t XA)X = (t X)(AX) = (t X)(X)


= < X, X > .
ce qui montre que R.
Comme X += 0, on a < X, X >+= 0, et = ,
On dira que deux sous-espaces E et F de Rn sont orthogonaux, et on note
E F, si < x, y >= 0 pour tout x E et pour tout y F, ce qui est quivalent
lune ou lautre des conditions E F ou F E . On a le rsultat suivant.
Lemme 8.1.3 Soit A Mn (R), une matrice symtrique, Si et sont deux
valeurs propres relles distinctes de A, alors les sous-espaces propres E et E
sont orthogonaux.
Dmonstration : Soit X E , et soit Y E . On a
( ) < X, Y >=t X(Y ) t (X)Y =t XAY t X t AY = 0,

ce qui donne < X, Y >= 0, puisque += .

Lemme 8.1.4 Soit A Mn (R) une matrice symtrique. Si A est nilpotente,


alors A = 0.
Dmonstration : Supposons que A est symtrique. On a, pour X Rn ,
4AX422 =< AX, AX >=t X t AAX =t XA2 X =< X, A2 x > 4X42 4A2 X42 .
Donc si on pose Ker(B) = {X Rn | BX = 0} pour B Mn (R), on voit
que Ker(A2 ) Ker(A). Comme linclusion Ker(A) Ker(A2 ) est toujours vrifie, on a en fait Ker(A2 ) =Ker(A). Soit maintenant m 1. On a Ker(Am+1 ) =

8.2. MATRICES ORTHOGONALES

149

{X Rn | Am1 X Ker(A2 )} = {X Rn | Am1 X Ker(A)} =Ker(Am ),


et on voit que Ker(Am ) =Ker(A) pour tout m 1. En particulier si A est la
fois symtrique et nilpotente on a Ker(A) = Rn , de sorte que A = 0.
On a alors le thorme suivant.
Thorme 8.1.5 Soit A Mn (R) une matrice symtrique. Alors A est diagonalisable sur R, et il existe une base orthonormale de Rn forme de vecteurs
propres de A.
Dmonstration : Comme le polynme caractristique de A est scind sur
R, A admet une dcomposition de Jordan sur R, et il existe un unique couple
(D, N ) de matrices carres relles n lignes et n colonnes vrifiant
(i) A = D + N,
(ii) D est diagonalisable sur R, et N est nilpotente,
(iii) N D = DN.
Il rsulte de la formule 8.2 que t D est diagonalisable sur R, que t N est
nilpotente, et que t N t D =t (DN ) =t (N D) =t Dt N. Comme A =t A =t D+t N,
il rsulte de lunicit de la dcomposition de Jordan que D =t D et N =t N.
Il rsulte alors du lemme 8.1.4 que N = 0, et A = D est diagonalisable sur
R. Par consquent si 1 , ..., k sont les valeurs propres distinctes de A, et si
Bj est une base de Ej pour 1 j k, alors 1jk Bj est une base de Rn
forme de vecteurs propres de A. En utilisant le procd dorthonormalisation
de Gram-Schmidt on peut trouver pour tout j k une base orthonormale Bj
de Ej , et il rsulte alors du lemme 8.1.3 que B := 1jk Bj , qui est une base
de E forme de vecteurs propres de A, est orthonormale.

8.2

Matrices orthogonales

On vient de voir que si A Mn (R) est symtrique, il existe une matrice inversible P Mn (R) telle que P 1 AP soit diagonale dont les colonnes forment
une base orthonormale de Rn . Le rsultat suivant donne une description complte de ce type de matrices.
Thorme 8.2.1 Soit B Mn (R). Alors les conditions suivantes sont quivalentes.
(1) Les colonnes de B forment une base orthonormale de Rn .
(2) Les lignes de B forment une base orthonormale de Rn .
(3) t BB = In .
(4) B t B = In .
(5) B est inversible, et B 1 =t B.
(6) < BX, BY >=< X, Y > pour tout couple (X, Y ) dlments de Rn .
(7) 4BX42 = 4X42 pour tout X Rn .
Dans ce cas on dit que la matrice B est orthogonale, et det(B) {1, 1}.
Dmonstration : Soient L1 , ..., Ln les lignes de B, indexes de manire croissante de haut en bas, et soient C1 , ..., Cn les colonnes de B, indexes de manire
croissante de gauche droite. On a

150CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

BB = (< Ci , Cj >) 1in ,


1jn

B t B = (< Li , Lj >) 1in ,


1jn

ce qui prouve que (1) est quivalent (3) et que (2) est quivalent (4).
Dautre part si (3) ou (4) est vrifi alors det(B) += 0, donc B est inversible et
dans ce cas B 1 coincide avec linverse gauche ou droite de B, cest dire que
B 1 =t B. Donc (3) ou (4) impliquent (5). Comme (5) implique trivialement
(3) et (4) on voit que les conditions (1), (2), (3), (4) et (5) sont quivalentes.
Dautre part si (3) est vrifi on a det(B)2 =det(t B)det(B) =det(In ) = 1, donc
det(B) {1, 1}.
Supposons maintenant que (3) est vrifi, et soient X, Y Rn . On a
< BX, BY >=t X t BBY =t XY =< X, Y >,
donc (6) est vrifi. Supposons maintenant que (6) est vrifi, et soit {e1 , ..., en }
la base canonique de Rn . On a Cj = Bej , donc on a < Ci , Cj >=< Bei , Bej >=
i,j pour 1 i n, 1 j n, i,j dsignant le symbole de Kronecker. Ceci
montre que la condition (1) est vrifie, et les conditions (1), (2), (3), (4), (5)
et (6) sont quivalentes.
Il est clair que (6) implique (7). Supposons maintenant que (7) est vrifi, et
soient X, Y Rn . On a
< BX, BY >
1
(< B(X + Y ), B(X + Y ) > < B(X Y ), B(X Y ) >)
4
<
1;
=
4B(X + Y )422 4B(X Y )422
4
< 1
1;
2
=
4X + Y 42 4X Y 422 = (< X + Y, X + Y > < X Y, X Y >)
4
4
=< X, Y >,
=

et on voit que les conditions (6) et (7) sont quivalentes, ce qui achve la
dmonstration.
On a introduit au Chapitre 2 la matrice PB,B! reprsentant une famille B %
de n lments dun espace vectoriel de dimension n 1 muni dune base B. On
sait que B % est une base de E si et seulement si PB,B! est inversible, et dans ce
cas PB,B! est appele matrice de passage de B B % . Le corollaire suivant montre
que si E est euclidien, et si B est une base orthonormale de E, alors une autre
base B % de E est orthonormale si et seulement si la matrice de passage de B
B % est orthogonale.
Corollaire 8.2.2 Soit E un espace euclidien de dimension finie, soit B =
{e1 , ..., en } une base orthonormale de E et soit B % = {e%1 , ..., e%n } une famile
de n lments de E. Alors les conditions suivantes sont quivalentes
(i) B % est une base orthonormale de E.
(ii) La matrice PB,B! reprsentant B % dans la base B est orthogonale.

8.2. MATRICES ORTHOGONALES

151

Dmonstration : Soit P = PB,B! , et soient P1 , ..., Pn les colonnes de P, de


sorte que Pj est forme des coordonnes de e%j dans la base B. Comme B est
orthonormale, il rsulte de la proposition 7.3.3 que < e%i , e%j >=< Pi , Pj >
pour 1 i n, 1 j n. Autrement dit la famille B % est orthonormale si et
seulement si la matrice P est orthogonale, et dans ce cas B % est automatiquement
une base de E.
Notons que le rsultat ci-dessus permet de simplifier notablement les calculs
concernant la diagonalisation dune matrice symtrique A : en construisant une
base orthonormale de Rn forme de vecteurs propres de A, on obtient une
matrice orthogonale P telle que P 1 AP soit diagonale, et le calcul de P 1 est
immdiat puisque P 1 =t P.

1 2 1
Exemple 8.2.3 Diagonaliser A = 2 1
1 .
1
1 2
On a,

:
:
:
:
:
:1
: x
:1 x
2
1 ::
2
1 ::
:
:
:
1 :: = x :: 1
1x
1 :: = :: x 1 x
pA = :: 2
: x
:1
: 1
1
2 x :
1
2 x :
:
:
:1
2
1 ::
:
0 :: = x(x 3)(x + 3).
= x :: 0 3 x
:0
3
3 x :

:
2
1 ::
1x
1 ::
1
2 x :

Donc A admet 0, 3

1
A2 = 2
1

et 3 comme valeurs propres simples. On a

2 1
1 2 1
6
1
1 2 1
1 = 3 ,
1 2
1
1 2
3

3
(A + 3I)(A 3I) = A2 9I = 3 ,
3

9
A(A + 3I) = A2 + 3A = 9 ,
0

3
A(A 3I) = A2 3A = 3 .
6

On sait que les sous-espaces propres E0 , E3 et E3 sont respectivement


engendrs par les colonnes des matrices (A+3I)(A3I), A(A+3I) et A(A3I),
qui sont videmment ici de rang 1 puisque les trois valeurs propres de A sont

152CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES



1
1
1
simples. Donc 1 , 1 , 1 , qui est videmment orthogonale, est

1
0
2
forme de vecteurs propres de A, et on obtient une base orthonormale de Rn
forme de vecteurs propres de A en posant
1
1

3
6
1 21 1
B := 3 ,
, 6 .
2

1
0
2
3

Posons

P =

1
3
1
3
1
3

1
2
12

1
6
1
6
26

1
t
de sorte que P = P =

0
On a alors P 1 AP = 0
0

0 0
0
3 0 , et A = P 0
0 3
0

1
3
1
2
1
6

1
3
12
1
6

0 0
3 0 P 1 .
0 3

1
3

0
.

26

Le corollaire prcdent permet galement dorienter un espace vectoriel euclidien E de dimension finie partir dune base orthonormale B0 de E : on dira
quune base orthonormale de E est directe si le dterminant de la matrice de
passage PB0 ,B est gal 1, et on dira que la base orthonormale B est indirecte
si detPB0 ,B = 1.
On dduit galement du thorme 8.2.1 le rsultat suivant, o l espace euclidien considr est muni de la norme euclidienne associe son produit sacalaire.
Corollaire 8.2.4 Soient E un espace euclidiens de dimension finie n 1, soit
B une base orthonormale de E, et soit u : E E une application linaire. Alors
les trois conditions suivantes sont quivalentes
(i) 4u(.x)4 = 4.x4 pour tout .x E.
(ii) < u(.x), u(.y ) >=< .x, .y > pour tout couple (.x, .y ) dlments de E.
(iii) La matrice Mu,B reprsentant u par rapport la base B est orthogonale.
Dmonstration : Posons A := Mu,B , soient .x, .y E, et soient X et Y les
matrices unicolonnes formes des coordonnes de .x et .y dans la base B. Alors
AX et AY sont les matrices unicolonnes formes des coordonnes de u(.x) et
u(.y ) dans la base B, et il rsulte de la proposition 7.3.3 que lon a
< .x, .y >=< X, Y >,

< u(.x), u(.y ) >=< AX, AY >,

et le corollaire rsulte immdiatement du thorme 8.2.1.


On a plus gnralement le rsultat suivant.

8.2. MATRICES ORTHOGONALES

153

Proposition 8.2.5 Soient E += 0 et F += 0 deux espaces euclidiens de dimension finie n 1, soit B0 une base orthonormale de E, soit B1 une base orthonormale de F, soit u : E F une application linaire, et soit A := Mu,B0 ,B1 la
matrice reprsentant u par rapport aux bases B0 et B1 . Alors les trois conditions
suivantes sont quivalentes
(i) 4u(.x)4 = 4.x4 pour tout .x E.
(ii) < u(.x), u(.y ) >=< .x, .y > pour tout couple (.x, .y ) dlments de E.
(iii) t AA = In , o n =dim(E).
Dans ce cas on dira que u est une isomtrie vectorielle de E dans F.
Dmonstration : Il est clair que (ii) implique (i), et on a pour .x, .y E,
< .x, .y >=

<
1;
4.x + .y 42 + 4.x .y 42 ,
4

<
1;
4u(.x) + u(.y )42 + 4u(.x) u(.y )42 ,
4
ce qui de mme que dans la dmonstration du thorme 8.2.1 montre que (i)
et (ii) sont en fait quivalents.
Soient maintenant .x, .y E, et soient X et Y les matrices unicolonnes forms
des coordonnes de .x et .y dans la base B0 , de sorte que AX et AY sont les
matrices unicolonnes formes des coordonnes de u(.x) et u(.y ) dans la base B1 .
Il rsulte du lemme 7.3.3 que lon a
< u(.x), u(.y ) >=

< .x, .y >=t XY, < u(.x), u(.y ) >=t (AX)AY =t X t AAY.
Donc (iii) implique (ii). Dautre part si (ii) est vrifi on a t XY =t X(t AA)Y
pour tout couple (X, Y ) dlments de Rn . On voit alors que t AAY Y
(Rn ) = {0} pour tout Y Rn . En appliquant ceci la base canonique de
Rn on voit que toutes les colonnes de t AA et In coincident et on voit que (ii)
implique (iii), ce qui achve la dmonstration.
Exemple 8.2.6 Matrice reprsentant le retournement R (rotation vectorielle
dangle ) ayant pour axe la droite vectorielle engendre par .i .j + .k dans
lespace vectoriel euclidien usuel E de dimension 3 usuel rapport une base
orthonorme B = {.i, .j, .k}.
Lespace vectoriel E est lespace vectoriel associ lespace affine E euclidien
de Terminale, que lon rapporte un repre (O,.i, .j, .k). On note D la droite issue

de O de vecteur directeur .i .j + .k. On a alors R(OM ) = OM % , o M % vrifie


les deux conditions suivantes
1) M M % D,
2) I D, o I dsigne le milieu de M M % .
On a, en dsignant par (x, y, z) les coordonnes de M et par (x% , y % , z % ) celles
de M % ,
% %
M M = M O + OM = (x% x).i + (y % y).j + (z % z).k, et la condition 1)
donne

154CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


1) x% x y % + y + z % z = 0.
%
!

.
Dautre part OI = OM +2OM = x+x
2 i+
donne

x+x!

2! =
y+y
=
2

z+z!
=
2

y+y ! .
2 j

z+z ! .
2 k.

La condition 2)

avec R.
On obtient alors la condition suivante, quivalente la condition 2
2) x + x% = z + z % = y y % .
En appliquant ceci .i, on a x = 1, y = z = 0, do
z % = x% + 1 = y % , x% 1 + x% + 1 + x% + 1 = 0, x% = 31 , y % = 23 , z % = 23 ,
R(.i) = 13.i 23.j + 23 .k. Comme les rles de .i et .k sont symtriques, on obtient
R(.k) = 23.i 23.j 13 .k. Dans le cas de .j, on a y = 1, x = z = 0, et on obtient
z % = x% = 1 y % , 1 y % y % + 1 1 y % = 0, y % = 31 , x% = z % = 32 ,
R(.j) = 23.i 13.j 23 .k.
On obtient

MR,B

.i

.j

.k

R(.i)

R(.k)

31

23

2
3

23

13

23

2
3

23

13

qui est bien une matrice orthogonale.

8.3

R(.j)

Formes quadratiques

Rappelons que les formes bilinaires symtriques ont t introduites la


dfinition 7.1.1.
Nous allons maintenant introduire la notion de forme quadratique sur un
espace vectoriel rel. Comme on le verra plus loin, les formes quadratiques sur
Rn sont tout simplement les polynmes homognes de degr 2 de n variables
coefficients rels, et les formes quadratiques sur un espace vectoriel rel E de dimension finie se dcrivent de manire analogue en fonction de leurs coordonnes
par rapport une base quelconque de E.
Dfinition 8.3.1 Soit E un espace vectoriel rel. On dit quune application
q : E R est une forme quadratique sur E si q(.0) = 0, et si lapplication
(.x, .y ) " q(.x + .y ) q(.x .y )

est une forme bilinaire symtrique sur E.

8.3. FORMES QUADRATIQUES

155

Dans ce cas on pose, pour .x, .y E,


1
(q(.x + .y ) q(.x .y )) ,
(8.3)
4
de sorte que q est galement une forme bilinaire symtrique sur E.
q (.x, .y ) =

Soit q est une forme quadratique sur E. Comme q(.0) = 0, en remplaant .x


et .y par %x2 dans lidentit 8.3 on obtient, pour .x E,
=
>
=
>
.x .x
.x .x
q(.x) = q
+
= 4q
,
= q (.x, .x) .
(8.4)
2
2
2 2

Il est clair rciproquement que si : E E R est une forme bilinaire


symtrique sur E, alors q : .x " (.x, .x) est une forme quadratique sur E,
puisque q (.x, .y ) = 14 (q (.x + .y ) q (.x .y )) = 14 ((.x + .y , .x + .y ) (.x .y , .x .y )) =
(.x, .y ) pour .x, .y E. Lapplication q " q est donc une bijection de lensemble
Q(E) des formes quadratiques sur lensemble L2 (E, R) des formes bilinaires
sur E.
Dfinition 8.3.2 Soit E += {0} un espace vectoriel rel de dimension finie, soit
: E E R une forme bilinaire symtrique sur E, et soit B = {.e1 , ..., .en }
une base de E.
On appelle matrice reprsentant dans la base B la matrice
M[,B] = ((.ei , .ej )) 1in .
1jn

(8.5)

Si q est une forme quadratique sur E, on pose


M[q,B] := M[q ,B]

(8.6)

et cette matrice est galement appele la matrice reprsentant la forme quadratique q dans la base B.
Les notations tant celles de la dfinition ci-dessus, on a les rsultats lmentaires suivants.
Proposition 8.3.3 (i) La matrice M[,B] est lunique matrice carre M vrifiant, pour tout couple (.x, .y ) dlments de E,
(.x, .y ) =t XB M YB ,

(8.7)

o XB et YB dsignent les matrices unicolonnes formes des coordonnes de


.x et .y dans la base B.
(ii) La matrice M[q,B] est lunique matrice carre symtrique M vrifiant,
pour tout .x E,
q(.x) =t XB M XB ,

(8.8)

156CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


(iii) Si B1 est une autre base de E, on a pour les formes bilinaires symtriques et les formes quadratiques les "formules de changement de base"
M[,B1 ] =t PB,B1 M[,B] PB,B1 .

(8.9)

M[q,B1 ] =t PB,B1 M[q,B] PB,B1 .

(8.10)

"n
"n
Dmonstration : (i) Soient .x = i=1 xi.ei et .y = i=1 yi f.i deux lments
de E. On a

n
n
!
!
!
xi yj (.
ei , e.j )
(.x, .y ) =
xi e.i ,
yj e.j =
i=1

n
!
i=1

j=1

1in
1jn

n
!
xi
(.ei , .ej ) yj =t XB M[,B] YB .
j=1

Si M = (mi,j ) 1in est une matrice vrifiant la condition 8.7, on a, {U1 , ..., Un }
1jn

dsignant la base canonique de Rn , pour 1 i n, 1 j n,


(.ei , .ej ) =t Ui M Uj = mi,j ,

et on voit que M = M[,B] .


(ii) Il rsulte de la dfinition de M[q,B] que M[q,B] vrifie la condition 8.8.
Rciproquement si une matrice symtrique M Mn (R) vrifie la condition 8.8,
posons, pour .x, .y R,
(.x, .y ) =t XB M YB .
Comme (.y , .x) =t YB M XB =t (t XB (t M )YB ) =t XB M YB , il est clair que
est une forme bilinaire symtrique sur E, et on a par construction q(.x) = (.x, .x)
pour tout .x E. Donc = q , et il rsulte alors de (i) que M = M[,B] =
M[q,B] , ce qui achve la dmontration de (ii).
(iii) Soit maintenant B1 une autre base de E. Il rsulte des proprits des
matrices de changement de base rappeles au Chapitre 2 que lon a, pour .x, .y
E, en posant P = PB,B1 , M = M[,B] ,
X B = P X B1 ,

(XB ) =t (XB1 )t P, YB = P YB1 ,

(.x, .y ) =t XB M YB =t (XB1 )t P M P YB1 ,


et la formule 8.9 rsulte de (i). La formule 8.10 est alors une consquence
immdiate de la formule 8.9

8.3. FORMES QUADRATIQUES

157

On dduit de la formule 8.7 que si q est une forme quadratique sur E, et si


(qi,j ) 1in est la matrice reprsentant q dans une base B = {.e1 , ..., .en } de E, on
1jn
"n
a, pour .x = i=1 xi.ei E,
q(.x) =

qi,j xi yj =

n
!

qi,i x2i + 2

i=1

1in
1jn

qi,j xi xj

1in
1j<i

Rciproquement si q : E R est dfinie par une formule du type


8
7 n
n
!
!
!
xi.ei =
ai,i x2i +
ai,j xi xj ,
q
i=1

i=1

(8.11)

1in
1j<i

alors q est une forme quadratique sur E, et la matrice M[q,B] assoce q


dans la base B est dfinie par la formule
M[q,B] = (qi,j ) 1in ,
1jn

ai,j
avec qi,i = ai,i , qj,i = qi,j =
pour 1 i n, 1 j < i. (8.12)
2
Autrement dit la forme bilinaire symtrique q associe q est donne par
la formule
7 n
8
n
n
!
!
1!
1 !
ai,j xi yj +

xi.ei ,
yi.ei =
ai,i xi yi ,
(8.13)
2 1in
2 i=1
i=1
i=1
1jn

avec ai,j = aj,i pour 1|ei n, 1 j n, i < j.


On voit donc que, comme on lavait indiqu plus haut, les formes quadratiques sur Rn sont tout simplement les polynmes homognes de degr 2 de n
variables coefficients rels.
Nous illustrons les formules ci-dessus avec lexemple suivant.
Exemple 8.3.4 La fonction q : (x, y, z) " x2 + y 2 + z 2 xy yz zx est une
3
3
forme quadratique
sur R , et sa matrice associe dans la base canonique de R
2 1 1
est la matrice 12 1 2 1 .
1 1 2
On va maintenant introduire la notion de rang dune forme quadratique sur
un espace vectoriel rel de dimension finie.

Proposition 8.3.5 Soit q une forme quadratique sur un espace vectoriel rel de
dimension finie n 1, et soit q la forme bilinaire symtrique sur E associe
q. Alors lensemble N (q) := {.x E | q (.x, .y ) = 0 .y E} est un sousespace vectoriel de E. De plus si B est une base de E, et si M = M[q,B] est la

158CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


matrice reprsentant q dans la base B, alors le rang de la matrice M est gal
n- dim(N (q)).
Le nombre n- dim(N (q)) est appel le rang de la forme quadratique q, et ce
nombre est not rang(q).
Dmonstration : Pour .y E, posons F%y = {.x E | q (.x, .y ) = 0}. Alors
F%y est un sous-espace vectoriel de E pour tout .y E, et N (q) = %yE F%y est
galement un sous-espace vectoriel de E.
Soit maintenant B une base de E et soit M = M[q,B] la matrice reprsentant
q dans la base B. Pour .x E notons XB la matrice unicolonne forme des
coordonnes de .x dans la base B. On a pour .x, .y E,
q (.x, .y ) = q (.y , .x) =t YB M XB .
On voit donc que .x N (q) si et seulement si < Y, M XB >= 0 Y Rn ,
lapplication (X, Y ) "< X, Y > dsignant le produit scalaire usuel sur Rn .
Comme [Rn ] = {0} on voit que .x N (q) si et seulement si XB Ker(M ) :=
{X Rn | M X = 0}. Il rsulte du thorme de la dimension pour les applications linaires du Chapitre 2, appliqu lapplication X " M X sur Rn , que
dim(Ker(M )) + rang(M ) =dim(Rn ) = n. Comme lapplication .x " XB est
un isomorphisme linaire de E sur Rn , on obtient dim(N (q)) = dim(Ker(M )) =
nrang(M ), ce qui achve la dmonstration.
Exemple 8.3.6 La forme quadratique q de lexemple 8.3.4 est de rang 2.

2 1 1
En effet on sait que rang(q) =rang(A), o A = 21 1 2 1 . Comme
1 1 2
la somme desG trois colonnes
de
A
est
nulle,
det(A)
=
0,
et rang(A) 2. Dautre
H
2 1
1
part B := 2
est une matrice carre extraite de A, et det(B) = 32 += 0,
1 2
donc rang(A) 2. On voit donc que rang(q) =rang(A) = 2.
On sintresse maintenant la diagonalisation des formes quadratiques sur
un espace vectoriel rel E de dimension finie. Plus prcisment on introduit la
notion suivante.
Dfinition 8.3.7 Soit Q une forme quadratique sur un espace vectoriel rel
E += {0} de dimension finie. On dit quune base B de E est diagonalisante
pour q quand la matrice M[q,B] reprsentant q dans la base B est diagonale.
On sait que de telles bases existent : si B0 = {.e1 , ..., .en } est une base quelconque de E, la matrice M0 := M[q,B0 ] reprsentant q dans la base B0 est symtrique, donc il existe une matrice orthogonale P = (pi,j ) 1in Mn (R) telle
que P M0 P = P
t

M0 P soit diagonale. Posons f.j =

n
"

i=1

1jn

pi,j .ei pour 1 j n,

8.3. FORMES QUADRATIQUES

159

et soit B := {f.1 , ..., f.n }. On a alors PB0 ,B = P, donc B est une base de E, et on
a
M[q,B] =t P M0 P = P 1 M0 P,

qui est diagonale, donc la base B est diagonalisante pour q.


La diagonalisation dune matrice symtrique ncessite le calcul exact des
valeurs propres de cette matrice, ce qui nest pas possible dans Mn (R) pour
n 5 (et en gnral fort compliqu dans M3 (R) et M4 (R)). Nous verrons plus
loin un procd plus simple, qui utilise une ide de Gauss, et qui permet dobtenir
des bases diagonalisantes associes des matrices de passage non ncessairement
orthogonales. Nous allons tout dabord dgager une proprit commune toutes
les bases de E diagonalisantes pour une forme quadratique donne q sur E.
Thorme 8.3.8 (thorme dinertie de Sylvester) Soit E += {0} un espace
vectoriel rel de dimension finie, et soit q une forme quadratique sur E. Si B est
une base de E diagonalisante pour q, on note respectivement n+ (q)B et n (q)B
le nombre de coefficients strictement positifs et strictement ngatifs de la matrice
M[q,B] reprsentant q dans la base B.
Alors n+ (q)B et n (q)B sont indpendants de la base diagonalisante B.
Le couple (n+ (q), n (q)) := (n+ (q)B , n (q)B ) est appel la signature de la
forme quadratique q, et on a rang(q) := n+ (q) + n (q).
Dmonstration : Soit n =dim(E), soit F lensemble des sous-espaces vectoriels F de E tels que q(.x) > 0 pour tout .x F \ {0}, avec par convention
{0} F, et soit G lensemble des sous-espaces vectoriels G de E tels que q(.x) 0
pour tout x G. Soit F F, et soit G G. Si .x F G, on a q(.x) 0 et
q(.x) 0, donc q(.x) = 0, et .x = 0 puisque .x F. Donc F G = {0}.
On a alors, daprs le "thorme de la dimension" vu au Chapitre 1
dim(E) dim(F + G) = dim(F ) + dim(G) dim(F G) = dim(F ) + dim(G).
(8.14)
Si B est une base de E diagonalisante pour E, on pose B+ = {.x B | q(.x) >
0}, B = {.x B | q(.x) 0}, et on note respectivement FB et GB les sousespaces vectoriels de E engendrs par B+ et B , avec la convention que lespace
vectoriel engendr par lensemble vide est lespace vectoriel rduit {0}. Si
B+ += , la matrice associe la restriction de q FB pour la base B+ de FB est
diagonale coefficients diagonaux strictement positifs, on voit que FB F, et
FB = {0} F si B+ est vide. On voit de mme que GB G, et il est clair que
E = FB GB , et dim(FB )+dim(GB ) = n.
Soient maintenant B et B % deux bases de E diagonalisantes pour q. Il rsulte
de la formule 8.14 que lon a
dim(FB ) n dim(G%B ) = dim(FB% ),

et en inversant les rles de B et B % on voit quen fait n+ (q)B = dim(FB ) =


dim(FB% ) = n+ (q)B! . On a alors

160CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

n (q)B = n+ (q)B = n+ (q)B! = n (q)B .


Le fait que rang(q) = n+ (q) + n (q) rsulte alors du fait que le rang dune
matrice diagonale ayant exactement p coefficients diagonaux non nuls est gal
p.
On va maintenant introduire lalgorithme de Gauss, qui permet dobtenir
facilement des bases diagonalisantes pour les formes quadratiques dfinies sur
un espace vectoriel rel de dimension finie. Nous allons introduire tout dabord
la notion de forme linaire.
Dfinition 8.3.9 Une forme linaire sur un espace vectoriel rel est une application linaire de E dans R.
Lensemble L(E, R) des formes linaires sur E est un espace vectoriel pour
les lois usuelles sur les applications linaires, introduites au Chapitre 1, et sa
dimension est gale dim(E)dim(R) =dim(E) si E est de dimension finie. Le
produit f g de deux formes linaires f et g sur E est dfini pour .x E par la
formule
(f g)(.x) = f (.x)g(.x).
Remarquons quune somme finie de produits de formes linaires sur E dfinit
une forme quadratique sur E, voir lexercice 3.
Lalgorithme de Gauss est bas sur les observations suivantes.
Proposition 8.3.10 Soient f1 , ..., fn des formes linaires linairement indpendantes sur un espace vectoriel E, et soit (ai,j )1in une famille de nombres
1ji

rels. On pose,
q=

ai,j fi fj .

1in
1ji

f a

(i) Si ak,k = al,l = 0, et si ak,l += 0, avec l > k, posons gk = k 2k,l l ,


f +a f
gl = k 2k,l l , gi = fi pour 1 i n, i += k, i += l. Alors les formes linaires
g1 , ..., gn sont linairement indpendantes, et on a
q=

bi,j gi gj ,

1in
1ji

avec bi,j R pour 1 i n, bk,k = 1, bl,l = 1.


a
(ii) Si ak,k += 0, posons ) = |ak,k
,
k,k |
hk =

!
!
)

|ak,k |fk + $
ak,i fi +
ai,k fi ,
2 |ak,k | 1i<k
k<in

8.3. FORMES QUADRATIQUES

161

hi = fi pour 1 i n, i += k. Alors les formes linaires h1 , ..., hn sont linairement indpendantes, et on a


!
q=
ci,j hi hj ,
1in
1ji

avec ci,j R pour 1 i n, ck,k = ), ck,i = cj,k = 0 pour 1 i < k, k <


j n.
Dmonstration : (i) Comme ak,l += 0 les espaces vectoriels engendrs par
{fk , fl } et {gk , gl } coincident, donc lespace vectoriel engendr par la famille
{g1 , ..., gn } est de dimension n, ce qui montre que cette famille est libre. Le fait
que bk,k = 1 et que bl,l = 1 rsulte du fait que ak,k = al,l = 0 et de lidentit
gl2

gk2

fk + ak,l fl
2

>2

fk ak,l fl
2

>2

= ak,l fk fl .

(ii) Il est clair que fk appartient lespace vectoriel engendr par {h1 , ..., hn } =
{hk }{fi }1in , ce qui entraine de mme que plus haut que la famille {h1 , ..., hn }
i%=k

est libre. Le fait que ck,k = ) et que bk,i = bj,k = 0 pour 1 i < k, k < j n
provient de lidentit

ak,k fk2 +

1i<k

ak,i fk fi +

k<i<n

ai,k fk fi = )h2k

)
4|ak,k |

ak,i fj +

1i<k

k<in

ai,k fi .

Soit E un espace vectoriel rel de dimension n 1, soit B = {e.1 , ..., e.n } une
base de E et pour 1 i n soit ei la forme linaire sur E qui .x E associe sa
ie coordonne dans la base B. Alors B := {e1 , ..., en } est une base de L(E, R),
appele base duale de la base B. Si B0 et B1 sont deux bases de E, on a alors
un lien simple entre les matrices de passage PB0 ,B1 et PB0 ,B1 = PB1
,B .
1

Proposition 8.3.11 Soit E un espace vectoriel rel de dimension finie n 1,


soient B0 et B1 deux bases de E, et soient B0 et B1 les bases duales associes
B0 et B1 . On a alors
PB1 ,B0 =t PB0 ,B1 =t PB1
.
1 ,B0

(8.15)

Dmonstration : Soit .x E. On a, en posant B0 = {.e1 , ..., .en }, B1 =


{f.1 , ..., f.n },
.x =

n
!
j=1

ej (.x).ej

n
!

fj (.x)f.j .

j=1

Donc si on note X0 la matrice unicolonne forme des coordonnes de .x dans


la base B0 et X1 la matrice unicolonne forme des coordonnes de .x dans la

162CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


base B1 , il rsulte de la Proposition 2.3.2 du Chapitre 2 que lon a, en posant
PB0 ,B1 = (pi,j ) 1in ,
1jn

e1 (.x)
f1 (.x)
.
.

. = X0 = PB0 ,B1 X1 = PB0 ,B1 . .

.
.

en (.x)
fn (.x)
"n
e

On voit donc que ei = j=1 pi,j fj , et la i ligne de PB0 ,B1 est forme des
coordonnes de ei dans la base B1 . Par consquent PB1 ,B0 =t PB0 ,B1 =t PB1
.
1 ,B0

Considrons de nouveau une forme quadratique q sur un espace vectoriel rel


E de dimension finie n 1. Si (qi,j ) 1in est la matrice reprsentant q dans une
1jn

base B, la formule 8.8 prend la forme


!
q=
qi,j ei ej ,
1in
1jn

et on voit quen appliquant successivement au plus 2n fois la proposition, on


obtient une base {f1 , ..., fn } de L(E, R) et une famille )1 , ..., )n de rels telles
que lon ait
q=

n
!

)i fi2 ,

i=1

avec )i {1, 0, 1} pour 1 i n.


Soit A = {i {1, ..., n} |)i = 1}, soit B = {i {1, ..., n} |)i = 1}, soit a le
nombre dlments de A et soit b le nombre dlments de B. Alors la signature
de q est gale (a, b). On a en effet le rsultat suivant.
Proposition 8.3.12 Soit E un espace vectoriel rel de dimension finie n 1,
soit B := {.e1 , ..., .en } une base de E, et soit F = {f1 , ..., fn } une base de L(E, R).
Alors il existe pour 1 i n un unique lment u.i de E tel que lon ait
fi (u.i ) = 1

fj (u.i ) = 0 pour 1 j n, j += i,

et U := {.u1 , ...., .un }"est une base de E vrifiant U = F.


De plus si q =
)i fi2 , la matrice M[q,U ] reprsentant q dans la base U est
la matrice diagonale (di,j ) 1in vrifiant di,i = )i pour 1 i n.
1jn

Dmonstration : Posons P := PB ,F , P 1 = Q = (qi,j ) 1in , et pour 1 i


1jn
"n
n posons .ui = j=1 qi,j e.j . Si U := {.u1 , ..., .un }, alors PB,U = Q = P 1 qui est
inversible, donc U est une base de E, et on"
a PB ,U = Q1 "
= P = PB ,F , donc
n
n
U = F. Dautre part si .x E, alors .x = j=1 uj (.x)u.j = j=1 fj (.x)u.j , donc
.ui est lunique .x E tel que fi (u.i ) = 1, fj (u.i ) = 0 pour 1 j n, j += i.

8.4. MATRICES DFINIES POSITIVES

163

Soit D = (di,j ) 1in la matrice diagonale vrifiant di,i = 1 pour 1 i n.


1jn
"n
"n
On a q = j=1 )j fj2 = j=1 )j uj 2 . Il rsulte alors de la Proposition 8.3.3 que
la matrice M[q, U] reprsentant q dans la base U est gale D.
Exemple 8.3.13 Calcul de la signature de la forme quadratique q : (x, y, z) "
xy + yz + zx par la mthode de Gauss.
On est dans le second cas de la proposition 8.3.8 et on pose f (x, y, z) =
g(x, y, z) = xy
4 . on obtient

x+y
4 ,

q(x, y) = f 2 (x, y) g 2 (x, y) + 4zf (x, y).


On est alors dans le premier cas de la proposition 8.3.8 et on pose h(x, y, z) =
f (x, y) + 2z, l(x, y, z) = 2z, et on obtient la dcomposition cherche
q = h2 g 2 l 2 ,
x+y
avec h(x, y, z) = x+y
4 + 2z, h(x, y, z) = 4 2z, l(x, y, z) = 2z.
On sait daprs la proposition 8.2.9 que les formes linaires h, k et l sont
linairement indpendantes (ceci peut aussi se vrifier trs facilement directement) et il rsulte alors du thorme 8.3.8 que la signature de q est gale (1, 2).
En particulier la forme quadratique q est de rang 3.

8.4

Matrices dfinies positives

On va maintenant sintresser un type particulier de matrices symtriques.


Proposition 8.4.1 Soient A Mn (R) une matrice symtrique. Alors les conditions suivantes sont quivalentes.
(i) Lapplication A : (X, Y ) "t XAY est un produit scalaire sur Rn .
(ii) t XAX > 0 pour tout X Rn \ {0}.
(iii) Toutes les valeurs propres de A sont strictement positives.
(iv) La signature de la forme quadratique qA : X "t XAX est gale
(n, 0).
Dans ce cas on dit que la matrice A est une matrice dfinie positive.
Dmonstration : On sait que A est une forme bilinaire symtrique sur Rn ,
que toutes les valeurs propres de A sont relles, et quil existe une matrice
orthogonale P telle que t P AP = P 1 AP soit diagonale. Comme lapplication
X "t XAX est la forme quadratique associe A , (i) et (ii) sont quivalents.
Comme la matrice t P AP est semblable A, il rsulte de la dfinition de la
signature dune forme quadratique que (iii) et (iv) sont quivalents.

164CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


x%1
x1
.
.


Posons maintenant X % = . := P X pour X = . Rn . Lapplica

.
.
%
xn
xn
tion X " X % est une isomtrie de Rn sur lui-mme, et si 1 , ..., n dsignent
les valeurs propres de A, on a, pour X Rn ,
A (X, X) =

n
!

j x%2
,

j=1

et on voit que A (X, X) > 0 pour tout X += 0 si et seulement si toutes les


valeurs propres de A sont strictement positives.
On va maintenant introduire la dcomposition de Cholesky dune matrice dfinie positive, fort utile en Analyse numrique. Rappelons quon dit
quune matrice carre A = (ai,j ) 1in est triangulaire suprieure si ai,j = 0
1jn

pour i > j. On dit de mme quune matrice carre A = (ai,j ) 1in est triangu1jn

laire infrieure si ai,j = 0 pour i < j.

Thorme 8.4.2 (dcomposition de Cholesky)


Toute matrice dfinie positive A Mn (R) peut scrire sous la forme
A =t T T,
o T = (ti,j ) est une matrice triangulaire suprieure telle que ti,i > 0 pour
1 i n.
Rciproquement si S Mn (R) est une matrice triangulaire dont tous les
termes diagonaux sont non nuls, ou plus gnralement si S Mn (R) est inversible, alors t SS et S t S sont dfinies positives.
Dmonstration : Supposons que A est dfinie positive, et posons, pour X
Rn ,
q(X) =t XAX.
Soient f1 , ..., fn des formes linaires linairement indpendantes sur Rn telles
que
q=

bi,j fi fj .

1in
1ji

On a vu la proposition 3.8.9 quil existe une base U = {u1 , ..., un } de Rn telle


que fi = ui pour 1 i n. Donc bi,i > 0 pour 1 i n.

8.4. MATRICES DFINIES POSITIVES

165

On se propose de construire par rcurrence sur k deux familles (ti,j ) 1ik ,


ijn

avec ti,i > 0 pour 1 i k, et (si,j,k ) k<in telles que lon ait, pour X =
k<jn

x1
.

. Rn ,

.
xn

2
k
n
!
!
!

q(X) =
ti,j xj +
si,j,k xi xj .
i=1

Posons fi (X) =
k < i n,

"n

j=i

j=1 ti,j xj ,

k<in
k<jn

ei (X) = xi pour 1 i n, et posons, pour

gi,k =

si,j,k ei ej .

k<jn

Il est clair que comme a1,1 > 0 on peut construire f1 et (si,j,1 )2i,jn vrifiant les
conditions ci-dessus, et que la famille {f1 , g2,1 , ..., gn,1 } est libre. On construit
alors par rcurrence finie sur k les formes linaires f1 , ..., fk et gk+1,k , ..., gn,k
en appliquant la construction de la proposition 8-3-10 (ii), et il rsulte bien
de la proposition 8.3.10 qu chaque tape la famille {f1 , ..., fk , gk+1,k , ..., gn,k }
est libre. Il rsulte alors de la proposition 8.3.12 quil existe uk Rn tel que
gk+1,k (uk ) = 1 et fi (uk ) = 0 = gj,k (uk ) pour 1 i k, k + 2 j n. Donc
sk+1,k+1,k = q(uk ) > 0, et la proposition 8.3.8 (ii) permet de passer tape
suivante si k n 1. La famille {f1 , ...., fn } est donc une base de L(Rn , R), et
on a
q=

n
!

fj2 ,

j=1

f1 = t1,1 e1 + t1,2 e2 + t1,3 e3 + . . . + t1,n en ,


f2 =

t2,2 e2 + t2,3 e3 + . . . + t2,n en ,


................

fn =

tn,n en .

Autrement dit si on pose ti,j = 0 pour1 j < i, 1 i n, on voit que T est


triangulaire suprieure, que les termes diagonaux de T sont strictement positifs
et que lon a

e1
f1
. .
T
=

.
.

.en
.fn

166CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

[ e1

q=

n
!

fj2 = [ f1

j=1

. . . en ] T = [ f1

. . . fn ] ,

f1
.
. . . fn ]
= [ e1
.
.fn

Autrement dit on a, pour X Rn ,

e1
.
t
. . . en ] T T
.
.
.en

q(X) =t X(t T T )X =t XAX.


Comme A et t T T sont symtriques, on a A =t T T, ce qui donne la dcomposition cherche.
Soit maintenant M Mn (R) une matrice inversible. On a, pour X Rn \
{0}, puisque M X += 0,
t

X(t M M )X =t (M X)M X = 4M X42 > 0,

et il rsulte de la proposition 8.4.2 que la matrice symtrique t M M est dfinie


positive.

2
Exemple 8.4.3 Dcomposition de Cholesky de la matrice A = 1
1

1
2
1

1
1.
2

On considre la forme quadratique q(x, y, z) = 2(x2 + y 2 + z 2 + xy + yz + zx),


laquelle on applique lalgorithme de Gauss (il est inutile de vrifier que la
matrice symtrique en question est dfinie positive car lalgorithme aboutira si
et seulement si elle lest).
q(x, y, z) = 2(x +

y z 2 y2
z2
+ )

yz + 2y 2 + 2z 2 + 2yz
2 2
2
2

5
5
y z 62 3y 2 3z 2
y z 62 3 5
z 62 z 2 3z 2
=2 x+ +
+
+
+ yz = 2 x + +
+
y+
+
2 2
2
2
2 2
2
3
6
2
5
6
5
6
y z 2 3
z 2 4 2
=2 x+ +
+
y+
+ z
2 2
2
3
3
82 =
=
>2 7Q
>2

y
z
3
z
2z
=
2x + +
+
y+
+
.
2
2
2
6
3
On obtient alors

8.5. APPLICATIONS AUX CONIQUES ET QUADRIQUES

2 1
1 2
1 1

1 =
2

2 @0

1
2
1
2

3
2

1
6

2 1
0
@2

3
0
0
2

2
3

1
2
1

6
2
3

167

La dcomposition de Cholesky est trs intressante pour les calculs effectifs


de solutions de systmes linaires de n quations n variables. En effet si A
Mn (R) est dfinie positive, et si A =t M M est une dcomposition de Cholesky
de A, alors tant donn Y Rn , pour rsoudre le systme linaire AX = Y on
rsout successivement les systmes t M Z = Y et M X = Z, ce qui est conomique
au niveau des calculs puisque ces deux systmes sont associs des matrices
triangulaires.

8.5

Applications aux coniques et quadriques

On va maintenant sintresser aux applications de ltude des matrices symtriques a gomtrie. On va introduire les notions suivantes.
Dfinition 8.5.1 (i) Soit P le plan affine euclidien usuel, rapport un repre
orthonorm (0,.i, .j). On appelle coniques les courbes de P qui ont une quation
de la forme
ax2 + bxy + cy 2 + dx + ey + f = 0,
o (a, b, c) += (0, 0, 0).
(ii) Soit E l espace affine euclidien usuel, rapport un repre orthonorm
(0,.i, .j, .k). On appelle quadriques les surfaces de P qui ont une quation de la
forme
ax2 + by 2 + cz 2 + dxy + eyz + f zx + gx + hy + kz + l = 0,
avec (a, b, c, d, e, f ) += (0, 0, 0, 0, 0, 0).
On rappelle que si f : Rn R est une fonction de n variables, la drive parf
tielle x
(U ) en U = (u1 , ..., un ) pour 1 j n est quand elle existe la drive
j
en uj de la fonction x " f (u1 , ..., uj1 , x, uj+1 , ..., un ). On dfinit de mme par
k
f
rcurrence quand elles existent les drives partielles successives xi ...x
(U ).
ik
1
On sait en particulier que si f admet des drives partielles dordre 2 continues,
2
2
f
f
= xj x
pour 1 i n, 1 j n, ce qui se vrifie facilement
alors xi x
j
i
directement dans le cas des polynmes. On introduit alors le gradient
G
H
f
f
(f )(U ) :=
(U ), ...,
(U ) ,
x1
xn
ainsi que la hessienne

168CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

Hess(f )(U ) =

>
2f
(U )
,
1in
xi j
1jn

qui est toujours une matrice symtrique quand f admet des drives partielles dordre 2 continues.
Considrons maintenant une fonction polynmiale f de n variables de degr
infrieur ou gal 2 par rapport lensemble des variables. Alors f est la somme

x1
.

dune forme quadratique q : X = . "t XAX, o A = (ai,j ) 1in

1jn
.
xn
Mn (R) est symtrique, dune forme linaire l : X " b1 x1 + ... + bn xn =<

b1
.

x, b >= X t B =t BX, o B := . Rn , et dune constante c R. On a

.
bn
dans ce cas une version trs simple de la formule de Taylor en plusieurs variables.
Proposition 8.5.2 Soit f : X " XAt X + X t B + c, avec A M2 (R) symtrique, B Rn , c R un polynme de n variables de degr infrieur o gal
2. On a alors, pour U = (u1 , ..., un ) et H = (h1 , ..., hn ) Rn ,
f (U + H) = c + H t B + 2HAt U + HAt H
= f (U )+ < H, (f )(U ) > +

HHess(f )(U )t H
.
2

(8.16)

Dmonstration : Comme A est symtrique, on a U At H =t (U At H) =


H At U = HAt U, et on obtient,
t

f (U +H) = c+(U +H)t B+(U +H)At (U +H) = c+U t B+H t B+U At U +HAt U +U At H+HAt H
= f (U ) + H t B + 2HAt U + HAt H.
Dautre part en posant A = (ai,j ) 1in , B = (b1 , ..., bn ), on obtient
1jn

f (x1 , ..., xn ) = c +

n
!

xi bi +

i=1

ai,j xi xj .

1in
1jn

Dans la somme ci-dessus,


la somme des termes faisant intervenir xi est gale
"
xi bi + ai,i x2i + 2xi 1jn ai,j xj . on obtient, pour 1 i n
j%=i

n
!
!
f
(x1 , ..., xn ) = bi + 2ai,i xi + 2
ai,j xj = bi + 2xi
ai,j xj .
xi
1jn
j=1
j%=i

8.5. APPLICATIONS AUX CONIQUES ET QUADRIQUES

169

On a alors, pour 1 i n, 1 j n,
2f
(x1 , ..., xn ) = 2ai,j .
xi j
Donc (f )(U ) = B + 2AU = B + 2t AU, Hess(f )(U ) = 2A, ce qui achve la
dmonstration.
On va maintenant se restreindre aux dimensions 2 et 3, qui sont les seules
o on dispose dune vision concrte gomtrique. Les notations tant les mmes
que plus haut, la forme quadratique sur R2 associe une conique C dquation
XAt X + X t B + c = 0 est la forme quadratique qC : X " XAt X. De mme la
forme quadratique qQ associe une quadrique Q dquation XAt X +X t B+c =
0 est la forme quadratique qQ : X " XAt X. Ces formes quadratiques sont
bien entendu dfinies une constante multiplicative relle non nulle prs, et
cette constante naffecte pas leur rang. Rappelons quon dit que U Rn est
un point critique dune application f : Rn R si f possde des drives
partielles dordre 1 en U, et si (f )(U ) = (0, ..., 0).

Proposition 8.5.3 Soit f un polynme de degr 2 sur Rn avec n {2, 3}, et


soit S la conique dquation f (X) = 0 dans le plan ou la quadrique dquation
f (X) = 0 dans lespace affine euclidien rapports un repre orthonorm. Alors
tout point critique de f est un centre de symtrie pour S.
Dmonstration : On effectue une translation des axes en remplaant lorigine
du repre par U. On a f (X) = q(X) + l(X) + c, o q est une forme quadratique
sur Rn , l une forme linaire sur Rn et c un rel. Posons g(X) = f (U + X).
Lquation de S dans le nouveau repre devient g(X) = 0, et on a, daprs la
proposition, pour X Rn ,
g(X) = f (U + X) = f (U )+ < X, (f )(U ) > +q(X) = f (U ) + q(X).

En particulier g(X) = g(X) pour X Rn , ce qui montre que U est un


centre de symtrie pour S.
On peut crire lquation dune conique ou dune quadrique sous la forme
XAt X + X t B + c = 0, avec A Mn (R), symtrique, B Rn , c R, n = 2
ou n = 3. Si on pose f (X) = XAt X + X t B + c, les points critiques U de f sont
donns par lquation
2At U +t B = 0,

(8.17)
1

qui a toujours une solution unique U = BA2 si A est inversible.


Dautre part comme A est symtrique, il existe une matrice orthogonale P
telle que t P AP = P 1 AP soit diagonale. Ceci permet de construire un repre orthonormal dans lequel la forme quadratique associe quation de f est
reprsente par une matrice diagonale.
Ces deux observations permettent de parvenir une classification complte
des coniques.

170CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


Thorme 8.5.4 Dans le plan affine euclidien rapport un repre orthonorm
(0,.i, .j), soit C une conique dquation
f (X) := XAt X + X t B + c = 0,
avec A M2 (R2 ) += 0), symtrique, B R2 , c R, soient 1 et 2 les deux
valeurs propres
de A,H rptes si ncessaire selon leurs ordres de multiplicit,
G
G
H
p1,1 p1,2
1 0
1
soit P =
une matrice orthogonale telle que P AP =
,
p2,1 p2,2
0 2
et soit .u = p1,1.i + p2,1.j, .v = p1,2.i + p2,2.j.
(1) Si det(A) = 1 2 > 0, alors f admet un unique point critique U, et
lequation de C dans le repre (U, .u, .v ) est de la forme
1 x2 + 2 y 2 = d,
ce qui donne 3 possibilits
d = 0, et

C = {U }.

(8.18)

d += 0est de signe oppos celui de 1 et C =

(8.19)

d += 0 est de mme signe que 1 et Cest une ellipse

(8.20)

d = 0, et C est la runion de deux droites

(8.21)

d += 0, et C est une hyperbole.

(8.22)

(2) Si det(A) = 1 2 < 0, alors f admet un unique point critique U, et


lequation de C dans le repre (U, .u, .v ) est de la forme
1 x2 + 2 y 2 = d,
ce qui donne 2 possibilits

(3) Si det(A) = 1 2 = 0, alors on peut supposer que 1 > 0 et 2 = 0, et


lquation de C dans le repre (0, .u, .v ) est de la forme
1 x2 + mx + ny + d = 0,
ce qui donne quatre possibilits
n += 0, et C est une parabole

(8.23)

n = 0, m2 41 d < 0, et C =

(8.24)

n = 0, m2 41 d > 0, et Cest la runion de deux droites parallles


n = 0, m2 41 d = 0, et C est une droite

(8.25)
(8.26)

8.5. APPLICATIONS AUX CONIQUES ET QUADRIQUES

171

En ce qui concerne les quadriques, la situation est un peu plus complique,


mais on obtient aussi une classification complte.
Thorme 8.5.5 Dans lespace affine euclidien rapport un repre orthonorm (0,.i, .j, .k), soit Q une quadrique dquation
f (X) := XAt X + X t B + c = 0,
avec A M3 (R) += 0, symtrique, B R3 , c R, soient 1 , 2 et 3 les
trois valeurs propres
de A, rptes

si ncessaire selon leurs ordres de multiplip1,1 p1,2 p1,3


cit, soit P = p2,1 p2,2 p2,3 une matrice orthogonale telle que P 1 AP =

p3,1 p3,2 p3,3


1 0
0
0 2 0 , et soit .u = p1,1.i + p2,1.j + p3,1.k, .v = p1,2.i + p2,2.j + p3,2.k,
0
0 3
w
. = p1,3.i + p2,3.j + p3,3.k.
(1) Si det(A) += 0, et si les trois valeurs propres de A sont de mme signe,
alors f possde un unique point critique U, et lquation de Q dans le repre
(U, .u, .v , w)
. est de la forme
1 x2 + 2 x2 + 3 z 2 + d = 0.
Dans ce cas on a 3 possibilits
d = 0, et Q = {U }

(8.27)

d += 0, et d et les valeurs propres de A sont de mme signe, et dans ce cas Q =


(8.28)
d += 0, et d et les valeurs propres de A sont de mme signe, et dans ce cas Q est un ellipsoide
(8.29)
(2) Si det(A) += 0, et si les valeurs propres de A ne sont pas de mme signe,
alors f possde un unique point critique U, et on peut supposer que 1 > 0,
2 > 0, 3 < 0, et lquation de Q dans le repre (U, .u, .v , w)
. est de la forme
1 x2 + 2 x2 + 3 z 2 + d = 0.
Dans ce cas on a 3 possibilits
d = 0, et Q est un cne de sommet U
d > 0 et dans ce cas Qest un hyperboloide elliptique deux nappes

(8.30)

(8.31)

172CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

d < 0 et dans ce cas Qest un hyperboloide elliptique une nappe

(8.32)

(3) Si det(A) = 0, A est de rang 2, et dans ce cas on peut supposer que


3 = 0. Dans ce cas lquation de Q dans le repre (0, .u, .v , w)
. est de la forme
1 x2 + 2 y 2 + cx + dy + ez + f = 0,
Dans ce cas si U est le point de coordonnes ( 2c 1 , 2d 2 , 0) dans le repre
(0, .u, .v , .k), lquation de Q dans (U, .u, .v , .k) est de la forme
1 x2 + 2 y 2 + ez + g = 0,
avec g = f

c2
41

d2
42 ,

et dans ce cas on a les possibilits suivantes

1 2 > 0, e = g = 0, et Q = {U }.

(8.33)

1 2 > 0, e = 0, g1 > 0, et Q = .

(8.34)

1 2 > 0, e = 0, g1 < 0, et Q est un cylindre base elliptique.

(8.35)

1 2 < 0, e = g = 0, et Q est la runion de deux plans non parallles . (8.36)


1 2 > 0, e += 0, et Q est un paraboloide elliptique

(8.37)

1 2 < 0, e += 0, et Q est un paraboloide hyperbolique

(8.38)

Si la matrice A est de rang 1, on peut supposer que 1 > 0, 2 = 3 = 0, et


dans ce cas lquation de Q dans le repre (0, .u, .v , w)
. est de la forme
1 x2 + bx + cy + dz + e = 0.
En notant U le point de coordonnes ( 2b 1 , 0, 0) dans le repre (0, .u, .v , w),
.
lquation de Q dans le repre (U, .u, .v , w)
. devient
1 x2 + cy + dz + f = 0, ()
2

b
avec f = e 4
.
1
On a alors les possibilits suivantes

c = d = 0, f > 0, et Q = .

(8.39)

c = d = 0, f = 0, et Q est un plan.

(8.40)

8.6. CHAPITRE 8 SOUS MUPAD

173

c = d = 0, f < 0, et Q est la runion de deux plans parallles.

(8.41)

Reste la situation o (c, d) += (0, 0). Dans ce cas si on pose r := c2 + d2 ,


.v1 = rc .v + dr w,
. w
. 1 = dr .v + rc w,
. lquation de Q dans le repre orthonorm
(U, .u, v.1 , w.1 ) devient
1 x2 + ry + f = 0,
et si on note V le point de coordonnes (0, fr , 0) dans le repre orthonorm
(V, .u, v.1 , w.1 ) devient
1 x2 + ry = 0.
Donc on a la dernire possibilit suivante
1 > 0, 2 = 3 = 0, (c, d) += (0, 0) dans lquation (*), et dans ce cas Q est un cylindre base parabolique
(8.42)

8.6

Chapitre 8 sous Mupad

La vrification du fait quune matrice symtrique est ou non dfinie positive,


et le calcul de la dcomposition de Cholesky dune matrice dfinie positive sont
accessibles au calcul formel. Nous prenons pour exemple la matrice

8
7

6
A=
5

4
3

7
7
6
5
4
3

6
6
6
5
4
3

5
5
5
5
4
3

4
4
4
4
4
3

3
3

3
.
3

3
3

Aprs avoir vrifi au dpart que A tait bien dfinie positive avec la commande linalg : :isPosDef(A), Mupad peut calculer exactement la dcomposition
de Cholesky de A, avec la commande linalg : :factorCholeski(A). Par contre la
tentative de calculer les valeurs propres de A ( linalg : :eigenvalues(A)) ne peut
aboutir car Mupad ne peut videmment pas calculer les racines dun polynme
de degr 6 (la rponse renvoie simplement aux racines du polynme caractristique).

174CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

M:=Dom::Matrix();

Dom::Matrix()
A:=M([[8,7,6,5,4,3],[7,7,6,5,4,3],[6,6,6,5,4,3],
[5,5,5,5,4,3],[4,4,4,4,4,3],[3,3,3,3,3,3]]);
linalg::isPosDef(A);
linalg::factorCholesky(A);

!
8
"7
"
"6
"
"
"
"5
#4
3

7
7
6
5
4
3

6
6
6
5
4
3

5
5
5
5
4
3

4
4
4
4
4
3

3
3
3
3
3
3

$
%
%
%
%
%
%
%
&

true
! '(
2 ! ' (2 '( 0' (
" 7(((
2
2 ! (
7
((((
" ! (
4 (
4 '(
" '
'(
" 3(((
!
2
3
!
2
!
( ((((((7
"
2
14
" '
(
'( ' (
" 5(((
2
5! 2 ! (
7
(((((
" ! (
" '(
4
'(2 8' (
"
2 ! (
7
((((
" 2
7
# '(
'( '(
3
! (
2
3! 2! (
7
(((
(((((
4

28

14

10

10

%
0 %
%
%
0
0
0 %
%
' ( '(
%
5 ! (
6
((((
%
0
0
6
%
'( ' (
'(
%
2 ! 6 ! 7 (((((
2! 5 ! (
6 2
! (
5
((((((
(((
%
0
21
15
5
'( '(
' ( '(
'( '( &
6! (
7
5 ! (
6
3! (
5 ((
3
((((
((((
(((
'( '(
6! (
7
((((
7
'( '(
5! 6 ! 7
((((((
'4(2 ' (

linalg::eigenvalues(A);

)
*
2
3
4
5
6
RootOf 117 ! X1 " 31 ! X1 " 196 ! X1 + 140 ! X1 " 33 ! X1 + X1 + 3, X1

8.7. TRAC DE CONIQUES SOUS MATLAB

8.7

175

Trac de coniques sous Matlab

On commence par sintresser une courbe du type ellipse. On commence


par la courbe dquation x2 + xy + y 2 + 2x + y + 5 = 0. Si on pose f (x, y) =
x2 + xy + y 2 + 2x + y + 5, les points critiques de f sont donns par le systme
F
2x + y + 2 = 0
x + 2y + 1 = 0
On rsout ce systme sous Matlab, et on voit que le centre de symtrie est
le point de coordonnes (0, 1). On reformule cette quation sous forme dune
quation du second degr en y, savoir
y 2 + (x + 1)y + x2 + 2x + 5 = 0.
On calcule les racines de = (x + 1)2 4(x2 + 2x + 5). Elles ne sont pas
relles, donc est toujours ngatif et la courbe est vide.
>> A=[[2 1];[1 2]]
A =
2
1

1
2

>> B=[-2;-1]
B =
-2
-1

>> X=A\B
X =
-1.0000
0.0000

>> p=[1 1]
p =

176CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

>> q=conv(p,p)
q =
1

>> r=[4,8,20]
r =
4

20

>> roots(q-r)
ans =
-1.0000 + 2.3094i
-1.0000 - 2.3094i
Afin dviter lensemble vide, on considre la courbe dquation x2 + xy +
y + 2x + y = 0, qui contient le point de coordonnes (0, 0). Il suffit de reprendre
les mmes polynmes p et q et de changer r en r1 = 4x2 + 8x.
2

>> p =[1 1];


q=conv(p,p);
r1=[4 8 0];
roots(q-r1)
ans =
-2.1547
0.1547
>>x=[-2.1547:0.01:0.1547];
y=ones(size(x));
z1=-(x+y)/2 +(sqrt((x+y).^2 -4*x.^2 -8*x))/2;
z2=-(x+y)/2 -(sqrt((x+y).^2 -4*x.^2 -8*x))/2;
plot(x,z1,g);
hold on
plot(x,z2,g)

8.7. TRAC DE CONIQUES SOUS MATLAB

177

hold on
axis equal
hold on
x0=ones(801);
x1=0*x0;
y1=[-4:0.01:4];
plot(x1,y1)
hold on
x2=[-5.05:0.01:5.05];
y2=ones(size(x2));
y3=0*y2;
plot(x2,y3);
title(ellipse d equation x^2 +xy +y^2 +2x+y=0);
print -depsc ellipse
On continue en traant des courbes dquation 2x2 +xy0.129y 2 +x+ya =
0. Dans tous les cas si on pose f (x, y) = 2x2 + xy 0.129y 2 + x + y a, les
points critiques de f sont donns par les solutions du systme
F

4x + y + 1 = 0
x 0.258y + 1 = 0

On rsout ce systme sous Matlab.

>> A=[[4 1];[1 -0.129]];


>> B=[-1;-1];
>> X=A\B
X =
-0.7447
1.9789
On voit donc que le centre de symtrie de ces courbes est le point de coordonnes (0.7447, 1.9789). On a sous Matlab

>> 2*( -0.7447)^2 + ( -0.7447)* 1.9789


ans =
0.3645

-0.129*(1.9789)^2

-0.7447+ 1.9789

178CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


On voit donc que ces hyperboles dgnrent en la runion de deux droites
si a est ( peu prs) gal 0.3645, et dans ce cas les droites obtenues sont les
asymptotes des autres hyperboles. On va donc procder au trac de la courbe
dans les cas a = 1, a = 0.3645, a = 1.
On aboutit une quation du second degr permettant dobtenir y en fonction de x.
0.129y 2 + (x + 1)y + 2x2 + x a = 0.
On obtient = (x + 1)2 + 4(0.129)(2x2 + x a), qui correspond aux polynmes
r1, r2, r3 introduits ci-dessous. Dans les cas

>> p=[1 1];


>> q1=[2 1 1];
>> r1=conv(p,p)+4*0.129*q1
>> roots(r1)
ans =
-0.6191 + 0.6023i
-0.6191 - 0.6023i
>> q2=[2 1 -0.3645]
>> r2=conv(p,p)+4*0.129*q2;
>> roots(r2)
ans =
-0.6191 + 0.1276i
-0.6191 - 0.1276i
>> q3=[2 1 -1];
>> r3=conv(p,p)+4*0.129*q3;
>> roots(r3)
ans =
-1.0000
-0.2382
On voit donc que lon peut faire varier x sur R si a = 1 ou a = 0.3645, mais
quil faut se limiter x < 1 ou x > 0.2382 si a = 1. On procde maintenant
au trac des courbes.

8.7. TRAC DE CONIQUES SOUS MATLAB

179

>> x1=[-5:0.01:5];
y1=ones(size(x1));
z1=-(x1+y1)/2 +(1/2)*sqrt((x1+y1).^2 +4*(0.129)*(2*x1.^2 +x1+y1));
u1=-z1/(0.129);
plot(x1,u1,r);
hold on
z2=-(x1+y1)/2 -(1/2)*sqrt((x1+y1).^2 +4*(0.129)*(2*x1.^2 +x1+y1));
u2=-z2/(0.129);
plot(x1,u2,r);
hold on
z2=-(x1+y1)/2 +(1/2)*sqrt((x1+y1).^2 +4*(0.129)*(2*x1.^2 +x1-(0.3645)*y1));
u2=-z2/(0.129);
plot(x1,u2);
hold on
z3=-(x1+y1)/2 -(1/2)*sqrt((x1+y1).^2 +4*(0.129)*(2*x1.^2 +x1-(0.3645)*y1));
u3=-z3/(0.129);
plot(x1,u3);
hold on
x2=[-5:0.01:-1];
y2=ones(size(x2));
z2=-(x2+y2)/2 +(1/2)*sqrt((x2+y2).^2 +4*(0.129)*(2*x2.^2 +x2-y2));
u2=-z2/(0.129);
plot(x2,u2,g);
hold on
z3=-(x2+y2)/2 -(1/2)*sqrt((x2+y2).^2 +4*(0.129)*(2*x2.^2 +x2-y2));
u3=-z3/(0.129);
plot(x2,u3,g);
hold on
x3=[-0.2382:0.01:5];
y3=ones(size(x3));
z4=-(x3+y3)/2 +(1/2)*sqrt((x3+y3).^2 +4*(0.129)*(2*x3.^2 +x3-y3));
u4=-z4/(0.129);
plot(x3,u4,g);
hold on
z5=-(x3+y3)/2 -(1/2)*sqrt((x3+y3).^2 +4*(0.129)*(2*x3.^2 +x3-y3));
u5=-z5/(0.129);
plot(x3,u5,g);
title(Les courbes d equation 2x^2+xy-0.129y+x+y=a,a=-1,a=0.3645,a=1);
print -depsc hyperboles
On va maintenant illustrer le cas des courbes du type parabole. On considre
la famille de coniques dquation x2 + 2xy + y 2 + ay + b = 0. On va traiter les
cas a = 0, b = 0, a = 0, b = 1, a = 1, b = 0. Si on veut exprimer x en fonction

180CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


de y, on obtient une quation du second degr, dont le discriminant vaut
= 4y 2 4y 2 4ay 4b = 4(ay + b).

Le cas a = 0 donne lensemble vide si b > 0. On va vrifier numriquement quon


obtient une droite si b = 0, et la runion de deux droites parallles si b < 0 (pour
nous dans le cas o b = 1). Le cas a = 1, b = 0 donne 0 pour y < 0, et on
va faire apparaitre une parabole.

>> y=[-5:0,01:5];
x1=-y +sqrt(y.^2-y.^2);
x2=-y -sqrt(y.^2-y.^2);
plot(x1,y);
hold on
plot(x2,y);
u=ones(size(y));
x3=-y+sqrt(y.^2-(y.^2-u));
plot(x3,y,r);
hold on
x4=-y-sqrt(y.^2-(y.^2-u));
plot(x4,y,r);
hold on
y1=[-5:0.01:0];
x5=-y1+sqrt(y1.^2 -(y1.^2+y1));
x6=-y1-sqrt(y1.^2 -(y1.^2+y1));
plot(x5,y1,g);
hold on
plot(x6,y1,g);title(Les courbes d equation x^2 +2xy +y^2 +ay +b=0 pour a=b=0, a=0, b
print -depsc parabole
>> axis equal

8.7. TRAC DE CONIQUES SOUS MATLAB

181

'(()*+',-,'./01)23,4$,546,56$,5$4567&
"

&

!%

!$

!#

!"
!!

!"

!#

!$

!%

&

"

182CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

()*+,-./0)*+1+)2.345-6+$7$879!&:%$;98789<3=3<!%=3<&:#'"!=3<%
'&

!&

"&

#&

$&

%&

&

!%&

!$&

!#&

!"&
!!

!"

!#

!$

!%

&

"

8.7. TRAC DE CONIQUES SOUS MATLAB

183

)*+,-./01*+,2,*3/456.7,8#,9#8:,9:#,94:,91;$,<./0,4;1;$=,4;$=,1;!(,*5,4;(=1;$
&

"

'

!(

!#

!'

!"

!&
!!

!"

!#

"

184CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

8.8

Trac de quadriques sous Matlab

On sintresse aux quadriques dont lquation dans lespace euclidien usuel


rapport un repre orthonorm (0,.i, .j, .k) est de la forme x2 + y 2 + z 2 + xy +
yz + zx + d = 0.
On rentre sous Matlab la matrice A associe la forme quadratique q(x, y, z) =
x2 + y 2 + z 2 + xy + yz + zx.
>> A=[1 0.5 0.5;0.5 1 0.5 ; 0.5 0.5 1]
A =
1.0000
0.5000
0.5000

0.5000
1.0000
0.5000

0.5000
0.5000
1.0000

On cherche maintenant sous Matlab une matrice orthogonale Q telle que


D = QAQ1 soit diagonale. On commence par diagonaliser A.
>> [P,D]=eig(A)
P =
0.7309
-0.0503
-0.6806

0.3639
-0.8149
0.4511

0.5774
0.5774
0.5774

0
0.5000
0

0
0
2.0000

D =
0.5000
0
0

On calcule P t P
>> P*P
ans =
1.0000
0.0000
0.0000

0.0000
1.0000
-0.0000

0.0000
-0.0000
1.0000

8.8. TRAC DE QUADRIQUES SOUS MATLAB

185

et on constate avec joie que Matlab a donn directement une matrice orthogonale P. On vrifie que P D P 1 est bien gale A.
>> P*D*P^(-1)
ans =
1.0000
0.5000
0.5000

0.5000
1.0000
0.5000

0.5000
0.5000
1.0000

Posons .u = 0.7309.i 0.0503.j 0.6806.k, .v = 0.3639.i 0.8149.j + 0.4511.k,


w
. = 0.5774.i + 0.5774.j + 0.5774.k.
.. .
La matrice reprsentant la forme q dans la base
orthonormale B = {i, j, k}
0.5 0 0
est gale t P AP = P 1 AP = D = 0 0.5 0 . Lquation de la quadrique
0
0 2
.
.
.
dans le repre (O, i, j, k) est donc
x%2
y %2
+
2z %2 + d = 0,
2
2
que lon rcrit sous la forme
x%2 + y %2 4z %2 = 2d.

Il est clair que lon obtient lensemble vide pour d > 0, le point O pour
d = 0, et un ellipsoide de rvolution daxe Oz % pour d < 0. On va reprsenter
graphiquement la surface obtenue dans le repre initial (0,.i, .j, .k) en utilisant
une paramtrisation par coordonnes sphriques, dans le cas o d = 2.163. On
obtient

x% = 4.326coscos, y % = 4.326sincos, z % = 4.326


sin, avec 0
2
2, 2 2 . Ceci donne, compte tenu du fait que lon a

%
x
x
y = P y% ,
z
z%

x = 0.7309x% + 0.3639y % + 0.5774z %


y = 0.0503x% 0.8149y % + 0.5774z %

z = 0.6806x% + 0.4511y % + 0.5774z %


On obtient

4.326
x = 0.7309 4.326coscos + 0.3639 4.326
sincos
+
0.5774
sin
2

2
y = 0.0503 4.326coscos 0.8149 4.326sincos + 0.5774 4.326
sin
2

4.326
z = 0.6806 4.326coscos + 0.4511 4.326sincos + 0.5774 2 sin

186CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES


On procde maintenant la visualisation de lellipsoide dans le cas o d =
2.163.

>> [theta, phi]= meshgrid (-pi:pi/100:pi);


x= 0.7309*sqrt(4.326)*cos(theta).* cos(phi/2)
+0.3639 *sqrt(4.326/ 2)*sin(theta)
y=-0.0503*sqrt(4.326)*cos(theta).* cos(phi/2)
-0.8149*sqrt(4.326)*sin(theta ).*cos(
z=-0.6806*sqrt(4.326)*cos(theta).* cos(phi/2)
+0.4511*sqrt(4.326)*sin(theta)* cos(
plot3(x,y,z)
hold on
title(ellipsoide d equation x^2+y^2+z^2 +xy +yz +zx -2.163=0);
print -depsc ellipsoide
On va maintenant sintresser des quadriques associes une matrice symtrique inversible ayant des valeurs propres de signe oppos. On considre la
quadrique dquation
z 2 + 2xy + 2yz + 2zx 2x + a = 0,

o a R. On pose

0
A = 1
1

1 1
0 1 , b = [ 2
1 1

0].

Les coordonnes x0 , y0 , z0 du centre de symtrie S de la quadrique sont


donnes par la formule

x0
y0 = Ab .
2
z0

Un calcul direct sous Mupad donne x0 = 1, y0 = 0etz0 = 1. Si x% , y % , z %


dsignent les coordonnes dans (S,.i, .j, .k) dun point M ayant pour coordonnes
x, y, z dans le repre (S,.i, .j, .k), on a x = x% 1, y = y % , z = z % +1. En substituant
dans lquation (on peut saider de Mupad), on trouve que lquation de la
quadrique dans le repre (S,.i, .j, .k) est de la forme
z %2 + 2x% y % + 2y % z % + 2z % x% + 1 + a = 0.
On introduit sous Matlab la matrice A associe la forme quadratique
q(x% , y % , z % ) = z %2 + 2x% y % + 2y % z % + 2z % x% , et on la diagonalise.
>> A=[ [0 1 1],[1 0 1], [1 1 1]]
A =
0

8.8. TRAC DE QUADRIQUES SOUS MATLAB

187

&''()*+(,&-,-&./01(+2-3!45!46!-435-456-463-!!$"789#

!
"$%
"
#$%
#
!#$%
!"
!"$%
!!
!
!

"
"

#
#
!"

!"
!!

!!

188CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

>> A=[0 1 1;1 0 1;1 1 1]


A =
0
1
1

1
0
1

1
1
1

>> [P,D]=eig(A)
P =
0.7071
-0.7071
-0.0000

0.5000
0.5000
-0.7071

0.5000
0.5000
0.7071

0
-0.4142
0

0
0
2.4142

D =
-1.0000
0
0

On voit donc que si on pose .u = 0.7071.i 0.7071.j, .v = 0.5.i + 0.5.j


0.7071.k, w
. = 0.5.i + 0.5.j + 0.7071.k, lquation de la quadrique dans le repre
(S, .u, .v , w)
. est de la forme
X 2 + 0.4142Y 2 2.4142Z 2 = 1 + a.

On obtient un cne base elliptique daxe OZ si a = 1, un hyperboloide


elliptique une nappe daxe OZ si a > 1, un hyperboloide elliptique deux
nappes daxe OZ si a < 1.
On essaie dobtenir directement une reprsentation de la quadrique sous
Matlab en exprimant y en fonction de x et z dans le repre original, dans les cas
a = 1 (cne), a = 0, 8 (hyperboloide une nappe), a = 2, 8 (hyperboloide
deux nappes).
u=[-4:0.1:2];v=[-2:0.1:4];
[x,z]=meshgrid(u,v);
y1=(-ones(size(x)).*ones(size(z))+2*(x.*ones(size(z)))-2*x.*z-z.^2)
./(x.*ones(size(z)) +ones(size(x)).*z);
subplot(221),plot3(x,y1,z),title( a=-1,cone elliptique );
hold on

8.9. EXERCICES SUR LE CHAPITRE 8

189

y2=(0.8*ones(size(x)).*ones(size(z))+2*(x.*ones(size(z)))-2*x.*z-z.^2)
./(x.*ones(size(z)) +ones(size(x)).*z);
subplot(222),plot3(x,y2,z),title(a=0.8,hyperboloide a une nappe );
hold on
y3=(-2.8*ones(size(x)).*ones(size(z))+2*(x.*ones(size(z)))-2*x.*z-z.^2)
./(x.*ones(size(z)) +ones(size(x)).*z);
subplot(223),plot3(x,y3,z),title(a=-2, hyperboloide a deux nappes); hold on
print -depsc hyperboloides

8.9

Exercices sur le Chapitre 8

exercice 1

13

On pose A = 23

2
3

23
13
23

2
3

23 ,

13

de sorte que A est la fois symtrique et orthogonale.


1) Trouver une matrice orthogonale P telle que P 1 AP soit diagonale.
2) Interprter gomtriquement les rsultats de la question 1 en utilisant
lexemple 8.2.6.
exercice 2
Montrer que
de M2 (R) sont
G les matrices orthogonales
H
G les matrices de Hla
cos() sin()
cos() sin()
forme R =
ou de la forme S =
,
sin() cos()
sin() cos()
avec R. Montrer que dans le plan euclidien muni dune base orthonorme
(.i, .j), R reprsente une rotation vectoreielle dont on prcisera langle tandis
que S reprsente une symtrie ortogonale vectorielle dont on prcisera laxe.
exercice 3
Soient f1 , ..., fk et g1 , ..., gk des formes linaires sur un espace vectoriel rel
E, et soient a1 , ..., ak R. On pose, pour .x E,
q(.x) =

k
!

aj fj (.x)gj (.x).

j=1

Montrer que q est une forme quadratique sur E.

190CHAPITRE 8. MATRICES SYMTRIQUES, MATRICES ORTHOGONALES

%&'!$()*+,%,--./0.12,%

&'#34(56/,78*-*.9,%&%2+,%+&//,%

"

"

!"
$##

!"
$##

#
!$##

!!

!"

"

!$##

&'!"(%56/,78*-*.9,%&%9,2:%+&//,;

!
"
#
!"
$##
#
!$##

!!

!"

"

!!

!"

Chapitre 9

Les tenseurs en Physique (en


prparation)
9.1

Coordonnes covariantes et contravariantes

Dans tout ce chapitre on considre un espace euclidien E de dimension n,


muni dun produit scalaire (x, y) x.y. et rapport une base non ncessairement orthonormale B := {e1 , ..., en }.
Dfinition 9.1.1 Soit x E. Les coordonnes covariantes x1 , ..., xn de x
dans la base B sont dfinies par les formules
xj := x.ej

j = 1, ..., n.

(9.1)

Les coordonnes usuelles x1 , ..., xn de x, dfinies par la formule


x=

n
!

xi ei ,

i=1

sont appeles les coordonnes contravariantes de x dans la base B.


Notons quen notation indicielle (voir le Chapitre 3), les coordonnes contravariantes sont dfinies par la formule
x = xi ei

(9.2)

On rappelle que si B := {e1 , ..., en } et B % := {e%1 , ..., e%n } sont deux bases de
E, la matrice de passage de B B % est la matrice PB,B! = (pi,j ) 1in dont la j e
1jn

colonne est forme des coordonnes de e%j dans la base B. Autrement dit on a
e%j

n
!

pi,j ei ,

i=1

191

1 j n,

192 CHAPITRE 9. LES TENSEURS EN PHYSIQUE (EN PRPARATION)


ou plus simplement, en notation indicielle,
e%j = pi,j ei .

(9.3)

Si on note Xcontr et X contr les vecteurs colonnes forms des coordonnes


contravariantes de x dans B et B % , on a, daprs les formules de changement de
base du Chapitre 2
%

%
Xcontr = P Xcontr
,

soit, en notation indicielle


xi = pi,j x%j .
De mme notons Xcov et X

(9.4)

les vecteurs colonnes


7 forms des
8 coordonnes
n
n
"
"
covariantes de x dans B et B % . On a x%j = x.e%j = x.
pi,j ei =
pi,j xi ,
%

cov

j=1

i=1

soit, en notation indicielle

x%j = pi,j xi ,

(9.5)

ce qui correspond la formule matricielle


%
Xcov
= (PB,B! )t Xcov .

Soit P % = PB! ,B := (p%i,j ) 1in la matrice de passage de B % B. On obtient


1jn

%
Xcontr

%
= P % Xcontr , Xcov = (P % )t Xcov
,

et on retrouve le fait que P % = P 1 .


En adoptant des notations analogues aux notations ci-dessus pour y E,
on obtient
x.y =

n
!

yi x.ei =

i=1

n
!

xi yi .

i=1

Compte tenu du fait que x.y = y.x, on obtient, en notation indicielle


x.y = xi yi = xi y i .

(9.6)

Dfinition 9.1.2 La matrice associe une base B = {e1 , ..., en } de E est la


matrice A(B) := (ai,j ) 1in , o ai,j = ei .ej pour 1 i n, 1 j n.
1jn

On a

n
n
n
n
!
!
!
!
xi = x.ei =
xj ej .ei =
xj ej .ei =
aj,i xj =
aj,i xj
j=1

On obtient, en notation indicielle

j=1

j=1

j=1

9.1. COORDONNES COVARIANTES ET CONTRAVARIANTES

xi = ai,j xj = aj,i xj ,

193

(9.7)

ce qui correspond la relation matricielle


Xcov = A(B)Xcontr .
Proposition 9.1.3 La matrice A(B) est dfinie positive.
Dmonstration : Il est clair que A(B) est symtrique. Soit une valeur propre
de A(B, et soit x un vecteur propre de norme 1 associ la valeur propre . On
a

1 = 4x4 =

n
!

xi xi =t Xcov Xcontr = t Xcontr (A(B))Xcontr =t Xcontr A(B)Xcontr

i=1

= Xcontr Xcontr =
t

7 n
!
i=1

(x )

i 2

"n
Comme i=1 (xi )2 > 0, on voit que > 0, et A(B) est dfinie positive.
Dans la suite on adopte la notation
A(B)1 = (ai,j ) 1in = (aj,i ) 1in .
1jn

1jn

(9.8)

On rappelle que les symboles de Kronecker i,j sont dfinis par les formules
i,j = 0 si i += j et i,j = 1 si i = j.
Proposition 9.1.4 Soit B = {e1 , ..., en } une base de E. Il existe alors une
unique base B = {e1 , ..., en }, appele base duale de la base B, telle que lon
ait, pour 1 i n, 1 j n,
ei .ej = i,j .

On a A(B ) = A(B)1 . De plus si Xcov


et Xcontr
dsignent les matrices
colonnes formes des coordonnes covariantes et contravariantes de x E dans
la base B , on a

Xcov = Xcontr
, Xcontr = Xcov
.

(9.9)

Dmonstration : On pourrait dduire lexistence de B de lexistence dune


base duale de B dans L(E, R) au sens du Chapitre 8 (voir la proposition 8.3.11),
mais on va procder
"n directement.
Posons ei = j=1 aj,i ej , B = {e1 , ..., en }. La matrice de passage PB,B est

gale la matrice
A(B)1
"inversible
", ndonc B est une
"nbase de E.
"n
n
On a ei .ej = k=1 ak,j ei .ek = k=1 ak,j ek ei = k=1 ak,j ak,i = k=1 aj,k ak,i .
Il rsulte alors de la formule 9.8 que lon a bien ei .ej = i,j . Lunicit de B

194 CHAPITRE 9. LES TENSEURS EN PHYSIQUE (EN PRPARATION)


provient du fait que si ei .x = ei .y pour 1 i n, alors x y E = {0},
donc x = y.
Soit maintenant x E, et soient x1 , ..., xn les coordonnes contravariantes
de x dans la base B. On a, pour 1 i n,

n
n
!
!
xj i,j = xi .
x.ei =
xj ej .ei =
j=1

j=1

Donc Xcontr =
Xcov .

Xcov
.

Comme (B ) = B, on en dduit que Xcontr


= (X )cov =

9.2

A suivre...

9.3

Exercices sur le Chapitre 9

exercice 1
On munit R4 du produit scalaire usuel.
a) Vrifier que B = {(1, 1, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)} est une
base de R4 .
b) Calculer la matrice de passage de B0 B et la matrice de passage de B
B0 , B0 dsignant la base canonique de R4 .
c) Dterminer les coordonnes covariantes et contravariantes des lments
de B0 dans la base B.
d) Mme question avec le vecteur (1, 2, 3, 4).
e) Dterminer la matrice A(B) associe la base B.
exercice 2
Soit E un espace euclidien de dimension n 2, et soit A Mn (R) une
matrice symtrique dfinie positive. Existe-til une base B de E pour laquelle la
matrice associe A(B) est gale A?
Si oui, cette base est-elle unique ?
exercice 3
Soit E un espace euclidien de dimension n 2. Pour x E, on dfinit
: E R par la formule
(x)(y) = x.y

y E.

a)Vrifier que (x) L(E, R) et que : E L(E, R) est une applicaton


linaire bijective.
b) Voyez-vous un lien entre les bases duales du Chapitre 8 et celles du Chapitre 9 ?

Bibliographie
[1] A. Boyer et J.Risler, Mathmatiques pour la licence : Groupes, anneaux,
corps, Dunod, 2006.
[2] D.Couty,Formes normales dautomorphismes de Cn varit linaire fixe et
rpulsive, Sminaire ...
bibitemdez X.Dussau, J.Esterle, F.Zarouf et R.Zarouf, Algbre, Cours ESTIA, Edition 2007.
[3] X.Dussau, J.Esterle, O.Rejasse et F.Zarouf, Analyse lmentaire, Cours ESTIA, Edition 2005.
[4] J.Esterle, Transformes, Cours ESTIA, Edition 2007.
[5] X.Fischr, Analyse numrique, Cours ESTIA, 1999.

195

Вам также может понравиться