Академический Документы
Профессиональный Документы
Культура Документы
2019-2020
Nicolas Grenier-Boley
Table des matières
Introduction 1
1 Structures algébriques 7
1.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Les lois de composition interne et leurs propriétés . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Structure de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.3 Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.4 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.2 Inversibles d’un anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.3 Morphismes d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4 Intégrité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1
2.6.1 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6.2 Dimension des sous-espaces vectoriels et rang . . . . . . . . . . . . . . . . . . . . . . 36
2.7 Coordonnées et équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7.1 Systèmes de coordonnées, équations paramétrées d’un sous-espace vectoriel . . . . . 39
2.7.2 Systèmes d’équations linéaires d’un sous-espace vectoriel . . . . . . . . . . . . . . . . 40
2.7.3 Détermination pratique du rang d’une famille de vecteurs . . . . . . . . . . . . . . . 41
3 Applications linéaires 43
3.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.1 Morphismes d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.3 Projections et symétries vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2 Structure des ensembles d’applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.2 Structure d’algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Applications linéaires en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.1 Détermination par l’image des vecteurs d’une base . . . . . . . . . . . . . . . . . . . 49
3.3.2 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.3 Caractérisation des isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.4 Classification des espaces vectoriels à isomorphisme près . . . . . . . . . . . . . . . . 52
3.4 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.1 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.2 Systèmes d’équations d’un sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . 53
4 Matrices 55
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2 Différents types de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1 Matrice de type (n, p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3 Structure de K-espace vectoriel de Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.2 Base canonique de Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.3 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.1 Matrice de la composée de deux applications linéaires . . . . . . . . . . . . . . . . . 62
4.4.2 Définition du produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.3 Structure d’algèbre de Mn (K) et propriétés du produit matriciel . . . . . . . . . . . 64
4.4.4 Puissances de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5 Rang d’une matrice et matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5.1 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5.2 Groupe linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.6 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.2 Effet des changements de bases sur les vecteurs . . . . . . . . . . . . . . . . . . . . . 69
4.6.3 Effets des changements de bases sur les applications linéaires . . . . . . . . . . . . . 69
4.6.4 Effets des changements de bases sur les endomorphismes . . . . . . . . . . . . . . . . 70
4.6.5 Équivalence et similitude de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.7 Matrices et systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.7.1 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2
4.7.2 Résolution théorique du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.7.3 Résolution pratique du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5 Déterminants 76
5.1 Groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.1.2 Signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.2 Introduction à la multilinéarité : le cas des formes bilinéaires . . . . . . . . . . . . . . . . . 78
5.2.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2.2 Formes 2-linéaires alternées sur un espace vectoriel de dimension 2 . . . . . . . . . . 79
5.3 Formes n-linéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3.2 Formes n-linéaires alternées sur un espace vectoriel de dimension n . . . . . . . . . . 81
5.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4.2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.5.2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.5.3 Développement par rapport à une ligne ou à une colonne . . . . . . . . . . . . . . . 89
5.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6.1 Comatrice et inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6.2 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.6.3 Orientation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3
6.7.3 Résolution de systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.7.4 Résolution de systèmes récurrents . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.7.5 Résolutions de systèmes différentiels à coefficients constants . . . . . . . . . . . . . . 114
6.7.6 Calcul de polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 114
4
9 Espaces hermitiens 156
9.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
9.1.1 Formes sesquilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
9.1.2 Formes hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
9.1.3 Produit scalaire hermitien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
9.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
9.2.1 Propriétés importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
9.2.2 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.3 Adjoint, matrices unitaires et hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.3.1 Adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.3.2 Matrices unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
9.3.3 Réduction des endomorphismes hermitiens . . . . . . . . . . . . . . . . . . . . . . . . 160
5
Introduction
Ce cours est consacré au rappel des notions essentielles d’algèbre linéaire et bilinéaire pour les étudiants
préparant le CAPES externe de Mathématiques.
L’algèbre linéaire intervient de façon cruciale et multiple dans beaucoup de domaines mathématiques
et il n’est pas rare que l’on puisse ramener un problème mathématique à un problème équivalent au sein
de l’algèbre linéaire : on dit alors que l’on linéarise le problème.
Si l’algèbre linéaire peut être mise en valeur pour ses connexions avec des sujets divers au sein des
Mathématiques, des recherches en Didactique des Mathématiques ont pu montrer que la plupart des
notions d’algèbre linéaire ont un caractère formalisateur, unificateur et généralisateur.1 . En général, les
notions qui associent ces trois caractéristiques ont des caractères épistémologiques qui tiennent à une
genèse historique très longue et dont le développement a été long et sinueux : leur enseignement présente
donc des difficultés d’introduction.
Ces caractéristiques témoignent à la fois de la difficulté de cette théorie et de sa richesse. Le but de
ce cours est de faire entrevoir ces aspects au travers du rappel des notions et résultats principaux. Nous
avons aussi souhaité illustrer les notions le plus largement possible, d’une manière dont nous espérons
qu’elle éveille la curiosité des étudiants.
Finissons par une mise en garde : ce cours ne constitue qu’une base de travail préliminaire. La lecture
d’ouvrages spécialisés sur le sujet, la résolution d’exercices (qu’ils soient proposés dans le cadre de ce
module ou non) et la recherche de compléments à ce cours s’avèrent nécessaires à une préparation efficace
au concours du CAPES externe.
1 On parle de caractère formalisateur lorsqu’il y a introduction d’un formalisme nouveau qui pouvait être partiellement
utilisé antérieurement. Le caractère unificateur indique que ce qui est nouveau remplace plusieurs éléments anciens, traités
jusqu’ici individuellement. Cette unification s’accompagne d’une simplification mais éventuellement aussi d’une perte de
visibilité par rapport à ce qui est remplacé. Le caractère généralisateur apparaı̂t quand ce qui est nouveau a une portée plus
grande que ce que l’on avait déjà à disposition : le nouveau étend l’ancien, que ce soit par extension du domaine d’application
ou autrement, en introduisant de la généralité là où il y avait du particulier, par exemple.
6
Chapitre 1
Structures algébriques
Ce chapitre présente un panorama des structures dont nous aurons besoin dans la suite de ce cours. On
suppose que les étudiants sont familiarisés avec la notion d’ensemble, la logique élémentaire (notamment
le calcul des prédicats) et la résolution des systèmes linéaires par la méthode de Gauss.
1.1 Groupes
1.1.1 Les lois de composition interne et leurs propriétés
Applications et produit cartésien
Soient E et F deux ensembles. On dit que f est une application de E dans F si tout élément de E a par
f une image unique dans F , c’est à dire
∀x ∈ E, ∃ ! y ∈ F, y = f (x).
7
contre, c’en est une dans Z.
(3) ∩, ∪ et ∆ sont des lois de composition interne1 sur l’ensemble P(E)2 .
(4) La composition des applications de E dans E est une loi de composition interne sur A(E, E).
(5) On peut définir deux lois de composition interne sur A(R, R), notées +
b et ×
b respectivement par
où h est l’application de R dans R définie par h(x) = f (x) + g(x) pour tout x ∈ E et
où k est l’application de R dans R définie par k(x) = f (x).g(x) pour tout x ∈ E.
(6) L’application de (N \ {0})2 dans N \ {0} qui à deux entiers naturels associe leur pgcd positif est une
loi de composition interne parfois notée ∧.
Éléments particuliers
Dans ce paragraphe, E est un ensemble muni d’une loi de composition interne ∗.
1 rappelons que ∆ désigne la différence symétrique : si A et B sont deux ensembles, A∆B est l’ensemble des éléments de
A qui ne sont pas dans B et des éléments de B qui ne sont pas dans A; c’est aussi l’ensemble des éléments qui sont dans
A ∪ B mais pas dans A ∩ B.
2 l’ensemble des parties de E.
8
Définition 1.1.6. Un élément e de E est élément neutre pour ∗ si l’on a
x∗e=x=e∗x
pour tout x ∈ E.
Exemples 1.1.7. (1) Le nombre 0 est élément neutre pour + dans R mais 0 n’est pas élément neutre
pour − (il l’est seulement à droite).
(2) ∅ est élément neutre pour ∩ dans P(E) et E est élément neutre pour ∪ dans P(E).
(3) IdE est élément neutre pour la composition des applications dans A(E, E).
b dans A(R, R) et l’application constante égale
(4) L’application constante nulle est élément neutre pour +
à 1 est élément neutre pour ×
b dans ce même ensemble.
Convention 1.1.8. Si une loi notée additivement a un élément neutre, celui-ci est en général noté 0. Si
une loi notée multiplicativement a un élément neutre, il est en général noté 1.
Proposition 1.1.9. S’il existe un élément neutre pour ∗ dans E, il est unique.
Preuve. En effet, si e et e0 désignent deux éléments neutres, on a e ∗ e0 = e d’une part et e ∗ e0 = e0
d’autre part donc e = e0
Remarques 1.1.10. (1) Si une loi est commutative, il suffit de voir vérifier x ∗ e = x (ou e ∗ x = x)
pour tout x de E pour montrer que e est élément neutre de E pour ∗. Par contre, si la loi n’est pas
commutative, il faut bien vérifier les deux égalités de la définition pour conclure que e est élément neutre.
(2) La proposition précédente nous autorise à parler de l’élément neutre lorsque celui-ci existe.
Définition 1.1.11. Soit (E, ∗) possédant un élément neutre e. Un élément x de E est dit symétrisable
pour ∗ dans E s’il existe un élément x0 de E tel que
x ∗ x0 = x0 ∗ x = e.
Remarques 1.1.13. (1) Si une loi ∗ est commutative, associative et possède un élément neutre, il suffit
de vérifier que x ∗ x0 = e (ou x0 ∗ x = e) pour montrer que x0 est symétrique de x. Par contre, si la loi
n’est pas commutative, il faut bien vérifier les deux égalités de la définition pour conclure.
(2) La proposition précédente nous autorise à parler du symétrique d’un élément lorsque celui-ci existe.
Exemple 1.1.14. Les éléments symétrisables de A(E, E) pour la composition sont les bijections de E
sur lui-même, encore appelées permutations de E.
9
Définition 1.1.15. On dit qu’un élément a de E est régulier à droite pour la loi ∗ si :
∀(x, y) ∈ E 2 , (x ∗ a = y ∗ a) ⇒ (x = y);
∀(x, y) ∈ E 2 , (a ∗ x = a ∗ y) ⇒ (x = y);
Si un élément est à la fois régulier à droite et à gauche, on dit simplement qu’il est régulier.
Exemple 1.1.16. Tout élément de N est régulier pour l’addition. Tout élément de N \ {0} est régulier
pour la multiplication.
Proposition 1.1.17. Si la loi ∗ de E est associative et possède un élément neutre, tout élément symétrisable
est régulier.
Preuve. Supposons que a est symétrisable dans E et soit a0 son symétrique. Soient (x, y) ∈ E 2 . Alors :
x ∗ a = y ∗ a ⇒ (x ∗ a) ∗ a0 = (y ∗ a) ∗ a0 ⇒ x ∗ (a ∗ a0 ) = y ∗ (a ∗ a0 ) ⇒ x ∗ e = y ∗ e ⇒ x = y.
Donc a est régulier à droite et on montre de même qu’il est régulier à gauche.
Remarque 1.1.18. Il est bien entendu que la réciproque de la proposition précédente est fausse puisque,
dans N par exemple, x + 2 = y + 2 ⇒ x = y pour tout (x, y) ∈ N2 et pourtant 2 n’a pas de symétrique
dans N.
Exemples 1.1.21. (1) (Z, +), (Q, +), (R, +), (C+), (R∗ , ×), (C∗ , ×) sont des groupes abéliens.
(2) ({−1, 1}, ×) est un groupe abélien.
(3) Si on note S(E) l’ensemble des permutations de E, (S(E), ◦) est un groupe non abélien dès que le
cardinal de E est strictement supérieur à 2.
b est un groupe mais (A(R, R), ◦) n’est pas un groupe. En revanche (S(R), ◦) est une partie
(4) (A(R, R), +)
de A(R, R) qui est un groupe.
(5) Si (P(E), ∪) et (P(E), ∩) ne sont pas des groupes, (P(E), ∆) est un groupe.
10
Propriétés
Proposition 1.1.22. Soit (G, ∗) un groupe. Alors :
(1) Il est non vide.
(2) Tout élément de G est régulier pour ∗.
(3) Pour tout (a, b) ∈ G2 , l’équation a ∗ x = b admet pour solution unique x = a−1 ∗ b.
(4) Pour tout (a, b) ∈ G2 , l’équation x ∗ a = b admet pour solution unique x = b ∗ a−1 .
(5) Pour tout a ∈ G, (a−1 )−1 = a.
(6) Pour tous a et b dans G, (a ∗ b)−1 = b−1 ∗ a−1 .
Preuve. (1) C’est évident puisque e ∈ G.
(2) Cela provient directement de la proposition 1.1.17.
(3) Si a ∗ x = b alors a−1 ∗ (a ∗ x) = (a−1 ∗ a) ∗ x = e ∗ x = x = a−1 ∗ b d’où l’existence et l’unicité de
la solution.
(4) La preuve est la même que pour (3).
(5) L’inverse de a est a−1 . En outre, comme a ∗ a−1 = e = a−1 ∗ a, on voit que a est l’inverse de a−1
ce qu signifie que (a−1 )−1 = a.
(6) Comme (a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ b−1 ) ∗ a−1 = a ∗ a−1 = e et que, de même, (b−1 ∗ a−1 ) ∗ (a ∗ b),
on en déduit le résultat.
Exponentiation
On souhaite adopter une notation particulière lorsque l’on calcule le composé d’un élément n fois par
lui-même pour n ∈ N. On pose par convention, a0 = e et a1 = a. Ensuite, a2 = a ∗ a puis par récurrence
an = an−1 ∗ a pour n ≥ 2.
Cette notation s’étend naturellement à tout entier relatif : si a−1 désigne l’inverse de a, on notera a−2
pour a−1 ∗ a−1 et a−(n+1) = a−n ∗ a−1 pour n ≥ 1.
Cette notation permet de retrouver les notations habituelles pour une loi multiplicative à savoir
Pour une loi additive, on note plutôt 0.a = 0 et n.a = (n − 1)a + a et −n.a = (−n + 1).a − a pour tout
n ∈ N.
1.1.3 Sous-groupes
Partie stable, loi induite
Définition 1.1.23. Soit (E, ∗) un ensemble muni d’une loi de composition interne et soit F une partie
de E. On dit que F est une partie stable de E si a ∗ b ∈ F pour tous a, b ∈ F . On dit aussi que F est
stable par ∗.
Proposition 1.1.24. Si F est stable par ∗, la restriction de ∗ à F × F est une application de F 2 dans
F . C’est donc une loi de composition interne appelée loi induite sur F par ∗.
Preuve. C’est clair par définition d’une partie stable.
Exemple 1.1.25. R− est stable par la loi + mais n’est pas stable par la loi ×.
11
Définition 1.1.26. Soit (G, .) un groupe. On appelle sous-groupe de G toute partie H de G stable par .
et qui, munie de la loi de composition interne . est un groupe.
Exemples 1.1.29. (1) Soient (G, .) un groupe et a ∈ G. On considère l’ensemble {an | n ∈ Z} que l’on
note hai. Alors hai est un sous-groupe de G.
(2) Si n ∈ Z, nZ = {nk | k ∈ Z} sont des sous-groupes de (Z, +). Réciproquement soit H un sous-groupe
de (Z, +) distinct de {0} : il existe alors x ∈ H que l’on peut supposer strictement positif (quitte à prendre
−x ∈ H). Alors H ∩ (N \ {0}) 6= ∅. Ce sous-ensemble étant non vide et inclus dans N, il possède un
minimum noté a ∈ H. Puisque H est un sous-groupe aZ = hai ⊂ H. Si y ∈ H, il existe q, r ∈ Z tels que
x = aq + r avec 0 ≤ r < a. Ainsi, r = x − aq ∈ aZ et r = 0 par minimalité de a. On en déduit que y ∈ aZ
puis que H = aZ. Ainsi les sous-groupes de (Z, +) sont les nZ, n ∈ Z.
12
Preuve. (1) L’ensemble H1 ∩ H2 est non vide car l’élément neutre de G en est un élément. De plus si
x, y ∈ H1 ∩ H2 alors x.y −1 ∈ H1 et x.y −1 ∈ H2 puisque H1 et H2 sont des sous-groupes de G donc
x.y −1 ∈ H1 ∩ H2 .
(2) Le sens indirect est évident puisque dans ce cas H1 ∪ H2 = H2 ou H1 ∪ H2 = H1 . Pour le sens
direct, faisons un raisonnement par l’absurde et supposons que H1 n’est pas inclus dans H2 et que H2
n’est pas inclus dans H1 . Soient x1 ∈ H1 \ H2 et x2 ∈ H2 \ H1 . Puisque H1 ∪ H2 est un sous-groupe de G,
x1 x2 ∈ H1 ∪ H2 . On peut supposer que y1 = x1 x2 ∈ H1 . Mais alors x2 = x1 −1 y1 ∈ H1 ce qui est absurde.
(3) L’ensemble considéré est évidemment non vide (il contient H1 et H2 ). Si x, y ∈ H1 + H2 , on écrit
x = h1 + h2 , y = h01 + h02 avec h1 , h01 ∈ H1 et h2 , h02 ∈ H2 . Alors
Remarques 1.1.31. (1) Dans l’assertion (3) de la proposition précédente, le sous-groupe H1 + H2 est
appelé somme des sous-groupes H1 et H2 .
(2) On peut montrer que aZ + bZ = pgcd(a, b) et que aZ ∩ bZ = ppcm(a, b)Z.
Remarque 1.1.33. En d’autres termes, un morphisme est une application entre deux ensembles munis
de lois de composition interne qui respectent la structure qu’elles leurs confèrent.
∗
Exemples 1.1.34. (1) L’application logarithme népérien ln de (R+ , ×) dans (R, +) est un morphisme.
(2) Soit a ∈ R∗ . L’application fa de (N, +) dans (R∗ , ×) telle que fa (n) = an est un morphisme.
Théorème 1.1.35 (Transfert). (1) Si f est un morphisme de (E, ∗) dans (F, ⊥) alors f (E) est une
partie stable de F pour ⊥. De plus f transporte la commutativité et l’associativité éventuelles de ∗ dans
(f (E), ⊥). Si ∗ a un élément neutre e dans E alors f (e) est élément neutre pour ⊥ dans f (E). Si ∗ est
associative et a ∈ E a un symétrique a−1 pour ∗ dans E alors f (a) a un symétrique pour ⊥ dans f (E)
qui est f (a−1 ).
(2) Si (G, .) est un groupe et si f est un morphisme surjectif de (G, .) dans (E, ∗) alors (E, ∗) est un
groupe. De plus, si G est abélien, E est abélien.
Preuve. (1) Toutes ces propriétés proviennent du fait que f est un morphisme.
(2) Si de plus G est un groupe et f est surjectif alors E = f (G) et on vient de voir en (1) que (f (G), ∗)
est un groupe qui est abélien si G l’est.
13
Morphismes de groupes
Définition 1.1.36. Soient (G, .) et (G0 , ∗) deux groupes. Une application f : G → G0 est un morphisme
de groupes (ou un homomorphisme de groupes) si f (x.y) = f (x) ∗ f (y) pour tous x, y ∈ G. Si f est un
morphisme de groupes et si e0 est l’élément neutre de G0 , on définit son noyau par
ker f = {x ∈ G | f (x) = e0 }
(on a utilisé (1) dans la deuxième égalité et le fait que H1 soit un sous-groupe).
(3) Si f est injectif, et si f (x) = e0 alors, comme on sait déjà que f (e) = e0 on en déduit forcément que
x = e puis que ker f = {e}. Réciproquement, si ker f = {e}, supposons que f (x) = f (y) pour x, y ∈ G.
Alors, f (x.y −1 ) = f (x) ∗ f (y −1 ) = f (x) ∗ f (y)−1 = e0 donc x.y −1 ∈ ker f ce qui implique que x = y et que
l’application f est injective.
(4) C’est évident par définition de la surjectivité.
(5) Si f est bijectif, f −1 est une application. Soient x0 , y 0 ∈ G0 et écrivons x0 = f (x) et y 0 = f (y). On
a alors
Isomorphisme, automorphisme
Définition 1.1.38. Lorsque f : G → G0 est un morphisme de groupes bijectif, on dit que f est un
isomorphisme de groupes, que G et G0 sont isomorphes et on note G ' G0 . Si de plus G = G0 , on dit
que f est un automorphisme de groupes de G. L’ensemble des automorphismes de groupes de G est noté
Aut(G).
14
Remarque 1.1.39. La relation ' définie sur l’ensemble des groupes est une relation d’équivalence. Les
classes d’équivalence pour cette relation sont appelées classes d’isomorphie.
Exemples
Exemples 1.1.41. (1) Si H est un sous-groupe du groupe G, l’inclusion H ⊂ G induit un morphisme de
groupes injectif non surjectif de H dans G (sauf si H = G).
(2) Si a ∈ R, alors x 7→ ax est un morphisme de groupes de (R, +) dans lui-même. C’est un automorphisme
si et seulement si a 6= 0. Ceci se généralise à n’importe quel corps.
(3) Si G est un groupe et a ∈ G, l’application x 7→ ax (resp. x 7→ xa) est appelée translation à gauche
(resp. translation à droite) par a. C’est une bijection de G dans G mais (sauf cas triviaux) ça n’est pas
un morphisme de groupes.
(4) Si G est un groupe abélien et n ∈ N \ {0}, l’application x 7→ xn est un morphisme de groupes mais, en
général, cela n’est pas le cas si G n’est pas abélien.
∗
(5) L’application exponentielle exp : (R, +) → (R+ , .) est un isomorphisme de groupes. Le morphisme de
∗
groupes réciproque est l’application logarithme népérien ln : (R+ , .) → (R, +). En revanche, l’application
z 7→ exp z est un morphisme de groupes surjectif mais non injectif de (C, +) dans (C∗ , .).
(6) L’application (C∗ , .) → (R+∗
, .) : z 7→ |z| est un morphisme de groupes. Ce morphisme est surjectif mais
non injectif : son noyau est en fait le cercle unité S1 de C (on retrouve ainsi que S1 est un sous-groupe de
C∗ d’après le théorème1.1.37(2)).
(7) (C∗ , .) est isomorphe à (R+
∗ z
, .) × (S1 , .) par l’application z 7→ (|z|, |z| ). Ce n’est pas autre chose que
la propriété habituelle “un nombre complexe est défini par son module et son argument; pour multiplier
deux nombres complexes, on multiplie leurs modules et on additionne leurs arguments modulo 2π”.
(8) L’ensemble A = {0, 1} est un groupe quand on le munit de la loi ∗ définie par la table suivante :
* 0 1
0 0 1
1 1 0
1.2 Anneaux
1.2.1 Définitions
Définition 1.2.1. On appelle anneau tout ensemble A muni de deux lois de composition interne notées
en général + et . qui vérifient :
(1) (A, +) est un groupe abélien.
15
(2) La loi . est associative.
(3) La loi . est distributive par rapport à + c’est à dire,
pour tout(x, y, z) ∈ A3 .
(4) . possède un élément neutre appelé élément unité ou unité de A et noté 1A .
Si de plus, la loi . est commutative, l’anneau (A, +, .) est qualifié d’anneau commutatif.
Définition 1.2.4. On appelle élément inversible d’un anneau A un élément x ∈ A qui a un symétrique
pour la loi . c’est à dire qu’il existe x0 ∈ A vérifiant
x.x0 = x0 .x = 1A .
Attention. Si Z∗ et R∗ ont un sens, N∗ n’en a en revanche aucun puisque N n’est pas un anneau.
16
1.2.3 Morphismes d’anneaux
Définition 1.2.8. Soient A et B deux anneaux. On appelle morphisme d’anneaux toute application f de
A dans B qui conserve la structure d’anneau, c’est à dire telle que
1. f (a + a0 ) = f (a) + f (a0 );
3. f (1A ) = 1B ;
pour tous a, a0 ∈ A. Si de plus f est bijective, on dit que f est un isomorphisme d’anneaux.
Remarque 1.2.9. Ainsi, un morphisme d’anneaux est un morphisme de groupes pour la loi + et un
morphisme pour la loi × qui envoie l’élément unité de A sur celui de B.
1.2.4 Intégrité
Proposition 1.2.10. Dans tout anneau, on a les propriétés suivantes :
(1) a.0 = 0.a = 0 pour tout a ∈ A.
(2) a.(b − c) = ab − ac et (b − c).a = ba − ca pour tous a, , c ∈ A.
¯
Preuve. (1) En effet, a.(0 + 0) = a.0 = a.0 = a.0. Or (A, +) est un groupe donc tout élément est régulier
pour l’addition (1.1.22(2)) ce qui implique que a.0 = 0 et de même 0.a = 0.
(2) On a
0 = 0.a = (b + (−b))a = ba + (−b)a, 0 = ((−b) + b)a = (−b)a + ba.
ce qui signifie que (−b)a est l’opposé de ba. On en déduit les propriétés annoncées.
Définition 1.2.11. On dit que deux éléments d’un anneau sont diviseurs de zéro si leur produit est nul
sans qu’aucun ne soit nul. On dit qu’un anneau est intègre s’il est différent de {0A } et s’il n’a pas de
diviseurs de zéro.
Exemples 1.2.12. (1) Z et K[X] sont des anneaux intègres.
(2) Tout corps est un anneau intègre.
(3) (P(E), ∆, ∩) n’est pas un anneau intègre.
17
Chapitre 2
(A, B) (symétrie), si (A, B) est équipollent à (C, D) et (C, D) est équipollent à (E, F ) alors (A, B) est équipollent à (E, F ).
18
−−→ −−−→ →
− →
−
point M 0 = (λx, λy). Cela permet de définir λOM = OM 0 = λx i + λy j .
On a donc muni l’ensemble des vecteurs d’une loi notée + et d’une loi notée . qui satisfont entre autre
λ.(µ.→
−
u ) = (λ.µ).→
−
u , λ.(→
−
u +→
−
v ) = λ.→
−
u + λ.→
−
v , (λ + µ).→
−
u = λ.→
−
u + λ.→
−
u , 1.→
−
u =→
−
u (∗)
où on définit λ(z, t) := (λz, λt). Si on pose de plus (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ), on vérifie facilement
que + définit une loi de composition interne sur S et que la multiplication par un scalaire définit une
application de R × S dans S. Ces deux opérations vérifient encore les formules (∗), et toute solution s’écrit
en fonction de la solution particulière (2, 3).
En procédant par la méthode de Gauss, on trouve qu’un triplet (x, y, z) ∈ R3 est dans T si et seulement
si il existe un réel µ tel que (x, y, z) = (−4µ, µ, 5µ). En définissant la somme et la multiplication comme
ci-dessus, on voit une nouvelle fois que la somme de deux solutions est une solution et que le produit d’une
solution par un réel est encore une solution. Ces opérations sur l’ensemble T des solutions vérifient encore
(∗), et toute solution s’écrit en fonction de la solution particulière (−4, 1, 5).
19
2.1.4 L’ensemble des solutions d’une équation différentielle linéaire homogène
d’ordre 1
Considérons l’ensemble des fonctions y définies, continues et dérivables sur R qui avec les notations
précédentes vérifient y 0 = ay où a est un réel fixé.
Si y1 et y2 sont solutions et si λ ∈ R alors les fonctions y1 +y b 2 et λb.y1 sont des fonctions définies,
continues et dérivables sur R dont on vérifie aisément qu’elles sont solutions de l’équation différentielle.
Encore une fois, les opérations définies satisfont à (∗) et toute solution est produit de la solution particulière
x 7→ exp(ax) par un réel.
2.2.1 Définitions
Loi de composition externe
Définition 2.2.1. Une loi de composition externe par K sur un ensemble E est une application de K × E
dans E. Si E est muni d’une loi de composition externe par K notée . et si F est un sous-ensemble de
E, F est stable par la loi externe si λ.x ∈ F pour tout λ ∈ K et pour tout x ∈ F . La loi . est alors dite
induite par . sur F .
Exemple 2.2.2. Dans chacun des exemples de la section 2.1, la loi qualifiée de multiplication par un
scalaire est une loi de composition externe de R sur l’ensemble considéré.
20
2.2.2 Exemples fondamentaux
Le corps K
Le corps K muni de son addition et de sa multiplication habituelles est un espace vectoriel sur lui-même.
La loi de multiplication est bien une loi de composition externe par K puisque c’est une application de
K 2 dans K. On vérifie que les lois satisfont aux axiomes de la définition précédente.
b (x0 , y 0 ) = (x + x0 , y + y 0 )
(x, y) + et λ b. (x, y) = (λ.x, λ.y),
pour tous (x, y), (x0 , y 0 ) ∈ E × F et λ ∈ K. Ces lois munissent E × F d’une structure d’espace vectoriel
appelé espace vectoriel produit. Le vecteur nul 0E×F est (0E , 0F ) et l’opposé de (x, y) est (−x, −y).
Cette construction se généralise naturellement à un produit cartésien de n espaces vectoriels E1 , · · · , En
sur le même corps K. En particulier, si E1 = · · · = En , on définit le K-espace vectoriel E n . Par exemple
Rn est un R-espace vectoriel et Cn est un C-espace vectoriel.
b , b. , ×
Alors (A(K, K), + b ) est une K-algèbre.
21
Algèbre des polynômes
Définition 2.2.7. On appelle polynôme à coefficients dans K toute suite d’éléments de K nulle à partir
d’un certain rang. On note K[X] l’ensemble des polynômes à coefficients dans K.
Définissons une loi de composition interne + sur K[X] : si P = (an )n∈N , Q = (bn )n∈N sont deux
éléments de K[X], on pose P + Q = (an + bn )n∈N . Comme (an )n∈N et (bn )n∈N sont nulles à partir d’un
certain rang, il en va de même pour (an + bn )n∈N et la loi est bien interne. Avec les mêmes notations, on
peut P définir une autre loi de composition interne par P × Q = (cn )n∈N ∈ K[X] où pour chaque n ∈ N,
n
cn = p=0 ap bn−p .
On note X = (0, 1, 0, 0, · · · ) ∈ K[X] que l’on appelle indéterminée de K[X]. On constate alors que
X n = (0, · · · , 0, 1, 0, 0, · · · ) où le 1 est en n-ième position. Enfin on appelle degré de P = (an )n∈N 6= (0)n∈N
l’entier deg P := max{n ∈ N | an 6= 0} et on pose deg((0)n∈N ) = −∞ où −∞ est un symbole satisfaisant
−∞ < n et −∞ + n = −∞ pour tout entier n. On constate alors que l’on a
deg
XP
P = an X n ,
n=0
et λ ∈ K. On vérifie aisément que l’ensemble (K[X], +, .) est un K-espace vectoriel puis que (K[X], +, ., ×)
est une K-algèbre.
22
(4) Si u ∈ E alors
(−1).u + u = (−1).u + 1.u = (−1 + 1).u = 0K .u = 0E .
On en déduit que (−1).u = −u.
(5) Avec les notations de (4), on a, d’après (4), (−µ).u = (−1.µ).u = (−1).(µ.u) = −µ.u. Ainsi,
(λ − µ).u = λ.u + (−µ).u = λ.u − µ.u.
(6) On a :
λ.(u − v) = λ.u + λ.(−v) = λ.u + (λ.(−1)).v = λ.u + (−1).(λ.v) = λ.u − λ.v.
Attention. On a vu en 1.1.3 qu’une partie stable par la loi interne d’un groupe n’est pas forcément un
groupe. En revanche, toute partie stable par les deux lois d’un espace vectoriel est un espace vectoriel :
pour prouver que F muni de la loi interne est un groupe, on se sert du fait qu’il est aussi muni d’une loi
externe stable.
Théorème 2.3.3. Une partie F d’un K-espace vectoriel est un sous-espace vectoriel si et seulement si
elle est non vide et stable par combinaison linéaire, c’est à dire si
∀λ, µ ∈ K, ∀x, y ∈ F, λ.x + µ.y ∈ F.
Cela équivaut encore à ce que F est non vide et
∀λ, ∈ K, ∀x, y ∈ F, λ.x + y ∈ F.
23
Preuve. Nous numérotons (1), (2) et (3) les trois propositions qui apparaissent chronologiquement dans
l’énoncé du théorème.
Si (1) est vraie alors λ.x ∈ F et µ.y ∈ F pour tous λ, µ ∈ K et pour tous x, y ∈ F (par stabilité de
la loi externe). Par stabilité de la loi interne, on a alors λ.x + µ.y ∈ F donc (2) est vraie.
Si (2) est vraie alors (3) est vraie (il suffit de prendre µ = 1).
Enfin, supposons que (3) est vraie. En prenant λ = 1, on en déduit que 1.x + y = x + y ∈ F pour tous
x, y ∈ F donc la loi interne est stable sur F . Comme F est non vide, si x ∈ F alors 0K .x = 0E ∈ F . Si
on prend alors y = 0E ∈ F , on en déduit que λ.x + 0E = λ.x ∈ F pour tout λ ∈ K et tout x ∈ F . Ainsi
F est un sous-espace vectoriel de E.
2.3.2 Exemples
Il est bien plus facile de montrer qu’un ensemble est un sous-espace vectoriel d’un ensemble qu’on sait
déjà être un espace vectoriel plutôt que de montrer directement que c’est un espace vectoriel. Donnons
quelques exemples importants que l’on peut vérifier aisément.
Exemples 2.3.4. (1) Pour tout K-espace vectoriel E, {0E } et E sont des sous-espaces vectoriels de E
qui sont respectivement le plus petit et le plus grand sous-espace vectoriel inclus dans E.
(2) Dans les exemples 2.1.2, le premier exemple est un sous-espace vectoriel de R2 et le second de R3 .
Plus généralement, l’ensemble des solutions d’un système linéaire de n équations à p inconnues est un
sous-espace vectoriel de Rp .
(3) L’ensemble des fonctions continues d’un intervalle I dans R est un sous-espace vectoriel de A(I, R)
noté C(I, R). L’ensemble des fonctions dérivables sur I est un sous-espace vectoriel de C(I, R) de même
que l’ensemble des fonctions de classe C n ou de classe C ∞ sur I respectivement notés C n (I, R) et C ∞ (I, R).
(4) On montre aussi que l’espace des fonctions admettant une primitive sur un intervalle I, l’espace des
fonctions bornées sur I, l’espace des fonctions en escalier sur I ou l’espace des fonctions n fois continûment
dérivables saitisfaisant à une équation différentielle linéaire à l’ordre n sans second membre donnée sont
des sous-espaces vectoriels de A(I, R).
(5) On a vu que l’ensemble des suites réelles est un espace vectoriel (c’est A(N, R)). Alors l’espace C0
des suites convergentes, l’espace desP
suites arithmétiques, l’espace l∞ des suites bornées, les espaces lp des
suites (Un )n∈N telles que la somme n≥0 |Un |p soit finie (ce qui signifie que la suite SN des sommes finies
PN p
n=0 |Un | a une limite finie) sont des sous-espaces vectoriels de l’espace des suites réelles.
(6) L’ensemble des polynômes à coefficients dans K de degré inférieur ou égal à n, n fixé est un sous-espace
vectoriel de K[X] noté Kn [X].
(7) Si E1 et E2 sont des K-espaces vectoriels alors {0E1 }×E2 et E1 ×{0E2 } sont des sous-espaces vectoriels
de E1 × E2 . Plus généralement, si F1 et F2 sont des sous-espaces vectoriels respectifs de E1 et E2 alors
F1 × F2 est un sous-espace vectoriel de E1 × E2 , propriété qui se généralise immédiatement au produit de
n sous-espaces vectoriels respectifs de n espaces vectoriels sur K.
24
Preuve. Soit (Ei )i∈I une famille de sous-espaces vectoriels de E. Alors 0E Test dans chaque Ei donc il
est dans l’intersection des Ei , qui est donc non vide. Soient λ ∈ K et x, y ∈ i∈I Ei . Pour chaque
T i ∈ I,
x, y ∈ Ei . Comme les lois + et . sont stables sur Ei pour tout i ∈ I, on en déduit que λ.x + y ∈ i∈I Ei
qui est donc un sous-espace vectoriel de E par le théorème 2.3.3.
D’après 2.3.5, F est un sous-espace vectoriel de E qui contient X puisque chaque G est un sous-espace
vectoriel qui contient X.
Si G0 est un sous-espace vectoriel qui contient X alors G ∈ S donc F ⊂ G. Ainsi F est plus petit que
tous les autres sous-espaces vectoriels de E qui contiennent X.
Définition 2.3.7. Soit X une partie non vide d’un espace vectoriel E. Le plus petit sous-espace vectoriel
contenant X (qui existe et est unique d’après la proposition précédente) est appelé sous-espace vectoriel
engendré par X et noté hXi ou encore Vect(X). Si X = {x1 · · · , xn } est un ensemble fini, on note
hXi := hx1 , · · · , xn i.
Remarques 2.3.8. (1) Tout sous-espace vectoriel de E contient {0E } et c’est un sous-espace vectoriel de
E donc {0E } est le plus petit sous-espace vectoriel de E donc également le plus petit contenant la partie
vide. Ainsi, Vect(∅) = {0E }.
(2) Si x ∈ E alors hxi = K.x. En effet, K.x est un sous-espace vectoriel de E qui contient 1.x = x et si
G est un sous-espace vectoriel qui contient x, il contient tous les λ.x par stabilité de la loi externe donc il
contient K.x.
(3) Si A et B sont deux parties de E telles que A ⊂ B alors Vect(A) ⊂ Vect(B).
où les λi sont des scalaires. Par convention, une combinaison linéaire de la famille à 0 élément ne peut être
que le vecteur nul. Si (xi )i∈I est une famille quelconque d’éléments de E, on appelle combinaison linéaire
de cette famille toute combinaison linéaire d’une sous-famille finie de (xi )i∈I .
25
Remarques 2.3.10. (1) S’il n’y a qu’un élément x dans la famille considérée, les combinaisons linéaires
de ce vecteur sont les λ.x, λ ∈ K, c’est à dire que l’ensemble des combinaisons linéaires de x est hxi = K.x.
Nous allons voir que ceci se généralise.
(2) Une partie de E est un sous-espace vectoriel de E si et seulement si elle est stable par combinaison
linéaire de familles finies. En effet, si elle est stable pour une famille finie quelconque de vecteurs, c’est
en particulier vrai pour deux vecteurs donc c’est un sous-espace vectoriel de E par le théorème 2.3.3.
Réciproquement, si c’est un sous-espace vectoriel, la partie est stable par combinaison linéaire de toute
famille de deux vecteurs par le théorème 2.3.3 et une récurrence immédiate prouve le résultat pour toute
famille finie (en utilisant l’associativité de la loi interne).
Proposition 2.3.11. Si X est une partie d’un K-espace vectoriel E, alors Vect(X) est l’ensemble des
combinaisons linéaires d’éléments de X.
Preuve. Tout sous-espace vectoriel de E contenant X contient toute combinaison linéaire d’un nombre
fini de vecteurs de X (puisqu’il est stable par combinaisons linéaires). Il suffit donc de montrer que
l’ensemble des combinaisons linéaires d’éléments de X est un sous-espace vectoriel de E (puisqu’alors c’est
un sous-espace vectoriel contenant X plus petit que tous les sous-espaces vectoriels contenant X).
Si x et y sont combinaisons linéaires d’éléments de X, on a
k
X k+r
X
x= λi .xi et y= λj xj ,
i=1 j=k+1
sont des combinaisons linéaires d’éléments de X . Comme 0E est une combinaison linéaire, cet ensemble
est non vide, donc est un sous-espace vectoriel de E par 2.3.3.
Exemples 2.3.12. (1) Dans la pratique, pour montrer qu’une partie d’un espace vectoriel est un sous-
espace vectoriel, on pourra très souvent montrer que c’est l’ensemble des combinaisons linéaires des
éléments d’une famille donnée.
(2) Dans l’espace vectoriel A(R, R), Vect({x 7→ xn , n ∈ N}) est l’ensemble des fonctions polynômiales qui
est donc un sous-espace vectoriel de A(R, R).
(3) Soit F = {(x, y, z) ∈ R3 | x + y + z = 0}. Alors
u = (x, y, z) ∈ F ⇐⇒ (x, y, z) = (x, y, −x − y) = x.(1, 0, −1) + y.(0, 1, −1).
Donc F = Vect(v, w) avec v = (1, 0, −1) et w = (0, 1, −1). C’est donc un sous-espace vectoriel de R3
puisque c’est l’ensemble des combinaisons linéaires de v et w. On peut évidemment montrer de façon
directe que F est un sous-espace vectoriel de R3 .
26
Proposition 2.3.13. Soient n ∈ N et (Fi )1≤i≤n une famille de sous-espaces vectoriels de E. Le sous-
espace vectoriel engendré
Pn par l’union des sous-espaces vectoriels Fi , i = 1, · · · , n est l’ensemble, noté
F1 + · · · + Fn ou i=1 Fi appelé somme, formé des combinaisons linéaires des familles finies d’éléments
des Fi .
Sn
Preuve. Il suffit d’appliquer la proposition 2.3.11 à la partie X = i=1 Fi .
Plus précisément :
Proposition 2.3.14. Soit (Fi )i∈I une famille de sous-espaces vectoriels de EP alors le sous-espace vectoriel
engendré par l’union des sous-espaces vectoriels F i , i ∈ I est l’ensemble noté i∈I Fi des éléments de type
x = j∈I yj avec ∀j ∈ I, yj ∈ Fj et les yj presque tous nuls2 . Ce sous-espace est appelé somme des
P
sous-espaces Fi , i ∈ I. En particulier, si I = {1, · · · , n}, on a
n
X
Fi = F1 + · · · + Fn = {y1 + · · · + yn | yi ∈ Fi }.
i=1
Sommes directes
Définition 2.3.15. On reprend les notations de la proposition 2.3.14. La somme des sous-espaces P Fi , i ∈ I
est dite directe si l’écriture de tout élément de la somme est unique, c’est à dire si pour tout
P x ∈ i∈I Fi ,
il existe une unique famille (xi )i∈I avec xi ∈ Fi pour tout i ∈ I presque tous nuls et x = i∈I xi . Dans
ce cas, lorsque I = {1, · · · , n}, la somme est notée F1 ⊕ · · · ⊕ Fn .
Proposition 2.3.16. La somme F1 +· · ·+Fk est directe si et seulement si 0E a une unique décomposition
dans cette somme, c’est à dire si et seulement si
∀(x1 , · · · , xk ) ∈ F1 × · · · × Fk , ( 0E = x1 + · · · + xk =⇒ x1 = · · · = xk = 0E ).
Preuve. Si la somme est directe alors 0E a une unique décomposition qui est 0E = 0E + · · · + 0E (k fois).
Pk Pk
Réciproquement, soit x ∈ F1 + · · · + Fk ayant deux décompositions, x = i=1 xi et x = i=1 x0i avec
xi , x0i ∈ Fi pour i = 1, · · · , k. Mais alors
k
X
(xi − x0i ) = 0E ,
i=1
27
donc 0E a une unique décomposition ce qui signifie que la somme est directe d’après la proposition 2.3.16.
Attention. Le corollaire précédent n’est pas vrai pour trois sous-espaces vectoriels : plus précisément, il
n’est pas vrai de dire que la somme F1 + F2 + F3 est directe si et seulement si les sous-espaces vectoriels
sont deux à deux d’intersection réduite au vecteur nul. Considérons F1 = h(1, 1, 0)i, F2 = h(1, 0, 0)i et
F3 = h(0, 1, 0)i qui sont des sous-espaces vectoriels de R3 . Ces sous-espaces vectoriels ont deux à deux
une intersection triviale et pourtant 0E a deux décompositions distinctes dans la somme de ces trois
sous-espaces qui n’est donc pas directe : 0E = 0E + 0E + 0E et 0E = (1, 1, 0) − (1, 0, 0) − (0, 1, 0).
Définition 2.3.19. Deux sous-espaces vectoriels E1 et E2 de E sont dits supplémentaires si E est somme
directe de E1 et E2 c’est à dire
E1 ⊕ E2 = E ⇐⇒ ∀x
∈ E, ∃x1 ∈ E1 , ∃x2 ∈ E2 uniques, x = x1 + x2
E1 + E2 = E .
⇐⇒
E1 ∩ E2 = {0E }
Attention. Le complémentaire d’un sous-espace n’en est jamais un supplémentaire. Du reste, ça n’est
même pas un sous-espace vectoriel puisqu’il ne contient pas 0E .
Exemples 2.3.20. (1) Les R-espaces vectoriels R et R.i sont supplémentaires dans le R-espace vectoriel
C. Le sous-espace vectoriel R.j est un autre supplémentaire de R dans C. Un sous-espace peut donc avoir
plusieurs supplémentaires : en fait, si le corps K est infini, il en existe toujours une infinité.
(2) K.(1, 0) et K.(1, 1) sont supplémentaires dans K 2 de même que K.(1, 0) et K.(1, 1).
(3) Les sous-espaces K.(1, 1, 0) et K.(0, 1, 0) sont en somme directe dans K 3 mais ne sont pas supplémentaires.
(4) h(1, 1, 0), (0, 1, 0)i + h(0, 1, 0), (0, 0, 1)i = K 3 mais la somme n’est pas directe : ils ne sont donc pas
supplémentaires dans K 3 .
(5) Les sous-espaces vectoriels P et I des fonctions paires et impaires sont supplémentaires dans A(R, R).
En effet, une fonction à la fois paire et impaire est la fonction nulle donc P ∩ I = {0A(R,R) }. De plus
P + I ⊂ A(R, R) et réciproquement si f ∈ A(R, R), on écrit f = g + h où
28
Remarque 2.4.2. Toute partie S de E est trivialement famille génératrice du sous-espace vectoriel qu’elle
engendre.
Proposition 2.4.3. Une famille S est un système générateur de E si et seulement si tout vecteur de E
est combinaison linéaire d’un nombre fini de vecteurs de S. Toute sur-famille d’un système générateur de
E est un système générateur de E.
Preuve. L’équivalence est une conséquence directe de la proposition 2.3.11. La seconde assertion est
claire.
29
On dit aussi que les vecteurs de ce système sont linéairement indépendants. Une famille infinie de vecteurs
est libre si chacune de ces sous-familles finies est libre. Une famille qui n’est pas libre est dite liée.
Remarque 2.4.8. Un système de vecteurs est lié s’il n’est pas libre soit si et seulement si
Les vecteurs d’un système lié sont dits linéairement dépendants et la relation (1) est appelée une relation
de dépendance linéaire.
Exemples 2.4.9. (1) Si on considère les vecteurs u1 = (1, 2, −3), u2 = (−2, −4, 6) et u3 = (1, 0, 1) de
R3 , on remarque que u2 = −2u1 d’où 2u1 + u2 = 0E est une relation de dépendance linéaire. La famille
{u1 , u2 , u3 } est donc une famille liée.
(2) Soit w ∈ R∗ fixé. Montrons que le système {u, v} de l’espace vectoriel A(R, R) est libre où u(t) = cos(ωt)
et v(t) = sin(ωt) pour tout t ∈ R. Soient (λ, µ) ∈ R2 tels que λ.u + µ.v = 0. Cela signifie que, pour tout
t ∈ R, on a
λ cos(ωt) + µ sin(ωt) = 0.
2π
En particulier, pour t = 0, on a λ = 0. Pour t = , on trouve µ = 0 et le système est libre.
ω
Proposition 2.4.10. (1) La famille {u} à un élément est libre si et seulement si u 6= 0E .
(2) Toute famille contenant une famille liée est liée.
(3) Toute famille incluse dans une famille libre est libre.
Preuve. (1) Pour tout λ ∈ K, λ.u = 0E si et seulement si λ = 0 ou u = 0E par 2.2.8(1). Si u 6= 0E alors
λ = 0 et {u} est libre. Sinon, u = 0E et comme 1.0E = 0E (2.2.8(2)) la famille {u} est liée.
(2) Soit la famille {u1 , · · · , up , up+1 , · · · , um } de E et supposons que la famille {u1 , · · · , up } soit liée.
Alors il existe α1 ∈ K, · · · , αp ∈ K non tous nuls (quitte à échanger les vecteurs, supposons α1 6= 0) tels
que α1 .u1 + · · · + αp .up = 0E . La combinaison α1 .u1 + · · · + αp .up + 0.up+1 + · · · + 0.um est nulle sans que
tous les coefficients soient nuls ce qui prouve que le système de départ est lié.
(3) D’après (2), la contraposée de (3) est vraie donc (3) est vraie.
Théorème 2.4.11 (Caractérisation d’une famille liée). La famille {u1 , · · · , up } de vecteurs d’un K-espace
vectoriel E est liée si et seulement si un au moins des ui est combinaison linéaire des p − 1 autres.
Preuve. Le fait que la famille {u1 , · · · , up } est liée équivaut à l’existence de λi 6= 0 tel que λ1 .u1 + · · · +
1
λp .up = 0E . Quitte à renuméroter, supposons que λp 6= 0. Alors existe et
λp
λ1 λp−1
up = − .u1 − · · · − .up−1 .
λp λp
Réciproquement, si ui est combinaison linéaire des uj , j 6= i,
et α1 .u1 + · · · + αi−1 .ui−1 − ui + αi+1 .ui+1 + · · · + αp .up = 0E . Comme le coefficient de ui est −1, la famille
est liée.
Exemples 2.4.12. (1) Toute famille contenant le vecteur nul est liée.
(2) La famille {(1, 1), (1, 0), (0, 1)} est liée mais ses sous-familles de deux vecteurs sont libres.
30
Proposition 2.4.13. Si {u1 , · · · , up } est une famille libre de E et {u1 , · · · , up , v} est une famille liée de
E alors v est combinaison linéaire des (ui )i=1,··· ,p .
Preuve. On peut écrire λ1 .u1 + · · · + λp .up + λ.v = 0E et l’un des λi est non nul ou λ est non nul. Si
λ = 0, l’un des λi est non nul, ce qui contredit l’hypothèse. Donc λ 6= 0 et
p
1X
v=− λi .ui .
λ i=1
Définition 2.4.14. (1) Deux vecteurs u et v de E sont dits colinéaires s’il existe λ ∈ K tel que v = λ.u.
(2) Trois vecteurs u, v et w de E sont coplanaires s’il existe (λ, µ) ∈ K 2 tels que w = λ.u + µ.v.
Corollaire 2.4.15. (1) Soient u et v deux vecteurs non nuls. Ils sont liés si et seulement si ils sont
colinéaires.
(2) Soient u, v et w trois vecteurs non nuls. Ils sont liés si et seulement si ils sont coplanaires.
2.4.4 Bases
Par définition, si S est un système générateur, tout vecteur de E peut se décomposer selon les vecteurs de
S, mais la décomposition obtenue n’est pas nécessairement unique. Intéressons-nous à ce cas.
Définition 2.4.16. Un système générateur de E tel que tout vecteur de E ait une décomposition unique
selon ce système est appelé une base de E.
Proposition 2.4.17. Un système de E est une base si et seulement si c’est un système générateur et
libre.
Preuve. Si un système S est une base, il est générateur et 0E a une décomposition unique selon ce
système donc S est libre.
Réciproquement, si le système S = {xi | i ∈ I} est générateur et libre, 0E a une décomposition unique
selon les vecteurs de ce système. D’après la proposition 2.3.16, les espaces K.xi pour i ∈ I sont en somme
directe ce qui prouve que ce système est une base.
Exemples 2.4.18. (1) Le système {1} est une K-base du K-espace vectoriel K.
(2) Soit ei le vecteur de K n dont toutes les composantes sont nulles, sauf la i-ième qui vaut 1. Alors
{e1 , · · · , en } est une base de K n appelée base canonique de K n .
(3) Le système {1, i} est une base du R-espace vectoriel C.
(4) Le système infini {1, X, X 2 , · · · , X m , · · · } est une base de K[X] appelée base canonique. Le système
{1, X, X 2 , · · · , X n } est une base du K-espace vectoriel Kn [X] encore appelée base canonique.
(5) On considère l’application numérique χa de A(R, R) qui est nulle en tout point de R sauf en a ∈ R où
elle vaut 1. Tout vecteur f ∈ A(R, R) s’écrit de manière unique
X
f= f (a).χa .
a∈R
Alors (χa )a∈R est une base (non dénombrable) de A(R, R).
31
Définition 2.4.19. Si B = (ei )i∈I est une base de E l’unique famille de scalaires (xij )j∈{1,··· ,m} telle que
m
X
u= x ij e ij
j=1
Remarques 2.4.20. (1) Soient B la base canonique de R3 et B 0 = (u1 , u2 , u3 ) une autre base de R3 où
u1 = (1, 0, 0), u2 = (1, 1, 0) et u3 = (1, 1, 1) Alors le vecteur (1, 2, 3) a pour coordonnées
1 −1
(1, 2, 3)|B : 2 ; (1, 2, 3)|B0 : −1 .
3 3
(2) Le vecteur 0E est générateur de {0E }. Mais il n’y a pas de base dans cet espace vectoriel car 0E admet
une infinité de décomposition selon lui-même, 0E = 1.0E = a.0E pour tout a ∈ K ∗ .
(3) Un système de vecteurs S est libre si et seulement si S est une base du sous-espace vectoriel Vect(S).
32
Théorème 2.5.2 (Existence de base en type fini). Dans tout espace vectoriel de type fini distinct de {0E },
il existe une base.
Preuve. Il suffit d’appliquer le théorème précédent avec la famille génératrice finie de E et la famille libre
formée par un vecteur non nul quelconque.
Corollaire 2.5.3. (1) De toute famille génératrice finie d’un espace vectoriel de type fini, on peut extraire
une base.
(2) Toute famille libre d’un espace vectoriel de type fini peut être complétée en une base.
Lemme 2.5.4 (Lemme de Zorn). Tout ensemble ordonné, inductif, non vide admet un élément maximal.
Maintenant, on peut prouver le résultat annoncé :
Théorème 2.5.5 (Existence de bases). Tout espace vectoriel E 6= {0E } sur un corps K admet une base.
Preuve. Soit X une partie génératrice de E (par exemple l’espace tout entier). On note I l’ensemble
des parties K-libres de X. Soit L une partie totalement ordonnée de I (que l’on peut supposer être une
chaı̂ne d’éléments, c’est à dire une suite d’éléments croissante pour l’inclusion) et posons
[
L= L.
L∈L
On va montrer que L ∈ I
Pn
Si on a i=1 ai .xi = 0E pour xi ∈ L et ai ∈ K alors il existe i0 tel que Li ⊂ Li0 pour i = 1, · · · , n
avec xi ∈ Li . Cela signifie donc que a1 = · · · = an = 0K et on a bien L ⊂ I. Ainsi le sous-ensemble L
admet un majorant qui est L.
L’ensemble I est non vide, inductif donc admet un élément maximal B d’après le lemme de Zorn 2.5.4.
Tout d’abord, B ∈ I donc est K-libre. Pour montrer que B engendre l’espace E, il suffit de montrer qu’elle
engendre X (puisque X engendre E).
Soit x ∈ X. Si x ∈ B alors x = 1.x est une combinaison linéaire d’éléments de X. Sinon, B ∪ {x} ⊂ X
contient strictement B donc n’est pas dans I par maximalité : cela signifie que B ∪ {x} n’est pas K-libre
donc elle est liée. On a
m
X
λj .bj + λ.x, λ, λj ∈ K, bj ∈ B, j = 1, · · · , m, m ∈ N
j=1
33
et λ1 , · · · , λm , λ non tous nuls. Mais λ 6= 0 car sinon, on aurait aussi λ1 = · · · = λm = 0K puisque B est
K-libre. On peut donc écrire
Xm
x= (−λ−1 λj )bj ,
j=1
2.6.1 Dimension
Le résultat fondamental est le suivant.
Lemme 2.6.1. Dans un espace vectoriel (quelconque), (p + 1) vecteurs qui sont combinaisons linéaires de
p vecteurs sont liés.
Preuve. La preuve se fait par récurrence sur p. Si p = 1, deux vecteurs u1 et u2 combinaisons linéaires
du même vecteur u sont colinéaires. En effet, si u1 ou u2 est nul alors la famille {u1 , u2 } est liée. Sinon
λ2
u1 , u2 6= 0E et u 6= 0E donc, u1 = λ1 .u et u2 = λ2 .u avec λ1 , λ2 6= 0 Enfin, u2 = .u. D’après le
λ1
corollaire 2.4.15, {u1 , u2 } est lié.
Supposons que pour p ∈ N \ {0}, tout système de (p + 1) vecteurs combinaisons linéaires des mêmes p
vecteurs est lié et considérons
v1 = λ1,1 .u1 + · · · + λ1,p .up + µ1 .v
..
.
vi = λi,1 .u1 + · · · + λi,p .up + µi .v
..
.
vp+1 = λp+1,1 .u1 + · · · + λp+1,p .up + µp+1 .v
w = ρ1 .u1 + · · · + ρp up + µ.v.
Si tous les µi sont nuls, {v1 , · · · , vp+1 } est un système de (p + 1) vecteurs combinaisons linéaires de
u1 , · · · , up donc est liée par hypothèse de récurrence. D’après la proposition 1.1.22(2), la famille {v1 , · · · , vp+1 , w}
est aussi liée.
Sinon, il existe un µi non nul, et on peut supposer que c’est µ quitte à renuméroter. On considère alors
les (p + 1) vecteurs suivants :
µi µi ρ1 µρ
wi = vi − .w = (λi,1 − ).u1 − · · · − (λi,p − i p ).up pour i ∈ {1, · · · , p + 1}.
µ µ µ
Les (p+1) vecteurs wi sont combinaisons linéaires de p vecteurs, donc sont liés par hypothèse de récurrence.
Il existe donc des scalaires non tous nuls α1 , · · · , αp+1 tels que
34
ou encore tel que
1
α1 .v1 + · · · + αp+1 .vp+1 − (α1 µ1 + · · · + αp+1 µp+1 ).w = 0E .
µ
Les αi n’étant pas tous nuls, le système {v1 , · · · , vp+1 , w} est lié.
Théorème 2.6.2. Si E 6= {0E } est un espace vectoriel de type fini, une famille libre ne peut avoir plus
d’éléments qu’une partie génératrice de E.
Preuve. Supposons que E a un système générateur de r vecteurs avec r 6= 0. Tout système libre de E ne
peut avoir plus de r vecteurs, sinon il contiendrait au moins (r + 1) vecteurs combinaisons linéaires des r
vecteurs du système générateur. Donc, d’après le lemme 2.6.1, il contiendrait une partie liée donc serait
lié.
Ceci nous permet de montrer le corollaire qui va nous permettre de définir la notion de dimension.
Corollaire 2.6.3. Dans un espace vectoriel de type fini E 6= {0E }, toutes les bases ont le même nombre
de vecteurs.
Preuve. Puisque E 6= {0E }, il a au moins une base B. Puisque E est de type fini, toute base a un nombre
fini de vecteurs d’après le théorème 2.6.2. Supposons que B ait n vecteurs et qu’une autre base B 0 ait n0
vecteurs. Comme B est un système générateur et B 0 est libre, on a n0 ≤ n d’après le théorème 2.6.2. Par
symétrie n = n0 .
Définition 2.6.4. (1) On dit que l’espace vectoriel E est de dimension finie, s’il admet une base ayant
un nombre fini d’éléments. Sinon E est dit de dimension infinie.
(2) Le nombre commun d’éléments de toutes les bases, n, est appelé dimension de E et noté n = dimK (E)
(ou s’il n’y a pas d’ambigüité sur les scalaires, dim(E)). L’espace vectoriel nul {0E } n’a pas de base, on
convient donc qu’il est de dimension 0.
Remarque 2.6.5. Réciproquement, si un espace vectoriel de dimension finie E est tel que dim(E) = 0
alors E = {0E }, sinon il aurait une base d’au moins un vecteur non nul.
Exemples 2.6.6. (1) Si E = hui, u 6= 0E alors dim(E) = 1. Toute droite vectorielle est de dimension 1.
(2) Si E = hu, vi avec {u, v} libre alors dim(E) = 2. Tout plan vectoriel est de dimension 2.
(3) L’espace vectoriel K n est de dimension n car sa base canonique est de cardinal n.
(4) On a dimR (R) = 1 = dimC (C) mais dimR (C) = 2.
(5) L’espace vectoriel des fonctions numériques de R dans R est de dimension infinie de même que tous
les espaces vectoriels de l’exemple 2.3.4(3) et (4).
(6) L’espace vectoriel K[X] est de dimension infinie puisque sa base canonique contient un nombre infini
de vecteurs. Par contre l’espace Kn [X] est de dimension n + 1 puisque sa base canonique est de cardinal
n + 1.
(7) Soient E et F deux espaces vectoriels de dimension finie sur K . Alors E × F est de dimension finie et
dim(E × F ) = dim(E) + dim(F ) : en effet si {e1 , · · · , en } est une base de E et si {f1 , · · · , fp } est une base
de F , on vérifie aisément que {(e1 , 0F ) · · · , (en , 0F ), (0E , f1 ), · · · , (0E , fp )} est une base de E × F . Ceci se
généralise immédiatement au produit cartésien d’un nombre fini d’espaces vectoriels sur K.
Maintenant que l’on a la notion de dimension à notre disposition, on peut donner des précisions sur le
cardinal de certaines familles d’un espace de dimension finie.
35
Proposition 2.6.7. Soit E un espace vectoriel de dimension finie n 6= 0.
(1) Toute famille ayant plus de n éléments est liée.
(2) Toute famille ayant moins de n éléments n’est pas génératrice.
(3) Toute famille libre à n éléments est une base.
(4) Toute famille génératrice à n éléments est une base.
Preuve. (1) Une telle famille contient (n + 1) vecteurs combinaisons linéaires des mêmes n vecteurs d’une
base donc est liée d’après le lemme 2.6.1.
(2) C’est une conséquence du théorème 2.6.2.
(3) Supposons d’abord que S = {u1 , · · · , un } est libre et montrons qu’il est nécessairement générateur.
En effet, tout vecteur u de E adjoint à S donne un système lié car ayant plus de vecteurs que la dimension
d’après (1). Comme S est libre et S ∪ {u} est lié, la proposition 2.4.13 implique que u est combinaison
linéaire des éléments de S doù Vect(S) = E.
(4) Supposons maintenant que {u1 , · · · un } est générateur de E et montrons que ce système est libre.
Sinon, d’après le théorème 2.4.11, un des ui , par exemple un serait combinaison linéaire des autres et on
aurait E = hu1 , · · · , un−1 i. Mais alors une base aurait plus de vecteurs qu’un système générateur ce qui
est impossible d’après (2).
Remarque 2.6.10. Ceci est faux en général pour un espace vectoriel et un sous-espace vectoriel de
dimension infinie. Par exemple si E = A(R, R) et F = P est le sous-espace vectoriel des fonctions paires,
alors E et F sont de dimension infinie et F 6= E.
36
Définition 2.6.11. On dit qu’un sous-espace vectoriel de E est une droite s’il est de dimension 1, un plan
s’il est de dimension 2 et un hyperplan s’il est de dimension dim(E) − 1.
La formule suivante, dite formule de Grassmann, donne la dimension de la somme de deux sous-espaces
vectoriels en fonction de la dimension de ces sous-espaces vectoriels et de leur intersection :
Proposition 2.6.15. Soient E un espace vectoriel de dimension finie et F , G deux sous-espaces vectoriels
de E. Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
0E = λ1 .u1 + · · · + λk .uk + λk+1 .v1 + · · · + λk+s .vs + λk+s+1 .w1 + · · · + λk+s+t .wt ,
37
on a une égalité entre un vecteur de F λ1 .u1 + · · · + λk .uk + λk+1 .v1 + · · · + λk+s .vs et un vecteur de G
−(λk+s+1 .w1 + · · · + λk+s+t .wt ). Ces deux vecteurs sont donc dans F ∩ G ce qui implique λk+1 = · · · =
λk+s = λk+s+1 = · · · = λk+s+t = 0. Les autres coefficients sont aussi nuls puisque {u1 , · · · , uk } est libre.
On vient donc de prouver que dim(F +G) = k +s+t, dim(F ) = k +s, dim(G) = k +t et dim(F ∩G) = k
d’où on déduit la formule annoncée.
Proposition 2.6.20. Le rang d’un système S est le nombre maximal de vecteurs libres qu’on peut extraire
de ce système. De tels vecteurs constituent alors une base du sous-espace vectoriel engendré par S
Preuve. Soit S = {u1 , · · · up } et notons r = rang(S). Si r = p, Vect(S) est de dimension p et d’après
2.6.7(3), ces p vecteurs sont libres et engendrent Vect(S).
Sinon, on a r < p d’après la proposition précédente. Il existe une base de r vecteurs dans Vect(S).
Cela signifie que les vecteurs u1 , · · · , up sont liés (p ≥ r + 1) par 2.6.7(1). Donc, un des ui est combinaison
linéaire des autres d’après 2.4.11. On peut le retirer sans changer l’espace vectoriel engendré par le système
et on continue ainsi tant que le système reste lié. On arrive à trouver r vecteurs ui générateurs de Vect(S).
Ils sont donc libres puisque dim(Vect(S)) = r.
Réciproquement, si le nombre maximal de vecteurs libres qu’on peut extraire de {u1 , · · · up } est r,
supposons par exemple que {u1 , · · · ur } est libre, quitte à renuméroter. Alors le système {u1 , · · · ur , uj } est
lié pour tout j ∈ {r + 1, · · · , p} par maximalité. D’après 2.4.11, chacun de ces uj est combinaison linéaire
de {u1 , · · · ur }. Cela signifie que Vect(S) = Vect({u1 , · · · ur }). C’en est donc une base et on a rang(S) = r.
38
2.7 Coordonnées et équations
2.7.1 Systèmes de coordonnées, équations paramétrées d’un sous-espace vec-
toriel
Soient E un espace vectoriel de dimension finie et B = {e1 , · · · , en } une base
Pn de E. Soit x un vecteur de E
alors il existe une unique famille de scalaires (λ1 , · · · , λn ) telle que x = i=1 λi .ei . D’après la définition
2.4.19, la famille de coordonnées de x dans la base B, aussi appelées systèmes de coordonnées de x dans
la base B ou plus simplement coordonnées de x dans la base B est le vecteur colonne
λ1
..
.
xB : λi .
.
..
λn
Soit maintenant un sous-espace vectoriel F de E et {f1 , · · · , fr } une base (ou une famille génératrice
de F ). Chaque fi étant un élément de E, il a un système de coordonnées dans B. Notons (yi,1 , · · · , yi,n )
ce système de coordonnées. Le but est de décrire par leurs coordonnées les éléments de F .
Soit donc x ∈ E et soient (x1 , · · · , xn ) ses coordonnées dans la base B. Le vecteur x est élément de
et seulement si il est combinaison linéaire des fi si et seulement si il existe µ1 , · · · , µr ∈ K tels que
F si P
r
x = i=1 µi .fi . Ceci signifie exactement que ces deux vecteurs ont les mêmes coordonnées. On a donc
prouvé que
x1 = µ1 y1,1 + µ2 y1,2 + · · · + µr y1,r
x2 = µ1 y2,1 + µ2 y2,2 + · · · + µr y2,r
x ∈ F ⇐⇒ ∃(µ1 , · · · , µr ) ∈ K r , .. .. .. ..
. . . .
xn = µ1 yn,1 + µ2 yn,2 + · · · + µr yn,r
Définition 2.7.3. On appelle système d’équations paramétrées d’un sous-espace vectoriel F de E dans
une base donnée de E tout système du type précédent, c’est à dire tout système d’équations linéaires tel
que (x1 , · · · , xn ) sont les coordonnées d’un vecteur de F si et seulement si ce système a une solution si
l’on prend pour second membre les xi .
Remarque 2.7.4. Ceci équivaut à la donnée d’une famille génératrice par les coordonnées de ses vecteurs.
39
Exemple 2.7.5. On a vu au début de ce chapitre que le sous-espace vectoriel T de R3 du système
d’équations
2x + 3y + z = 0
x − y + z = 0
3x + 2y + 2z = 0
est l’ensemble des (x, y, z) ∈ R3 tel qu’il existe un réel µ tel que (x, y, z) = (−4µ, µ, 5µ). Donc
x = −4 µ
y = µ
z = 5 µ
est un système d’équations paramétrées de T et cela signifie que {(−4, 1, 5)} en est une famille génératrice,
donc une base puisqu’elle est libre. Les systèmes
x = −8 µ x = −4 µ − 8 ν
y = 2 µ et y = µ + ν
z = 10 µ z = 5 µ + 10 ν
40
Si x ∈ F2 , on en déduit que λ = x1 , donc que x2 −2x1 = 0 et x3 −3x1 = 0. Réciproquement, si x2 −2x1 = 0
et x3 − 3x1 = 0, en posant λ = x1 , on voit que x ∈ F2 . Les équations x2 − 2x1 = 0 et x3 − 3x1 = 0 forment
donc un système d’équations linéaires de F2 .
(3) Dans K 4 muni de sa base canonique, soit F3 = h(1, 2, 3, 4), (−1, 4, 1, 2)i. On en connait un système
d’équations paramétrées :
x1 = λ − µ
x2 = 2 λ + 4 µ
x = (x1 , x2 , x3 , x4 ) ∈ F3 ⇐⇒ ∃λ, µ ∈ K, .
x3 = 3 λ + µ
x4 = 4 λ − 2 µ
donc
x2 − 2x1 x3 − 3x1 x4 − 4x1
µ= = = ,
6 4 2
ou encore 2x2 −4x1 = 3x3 −9x1 et x3 −3x1 = 2x2 −6x1 , c’est à dire 5x1 +2x2 −3x3 = 0 et 3x1 +x3 −2x4 = 0.
x2 − 2x1
Réciproquement, si ce système est satisfait, en posant µ = et λ = x1 + µ, on montre que x ∈ F3 .
6
Ainsi 5x1 + 2x2 − 3x3 = 0 et 3x1 + x3 − 2x4 = 0 est un système d’équations linéaires de F3 .
Pour le moment, nous n’avons pas montré qu’un système d’équations linéaires existait pour un sous-
espace vectoriel d’un espace vectoriel donné. En fait, c’est le cas.
Théorème 2.7.8 (admis pour le moment). Tout sous-espace vectoriel F d’un espace vectoriel E de
dimension finie admet un système d’équations linéaires. On peut en trouver un en éliminant les paramètres
dans un système d’équations paramétrées. Il en existe toujours un formé de (dim(E) − dim(F )) équations
à dim(E) inconnues.
On pourrait montrer ce théorème maintenant en employant la méthode ci-dessus et une récurrence sur
les dimensions, mais cela se fera plus simplement au chapitre 4.
Remarques 2.7.9. (1) On peut déjà vérifier la véracité du théorème dans les trois exemples précédents.
(2) Si F 6= E admet un système de une équation linéaire à une inconnue, c’est un hyperplan. En effet,
soit α1 .x1 + · · · + αn .xn = 0 cette équation où les αi sont non tous nuls. Les vecteurs fi de coordonnées
(αi , 0, · · · , , 0, −α1 , 0, · · · , 0) où −α1 est à la i-ième place pour i = 2, · · · , n forment une famille libre de F
(car ils vérifient l’équation linéaire) à (n − 1) éléments. Or dim(F ) < n puisque F 6= E donc cette famille
est une base de F qui est de dimension n − 1.
(3) Si F 6= E admet un système de p équation linéaires à n inconnues, cela signifie que F est une
intersection de p hyperplans. Le théorème dit donc que tout sous-espace vectoriel de dimension r peut
être décrit comme l’intersection de n − r hyperplans et on dispose d’une méthode pratique pour trouver
ces hyperplans.
41
pour i = 2, · · · , p. Alors les deux familles {u1 , · · · , up } et {u1 , u02 · · · , u0p } engendrent le même sous-espace
vectoriel donc ont le même rang.
La méthode du pivot de Gauss consiste, à partir d’une famille donnée (par ses coordonnées), qui n’est
pas a priori libre, à choisir à chaque pas les scalaires αi pour obtenir une famille engendrant le même
sous-espace vectoriel mais dont un maximum de coordonnées sont nulles, ce qui permet finalement de voir
sur les coordonnées si la famille est libre ou non.
Exemple 2.7.10. Dans K 4 , on considère les 4 vecteurs f1 = (1, 2, −1, 3), f2 = (−1, 0, 2, 1), f3 = (3, 1, 0, 1)
et f4 = (−3, 1, 1, 3) qui sont donnés par leurs coordonnées dans la base canonique. La famille {f1 , f2 , f3 , f4 }
a même rang que la famille {f1 , g2 = f2 + f1 , g3 = f3 − 3f1 , g4 = f4 + 3f1 } avec g2 = (0, 2, 1, 4), g3 =
(0, −5, 3, −8) et g4 = (0, 7, −2, 12). On recommence avec un pivot sur g2 . La famille de départ a encore
le même rang que {f1 , g2 , h3 = 2g3 + 5g2 , h4 = 2g4 − 7g2 } avec h3 = −h4 = (0, 0, 11, 4). Le rang de la
famille est donc au plus 3. De plus la famille {f1 , g2 , h3 } est trivialement libre. Donc le rang cherché est
exactement 3.
Remarque 2.7.11. Si un sous-espace vectoriel est donné non pas par une famille génératrice mais par un
système d’équations linéaires, en le résolvant avec la méthode du pivot de Gauss, on trouve directement
une famille génératrice triangulaire : le deuxième vecteur a sa première coordonnée nulle, le troisième à
ses deux premières coordonnées nulles etc. On voit donc directement que la famille trouvée est libre. La
dimension de l’espace des solutions est encore appelé rang du système.
42
Chapitre 3
Applications linéaires
Étudier les ensembles n’a aucun intérêt si on ne peut les comparer. Pour ce faire, on utilise les applications
et on dit que deux ensembles se ressemblent si on peut les mettre en bijection.
Pour les espaces vectoriels, la simple notion d’application n’est pas suffisante puisqu’elle n’a aucun lien
avec la structure, c’est à dire avec les deux lois dont on a muni un espace vectoriel. Nous allons donc, dans
ce chapitre, développer une notion plus restrictive d’ application appelée application linéaire qui permettra
de savoir si deux espaces vectoriels se ressemblent ou non.
Dans ce chapitre, on désignera souvent par E et F deux espaces vectoriels sur le même corps K.
43
est une application linéaire.
(5) On fixe deux points a et b de R. Soit I l’application de C(R) dans R définie par
C(R) → R
I: Rb
f 7→ I(f ) = a f (t)dt
Proposition 3.1.4. L’application f de E dans F est une application linéaire si et seulement si pour tous
λ, µ ∈ K, pour tous u, v ∈ E, on a f (λ.u + µ.v) = λ.f (u) + µ.f (v).
Preuve. Pour le sens direct, il suffit d’utiliser à la suite le fait que f est un morphisme de groupes et de
loi externe. Réciproquement, on retrouve la définition d’application linéaire en prenant λ = µ = 1 d’une
part et µ = 0 d’autre part.
ker f = {u ∈ E | f (u) = 0F },
et son image
Im f = {v ∈ F | ∃u ∈ E, f (u) = v} = f (E).
Théorème 3.1.7. Soit f une application linéaire de E dans F .
(1) ker f est un sous-espace vectoriel de E.
(2) Im f est un sous-espace vectoriel de F .
(3) f est injective si et seulement si ker f = {0E }.
(4) f est surjective si et seulement si Im f = F .
44
Preuve. D’après le théorème 1.1.37(2), ker f et Im f sont des sous-groupes respectifs de E et F . Comme
ils sont de plus stables par loi externe, on en déduit (1) et (2). Les assertions (3) et (4) proviennent
respectivement de 1.1.37(3) et (4).
Exemples 3.1.8. Reprenons les applications des exemples 3.1.3. L’application IdE est un automorphisme
donc son noyau est trivial et son image est E. L’application nulle a un noyau égal à E et une image qui
vaut {0F }. Si a 6= 0, l’application x 7→ a.x est un automorphisme donc son noyau est trivial et son
image est R. Si a = 0, c’est l’application nulle. L’application de dérivation a pour noyau les applications
constantes et pour image C(R) : elle est surjective.
p(λ.u+µ.v) = p(λ.u1 +λ.u2 +µ.v1 +µ.v2 ) = p((λ.u1 +µv1 )+(λ.u2 +µ.v2 )) = λ.u1 +µ.v1 = λ.p(u)+µ.p(v).
Théorème 3.1.12. Un endomorphisme f de E est la projection d’un sous-espace vectoriel sur un autre
sous-espace vectoriel si et seulement si f est un projecteur. Dans ce cas E = ker f ⊕ Im f et f est la
projection sur Im f parallèlement à ker f .
45
Preuve. Si f est une projection, on a vu que f ◦ f = f et que dans ce cas, f est la projection sur Im f
parallèlement à ker f .
Réciproquement, si un endomorphisme f vérifie f ◦ f = f , notons F = Im f et G = ker f . Si
u ∈ F ∩ G, d’une part u ∈ F donc il existe v ∈ E tel que f (v) = u d’où u = f (v) = f (f (v)) = f (u) = 0E
car u ∈ G = ker f . Ainsi, F ∩ G = {0E }. De plus, si u ∈ E, on a u = f (u) + (u − f (u)) et f (u) ∈ F
tandis que (u − f (u)) ∈ G puisque f (u − f (u)) = f (u) − f (f (u)) = f (u) − f (u) = 0E . Cela prouve que
F + G = E puis que E = F ⊕ G par 2.3.18. Ainsi, f est bien la projection sur Im f parallèlement à ker f .
Remarques 3.1.13. (1) Si p est un projecteur, q = IdE −p est également un projecteur et on a p+q = IdE ,
ker q = Im p et Im q = ker p donc q est la projection sur ker p parallèlement à Im p.
(2) Plus généralement, si E est somme directe des Fi , 1 ≤ i ≤ n, ce que l’on vient de prouver Pnmontre qu’il
existe des projecteurs pi tels que pi (u) = pi (u1 + · · · + un ) = ui où ui ∈ Fi vérifient u = i=1 ui . On a
p1 + · · · + pn = IdE .
Exemples 3.1.14. (1) Si f est la projection sur F parallèlement à son supplémentaire G alors Im f = F
et ker f = G donc, en tant qu’application linéaire de E dans F , f est surjective non injective mais en tant
qu’endomorphisme de E, f n’est ni injective, ni surjective.
(2) Si F et G sont deux sous-espaces vectoriels de E, leur somme est directe si et seulement si l’application
Ψ : F × G → E qui à (x, y) associe x + y est injective. Comme l’image de Ψ est F + G, F et G sont
supplémentaires dans E si et seulement si Ψ est un isomorphisme; c’est alors un isomorphisme de F × G
sur F ⊕ G. Notons de plus que si E = F ⊕ G, la composée de Ψ et de la projection de F × G sur F est la
projection de E sur F parallèlement à G. A isomorphisme près, ces deux projections sont les mêmes.
Symétries vectorielles
Définition 3.1.15. (1) Soient E un K-espace vectoriel et F , G deux sous-espaces vectoriels supplémentaires
de E : E = F ⊕ G. Alors, pour tout u ∈ E, il existe un unique u1 ∈ F , il existe un unique u2 ∈ G tels
que u = u1 + u2 (puisque la somme est directe). On appelle symétrie par rapport à F parallèlement à G,
l’application s de E dans E qui, à u = u1 + u2 associe u1 − u2 .
(2) Un endomorphisme f de E qui vérifie f ◦ f = IdE est appelé une involution.
Proposition 3.1.16. Toute symétrie est un automorphisme de E. Si s est la symétrie par rapport à F
parallèlement à G, on a s(x) = x pour tout x ∈ F et s(x) = −x pour tout x ∈ G. De plus s ◦ s = IdE .
Preuve. Si u, v ∈ E alors on a u = u1 + u2 et v = v1 + v2 avec u1 , u2 ∈ F et v1 , v2 ∈ G. Soient λ, µ ∈ K
Alors
s(λ.u + µ.v) = s((λ.u1 + µ.v1 ) + (λ.u2 + µ.v2 )) = (λ.u1 − λ.u2 ) + (µ.v1 − µ.v2 ) = λ.s(u) + µ.s(v),
ce qui prouve que s est un endomorphisme de E. On a de plus s ◦ s = IdE ce qui prouve que s est injective
et surjective donc est un automorphisme de E. Les autres affirmations sont évidentes.
Théorème 3.1.17. Un endomorphisme f de E est une symétrie par rapport à un sous-espace vectoriel
et parallèlement à un autre sous-espace vectoriel si et seulement si f est une involution. Dans ce cas,
E = ker(f −IdE )⊕ker(f +IdE ) et f est la symétrie par rapport à ker(f −IdE ) parallèlement à ker(f +IdE ).
46
Preuve. Si f est une symétrie par rapport à F parallèlement à G, on a vu que f ◦f = IdE . La proposition
précédente montre que F ⊂ ker(f − IdE ) et G ⊂ ker(f − IdE ). Enfin, si x ∈ ker(f − IdE ) alors f (x) = x
donc x ∈ F et F = ker(f − IdE ). De même G = ker(f − IdE ).
Réciproquement, si f est une involution, notons F = ker(f −IdE ) et G = ker(f +IdE ) et soit u ∈ F ∩G.
Alors 0E = (f + IdE )(u) = f (u) + u et 0E = (f − IdE )(u) = f (u) − u donc u = f (u) = −u puis 2.u = 0E
donc u = 0E ce qui prouve que F ∩ G = {0E }. Ensuite, si u ∈ E,
u + f (u) u − f (u)
u= + .
2 2
On a
(f −IdE )(u+f (u)) = f (u)+f (f u))−u−f (u) = 0E et (f +IdE )(u−f (u)) = f (u)+u−f (f (u))−f (u) = 0E ,
u + f (u)
donc E = F ⊕ G. Enfin, on écrit tout u ∈ E comme étant u = u1 + u2 avec u1 = ∈ F et
2
u − f (u)
u2 = ∈ G. Alors on a vu que f (u1 ) = u1 et f (u2 ) = −u2 donc f (u1 + u2 ) = u1 − u2 . Cela
2
signifie que f est la symétrie par rapport à ker(f − IdE ) parallèlement à ker(f + IdE ).
Remarque 3.1.18. Si E est un espace vectoriel, si p est la projection sur F parallèlement à G et si s est
la symétrie par rapport à F parallèlement à G alors on a s = 2p − IdE . En effet, si u = u1 + u2 ∈ E avec
u1 ∈ F et u2 ∈ G alors
s(u) = s(u1 + u2 ) = u1 − u2 = 2u1 − (u1 + u2 ) = 2p(u) − IdE (u) = (2p − Ide )(u).
(λ.f + g)(α.x + β.y) = (λ.f )(α.x + β.y) + g(α.x + β.y) par définition de la loi interne
= λ.f (α.x + β.y) + g(α.x + β.y) par définition de la loi externe
= λ(αf (x) + βf (y)) + (αg(x) + βg(y)) par linéarité de f et g
= α(λf (x) + g(x)) + β(λf (y) + g(y)) par commutativité de +
= α(λ.f + g)(x) + β(λ.f + g)(y)
ce qui prouve bien que λ.f + g est une application linéaire donc que L(E, F ) est un sous-espace vectoriel
de A(E, F ). La preuve de (2) et (3) s’en déduit en prenant respectivement F = E et F = K.
47
3.2.2 Structure d’algèbre
Nous avons vu que la somme des applications et le produit d’une application par un scalaire munit
End(E) d’une structure de K-espace vectoriel. Nous allons maintenant étudier une autre loi sur End(E)
: la composition.
Proposition 3.2.2. (1) La composée de deux applications linéaires, si elle existe, est une application
linéaire.
(2) La réciproque d’une application linéaire, si elle existe, est une application linéaire.
Preuve. (1) Soient f et g deux applications linéaires. Puisque la composée g ◦ f doit exister cela revient
à ce que f ∈ L(E, F ), g ∈ L(G, H) où E, F, G, H sont quatre espaces vectoriels sur K et où F ⊂ G.
Soient u, v ∈ E et λ, µ ∈ K. Alors
(g ◦ f )(λu + µv) = g(f (λu + µv)) = g(λf (u) + µf (v)) = λ(g ◦ f )(u) + µ(g ◦ f )(v),
f −1 (λu + µv) = f −1 (λf (f −1 (u)) + µf (f −1 (v))) = f −1 (f (λf −1 (u) + µf −1 (v))) = λf −1 (u) + µf −1 (v),
Remarque 3.2.3. La seconde assertion de la proposition précédente montre que l’application réciproque
d’un isomorphisme (d’espaces vectoriels) est un isomorphisme (d’espaces vectoriels).
Théorème 3.2.4. ( End(E), +, ., ◦)est une K-algèbre. Elle est non commutative si dim E ≥ 2.
Preuve. (1) On sait déjà que (End(E), +, .) est un espace vectoriel sur K. De plus la loi ◦ est une loi de
composition interne d’après la proposition 3.2.2(1).
Montrons que (End(E), +, ◦) est un anneau. Il est clair que ◦ est associative sur End(E) puisqu’elle
l’est déjà sur les applications. La loi ◦ est distributive par rapport à + et IdE ∈ End(E) est l’élément
unité de End(E) pour la loi ◦.
Enfin, si f, g ∈ End(E), λ ∈ K et x ∈ E,
ce qui prouve que (λf ) ◦ g = λ(f ◦ g) par (1) et (λf ) ◦ g = f ◦ (λg) par (2) Donc (End(E), +, ., ◦) est une
K-algèbre.
Enfin, si dim E ≥ 2, soit {e1 , e2 , · · · } une base de E (éventuellement infinie). Définissons une application
f qui à x de coordonnées (x1 , x2 , · · · ) dans cette base associe x1 e1 et une application g qui à x associe x2 e2 .
Ce sont évidemment des endomorphismes de E. Alors (f ◦ g)(x) = x2 e1 et (g ◦ f )(x) = 0. En choisissant
x dont la seconde coordonnée soit non nulle, cela montre que f ◦ g 6= g ◦ f donc l’algèbre End(E) n’est pas
commutative.
Proposition 3.2.5. L’ensemble GL(E) des éléments de End(E) inversibles pour la loi ◦ est un groupe.
48
Preuve. Cela a déjà été vu en 1.1.40.
On termine cette section en déterminant le centre de End(E), c’est à dire l’ensemble des éléments de
End(E) qui commutent avec tous les autres éléments de End(E) pour la composition.
Théorème 3.2.6. Soit E un espace vectoriel de dimension finie. Le centre de End(E) est l’ensemble des
homothéties vectorielles. L’ensemble des homothéties vectorielles est une sous-algèbre de End(E) qui est
isomorphe (en tant qu’algèbre) à K.
Preuve. Par abus de langage, on incorpore aux homothéties vectorielles, l’homothétie de rapport nul.
Tout d’abord, si h est l’homothétie vectorielle de rapport α, qui à x ∈ E associe α.x ∈ E, et si f est un
endomorphisme, on a
(h ◦ f )(x) = αf (x) = f (αx) = (f ◦ h)(x),
ce qui prouve que h est dans le centre de End(E).
Réciproquement, si un endomorphisme h est dans le centre de E, montrons d’abord que si u ∈ E est
non nul alors il existe αu ∈ K tel que h(u) = αu .u. Soit p la projection sur K.u parallèlement à un
supplémentaire de K.u (qui existe d’après le corollaire 2.6.17). Alors on a (h ◦ p)(u) = h(u) = (p ◦ h)(u)
puisque h est dans le centre. Cela prouve que h(u) ∈ K.u, c’est à dire qu’il existe αu ∈ K tel que
h(u) = αu .u.
Si maintenant u et v sont non colinéaires, on a h(u) = αu u et h(v) = αv v et h(u + v) = αu+v (u + v) =
αu+v u + αu+v v d’une part et h(u + v) = h(u) + h(v) = αu u + αv v d’autre part. Comme la famille {u, v}
est libre, on en déduit que αu = αu+v = αv .
Si u et v sont colinéaires et non nuls alors v = λu pour λ ∈ K. Donc αv v = h(v) = λh(u) = αu (λu) =
αu v donc αu = αv . On a donc prouvé qu’il existe α ∈ K tel que pour tout u ∈ E, on a h(u) = αu donc h
est une homothétie vectorielle.
La suite de l’énoncé signifie que la somme de deux homothéties, le produit par un scalaire d’une
homothétie ou la composée de deux homothéties en est encore une, et que IdE est une homothétie ce
qui est clair. Enfin, on définit une application de l’ensemble H des homothéties vectorielles de E dans
l’ensemble K en associant à une homothétie son rapport. On vérifie aisément que cette application est un
morphisme d’algèbres bijectif donc un isomorphisme d’algèbres.
Théorème 3.3.1. Soit E un K-espace vectoriel de dimension finie n muni d’une base B = {e1 , · · · , en }
et F un K-espace vectoriel quelconque. Pour toute famille {v1 , · · · , vn } il existe une application linéaire
f de E dans F et une seule telle que
49
Preuve. Si f existe alors elle associe nécessairement au vecteur x = x1 .e1 + · · · xn .en le vecteur f (x) =
x1 .f (e1 ) + · · · + xp .f (ep ) = x1 .v1 + · · · + xp .vp par linéarité. Réciproquement, on vérifie que l’application
ainsi définie est linéaire.
Regardons maintenant comment une application linéaire se comporte avec une famille génératrice et
une famille libre.
Proposition 3.3.2. (1) L’image par une application linéaire d’une famille génératrice est une famille
génératrice de l’image.
(2) L’image par une application linéaire injective d’une famille libre est une famille libre de l’image.
Preuve. (1) Si f : E → F est une application linéaire et si {g1 , · · · , gn } engendre
Pn E, soit y ∈ Im f . Alors
il existe x ∈ E telPque y = f (x) et il existe λ1 , · · · , λn ∈ K tels que x = u=1 λi .gi . Par linéarité, on a
n
donc y = f (x) = i=1 λi f (gi ). Cela prouve que {f (g1 ), · · · , f (gn )} est une famille génératrice de Im f .
(2) Soient f une application linéaire injective de E dans F et {l1 , · · · , ls } une famille libre de E. Pour
tous (λ1 , · · · , λs ) ∈ K s , si
s
X s
X
λi f (li ) = 0E alors f ( λi li ) = 0E ,
i=1 i=1
Ps
par linéarité de f . L’élément i=1 λi li est donc dans le noyau de f donc est égal à 0E par injectivité de
f . Comme la famille {l1 , · · · , ls } est libre, on a finalement λ1 = · · · = λs = 0 ce qui prouve l’assertion.
Corollaire 3.3.3. Soit f une application linéaire de E dans F avec E de dimension finie.
(1) Im f est un espace vectoriel de type fini.
(2) En général dim(Im f ) ≤ dim(E). Si f est injective, l’image d’une base par f est une base de Im f et
dim(Im f ) = dim(E).
Preuve. (1) Même si F est de dimension infinie, la même preuve que la proposition précédente montre
que Im f est engendré par l’image d’une famille génératrice de E que l’on peut supposer finie puisque E
est de dimension finie.
(2) Soit B une base de E. Alors, par (1), f (B) engendre Im f qui est de type fini. Par le théorème
de la base incomplète 2.6.8, on peut en extraire une base donc dim(E) ≥ dim(Im f ). Si de plus f est
injective, par la proposition précédente, f (B) est à la fois libre dans Im f et génératrice de Im f . C’en est
donc une base. Ainsi, dim(E) = dim(Im f ).
50
Théorème 3.3.6 (Théorème du rang). Soient E un espace vectoriel de dimension finie, F un espace
vectoriel quelconque et f : E → F une application linéaire. Alors
Cela signifie donc que Im f est engendré par la famille {f (ep+1 ), · · · , f (en )}.
Montrons que la famille {f (ep+1 ), · · · , f (en )} est libre. Pour tous λp+1 , · · · , λn ∈ K supposons que
n
X
λp+1 f (ep+1 ) + · · · + λn f (en ) = 0F = f ( λi ei ).
i=p+1
Pn
Le vecteur i=p+1 λi ei est donc un élément de ker f mais c’est aussi un élément de E 0 par définition
Pn
donc il est dans ker f ∩ E 0 = {0E } (par somme directe). Ainsi i=p+1 λi ei = 0E mais comme la
famille{ep+1 , · · · , en } est libre on obtient λp+1 = · · · = λn = 0.
On obtient donc que la famille {f (ep+1 ), · · · , f (en )} est une base de Im f . Enfin,
Attention. Une erreur récurrente chez les étudiants est de déduire du théorème du rang que les espaces
vectoriels ker f et Im f sont supplémentaires, ce qui est faux puisgu’en général, ce ne sont pas des sous-
espaces vectoriels du même espace. Mais même quand E = F , c’est faux en général.
51
Preuve. (1) L’application f est surjective si et seulement si Im f = F si et seulement si dim(Im f ) =
dim(F ) si et seulement si dim(ker f ) = dim(E) − dim(F ) par le théorème du rang 3.3.6. Si f est sur-
jective, Im f = F et d’après la proposition 3.3.2(1), l’image d’une base est une famille génératrice de F .
Réciproquement, si l’image d’une base de E est une famille génératrice de F , tout élément de F peut être
atteint par f donc f est surjective.
(2) L’application f est injective si et seulement si ker f = {0E } si et seulement si dim(ker f ) = 0 si et
seulement si dim(Im f ) = dim(E) par le théorème du rang 3.3.6. Si f est injective, la proposition 3.3.2(2)
montre que l’image d’une base est une famille libre. Réciproquement, si l’image d’une base est une famille
libre de F , f est injective puisque deux éléments distincts de E ne peuvent avoir pour image des éléments
ayant la même décomposition selon cette famille libre de F .
(3) L’application f est bijective si et seulement si elle est injective et surjective si et seulement si
dim(ker f ) = 0 et dim(F ) = dim(Im f ) si et seulement si f est injective (resp. f est surjective) et
dim(E) = dim(F ) d’après le théorème du rang 3.3.6. Par (1) et (2), f est bijective si et seulement si
l’image d’une base par f est une base.
Corollaire 3.3.8. Soient E et F deux espaces vectoriels de dimension finie tels que dim(E) = dim(F )
et f une application linéaire de E dans F . Alors f est injective si et seulement si f est surjective si et
seulement si f est bijective. L’équivalence précédente est en particulier valable si f est un endomorphisme
d’un espace vectoriel de dimension finie.
Preuve. Cela provient du fait que la condition dim(E) = dim(F ) du théorème précédent est ici automa-
tique.
Attention. Attention, les résultats précédents ne sont pas vrais en dimension infinie. En effet, considérons
la dérivation comme en 3.1.3(4). La dérivation induit un endomorphisme surjectif de l’espace vectoriel des
fonctions polynômiales dans lui-même mais n’est pas injectif puisque son noyau est le sous-espace vectoriel
des fonctions constantes.
Corollaire 3.3.10. E est un K-espace vectoriel de dimension finie n si et seulement si E est isomorphe
à K n .
Preuve. Le sens indirect est clair. Si E est de dimension n sur K, comme K n est un K-espace vectoriel
de dimension n, le théorème précédent assure l’existence d’un isomorphisme entre E et K n .
Ces résultats signifient donc que la dimension classifie complètement les K-espaces vectoriels à iso-
morphisme près, c’est à dire que la classe d’équivalence d’un espace vectoriel sur K, pour la relation
52
d’équivalence entre deux espaces vectoriels sur K définie par l’existence d’un isomorphisme entre les deux,
ne dépend que de sa dimension. Pour les espaces vectoriels de dimension finie, la dimension est donc la
notion qui remplace le cardinal pour les ensembles finis.
On pourrait arrêter là la théorie des espaces vectoriels mais on a introduit au cours de l’étude un nouvel
objet : l’application linéaire ou le morphisme d’espaces vectoriels. Il nous faut maintenant classifier les
couples d’espaces vectoriels munis d’un morphisme entre l’un et l’autre. Lesquels se ressemblent ?
Un autre argument pour poursuivre l’étude est le suivant. Il n’existe pas toujours d’isomorphisme
canonique entre deux espaces vectoriels, c’est à dire ne dépendant pas du choix d’une base. Comme la
démonstration des résultats précédents reposent sur le choix d’une base, il va nous falloir affiner notre
critère de classification.
En conséquence, donnons l’équation d’un hyperplan dans une base. Soit H un hyperplan de E et
soit {e1 , · · · , en } une base de E. Soit l une forme linéaire non nulle dont H est le noyau. Pour chaque
1 ≤ i ≤ n, on pose ai = l(ei ). Si x ∈ E soient (x1 , · · · , xn ) ses coordonnées dans la base choisie.Alors, on
a
n
X n
X n
X
l(x) = l( xi ei ) = xi l(ei ) = ai xi .
i=1 i=1 i=1
Pn
Comme H = ker l, on en déduit que x ∈ H si et seulement si i=1 ai xi = 0. C’est une équation linéaire
de H.
Remarque 3.4.2. Deux formes linéaires partant de E ont pour noyau le même hyperplan si et seulement
si elles sont proportionnelles. Le sens indirect est évident. Pour le sens direct, si H = ker l = ker h a pour
supplémentaire W = hwi dans E, alors l et h ne dépendent que de leur valeur en w, et ces deux valeurs
(non nulles puisque le noyau est un hyperplan) sont proportionnelles, donc il en va de même pour l et h.
53
Théorème 3.4.3. Tout sous-espace vectoriel F d’un espace vectoriel de dimension finie E est le noyau
d’une application linéaire de rang dim(E) − dim(F ).
Théorème. Tout sous-espace vectoriel F d’un espace vectoriel E de dimension finie admet un système
d’équations linéaires formé de (dim(E) − dim(F )) équations à dim(E) inconnues.
Preuve. Si E = F , il n’y a rien à montrer. Sinon, soit {f1 , · · · , fp } une base de F . Soit G un
supplémentaire de F dans E (il a pour dimension n − p) et {fp+1 , · · · , fn } une base de G. D’après
le théorème 2.6.12, la concaténation de la base de F et de G donne une base de E.
Un élément x ∈ E appartient à F si et seulement
Tn si ses (n − p) dernières coordonnées dans la base
{f1 , · · · , fn } sont nulles. On en déduit que F = i=p+1 ker(li ) où li est la forme linéaire de E qui à x ∈ E
associe sa i-ième coordonnée dans la base {f1 , · · · , fn }. Cela signifie que F est l’intersection de n − p
hyperplans. Le sous-espace vectoriel F est donc l’ensemble des éléments de E qui vérifient simultanément
les équations de chacun de ces hyperplans. Ainsi, x ∈ F si et seulement si il est solution d’un système
d’équations linéaires de n − p équations à n inconnues.
54
Chapitre 4
Matrices
4.1 Introduction
Soient E et F deux K-espaces vectoriels de dimensions respectives p et n et soient B = {e1 , · · · , ep } une
base de E et B 0 = {f1 , · · · , fn } une base de F . Soit f une application linéaire de E dans F .
Dans le théorème 3.3.1, on a vu que f est uniquement déterminée par les e0j = f (ej ) pour j = 1, · · · , p.
En effet, si x a pour coordonnées (x1 , · · · , xp ) dans la base B, alors
p
X
f (x) = xj e0j ,
j=1
par linéarité.
Or, les coordonnées des e0j dans la base B 0 déterminent complètement les e0j = f (ej ) donc elles
déterminent complètement f . Désignons par (a1,j , a2,j , · · · , an,j ) les coordonnées de e0j = f (ej ) dans
la base B 0 . Pour connaı̂tre f , il suffit donc de connaı̂tre ces np scalaires et chaque np-uplet de scalaires
détermine ainsi une unique application linéaire f .
Plutôt que d’écrire ces scalaires sous formes de liste, il peut être plus pratique, puisqu’il y a deux
variables, de les mettre sous forme d’un tableau. Cela suggère la définition suivante.
Définition 4.1.1. Soient E un K-espace vectoriel de dimension p et F un K-espace vectoriel de dimension
n. Soient B = {e1 , · · · , ep } une base de E et B 0 = {f1 , · · · , fn } une base de F . On appelle matrice de
l’application linéaire f de E dans F par rapport aux bases B et B 0 et on note MatB,B0 (f ) le tableau à n
lignes et p colonnes tel que, pour 1 ≤ j ≤ p, la j-ième colonne contient les coordonnées du vecteur f (ej )
dans la base B 0 , c’est à dire
a1,1 · · · a1,j · · · a1,p
a2,1 · · · a2,j · · · a2,p
MatB,B0 (f ) = . .. ,
..
.. . .
an,1 · · · an,j · · · an,p
où
a1,j
a2,j
f (ej )|B0 :
..
.
an,j
55
sont les coordonnées de f (ej ) dans la base B 0 pour 1 ≤ j ≤ p.
Remarque 4.1.2. Dans ce tableau, les colonnes sont les coordonnées de f (ej ) dans la base B 0 et la i-ième
ligne représente les coordonnées de chacun des vecteurs f (ej ) sur fi .
On a prouvé :
Théorème 4.1.3. Une application linéaire d’un K-espace vectoriel E de dimension p dans un K-espace
vectoriel F de dimension n est entièrement déterminée par la donnée de sa matrice dans une base B de
E et une base B 0 de F .
Ceci signifie donc que les coordonnées de f (x) dans la base B 0 sont
p
X p
X p
X
( a1,j xj , a2,j xj , · · · , an,j xj ).
j=1 j=1 j=1
Encore une fois, il est pratique de résumer cela par de tableaux de scalaires.
Définition 4.1.5. (1) On appelle matrice du vecteur X de E dans la base B le tableau à n lignes et 1
colonne formée de ses coordonnées dans la base B noté XB .
(2) On appelle matrice de la famille de vecteurs {u1 , · · · , um } de E dans la base B le tableau à n lignes et
m colonnes dont les colonnes sont les coordonnées des vecteurs ui , 1 ≤ i ≤ m dans la base B.
Ce qui précède montre que la connaissance dePpXB et de MatB,B0 (f ) induit celle de Y = f (X)B0 et
donne une règle de calcul : pour 1 ≤ i ≤ n, yi = j=1 ai,j xj .
Dans la suite de ce chapitre, nous allons définir un produit entre matrices qui permette d’écrire
De plus, on a vu que l’application qui à f associe sa matrice dans des bases données est bijective.
Nous allons définir deux loi internes et une loi externe sur l’ensemble des matrices de façon à ce que cette
bijection soit un un isomorphisme d’espaces vectoriels en général et un isomorphisme d’algèbres dans le
cas où n = p.
56
4.2.1 Matrice de type (n, p)
Définition 4.2.1. On appelle matrice de type (n, p) à coefficients dans K un tableau à n lignes et p
colones du type
a1,1 · · · a1,j ··· a1,p
a2,1 · · · a2,j ··· a2,p
.
.. .. ..
. . .
an,1 · · · an,j ··· an,p
où ai,j ∈ K pour 1 ≤ i ≤ n et 1 ≤ j ≤ p. Pour simplifier, cette matrice pourra être notée (ai,j )1≤i≤n,1≤j≤p
ou (ai,j ) si le type est sous-entendu. Le scalaire ai,j est appelée le terme d’indice (i, j) de la matrice.
L’ensemble des matrices de type (n, p) à coefficients dans K est noté Mn,p (K).
Exemple 4.2.2. Si on pose A = ((−1)i+j ) ∈ M3,4 (R) et B = (ikl ) ∈ M4,2 (C), on a
i −1
1 −1 1 −1 −1 1
A = −1 1 −1 1 , B = −i −1 .
1 −1 1 −1
1 1
Interprétation. Si f est une application linéaire d’un K-espace vectoriel de dimension m dans un K-
espace vectoriel de dimension q et si B est une base de l’espace de départ et B 0 une base de l’espace d’arrivée
alors sa matrice MatB,B0 (f ) est une matrice de type (q, m). Il faut faire attention : il y a autant de lignes
que la dimension de l’espace d’arrivée et autant de colonnes que la dimension de l’espace de départ.
Réciproquement toute matrice de type (q, m) peut être considère comme la matrice d’une application
linéaire de K m dans K q rapportés à leurs bases canoniques.
Définition 4.2.3. (1) On appelle matrice nulle et on note 0n,p la matrice dont tous les coefficients sont
nuls.
(2) On appelle matrice colonne (ou vecteur colonne), toute matrice de type (n, 1)
b1
b2
C = . .
..
bn
(3) On appelle matrice ligne (ou vecteur ligne), toute matrice de type (1, p)
L = (a1 a2 · · · ap ).
Interprétation. (1) La matrice nulle à est la matrice de l’application nulle de K p dans K n dans des
bases quelconques.
(2) Une matrice colonne à n lignes représente une application linéaire de K dans K n .
(3) Une matrice ligne à p lignes représente une application linéaire de K p dans K : c’est donc la matrice
d’une forme linéaire sur K.
57
Interprétation. Une matrice carrée de taille n à coefficients dans K peut être considérée comme la
matrice d’un endomorphisme de K n rapporté à sa base canonique.
Définition 4.2.5. On appelle matrice diagonale de taille n, toute matrice carrée A de taille n dont tous
les coefficients sont nuls, sauf peut-être ceux de la diagonale principale : A = (ai,j ) avec ai,j = 0 si i 6= j.
Parfois, on pourra la noter Diag(a1 , · · · , an ).
Définition 4.2.6. On appelle matrice scalaire de taille n, toute matrice diagonale de taille n dont tous
les coefficients diagonaux sont égaux. On la note Diag(a, a, · · · , a).
(2) On appelle matrice triangulaire inférieure, toute matrice carrée T 0 dont tous les coefficients au dessus
de la diagonale sont nuls : ∀(i, j) ∈ {1, · · · , n}2 , (i < j ⇒ ai,j = 0) :
··· ···
a1,1 0 0
.. ..
a2,1
a2,2 . .
T = ...
0 .. .. ..
.
. . .
. ..
..
. 0
an,1 an,2 ··· ··· an,n
(3) L’ensemble des matrices triangulaires supérieures de taille n à coefficients dans K est noté Tn (K).
L’ensemble des matrices triangulaires supérieures de taille n à coefficients dans K est noté In (K).
Remarque 4.2.9. Une matrice diagonale de taille n est à la fois triangulaire supérieure et triangulaire
inférieure de taille n.
1 rappelons que δi,j est le symbole de Kronecker, c’est à dire que δi,i = 1 et δi,j = 0 pour i 6= j.
58
4.2.3 Transposée d’une matrice
Définition 4.2.10. Soit A ∈ Mn,p (K). On appelle transposée de A et on note t A, la matrice de Mp,n (K)
obtenue de la façon suivante
avec a0i,j = aj,i pour tout i ∈ {1, · · · , p} et pour tout j ∈ {1, · · · , n}.
Exemple 4.2.11.
1 0
1 4 −6 t
A= , A= 4 8 .
0 8 3
−6 3
Remarques 4.2.12. (1) Si C est une matrice colonne à p colonnes alors t C est une matrice ligne à p
lignes et réciproquement.
(2) Si A est une matrice triangulaire supérieure alors t A est une matrice triangulaire inférieure et réciproquement.
Définition 4.2.13. (1) Une matrice A est dite symétrique si elle est égale à sa transposée : A = t A.
(2) Une matrice A est dite antisymétrique si elle est égale à l’opposée de sa transposée : t A = −A.
Proposition 4.2.14. Une matrice symétrique ou antisymétrique est nécessairement une matrice carrée.
Preuve. Si A ∈ Mn,p (K) alors t A ∈ Mp,n (K). Si elles sont égales ou opposées, on a nécessairement
n = p.
59
Addition des matrices
Par définition de la somme de deux applications, on peut définir la somme (notée +) de deux matrices
A = (ai,j ), B = (bi,j ) ∈ Mn,p (K) par
Cette loi est, par définition, une loi de composition interne sur Mn,p (K).
Exemple 4.3.2.
2 3 −5 9 1 2 11 4 −3
+ = .
7 0 −1 −6 5 −3 1 5 −4
C’est une loi de composition externe par K sur Mn,p (K). On a donc :
Nous pouvons donc utiliser dans Mn,p (K) tous les résultats que nous avons prouvé (à commencer par
les règles de calcul) pour les K-espaces vectoriels. Notre prochaine tâche va être d’en exhiber une K-base.
↓
0 0 ··· ··· 0
.. ..
. .
Eij = i →
0 ··· 1 ··· 0 .
..
0 .
0 0 ··· ··· 0
Il y a donc np matrices élémentaires.
Proposition 4.3.6. Les np matrices élémentaires Eij de Mn,p (K) forment une K-base de Mn,p (K)
appelée base canonique.
60
Preuve. Si A = (ai,j ) ∈ Mn,p (K) alors se décompose de la façon suivante
A = a1,1 .E11 + a1,2 .E12 + · · · + ai,j .Eij + · · · + an,p .Enp .
Cela prouve que la famille proposée engendre Mn,p (K). Mais puisque deux matrices de même type sont
égales si et seulement si leurs coefficients sont égaux, la famille proposée est également libre : c’est donc
une base de Mn,p (K).
Corollaire 4.3.7. Mn,p (K) est un K-espace vectoriel de dimension np. Il est isomorphe à K np . En
particulier, Mn (K) est un K-espace vectoriel de dimension n2 .
Preuve. La proposition précédente donne une K-base de Mn,p (K) : son cardinal est donc la dimension
de Mn,p (K). D’après le corollaire 3.3.10, on en déduit que Mn,p (K) est isomorphe à K np .
Exemple 4.3.8. (1) On montre aisément que l’ensemble Sn (K) (resp. An (K)) des matrices symétriques
n(n + 1) n(n − 1
(resp. antisymétriques) est un sous-espace vectoriel de Mn (K) de dimension (resp. ).
0
2 2
(2) Les ensembles Tn (K) et Tn (K) des matrices triangulaires supérieures et inférieures sont aussi des
n(n + 1)
sous-espaces vectoriels de Mn (K) de dimension .
2
61
Cela signifie bien que Mat(λ.f + µ.g) = λ.MatB,B0 (f ) + µ.MatB,B0 (g). On en déduit la seconde et la
troisième égalité.
(2) On a montré en (1) que ΦB,B0 est une application linéaire et elle est bijective donc c’est un isomor-
phisme de K-espaces vectoriels.
Remarque 4.3.10. Au vu de ce théorème, on voit qu’on aurait également pu définir la somme de deux
matrices (resp. le produit par un scalaire d’une matrice) comme la matrice de la somme des deux applica-
tions linéaires représentées par ces matrices dans les bases canoniques (resp. par le produit par un scalaire
de la matrice du produit par un scalaire d’une application linéaire représentée par cette matrice dans les
bases canoniques).
et d’autre part
m
X
(g ◦ f )(ej ) = ck,j gk .
k=1
62
Remarques 4.4.2. (1) De même que l’on ne peut pas composer toutes les applications entre elles, on
ne peut pas multiplier toutes les matrices entre elles : le produit de deux matrices n’est possible que si
le nombre de colonnes de la première est égal au nombre de lignes de la seconde. En particulier, dans
Mn (K), tout produit de matrices est possible.
(2) Pour obtenir le coefficient situé à l’intersection de la i-ième ligne et de la j-ième colonne de la matrice
produit, on multiplie terme à terme la i-ième ligne de la matrice de gauche par la j-ième colonne de la
matrice de droite et on ajoute les produits : on fait ainsi le produit scalaire du i-ième vecteur ligne de la
matrice de gauche avec le j-ième vecteur colonne de la matrice de droite.
Exemples 4.4.3. (1) La produit de deux matrices triangulaires supérieures (resp. inférieures) de taille
n est possible et est une matrice triangulaire supérieure (resp. inférieure) de taille n. En conséquence, le
produit de deux matrices diagonales de taille n est une matrice diagonale de taille n.
(2) Le produit d’une matrice ligne de type (1, n) par une matrice colonne de type (n, 1) est une matrice
de type (1, 1), c’est à dire est un scalaire de K. Cela s’apparente au produit scalaire des vecteurs corre-
spondants.
(3) Le produit d’une matrice colonne par une matrice ligne peut toujours se faire et donne une matrice
rectangulaire.
D’après la sous-section précédente, on peut constater que :
Proposition 4.4.4. Soient f : E → F et g : F → G deux applications linéaires et B, B 0 , B 00 des bases
respectives des espaces vectoriels E, F et G. Soient A = MatB,B0 (f ) et B = MatB0 ,B00 (g). Alors
MatB,B00 (g ◦ f ) = BA.
Preuve. Voir sous-section précédente : le produit matriciel a été construit pour satisfaire ce résultat.
Le produit matriciel tel qu’on l’a défini permet aussi de prouver la formule (∗) en fin de section 4.1.
Proposition 4.4.5. Soient f : E → F une application linéaire, B = {e1 , · · · , ep } et B 0 = {f1 , · · · , fn }
des bases respectives de E et F . Alors, si X ∈ E,
f (X)B0 = MatB,B0 (f ).XB .
Preuve. On pose MatB,B0 (f ) = (ai,j ) ∈ Mn,p (K). Comme XB est une matrice de type (p, 1) le produit
MatB,B0 (f ).XB est possible et donne une matrice de type (n, 1). Si X a pour coordonnées (x1 , · · · , xp )
dans la base B, alors pour 1 ≤ i ≤ n, si MatB,B0 (f ).XB = (bi,1 ) ∈ Mn,1 (K),
p
X
bi,1 = ai,j xj .
j=1
Proposition 4.4.6. Soient A, B ∈ Mn,p (K). Alors ces deux matrices sont égales si et seulement si pour
toute matrice colonne à p lignes X, on a AX = BX.
Preuve. Le sens direct est évident. Dans l’autre sens, soient f, g : K p → K n ayant pour matrice
respectivement A et B dans les bases canoniques. Alors, d’après la proposition précédente, AX = BX
équivaut à f (x) = g(x) pour tout x ∈ K p . Donc f = g et finalement A = B.
63
4.4.3 Structure d’algèbre de Mn (K) et propriétés du produit matriciel
Reprenons les notations de la sous-section 4.3.3.
Proposition 4.4.7. Soient E, F, G trois espaces vectoriels sur K de dimension finie, de bases respectives
B = {e1 , · · · , ep }, B 0 = {f1 , · · · , fn }, B 00 = {g1 , · · · , gm }. Soient f : E → F et g : F → G. Alors
MatB,B0 (g ◦ f ) = MatB0 ,B00 (g) × MatB,B0 (f ),
soit
ΦB,B00 (g ◦ f ) = ΦB0 ,B00 (g) × ΦB,B0 (f ),
où × est le produit matriciel.
,
Preuve. Tout a été fait dans les sous-sections précédentes.
Proposition 4.4.8. Si les produits de matrices suivants existent, pour des matrices A, A0 , B, B 0 , C et
λ ∈ K,
(A + A0 )B = AB + A0 B; A(B + B 0 ) = AB + AB 0 ; λ(AB) = (λA)B = A(λB); (AB)C = A(BC).
Preuve. Ce sont de simples vérifications.
Théorème 4.4.9. (Mn (K), +, ., ×), où × est le produit matriciel est une K-algèbre.
Preuve. On sait déjà que (Mn (K), +, .)est un K-espace vectoriel d’après le théorème 4.3.4. Il reste à voir
que (Mn (K), +, ×)est un anneau ce qui est clair d’après la proposition précédente. Notons que l’élément
unité de cet anneau est la matrice identité In .
Théorème 4.4.10. Soient E un K-espace vectoriel de dimension finie n et B une base de E. Alors il
existe un isomorphisme de K-algèbres ΦB : End(E) → Mn (K).
Preuve. On reprend les notations de la sous-section 4.3.3 et on pose ΦB ; = ΦB,B , c’est à dire que
End(E) → Mn (K)
ΦB ,
f 7→ MatB (f )
où MatB (f ) est la matrice de f dans les bases B et B. Alors, d’après le théorème 4.3.9, c’est un isomor-
phisme de K-espace vectoriels. Il reste à voir que c’est un morphisme d’anneaux. Mais, on a Φ(IdE ) = In
et d’autre part, d’après la proposition 4.4.7,
ΦB (f ◦ g) = ΦB (f ) × ΦB (g),
ce qui conclut la preuve.
Attention. (1) Si dim(E) ≥ 2, les anneaux End(E) et Mn (K) sont non commutatifs : cela se déduit du
théorème 3.2.4 et du fait que deux anneaux isomorphes sont simultanément commutatifs ou non commu-
tatifs.
(2) Si dim(E) ≥ 2, l’anneau Mn (K) est non intègre. Autrement dit, dans Mn (K), on peut avoir AB = AC
et B 6= C comme on peut le vérifier pour n = 2 avec
1 3 −3 −3 6 −3
A= , B= , C= ,
2 6 1 1 −2 1
qui peut fournit un contre-exemple pour tout n naturellement. On en déduit que End(E) n’est pas intègre
non plus puisqu’il est isomorphe en tant qu’anneau à Mn (K).
64
4.4.4 Puissances de matrices
Nous souhaitons prendre des notations lorsque l’on veut multiplier une matrice avec elle-même. D’après
ce qui précède, cela impose que la matrice soit carrée.
Définition 4.4.11. Si k est un entier naturel, on appelle puissance k-ième de la matrice carrée A ∈
Mn (K) et on note Ak la matrice définie de la façon suivante : A0 = In , A1 = A et si k ≥ 2, Ak = Ak−1 .A.
Remarque 4.4.12. On peut avoir une matrice non nulle dont une puissance entière est nulle. Par exemple
0 0 2 0 0
A= , A = = 02 .
1 0 0 0
Définition 4.4.13. Une matrice carrée de taille n est dite nilpotente s’il existe k ∈ N tel que Ak = 0n .
Puisque End(E) et Mn (K) sont des K-algèbres, on peut faire dans ces deux ensembles des calculs
analogues à ceux de R, en faisant attention toutefois à la non commutativité et à la non intégrité. En
particulier, on peut parler de polynômes d’endomorphismes ou de matrices :
λm .Am + · · · + λ1 .A + λ0 .In = 0.
On verra que ces polynômes de matrices ou d’endomorphismes jouent un grand rôle dans la réduction des
endomorphismes au chapitre 6.
65
Preuve. Dans le sens direct, si f ∈ GL(E), il existe g ∈ GL(E), g = f −1 telle que f ◦ g = IdE (rappelons
que g est linéaire d’après la proposition 3.2.2).
Réciproquement, s’il existe g ∈ End(E) tel que f ◦ g = IdE alors g est injective donc bijective d’après
le corollaire 3.3.8. Donc g −1 existe et
f = f ◦ (g ◦ g −1 ) = (f ◦ g) ◦ g −1 = IdE ◦ g −1 = g −1 ,
d’où l’on déduit que f = g −1 . Donc f est inversible pour la composition et son inverse est g.
Remarque 4.5.4. Il est assez remarquable de voir que, dans un espace vectoriel de dimension finie,
l’inversibilité à droite (ou à gauche) suffit pour avoir l’inversibilité malgré la non commutativité. Cela
provient du théorème du rang.
Matrices inversibles
Définition 4.5.5. Une matrice A est inversible s’il existe une matrice B et un entier n tel que AB =
BA = In . La matrice B est alors appelée l’inverse de A et notée A−1 .
Remarque 4.5.6. Supposons A ∈ Mn,p (K) inversible. Il existe alors B telle que AB = In ce qui impose
B ∈ Mp,n (K). Mais alors BA ∈ Mp (K) et comme BA = In , on en déduit que n = p. Donc si A est
inversible, c’est une matrice carrée.
Exemples 4.5.7. (1) La matrice nulle 0n n’est pas inversible car pour tout M ∈ Mn (K), 0n .M = M.0n =
0n .
(2) La matrice identité est inversible et est sa propre inverse.
(3) Une matrice M = (a) ∈ M1 (K) est inversible si et seulement si a 6= 0 et alors M −1 = (a−1 ).
a b
(4) Soit A = ∈ M2 (K) est inversible si et seulement si ad − bc 6= 0 et dans ce cas
c d
1 d −b
A−1 = .
ad − bc −c a
On peut montrer cela par un calcul mais nous verrons la raison profonde de ceci dans le chapitre suivant.
Définition 4.5.8. Le groupe des matrices inversibles à coefficients dans le corps K est noté GLn (K).
Théorème 4.5.9. Soit f ∈ L(E, F ) où E et F sont de dimension respectives p et n. Soient B une base
de E et B 0 une base de F . Alors
f est bijective ⇐⇒ (p = n) et MatB,B0 (f ) ∈ GLn (K).
Preuve. Supposons f bijective. Alors, d’après la proposition 3.2.2 et le théorème du rang, (n = p) et
f −1 ∈ L(F, E). Soient A = MatB,B0 (f ) et B = M atB0 ,B (f −1 ). D’après la proposition 4.4.7, on a
In = MatB (IdE ) = MatB (f ◦ f −1 ) = MatB0 ,B (f −1 )MatB,B0 (f )
soit BA = In . De même, AB = In ce qui prouve que A est inversible comme attendu.
Réciproquement si A = MatB,B0 (f ) est inversible, d’inverse B alors AB = In . Soit g ∈ L(F, E) une
application linéaire telle que MatB0 ,B (g) = B (elle existe puisque ΦB0 ,B est surjective). Alors, par 4.4.7
IdE = (ΦB )−1 (In ) = (ΦB )−1 (AB) = Φ−1 −1
B,B0 (A) ◦ ΦB0 ,B (B) = f ◦ g
66
Proposition 4.5.10. Si A ∈ Mn (K), les assertions suivantes sont équivalentes :
(1) A est inversible.
(2) A est inversible à droite (resp. à gauche).
(3) rang(A) = n.
(4) A est la matrice d’un isomorphisme d’espaces vectoriels.
Preuve. On va montrer (2) ⇒ (1) ⇒ (4) ⇒ (3) ⇒ (2).
Montrons que (2) ⇒ (1). Supposons A inversible à droite alors il existe B ∈ Mn (K) telle que AB = In .
Notons A = MatB (f ) et B = MatB (g) pour f, g ∈ End(E) et pour une certaine base B de E. Si on
applique (ΦB )−1 à l’égalité AB = In , on en déduit que f ◦ g = IdE . D’après le théorème 4.5.3, g est
bijective donc f aussi. D’après le théorème 4.5.9, on en déduit bien que A ∈ GLn (K).
Montrons que (1) ⇒ (4). Si A est inversible et si on pose A = MatB (f ) avec f ∈ End(E) alors le
théorème 4.5.9 montre que f est bijective donc c’est un automorphisme d’espaces vectoriels dont A est la
matrice.
Montrons que (4) ⇒ (3) et supposons que A = MatB (f ) où f ∈ L(E, F ) est un isomorphisme. D’après
la proposition 4.5.2, rang(A) = rang(f ). Mais comme f est un isomorphisme, d’après le théorème du rang,
rang(f ) = n.
Montrons enfin que (3) ⇒ (2) et supposons que rang(A) = n. Soit A = MatB (f ). Alors, d’après la
proposition 4.5.2, rang(f ) = n donc f est bijective par le théorème du rang. D’après le théorème 4.5.9, A
est inversible donc inversible à droite.
Corollaire 4.5.11. On reprend les notations du théorème 4.4.10. Alors ΦB induit un isomorphisme de
groupes ΦB : GL(E) → GLn (K).
Preuve. Tout isomorphisme d’anneaux induit un isomorphisme de groupes entre les groupes des in-
versibles de chacun des anneaux.
67
d’où x1 = · · · = xn = 0 puisque la famille {u1 , · · · , un } est libre. Cela prouve que f est injective. D’après
le théorème du rang, f est bijective donc f ∈ GL(E).
Pn
Supposons maintenant que f est bijective donc injective et considérons i=1 λi ui = 0 c’est à dire
n
X n
X
0E = λi f (ei ) = f ( λi ei ).
i=1 i=1
Pn Pn
Alors i=1 λi ei ∈ ker f d’où i=1 λi ei = 0 par injectivité. Puisque la famille {e1 , · · · , en } est libre,
λ1 = · · · λn = 0. Cela implique que la famille de cardinal n {u1 , · · · , un } est libre dans l’espace vectoriel
E de dimension n : c’en est donc une base.
Définition 4.6.2. Soient B = {e1 , · · · , en } et B 0 = {e01 , · · · , e0n } deux bases de E. On appelle matrice de
passage de la base B à la base B 0 la matrice dans la base B de l’automorphisme f de E défini par
Remarques 4.6.3. (1) L’automorphisme f de la définition existe et est unique d’après la proposition
4.6.1 et le théorème 3.3.1 donc la définition a un sens.
(2) La matrice de passage de la base B à la base B 0 est la matrice des coordonnées des nouveaux vecteurs
e0i exprimés à l’aide des anciens vecteurs ei : pour j = 1, · · · , n, on a
n
X
e0j = ai,j ej , PasB,B0 = (ai,j ).
i=1
(3) De façon alternative, la matrice de passage PasB,B0 est la matrice MatB0 ,B (IdE ).
Exemple 4.6.4. On considère E = R2 [X] rapporté à sa base canonique B = {1, X, X 2 }. On considère la
famille B 0 = {1, 1 + X, 1 + X 2 }. On montre facilement qu’elle est libre et de cardinal 3 avec dim(E) = 3
donc c’est une base de E. On a
1 1 1
PasB,B0 = 0 1 0 .
0 0 1
Proposition 4.6.5. On reprend les notations de la définition précédente. Alors PasB,B0 ∈ GLn (K) et
P = PasB,B0 ⇐⇒ P −1 = PasB0 ,B .
Preuve. La matrice PasB,B0 est la matrice d’un automorphisme de E par définition donc elle est inversible
par la proposition 4.5.10. En outre puisque
on en déduit l’équivalence.
68
4.6.2 Effet des changements de bases sur les vecteurs
Théorème 4.6.6. Si XB est le vecteur colonne des coordonnées du vecteur X de E dans la base B, XB0
celui des coordonnées de X dans la base B 0 alors
ou
XB = PasB,B0 .XB0 .
Proposition 4.6.7. Soient B = {e1 , · · · , en }, B 0 = {e01 , · · · , e0n } et B 00 = {e001 , · · · , e00n } trois bases de E.
Alors
PasB,B00 = PasB,B0 .PasB0 ,B00 .
Preuve. On utilise le théorème 4.6.6. Soit X ∈ E quelconque. Alors XB = PasB,B0 .XB0 et XB0 =
PasB0 ,B00 .XB00 donc XB = (PasB,B0 PasB0 ,B00 )XB00 . Comme d’autre part, XB = PasB,B00 .XB00 , on en déduit
que
(PasB,B0 PasB0 ,B00 )XB00 = PasB,B00 .XB00 ,
pour tout X ∈ E et donc, d’après la proposition 4.4.6,
YC = MatB,C (f ).XB .
69
De même si f est munie de la base B 0 au départ et de la base C 0 à l’arrivée,
YC 0 = MatB0 ,C 0 (f ).XB0
d’où
YC 0 = (Pas−1
C,C 0 MatB,C (f )PasB,B0 )XB0 .
MatB0 ,C 0 (f ) = Pas−1
C,C 0 MatB,C (f )PasB,B0 ,
A0 = Q−1 AP.
Définition 4.6.9. Deux matrices A, A0 ∈ Mn,p (K) sont dites équivalentes s’il existe une matrice in-
versible P de taille n et une matrice inversible Q de taille p telles que A0 = Q−1 AP . Etre équivalentes est
une relation d’équivalence sur Mn,p (K).
Proposition 4.6.10. Deux matrices équivalentes représentent la même application linéaire dans des bases
différentes.
Preuve. Cela provient du théorème précédent.
A0 = P −1 AP.
Définition 4.6.12. Deux matrices A, A0 ∈ Mn (K) sont dites semblables s’il existe une matrice P
inversible de taille n telle que A0 = P −1 AP . Être semblables est une relation d’équivalence sur Mn (K).
Proposition 4.6.13. Deux matrices semblables représentent le même endomorphisme de K n dans des
bases différentes.
70
4.6.5 Équivalence et similitude de matrices
Dans la sous-section précédente, nous avons défini les notions de matrices équivalentes (resp. semblables).
On sait qu’elles représentent la même application linéaire (resp. le même endomorphisme) dans des
bases différentes. Être équivalentes (resp. être semblables) est une relation d’équivalence mais comment
reconnaı̂tre deux matrices qui sont dans la même classe d’équivalence (resp. de similitude) ? Nous allons
voir que le rang va nous y aider.
Théorème 4.6.14. Une matrice A ∈ Mn,p (K) est de rang r si et seulement si elle est équivalente à la
matrice bloc
Ir 0
Mr = ∈ Mn,p (K),
0 0
c’est à dire la matrice (ai,j )1≤i≤n,1≤j≤p définie par ai,i = 1 si 1 ≤ i ≤ r et ai,j = 0 sinon.
Preuve. Dans le sens indirect, si A est équivalente à la matrice Mr de l’énoncé, ces matrices représentent
la même application linéaire f dans des bases différentes. Or, le rang de f est, par définition, la dimension
de Im f qui ne dépend pas des bases choisies. D’après la proposition 4.5.2, rang(A) = rang(f ) = rang(Mr ).
Or, on a clairement rang(Mr ) = r d’où le résultat.
Réciproquement, soient A une matrice de rang r. On peut supposer que A = MatB,B0 (f ) où f ∈
L(E, F ), dim(E) = p, dim(F ) = n et B et C sont les bases canoniques respectives de E et F . Comme
A est de rang r, dim(Im f ) = rang(f ) = r d’après la proposition 4.5.2. Soit {g1 , · · · , gr } une base de
Im f et soient e1 , · · · , er tels que f (ei ) = gi pour i = 1, · · · , r (ils existent puisque les gi sont dans l’image
2
de f ). Comme T la famille {g1 , · · · , gr } est libre, il en va de même pour la famille {e1 , · · · , er } . De plus,
he1 , · · · , er i ker f = {0} et d’après le théorème du rang, r + dim(ker f ) = dim(E). D’après le corollaire
2.6.16, he1 , · · · er i et ker f sont supplémentaires dans E. D’après le théorème 2.6.12, la concaténation d’une
base de he1 , · · · , er i et d’une base de ker f est une base de E. Soit alors {er+1 , · · · , ep } une base de ker f
et posons B 0 = {e1 , · · · , er , er+1 , · · · , ep } : c’est une base de E. D’après le théorème de la base incomplète,
on peut compléter la famille {g1 , · · · , gr } en une base C 0 = {g1 , · · · , gn } de F . D’après le théorème 4.6.8,
A et MatB0 ,C 0 (f ) sont équivalentes. Or, si i = 1, · · · , r, les coordonnées de f (ei ) dans la base C 0 sont
(0, · · · , 0, 1, 0, · · · , 0) avec un 1 à la i-ième position et si i ≥ r + 1, les coordonnées de f (ei ) dans la base
C 0 sont nulles puisque ei ∈ ker f . Ainsi, MatBb0 ,C 0 = Mr et on en déduit le résultat.
Corollaire 4.6.15. Deux matrices sont équivalentes si et seulement si elles ont le même rang.
Preuve. Si deux matrices sont équivalentes, elles ont le même rang puisqu’elles représentent la même
application linéaire dans des bases différentes.
Réciproquement, si deux matrices ont le même rang, elles sont équivalentes à la matrice Mr du théorème
4.6.14 donc sont équivalentes entre elles par transitivité.
Notons que si deux matrices sont semblables alors elles ont même rang (puisqu’elles sont en particulier
équivalentes). En revanche, la réciproque est fausse (trouver un contre-exemple !).3
2 puisqu’une relation de dépendance linéaire entre les les ei en donne une entre les gi par linéarité de f .
3 Une condition nécessaire est suffisante pour que deux matrices soient semblables est qu’elles aient mêmes facteurs invari-
ants : ce résultat fondamental est toutefois hors de portée du présent cours.
71
4.7 Matrices et systèmes
4.7.1 Discussion
Considérons un système S de n équations à p inconnues (avec second membre) à coefficients dans K.
L’ensemble des solutions de ce système est un sous-espace affine de l’espace affine K p de direction l’ensemble
des solutions du système sans le second membre (qui est un sous-espace vectoriel de l’espace vectoriel K p
d’après 2.3.4(2)). Nous allons maintenant utiliser l’outil matriciel pour résoudre ce système.
Pp
Pour cela, notons x1 , · · · , xp les inconnues de S et i=1 ai,j xj = bi la i-ième ligne de S.
Définition 4.7.1. Avec les notations précédentes, la matrice A = (ai,j )1≤i≤n,1≤j≤p est appelée matrice
du système S et la matrice colonne B = (bi )1≤i≤n de type (n, 1) est le second membre du système. La
matrice colonne X = (xj )1≤j≤p de type (p, 1) est la matrice des inconnues. Le rang du système S est, par
définition, le rang de la matrice A. On utilise parfois la notation (A|B) pour désigner la matrice augmentée
de S, c’est à dire la matrice de Mn,p+1 (K) construite en accolant la matrice colonne B à droite de la
matrice A.
Le système S s’écrit alors B = AX. Soient E un espace vectoriel de dimension p muni d’une base B,
F un espace vectoriel de dimension n muni d’une base C et f ∈ L(E, F ) telle que A = MatB,C (f ). Soient
b ∈ F tel que B = bC et x ∈ E tel que X = xB . Le système équivaut encore à f (x) = b.
On peut faire les constatations suivantes :
-Le système a une solution si et seulement si b ∈ Im f , c’est à dire si et seulement si le rang de la
matrice augmentée est égal au rang de A. Dans ce cas on dit que le système est compatible. C’est en
particulier le cas lorsque rang(A) = n car alors f est surjective.
-La dimension de l’espace affine des solutions est 0 si le système n’est pas compatible. Si le système
est compatible, la dimension de l’espace affine des solutions est, par définition, la dimension de l’espace
vectoriel des solutions du système sans second membre, c’est à dire la dimension de ker f . D’après le
théorème du rang, dim(E) = dim(ker f ) + rang(f ) = dim(ker f ) + rang(A) donc dim(ker f ) = dim(E) −
rang(A) = p − rang(A).
-Si Q ∈ GLn (K), B = AX équivaut à Q−1 B = Q−1 AX. Si de plus P ∈ GLp (K), et si on fait le
changement de variables Y = P −1 X, alors le système équivaut à B 0 = A0 Y où B 0 = Q−1 B et A0 = Q−1 AP .
D’après le théorème 4.6.8, cela signifie simplement que l’on change de base au départ et à l’arrivée.
-Si A ∈ GLn (K), c’est à dire si rang(A) = n = p d’après la proposition 4.5.10 alors on a un système
carré et quel que soit B, le système a une unique solution qui est X = A−1 B. Ceci n’est vrai pour tout B
que si A ∈ GLn (K).
72
Comme le système s’écrit B = AX = QMr P −1 X, on a Q−1 B = Mr P −1 X. Or, d’après le théorème
4.6.6, Y = P −1 X est la matrice colonne des coordonnées de X dans la base B 0 et C = Q−1 B est la matrice
colonne des coordonnées de B dans le base C 0 . Le système équivaut alors à
y1 c1
.. ..
. .
C = Mr Y, où Y = y
r
, C = cr .
. .
.. ..
yp cn
Or,
y1
..
.
yr
0 .
Mr Y =
.
..
0
Cela signifie donc que le système équivaut à
c1 = y1 , c2 = y2 , · · · , cr = yr , cr+1 = · · · = cn = 0.
On trouve donc l’ensemble des solutions sous forme de système paramétré à p − r paramètres (ce sont les
yr+1 , · · · , yp ), appelées inconnues auxiliaires.
Définition 4.7.2. Soit A une matrice. On appelle opération élémentaire une des opérations suivantes :
(1) Multiplication d’une ligne (resp. d’une colonne) par un scalaire non nul;
(2) Ajout d’un multiple quelconque d’une ligne (resp. colonne) à une autre ligne (resp. colonne);
(3) Échange de deux lignes (resp. colonnes).
En fait, on peut représenter les opérations élémentaires matriciellement. Rappelons ces trois types de
matrices.
73
Les matrices de dilatation
On appelle matrice de dilatation toute matrice bloc du type
Ii−1 0 0
Dn (i, λ) = 0 λ 0 ∈ Mn (K),
0 0 In−i
où λ 6= 0. Cette matrice est clairement inversible et son inverse est Dn (i, λ−1 ).
Si A ∈ Mn,p (K), multiplier A à gauche par Dn (i, λ) revient à multiplier la i-ième ligne de A par le
scalaire non nul λ. Multiplier à droite par Dp (i, λ) revient à multiplier la i-ième colonne de A par le
scalaire non nul λ.
Tn (i, j, λ) := In + λEij ,
où i 6= j, λ ∈ K et Eij est une matrice élémentaire de Mn (K) (voir définition 4.3.5). Une matrice de
transvection est inversible et son inverse est Tn (i, j, −λ).
Si A ∈ Mn,p (K), multiplier A à gauche par Tn (i, j, λ) revient à ajouter à la i-ème ligne de A sa j-ième
ligne multipliée par λ. Multiplier A à droite par Tp (i, j, λ) revient à ajouter à la j-ième colonne de A sa
i-ième colonne multipliée par λ.
où j > i. En d’autres termes, Sn (i, j) est la matrice identité à ceci près qu’on a échangé la i-ième ligne et
la j-ième ligne. Une matrice de transposition est inversible d’inverse elle-même.
Si A ∈ Mn,p (K), multiplier A à gauche par Sn (i, j) revient à échanger la i-ième ligne et la j-ième ligne
de A. Multiplier A à droite par Sn (i, j) revient à échanger la i-ième colonne et la j-ième colonne.
Résolution pratique
Théorème 4.7.3. Lorsqu’on fait subir à une matrice A des opérations élémentaires sur ses lignes ou ses
colonnes, on obtient une matrice A0 équivalente à A.
Preuve. Faire une suite d’opérations élémentaires sur les lignes ou les colonnes de A revient à multiplier à
gauche ou à droite par des matrices de dilatation, de transvection ou de transposition. Puisqu’on a vu que
ces matrices sont inversibles, la matrice A0 obtenue au terme de ces opérations est forcément équivalente
à A.
74
La résolution pratique passe par la méthode de Gauss. Rappelons que l’on veut passer de A à Mr
au moyen d’opérations élémentaires. On multiplie par des matrices à gauche pour transformer A en une
matrice équivalente du type
a1,1 , a1,2 · · · · · · · · · a1,p
.. ..
0 a2,2 . .
.. ,
. . . .
.. .. .. .. .
0 ··· 0 an,n · · · an,p
si on suppose par exemple n > p. Ensuite, on multiplie par des matrices à droite pour aboutir à la matrice
équivalente
b1,1 , 0 ··· ··· ··· 0
.. ..
0 b2,2 . .
.. ,
. .. .. ..
.. . . . .
0 ··· 0 bn,n 0 0
puis en multipliant à gauche et à droite par des matrices convenables, on aboutit finalement à la matrice
−1
Mr . Si on suppose qu’au bout du compte on a multiplié à gauche par Q−1m · · · Q1 et à droite par P1 · · · Pq ,
−1 −1 −1 −1
alors en posant Q = Qm · · · Q1 et P = P1 · · · Pq , on a bien Q AP = Mr .
Ceci étant, la justification de la possibilité de cette résolution (c’est à dire le fait qu’on aboutira toujours
à la matrice Mr au bout du compte) est conséquence du difficile théorème suivant.
Théorème 4.7.4. Toute matrice inversible est produit de matrices de dilatation, de transvection et de
transposition.
Preuve. Voir le Corollaire 2.12 page 99 dans le livre de Daniel Perrin4 où il est même montré que les
matrices de dilatation et de transvection suffisent.
Si on admet ce théorème, la résolution pratique précédente est possible. En effet, on sait qu’il existe
deux matrices inversibles Q et P telles que Q−1 AP = Mr . Or d’après le théorème précédent, on sait que
toute matrice inversible est produit de matrices d’opérations élémentaires, c’est à dire qu’on peut écrire
−1
Q−1 = Q−1m · · · Q1 , P = P1 · · · Pq où les Pi et les Qj sont des matrices de dilatation, de transvection ou
de transposition.
75
Chapitre 5
Déterminants
Définition 5.1.2. (1) Le groupe de la proposition précédente est appelé groupe symétrique et ses éléments
sont appelés permutations de E. Lorsque E = {1, · · · , n}, on note plutôt Sn pour S(E). On montre
aisément par récurrence que le cardinal de Sn est n !.
(2) Une transposition τ ∈ Sn est une permutation qui échange deux éléments de {1, · · · , n} et laisse fixe
tous les autres, c’est à dire τ (i) = j, τ (j) = i et τ (k) = k pour tous k 6= i, j. Cette transposition est notée
(i, j).
Les transpositions constituent les briques élémentaires de Sn puisqu’elles permettent de décrire tous
les éléments de Sn .
Proposition 5.1.3. Soit σ ∈ Sn . Alors il existe des transpositions τ1 , · · · , τr ∈ Sn telles que σ = τ1 ◦· · ·◦τr .
Preuve. On procède par récurrence sur n. La propriété est claire si n = 1, 2. Supposons donc que la
propriété soit vraie pour Sn et soit σ ∈ Sn+1 . Alors, de deux choses l’une : soit σ(n + 1) = n + 1, soit
σ(n + 1) 6= n + 1.
Dans le premier cas, si on pose σ 0 = σ|{1,··· ,n} alors σ 0 ∈ Sn . Par hypothèse de récurrence, on peut
écrire σ 0 = τ1 ◦ · · · ◦ τq où τ1 , · · · , τq ∈ Sn sont des transpositions. Mais on a aussi τ1 , · · · , τq ∈ Sn+1 et
σ = τ1 ◦ · · · ◦ τq .
Dans le second cas, notons τ = (n + 1, σ(n + 1)) ∈ Sn+1 . Alors, on a (τ ◦ σ)(n + 1) = n + 1 donc, d’après
le cas précédent, il existe τ1 , · · · , τq ∈ Sn+1 telles que τ ◦ σ = τ1 ◦ · · · ◦ τq . On conclut en remarquant que
τ est son propre inverse :
σ = τ ◦ τ ◦ σ = τ ◦ τ1 ◦ · · · ◦ τq .
76
Remarques 5.1.4. (1) En langage de théorie des groupes, la proposition précédente exprime le fait que
l’ensemble des transpositions engendre le groupe Sn .
(2) Dans la proposition précédente, la décomposition en composée de transpositions n’est pas unique.
Par exemple, si l’on se place dans S5 et si σ = (3, 5) ◦ (1, 2) ◦ (1, 4), alors on peut aussi écrire σ =
(3, 5) ◦ (2, 4) ◦ (1, 2).
5.1.2 Signature
Définition 5.1.5. Sur Sn , on définit une fonction ε appelée signature par la formule
Y σ(i) − σ(j)
ε(σ) = ,
i−j
(i,j)∈X
Le second facteur est ε(σ). Montrons que le premier facteur est ε(σ 0 ). Quand les couples (i, j) décrivent
l’ensemble X, il en va de même des couples f (σ(j), σ(i)). En outre,
Y σ 0 (σ(j)) − σ 0 (σ(i)) Y σ 0 (σ(j)) − σ 0 (σ(i)) Y σ 0 (σ(j)) − σ 0 (σ(i))
= . ,
σ(j) − σ(i) σ(j) − σ(i) σ(j) − σ(i)
(i,j)∈X (i,j)∈X1 (i,j)∈X2
où X1 = {(i, j) ∈ X | σ(i) < σ(j)} et X2 = {(i, j) ∈ X | σ(j) < σ(i)}, d’où l’on déduit le résultat.
77
Corollaire 5.1.8. Si σ ∈ Sn se décompose en produits de transpositions sous la forme σ = τ1 ◦ · · · ◦ τr =
τ10 ◦ · · · ◦ τs0 alors r et s ont même parité.
Preuve. Puisque σ est un morphisme de groupes et que la signature d’une transposition vaut −1, on a
ε(σ) = (−1)r = (−1)s ce qui prouve le résultat.
Définition 5.2.3. (1) Une forme 2-linéaire f sur E est dite antisymétrique si pour tous v, w ∈ E, on a
f (v, w) = −f (w, v).
(2) Une forme 2-linéaire f sur E est dite alternée si pour tout v ∈ E, f (v, v) = 0. L’ensemble des formes
2-linéaires alternées sur E est noté A2 (E).
Proposition 5.2.4. Une forme 2-linéaire alternée est antisymétrique. Si on suppose que K est un corps
de caractéristique différente de 2, une forme 2-linéaire antisymétrique est alternée.
Preuve. Soit f une forme 2-linéaire alternée. Alors, pour tous v, w ∈ E, on a
78
Proposition 5.2.5. L’ensemble L2 (E) est un K-espace vectoriel et l’ensemble A2 (E) en est un sous-
espace vectoriel.
Preuve. On sait que (A(E × E, K), + b , b. ) est un K-espace vectoriel (voir la sous-section 2.2.2). On
vérifie aisément que L2 (E) en est un sous-espace vectoriel et que A2 (E) est à son tour un sous-espace
vectoriel de L(E).
f (v, w) = af (e1 , w) + bf (e2 , w) = acf (e1 , e1 ) + adf (e1 , e2 ) + bcf (e2 , e1 ) + bdf (e2 , e2 ).
Mais, puisque f est alternée (et donc antisymétrique) f (e1 , e1 ) = 0 = f (e2 , e2 ) et f (e2 , e1 ) = −f (e1 , e2 )
d’où
f (v, w) = (ad − bc)f (e1 , e2 ).
On en déduit le résultat suivant :
Théorème 5.2.6. Soient E un espace vectoriel de dimension 2 sur K et B = {e1 , e2 } une base de E.
(1) Pour tout λ ∈ K, il existe une unique forme 2-linéaire alternée telle que f (e1 , e2 ) = λ.
(2) A2 (E) est un espace vectoriel de dimension 1.
Preuve. (1) En reprenant les notations qui précèdent le théorème, si λ ∈ K on pose f (v, w) = (ad − bc)λ.
Alors f est une forme 2-linéaire alternée sur E telle que f (e1 , e2 ) = λ. L’unicité provient de ce que la
valeur de f (e1 , e2 ) détermine entièrement une forme 2-linéaire alternée (toujours d’après les calculs qui
précèdent le théorème).
(2) Soit f l’unique forme 2-linéaire alternée vérifiant f (e1 , e2 ) = 1 (elle existe d’après (1)). Alors si g
est une forme 2-linéaire alternée, soit λ = g(e1 , e2 ). D’après ce qui précède, on voit que g = λ.f ce qui
prouve que A2 (E) = hf i. La famille {f } est forcément libre donc c’est une base de A2 (E).
Définition 5.2.7. On reprend les notations du théorème précédent. L’unique forme 2-linéaire alternée
qui vérifie f (e1 , e2 ) = 1 pour une base B = {e1 , e2 } fixée est appelée déterminant dans la base B et notée
detB .
Remarques 5.2.8. (1) Il faut faire attention : le raisonnement ci-dessus n’est vrai que si la dimension
de l’espace vectoriel E est 2. Dans ce cas, si f est une forme 2-linéaire alternée sur E, il existe un scalaire
λ tel que f = λ. detB .
(2) Si v = ae1 + be2 et w = ce1 + de2 alors detB (v, w) = ad − bc. Plus tard, cette relation sera notée
a b
detB (v, w) = = ad − bc.
c d
On a aussi :
Proposition 5.2.9. Si a1 , a2 ∈ E alors le système {a1 , a2 } est libre si et seulement si c’est une base de
E si et seulement si detB (a1 , a2 ) 6= 0.
79
Preuve. La première équivalence provient de la proposition 2.6.7(3).
Si {a1 , a2 } est une base de E, supposons que detB (a1 , a2 ) = 0. Comme {a1 , a2 } est une base de E,
elle engendre E et puisque detB est une forme 2-linéaire alternée, on en déduit que f (v, w) = 0 pour
tous v, w ∈ E (puisque detB (a1 , a2 ) = 0 = detB (a1 , a1 ) = detB (a2 , a2 )). Cela contredit le fait que
detB (e1 , e2 ) = 1 donc detB (a1 , a2 ) 6= 0.
Réciproquement, si {a1 , a2 } est liée, il existe α ∈ K tel que a1 = αa2 donc detB (a1 , a2 ) = detB (a1 , αa2 ) =
αdetB (a1 , a1 ) = 0.
En fait, les résultats que l’on vient de prouver pour les formes 2-linéaires sur un espace vectoriel de
dimension 2 vont se généraliser au cadre de certaines formes (appelées formes n-linéaires) sur un espace
vectoriel de dimension n.
pour tout σ ∈ Sn .
(2) Une forme n-linéaire f sur E est dite alternée si pour tout (v1 , · · · , vn ) ∈ E n , le fait que vi = vj pour
i 6= j implique que f (v1 , · · · , vn ) = 0. L’ensemble des formes n-linéaires alternées de E est noté An (E).
Théorème 5.3.4. (1) Ln (E) est un K-espace vectoriel et An (E) en est un sous-espace vectoriel.
(2) Toute forme n-linéaire alternée est antisymétrique. Si la caractéristique de K est différente de 2, toute
forme n-linéaire antisymétrique est alternée.
(3) Une forme n-linéaire f est antisymétrique si et seulement si pour tous i, j ∈ {1, · · · , n} avec i 6= j, et
pour tout (v1 , · · · , vn ) ∈ E n , on a
f (v1 , · · · , vi−1 , vi , vi+1 , · · · , vj−1 , vj , vj+1 , · · · , vn ) = −f (v1 , · · · , vi−1 , vj , vi+1 , · · · , vj−1 , vi , vj+1 , · · · , vn ),
autrement dit, si et seulement si on a f (vτ (1) , · · · , vτ (n) ) = −f (v1 , · · · , vn ) pour toute transposition τ ∈ Sn
et tout (v1 , · · · , vn ) ∈ E n .
Preuve. (1) Ln (E) est de façon évidente un sous-espace vectoriel de (A(E n , K), +
b , b. ). On vérifie
ensuite que An (E) est un sous-espace vectoriel de Ln (E).
(2) Si f est une forme n-linéaire alternée, on a
0 = f (v1 , · · · , vi−1 , vi + vj , vi+1 , · · · , vj−1 , vi + vj , vj+1 , · · · , vn )
,
= f (v1 , · · · , vi−1 , vi , vi+1 , · · · , vj−1 , vj , vj+1 , · · · , vn ) + f (v1 , · · · , vi−1 , vj , vi+1 , · · · , vj−1 , vi , vj+1 , · · · , vn )
80
ce qui implique que f est antisymétrique.
Si f est une forme n-linéaire antisymétrique et si (v1 , · · · , vn ) ∈ E n avec vi = vj pour i 6= j, on a
f (v1 , · · · , vi−1 , v, vi+1 , · · · , vj−1 , v, vj+1 , · · · , vn ) = −f (v1 , · · · , vi−1 , v, vi+1 , · · · , vj−1 , v, vj+1 , · · · , vn ),
en appliquant la définition à la transposition de Sn qui échange i et j (et dont la signature est −1). Comme
la caractéristique de K est différente de 2, ces deux termes sont nuls.
(3) Si f est antisymétrique, elle vérifie les égalités de l’énoncé puisque toute transposition est un élément
de Sn .
Réciproquement, si σ ∈ Sn , il existe des transpositions τ1 , · · · , τp ∈ Sn telles que σ = τ1 ◦ · · · ◦ τp par
la proposition 5.1.3. On a
f (vσ(1) , · · · , vσ(n) ) = f (vτ1 ((τ2 ◦···◦τp )(1)) , · · · , vτ1 ((τ2 ◦···◦τp )(n)) )
= −f (vτ2 ◦···◦τp (1) , · · · , vτ2 ◦···◦τp (n) ) par hypothèse;
= ε(τ1 )f (vτ2 ◦···◦τp (1) , · · · , vτ2 ◦···◦τp (n) ) puisque la signature de τ1 est − 1;
= ε(τ1 )ε(τ2 )f (vτ3 ◦···◦τp (1) , · · · , vτ3 ◦···◦τp (n) )
= ε(τ1 ◦ τ2 )f (vτ3 ◦···◦τp (1) , · · · , vτ3 ◦···◦τp (n) ) car ε est un morphisme de groupes;
= ε(σ)f (v1 , · · · , vn ) par récurrence immédiate.
Remarque 5.3.5. Dans la section précédente, on a défini une forme 2-linéaire antisymétrique sur E
comme étant une forme 2-linéaire vérifiant f (v, w) = −f (w, v) pour tous v, w ∈ E. Cela équivaut aussi
au fait que f (σ(v), σ(w)) = ε(σ)f (v, w) pour tous v, w ∈ E et tout σ ∈ S2 . En effet, S2 est un ensemble
qui contient deux éléments (l’identité et une transposition τ qui envoie 1 sur 2 et 2 sur 1) et si f est
antisymétrique alors f (τ (v), τ (w)) = f (w, v) = −f (v, w) = ε(τ )f (v, w) pour tous v w ∈ E. La définition
générale de forme n-linéaire antisymétrique est donc bien une généralisation de celle donnée précédemment
dans le cas particulier des formes 2-linéaires.
Preuve. Pour montrer l’existence, il s’agit de voir que l’application f définie dans l’énoncé est effective-
ment une forme n-linéaire alternée vérifiant f (e1 , · · · , en ) = λ. Le fait qu’elle soit n-linéaire est évident.
Ensuite, de la façon dont f est définie
X
f (e1 , · · · , en ) = ( ε(σ)δσ(1),1 · · · δσ(n),n ).λ,
σ∈Sn
81
où δi,j = 1 si i = j, 0 sinon. Ainsi pour qu’un terme de la somme ci-dessus soit non nul il faut et il suffit
que tous les δσ(i),i soit non nul, c’est à dire qu’il faut que pour tout i = 1, · · · , n on ait, σ(i) = i. Donc
σ = Id et la somme ci-dessus ne contient qu’un terme. On a f (e1 , · · · , en ) = λ.
Montrons enfin que f est une forme alternée. Supposons que vi = vj pour i 6= j, et soit τ = (i, j).
Montrons que l’on a Sn = An ∪ An τ où An τ = {σ ◦ τ | σ ∈ An }. On a évidemment An ∪ An τ ⊂ Sn .
Réciproquement, si σ ∈ Sn alors soit σ a pour signature 1, auquel cas elle est élément de An , soit σ a pour
signature −1 et σ ◦ τ = σ 0 ∈ An puis σ = σ 0 ◦ τ puisque τ ◦ τ = Id. Cela étant, on a
X X
f (v1 , . . . , vn ) = ε(σ)aσ(1),1 · · · aσ(n),n + ε(στ )aσ(τ (1)),1 · · · aσ(τ (n)),n .
σ∈An σ∈An
Puisque ϕ est alternée, tous ces termes sont nuls, sauf si les indices i1 , . . . , in sont tous distincts, autrement
dit, sauf s’il existe une permutation σ ∈ Sn telle que ij = σ(j) pour tout j = 1, . . . , n. On a ainsi
Xn n
X X
ϕ(v1 , · · · , vn ) = ϕ( ai,1 ei , · · · , ai,n ei ) = aσ(1),1 · · · aσ(n),n ϕ(eσ(1) , · · · , eσ(n) ).
i=1 i=1 σ∈Sn
Définition 5.3.7. Soit E un K-espace vectoriel de dimension n et soit B = {e1 , · · · , en } une base de E.
(1) L’unique forme n-linéaire alternée f qui vérifie f (e1 , · · · , en ) = 1 (elle existe d’après le théorème
précédent) est appelée déterminant dans la base B et notée detB .
(2) Soient v1 , · · · , vn ∈ E. Alors le scalaire detB (v1 , · · · , vn ) ∈ K s’appelle Ple déterminant des vecteurs
n
v1 , · · · , vn ∈ E par rapport à la base B. Ainsi, si (v1 , · · · , vn ) ∈ E n et si vk = i=1 ai,k ei pour k = 1, · · · , n,
on a X
detB (v1 , · · · , vn ) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn
Corollaire 5.3.8. (1) L’espace vectoriel An (E) des formes n-linéaires alternées sur un espace vectoriel
E de dimension n de base B = {e1 , · · · , en } est de dimension 1 de base {detB }. De plus, pour toute forme
n-linéaire alternée ϕ, on a
82
Preuve. (1) D’après le théorème 5.3.6, toute forme n-linéaire alternée peut s’écrire ϕ = λ. detB où
λ = ϕ(e1 , · · · , en ). Donc An (E) = hdetB i est de dimension 1. L’autre formule s’en déduit immédiatement.
(2) La première équivalence provient de la proposition 2.6.7(3).
Si {a1 , · · · P
, an } est une base de E, supposons que detB (a1 , · · · , an ) = 0. Alors, on a des écritures
n
uniques ek = i=1 λi,k ai pour k = 1, · · · , n et on a
n
X
1 = detB (e1 , · · · , en ) = λi1 ,1 · · · λin ,n detB (ai1 , · · · , ain ).
i1 ,··· ,in =1
Comme detB est une forme alternée, detB (ai1 , · · · , ain ) = 0 dès qu’il existe ik = il pour k 6= l. Comme de
plus detB (a1 , · · · , an ) = 0, on a
1 = detB (e1 , · · · , en ) = 0,
ce qui est une contradiction. Ainsi, detB (a1 , · · · , an ) 6= 0.
Réciproquement, si la famille {a1 , · · · , an } est liée, l’un des ai (que l’on peut supposer être an quitte
Pn−1
à ré-indexer) est combinaison linéaire des autres éléments. Écrivons an = i=1 λi ai . Alors
n−1
X n−1
X
detB (a1 , · · · , an ) = detB (a1 , · · · , an−1 , λi ai ) = λi detB (a1 , · · · , an−1 , ai ) = 0,
i=1 i=1
detB (f (e01 ), · · · , f (e0n )) = detB (e01 , · · · , e0n ).detB0 (f (e01 ), · · · , f (e0n )) (1).
83
est une forme n-linéaire alternée (par linéarité de f et puisque detB est elle-même une forme n-linéaire
alternée). D’après le corollaire 5.3.8(1), on peut écrire g = g(e1 , · · · , en ) detB . Si on évalue cette forme en
(e01 , · · · , e0n ), on obtient
detB (f (e01 ), · · · , f (e0n )) = g(e01 , · · · , e0n ) = detB (e01 , · · · , e0n ).detB (f (e1 ), · · · , f (en )) (2).
Puisque B 0 est une base de E, le corollaire 5.3.8(2) nous indique que detB (e01 , · · · , e0n ) 6= 0 et on déduit des
égalités (1) et (2) que
detB (f (e1 ), · · · , f (en )) = detB0 (f (e01 ), · · · , f (e0n )).
(1) On a
det(IdE ) = detB (IdE (e1 ), · · · , IdE (en )) = detB (e1 , · · · , en ) = 1.
(2) L’application ϕ : E n → K : (x1 , · · · , xn ) 7→ detB (f (x1 ), · · · , f (xn )) est une forme n-linéaire
alternée. D’après le corollaire 5.3.8(1), on a
84
Par symétrie, on a l’autre égalité.
(3) On utilise la multilinéarité de detB :
Remarques 5.4.4. (1) La propriété (4) de la proposition précédente caractérise les automorphismes d’un
espace vectoriel E de dimension finie : un endomorphisme f de E est un automorphisme de E si et
seulement si son déterminant est non nul.
(2) La propriété (5) de la proposition précédente est connue sous le nom de formule du volume.
5.5.1 Définition
Définition 5.5.1. Soient n un entier naturel non nul et A = (ai,j ) ∈ Mn (K). On appelle déterminant de
A et on note det(A) l’élément de K défini par
X
det(A) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn
IMPORTANT. (1) Expliquons d’abord le lien qu’il y a entre la notion de déterminant d’un système de
vecteurs et celle de déterminant de matrice. Pour cela, considérons le K-espace vectoriel K n et soit B =
85
Pn
{e1 , · · · , en } la base canonique de K n . Soient A = (ai,j ) ∈ Mn (K) et posons vk = i=1 ai,k ei pour k =
1, · · · , n. En comparant les définitions 5.3.7(2) et 5.5.1, on constate alors que det(A) = detB (v1 , · · · , vn ).
En d’autres termes, le déterminant d’une matrice de Mn (K) n’est rien d’autre que le déterminant de ses
vecteurs colonnes dans la base canonique de K n .
(2) Le déterminant d’un endomorphisme f de E est le déterminant dans la base B = {e1 , · · · , en } de la
famille de vecteurs {f (e1 ), · · · , f (en )} (voir la proposition 5.4.1 et la définition 5.4.2).
(3) Enfin, nous prétendons que le déterminant d’un endomorphisme f est le déterminant de sa matrice
dans une base B = {e1 , · · · , en } quelconque de E, soit
En effet, d’après la définition 5.4.2, le déterminant Pn de f est le déterminant dans la base B du système de
vecteurs {f (e1 ), · · · , f (en )}. Écrivons f (ek ) = i=1 ai,k ei pour k = 1, · · · , n. D’après la définition 5.3.7,
on a donc X
det(f ) = detB (f (e1 ), · · · , f (en )) = ε(σ)a1,σ(1) · · · an,σ(n) .
σ∈Sn
Par la définition précédente, ceci est égal au déterminant de la matrice M = (ai,j ) ∈ Mn (K). On conclut
en remarquant que M = MatB (f ).
Exemple 5.5.2. Lorsque n = 2, on retrouve
a b a b
det = = ad − bc.
c d c d
86
On a X X
ε(σ)a1,σ(1) · · · an,σ(n) = ε(σ −1 )a1,σ−1 (1) · · · an,σ−1 (n) (∗)
σ∈Sn σ∈Sn
puisque l’application de Sn dans Sn qui à σ associe σ −1 est une bijection de Sn . En outre, si σ ∈ Sn , toute
permutation σ a un inverse σ −1 et comme σ ◦ σ −1 = Id et que la signature est un morphisme de groupes,
on en déduit que 1 = ε(Id) = ε(σ ◦ σ −1 ) = ε(σ)ε(σ −1 ). Comme la signature est à valeurs dans {−1, 1}, on
a ε(σ −1 ) = ε(σ) pour tout σ ∈ Sn . En faisant le changement de variable i ←→ σ(i), on en déduit que (∗)
est encore égal à X X
ε(σ −1 )aσ(1),1 · · · aσ(n),n = ε(σ)aσ(1),1 · · · aσ(n),n ,
σ∈Sn σ∈Sn
Preuve. Rappelons que le déterminant d’une matrice de Mn (K) est le déterminant de ses vecteurs
colonnes dans la base canonique B de K n . La première partie de l’assertion (1) provient alors du fait que
detB est antisymétrique et la seconde partie du corollaire 5.3.8(2). L’assertion (2) se déduit du fait que
detB est n-linéaire. L’assertion (3) se prouve aisément en utilisant le fait que detB est n-linéaire alternée.
Enfin, l’assertion (4) est conséquence de la proposition 5.5.3(5).
Remarque 5.5.5. La proposition précédente montre que pour calculer le déterminant d’une matrice, on
peut utiliser des opérations élémentaires sur les lignes ou les colonnes de cette matrice (la proposition
décrivant l’effet de chaque opération élémentaire sur le valeur du déterminant), c’est à dire mettre en jeu
la méthode du pivot de Gauss.
Qn 5.5.6. Soit A = (ai,j ) ∈ Mn (K) une matrice triangulaire supérieure ou inférieure. Alors
Proposition
det(A) = i=1 ai,i .
87
Preuve. Il suffit de prouver l’assertion pour une matrice triangulaire supérieure d’après la proposition
5.5.3. On a X
det(A) = ε(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn
On considère l’ensemble
n
Y
P = {σ ∈ Sn | aσ(i),i 6= 0}.
i=1
Supposons P non vide. Alors σ ∈ P si et seulement si aσ(i),i 6= 0 pour tout i = 1, · · · , n. Or aσ(1),1 est
non nul si et seulement si σ(1) = 1 puisque A est triangulaire supérieure. Ensuite aσ(2),2 est non nul si
et seulement si σ(2) = 1 ou σ(2) = 2 mais puisque σ est une bijection de {1, · · · , n} sur lui-même et que
l’on a déjà σ(1) = 1, cela implique forcément σ(2) = 2. Par une récurrence immédiate, on a σ(i) = i pour
i = 1, · · · , n. Donc σ = Id. Cela prouve que P = {Id} si P est non vide.
Maintenant de deux choses l’une, soit P est vide, soit P = {Id}. Dans le Qnpremier cas, on trouve
det(A) = 0. Comme Id ∈ / P , l’un des Q
ai,i est forcément nul donc det(A) = 0 = i=1 ai,i . Dans le second
n
cas, on trouve évidemment det(A) = i=1 ai,i .
On calcule son déterminant par opérations élémentaires sur les lignes pour essayer de se ramener à une
matrice triangulaire.
1 2 −1 4 L1 1 2 −1 4 L1
1 3 2 −2 L2 0 1 3 −6 L2 − L1
A = , B =
2 0 1 1 L3 0 −4 3 −7 L3 − 2L1
−1 0 0 2 L4 0 2 −1 6 L4 + L1
.
−1
1
2 −1 4
L1 1 2 4 L1
0 1 3 −6 L2
0 1 3 −6 L2
C = , D =
0 0
15 −31 L3 + 4L2
0 0 15 −31 L3
53 7
0 0 −7 18 L4 − 2L2 0 0 0 L4 + L3
15 15
D’après les règles de calcul sur les déterminants, on a det(A) = det(B) = det(C) = det(D). D’après la
proposition 5.5.6, det(A) = det(D) = 53.
Attention si on était passé de la matrice C à la matrice
1 2 −1 4 L1
0
0 1 3 −6 L2
D = ,
0 0 15 −31 L3
0 0 0 53 15L4 + 7L3
1
on aurait eu det(A) = det(B) = det(C) = det(D0 ) = 53.
15
88
5.5.3 Développement par rapport à une ligne ou à une colonne
Définition 5.5.8. Soit A ∈ Mn (K). Soient i, j ∈ {1, · · · , n}. On note Ai,j ∈ Mn−1 (K) la matrice
obtenue en enlevant la i-ième ligne et la j-ième colonne de A. Le déterminant de la matrice Ai,j est appelé
mineur d’indice (i, j). Le scalaire (−1)i+j . det(Ai,j ) est appelé cofacteur d’indice(i, j) et noté cof i,j (A).
La matrice des cofacteurs est appelée comatrice de A : elle est notée com(A) ∈ Mn (K).
Théorème 5.5.9. Soit A ∈ Mn (K).
(1) Soit j ∈ {1, · · · , n} fixé. Alors
n
X
det(A) = ai,j cof i,j (A).
i=1
Preuve. D’après la proposition 5.5.3(5), il suffit de prouver (1) (on obtient (2) en appliquant (1) à la
matrice t A).
Pn
Soit B = {e1 , · · · , en } une base de K n . Soient x1 , · · · , xn ∈ K n . Écrivons xk = l=1 al,k el pour
k = 1, · · · , n. On fixe j ∈ {1, · · · , n}. Pour tous k 6= j et tout i ∈ {1, · · · , n}, on écrit
n
X
xi,k = al,k el .
l=1, l6=i
Ainsi, si k 6= j et i ∈ {1, · · · , n}, les coordonnées du vecteur xi,k dans la base Bi := {e1 , · · · , ei−1 , ei+1 , · · · , en }
de K n−1 sont obtenues en enlevant la i-ième ligne du vecteur colonne xk .
Cela étant, soit
n
K × · · · × Kn → P K
∆: n i+j .
(x1 , · · · , xn ) 7→ i=1 (−1) ai,j detBi (xi,1 , · · · , xi,j−1 , xi,j+1 , · · · , xi,n )
On vérifie facilement que ∆ est une forme n-linéaire alternée. D’après le corollaire 5.3.8(1), on a donc
∆ = ∆(e1 , · · · , en ). detB . Or
n
X
∆(e1 , · · · , en ) = (−1)i+j δi,j detBi (ei,1 , · · · , ei,j−1 , ei,j+1 , · · · , ei,n ),
i=1
Mais la matrice dont les vecteurs colonnes sont ej,1 , · · · , ej,j−1 , ej,j+1 , · · · , ej,n est la matrice déduite de
In obtenue en lui enlevant sa j-ième ligne et sa j-ième colonne : c’est donc In−1 . On en déduit que
∆(e1 , · · · , en ) = det(In−1 ) = 1. Ainsi, ∆ = detB .
Soit A = (ai,j ) et conservons les notations ci-dessus. Rappelons que le déterminant de A est le
déterminant de ses vecteurs colonnes dans la base canonique B = {e1 , · · · , en }. Alors, la k-ième colonne
de A sont les coordonnées de xk dans la base B et si k 6= j et i ∈ {1, · · · , n} xi,k est le vecteur de K n−1
dont les coordonnées dans la base {e1 , · · · , ei−1 , ei , · · · , en } sont
Pn obtenues en enlevant la i-ième ligne de
A. On a donc det(A) = detB (x1 , · · · , xn ) = ∆(x1 , · · · , xn ) = i=1 ai,j cof i,j (A) par définition de la forme
n-linéaire alternée ∆.
89
Remarques 5.5.10. (1) Dans le théorème précédent, quand on applique l’égalité de (1) (resp. (2)), on
dit que l’on développe le déterminant par rapport à la j-ième colonne (resp. la i-ième ligne).
(2) On obtient une autre preuve du théorème précédent par récurrence sur n en utilisant les régles de
calcul sur les déterminants d’une matrice. Cette preuve moins conceptuelle que la précédente est laissée
au lecteur.
Nous généralisons la proposition 5.5.6
Corollaire 5.5.11. Soit M une matrice carrée triangulaire supérieure par blocs, c’est à dire
M1,1 M1,2 · · · · · ·
M1,p
. .. . .. ..
0 .
.. . . . . . . .
.
M = . ,
. . . .
. . .
.. .. .. M
p−1,p
0 ··· ··· 0 Mp,p
où les Mi,i sont des matrices carrées et les 0 sont des blocs de coefficients nuls de tailles compatibles. Alors
p
Y
det(M ) = det(Mi,i ).
i=1
Preuve. Si on prouve le corollaire, on aura aussi la formule pour les matrices triangulaires inférieures par
blocs en transposant. Il suffit de traiter le cas
A B
M= ,
0 C
ϕ = ϕ(e1 , · · · , ep )detB ,
par le corollaire 5.3.8(1). Par le cas précédemment traité, on a ϕ = det(C) detB . En appliquant ceci aux
colonnes A1 , · · · , Ap de A, on obtient
90
Exemple 5.5.12. Considérons la matrice de l’exemple 5.5.7. Si on développe par rapport à la deuxième
colonne, on trouve
1 2 −2 1 −1 4
det(A) = (−1)1+2 .2. 2 1 1 + (−1)2+2 .3. 2 1 1
−1 0 2 −1 0 2
2 1 1 −2
= −2. (−1)1+2 .2. + (−1)2+2 .1.
−1
2
−1 2 ,
−1 4 1 −1
+3. (−1)3+1 .(−1). + (−1)3+3 .2.
1 1 2 1
= −2.(−10) + 3.(5 + 6)
= 53
où on a développé le premier déterminant de la ligne 1 par rapport à la deuxième colonne et le second
déterminant de la ligne 1 par rapport à la troisième ligne. Bien entendu, on peut combiner les méthodes
de l’exemple 5.5.7 et de cet exemple pour calculer un déterminant.
5.6 Applications
5.6.1 Comatrice et inversibilité
Si A est une matrice carrée inversible, nous montrons que l’on peut calculer A−1 en fonction de det(A) et
de la comatrice de A.
Proposition 5.6.1. Soit A ∈ Mn (K). Alors
A.t com(A) = t com(A).A = det(A).In .
En particulier, si A est inversible, on a
1 t
A−1 = com(A).
det(A)
Preuve. Montrons A.t com(A) = det(A)In , l’autre égalité se montrant de manière analogue. Soient
i, j ∈ {1, · · · , n}. Par définition du produit matriciel, de la transposée et de la comatrice, le terme
d’indice (i, j) de la matrice S = A.t com(A) est
n
X n
X
ai,k cof j,k (A) = ai,k (−1)j+k det(Aj,k ).
k=1 k=1
Notons Si,j la quantité précédente et considérons deux cas. Si i = j, on reconnaı̂t en Si,j le développement
par rapport à la i-ième ligne du déterminant de A (théorème 5.5.9) et Si,i = det(A). Si i 6= j, Si,j est
la formule du développement par rapport à la j-ième ligne de A0 obtenue à partir de A en remplaçant la
j-ième ligne de A par la i-ième ligne de A (théorème 5.5.9). Comme A0 possède deux lignes identiques, son
déterminant est nul (proposition 5.5.4(1)) donc Si,j = 0. On en déduit que A.t com(A) = S = det(A)In .
1 3 −1 2 7 1
Exemple 5.6.2. Considérons la matrice A = 3 −1 1 . Alors com(A) = 8 −5 −7
−2 1 −3 2 −4 −10
et
2 8 2
1
A−1 = 7 −5 −4 .
22
1 −7 −10
91
5.6.2 Système de Cramer
On appelle système de Cramer un système linéaire à n lignes et n colonnes à coefficients dans K dont la
matrice est inversible. Un tel système s’écrit matriciellement AX = Y où A ∈ GLn (K) est la matrice du
système, X est le vecteur colonne des inconnues et Y le vecteur colonne des seconds membres. L’unique
solution de ce système est donnée par
1 t
X = A−1 .Y = comA.Y.
det(A)
Plus précisément :
Proposition 5.6.3. Pour i = 1, · · · , n, si Xi (resp. Ai ) désigne la i-ième ligne du vecteur colonne X
(resp. de la matrice A), on a
d’où le résultat.
5.6.3 Orientation
On suppose ici que K = R. On dit que deux bases de E ont la même orientation si le déterminant de la
matrice de passage de l’une à l’autre est strictement positif. Le fait d’avoir même orientation définit une
relation d’équivalence sur l’ensemble des bases de E qui a deux classes d’équivalence. Orienter E c’est
choisir une base B de E : les bases de même orientation que B seront dites directes, les autres seront dites
indirectes.
On oriente E par le choix d’une base B = {e1 , · · · , en }. On dit qu’un automorphisme f de E est direct
si la base {f (e1 ), · · · , f (en )} est directe, indirect sinon. Ainsi, l’automorphisme f est direct si et seulement
si det(f ) > 0. Par exemple, les rotations sont des automorphismes directs.
92
Chapitre 6
Dans ce chapitre, E désignera un K-espace vectoriel de dimension finie (sauf mention contraire) et u sera
le plus souvent un endomorphisme de E.
6.1 Introduction
Le but de la théorie de la réduction des endomorphismes est de trouver une base de E dans laquelle
la matrice de u soit la plus simple possible. Il y a bien entendu plusieurs façons de comprendre cette
expression, desquelles découlent plusieurs types de réductions. Dans ce chapitre, nous allons déterminer
des conditions nécessaires et suffisantes pour que certains types de réductions soient possibles.
Traduisons matriciellement notre but : étant donnée une matrice carrée M (qui joue le rôle de la
matrice de l’endomorphisme de u dans une certaine base B de E), peut-on trouver une matrice inversible
P (jouant le rôle de la matrice de passage de B à une base B 0 de E) telle que P −1 M P soit aussi simple
que possible ? Mais comment trouver la base B 0 ?
Dans ce cadre, les sous-espaces vectoriels stables jouent un rôle primordial.
Définition 6.1.1. Un sous-espace vectoriel F de E est dit stable par l’endomorphisme u de E, si l’image
par u de tout vecteur de F est un vecteur de F , autrement dit si u(F ) ⊂ F .
Supposons que F soit un sous-espace stable de E pour u. Soit alors G un supplémentaire de F dans
E. La matrice M de u dans une base de E constituée de la réunion d’une base BF de F et d’une base BG
de G est une matrice triangulaire par bloc, c’est à dire
A B
M= .
0 D
Ici, on vérifie aisément que A est la matrice dans la base BF de la restriction de u à F 1 . On voit ainsi que
la détermination d’un sous-espace stable de E par u constitue un début de réduction de u.
Supposons en outre que G soit également stable par u. Alors, la matrice B précédente est nulle et M
est diagonale par bloc, c’est à dire
A 0
M= .
0 D
1 la restriction de u à F est encore un endomorphisme de F puisque u(F ) ⊂ F .
93
Nous pouvons maintenant préciser notre objectif : trouver une décomposition de E en somme directe
de sous-espaces stables tels que la restriction de u à ces sous-espaces soit la plus simple possible. Cela
étant, il s’agira également de déterminer des conditions nécessaires et suffisantes à l’existence d’une telle
décomposition.
Exemple 6.1.2. On considère E = R3 muni de sa base canonique B = {e1 , e2 , e3 }. On définit un
endomorphisme u de R3 par u(x, y, z) = (x + y, x − y, 2z). Alors les sous-espaces F := he1 , e2 i et G := he3 i
sont des sous-espaces stables de R3 . Ils sont supplémentaires (car F ∩ G = {0R3 } et dim(F ) + dim(G) =
2 + 1 = 3 = dim(E)). La matrice M de u dans la base B = {e1 , e2 , e3 } (qui est réunion de la base {e1 , e2 }
de F et de la base {e3 } de G) est
1 1 0
M = 1 −1 0 ,
0 0 2
qui est diagonale par blocs.
6.2 Définitions
6.2.1 Valeurs propres, vecteurs propres, sous-espaces propres
Définition 6.2.1. Soit u un endomorphisme de E.
(1) Un scalaire λ ∈ K est appelé valeur propre s’il existe x ∈ E \ {0} tel que u(x) = λ.x.
(2) Si λ est une valeur propre de u, on appelle vecteur propre associé à λ tout vecteur x ∈ E \ {0} tel que
u(x) = λ.x.
(3) Si λ est une valeur propre de u, on appelle espace propre associé à λ l’ensemble que l’on notera
IMPORTANT. (1) Soit u un endomorphisme de E. Supposons que u admette une valeur propre λ ∈ K.
Alors x est un vecteur propre associé à λ si et seulement si x ∈ ker(u − λ.IdE ) \ {0}. Ainsi, l’espace propre
Eλ associé à λ est ker(u − λ.IdE ) : tout espace propre est donc un sous-espace vectoriel de E.
(2) Essayons d’expliquer d’où viennent les définitions ci-dessus. L’endomorphisme le plus simple est une
homothétie et, suivant le principe exposé en Introduction à ce chapitre, on cherche donc un sous-espace
de E en restriction auquel l’endomorphisme u est une homothétie d’un certain rapport λ. Soit alors
λ ∈ K tel que ker(u − λ.IdE ) 6= {0E } (c’est à dire que λ est une valeur propre pour u puisque l’on
suppose qu’il existe un vecteur propre) si λ existe. Alors, si y ∈ ker(u − λ.IdE ), on a u(y) = λ.y et donc
u(u(y)) − λ.IdE (u(y)) = λu(y) − λ.u(y) = 0 ce qui signifie que u(ker(u − λ.IdE )) ⊂ ker(u − λ.IdE ), c’est
à dire que tout sous-espace propre est un sous-espace vectoriel stable de E. En outre, en restriction à ce
sous-espace vectoriel, u est encore un endomorphisme qui n’est autre que l’homothétie de rapport λ. Au
vu de notre objectif, la détermination des valeurs propres d’un endomorphisme (si elles existent) est donc
un problème crucial.
Remarque 6.2.2. En terme physique ou de théorie des opérateurs, un endomorphisme sur un espace
vectoriel de dimension quelconque normé et continu pour cette norme est appelé opérateur et l’ensemble
de ses valeurs propres constitue le spectre de l’opérateur. Calculer les valeurs propres d’un opérateur, c’est
en faire l’analyse spectrale.
Exemples 6.2.3. (1) Un endomorphisme n’admet pas forcément de valeur propre. Pour voir cela, con-
sidérons l’endomorphisme u de R2 défini par u : R2 → R2 : (x, y) 7→ (y, −x). Alors λ est une valeur propre
de u si et seulement si il existe (x, y) 6= (0, 0) tel que y = λ.x et x = −λ.y ce qui est impossible. Ainsi,
94
l’endomorphisme u n’admet pas de valeur propre (et donc pas de vecteur propre non plus).
(2) Si E est le R-espace vectoriel C ∞ (R, R), un vecteur propre de l’endomorphisme E → E : f 7→ f 0 (c’est
même un opérateur) associé à une valeur propre non nulle λ ∈ R∗ est par définition une fonction de E
telle que f 0 (t) = λ.f (t) quel que soit t ∈ R : un tel vecteur propre est donc une fonction t 7→ γ exp λt pour
γ ∈ R∗ . Le sous-espace propre associé à la valeur propre λ est Vect({t 7→ exp λt}) qui est de dimension
1. Le sous-espace propre associé à la valeur propre 0 (qui est le noyau de l’opérateur, par définition) est
l’ensemble des fonctions constantes : il est également de dimension 1.
(3) Si E désigne le R-espace vectoriel des polynômes à coefficients réels, l’opérateur de dérivation a pour
seule valeur propre 0 : le sous-espace propre associé est l’ensemble des polynômes constants.
Preuve. Cela provient de ce que λ est une valeur propre de u si et seulement si ker(u − λ.IdE ) 6= {0E } si
et seulement si l’endomorphisme u − λ.IdE n’est pas injectif si et seulement si l’endomorphisme u − λ.IdE
n’est pas inversible si et seulement si det(u − λ.IdE ) = 0. La première équivalence provient de la définition
de vecteur propre, la seconde du théorème 3.1.7(3), la troisième de la définition d’un automorphisme et la
quatrième de la proposition 5.4.3(5).
Exemple 6.2.5. Considérons l’endomorphisme u de l’exemple 6.1.2. Un réel λ est valeur propre de u si
et seulement si le système
(1 − λ).x + y = 0
x − (1 + λ).y = 0
(λ − 2).z = 0
admet une solution (x, y, z) non nulle si et seulement si le déterminant de la matrice du système est
nul par la proposition précédente
√ si et seulement si λ = 2 (auquel cas l’espace propre
√ correspondant √ est
Vect{(0, 0, 1)}) ou λ = 2 (auquel cas l’espace propre correspondant
√ est Vect{(1 + 2, 1, 0)}) ou λ = − 2
(auquel cas l’espace propre correspondant est Vect{(1 − 2, 1, 0)}).
95
matrices étant semblables,il existe alors P ∈ GLn (K) telle que M = P M 0 P −1 . On a alors
χM = det(M − XIn )
= det(P M 0 P −1 − X.In )
= det(P (M 0 − XIn )P −1 ) .
= det(P ) det(M 0 − XIn ) det(P )−1
= χM 0
La remarque (3) ci-dessus montre que le polynôme caractéristique d’une matrice représentative de u ne
dépend pas de la base choisie, ce qui suggère la définition suivante.
Définition 6.2.8. Soit u ∈ End(E). Le polynôme caractéristique de u est le polynôme caractéristique
d’une matrice représentative de u dans une base arbitraire. On le note χu .
Corollaire 6.2.9. Soit u ∈ End(E) avec dim(E) = n. Alors λ est valeur propre de u si et seulement si
λ est racine du polynôme caractéristique de u. En particulier, u possède au plus n valeurs propres.
Preuve. D’après la proposition 6.2.4, on sait que λ est valeur propre de u si et seulement si det(u−λ.IdE ) =
0 ce qui équivaut à ce que χM (λ) = det(M − λ.In ) = 0 où M est la matrice de u dans une certaine base
de E. La dernière affirmation vient du fait que le degré de χM est n.
6.2.3 Trace
Proposition 6.2.12. Soit M = (ai,j ) ∈ Mn (K). Alors
n
X
n n n−1
χM (X) = (−1) X + ((−1) ai,i )X n−1 + · · · + det(M ).
i=1
Preuve. Le fait que le coefficient constant de χm (X) soit det(M ) est évident. La proposition se montre
par récurrence sur n.
Définition 6.2.13. Si M = (ai,j ) ∈ Mn (K), onPappelle trace de M la somme des coefficients diagonaux
n
de M que l’on note tr(M ). On a donc tr(M ) = i=1 ai,i .
Proposition 6.2.14. Soient A, B ∈ Mn (K) et soit P ∈ GLn (K).
(1) On a tr(P −1 AP ) = tr(A).
(2) On a tr(AB) = tr(BA).
96
Preuve. (1) Cela provient directement de ce que deux matrices semblables ont même polynôme car-
actéristique et de la proposition 6.2.12.
(2) Notons A = (ai,j ), B = (Bi,j ). Alors, par définition du produit matriciel,
n
X n
X n
X n
X
tr(AB) = ( ai,k bk,i ) = ( bk,i ai,k ) = tr(BA).
i=1 k=1 k=1 i=1
Définition 6.2.15. D’après l’assertion (1) de la proposition précédente, on définit la trace d’un endomor-
phisme u et on note tr(u) la trace d’une de ses matrices dans une base quelconque de E.
6.2.4 Un exemple
Avant d’en venir à la théorie de la réduction des endomorphismes proprement dite, terminons cette section
en donnant un exemple.
Exemple 6.2.16. On considère un endomorphisme de R3 dont la matrice dans la base canonique est
2 −1 −1
A = −1 2 −1 .
−1 −1 2
On calcule facilement χA (X) = −X 3 + 6X 2 − 9X = −X(X − 3)2 . On en déduit que les valeurs propres
de A sont 0 et 3. On a E0 = {(x, y, z) ∈ R3 | x = y = z} donc dim(E0 ) = 1 et si e1 = (1, 1, 1), on a
E0 = Vect({e1 }). Ensuite, on a E3 = {(x, y, z) ∈ R3 | x+y +z = 0} et dim(E3 ) = 2. Posons e2 = (1, −1, 0)
et e3 = (0, 1, −1). Alors {e2 , e3 } est une base de E3 . Comme e1 ∈ / E3 , on en déduit aisément que E0 et
E3 sont en somme directe ce qui signifie que la famille B = {e1 , e2 , e3 } est libre dans R3 . Comme elle est
de cardinal 3, c’est une base de R3 . Enfin, déterminons la matrice de u dans cette base. On voit aisément
que
0 0 0
B := MatB (u) = 0 3 0 .
0 0 3
Si P est la matrice de passage de la base canonique à la base B, on a donc P −1 AP = B. Dans cet exemple,
nous avons donc trouvé une base de R3 constituée de vecteurs propres de u dans laquelle la matrice de u
est très simple puisqu’elle est diagonale. Dans la section suivante, nous dirons que A est diagonalisable
mais nous verrons également que cela n’est pas possible pour toute matrice. Remarquons également que la
matrice A est symétrique : nous verrons plus tard que toute matrice symétrique réelle est diagonalisable.
6.3 Diagonalisation
6.3.1 Propriétés des sous-espaces propres
Dans l’exemple qui termine la section précédente, nous avons vu que les espaces propres sont en somme
directe. Ceci est un fait général.
97
Preuve. On prouve cette proposition par récurrence sur le nombre de sous-espaces propres. S’il n’y en a
pas ou qu’il n’y en a qu’un, il n’y a rien à montrer. Supposons donc que pour tout k-uplet (λ1 , · · · , λk )
de valeurs propres distinctes de u, les sous-espaces propres Eλ1 , · · · , Eλk sont en somme directe.
Pk
Soient λ1 , · · · , λk+1 des valeurs propres distinctes de u et soit x ∈ Eλk+1 ∩ ( i=1 Eλi ). Écrivons
Pk
x = i=1 xi où xi ∈ Eλi pour i = 1, · · · , k. Comme x ∈ Eλk+1 , on a d’une part
k
X
u(x) = λk+1 x = λk+1 xi .
i=1
D’autre part,
k
X k
X
u(x) = u(xi ) = λ i xi .
i=1 i=1
Ce dernier élément appartient à la somme des sous-espaces propres Eλ1 , · · · , Eλk qui est directe par
Pk
hypothèse de récurrence. On en déduit donc que x1 = · · · = xk = 0E puis que Eλk+1 ∩ ( i=1 Eλk ) = {0E }.
D’après la proposition 2.3.17, puisque les sous-espaces propres Eλ1 , · · · , Eλk sont supposés être en somme
directe, il en va de même pour Eλ1 , · · · , Eλk , Eλk+1 . La proposition s’en déduit par l’axiome de récurrence.
Remarques 6.3.3. (1) S’il est exact que les espaces propres distincts d’un endomorphisme sont en
somme directe, il est en général faux que la somme des sous-espaces fasse l’espace tout entier. Pour
cela, considérons l’endomorphisme u de R3 dont la matrice dans la base canonique est
2 1 2
3 3 3
−2 2 1 .
3 3 3
− 13 − 23 2
3
Alors χu (X) = −(X − 1)(X 2 − X + 1) et la seule valeur propre de u est 1. On vérifie sans peine que
E1 = Vect({(1, 1, 1)} et E1 6= E.
(2) Profitons de l’exemple précédent pour une mise en garde concernant le corps sur lequel on travaille.
Dans le (1) si on considère l’endomorphisme v de C3 de même matrice dans la base canonique, v a 3
valeurs propres distinctes λ, µ, η. D’après la proposition 6.3.1, les espaces propres Eλ , Eµ et Eη sont en
somme directe et, pour une raison de dimension, on a C3 = Eλ ⊕ Eµ ⊕ Eη .
98
(2) Soit E un K-espace vectoriel de dimension n et soit u un endomorphisme de E. L’endomorphisme u
est dit diagonalisable s’il existe une base de E dans laquelle la matrice de u est une matrice diagonale. En
d’autres termes, un endomorphisme u est diagonalisable si et seulement si la matrice de u dans une base
quelconque de E est diagonalisable.
Donnons une première caractérisation de la diagonalisabilité.
Proposition 6.3.5. Soit E un K-espace vectoriel de dimension finie et soit u ∈ End(E). Les assertions
suivantes sont équivalentes.
(1) u est diagonalisable.
(2) L’espace vectoriel E admet une base formée de vecteurs propres de u.
(3) L’espace vectoriel E est somme directe des sous-espaces propres de u.
Preuve. Supposons tout d’abord que u est diagonalisable. Alors il existe une base B = {e1 , · · · , en } dans
laquelle la matrice de u est diagonale. Pour i = 1, · · · , n, il existe λi ∈ K tels que u(ei ) = λi ei donc ei est
un vecteur propre associé à la valeur propre λi et B est une base constituée de vecteurs propres de u.
Supposons maintenant que B = {e1 , · · · , en } soit une base de E formée de vecteurs propres. Soient
λ1 , · · · , λp les valeurs propres distinctes de u. Alors pour i = 1, · · · , n il existe 1 ≤ ji ≤ n unique tel
que ei ∈ Eλji (l’unicité provient de ce que les espaces propres sont en somme directe et en particulier
Eλ ∩ Eµ = {0E } pour λ 6= µ). Pour j = 1, · · · , p, notons Bj = {ei ∈ B | ei ∈ Eλj } : on sait que Bj est
non vide. En effet supposons par P exemple que pour tout i = 1, · · · , n, ei ∈ / EP
λ1 et soit fP1 ∈ Eλ1 . D’après
p p p
la proposition
Pp 6.3.1, on a E λ1 ∩ ( i=2 Eλ i ) = {0E } et comme e1 , · · · , en ∈ i=2 E λi , i=2 Eλi = E et
p
f1 ∈/ i=2 Eλi ce qui est une contradiction. On vient donc de montrer que ∪j=1 Bj = B et que B1 , · · · , Bj
est une partition de B. Enfin, d’après la proposition 6.3.1, les espaces propres Eλ1 , · · · , Eλp sont en somme
directe dans E. Mais
Mp X p
dim( Eλi ) = dim(Eλi ) = dim(E),
i=1 i=1
Lp
puisque chaque ei apparait une et une seule fois dans un Bj . Donc E = i=1 Eλi .
Lp
Supposons enfin que E = i=1 Eλi où les Eλi sont les espaces propres de u. Pour j = 1, · · · , p, soit
Bj une base de Eλj . Alors ∪pi=1 Bj = B est une base de E. Dans cette base, la matrice de u est diagonale
donc u est diagonalisable.
Exemples 6.3.6. Regardons si les endomorphismes que nous avons donnés en exemple depuis le début
de ce chapitre sont diagonalisables ou non.
(1) Commençons avce l’endomorphisme de l’exemple 6.1.2. On a vu que cet endomorphisme admettait
trois valeurs propres distinctes et les espaces propres correspondant sont de dimension 1. Si on choisit
un vecteur propre associé à chaque vecteur propre la famille qu’ils forment est libre d’après le corollaire
6.3.2. Etant de cardinal 3, cette famille est une base de vecteurs propres de l’endomorphisme qui est donc
diagonalisable.
(2) Reprenons maintenant l’endomorphisme de l’exemple 6.2.16. La base que l’on a mise en valeur dans
cet exemple est une base de vecteurs propres de l’endomorphisme qui est donc diagonalisable.
(3) Considérons enfin l’endomorphisme de la remarque 6.3.3(1). On a vu que cet endomorphisme avait
une seule valeur propre et que l’espace propre associé est de dimension 1. Il ne peut donc exister de base
de vecteurs propres pour cet endomorphisme qui n’est donc pas diagonalisable. Par contre, si on considère
comme en 6.3.3(2) l’endomorphisme qui a la même matrice que le précédent dans la base canonique de
C3 , on a montré que cet endomorphisme est diagonalisable.
99
Le résultat précédent nous permet d’énoncer une condition suffisante de diagonalisabilité.
Corollaire 6.3.7. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Si u
admet n valeurs propres distinctes λ1 , · · · , λn ∈ K, u est diagonalisable.
Preuve. Pour i = 1, · · · , n, λi est une valeur propre de u donc dim(Eλi ) ≥ 1. En outre, d’après la
proposition 6.3.1, les espaces propres de u sont en somme directe. On a alors
Mn n
X
dim( Eλi ) = dim(Eλi ) ≥ n = dim(E).
i=1 i=1
Ln
On en déduit que E = i=1 Eλi donc u est diagonalisable par la proposition précédente.
Remarques 6.3.8. (1) Le corollaire précédent montre à nouveau que l’endomorphisme u de l’exemple
6.1.2 est diagonalisable puisque c’est un endomorphisme de R3 qui possède 3 valeurs propres distinctes.
(2) La condition du corollaire précédent n’est qu’une condition suffisante à la diagonalisabilité. En général,
elle n’est pas nécessaire puisque l’endomorphisme de l’exemple 6.2.16 de R3 possède deux valeurs propres
distinctes et est pourtant diagonalisable.
100
Lp
donc E = i=1 Eλi et u est diagonalisable d’après la proposition 6.3.5.
Nous allons maintenant nous intéresser à un type de réduction plus général que la diagonalisation
et reviendrons à la diagonalisation dans la section 6.5 consacrée à l’étude du polynôme minimal d’un
endomorphisme.
6.4 Trigonalisation
6.4.1 Un critère de trigonalisation
Définition 6.4.1. (1) Soit A ∈ Mn (K). On dit que A est trigonalisable si il existe P ∈ GLn (K) et une
matrice T triangulaire (supérieure ou inférieure) telles que P −1 AP = T .
(2) Soit E un K-espace vectoriel de dimension n et soit u un endomorphisme de E. L’endomorphisme u
est dit trigonalisable s’il existe une base de E dans laquelle la matrice de u est une matrice triangulaire
(inférieure ou supérieure). En d’autres termes, un endomorphisme u est trigonalisable si et seulement si
la matrice de u dans une base quelconque de E est trigonalisable.
Remarques 6.4.2. (1) Pour une matrice A donnée, on montre aisément qu’il existe P ∈ GLn (K) telle
que P −1 AP = T où T est une matrice triangulaire supérieure si et seulement si il existe P ∈ GLn (K)telle
que P −1 AP = T où T est une matrice triangulaire inférieure. Sans perte de généralité, nous pouvons
donc supposer que l’on cherche un critère pour que A ait une matrice triangulaire supérieure qui lui soit
semblable (et idem pour les endomorphismes) et c’est ce que nous ferons dans la suite de cette section.
(2) Si un endomorphisme u est trigonalisable, il existe une base dans laquelle sa matrice Qn M = (ai,j ) est
triangulaire supérieure. D’après la proposition 5.5.6, on a χu (X) = det(M − X.In ) = i=1 (ai,i − X). On
en déduit que les coefficients diagonaux de M sont exactement les valeurs propres λ1 , · · · , λr de u et que
si l’ordre de multiplicité de λi est ri , la valeur propre λi apparaı̂t ri fois sur la diagonale de M .
Définition 6.4.3. Un polynôme P ∈ K[X] non nul est un polynôme scindé sur K s’il n’a que des facteurs
irréductibles de degré 1. Autrement dit, P est scindé sur K si et seulement si il peut s’écrire
r
Y
P =a (X − λi )mr ,
i=1
où a ∈ K × et λ1 , . . . , λr ∈ K sont distincts. Cela équivaut encore au fait que P admet des racines dans
K (les λi dans l’expression) dont la somme des ordres de multiplicité est égale au degré de P .
Exemple 6.4.4. Considérons le polynôme X 2 +1. Sur R[X] il n’est pas scindé. En revanche, ce polynôme
est scindé dans C[X]. Plus généralement, le corps C est algébriquement clos donc tout polynôme de C[X]
est scindé. Dans R[X], tout polynôme peut s’écrire comme un produit de facteurs irréductibles de degré
au plus 2.
Ces définitions nous permettent de donner un critère de trigonalisation d’un endomorphisme.
101
triangulaire supérieure Q
et son déterminant est le produit de ses coefficients diagonaux d’après la proposition
n
5.5.6. Ainsi, χu (X) = i=1 (ai,i − X) est un polynôme scindé2 sur K.
Réciproquement, on va procéder par récurrence sur n = dimK (E). Si n = 1, c’est clair. Supposons
maintenant que pour tout K-espace vectoriel de dimension n sur K et pour tout endomorphisme u de
cet espace vectoriel dont le polynôme caractéristique est scindé sur K, u est trigonalisable. Soit E un
K-espace vectoriel de dimension n + 1, et soit u ∈ End(E) tel que χu soit scindé sur K. Écrivons
r
Y
χu = (λi − X)mi ,
i=1
où λi ∈ K sont tous distincts. Alors λ1 est une valeur propre de u, donc il existe x ∈ E \ {0} tel que
u(x) = λ1 .x. La famille {x} étant libre, on peut la compléter en une base B = {x, e1 , · · · , en } de E. Alors
M = MatB (u) est de la forme
λ1 ∗
M= .
0 M0
On en déduit que
r
Y
χv (X) = (λ1 − X)m1 −1 . (λi − X)mi
i=2
est scindé sur K. Alors F est de dimension n, v ∈ End(F ) et χv est scindé sur K donc, par hypothèse de
récurrence, il existe une base C 0 = {e01 , · · · , e0n } de F telle que T = MatC 0 (v) soit triangulaire supérieure.
Soit P la matrice de passage de C à C 0 . Alors on a T = P −1 M 0 P . Soit B 0 = {x, e01 , · · · , e0n } : c’est une
base de E. Alors la matrice de passage de B à B 0 est
1 0
Q= ,
0 P
et on a
−1 λ1 ∗
MatB0 (u) = Q MQ = ,
0 T
qui est triangulaire supérieure. Ainsi u est trigonalisable, et ceci achève la récurrence.
2 Attention
Qn
: les ai,i ne sont pas forcément distincts. En regroupant ceux qui sont distincts, on écrit χu (X) = i=1 (λi −
X)ni et les λi sont les valeurs propres de l’endomorphisme u.
102
6.4.2 Un exemple
Traitons concrètement un exemple de trigonalisation sur R; On considère l’endomorphisme u de R3 dont
la matrice dans la base canonique est
3 1 −1
A = 1 1 1 .
2 0 2
On trouve aisément que χu (X) = (2 − X)3 donc 2 est l’unique valeur propre de u. On trouve que E2 =
Vect{(0, 1, 1)} et dim(E2 ) = 1. D’après le théorème 6.3.10, on en déduit que u n’est pas diagonalisable.
Par contre, χu est scindé sur R donc u est trigonalisable. Il existe une base B = {e1 , e2 , e3 } de R3 dans
laquelle la matrice de u est
2 ∗ ∗
M = 0 2 ∗
0 0 2
d’après 6.4.2.
On a alors u(e1 ) = 2e1 ce qui signifie que l’on peut choisir e1 ∈ E2 . Prenons donc e1 = (0, 1, 1). Il
s’agit donc de trouver e2 , e3 ∈ R3 tel que u(e2 ) = λ.e1 + 2e2 pour λ ∈ R et tels que {e1 , e2 , e3 } soit une
base de R3 . Si on écrit e2 = (x, y, z), λ étant donné, on trouve e2 comme solution d’un système linéaire de
trois équations à trois inconnues qui équivaut à x = λ2 et y − z = − λ2 . Il suffit donc de prendre λ non nul
quelconque et on a alors un vecteur e2 tel que u(e2 ) = λ.e1 + 2e2 avec {e1 , e2 } libre. Prenons donc y = 0
et λ = 2. On a alors e2 = (1, 0, 1). On complète avec n’importe quel vecteur e3 tel que {e1 , e2 , e3 } soit
libre, par exemple e3 = (0, 0, 1). Dans ce cas la matrice de u dans cette base est bien triangulaire comme
attendu :
2 2 −1
M = 0 2 1 .
0 0 2
6.5.1 Définitions
Proposition 6.5.1. (1) Soient E un K-espace vectoriel, u ∈ End(E). Si P ∈ K[X] s’écrit P (X) =
P q k
k=0 ak X , on note
Xq
P (u) = ak uk ,
k=0
0 k
où u = IdE et u est l’endomorphisme u ◦ · · · ◦ u (k fois) pour k ≥ 1. Alors l’application ϕu : K[X] →
End(E) : P 7→ P (u) est un morphisme d’algèbres. SonP image est une sous-algèbre de End(E) notée K[u].
q
(2) Soient A ∈ Mn (K). Si P ∈ K[X] s’écrit P (X) = k=0 ak X k , on note
q
X
P (A) = ak Ak ,
k=0
103
où A0 = In et Ak est la puissance k-ième de A pour k ≥ 1. Alors l’application ϕA : K[X] → Mn (K) :
P 7→ P (A) est un morphisme d’algèbres. Son image est une sous-algèbre de Mn (K) notée K[A].
Preuve. C’est évident.
Définition 6.5.2. On reprend les notations de la proposition précédente. Un élément de K[u] (resp. de
K[A]) est appelé un polynôme d’endomorphisme (resp. un polynôme de matrices).
Proposition 6.5.3. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Soit
A la matrice de u dans une certaine base. Alors si P ∈ K[X], les assertions suivantes sont équivalentes :
(1) P (u) = 0.
(2) P (A) = 0.
Preuve. Remarquons tout d’abord que pour tout k ≥ 1, si A est la matrice de u dans une base fixée de
E, Ak est la matrice de uk dans cette même base. On en déduit que P (A) est la matrice de P (u) dans
cette base (voir théorème 4.4.10).
Cela étant, l’endomorphisme P (u) est nul si et seulement si P (u)(x) = 0E quel que soit x ∈ E qui
équivaut au fait que P (A).x = 0E quel que soit x ∈ E, encore équivalent au fait que P (A) = 0Mn (K) .
104
Complétons {v, u(v), . . . , ud−1 (v)} en une base Bv de E. Soit M = MatBv (u). Alors M est une matrice
triangulaire supérieure par blocs de la forme
A B
M= ,
0 C
où A est la matrice compagnon
0 0 0 −a0
1 0 −a1
A=
0 1 −a2 .
.. ..
. .
0 0 ··· 1 −ad−1
Par la proposition 5.5.11, on a χM = χA .χC , et donc
χu (u) = χM (u) = χA (u) ◦ χC (u) = χC (u) ◦ χA (u).
Pour montrer que χu (u)(v) = 0, il suffit donc de vérifier que χA (u)(v) = 0, puisqu’alors χu (u)(v) =
χC (u)(0) = 0. Pour ce faire, il suffit de montrer que l’on a χA (X) = (−1)d (ad X d + . . . + a1 X + a0 ). En
effet, dans ce cas on aura
χA (u)(v) = (−1)d (ud (v) + ad−1 ud−1 (v) + . . . + a1 u(v) + a0 v) = 0,
par choix des ai . On a
−X 0 −a0
1
−X −a1
χA (X) = 0
1 −a2 .
.. ..
. .
0 0 ··· 1 −X − ad−1
d d−1
Posons P = X + ad−1 X + . . . + a0 . En faisant l’opération L1 ↔ L1 + XL2 + . . . + X d−1 Ld , on obtient
0
0 −P
1 −X −a 1
χA =
0 1 −a 2 .
. .. .
..
0 0 · · · 1 −X − ad−1
En développant par rapport à la première ligne, on obtient
1 ∗ ∗ ∗
1 ∗ ∗
1+d
χA = (−1) (−P ) = (−1)d P,
..
. ∗
1
ce qui achève la démonstration.
105
6.5.3 Polynôme minimal
Proposition 6.5.7. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Alors
il existe un unique polynôme unitaire µu ∈ K[X] tel que :
(1) µu (u) = 0.
(2) Si P ∈ K[X] \ {0} est tel que P (u) = 0 alors µu divise P .
Preuve. Soit ϕu : K[X] → K[u] : P 7→ P (u). D’après la proposition 6.5.1(1), ϕu est un morphisme
d’algèbres surjectif. Par ailleurs, ker(ϕu ) est un idéal de K[X]. Comme χu ∈ ker(ϕu ), ker(ϕu ) est un
idéal non nul3 de K[X]. Or K[X] est un anneau principal ce qui signifie exactement que tout idéal non
nul de cet anneau est engendré par un polynôme unitaire non nul uniquement déterminé que l’on note
µu . Par définition, µu ∈ ker(ϕu ) donc µu (u) = 0. Enfin, si P ∈ K[X] \ {0} est tel que P (u) = 0 alors
P ∈ ker(ϕu ) = µu K[X] donc µu divise P .
Remarque 6.5.8. Pour prouver la proposition précédente, on peut également utiliser le fait que K[X]
est euclidien.
Définition 6.5.9. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E. Le
polynôme µu de la proposition précédente est appelé polynôme minimal de u.
Éclairons maintenant le rapport qu’il existe entre le polynôme minimal et le polynôme caractéristique.
Proposition 6.5.10. Soient E un K-espace vectoriel de dimension n et u un endomorphisme de E.
(1) Alors µu divise χu .
(2) Les valeurs propres de u sont exactement les racines dans K de son polynôme minimal.
Preuve. L’assertion (1) provient du fait que χu (u) = 0 d’après le théorème 6.5.5 de Cayley-Hamilton et
de la proposition 6.5.7.
Si λ ∈ K, effectuons la division euclidienne de µu (X) par (X − λ) : il existe un unique couple
(Q, R) ∈ K[X] tel que µu (X) = Q(X)(X − λ) + R(X) et 0 ≤ deg(R) < 1 ce qui signifie que R est constant
donc R(X) = µu (λ). Comme µu (u) = 0, on a
0 = µu (u) = Q(u) ◦ (u − λ.IdE ) + µu (λ).IdE .
Maintenant, si λ est une valeur propre de u, il existe x ∈ E \ {0} tel que u(x) = λ.x. Si on applique
l’égalité ci-dessus en x, on obtient
0 = Q(u)((u − λ.IdE )(x)) + µu (λ)x = µu (λ)x,
donc µu (λ) = 0 et λ est racine du polynôme minimal.
Inversement, si µu (λ) = 0, on a Q(u) ◦ (u − λ.IdE ) = 0 grâce à l’égalité ci-dessus. Le degré de Q est
strictement inférieur à celui de µu donc Q(u) 6= 0 par minimalité de µu . On en déduit donc que u − λ.IdE
n’est pas bijectif donc pas injectif et λ est une valeur propre de u.
106
Remarque 6.5.12. On peut montrer que le polynôme caractéristique et le polynôme minimal d’un en-
domorphisme ont les mêmes diviseurs irréductibles. Ceci est très important dans la pratique.
On définit l’espace caractéristique associé à λ comme étant le sous-espace vectoriel Eλ0 = ker(u − λ.IdE )qλ .
Remarque 6.5.14. Sous les hypothèses de la définition ci-dessus, si λ est une valeur propre de u, le
sous-espace propre Eλ est inclus dans l’espace caractéristique Eλ0 . En outre, le sous-espace caractéristique
Eλ0 est un sous-espace vectoriel stable par u.
Lemme 6.5.15 (Lemme des noyaux). Soient P1 , · · · , Pm ∈ K[X] des polynômes premiers entre eux deux
à deux. On pose P = P1 · · · Pm . Alors, on a
Preuve. Puisque les polynômes P1 · · · Pm−1 , Pm sont premiers entre eux deux à deux, il suffit de traiter
le cas m = 2, le cas général s’en déduisant par récurrence. Supposons donc m = 2.
Montrons tout d’abord que ker(P (u)) = ker(P1 (u)) + ker(P2 (u)). Rappelons que l’on a P (u) = P1 (u) ◦
P2 (u) = P2 (u) ◦ P1 (u). Pour i = 1, 2, si xi ∈ ker(Pi (u)), on a
Ainsi, on a ker(P1 (u)) + ker(P2 (u) ⊂ ker(P (u)). Inversement, soit x ∈ ker(P (u)). Puisque P1 et P2
sont premiers entre eux, on peut leur appliquer le théorème de Bezout. Il existe U, V ∈ K[X] tels que
U P1 + V P2 = 1. On a alors IdE = U (u) ◦ P1 (u) + V (u) ◦ P2 (u). Posons
x1 = (V P2 )(u)(x), x2 = (U P1 )(u)(x).
On a donc
P1 (u)(x1 ) = (V P )(u)(x) = V (u)(P (u)(x)) = V (u)(0) = 0.
Ainsi x1 ∈ ker(P1 (u)). On montre de même que x2 ∈ ker(P2 (u)). On a ainsi l’égalité ker(P (u)) =
ker(P1 (u)) + ker(P2 (u)).
107
Il reste à montrer que la somme est directe Soit x ∈ ker(P1 (u)) ∩ ker(P2 (u)). On a alors
x = (U P1 )(u)(x) + (V P2 )(u)(x)
= U (u)(P1 (u)(x)) + V (u)(P2 (u)(x))
= U (u)(0) + V (u)(0)
= 0.
ce qui signifie que P (u) = 0. Ainsi, P est un polynôme scindé sur K à racines simples dans K tel que
P (u) = 0.
Montrons ensuite que (2) implique (3). Soit P un polynôme scindé à racines simples sur K tel que
P (u) = 0. Alors, par minimalité, µu divise P d’après la proposition 6.5.7 donc est également scindé sur
K à racines simples dans K.
Montrons maintenant que (3) implique (4). Si µu est un polynôme scindé sur K à racines simples
dans K, comme on sait que ses racines λ1Q , · · · , λp ∈ K sont exactement les valeurs propres distinctes de
p
u (voir proposition 6.5.10), on a µu (X) = i=1 (X − λi ). Par définition des espaces caractéristiques, on a
0
Eλi = ker(u − λi .IdE ) = Eλi .
Montrons enfin que (4) implique (1). Soient λ1 , · · · , λp les valeurs propres distinctes
Qpde u. Par définition
des espaces caractéristiques, comme Eλ0 i = Eλi pour i = 1, · · · , p, on a µu (X) = i=1 (X − λi ). Par le
lemme 6.5.15, on a
p
M Mp
ker(µu (u)) = ker(u − λi .IdE ) = Eλi .
i=1 i=1
Lp
En outre µu (u) = 0 donc E = i=1 Eλi ce qui signifie que u est diagonalisable par la proposition 6.3.5.
Exemple 6.5.17. Revenons sur l’exemple 6.2.16. En 6.5.11(3), on a vu que le polynôme minimal de
l’endomorphisme u considéré est µu (X) = X(X − 3). Il est scindé à racines simples donc on en déduit que
108
u est diagonalisable. Comme l’ordre de multiplicité de la valeur propre 0 est 1, on savait déjà que E0 = E00
est de dimension 1. Mais, l’ordre de multiplicité de la valeur propre 3 est 2 et comme u est diagonalisable,
E3 est de dimension 2 et on a E3 = E30 .
Voici l’analogue du théorème précédent pour la trigonalisabilité. La différence entre les deux résultats
réside dans l’ordre de multiplicité des valeurs propres.
Théorème 6.5.18. Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E.
Alors, les assertions suivantes sont équivalentes :
(1) u est trigonalisable.
(2) Il existe un polynôme scindé sur K tel que P (u) = 0.
(3) Le polynôme minimal de u est scindé sur K.
(4) Le polynôme caractéristique de u est scindé sur K.
Preuve. Montrons d’abord que (1) implique (2). Si u est trigonalisable, le polynôme caractéristique χu
de u est scindé sur K d’après le théorème 6.4.5 et χu (u) = 0 d’après le théorème de Cayley-Hamilton
6.5.5.
Montrons ensuite que (2) implique (3). Soit P un polynôme scindé sur K tel que P (u) = 0. Alors, le
polynôme minimal µu divise P d’après la proposition 6.5.7 donc est également scindé sur K.
Montrons que (3) implique (4). D’après la remarque 6.5.12, χu a les mêmes diviseurs irréductibles que
µu . Comme µu est scindé sur K,on en déduit qu’il en va de même pour χu .
Le fait que (4) implique (1) provient du théorème 6.4.5.
On finit cette section par un théorème de diagonalisation simultanée. On commence par un lemme.
Lemme 6.5.19. Soit u ∈ End(E), et soit F un sous-espace vectoriel stable par u. Si u est diagonalisable,
alors u|F ∈ End(F ) est diagonalisable.
Preuve. Si u est diagonalisable, alors µu est scindé à racines simples par le théorème 6.5.16. Mais alors
on a
µu (u|F ) = µu (u)|F = 0,
et donc µu|F divise µu . Ainsi, µu|F est aussi scindé à racines simples, et u|F est diagonalisable en
conséquence du théorème 6.5.16.
Par le lemme précédent, u0|E est diagonalisable. Ainsi Eλ admet une base formée de vecteurs propres de
λ
u0|E , qui sont a fortiori des vecteurs propres de u0 . Mais les vecteurs de cette base sont aussi des vecteurs
λ
propres de u, puisque ce sont des éléments de Eλ . Comme u est diagonalisable, E est somme directe des
Eλ . En recollant les bases précédentes, on obtient alors une base de E qui est constituée de vecteurs qui
sont à la fois des vecteurs propres de u et de u0 .
109
Remarques 6.5.21. (1) Le résultat précédent reste vrai en remplaçant ”diagonalisable” par ”trigonalis-
able”.
(2) On peut aussi montrer que si (fi )i∈I est une famille d’endomorphismes diagonalisables (resp. trigonal-
isables) telle que fi ◦ fj = fj ◦ fi pour tous i, j ∈ I alors il existe une base de E dans laquelle les matrices
des fi sont toutes diagonales (resp. triangulaires supérieures).
(3) On voit facilement que si u et u0 sont deux endomorphismes qui commutent, alors Im (u)et ker(u) sont
stables par u0 .
110
diagonale donc χu (X) = (−1)n X n . Comme χu (u) = 0, on en déduit que un = 0 donc que u est nilpotent.
Preuve. Commençons par remarquer que, puisque χu est scindé sur K, il en va de même pour µu
(théorème 6.5.18). On peut donc écrire
Y
µu (X) = (X − λ)qλ .
λ∈K
D’après le lemme des noyaux, puisque les polynômes (X − λ)qλ sont premiers entre eux, on a
M
E = ker(µu (u)) = Eλ0 .
λ∈K
x = P1 (u)(U (u)(x)) + P2 (u)(V (u)(x)), P1 (u)(U (u)(x)) ∈ ker(P2 (u)), P2 (u)(V (u)(x)) ∈ ker(P1 (u)) = Eλ0 .
111
Mais puisque m est un multiple de qλ et que l’image de pλ est Eλ0 = ker(u − λ.IdE )qλ , on a v m = 0 et v
est nilpotent. Enfin, d et n commutent car les pλ sont des polynômes en u.
Montrons maintenant l’unicité de la décomposition de Dunford. Si l’on a une autre décomposition
u = d0 + n0 avec d0 diagonalisable, n0 nilpotent et d0 ◦ n0 = n0 ◦ d0 , les endomorphismes d0 et n0 commutent
avec u, donc avec tout polynôme en u, donc avec d et n. On peut écrire d − d0 = n0 − n. Comme n et
n0 commutent, l’endomorphisme n − n0 est un endomorphisme nilpotent d’après la formule du binôme de
Newton. Puisque d et d0 commutent, ils sont diagonalisables dans une base commune d’après le théorème
6.5.20 donc d − d0 est diagonalisable. Ainsi, l’endomorphisme d − d0 est à la fois diagonalisable et nilpotent.
On déduit des théorèmes 6.5.16 et 6.6.3 que son polynôme minimal est à la fois scindé à racines simples
et qu’il existe p ∈ N tel que µd−d0 (X) = X p . La seule solution est que p = 1 ce qui signifie que d = d0 puis
que n = n0 d’où l’unicité.
6.7.1 Application au calcul des itérés d’un vecteur sous l’action d’un endo-
morphisme
Les théorèmes que nous avons démontrés dans ce chapitre sont particulièrement intéressants pour calculer
l’orbite d’un vecteur v ∈ E sous l’action d’un endomorphisme u de E : par définition cette orbite est la
suite (up (v))p∈N .
Si l’on suppose que u est diagonalisable, sa matrice D dans une base convenable B = {e1 , · · · , en } est
diagonale. On écrit D = Diag(λ1 , · · · , λn ) ce qui signifie que D est diagonale, et que ses entrées diagonales
successives sont λ1 , · · · , λn . Dans ce cas,
Peni est un vecteur propre associé à la valeur propre λi . Supposons
que le vecteur v considéré s’écrive v = i=1 vi ei . Alors pour tout p ∈ N, on a
n
X
up (v) = vi λ i p e i .
i=1
112
pour tout p ≥ m (si p ≤ m, on a une formule similaire). Soit B = {e1 , · · · , en }Pune base de vecteurs
n
propres de d (notons λi la valeur propre à laquelle ei est associé) et écrivons v = i=1 vi ei . Alors, pour
tout p ≥ m
n m−1
p−k k
X X
p
u (v) = λi nk (ei ).
i=1
p
k=0
Am = (P DP −1 )(P DP −1 ) · · · (P DP −1 ) = P Dm P −1 = P Diag(λ1 m , · · · , λn p )P −1 .
On notera que cette formule s’étend à m ∈ Z si l’on suppose que A est inversible.
où ai,j ∈ C pour tout i, j ∈ {1, · · · , p}. Si on pose A = (ai,j ) ∈ Mp (C), le problème équivaut matricielle-
ment à ce que Xn = A.Xn−1 . Si A est diagonalisable, il existe P ∈ GLn (C) et D diagonale telles que
A = P DP −1 . Posons alors Yn = P −1 .Xn . Alors Xn = A.Xn−1 équivaut à Yn = DYn−1 soit à Yn = Dn Y0 .
Dans le cas des suites récurrentes, on se ramène à un système récurrent. Par exemple, si l’on étudie
Un+3 − 2Un+2 − Un+1 + 2Un = 0, en posant Vn = Un , Wn = Un+1 , Xn = Un+2 , on est ramené à
Vn+1 0 1 0 Vn
Wn+1 = 0 0 1 Wn .
Xn+1 −2 1 2 Xn
4 rappelons que c’est toujours le cas si K = C d’après le théorème 6.4.5
113
6.7.5 Résolutions de systèmes différentiels à coefficients constants
Soient I un intervalle de R et f1 , · · · , fn n fonctions continues sur I à valeurs dans C. Soit A ∈ Mn (C).
On cherche s’il existe des fonctions y1 , · · · , yn dérivables de I dans C solutions du système différentiel
suivant : 0
y1 (t) y1 (t) f1 (t)
y20 (t) y2 (t) f2 (t)
0
Y (t) = . = A . + . = AY (t) + F (t),
.. .. ..
yn0 (t) yn (t) fn (t)
quel que soit t ∈ I. Comme A ∈ Mn (C), elle est trigonalisable, donc il existe Q ∈ GLn (C) et T une
matrice triangulaire supérieure telles que A = QT Q−1 .
Posons alors Z(t) = Q−1 Y (t) et G(t) = Q−1 F (t) alors Z 0 (t) = Q−1 Y 0 (t) (puisque Q est à coefficients
complexes) et le système différentiel équivaut à Z 0 (t) = T Z(t) + G(t).
Le cas des équations différentielles linéaires à coefficients constants se ramène au cas de la résolution
d’une système différentiel linéaire adapté. Par exemple, l’équation différentielle y 00 + ay 0+ by = f où
y(t)
a, b ∈ C et f est une fonction continue de I dans C se traite en posant Y (t) = 0 . L’équation
y (t)
0 1 0
différentielle équivaut alors au système différentiel Y 0 (t) = Y (t) + .
−b −a f (t)
pour p ≥ l (mais il y a une formule similaire pour p < m) d’où l’on déduit la matrice de P (u) dans la base
B.
114
Chapitre 7
Dans ce chapitre, E désignera un K-espace vectoriel. Les résultats de ce chapitre sont vrais sur un
corps K quelconque à l’exception des résultats concernant les formes bilinéaires symétriques et les formes
quadratiques pour lesquels on supposera explicitement que la caractéristique du corps est différente de 2.
Le lecteur pourra supposer que K = Q, R ou C.
115
Preuve. Cela vient de la définition des coordonnées d’un vecteur dans une base et de celle des e∗i :
n
X n
X
x= xi ei = e∗i (x)ei .
i=1 i=1
Remarque 7.1.4. En conservant les notations précédentes, on peut remarquer que l’on a e∗i (ej ) = δi,j ,
où δi,j est le symbole de Kronecker (qui vaut 1 si i = j et 0 sinon).
Proposition 7.1.5. Avec les notations précédentes, notons B ∗ = {e∗1 , · · · , e∗n }. Alors B ∗ est une base de
E∗.
Pn Pn
Preuve. Soit f une forme linéaire sur E. Si x ∈ E est tel que x = i=1 xi ei = i=1 e∗i (x)ei alors
n
X n
X
f (x) = e∗i (x)f (ei ) = ( f (ei )e∗i )(x),
i=1 i=1
Pn
ce qui signifie que les formes linéaires f et i=1 f (ei )e∗i sont égales. En conséquence le système B ∗ est un
système générateur de E ∗ .
Pn
Soient λ1 , · · · , λn ∈ K tels que i=1 λi e∗i = 0. En appliquant successivement cette dernière forme
linéaire aux vecteurs e1 , · · · , en , on trouve que λ1 = 0, · · · , λn = 0 ce qui signifie que B ∗ est libre. C’est
donc une base de E ∗ .
Remarque 7.1.6. Avec les notations précédentes, Pnsi f est une forme linéaire dont les coordonnées dans
la base B ∗ sont (c1 , · · · , cn ) (autrement dit si f = i=1 ci e∗i ), on vient de montrer que ci = f (ei ) donc que
n
X
f= f (ei )e∗i .
i=1
Théorème 7.1.7. Soit E un K-espace vectoriel de dimension n. Alors il existe un isomorphisme non
canonique1 entre E et E ∗ .
Preuve. D’après la proposition précédente, on a dimK (E ∗ ) = n = dimK (E) donc E et E ∗ sont isomorphes
d’après le théorème 3.3.9. Plus précisément, si B = {e1 , · · · , en } est une base de E, on définit une
application linéaire ϕ : E → E ∗ : ei 7→ e∗i pour i = 1, · · · , n. Alors l’image d’une base de E est une base
de E ∗ donc ϕ est un isomorphisme d’après le théorème 3.3.7(3).
Question 7.1.8. Nous venons donc de voir qu’à toute base de E, nous pouvions associer une base de
E ∗ dite base duale. Nous nous intéressons maintenant à la réciproque : étant donnée une base de E ∗ ,
existe-t-il une base de E donc cette base est la duale ?
Étudions tout d’abord les noyaux des formes linéaires.
Proposition 7.1.9. (1) Soit f une forme linéaire non nulle sur E et soit H = ker(f ). Si g est une forme
linéaire qui est nulle en tout point de H, il existe λ ∈ K tel que g = λ.f .
(2) Deux formes linéaires ayant le même noyau sont proportionnelles.
(3) Soit E un espace vectoriel de dimension finie. Quel que soit x ∈ E \ {0}, il existe une forme linéaire
f telle que f (x) 6= 0.
1 c’est à dire dépendant du choix d’une base
116
Preuve. (1) Puisque f est non nulle, soit x0 ∈ E tel que f (x0 ) 6= 0. Quitte à multiplier x0 par un scalaire
adapté, on peut supposer que f (x0 ) = 1. Alors, on a H ⊕ Vect(x0 ) = E. Posons λ = g(x0 ) et considérons
la forme linéaire g − λf . Cette forme linéaire est nulle sur H par hypothèse ainsi que sur Vect(x0 ) par
construction. En conséquence, elle est nulle sur E donc g = λ.f .
(2) Cela vient directement de l’assertion (1).
(3) Puisque x 6= 0E , la famille {x} est libre et on peut la compléter en une base B = {e1 , e2 , · · · , en }
de E par le théorème de la base incomplète (on a noté e1 = x). La forme linéaire e∗1 de la base duale est
alors une forme linéaire qui vérifie e∗1 (x) = 1 6= 0.
Proposition 7.1.10. Soient f1 , · · · , fk des formes linéaires indépendantes sur un espace vectoriel E de
dimension finie n. Soit
k
\
M= ker(fi ).
i=1
Preuve. Puisque la famille {f1 , · · · , fk } est une famille libre de l’espace dual, on peut la compléter en
une base {f1 , · · · , fn } de E ∗ . Soit u : E → K n : x 7→ (f1 (x), · · · , fn (x)). Si x ∈ ker(u), on a f (x) = 0
pour tout f ∈ E ∗ donc x = 0E par contraposée de la proposition 7.1.9(3). Il en résulte que u est
injective donc bijective puisque u est une application linéaire et que dim(E) = n = dim(K n ) : c’est donc
un isomorphisme. Alors M = u−1 (N ) où N = {(x1 , · · · , xn ) ∈ K n | x1 = · · · = xk = 0}. Puisque
dim(N ) = n − k et que u−1 est un isomorphisme, on en déduit que dim(M ) = n − k.
Remarque 7.1.11. Avec les mêmes notations, la proposition s’énonce plus généralement de la façon suiv-
ante. Si f1 , · · · , fk sont des formes linéaires quelqonques sur E alors dim(M ) = dim(E)−rang({f1 , · · · , fk }).
Répondons maintenant à la question 7.1.8.
117
(3) Si f est un isomorphisme, on a (t f )−1 = t (f −1 ).
(4) Supposons que dimK (E) = m et dimK (F ) = n, soient B = {e1 , · · · , em } et C = {f1 , · · · , fn } deux
bases de E, et soient B ∗ et C ∗ leurs bases duales respectives. Alors
MatC ∗ ,B∗ (t f ) = t MatB,C (f ).
(5) Supposons que E soit un K-espace vectoriel de dimension finie. Soient B et C deux bases de E et
PasB,C la matrice de passage de la base B à la base C. Alors,
PasB∗ ,C ∗ = (t PasB,C )−1 .
Preuve. (1) Si x∗ , x0∗ ∈ F ∗ , λ ∈ K et u ∈ E, on a
((t f )(λ.x∗ + x0∗ ))(u) = (λ.x∗ + x0∗ )(f (u)) = (λ.(x∗ )(f ) + x0∗ (f ))(u),
d’où le résultat.
(2) Si x∗ ∈ G∗ , on a
t
(g ◦ f )(x∗ ) = x∗ ◦ (g ◦ f ) = (x∗ ◦ g) ◦ f = t f (x∗ ◦ g) = (t f ◦ t g)(x∗ ),
d’où le résultat.
(3) Si f est un isomorphisme alors pour x∗ ∈ E ∗
(t f ◦ t (f −1 ))(x∗ ) = t f (x∗ ◦ f −1 ) = x∗ ◦ (f ◦ f −1 ) = x∗ ,
donc (t f )−1 = t (f −1 ).
(4) Il suffit de voir que la i-ième colonne de la matrice MatC ∗ ,B∗ (t f ) contient les coordonnées de la
forme linéaire t f (fi∗ ) dans la base B ∗ . Or, on a vu dans la remarque 7.1.6 que la j-ième coordonnée d’une
forme linéaire x∗ dans la base B ∗ est égale à x∗ (ej ). En appliquant ceci à la forme linéaire t f (fi∗ ), on
obtient que le coefficient d’indice (j, i) de la matrice de l’application transposée dans les bases considérées
est t f (fi∗ )(ej ) = fi∗ (f (ej )) qui est le coefficient d’indice (i, j) de la matrice de l’application linéaire f dans
les bases considérées.
(5) On voit aisément que t IdE = IdE ∗ . Comme PasB,C = MatC,B (IdE ), on a,d’après le (4),
t
PasB,C = t MatC,B (IdE ) = MatB∗ ,C ∗ (IdE ∗ ) = PasC ∗ ,B∗ = Pas−1
B∗ ,C ∗ .
7.1.4 Bidual
Dans cette sous-section, nous étudions (rapidement) le dual du dual d’un K-espace vectoriel E.
Définition 7.1.15. On appelle bidual de E l’ensemble E ∗∗ des formes linéaires sur E ∗ .
Proposition 7.1.16. Supposons que E soit un K-espace vectoriel de dimension finie. Alors il existe un
isomorphisme canonique jE : E ' E ∗∗ .
Preuve. Définissons l’application jE : E → E ∗∗ : x 7→ jE (x) où jE (x)(x∗ ) = x∗ (x) ∈ K pour tout
x∗ ∈ E ∗ . Alors jE est une application linéaire et on a dim(E) = dim(E ∗ ) = dim(E ∗∗ ). Pour montrer que
jE est un isomorphisme, il suffit donc de montrer que jE est injective. Soit x ∈ E \ {0}, alors il existe une
forme linéaire x∗ ∈ E ∗ telle que x∗ (x) 6= 0 d’après la proposition 7.1.9(3). Ainsi, jE (x)(x∗ ) = x∗ (x) 6= 0
et donc jE (x) 6= 0E ∗∗ . Donc jE est injective et on en déduit le résultat.
118
Remarque 7.1.17. Remarquons que la proposition précédente permet de retrouver le fait que toute base
de E ∗ est la base duale d’une base de E. Pour cela, considérons une base {f1 , · · · , fn } de E ∗ . Alors elle
admet une base duale {f1∗ , · · · , fn∗ } qui est une base de E ∗∗ . Pour chaque i = 1, · · · , n, il existe un unique
ei ∈ E tel que jE (ei ) = fi∗ . Enfin, fi (ej ) = fj∗ (fi ) = δi,j ce qui signifie que la base duale de {e1 , · · · , en }
est {f1 , · · · , fn }.
On prendra garde à la notation du crochet de dualité : il n’y a pas de symétrie au sein de ce crochet.
Regardons particulièrement deux propriétés de cette application. Si v, v 0 ∈ E, λ ∈ K et x∗ , x0∗ ∈ E ∗ , on
a
hλ.v + v 0 , x∗ iE,E ∗ = x∗ (λ.v + v 0 ) = λx∗ (v) + x∗ (v 0 ) = λ.hv, x∗ iE,E ∗ + hv 0 , x∗ iE,E ∗ ,
de sorte que le crochet de dualité est linéaire en la première variable. De plus
hv, λ.x∗ + x0∗ iE,E ∗ = (λ.x∗ + x0∗ )(v) = λ.x∗ (v) + x0∗ (v) = λ.hv, x∗ iE,E ∗ + hv, x0∗ iE,E ∗ ,
et le crochet de dualité est linéaire en la seconde variable. Nous dirons que le crochet de dualité est une
forme bilinéaire sur E × E ∗ .
119
même l’application R2 × R3 → R : ((x1 , x2 ), (y1 , y2 , y3 )) 7→ x1 y2 + x2 (y1 − 2y3 ) est une forme bilinéaire sur
R2 × R3 . Par contre, l’application R × R → R : (x, y) 7→ xy 2 n’est pas une forme bilinéaire.
(2) Comme on l’a vu précédemment, le crochet de dualité est une forme bilinéaire sur E × E ∗ .
(3) Si L1 est une forme linéaire sur E et si L2 est une forme linéaire sur F alors on montre aisément que
l’application E × F → K : (x, y) 7→ L1 (x)L2 (y) est une forme bilinéaire sur E × F .
(4) Si E désigne le R-espace vectoriel des fonctions continues sur un intervalle [a, b] de R à valeurs dans R
alors Z b
Θ : E × E → R : (f, g) 7→ f (t)g(t)dt,
a
est une forme bilinéaire. Si E désigne le C-espace vectoriel des fonctions continues sur un intervalle [a, b]
de R à valeurs dans C alors Z b
Φ : E × E → C : (f, g) 7→ f (t)g(t)dt,
a
est linéaire en la première variable mais non linéaire en la seconde variable : dans le chapitre 9, une telle
forme sera appelée forme sesquilinéaire : elle est linéaire en la première variable et semi-linéaire en la
seconde variable (elle conjugue les scalaires).
(5) Si E est l’espace temps R4 et c est la vitesse de la lumière, l’application
est une forme bilinéaire appelée forme de Lorentz qui a une grande utilité en théorie de la relativité
restreinte.
Proposition 7.2.4. On a un isomorphisme d’espaces vectoriels L(F, E ∗ ) ' B(E × F ).
Preuve. On définit un morphisme de K-espaces vectoriels Ψ : L(F, E ∗ ) → B(E×F ) : si ϕ ∈ L(F, E ∗ ) alors
on pose Ψ(ϕ)(x, y) = ϕ(y)(x) pour tous (x, y) ∈ E × F . C’est évidemment un morphisme de K-espaces
vectoriels. Réciproquement, on définit un morphisme de K-espaces vectoriels Ψ0 : B(E × F ) → L(F, E ∗ )
de la façon suivante : si θ ∈ B(E × F ), on pose Ψ0 (θ)(y)(x) = θ(x, y) pour tous (x, y) ∈ E × F . On vérifie
aisément que Ψ et Ψ0 sont inverses l’une de l’autre ce qui termine la preuve.
Remarque 7.2.5. De par la symétrie que jouent E et F dans la proposition précédente, on a aussi des
isomorphismes de K-espaces vectoriels L(F, E ∗ ) ' B(E × F ) ' B(F × E) ' L(E, F ∗ ).
Définitions et exemples
Supposons que E est de dimension m et que F est de dimension n. Soient B = {e1 , · · · , em } une base de
E et C = {f1 , · · · fn } une base de F .
120
Proposition 7.2.6. (1) Soit b une forme bilinéaire sur E ×PF . Alors il existe une
Pn unique matrice M =
m
(mi,j ) ∈ Mm,n (K) telle que pour tous x ∈ E, y ∈ F , si x = i=1 ai ei et si y = j=1 bj fj alors
m X
X n
b(x, y) = mi,j ai bj .
i=1 j=1
(2) Avec les mêmes notations, si X est le vecteur colonne des coordonnées de x dans la base B et si Y est
le vecteur colonne des coordonnées de y dans la base C, on a la relation matricielle
b(x, y) = t XM Y.
Preuve. (1) Tout d’abord l’application définie par la formule est une forme bilinéaire sur E × F . De plus,
par bilinéarité
Xm n
X m X
X n
b(x, y) = b( ai ei , bj fj ) = b(ei , fj )ai bj .
i=1 j=1 i=1 j=1
Pour i = 1, · · · , m et j = 1, · · · , n, on pose mi,j = b(ei , fj ) d’où l’existence de M ∈ Mm,n (K). On en
déduit également l’unicité puisque la donnée des b(ei , fj ) détermine entièrement la forme bilinéaire b.
(2) Conservons les notations de l’énoncé. On a
m X
X n m
X n
X
b(x, y) = b(ei , fj )ai bj = ai mi,j bj = t XM Y,
i=1 j=1 i=1 j=1
Définition 7.2.7. Soit b une forme bilinéaire sur E × F . La matrice M de la proposition précédente
s’appelle matrice de la forme bilinéaire b dans les bases B et C. On la note MatB,C (b). Lorsque dim(E) =
dim(F ), cette matrice est une matrice carrée.
Reprenons les exemples de 7.2.3(1)
Pn
Exemples 7.2.8. (1) Si E = F = Rn , la forme bilinéaire définie par b(x, y) = i=1 xi yi où x =
(x1 , · · · , xn ) et y = (y1 , · · · ,n ) sont les coordonnées respectives de x et y dans la base canonique B de Rn
a pour matrice In dans les bases B et B.
(2) De même l’application R2 × R3 → R : ((x1 , x2 ), (y1 , y2 , y3 )) 7→ x1 y2 + x2 (y1 − 2y3 ) est une forme
bilinéaire. Sa matrice dans les bases canoniques de R2 et de R3 est
0 1 0
M= ∈ M2,3 (R).
1 0 −2
On a déjà vu que l’espace vectoriel des applications linéaires de E dans F est isomorphe à l’espace
vectoriel Mn,p (K). Il existe une propriété similaire pour l’espace des formes bilinéaires sur E × F .
Proposition 7.2.9. Supposons que E est de dimension m et que F est de dimension n. Il existe un
isomorphisme de K-espaces vectoriels non canonique Φ : B(E × F ) ' Mm,n (K).
Preuve. Nous donnons deux preuves de ce fait. La première est directe. Soient B (resp. C) une base de E
(resp. de F ) fixée. On définie l’application suivante : Φ : B(E × F ) → Mm,n (K) : b 7→ MatB,C (b). Alors
Φ est bien définie, est un morphisme de K-espace vectoriels et est bijective puisqu’une forme bilinéaire est
entièrement déterminée par la donnée de sa matrice dans deux bases données (proposition 7.2.6). C’est
donc un isomorphisme de K-espaces vectoriels.
Pour la seconde preuve, on a B(E ×F ) ' L(F, E ∗ ) d’après la proposition 7.2.4 et L(F, E ∗ ) ' Mm,n (K)
d’après le théorème 4.3.9 (puisque dim(E ∗ ) = dim(E) = m). La composée de ces deux isomorphismes
fournit l’isomorphisme désiré.
121
Changement de base
Maintenant que l’on a défini la matrice d’une forme bilinéaire sur E × F dans certaines bases, regardons
ce qu’il se passe matriciellement lorsque l’on change ces bases.
Théorème 7.2.10. Soient b une forme bilinéaire sur E × F . Soient B, B 0 deux bases de E et C, C 0 deux
bases de F . Alors
MatB0 ,C 0 (b) = t PasB,B0 MatB,C (b)PasC,C 0 .
Preuve. Pour simplifier, utilisons les notations suivantes : M = MatB,C (b), M 0 = MatB0 ,C 0 (b), P =
PasB,B0 et Q = PasC,C 0 . Soient X (resp. X 0 ) le vecteur colonne des coordonnées d’un vecteur x dans la
base B (resp. B 0 ) et Y (resp. Y 0 ) le vecteur colonne des coordonnées d’un vecteur y dans la base C (resp.
C 0 ). Rappelons que l’on a X = P X 0 et Y = QY 0 d’après le théorème 4.6.6. De plus, b(x, y) = t XM Y
d’après la proposition 7.2.6(2). Donc
Remarques 7.2.11. (1) En toute généralité, la formule du changement de base pour une forme bilinéaire
ne demande pas de calcul d’inverse de matrices.
(2) Si b est une forme bilinéaire sur E × E et si M est sa matrice dans une base B de E alors la matrice
M 0 de b dans un base B 0 de E vérifie M 0 = t P M P où P est la matrice de passage de B à B 0 .
Attention. Il faut faire attention aux nombres de lignes et de colonnes de la matrice d’une application
linéaire de E dans F et de la matrice d’une forme bilinéaire sur E × F . Si dim(E) = m et dim(F ) = n,
la matrice d’une application linéaire de E dans F est un élément de Mn,m (K) alors que la matrice d’une
forme bilinéaire sur E ×F est un élément de Mm,n (K). De même il faut prendre conscience des différences
entre le théorème précédent et le théorème 4.6.8 au niveau de la position des diverses matrices de passage.
Ces différences sont essentiellement dues au fait que B(E × F ) ' L(F, E ∗ ) : d’une part, cela explique
l’inversion du nombre de lignes et du nombre de colonnes pour les matrices d’une forme linéaire de E dans
F et d’une forme bilinéaire sur E × F . D’autre part, cela permet également d’interpréter les positions
relatives des matrices de passage dans les formules de changement de base évoquées.
Exemple 7.2.12. Supposons E = R2 et F = R3 . On considère la forme bilinéaire sur E × F définie par
Alors la matrice de cette forme bilinéaire dans les bases canoniques B et C de E et F est
−5 −22 17
M= .
3 13 −10
Soient B 0 = {(1, 2), (3, 5)} et C 0 = {(1, 0, 0), (0, 3, 4), (0, 4, 5)} : on voit aisément que ce sont des bases
respectives de E et F . Calculons M 0 = MatB0 ,C 0 (b). Pour cela, soient P = PasB,B0 et Q = PasC,C 0 . Alors
1 0 0
1 3 1 0 1
M 0 = tP M Q = t M 0 3 4 = .
2 5 0 1 1
0 4 5
122
7.2.3 Formes bilinéaires non dégénérées
Dans cette sous-section, b est une forme bilinéaire sur E × F .
Définition 7.2.13. Les applications linéaires db : F → E ∗ : y 7→ b(., y) et gb : E → F ∗ : x 7→ b(x, .) sont
appelées applications linéaires associées à b.
Remarque 7.2.14. En fait, les applications linéaires associées à b interviennent déjà dans la preuve de
la proposition 7.2.4 et dans la remarque qui suit. Par exemple, l’isomorphisme Ψ0 : B(E × F ) ' L(F, E ∗ )
est défini par Ψ0 (b) = db .
Définition 7.2.15. (1) Une forme bilinéaire sur E × F est dite non dégénérée ou régulière si b(x, y) = 0
pour tout y ∈ F implique que x = 0 et si b(x, y) = 0 pour tout x ∈ E implique que y = 0. Cela équivaut
à dire que ker(db ) = {0F } et ker(gb ) = {0E }.
(2) Une forme bilinéaire qui ne vérifie pas la propriété (1) est dite dégénérée ou singulière.
Exemple 7.2.16. Considérons la forme bilinéaire sur R2 × R2 définie par b((x1 , y1 ), (x2 , y2 )) = 2x1 y1 +
x1 y2 − x2 y2 . Cherchons ker(db ). Si y = (y1 , y2 ) ∈ ker(db ) alors b(x, (y1 , y2 )) = 0 pour tout x ∈ R2 . En
particulier, pour x1 = 0 et x2 = 1, on trouve y2 = 0. Pour x1 = 1 et x2 = 0, on trouve y1 = 0. Donc
ker(db ) = {0R2 }. De même, on montre que ker(gb ) = {0R2 }. Ainsi, b est non dégénérée.
Le fait qu’une forme bilinéaire sur E × F soit non dégénérée implique forcément que dim(E) = dim(F ).
Théorème 7.2.17. Soient E et F deux K-espaces vectoriels de dimension finie et b une forme bilinéaire
sur E × F . Si b est non dégénérée, on a dim(E) = dim(F ). De plus, si B = {e1 , · · · , en } est une base de
E, il existe une unique base C = {f1 , · · · , fn } de F telle que MatB,C (b) = In .
Preuve. Le fait que b soit non dégénérée implique que ker(db ) = {0F } donc db est injective et dim(F ) ≤
dim(E ∗ ) = dim(E). Puisque l’on a aussi ker(gb ) = {0E }, on en déduit que dim(E) ≤ dim(F ∗ ) = dim(F )
donc dim(E) = dim(F ).
Dans ce cas, soit B = {e1 , · · · , en } une base de E. Considérons l’application
L’application f est linéaire (puisque b est bilinéaire). Comme b est non dégénérée, on a ker(f ) = {0F }
donc f est injective puis bijective pour une raison de dimension. Pour i = 1, · · · , n, il existe un unique
fi ∈ F tel que f (fi ) = (0, · · · , 0, 1, 0, · · · , 0) (le 1 étant en i-ième position). Alors la famille {f1 , · · · , fn }
est une base de F puisque c’est l’image par l’isomorphisme f −1 de la base canonique et on a b(ei , fj ) = δi,j
par définition. D’où MatB,C (b) = In .
123
Lemme 7.2.19. Si le système {x1 , · · · , xp } est lié, on a Gramb ({x1 , · · · , xp }) = 0 pour tout b ∈ L2 (E).
Preuve. Soit b ∈ P
L2 (E). Puisque le système considéré est lié, on peut suppose que l’on peut écrire non
p
trivialement x1 = i=2 λi xi quitte à ré-indexer. Alors pour i = 1, · · · , p,
p
X p
X
b(xi , x1 ) = b(xi , λ i xi ) = λi b(xi , x1 ).
i=2 i=2
Cela signifie que la première colonne de la matrice de Gram correspondante relativement à b est combi-
naison linéaires des autres colonnes de cette même matrice : on a donc Gramb ({x1 , · · · , xp }) = 0 par la
proposition 5.5.4.
Proposition 7.2.20. Soient E un K-espace vectoriel de dimension finie n et b ∈ L2 (E). Alors, les
assertions suivantes sont équivalentes :
(1) b est non dégénérée.
(2) Il existe une base B de E telle que Gramb (B) 6= 0.
(3) Pour toute base B de E, Gramb (B) 6= 0.
Preuve. Montrons que (1) implique (2). Soit B une base quelconque de E. D’après le théorème 7.2.17,
il existe une unique base B 0 de E telle que MatB,B0 (b) = In . Si P est la matrice de passage de B à B,
Q est la matrice de passage de B à B 0 on a In = MatB,B0 (b) = t P MatB,B (b)Q = In MatB,B (b)Q, d’où
MatB,B (b) = Q−1 . Or la matrice MatB,B (b) n’est autre que la matrice de Gram de B relativement à b donc
son déterminant vaut det(Q)−1 6= 0.
Montrons ensuite que (2) implique (3). S’il existe une base B de E pour laquelle Gramb (B) 6= 0, soit
B 0 une autre base de E. Soit P la matrice de passage de B à B 0 . Alors
On a donc mis en valeur une combinaison linéaire des vecteurs colonnes de la matrice de Gram de B
relativement à b égale au vecteur nul. Puisque Gramb (B) 6= 0, la matrice de Gram est inversible donc
α1 = · · · = αn = 0 puis y = 0. Cela montre que ker(db ) = {0E }. De même, ker(gb ) = {0E } donc b est non
dégénérée.
Exemples 7.2.21. (1) La forme bilinéaire qui définit le produit scalaire usuel de Rn est une forme
bilinéaire non dégénérée puisque la matrice de Gram de la base canonique relativement à cette forme est
l’identité donc a déterminant 1.
(2) Reprenons la forme bilinéaire sur R2 de l’exemple
7.2.16.
La matrice de Gram de la base canonique
2 1
relativement à cette forme est la matrice M = dont le déterminant est non nul : elle est donc
0 −1
non dégénérée.
124
7.3 Formes bilinéaires symétriques et antisymétriques
Pour tout le reste de ce chapitre, nous supposons que la caractéristique du corps K est différente de 2. No-
tons quil existe une théorie des formes bilinéaires symétriques et des formes quadratiques en caractéristique
2 mais que celle-ci est plus complexe et que la correspondance entre forme bilinéaire symétrique et forme
quadratique n’est plus vraie.
7.3.1 Définitions
Les définitions qui suivent ont déjà été données au chapitre 5. Nous les replaçons dans ce contexte.
Définition 7.3.1. (1) On dit que b ∈ L2 (E) est une forme bilinéaire symétrique si b(x, y) = b(y, x) pour
tous x, y ∈ E. L’ensemble des formes bilinéaires symétriques sur E est noté S2 (E).
(2) On dit que b ∈ L2 (E) est une forme bilinéaire antisymétrique si b(x, y) = −b(y, x) pour tous x, y ∈ E.
L’ensemble des formes bilinéaires antisymétriques est noté A2 (E).
Remarque 7.3.2. Puisque la caractéristique de K est supposée être différente de 2, une forme bilinéaire
est antisymétrique si et seulement si elle est alternée, c’est à dire b(x, x) = 0 pour tout x ∈ E (voir la
proposition 5.2.4).
Proposition 7.3.3. On a L2 (E) = S2 (E) ⊕ A2 (E).
Preuve. Il est immédiat que S2 (E) et A2 (E) sont des sous-espaces vectoriels de L2 (E). Ensuite, si
b ∈ S2 (E) ∩ A2 (E) alors, pour tous x, y ∈ E, on a −b(x, y) = b(y, x) = b(x, y) et, comme la caractéristique
de K est différente de 2, b(x, y) = 0 pour tous x, y ∈ E donc S2 (E) et A2 (E) sont en somme directe.
Soit b ∈ L2 (E). On définit s, a ∈ L2 (E) en posant
1 1
s(x, y) = (b(x, y) + b(y, x)), a(x, y) = (b(x, y) − b(y, x)),
2 2
pour tous x, y ∈ E. On vérifie alors facilement que s ∈ S2 (E), a ∈ A2 (E) et que b = s + a donc
L2 (E) = S2 (E) + A2 (E). Cela implique que S2 (E) et A2 (E) sont supplémentaires dans L2 (E).
Lorsque l’espace vectoriel sous-jacent est de dimension finie, on peut faire le lien entre forme bilinéaire
symétrique (resp. antisymétrique) et matrice symétrique (resp. matrice antisymétrique).
Théorème 7.3.4. Soit E un K-espace vectoriel de dimension finie. Alors :
(1) b ∈ S2 (E) si et seulement si pour toute base B de E, la matrice de b relativement à B est symétrique.
(2) b ∈ A2 (E) si et seulement si pour toute base B de E, la matrice de b relativement à B est antisymétrique.
Preuve. Nous faisons la preuve de l’assertion (1), la seconde assertion se prouvant de manière similaire.
Soient B une base de E et A = MatB,B (b) où b est une forme bilinéaire sur E. Alors
la deuxième équivalence provenant du fait que t Y AX ∈ K donc est égal à son transposé.
125
Remarque 7.3.5. Si dim(E) = n, on sait que dim(L2 (E)) = dim(Mn (K)) = n2 d’après la proposition
7.2.9. De plus, on montre facilement que
n(n + 1) n(n − 1)
dim(S2 (E)) = , dim(A2 (E)) = .
2 2
Exemples 7.3.6. (1) Revenons d’abord sur les exemples 7.2.3. Dans le (1), la forme bilinéaire qui définit
le produit scalaire usuel de Rn est une forme bilinéaire symétrique. La première forme bilinéaire en (4)
est une forme bilinéaire symétrique alors que la seconde est non symétrique (ni antisymétrique). La forme
de Lorentz en (5) est aussi une forme bilinéaire symétrique.
(2) Soit E le R-espace vectoriel des fonctions de classe C 1 sur un intervalle [a, b] de R à valeurs dans R et
telles que f (a) = f (b) = 0. On considère l’application
Z b
Θ : E × E → R : (f, g) 7→ f (t)g 0 (t)dt.
a
C’est une forme bilinéaire antisymétrique sur E puisque la relation Θ(f, g) = −Θ(g, f ) résulte de la formule
d’intégration par parties.
(3) Si E est le C-espace vectoriel des séries numériques absolument convergentes, les applications
∞
X ∞
X k
X
E × E → R : ((un )n , (vn )n ) 7→ uk vk , E × E → R : ((un )n , (vn )n ) 7→ ( ul vk−l ),
k=0 k=0 l=0
7.3.2 Orthogonalité
Dans cette sous-section, nous définissons la notion d’orthogonalité relativement à une forme bilinéaire
symétrique ou antisymétrique et en tirons d’importantes conséquences2 . Soit E un K-espace vectoriel.
Commençons par quelques définitions.
Définition 7.3.7. Soit b une forme bilinéaire symétrique ou antisymétrique sur E.
(1) On dit que deux éléments x et y de E sont orthogonaux relativement à b si on a b(x, y) = 0. On pourra
parfois noter x⊥b y ou plus simplement x⊥y.
(2) Si A est une partie de E, on définit l’orthogonal de A relativement à b par
Remarques 7.3.8. (1) Puisque b est symétrique ou antisymétrique, on a x⊥y si et seulement si y⊥x.
(2) On montre aisément que pour une partie A quelconque de E, A⊥b est un sous-espace vectoriel de E.
(3) On voit aisément que b est non dégénérée si et seulement si E ⊥b = {0E }.
Étudions tout d’abord le comportement de l’orthogonalité vis à vis des opérations usuelles sur les
sous-espaces vectoriels dans le cas d’une forme bilinéaire symétrique ou antisymétrique quelconque.
2 Notons que la notion d’orthogonalité relativement à une forme bilinéaire quelconque peut être définie : il faut alors opérer
une distinction entre orthogonalité à droite et orthogonalité à gauche, ce que nous ne ferons pas ici.
126
Théorème 7.3.9. Soient F et G deux sous-espaces vectoriels de E. Soit b une forme bilinéaire symétrique
ou antisymétrique sur E.
(1) On a F ⊂ (F ⊥ )⊥ .
(2) On a F ⊥ ∩ G⊥ = (F + G)⊥ .
(3) On a F ⊥ + G⊥ ⊂ (F ∩ G)⊥ .
(4) Si E est supposé être de dimension finie, on a
Attention. Attention : les inclusions en (1) et en (3) et l’inégalité en (4) peuvent être strictes dans le
cas d’une forme bilinéaire symétrique ou antisymétrique quelconque. On va voir maintenant que cela n’est
pas le cas des formes non dégénérées sur un espace vectoriel de dimension finie.
Théorème 7.3.10. Soit E un K-espace vectoriel de dimension finie et b une forme bilinéaire symétrique
ou antisymétrique non dégénérée sur E. Soient F et G deux sous-espaces vectoriels de E.
(1) On a dim(F ) + dim(F ⊥ ) = dim(E).
(2) On a F = (F ⊥ )⊥ .
(3) On a F ⊥ + G⊥ = (F ∩ G)⊥ .
Preuve. (1) Soient {e1 , · · · , ep } une base de F que l’on complète en une base {e1 , · · · , ep , ep+1 , · · · , en }
de E. D’après le théorème 7.2.17, il existe une unique base {f1 , · · · , fn } de E telle que b(ei , fj ) = δi,j
pour i, j = 1, · · · , n. Montrons que {fp+1 , · · · , fn } est une base de F ⊥ . Tout Pn d’abord, on voit aisément
que Vect({fp+1 , · · · , fn }) ⊂ F ⊥ . Réciproquement, si y ∈ F ⊥ , on écrit y = i=1 αi fi . Pour i = 1, · · · , p,
on a 0 = b(ei , y) = αi d’où l’inclusion réciproque. La famille {fp+1 , · · · , fn } engendre F ⊥ et est libre donc
c’en est une base. On en déduit que dim(E) = dim(F ) + dim(F ⊥ ).
(2) D’après le théorème 7.3.9(1), on a l’inclusion F ⊂ (F ⊥ )⊥ . Si on applique le (1) à F ⊥ , on en déduit
127
que dim(F ⊥ )+dim((F ⊥ )⊥ ) = dim(E). Comme dim(F )+dim(F ⊥ ) = dim(E), on a dim(F ) = dim((F ⊥ )⊥ )
d’où F = (F ⊥ )⊥ .
(3) D’après le théorème 7.3.9(2) et le point (2) ci-dessus, on a
(F ⊥ + G⊥ )⊥ = (F ⊥ )⊥ ∩ (G⊥ )⊥ = F ∩ G.
D’où
F ⊥ + G⊥ = (F ⊥ + G⊥ )⊥ )⊥ = (F ∩ G)⊥ .
Remarque 7.3.11. En fait, on montre plus généralement que les assertions (1) et (2) du théorème
précédent sont vraies si on suppose seulement que F ∩ E ⊥ = {0E }. Si b est non dégénérée, cette condition
est satisfaite pour tout sous-espace vectoriel F .
Attention. On n’a pas forcément F ⊕F ⊥ = E, même si E est de dimension finie et si b est non dégénérée.
Par exemple, prenons E = R2 et b la forme bilinéaire
surE définie par b((x1 , y1 ), (x2 , y2 )) = x1 y1 − x2 y2 .
1 0
Sa matrice dans la base canonique est M = dont le déterminant est −1 donc elle est non
0 −1
dégénérée d’après la proposition 7.2.20. On considère F = {(x1 , x2 ) ∈ E | x1 = x2 } et on voit aisément
que F ⊥ = F . Ainsi, la somme F + F ⊥ n’est pas directe et F + F ⊥ = F . Cette forme bilinéaire est qualifiée
d’hyperbolique.
Définition 7.3.14. Soit b une forme bilinéaire symétrique sur E. Un sous-espace vectoriel F de E est dit
isotrope si F ∩ F ⊥ 6= {0E }, totalement isotrope si F ⊂ F ⊥ .
Attention. (1) Il ne faut pas confondre le noyau d’une forme bilinéaire symétrique avec l’ensemble des
éléments isotropes. Un élément du noyau est toujours isotrope mais l’inverse n’est pas vrai. Par exemple,
si on reprend l’exemple de la fin de la sous-section précédente, on voit que E ⊥ = {0E } alors que (1, 1) est
128
un vecteur isotrope. On voit que F = Vect{(1, 1)} = F ⊥ est un sous-espace totalement isotrope.
(2) Considérons la forme bilinéaire symétrique non dégénérée vérifiant
b((x1 , x2 , x3 , x4 ), (y1 , y2 , y3 ,4 )) = x1 y1 + x2 y2 + x3 y3 − x4 y4 .
On voit aisément que (1, 0, 0, 1) est un vecteur isotrope donc F = R.(1, 0, 0, 1) est constitué de vecteurs
isotropes de b. Ainsi, b0 = b|F ×F est nulle donc est dégénérée. Ainsi, une forme peut être non dégénérée
sur un certain espace et être nulle en restriction à un sous-espace.
(3) Dans le (1)et le (2), on voit que b peut être non dégénérée sans être définie.
Théorème 7.3.15. Soient E un K-espace vectoriel et b une forme bilinéaire symétrique sur E. On
considère un sous-espace vectoriel F de E qui soit de dimension finie. Alors F est non isotrope si et
seulement si E = F ⊕ F ⊥ .
Preuve. Si E = F ⊕ F ⊥ alors F ∩ F ⊥ = {0E } donc F est non isotrope.
Réciproquement, supposons que F est non isotrope. On a déjà F ∩ F ⊥ = {0E }. Il reste à montrer
que F + F ⊥ = E. Notons b0 la restriction de b à F × F . Puisque F est non isotrope, le noyau de b0 est
réduit à {0E } donc b0 est non dégénérée. En particulier l’application linéaire db0 : F → F ∗ : y 7→ b0 (., y)
est injective et comme, dim(F ) = dim(F ∗ ), c’est une bijection.
Soit z ∈ E. Considérons alors la forme linéaire ψz : F → K : x 7→ b(x, z). Puisque db0 est bijective, il
existe un unique y0 ∈ F tel que db0 (y0 ) = ψz ce qui signifie que b(t, y0 ) = b(t, z) pour tout t ∈ F . Ainsi,
quel que soit z ∈ E, il existe un unique y0 ∈ F tel que b(t, y0 − z) = 0 pour tout t ∈ F donc z − y0 ∈ F ⊥ .
Écrivant z = y0 + (z − y0 ), cela implique que E = F + F ⊥ comme attendu.
En particulier :
Corollaire 7.3.16. Si b est une forme bilinéaire symétrique définie sur un K-espace vectoriel E de
dimension finie alors on a E = F ⊕ F ⊥ pour tout sous-espace vectoriel F de E.
Preuve. En effet, puisque b est définie, tout sous-espace vectoriel est non isotrope : il suffit alors
d’appliquer le théorème précédent.
Familles orthogonales
Définition 7.3.17. Soit b une forme bilinéaire sur E.
(1) Une famille {x1 , · · · , xk } de vecteurs de E est dite orthogonale par rapport à b ou orthogonale si pour
tous i 6= j = 1, · · · , k, on a b(xi , xj ) = 0.
(2) Une famille {x1 , · · · , xk } de vecteurs de E est dite orthonormale par rapport à b ou orthonormale si
pour tous i, j = 1, · · · , k, b(xi , xj ) = δi,j .
Remarques 7.3.18. (1) Avec les notations de la définition, une famille orthonormale est une famille
orthogonale qui vérifie en outre b(xi , xi ) = 1 pour i = 1, · · · , k.
(2) Si E est de dimension finie, on voit facilement qu’une base B de E est orthogonale si et seulement si la
matrice de b relativement à B est diagonale, orthonormale si et seulement si la matrice de b relativement
à B est la matrice identité.
129
Nous voulons maintenant montrer l’existence d’une base orthogonale pour une forme bilinéaire symétrique
sur un espace vectoriel de dimension finie. Avant cela, nous avons besoin du lemme suivant.
Lemme 7.3.19. Une famille orthogonale de vecteurs dont aucun n’est isotrope pour b est une famille
libre.
Pk
Preuve. Soit {x1 , · · · , xk } une famille telle que décrite dans l’énoncé. Supposons que i=1 αk xk = 0E .
Soit 1 ≤ j ≤ k. Alors
k
X k
X
0 = b(0E , xj ) = b( αk xk , xj ) = αk b(xk , xj ) = αk .
i=1 i=1
Théorème 7.3.20. Soient E un K-espace vectoriel de dimension finie et b une forme bilinéaire symétrique
sur E. Alors E possède une base orthogonale relativement à b.
Preuve. On prouve ce résultat par récurrence sur la dimension de E. Si dim(E) = 1, on choisit x ∈ E\{0}.
Ce vecteur constitue une base de E orthogonale relativement à b.
Supposons maintenant n > 1 et supposons que le résultat est établi pour toute forme bilinéaire
symétrique sur un K-espace vectoriel G de dimension strictement inférieure à n. Soient E un K-espace
vectoriel de dimension n et b une forme bilinéaire symétrique sur E. Si b est la forme nulle, toute base de
E convient. Sinon, b n’est pas nulle. Si on suppose que b(x, x) = 0 pour tout x ∈ E alors puisque
1
b(x, y) = (b(x + y, x + y) − b(x, x) − b(y, y)),
2
pour tous x, y ∈ E, b serait nulle. On peut donc supposer qu’il existe e1 ∈ E tel que b(e1 , e1 ) 6= 0.
On pose F = Vect({e1 }). Puisque, b(e1 , e1 ) 6= 0, F est non isotrope donc E = F ⊕ F ⊥ d’après le
théorème 7.3.15. D’après le théorème 7.3.10, dim(F ⊥ ) = n − 1 : on peut donc appliquer l’hypothèse de
récurrence à F ⊥ et à la forme bilinéaire symétrique b0 obtenue par restriction de b à F ⊥ × F ⊥ . Il existe
donc une base orthogonale {e2 , · · · , en } de F ⊥ relativement à b0 . Puisque E = F ⊕ F ⊥ , {e1 , · · · , en } est
une base de E dont on vérifie aisément qu’elle est une base orthogonale relativement à b.
Attention. Il ne s’agit pas ici d’une diagonalisation de matrice au sens de la théorie que nous avons
exposée au chapitre précédent. Si A est la matrice d’une forme bilinéaire symétrique dans une certaine
base et si A0 est la matrice de b dans une base orthogonale relativement à b, la matrice A0 est diagonale
mais les valeurs diagonales ne sont pas forcément des valeurs propres de A. Du reste, ces deux matrices
n’ont pas en général le même polynôme caractéristique.
Cas de R et de C
Supposons maintenant K = R et soit E un R-espace vectoriel de dimension finie que lequel on considère
une forme bilinéaire symétrique b. D’après le théorème 7.3.20, il existe une base orthogonale {e1 , · · · , en }
de E relativement à b. On ordonne les éléments de la base de sorte à avoir αi = b(ei , ei ) > 0 pour 1 ≤ i ≤ p,
αi = b(ei , ei ) < 0 pour p + 1 ≤ i ≤ r et b(ei , ei ) = 0 pour r + 1 ≤ i ≤ n. Posons alors
1 1
e0i = √ ei pour 1 ≤ i ≤ p, e0i = √ ei pour p + 1 ≤ i ≤ r, e0i = ei pour r + 1 ≤ i ≤ n.
αi −αi
130
Alors, la famille {e01 , · · · , e0p , e0p+1 , · · · , e0r , e0r+1 , · · · , e0n } est une base de E et dans cette base, la matrice
de b est
Ip 0 0
M = 0 −Ir−p 0 .
0 0 0n−r
Si on suppose que K = C et si E est un C-espace vectoriel, toute forme bilinéaire symétrique admet
dans une certaine base3 une représentation matricielle du type
Ir 0
M= .
0 0
Dans le cas où K = R, nous verrons dans la section suivante consacrée aux formes quadratiques que
l’on peut classer les formes bilinéaires symétriques sur un espace vectoriel de dimension n suivant leur
signature : cette signature rend justement compte du nombre de termes positifs et du nombre de termes
négatifs sur la diagonale d’une représentation matricielle de la forme dans une base orthogonale. Le cas
où K = C sera également précisé à cette occasion.
7.4.1 Définitions
Introduction
Avant d’en donner la définition, montrons sur deux exemples à quoi ressemblent les formes quadratiques.
Supposons E = R3 . On définit une application q : R3 → R : (x, y, z) 7→ x1 2 + 2x1 x3 + x2 2 . C’est une forme
quadratique dont on pourrait aussi dire que c’est un polynôme homogène de degré deux dans l’ensemble
des variables, mais cela ne couvre pas tous les cas.
Soit E l’espace vectoriel de dimension infinie des fonctions réelles de classe C 1 sur l’intervalle [0, 1] et
posons Z 1
q(f ) = (f (t)2 + 2f (t)f 0 (t))dt,
0
pour f ∈ E. Ce sera aussi une forme quadratique que l’on ne peut plus voir, cette fois, comme un
polynôme.
Définitions
En conséquence, on pose la définition suivante :
Définition 7.4.1. Soit E un K-espace vectoriel. On dit qu’une fonction q de E dans K est une forme
quadratique sur E s’il existe une forme bilinéaire b sur E × E telle que q(x) = b(x, x) pour tout x ∈ E.
Exemples 7.4.2. (1) Sur E = K 2 , on pose q(x1 , x2 ) = x1 x2 . Alors la forme b : K 2 × K 2 → K :
((x1 , x2 ), (y1 , y2 )) 7→ x1 y2 est une forme bilinéaire sur K 2 et b((x1 , x2 ), (x1 , x2 )) = q(x1 , x2 ) donc q est une
forme quadratique sur K 2 . Il y a une autre solution : prendre b : K 2 ×K 2 → K : ((x1 , x2 ), (y1 , y2 )) 7→ x2 y1 .
(2) Revenons aux exemples 7.2.3(1), (4) et (5). En (1) la forme bilinéaire issue du produit scalaire usuel
induit la forme quadratique
n
X
q : Rn → R : (x1 , · · · , xn ) 7→ xi 2 ,
i=1
3 une base orthogonale dont on a modifié certains vecteurs par multiplication par un scalaire bien choisi.
131
qui représente le carré de la distance euclidienne sur laquelle nous reviendrons dans le chapitre suivant.
En (4), si E désigne le R-espace vectoriel des fonctions continues sur un intervalle [a, b] de R à valeurs
dans R alors Z b
Θ : E × E → R : (f, g) 7→ f (t)g(t)dt,
a
est une forme bilinéaire qui induit la forme quadratique
Z b
q : E → R : f 7→ f 2 (t)dt,
a
qui est le carré de la norme L2 sur [a, b]. Enfin, en (5), la forme bilinéaire de Lorentz induit la forme
quadratique
q : R4 → R : (x, y, z, t) 7→ x2 + y 2 + z 2 − ct2 .
Lemme 7.4.3. Soit q une forme quadratique sur E. Alors, pour tout λ ∈ K, on a q(λ.x) = λ2 q(x).
Preuve. Soit b une forme bilinéaire sur E × E telle que b(x, x) = q(x). Alors
Preuve. La forme bilinéaire proposée est bien une forme bilinéaire symétrique. En outre, on a b(x, x) =
q(x) d’après le lemme précédent ce qui prouve l’existence. Soit b0 une forme bilinéaire symétrique telle que
b0 (x, x) = q(x) pour tout x ∈ E. Alors q(x + y) = q(x) + 2b0 (x, y) + q(y) pour tous x, y ∈ E d’où b = b0
ce qui prouve l’unicité.
Définition 7.4.5. (1) Soit q une forme quadratique sur un K-espace vectoriel E de dimension n. On
appelle matrice de q dans une base B de E la matrice de la forme polaire de q dans la base B.
(2) Deux matrices A, A0 ∈ Sn (K) sont dites congruentes s’il existe P ∈ GLn (K) telle que A0 = t P AP .
Autrement dit, deux matrices symétriques sont congruentes lorsqu’elles représentent la même forme
bilinéaire symétrique sur E (ou la même forme quadratique) dans deux bases différentes.
Exemple 7.4.6. Revenons aux exemples de l’introduction à cette section. Dans le premier exemple, la
forme polaire de q est
b((x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y1 + x1 y3 + x3 y1 + x2 y2 .
132
7.4.2 Décomposition de Gauss
Dans le théorème 7.3.20, on a prouvé que pour toute forme bilinéaire symétrique b sur un K-espace
vectoriel E de dimension finie, il existe une base orthogonale {e1 , · · · , en } de E relativement à b. Si b est
la forme polaire de q, cela implique que pour tous x1 , · · · , xn ∈ K, on a
n
X n
X
q( xi ei ) = xi 2 q(ei ).
i=1 i=1
La méthode de Gauss est une méthode pratique très simple permettant de trouver explicitement une base
orthogonale relativement à b. En fait, c’est une méthode qui va permettre d’exprimer la forme quadratique
q comme combinaison linéaire de carrés de formes linéaires indépendantes. On pourra ensuite en déduire
une base orthogonale pour la forme polaire de q. Ceci sera expliqué après l’exposé de la méthode de Gauss.
Un exemple introductif
On considère la forme quadratique définie sur R2 par q(x1 , x2 ) = x1 2 + x1 x2 + x2 2 . On veut décomposer
son expression en somme de carrés. Pour cela, on reconnait le début d’une identité remarquable en écrivant
√
1 2 3 2 1 2 3 2
q(x1 , x2 ) = (x1 + x2 ) + x2 = (x1 + x2 ) + ( x2 ) .
2 4 2 2
Dans cet exemple, on voit que q est une somme de deux carrés de deux formes linéaires. Il en résulte
que q(x1 , x2 ) ≥ 0. En fait, on voit aisément que q(x1 , x2 ) > 0 sauf lorsque (x1 , x2 ) = (0, 0). La méthode
de Gauss permet donc également d’étudier le signe d’une forme quadratique réelle : elle a donc des
applications en calcul différentiel. Toutefois, nous allons voir qu’elle est vraie sur un corps quelconque (de
caractéristique différente de 2) sur lequel aucune notion de signe n’existe a priori.
La méthode de Gauss
Théorème 7.4.7 (Décomposition de Gauss). Soit q une forme quadratique sur K n . Alors il existe n
formes linéaires indépendantes l1 , · · · , ln sur K n et des coefficients c1 , · · · , cn ∈ K tels que pour tout
x ∈ Kn
n
X 2
q(x) = ci (li (x)) .
i=1
Preuve. Ce théorème se démontre par récurrence sur le nombre de variables. Soit q une forme quadratique
non nulle sur K n . Comme la dimension est finie, c’est un polynôme homogène de degré deux donc on peut
écrire
Xn X
q(x) = ai xi 2 + bi,j xi xj .
i=1 i<j
Supposons d’abord que l’un des coefficients ai soit non nul. Quitte à ré-indexer, on peut supposer
a1 6= 0. On peut alors écrire q sous la forme
où a1 6= 0, y = (x2 , · · · , xn ), l est une forme linéaire qui ne dépend pas de x1 et q1 est une forme
quadratique qui ne dépend pas de x1 . On écrit
1 2 1
q(x) = a1 (x1 + l(y)) + (q1 (y) − l(y)2 ),
2a1 4
133
1
et on applique l’hypothèse de récurrence à la forme quadratique q 0 (y) = q1 (y) − l(y)2 , ce qui est licite
4
puisqu’elle ne dépend que des variables x2 , · · · , xn . Par hypothèse de récurrence, q 0 est combinaison
linéaire de carrés de formes linéaires indépendantes l2 , · · · , ln . On conclut en remarquant que les n formes
1
linéaires l1 , · · · , ln sont indépendantes où l1 (x) = x1 + l(y) (puisque l1 dépend de x1 et que ce n’est
2a1
pas le cas des n − 1 autres formes linéaires).
Sinon, tous les ai sont nuls. Il existe alors un couple (i, j) tel que bi,j soit non nul et on peut supposer
(i, j) = (1, 2). On écrit
q(x) = b1,2 x1 x2 + l(y)x1 + m(y)x2 + q1 (y),
où y = (x2 , · · · , xn ), l et m sont des formes linéaires qui ne dépendent pas de x1 et x2 et q1 est une forme
quadratique qui ne dépend pas de x1 , x2 . Posons u1 = x1 +x 2
2
, u2 = x1 −x
2
2
et on transforme l’expression
précédente en
q(x) = b1,2 (u1 2 − u2 2 ) + l(y)(u1 + u2 ) + m(y)(u1 − u2 ) + q1 (y).
On traite cette forme avec la méthode précédente appliquées aux variables (u1 , u2 , x3 , · · · , xn ) puis on
revient aux variables initiales.
Attention. Dans la décomposition de Gauss d’une forme quadratique q sur K n , certains des coefficients
ci peuvent être nuls !
Maintenant que l’on a expliqué comment écrire une forme quadratique q sur K n comme somme de
n formes linéaires indépendantes, expliquons comment on en déduit une base orthogonale pour la forme
polaire de q. Écrivons donc
k
X 2
q(x) = ai (li (x)) ,
i=1
Puisque la famille {l1 , · · · , lk } est libre, on peut la prolonger en une base {l1 , · · · , ln } de (K n )∗ . D’après
la proposition 7.1.12, il existe une base {e1 , · · · , en } dont {l1 , · · · , ln } est la base duale. On a alors,
li (ej ) = δi,j . Alors b(ei , ej ) = 0 si i 6= j donc {e1 , · · · , en } est une base orthogonale pour b.
134
Lemme 7.4.9. Soient b une forme bilinéaire symétrique sur un R-espace vectoriel E de dimension finie
et soit {x1 , · · · , xn } une base orthogonale pour b.
(1) On a b(xi , xi ) ≥ 0 pour tout i = 1, · · · , n si et seulement si la forme b est positive sur E.
(2) On a b(xi , xi ) > 0 pour tout i = 1, · · · , n si et seulement si la forme b est définie positive sur E.
Preuve. Nous prouvons seulement le (2). Le sens indirect est évident. Supposons P donc que b(xi , xi ) > 0
n
pour tout i = 1, · · · , n. On décompose x ∈ E dans la base {x1 , · · · , xn } : on a x = i=1 ai xi . Alors
n
X
b(x, x) = ai 2 b(xi , xi ),
i=1
qui est évidemment une quantité positive. Cette quantité est nulle si et seulement si tous les termes de
cette somme sont nuls si et seulement si x = 0E .
Définition 7.4.11. On dit que la forme quadratique q définie sur un R-espace vectoriel E de dimension
finie a pour signature (r, s), si sa matrice dans une base orthogonale de la forme polaire de q contient r
coefficients strictement positifs et s coefficients strictement négatifs sur la diagonale.
Corollaire 7.4.12. Deux matrices symétriques réelles d’ordre n sont congrues si et seulement si elles ont
la même signature.
135
Définition 7.4.14. L’entier r du théorème précédent est appelé le rang de la forme quadratique q.
Corollaire 7.4.15. Deux matrices complexes d’ordre n sont congrues si et seulement si elles ont le même
rang.
∂f ∂f
(x0 , y0 ) = 0 = (x0 , y0 ).
∂x ∂y
136
Chapitre 8
Espaces euclidiens
pour f, g ∈ E. Alors on voit aisément que b est un produit scalaire sur E qui est donc un espace
préhilbertien.
2
(3) Prenons
P 2 pour E l’espace l (R) c’est à dire le R-espace vectoriel des suites réelles (xn )n∈N telles que la
série xn converge. Pour x = (xn )n∈N , y = (yn )n∈N ∈ E, on pose
∞
X
b(x, y) = xn yn .
n=0
Alors b est un produit scalaire sur E : E est donc un espace préhilbertien. Cet exemple est l’extension
naturelle de l’exemple (1) à la dimension infinie.
(4) Si E est un espace préhilbertien (resp. euclidien) et si F est un sous-espace vectoriel de E, la restriction
du produit scalaire à F le munit d’une structure d’espace préhilbertien (resp. euclidien).
137
Avant de poursuivre, mentionnons l’importante inégalité de Cauchy-Schwarz.
Proposition 8.1.3 (Inégalité de Cauchy-Schwarz). Soient E un espace préhilbertien et h , i le produit
scalaire associé. Si x, y ∈ E, on a p p
|hx, yi| ≤ hx, xi. hy, yi.
En outre, il y a égalité si et seulement si la famille {x, y} est liée.
Preuve. Soit t un nombre réel; alors, htx + y, tx + yi ≥ 0 puisque h , i est positive. Par bilinéarité, cela
signifie que
t2 hx, xi + 2thx, yi + hy, yi ≥ 0.
Ce trinôme du second degré est de signe constant sur R ce qui implique que son discriminant est négatif
ou nul. On a donc
(hx, yi)2 ≤ hx, xi.hy, yi,
d’où le résultat. De plus, la famille {x, y} est liée si et seulement si il existe un réel t0 tel que t0 x + y = 0
si et seulement si t0 2 hx, xi + 2t0 hx, yi + hy, yi = 0 si et p
seulement
p si le discriminant considéré ci-dessus est
nul, c’est à dire (hx, yi)2 ≤ hhx, xi.hy, yi soit |hx, yi| = hx, xi. hy, yi.
Ce résultat très important permet de montrer que tout espace préhilbertien est normé, donc est un
espace métrique.
Lemme p 8.1.4. Soient E un espace préhilbertien et h , i le produit scalaire associé. Pour x ∈ E, notons
||x|| = hx, xi. Alors ||.|| est une norme.
Preuve. Tout d’abord, puisque h , i est définie positive, on a hx, xi ≥ 0 donc l’application ||.|| : E → R+ :
x 7→ ||x|| est définie. De plus, pour la même raison, ||x|| = 0 équivaut au fait que hx, xi = 0 qui équivaut
à x = 0E . Ensuite, si λ ∈ R et x ∈ E, on a
p p
||λ.x|| = hλ.xλ.xi = λ2 hx, xi = |λ|.||x||.
Enfin, il reste à montrer l’inégalité triangulaire. Pour cela, on utilise l’inégalité de Cauchy-Schwarz. Soient
x, y ∈ E
p p
||x + y||2 = hx + y, x + yi = hx, xi + 2hx, yi + hy, yi ≤ hx, xi + 2 hx, xi. hy, yi + hy, yi = (||x|| + ||y||)2 ,
Notation 8.1.5. Dans toute la suite de ce chapitre, si E est un espace préhilbertien, on notera h , i le
produit scalaire associé et ||.|| la norme associée.
Exemple 8.1.6. Revenons sur les exemples 8.1.2(1) à (3). Dans le (1), la norme issue du produit scalaire
Pn 1
est la norme euclidienne usuelle sur Rn définie par ||x|| = ( i=0 xn 2 ) 2 pour x = (x1 , · · · , xn ). Dans le
(2), la norme issue du produit scalaire est la norme L2 définie par
Z b 1
||f ||L2 = ( f (t)2 dt) 2 ,
a
138
Enfin, signalons l’identité du parallélogramme qui est souvent utile dans la pratique.
Lemme 8.1.7 (Identité du parallélogramme). Soient E un espace préhilbertien. Alors, si x, y ∈ E,
x + y
2
x − y
2 ||x||2 + ||y||2
+
2
= .
2
2
Preuve. On a
||x + y||2 = ||x||2 + 2hx, yi + ||y||2 et ||x − y||2 = ||x||2 − 2hx, yi + ||y||2 ,
d’où le résultat en ajoutant ces deux égalités et en divisant par 4.
Attention. Tous les produits scalaires induisent une norme d’après le lemme 8.1.4 mais toutes les normes
ne sont pas issues d’un produit scalaire. Par exemple, sur E = Rn , on peut montrer que la norme définie
par
n
X
||x|| = |xi |,
i=1
pour x = (x1 , · · · , xn ) ∈ Rn n’est pas issue d’un produit scalaire. Plus précisément, on peut montrer qu’une
norme donnée est issue d’un produit scalaire si et seulement si elle satisfait l’identité du parallélogramme.
139
Corollaire 8.1.10. (1) Si des vecteurs d’un espace préhilbertien sont deux à deux orthogonaux et non
nuls, ils sont linéairement indépendants.
(2) Si E est un espace préhilbertien et si E1 , · · · , Ek sont k sous-espace vectoriels de E deux à deux
orthogonaux, ils sont en somme directe.
Preuve. (1) Cela a déjà été prouvé enP7.3.19. On obtient une autre preuve comme conséquence du
n
théorème de Pythagore. Supposons que i=1 λi .xi = 0E alors les n vecteurs λ1 x1 , · · · , λn xn sont deux à
deux orthogonaux. D’après le théorème de Pyhthagore,
n
X n
X
0 = ||0E || = || λi xi ||2 = |λi |||xi ||2 ,
i=1 i=1
et comme x1 , · · · , xn sont non nuls et que ||.|| est une norme, la seule possibilité est que λ1 = · · · = λn = 0.
Pk
(2) Si 0E = i=1 xi avec xi ∈ Ei pour i = 1, · · · , k alors les vecteurs x1 , · · · , xk sont deux à deux
orthogonaux. S’ils sont non tous nuls, le (1) implique que la famille {x1 , · · · , xk } est libre, contradiction.
Donc ils tous non nuls et 0E a une unique décomposition dans E1 + · · · + Ek . D’après la proposition 2.3.16,
la somme de ces sous-espace vectoriels est directe.
Bases orthonormales
Rappelons également la définition d’une famille orthonormale dans ce cadre.
Définition 8.1.11. (1) Si E est un espace préhilbertien, on dit que la famille {x1 , · · · , xn } est orthonormée
si les vecteurs x1 , · · · , xn sont deux à deux orthogonaux et si ||xi || = 1 pour i = 1, · · · , n.
(2) Si E est un espace euclidien de dimension n, on dit que la famille {x1 , · · · , xn est une base orthonormée
de E si c’est à la fois une base de E et une famille orthonormée de E.
Théorème 8.1.12. Tout espace euclidien admet une base orthonormée.
Preuve. Ce résultat découle du théorème de Sylvester 7.4.10 puisqu’une forme bilinéaire définie positive
est forcément de signature (n, 0) si dim(E) = n. Donnons-en une autre preuve. On procède par récurrence
sur la dimension de E. Si cette dimension vaut 1, le résultat est évident. Supposons donc que le résultat
est démontré pour tout espace euclidien F de dimension strictement inférieure à n et soit E un espace
euclidien de dimension n. Soit x1 ∈ E tel que ||x1 || = 1 ( il suffit de prendre x1 ∈ E \ {0} et de le diviser
par sa norme). L’ensemble
F = {y ∈ E | y orthogonal à x1 }
est un espace euclidien (voir exemple 8.1.2(4)). Il est en fait égal à Vect({x1 })⊥ et on a E = Vect({x1 })⊕F
d’après le théorème 7.3.15. Par hypothèse de récurrence, F admet une base orthonormée {x2 , · · · , xn }
donc la famille {x1 , · · · , xn } est une base orthonormée de E ce qui termine la preuve.
Remarque 8.1.13. Le procédé d’orthonormalisation de Gram-Schmidt que nous verrons plus loin donnera
une preuve constructive du résultat précédent.
Pour finir cette section, intéressons-nous aux coordonnées d’un vecteur dans une base orthonormée.
Théorème 8.1.14. Soient E un espace euclidien et {e1 , · · · , en } une base orthonormée de E. Si X (resp.
Y ) représente le vecteur colonne des coordonnées de x (resp. y) dans cette base, on a
n
X n
X
hx, yi = t XY, x= hx, ei iei , ||x||2 = (hx, ei i)2 .
i=1 i=1
140
Preuve. Notons (x1 , · · · , xn ) et (y1 , · · · , yn ) les coordonnées respectives de x et de y dans la base or-
thonormée. Alors
n
X n
X n
X n
X n
X
hx, yi = h xi ei , yj ej i = xi yj hei , ej i = xi yj δi,j = xi yi = t XY,
i=1 j=1 i,j=1 i,j=1 i=1
d’où la première égalité. En appliquant cette égalité à y = ej pour 1 ≤ j ≤ n, on a hx, ej i = xj d’où l’on
déduit que
Xn
x= hx, ei iei .
i=1
(4) On a
||x − PF (x)|| = miny∈F ||x − y||.
(5) Si x1 , x2 ∈ E, on a
||PF (x1 ) − PF (x2 )|| ≤ ||x1 − x2 ||.
Preuve. (1) Montrons tout d’abord l’unicité. Si y1 et y2 vérifient ces conditions alors les vecteurs x−y1 et
x − y2 sont orthogonaux à F donc y1 − y2 ∈ F ⊥ (car F ⊥ est un sous-espace vectoriel de E). Or y1 , y2 ∈ F
donc y1 − y2 ∈ F . Enfin, puisque E est euclidien, F et F ⊥ sont en somme directe : cela signifie que
y1 − y2 ∈ F ∩ F ⊥ = {0E }. Ainsi y1 = y2 .
Pk
Pour montrer l’existence, nous allons utiliser les notations et l’expression de (3). L’élément i=1 hx, ei iei
est un élément de F . Pour j = 1, · · · , n, calculons
k
X k
X
hx − hx, ei iei , ej i = hx, ej i − hx, ei ihei , ej i = hx, ej i − hx, ej i = 0.
i=1 i=1
Ainsi l’élément x − PF (x) est orthogonal à tous les vecteurs d’une base de F : par bilinéarité, il est
orthogonal à F d’où l’existence. Notons que l’on a montré (3) du même coup.
Pk
(2) Puisque PF (x) = i=1 hx, ei iei , on voit aisément que PF est un endomorphisme de E. En outre,
par définition, PF (PF (x)) = PF (x) ce qui implique que PF est un projecteur.
(4) Si y ∈ F , on écrit x − y = (x − PF (x)) + (PF (x) − y). Alors PF (x) − y ∈ F et on applique le
théorème de Pythagore
||x − y||2 = ||x − PF (x)||2 + ||PF (x) − y||2 ,
141
d’où ||x − y|| ≥ ||x − PF (x)|| quel que soit y ∈ F d’où le résultat.
(5) En prenant y = 0E dans le (4), on voit que ||x||2 ≥ ||PF (x)||2 d’où
par linéarité.
Définition 8.1.16. On reprend les notations du théorème 8.1.15. Si x ∈ E l’élément PF (x) ∈ F est
appelé projection orthogonale de x sur F .
Remarque 8.1.17. En général, dans un espace préhilbertien E de dimension infinie, la projection or-
thogonale sur un sous-espace vectoriel n’existe pas. En revanche, si on suppose que cet espace est complet1
pour la distance d : E × E → R+ : (x, y) 7→ ||x − y|| ou que F est de dimension finie, la projection orthog-
onale existe et vérifie les propriétés du théorème ci-dessus (mais la preuve de ce résultat est différente).
La propriété (5) du théorème montre alors que PF est un opérateur linéaire et continu. Encore plus
généralement, on peut montrer que la projection orthogonale sur un sous-ensemble convexe fermé d’un
espace hilbertien existe et qu’elle vérifie encore les propriétés du théorème ci-dessus.
Nous allons retrouver le théorème 7.3.15 très facilement grâce à la notion de projection orthogonale.
Théorème 8.1.18. Soient E un espace préhilbertien et F un sous-espace vectoriel de E de dimension
finie. Alors on a E = F ⊕ F ⊥ et (F ⊥ )⊥ = F .
Preuve. Si x ∈ E, on écrit x = PF (x) + (x − PF (x)) ce qui montre que E = F + F ⊥ (en effet, PF (x) ∈ F
et (x − PF (x)) ∈ F ⊥ par définition de la projection orthogonale). De plus, F et F ⊥ sont en somme directe
d’après le corollaire 8.1.10 (ou plus directement, d’ailleurs) donc E = F ⊕ F ⊥ .
Pour la second propriété, on a toujours F ⊂ (F ⊥ )⊥ par définition. Réciproquement, si x ∈ (F ⊥ )⊥ ,
écrivons x = y + z avec y ∈ F et z ∈ F ⊥ . Comme x est orthogonal à F ⊥ , on a
Remarque 8.1.19. Le résultat précédent se généralise dans un espace hilbertien E : si F est un sous-
espace vectoriel fermé de E, on a E = F ⊕ F ⊥ .
Théorème 8.1.20 (Procédé d’orthonormalisation de Gram-Schmidt). Soit {e1 , · · · , en } une base d’un
espace euclidien E. Il existe une unique base orthonormée {f1 , · · · , fn } de E qui vérifie la propriété
suivante : pour tout m ∈ {1, · · · , n}, il existe a1 , · · · , am ∈ R avec am > 0 tels que
m−1
X
fm = am .em + ai fi .
i=1
1 l’espace est alors dit hilbertien.
142
Preuve. Montrons d’abord l’existence qui se prouve par récurrence. Au premier rang, on pose f1 =
e1
||e1 || . Supposons donnée une famille orthonormée {f1 , · · · , fk−1 } telle que dans l’énoncé avec Fk−1 =
Vect({f1 , · · · , fk−1 }) = Vect({e1 , · · · , ek−1 }). Considérons le vecteur gk = ek − PFk−1 (ek ). Puisque
{e1 , · · · , en } est une base, ek ∈ / Fk−1 donc gk 6= 0E . Posons alors fk = ||ggkk || . D’après le théorème
Pk−1
8.1.15(3), il existe a1 , · · · , ak−1 ∈ R tels que PFk−1 (ek ) = i=1 ai ei . Alors, fk vérifie la condition de
l’énoncé. De plus, fk ∈ (Fk−1 )⊥ par construction donc la famille {f1 , · · · , fk } est orthonormée et on a
Vect({f1 , · · · , fk }) = Vect({e1 , · · · , ek }).
Supposons que {f10 , · · · , fn0 } soit une base orthonormée de E vérifiant les conditions de l’énoncé. Alors
f1 = a1 e1 et f10 = a01 e1 . Comme ||f1 || = 1 = ||f10 || et a1 , a01 > 0, on en déduit que a1 = a01 donc f1 = f10 .
Si on suppose que f1 = f10 , · · · , fk−1 = fk−10
, alors
k−1
X k−1
X
fk = ak ek + ai fi et fk0 = a0k ek + a0i fi .
i=1 i=1
Remarques 8.1.21. (1) Si on part d’une base orthonormée {f1 , · · · , fk } d’un sous-espace vectoriel F de
E, complétée par une famille {ek+1 , · · · , en } pour former une base de E, on peut appliquer le procédé
ci-dessus à partie de l’étape k + 1 de sorte que {f1 , · · · , fk , fk+1 , · · · , fn } soit une base orthonormée de
E. On sait ainsi construire une base orthonormée de E à partir d’une base orthonormée d’un de ses
sous-espaces vectoriels.
(2) Le procédé ci-dessus peut aussi s’appliquer en dimension infinie si on dispose au départ d’une suite
infinie f1 , · · · , fn , · · · de vecteurs telle que toute famille {f1 , · · · , fi } soit libre pour tout i : on produit
alors une base orthonormée de l’espace préhilbertien E.
Exemples 8.1.22. (1) Soit la base de R3 {(1, 1, 0), (−1, 3, 1), (−2, 4, 3)}. Si on applique le procédé de
Gram-Schmidt, on construit la base orthonormée {f1 , f2 , f3 } où
1 1 2 2 1 1 1 4
f1 = ( √ , √ , 0), f2 = (− , , ), f3 = (− √ , √ , − √ ).
2 2 3 3 3 3 2 3 2 3 2
(2) Si le procédé de Gram-Schmidt est constructif, les calculs deviennent très vite compliqués en général.
Ainsi, considérons l’espace préhilbertien E des fonctions continues sur [−1, 1] muni du produit scalaire
Z 1
hf, gi = f (t)g(t)dt,
−1
143
8.1.5 Dualité dans un espace euclidien
Nous terminons cette section en donnant une nouvelle description du dual d’un espace euclidien.
Théorème 8.1.23 (Théorème de représentation de Riesz-Fréchet). Soit E un espace euclidien. Pour tout
f ∈ E ∗ il existe un unique y ∈ E tel que
hx, z0 i = f (x)hz0 , z0 i,
z0
quel que soit x ∈ E. Si on pose y = ||z0 ||2 , on a f (x) = hx, yi quel que soit x ∈ E.
Pour l’unicité, si hx, yi = f (x) = hx, y 0 i pour tout x ∈ E alors, en particulier hx, y − y 0 i = 0 pour tout
x ∈ E et en choisissant x = y − y 0 , cela implique que ||y − y 0 ||2 = 0 donc que y = y 0 .
Enfin, ϕE est clairement une application linéaire surjective entre deux espaces vectoriels de même
dimension : c’est donc un isomorphisme.
Remarques 8.1.24. (1) Le théorème ci-dessus reste vrai dans un espace de Hilbert H quelconque : il dit
qu’il existe un isomorphisme isométrique entre H et son dual (dans ce cas, le dual est la dual topologique,
c’est à dire l’ensemble des formes linéaires continues sur H).
(2) Avec les notations ci-dessus, on a hx, (ϕE )−1 (f )i = f (x) pour tout x ∈ E.
144
alors u∗ = (ϕE )−1 ◦ t u ◦ ϕF . Alors u∗ ∈ L(F, E) puisque c’est une composée d’applications linéaires.
Montrons qu’elle vérifie l’identité de l’énoncé : si x ∈ E, y ∈ F , on a
hx, u∗ (y)i = hx, (ϕE )−1 ◦ t u◦ϕF (y)i = hx, (ϕE )−1 (t u(ϕF (y)))i = (t u(ϕF (y))(x) = ϕF (y)(u(x)) = hu(x), yi,
d’après la remarque 8.1.24 et par définition de l’application transposée ce qui prouve l’existence de u∗ .
Pour l’unicité, si u1 ∈ L(F, E) est telle que hx, u1 (y)i = hu(x), yi = hx, u∗ (y)i pour tous x ∈ E, y ∈ F
alors, hx, u1 (y) − u∗ (y)i = 0 pour tous x ∈ E, y ∈ F . Puisque le produit scalaire est non dégénéré,
u1 (y) = u∗ (y) pour tout y ∈ F d’où l’unicité.
hx, (w ◦ u)∗ (y)i = h(w ◦ u)(x), yi = hw(u(x)), yi = hu(x), w∗ (y)i = hx, (u∗ ◦ w∗ )(y)i,
d’une part et
dim(Im (u)) = dim(Im ((u∗ )∗ )) ≤ dim(ker(u∗ )⊥ ) = dim(E) − dim(ker(u∗ )) = dim(Im (u∗ )),
145
8.2.2 Endomorphismes symétriques et antisymétriques
Définition 8.2.4. (1) Soient E un espace euclidien et u un endomorphisme de E. On dit que u est un
endomorphisme symétrique ou auto-adjoint si u∗ = u; cela équivaut à exiger que
Proposition 8.2.5. Soient E un espace euclidien. Alors u est un endomorphisme symétrique (resp. an-
tisymétrique) de E si et seulement si sa matrice par rapport à toute base orthonormée de E est symétrique
(resp. antisymétrique).
Preuve. Nous prouvons la proposition dans le cas symétrique, l’autre cas étant similaire. Supposons tout
d’abord que u soit un endomorphisme symétrique et soit B = {e1 , · · · , en } une base orthonormée de E.
Notons MatB (u) = A = (ai,j ). Pour 1 ≤, i, j ≤ n, on a
d’où le résultat.
La proposition suivante est le ressort principal de tous les résultats de réduction prouvés par la suite.
Preuve. Nous faisons ces preuves dans le cas où u est symétrique.
(1) Posons u0 = u|F . Si x, y ∈ F , on a
146
8.2.3 Diagonalisation des endomorphismes symétriques et antisymétriques
Dans cette sous-section, nous voulons prouver des résultats de réduction concernant les endomorphismes
symétriques et antisymétriques. Pour ce faire, nous utilisons parfois des résultats du chapitre suivant
concernant la réduction des matrices hermitiennes que l’on consultera pour toute précision.
Endomorphismes symétriques
Théorème 8.2.7. Soient E un espace euclidien et u en endomorphisme symétrique de E. Alors, les
racines de son polynôme caractéristique sont réelles et les sous-espaces propres de u sont deux à deux
orthogonaux. En outre, u est diagonalisable : plus précisément, il existe une base orthonormée de E
formée de vecteurs propres.
Preuve. La matrice de u dans une base orthonormée de E est symétrique (proposition 8.2.5) donc
hermitienne : on déduit du théorème 9.3.6(1) que ses valeurs propres sont réelles.
Soient λ, µ deux valeurs propres distinctes de u et x, y ∈ E \ {0} deux vecteurs propres respectivement
associés à ces valeurs propres. Alors
ce qui prouve que hx, yi = 0 puisque λ 6= µ. Ainsi, deux sous-espaces propres associés à deux valeurs
propres distinctes sont orthogonaux.
Soient E1 , · · · , Ek la liste des sous-espaces propres de u. Posons F = E1 ⊕ · · · ⊕ Ek . On a vu au
chapitre 6 que les espaces propres sont stables par u donc u(F ) ⊂ F . Supposons F ⊥ 6= {0E }. Alors,
d’après la proposition 8.2.6(2), on en déduit que F ⊥ est stable par u; de plus, u|F ⊥ est un endomorphisme
symétrique de F ⊥ d’après la proposition 8.2.6(1). Puisque F ⊥ 6= {0E } et que u|F ⊥ est un endomorphisme
symétrique, la première partie de la preuve montre qu’il admet forcément un vecteur propre qui est aussi
un vecteur propre de u. C’est une contradiction puisque tous les vecteurs propres de u sont dans F . Ainsi,
F ⊥ = {0E } et E = F est somme directe des sous-espaces propres de u donc est diagonalisable d’après la
proposition 6.3.5. Comme les sous-espace propres sont deux à deux orthogonaux, on peut même trouver
une base orthonormée de vecteurs propres de u.
Nous prouvons un résultat analogue au théorème 6.5.20 pour les endomorphismes symétriques.
Théorème 8.2.8. Soient u et v deux endomorphismes symétriques d’un espace euclidien E tels que u◦v =
v ◦ u. Il existe une base orthonormée de E dans laquelle les endomorphismes u et v sont simultanément
diagonalisables.
Preuve. D’après le théorème 8.2.7, u est diagonalisable donc E = E1 ⊕· · ·⊕Ek où E1 , · · · , Ek sont les sous-
espaces propres de u. On considère E1 : comme u et v commutent, E1 est stable par v. Ainsi, la restriction
de v à E1 est un endomorphisme symétrique de E1 d’après la proposition 8.2.6(1) : cet endomorphisme
est diagonalisable et il existe donc une base orthonormée de E1 formée de vecteurs propres de v. De cette
façon on trouve une base orthonormée de E formée de vecteurs propres de v qui sont aussi, par définition,
des vecteurs propres de u : u et v sont donc simultanément diagonalisables.
Endomorphismes antisymétriques
Théorème 8.2.9. Soient E un espace euclidien et u un endomorphisme antisymétrique de E. Alors les
racines du polynôme caractéristique2 de u sont imaginaires pures. Pour chaque racine µ = ic avec c réel,
2 considéré comme polynôme de C[X].
147
l’opposé de cette racine −ic est aussi racine du polynôme caractéristique. Il existe une base orthonormée
de E formée d’une famille {e1 , · · · , e2k } suivie d’une base orthonormée {e2k+1 , · · · , en } de ker(u) telle que
la partie de la matrice de u correspondant aux vecteurs {e1 , · · · , e2k } soit diagonale par blocs 2 × 2 de la
forme
0 −c
,
c 0
où c ∈ R∗ est tel que ic est racine du polynôme caractéristique de u.
Preuve. Cette preuve utilise des résultats et notions du chapitre suivant que l’on consultera pour toute
précision.
On considère le sous-espace vectoriel F = ker(u) de E : il est stable par u donc son orthogonal G = F ⊥
est aussi stable par u d’après la proposition 8.2.6(2). Notons v = u|G . D’après la proposition 8.2.6(1), v
est un endomorphisme antisymétrique de G.
Montrons que v est inversible. Soit y ∈ G tel que v(y) = 0. Alors u(y) = v(y) = 0 et y ∈ ker(u) ∩ G =
F ∩ F ⊥ = {0E }. Cela prouve que v est injective donc inversible puisque c’est un endomorphisme de G.
Soit {g1 , · · · , gm } une base orthonormée de G et notons B la matrice de v dans cette base : par
hypothèse, cette matrice est antisymétrique à coefficients réels. On en déduit que la matrice A = iB est
hermitienne et, d’après le théorème 9.3.6(1), ses valeurs propres sont réelles et non nulles puisque B est
inversible. Les valeurs propres de B sont donc de la forme ic où c ∈ R∗ . Soit Z = X + iY un vecteur
propre (complexe) non nul associé à la valeur propre ic pour v où X et Y sont des vecteurs réels. On a
alors BZ = icZ puis AZ = −cZ donc
AZ = AZ = −AZ = cZ.
Ainsi Z (resp. Z) est un vecteur propre de A pour la valeur propre −c (resp. c). Puisque c 6= −c (c est
différent de 0), Z et Z sont orthogonaux et
Remarque 8.2.10. La preuve du résultat précédent montre que la dimension de (ker(u))⊥ est paire.
148
Endomorphismes symétriques positifs
Définition 8.2.11. Soient E un espace euclidien et u un endomorphisme de E. L’endomorphisme u est
dit symétrique positif si
hu(x), xi ≥ 0,
pour tout x ∈ E. De façon équivalente, cela signifie que la forme quadratique q : E → R : x 7→ hu(x), xi
est positive ou encore que toutes les valeurs propres de u sont positives ou nulles.
Théorème 8.2.12. Soient E un espace euclidien et u un endomorphisme symétrique positif de E. Alors
il existe un unique endomorphisme symétrique positif v de E tel que v 2 = u.
Preuve. D’après le théorème 8.2.7, u est diagonalisable dans une base √ orthonormée {e1 , · · · , en }. On a
alors u(ei ) = λi ei avec λi ≥ 0 puisque u est positif. Les relations v(ei ) = λi ei permettent alors de définir
un endomorphisme v tel que v 2 = u et qui est évidemment symétrique positif.
Montrons maintenant l’unicité de v. Soit w un endomorphisme symétrique positif tel que w2 = u. On
en déduit immédiatement que u et w commutent donc les sous-espaces propres de u sont stables par w. On
sait que E est somme directe des sous-espaces propres de u. Nous allons donc montrer qu’en restriction à
chaque sous-espace propre de u, w√coı̈ncide avec v ce qui prouvera l’unicité.√Soit F = ker(u−λ.IdE ) un sous-
espace propre de u. Alors v|F = λIdF Montrons donc que w1 = w|F = λIdF . Déjà, w1 2 = u|F = λIdF .
Si λ = 0, w1 2 = 0 donc, pour tout x ∈ F ,
car w1 est un endomorphisme symétrique par la proposition 8.2.6. Ainsi, dans ce cas, w1 = v|F .
√
Sinon, λ > 0 et posant µ = λ, on a
Puisque w1 + µIdF est inversible (ses valeurs propres sont strictement positives donc non nulles car c’est
le cas de w1 et car µ > 0), on en déduit que w1 − µIdF = 0, ce qu’il fallait démontrer.
Endomorphismes normaux
Définition 8.2.13. Soient E un espace euclidien et u un endomorphisme de E. On dit que u est un
endomorphisme normal de E si u ◦ u∗ = u∗ ◦ u.
Exemple 8.2.14. Par exemple, les endomorphismes symétriques et antisymétriques sont normaux. C’est
aussi le cas des rotations vectorielles.
Théorème 8.2.15. Soient E un espace euclidien et u un endomorphisme normal de E. Alors, il existe
une base orthonormée de E dans laquelle la matrice de u est diagonale par blocs. Ces blocs diagonaux sont
soit de taille 1 × 1, auquel cas ils correspondent à des valeurs propres réelles de u, soit de taille 2 × 2 et
ils sont de la forme
λ −b
,
b λ
où λ est réel et b est un réel non nul.
Preuve. Puisque u est un endomorphisme normal, on peut écrire
u + u∗ u − u∗
u=v+w = + .
2 2
149
On constate alors que v est un endomorphisme symétrique, que w est un endomorphisme antisymétrique
et que v ◦ w = w ◦ v puisque u commute avec son adjoint. D’après le théorème 8.2.7, l’endomorphisme v est
diagonalisable. Si F est un sous-espace propre de v, il est stable par w puisque v et w commutent. D’après
la proposition 8.2.6, la restriction w0 de w à F est encore un endomorphisme antisymétrique auquel on
applique le théorème 8.2.9. On trouve alors une base orthonormée de F avec certains blocs de taille 1 × 1
(correspondant au noyau de w0 ) et d’autres de taille 2 × 2 ayant la forme annoncée quand on rajoute la
contribution de v. Puisque E est somme directe des sous-espaces propres de u, on en déduit le résultat.
pour tous x, y ∈ E.
(2) Si E est euclidien et que u est une isométrie, u est un automorphisme de E et u−1 est aussi une
isométrie de E.
(3) La composée de deux isométries de E est une isométrie de E.
Preuve. (1) Si x ∈ E, on a
hu(x), u(x)i = ||u(x)||2 = ||x||2 = hx, xi.
Par polarisation, on obtient facilement que hu(x), u(y)i = hx, yi.
(2) Si u(x) = 0E alors ||x|| = ||u(x)|| = 0 donc l’endomorphisme u est injectif donc bijectif puisque E
est supposé de dimension finie. Si y ∈ E, on a alors ||y|| = ||u(u−1 (y))|| = ||u−1 (y)|| donc u−1 est une
isométrie de E.
(3) C’est évident.
Proposition 8.3.4. Soient E un espace euclidien. Alors u est une isométrie de E si et seulement si
u∗ = u−1 .
Preuve. Dans le sens direct, on sait que u conserve le produit scalaire donc si x, y ∈ E,
150
Cela implique que u∗ ◦ u = IdE et comme E est de dimension finie on a aussi u ◦ u∗ = IdE donc u∗ = u−1 .
Réciproquement, si u∗ est l’inverse de E, soit x ∈ E :
Preuve. Puisque t M M = In et que det(t M ) = det(M ), on en déduit que (det(M ))2 = 1 donc det(M ) =
±1.
Définition 8.3.7. L’ensemble des matrices orthogonales de Mn (R) est un groupe pour la multiplication
des matrices appelé groupe orthogonal et noté On (R). L’ensemble des matrices orthogonales dont le
déterminant vaut 1 est un sous-groupe du groupe orthogonal appelé groupe spécial orthogonal et noté
SOn (R).
Remarques 8.3.8. (1) En fait, le groupe SOn (R) est le noyau du morphisme de groupes surjectif det :
On (R) → {1, −1}.
(2) Attention : l’ensemble des matrices orthogonales de déterminant −1 ne forme pas un sous-groupe du
groupe orthogonal : en effet le produit de deux matrices de déterminant −1 est de déterminant 1.
Lemme 8.3.9. Soient E un espace euclidien et B = {e1 , · · · , en } une base orthonormée de E. Soit
C = {f1 , · · · , fn } une base de E. Alors C est une base orthonormée de E si et seulement si la matrice de
passage de B à C est une matrice orthogonale.
Preuve. Supposons d’abord que C est une base orthonormée de E. Soit P = pi,j la matrice de passage
de B à C. Alors pour 1 ≤ i, j ≤ n, on a pi,j = hfj , ei i. En outre, P −1 = (qi,j ) est la matrice de passage de
C à B donc pour 1 ≤ i, j ≤ n, qi,j = hej , fi i = hfi , ej i = pj,i . Il en résulte que P −1 = t P donc P est une
matrice orthogonale.
Supposons maintenant que la matrice de passage P = (pi,j ) de B à C est orthogonale. Notons P −1 =
(qi,j ). Soient 1 ≤ i, j ≤ n. On calcule
n
X n
X n
X n
X n
X n
X n
X
hfi , fj i = h pk,i ek , pl,j el i = ( pk,i pl,j hek , el i) = ( pk,i pl,j δk,l ) = pk,i pk,j ,
k=1 l=1 k=1 l=1 k=1 l=1 k=1
Pn
et hfi , fj i = k=1 qi,k pk,j = δi,j donc C est une base orthonormée de E.
151
Preuve. Si u est une isométrie de E, on sait que u∗ = u−1 d’après la proposition 8.3.4. D’après la
proposition 8.2.3, la matrice de u∗ dans une base orthonormée est la transposée de la matrice de u dans
cette même base : on en déduit donc que cette matrice est orthogonale.
Réciproquement, si la matrice de u dans une base orthonormée de E est orthogonale alors on a u∗ = u−1
et u est une isométrie d’après la proposition 8.2.3.
donc λ = ±1.
En conséquence, les blocs de taille 1 × 1 contiennent les valeurs 1 et −1. Occupons-nous maintenant
d’un bloc de taille 2 × 2
λ −b
.
b λ
Par hypothèse, il existe {f1 , f2 } une sous-famille orthonormée de {e1 , · · · , en } telle que si F = Vect({f1 , f2 }),
la restriction de u à F a pour matrice ce bloc 2 × 2 dans la base {f1 , f2 }. Or, la restriction de u à F
est une isométrie de F . Puisque F est une famille orthonormée, cette matrice est orthogonale d’après le
théorème 8.3.10 donc son déterminant vaut ±1. Mais son déterminant vaut λ2 + b2 > 0 et l’on a donc
λ2 + b2 = 1. Il existe donc θ ∈ [0, 2π] tel que λ = cos(θ) et b = sin(θ). Ainsi, les blocs 2 × 2 sont des
matrices de rotation, c’est à dire du type
cos(θ) − sin(θ)
.
sin(θ) cos(θ)
152
Remarque 8.3.12. Dans la preuve du théorème précédent, on a mis en valeur le fait que pour toute
isométrie u d’un espace euclidien E, il existe une base orthonormée dans laquelle la matrice de u est de la
forme
Ir 0 0
0 −Is 0 ,
0 0 R
où r et s sont des entiers positifs ou nuls, et où R est une matrice diagonale par blocs 2 × 2 dans laquelle
chacun des blocs est une matrice de rotation.
donc SF est une isométrie de E. Enfin, avec les mêmes notations SF (SF (x)) = SF (y − z) = y + z donc
SF est involutive.
(2) Tout cela vient du fait que PF + PG = IdE .
(3) Puisque SF (y) = y si y ∈ F et SF (z) = −z si z ∈ G, il suffit de prend une base orthonormée de E
qui soit union d’une base orthonormée de F et d’une base orthonormée de G.
Réflexions
Les réflexions sont des symétries orthogonales particulières.
Définition 8.3.15. Soit E un espace euclidien et H un hyperplan de E. On appelle réflexion de E
d’hyperplan H la symétrie orthogonale par rapport à H.
Proposition 8.3.16. (1) Soit E un espace euclidien, et soit x ∈ E, x 6= 0. La réflexion orthogonale
d’hyperplan H = {x}⊥ est l’unique endomorphisme τx de E vérifiant
153
Autrement dit, pour tout λ ∈ K, y ∈ H, on a τx (λx + y) = −λx + y.
(2) Pour tout x ∈ E, x 6= 0, on a τx est une isométrie de E. De plus, pour tout v ∈ E, on a
hx, vi
τx (v) = v − 2 x.
hx, xi
Enfin, τx2 = IdE .
Preuve. (1) Par définition, on a E = H ⊕Vect({x}). Soit u ∈ E : on écrit u = λx+y avec y ∈ H. Puisque
la réflexion τx de E d’hyperplan H est la symétrie orthogonale par rapport à H, on a τx (u) = −λx+y donc
τx vérifie les propriétés de l’énoncé. L’unicité provient du fait que les conditions de l’énoncé déterminant
uniquement un endomorphisme de E.
(2) Puisqu’une réflexion est une symétrie orthogonale particulière, c’est une isométrie involutive de E
d’après la proposition 8.3.14. Pour montrer le second point, il suffit de vérifier que l’application
hx, vi
E → E, v 7→ v − 2 x
hx, xi
est un endomorphisme, qui envoie x sur −x et qui se restreint à l’identité sur {x}⊥ , ce qui est clair. Par
l’unicité du (1), on en déduit que cet endomorphisme est τx .
Lemme 8.3.17. Soit u ∈ O(E), et soit F un sous-espace de E stable par u. Alors F ⊥ est aussi stable
par u. De plus, on a u|F ∈ O(F ) et u|F ⊥ ∈ O(F ⊥ ).
Preuve. Soit x ∈ F ⊥ . Alors pour tout y ∈ F , on a
hu(x), yi = hx, u−1 (y)i = 0,
car F étant stable par u, il l’est aussi par u−1 . Ainsi u(x) ∈ F ⊥ . Le deuxième point vient du fait que si u
conserve le produit scalaire, il e, est de même pour u|F et u|F ⊥ .
Théorème 8.3.18. Soit E un espace euclidien de dimension n. Alors O(E) est engendré par les réflexions.
Plus précisément, toute isométrie est la composée d’au plus n réflexions.
Preuve. Soient u une isométrie de E et Fu = ker(u − IdE ). On va montrer par récurrence que u est
produit d’au plus pu = n − dimR (Fu ) réflexions. Si pu = 0, alors u = IdE et est le produit de 0 réflexions.
Supposons que pu ≥ 1. Alors Fu⊥ est de dimension pu ≥ 1, donc il existe x ∈ Fu⊥ , x 6= 0. On a donc
x∈/ u(x) car Fu et Fu⊥ sont d’intersection nulle. Posons y = u(x). Comme Fu est stable par u, il en est
de même de Fu⊥ . Ainsi y ∈ Fu⊥ , et de plus y 6= x. On a donc x − y 6= 0, x − y ∈ Fu⊥ . Remarquons enfin
que l’on a
hx − y, x + yi = hx, xi − hy, yi = hx, xi − hu(x), u(x)i = 0,
car u est une isométrie. On a alors
1 1 1 1
τx−y (y) = − τx−y (x − y) + τx−y (x + y) = − (y − x) + (x + y) = x.
2 2 2 2
Soit z ∈ Fu (on a donc u(z) = z). Comme x − y ∈ Fu⊥ , z est alors orthogonal à x − y. On a alors
τx−y (u(z)) = τx−y (z) = z.
Ainsi Fu ⊂ Fτx−y u , et l’inclusion est stricte car x ∈
/ Fu mais τx−y (u(x)) = τx−y (y) = x, et donc x ∈ Fτx−y u .
On a donc dimR (Fτx−y u ) > dimR (Fu ) et par suite pτx−y u ≤ pu − 1. Par hypothèse de récurrence, τx−y u
est le produit d’au plus pτx−y u réflexions, et donc u = τx−y ◦ (τx−y u) est produit d’au plus pτx−y u + 1
réflexions, ce qui achève la récurrence, vu que pτx−y u + 1 ≤ pu .
154
8.3.5 Isométries de R2 et de R3
Pour terminer ce chapitre, nous mettons en valeur la classification des isométries du plan et de l’espace.
Isométries de R2
Théorème 8.3.19. Soit u une isométrie de R2 . Alors :
(1) si det(u) = 1, u est une rotation ou l’identité.
(2) si det(u) = −1, u est une réflexion.
Preuve. On pourrait donner une preuve de ce résultat en utilisant les réductions précédentes. Donnons-en
une autre plus élémentaire.
(1) Le polynôme caractéristique de u est de degré 2. Si le déterminant de u vaut −1, le produit des racines
de ce polynôme est −1 et ce polynôme a forcément deux racines réelles distinctes. Puisque les valeurs
propres d’une isométrie valent 1 ou −1, u possède une valeur propre égale à −1 et une valeur propre égale
à 1. Puisque le polynôme caractéristique de u est scindé à racines simples, u est diagonalisable dans une
base de vecteurs propres {e1 , e2 } telle que u(e1 ) = e1 et u(e2 ) = −e2 . On voit aisément que les vecteurs
e1 et e2 sont orthogonaux puisque −he1 , e2 i = hu(e1 ), u(e2 )i = he1 , e2 i. Ainsi, u est la réflexion τe2 .
(2) Supposons maintenant que det(u) = 1. Alors, l’image du vecteur (1, 0) par u est un vecteur de
norme 1 : on peut l’écrire (cos(θ), sin(θ)) pour un certain θ. L’image de (0, 1) est aussi un vecteur de norme
1 qui est orthogonale au précédent : il s’écrit donc ±(− sin(θ), cos(θ)). Enfin, comme le déterminant vaut
1, ce second vecteur est forcément (− sin(θ), cos(θ)) donc la matrice de u dans la base canonique est
cos(θ) − sin(θ)
,
sin(θ) cos(θ)
donc u est une rotation ou l’identité. Notons que u peut se décomposer en la composée de deux réflexions
d’après le théorème 8.3.18.
Isométries de R3
Théorème 8.3.20. Soit u une isométrie de R3 . Alors :
(1) si det(u) = 1, u est une rotation autour d’un axe ou l’identité.
(2) si det(u) = −1, u est la composée d’une rotation d’axe de vecteur directeur z et d’une symétrie
orthogonale par rapport au plan {z}⊥ .
Preuve. (1) Supposons det(u) = 1. Montrons que 1 est forcément racine du polynôme caractéristique
de u. En effet, étant de degré 3, si ce polynôme a une racine non réelle λ (forcément de module 1) alors
ses autres racines sont λ et µ ∈ R. Comme leur produit doit faire 1, on en déduit que µ = 1. Si les trois
racines sont réelles, ce sont des valeurs propres de u :elles valent donc ±1 mais comme leur produit fait 1,
l’une d’elles au moins vaut 1.
On vient de voir que 1 est forcément valeur propre de u donc il existe un vecteur e3 de norme 1 tel
que u(e3 ) = e3 . Alors l’orthogonal F de R.e3 est un plan stable par u et la restriction u0 de u à F est une
isométrie en dimension 2 dont le déterminant vaut 1. D’après le théorème 8.3.19, u0 est une rotation et
on en déduit que u est une rotation de R3 autour de l’axe Re3 .
(2) Si det(u) = −1, on peut considérer −u et appliquer le (1) pour en déduire qu’il existe e3 tel que
u(e3 ) = −e3 . Si v est la symétrie orthogonale par rapport à {e3 }⊥ , on en déduit par le (1) que u ◦ v = v ◦ u
est une rotation autour de l’axe Re3 . Puisque v est involutive, on en déduit le résultat.
155
Chapitre 9
Espaces hermitiens
Dans ce chapitre, nous donnons quelques pistes dans l’étude des formes hermitiennes qui constituent le
pendant complexe des formes bilinéaires symétriques. Ce tour d’horizon sera plutôt rapide, étant donné
que la plupart des idées sont déjà présentes dans les deux chapitres précédents. Dans ce chapitre, les
espaces vectoriels considérés seront supposés être des C-espaces vectoriels.
9.1 Définitions
9.1.1 Formes sesquilinéaires
Définition 9.1.1. Une application s : E × F → C est une forme sesquilinéaire lorsque
(1) f est linéaire par rapport à la première variable, c’est à dire
pour tous x, x0 ∈ E, y ∈ F et λ ∈ C;
(2) f est semi-linéaire par rapport à la second variable, c’est à dire
(2) Avec les mêmes notations, si X est le vecteur colonne des coordonnées de x dans la base B et si Y est
le vecteur colonne des coordonnées de y dans la base C, on a la relation matricielle
s(x, y) = t XM Y .
156
Preuve. La preuve est similaire à celle de la proposition 7.2.6 en tenant compte de la sesquilinéarité : on
pose mi,j = s(ei , fj ).
Définition 9.1.3. Soit s une forme sesquilinéaire sur E × F . La matrice M de la proposition précédente
s’appelle matrice de la forme sesquilinéaire b dans les bases B et C. On la note MatB,C (s).
pour tous x, y ∈ E. Lorsque E est de dimension finie, la matrice de la forme hermitienne h dans une
base de E est la matrice de la forme sesquilinéaire h dans cette base.
(2) Comme dans le cas des formes bilinéaires, on peut naturellement parler de forme hermitienne non
dégénérée, définie, positive.
Remarque 9.1.5. Une application h : E × E → C est hermitienne si et seulement si h est linéaire par
rapport à la première variable et h(x, y) = h(y, x), pour tous x, y ∈ E.
Lemme 9.1.6. Soient E un C-espace vectoriel et h une forme hermitienne sur E.
(1) Pour tout x ∈ E, on a h(x, x) ∈ R.
(2) Si A est la matrice de h, dans des bases de E, on a t A = A.
Preuve. (1) Si x ∈ E, on a h(x, x) = h(x, x) donc h(x, x) ∈ R.
(2) Cela vient de la proposition 9.1.2 : avec les mêmes notations, et n = m, on a en effet h(ei , ej ) =
h(ej , ei ).
Définition 9.1.7. Soit A ∈ Mn (C). On appelle matrice adjointe de A, la matrice t A que l’on note plutôt
A∗ . En particulier, d’après le lemme précédent, une forme h sur un C-espace vectoriel E de dimension
n est hermitienne si et seulement si sa matrice dans une base quelconque de E est égale à sa matrice
adjointe.
pour tous x, y ∈ E En outre, il y a égalité si et seulement si la famille {x, y} est liée (sur C). En outre,
l’application ||.|| : E → R+ : x 7→ ||x|| est une norme sur E.
Preuve. La preuve est similaire à celle de la proposition 8.1.3 et du lemme 8.1.4 et est laissée au lecteur.
157
Exemples 9.1.10. (1) Si E = Cn , l’exemple standard d’espace hermitien est E = Cn muni de son produit
scalaire usuel
n
X
hx, yi = xi yi ,
i=1
pour deux vecteurs quelconques x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) de E. La norme associée est définie
par
n
X 1/2
||x|| = ( |xi |2 ) .
i=1
(2) Si E est l’ensemble des fonctions continues à valeurs complexes sur un intervalle [a, b] de R alors
Z b
hf, gi = f (t)g(t)dt,
a
est une forme sesquilinéaire non hermitienne sur E du fait de la formule d’intégration par parties. Plus
précisément, on a hf, gi = −hg, f i : on dit que la forme est antihermitienne.
(4) Si E est le C-espace vectoriel des séries absolument convergentes, les applications
∞
X ∞
X k
X
h(Un ), (Vn )i = Uk Vk , h(Un ), (Vn )i = ( Ul Vk−l ),
k=0 k=0 l=0
9.2 Orthogonalité
Dans cette section, nous nous contentons de lister explicitement ce qui reste vrai vis à vis de l’orthogonalité
pour les formes hermitiennes. On suppose que E est un espace hermitien.
158
Preuve. (1) On a
||x + y||2 = ||x||2 + (hx, yi + hy, xi) + ||y||2 = ||x||2 + (hx, yi + hx, yi) + ||y||2 = ||x||2 + 2Re(hx, yi) + ||y||2 .
9.3.1 Adjoint
Le cadre des espaces hermitiens permet aussi de définir l’adjoint d’un endomorphisme u de E (voir propo-
sition 8.2.1) : rappelons que c’est l’unique endomorphisme u∗ de E vérifiant
pour tous x, y ∈ E. La proposition 8.2.3 s’adapte au cas des espaces hermitiens : par exemple, la matrice
de l’endomorphisme adjoint de u dans une base orthonormée de E est la matrice adjointe de la matrice
de u dans cette même base.
Définition 9.3.1. (1) Un endomorphisme u de E est dit hermitien ou auto-adjoint si u = u∗ , c’est à dire
si on a
hu(x), yi = hx, u(y)i,
pour tous x, y ∈ E.
(2) Une matrice A ∈ Mn (C) est dite hermitienne si elle vérifie A = A∗ .
Remarque 9.3.2. La proposition 8.2.5 reste vraie dans ce cadre : un endomorphisme u de E est hermitien
si et seulement si sa matrice dans une base orthonormée quelconque de E est hermitienne.
159
9.3.2 Matrices unitaires
Définition 9.3.3. (1) Un endomorphisme u de E est une isométrie ou un endomorphisme unitaire s’il
conserve la norme, c’est à dire si ||u(x)|| = ||x|| pour tout x ∈ E. L’ensemble des isométries de E est un
groupe pour la composition appelé groupe unitaire de E et noté U(E).
(2) Une matrice M ∈ Mn (C) est dite unitaire si elle vérifie A∗ A = In . L’ensemble des matrices unitaires
est un groupe pour le produit matriciel noté Un (C).
Le lemme 8.3.9 se généralise aisément :
Lemme 9.3.4. Soient B une base orthonormée de E et C une base de E. Désignons par P la matrice de
passage de B à C. Alors C est une base orthonormée de E si et seulement si P est une matrice unitaire.
Théorème 9.3.5. Soient u un endomorphisme de E et A la matrice de u dans une base orthonormée de
E. Alors, les assertions suivantes sont équivalentes :
(1) u est une isométrie de E.
(2) Pour tous x, y ∈ E,on a
hu(x), u(y)i = hx, yi.
(3) u∗ ◦ u = IdE .
(4) A∗ A = In .
Preuve. Il s’agit de reformuler les théorèmes 8.3.10 et la proposition 8.3.4.
car µ est réelle par (1). On en déduit que hx, yi = 0 ce qui implique que les espaces propres de u sont
deux à deux orthogonaux.
(3) On procède par récurrence sur la dimension k de E. Si k = 1, il n’y a rien à montrer. Supposons
que k > 1 et que le résultat est établi lorsque v est un endomorphisme hermitien d’un espace hermitien
F lorsque dim(F ) < k. Soient E un espace hermitien de dimension k et u un endomorphisme hermitien
de E. Puisque C est algébriquement clos, u admet forcément une valeur propre λ ∈ R : soit x un vecteur
propre associé à λ. On peut supposer que ||x|| = 1. Définissons
F = {y ∈ E | hx, yi = 0}.
160
Alors F est un espace hermitien de dimension k − 1 d’après le théorème 9.2.3. En outre, F est stable par
u, puisque si y ∈ F , on a
hu(y), xi = hy, u(x)i = λhy, xi = 0.
La restriction v de u à F est encore un endomorphisme hermitien sur F : on lui applique l’hypothèse de
récurrence. Il existe une base orthonormée {e2 , · · · , ek } de vecteurs propres de v. Pour finir, la famille
{x, e2 , · · · , ek } est une base orthonormée de E formée de vecteurs propres de u.
(4) Soit A la matrice de u dans une base orthonormée B. Notons C = {x, e2 , · · · , ek } la base mise en
évidence au point précédent. Puisque C est une base orthonormée, la matrice de passage P de B à C est
unitaire d’après le lemme 9.3.4. Dans la base C, la matrice D de u est diagonale à coefficients diagonaux
réels (puisque les valeurs propres de u sont réelles). On en déduit que A = P DP −1 .
Remarques 9.3.7. (1) L’assertion (1) du théorème précédent implique en particulier que les valeurs
propres d’une matrice symétrique sont réelles : cela est utilisé dans la réduction des endomorphismes
symétriques (voir théorème 8.2.7).
(2) Le théorème 8.2.8 reste vrai dans le cas des espaces hermitiens.
Pour finir ce chapitre, intéressons-nous aux endomorphismes normaux d’un espace hermitien.
Attention. Le théorème précédent montre que les endomorphismes normaux d’un espace hermitien sont
diagonalisables. Ceci est un résultat purement complexe : on a en effet vu dans le théorème 8.2.15 qu’un
endomorphisme normal d’un espace euclidien n’était, en général, que diagonalisable par blocs.
161
Chapitre 10
Décomposition de Jordan
La décomposition de Jordan est un des théorèmes centraux pour la réduction des endomorphismes car :
• elle garantit que pour un endomorphisme nilpotent quelconque, il existe une base appelée base de
Jordan dans laquelle sa matrice est triangulaire supérieure et diagonale par blocs;
• elle garantit que pour un endomorphisme qui a un polynôme annulateur scindé, il en va de même.
Les théorèmes de Jordan font partie des résultats de réduction les plus généraux connus. Ils sont également
assez délicats à prouver. Nous suivrons la manière habituelle de prouver ces résultats, en commençant par
le cas des endomorphismes nilpotents pour en déduire le cas général.
Convention 10.0.1. Soient u un endomorphisme de E et λ une valeur propre de u. Alors on désignera
par Eλ l’espace propre associé à λ, par Eλ0 l’espace caractéristique associé à λ et si i est un entier positif
on posera Eλi := ker(u − λ IdE )i .
est appelée une cellule de Jordan de taille r. Un bloc de Jordan de taille r associé à λ est une matrice
diagonale par blocs de la forme
Jr1 ,λ
.. ∈ Mr (K),
.
Jrh ,λ
avec 1 ≤ r1 ≤ · · · ≤ rh ≤ r et r1 + . . . + rh = r.
162
Remarque 10.1.2. Avec les conventions ci-dessus, si r = 1, on a Jr,λ = (λ).
Soit u ∈ L(E) un endomorphisme nilpotent. Le but de cette section est de démontrer l’existence d’une
base, appelée base de Jordan, dans laquelle la matrice de u est de la forme
Jr1 ,0
.. ∈ Mr (K).
.
Jrh ,0
Mais alors ui−1 = 0, ce qui contredit de fait que r soit l’indice de nilpotence de u, puisque i−1 ≤ r −1 < r.
On est maintenant en mesure de démontrer le théorème de Jordan pour les endomorphismes nilpotents.
Théorème 10.1.4 (Théorème de Jordan nilpotent). Tout endomorphisme nilpotent admet une base de
Jordan, c’est à dire une base de E dans laquelle la matrice de u est de la forme
Jr1 ,0
.. ∈ Mr (K).
.
Jrh ,0
et
ker(ui ) = ker(ur ) = E pour tout i ≥ r
par le Lemme 10.1.3. Nous allons construire des sous-espaces vectoriels F1 , . . . , Fr non nuls de E tels que
163
On conviendra que F0 = {0}. Soit Fr un supplémentaire de ker(ur−1 ) dans E = ker(ur ). Ce supplémentaire
est non nul d’après ce qui précède. De plus, u(Fr ) ⊂ ker(ur−1 ). En effet, si x ∈ Fr , on a
De plus, u(Fr ) et ker(ur−2 ) sont en somme directe. En effet, soit x ∈ u(Fr ) ∩ ker(ur−2 ). On a donc
x = u(y), y ∈ Fr et ur−2 (x) = ur−1 (y) = 0. Ainsi, on a y ∈ ker(ur−1 ) ∩ Fr = {0}, car Fr et ker(ur−1 ) sont
en somme directe. Ainsi y = 0, et donc x = u(y) = 0. On peut alors choisir un supplémentaire Fr−1 de
ker(ur−2 ) dans ker(ur−1 ) contenant u(Fr ) (on colle une base de ker(ur−2 ) et une base u(Fr ). Cela fournit
une famille libre car ces deux sous-espaces sont en somme directe, et on complète en une base de ker(ur−1 ).
Les éléments de la base qui ne sont pas dans ker(ur−2 ) fournissent la base de Fr−1 ). Ce supplémentaire
est non nul d’après les considérations du début.
Supposons Fi construit, et construisons Fi−1 . On a
ker(ui ) = ker(ui−1 ) ⊕ Fi .
Pour tout x ∈ Fi , on a
ui−1 (u(x)) = ui (x) = 0,
car Fi ⊂ ker(ui ). Ainsi u(Fi ) ⊂ ker(ui−1 ). De plus, u(Fi ) et ker(ui−2 ) sont en somme directe. Si
x = u(y) ∈ u(Fi ) vérifie ui−2 (x) = 0, alors y ∈ Fi ∩ ker(ui−1 ) = {0} et donc x = u(y) = 0. On prend alors
pour Fi−1 un supplémentaire de ker(ui−2 ) dans ker(ui−1 ) contenant u(Fi ), supplémentaire qui est non
nul. On construit alors F1 , . . . , Fr de proche en proche par récurrence descendante. Remarquons que l’on
a ker(u) = F1 puisque le noyau de l’identité est nul, et donc u(F1 ) = {0}. On a donc bien les propriétés
annoncées.
Remarquons maintenant que la restriction de u à Fi est injective pour i ≥ 2. En effet, si x ∈ Fi vérifie
u(x) = 0, alors
x ∈ Fi ∩ ker(u) ⊂ Fi ∩ ker(ui−1 ) = {0}.
Remarquons aussi que l’on a
E = F1 ⊕ · · · ⊕ Fr .
On peut alors construire notre base de Jordan. On note di = dimK (ker(ui ))−dimK (ker(ui−1 ) = dimK (Fi ).
Soit
er,1 , . . . , er,dr
une base de Fr . Puisque la restriction de u à Fr est injective, la famille er−1,1 = u(er,1 ), . . . , er−1,dr =
u(er,dr ) est une famille libre de Fr−1 . On la complète alors en une base
er−1,1 , . . . , er−1,dr−1
de Fr−1 . Si ei,1 , . . . , ei,di est une base de Fi , on complète la famille libre ei−1,1 = u(ei,1 ), . . . , ei−1,di =
u(ei,di ) en une base
ei−1,1 , . . . , ei−1,di−1
de Fi−1 . Au bout du compte, on obtient une base e1,1 , . . . , e1,d1 de F1 = ker(u).
La famille
e1,1 , . . . , e1,d1 , . . . , er,1 , . . . , er,dr
est alors une base de E. Nous allons montrer qu’en ordonnant ces vecteurs de manière convenable, on
obtient une base de Jordan. On les dispose en tableau de r étages de la fao̧n suivante. Les étages sont
164
numérotés de bas en haut, et sur l’étage i, on dispose la base de Fi . On alors un tableau de la forme
Etage r • • •
Etage r − 1 • • • • •
.. ..
. .
Etage 1 • • • • • ··· •
Par construction de la base précédente, les vecteurs sur l’étage 1 ont une image nulle par u (puisque
F1 = ker(u)), et pour tout i ≥ 2, l’image d’un vecteur de l’étage i par u est le vecteur juste en dessous
dans l’étage i − 1. Remarquons que les vecteurs d’une colonne fixée, ordonnés en partant du bas, engendre
un sous-espace stable par u, et E est la somme directe de ces sous-espaces. La matrice de la restriction de
u à un de ces sous-espaces est une cellule de Jordan dont la taille est la hauteur de la colonne. En effet,
soient v1 , . . . , vs les vecteurs d’une colonne fixée. D’après ce qui précède, on a
Pour avoir une base de Jordan, on ordonne donc les vecteurs de la base comme suit: on part de la
colonne la plus à droite, et on commence à numéroter les vecteurs de bas en haut, puis on passe à la
colonne suivante et on recommence le procédé.
Etudions maintenant d’un peu plus près la structure d’une forme de Jordan de u.
Lemme 10.1.5. Soit u ∈ L(E) un endomorphisme nilpotent, d’indice de nilpotence r, et soit
Jr1 ,0
J0 =
..
.
Jrh ,0
une forme de Jordan de u. Alors rh = r. En particulier, la taille d’une cellule de Jordan de J0 est
inférieure ou égale à r, et pour tout 1 ≤ k ≤ r, le nombre de cellules de Jordan de taille ≥ k de J0 est
égale à
dimK (ker(uk )) − dimK (ker(uk−1 )).
En particulier, le nombre de cellules de Jordan de taille k de J0 est égale à
Preuve. Soit J0,s une cellule de Jordan de taille s. Un simple calcul matriciel montrer que l’on a
k k
dimK (ker(J0,s )) = k, pour tout k = 1, . . . , s − 1 et dimK (ker(J0,s )) = s si k ≥ s.
dk = nk + . . . + nr .
k
Remarquons maintenant que si J0,s est une cellule de Jordan de taille 1 ≤ s ≤ k − 1, on a J0,s = 0, et donc
ker(J0,s ) est de dimension s. Si k ≤ s ≤ r, ker(J0,s ) est de dimension k. Alors la dimension de ker(J0k ) est
k k
égale à
165
On a donc
dimK (ker(J0k ))−dimK (ker(J0k−1 )) = (k −1)nk−1 +kdk −(k −1)dk−1 = dk +(k −1)(nk−1 +dk −dk−1 ) = dk ,
χu = (X − λ)mλ Q, µu = (X − λ)rλ S, 1 ≤ rλ ≤ mλ ,
E = Eλ0 ⊕ ker(Q(u)).
D’autre part, Q(u) et (u − λ IdE ) étant des polynômes en u, ils commutent à u donc Eλ0 et ker(Q(u)) sont
stables par u.
Soit uλ la restriction de u à Eλ0 . Alors la seule valeur propre de uλ est λ. En effet, soit λ0 une telle
valeur propre, et soit x ∈ Eλ0 un vecteur propre associé. Alors on a
0 = (u − λIdE )mλ (x) = (u − λIdE )mλ −1 (u(x) − λx) = (λ0 − λ)(u − λIdE )mλ −1 (x) = . . . = (λ0 − λ)mλ x.
Comme x 6= 0 et mλ ≥ 1, on en déduit λ0 = λ.
Remarquons aussi que, puisque Eλ0 ⊕ ker(Q(u)) = {0}, alors Eλ ⊕ ker(Q(u)) = {0} car Eλ ⊂ Eλ0 . Ainsi,
les valeurs propres de la restriction de u à ker(Q(u)) sont distinctes de λ.
Soit e une base de E obtenue en recollant une base de Eλ0 et une base de ker(Q(u)). Alors la matrice
représentative de u dans cette base est de la forme
M1 0
M= ,
0 M2
où M est la matrice représentative de uλ dans la base de Eλ0 choisie et M ’ est la matrice représentative de
la restriction de u à ker(Q(u)). On a donc χu = χM1 χM2 . Or les considérations précédentes montrent que
χM1 = (X − λ)d , d = dimK (Eλ0 ), et que χM2 n’est pas divisible par X − λ. Par unicité de la décomposition
en facteurs irréductibles, on en déduit
d = dimK (Eλ0 ) = mλ .
166
Montrons maintenant la dernière partie. Puisque µu (u) = 0, on a en particulier µu (uλ ) = 0, et donc
µuλ | µu . Mais comme uλ n’a qu’une seule valeur propre, qui est λ, on a
µuλ = (X − λ)r , 1 ≤ r ≤ rλ .
En particulier, on obtient
(u − λIdE )r|E = (uλ − λIdEλ0 )r = 0,
λ
et donc la restriction de u − λ IdE à Eλ0 est nilpotente, d’indice de nilpotence r par le lemme précédent.
Il reste à voir que r = rλ . On sait déja que r ≤ rλ . Montrons que P = (X − λ)r S annule u. Le lemme
des noyaux implique que E = Eλrλ ⊕ker(S(u)). Soit x ∈ E. Écrivons x = x1 +x2 , x1 ∈ Eλrλ , x2 ∈ ker(S(u)).
On a alors
P (u)(x) = S(u)((u − λIdE )r (x1 )) + (u − λIdE )r (S(u)(x2 )) = S(u)((u − λIdE )r (x1 )).
Puisque rλ ≤ mλ , on a Eλrλ ⊂ Eλ0 . On a donc x1 ∈ Eλ0 , et par définition de r, on a alors (u−λ IdE )r (x1 ) = 0.
Ainsi P (u)(x) = 0 pour tout x ∈ E, et P annule u. En particulier, µu | P . Comme µu = (X − λ)rλ S, on
en déduit rλ ≤ r. Ainsi r = rλ le résultat est démontré.
Remarque 10.2.2. Supposons maintenant que χu soit scindé, et soient λ1 , . . . , λr les différentes valeurs
propres de u. Soit Ei le sous-espace caractéristique de u associé à λi . Alors le lemme des noyaux 6.5.15
montre que
E = E1 ⊕ · · · ⊕ Er .
La proposition précédente montre alors que chaque Ei est stable par u, et que la restriction ui de u à
Ei est de la forme λi IdEi +νi , où νi ∈ L(Ei ) est nilpotent. Puisqu’il existe une base de Jordan pour les
endomorphismes nilpotents νi par le théorème de Jordan nilpotent 10.1.4, la matrice de ui dans cette base
sera un bloc de Jordan associé à λi (car la matrice de l’identité dans n’importe quelle base est la matrice
identité !). En recollant ces bases pour former une base de E, et puisque chaque Ei est stable par u, la
matrice de u dans cette base sera diagonale par blocs, dont les blocs diagonaux seront les blocs de Jordan
associés aux valeurs propres de u.
On en vient au théorème de Jordan général.
Théorème 10.2.3 (Théorème de Jordan). Soit u ∈ L(E) admettant un polynôme annulateur scindé.
Alors µu est aussi scindé, et u admet une base de Jordan. Écrivons
Y
µu = (X − λ)rλ .
λ
Alors la taille maximale d’une cellule de Jordan du bloc Jλ est rλ . De plus, pour tout 1 ≤ k ≤ rλ , le
nombre de cellules de Jordan de taille k est
Enfin, u admet une unique forme de Jordan et deux endomorphismes u et u0 sont semblables si et seulement
si ils ont même forme de Jordan, tout ceci à permutation des blocs près.
Preuve. Si P est un polynôme annulateur scindé, alors µu | P est aussi scindé, et ses racines sont les
valeurs propres de u. Alors on a vu dans la remarque 10.2.2 que pour obtenir une base de Jordan pour
u, il suffisait d’obtenir une base de Jordan de la restriction de u − λ IdE à Eλ0 , qui est nilpotente, et ceci
167
pour toute valeur propre λ, ce qui est possible d’après la Proposition 10.1.4. On a donc l’existence d’une
base de Jordan pour u.
Soit λ une valeur propre de u et soit vλ = (u − λ IdE )|E0 . Remarquons que pour tout 0 ≤ i ≥ mλ , on a
λ
ker(vλi ) = Eλi .
10.3 Résumé
Résumons la méthode pratique pour obtenir la forme de Jordan de u ∈ L(E), ainsi qu’une base de Jordan,
que l’on peut extraire des démonstrations précédentes. On commence par calculer µu , et on écrit
Y
µu = (X − λ)rλ .
λ
Pour ce faire, on peut procéder ainsi. On calcule χu et on obtient ainsi la multiplicité mλ de la valeur
propre λ. Alors rλ est le plus petit entier tel que dimK (((u − λ IdE )r )) = mλ .
(1) Si l’on veut seulement la forme de Jordan de u: pour toute valeur propre λ et tout 1 ≤ k ≤ mλ , on
calcule
dk = dimK (ker((u − λIdE )k )) − dimK (ker((u − λIdE )k−1 )).
Le nombre de cellules de Jordan de taille 1 ≤ k ≤ rλ dans le bloc Jλ est alors dk − dk+1 . Pour lire ces
nombres facilement, on peut construire un tableau à rλ étages tel que pour 1 ≤ k ≤ rλ , l’étage k ait dk
cases. Alors dk − dk+1 est le nombre de colonnes de hauteur k (Remarquer que drλ +1 = 0). On en déduit
alors la structure de Jλ et on colle tous les blocs dans une matrice diagonale par blocs pour obtenir la
forme de Jordan de u.
(2) Si on veut une base de Jordan : pour toute valeur propre λ, on construit un tableau à rλ étages
formé de vecteurs de E comme suit. On choisit une base d’un supplémentaire de ker((u − λ IdE )r−1 )
168
dans ker((u − λ IdE )r ), et on les dispose en ligne au dernier étage. On applique ensuite u − λ IdE à
ces vecteurs, et on complète cette famille en une base d’un supplémentaire de ker((u − λ IdE )r−2 ) dans
ker((u − λ IdE )r−1 ), que l’on dispose à l’étage du dessous. On répète le procédé jusqu’à obtenir une base
de ker(u − λ IdE ) que l’on dispose au rez-de-chaussée.
On renumérote alors les vecteurs en parcourant le tableau de droite à gauche et de bas en haut. On
recolle alors toutes les familles de vecteurs obtenues ainsi pour chaque valeur propre, et on obtient une
base de Jordan de u.
Remarque 10.3.1. Tout ce qui précède a bien sûr un équivalent matriciel.
On a donc dimK (ker(M − 2I6 )) = 3 et dimK (ker(M − 2I6 )2 ) = 5. On a donc r2 = 2, d1,−2 = 3, d2,−2 =
5 − 3 = 2 et on a le tableau suivant pour la valeur propre 2:
• •
.
• • •
La numérotation d’une base de Jordan pour le bloc J2 sera donc
e6 e4
.
e5 e3 e2
On a donc une cellule de taille 1, et deux cellules de taille 2, et le bloc correspondant est donc
2
2 1
0 2 .
2 1
0 2
169
La forme de Jordan de M est ainsi
−1
2
2 1
.
0 2
2 1
0 2
Calculons une base de Jordan. Les vecteurs e6 et e4 doivent être une base d’un supplémentaire de
ker((M − 2I6 )) dans ker((M − 2I6 )2 ). On vérifie que les vecteurs
0 0
0 0
1 1
e6 = et e4 =
0 0
0 −1
1 1
conviennent. Attention, il ne suffit pas de prendre deux vecteurs libres de ker((M −2I6 )2 )−ker((M −2I6 )).
On calcule ensuite
0 1
0 0
0 0
e5 = (M − 2I6 )e6 = et e3 = (M − 2I6 )e4 =
0 ,
1
0 1
0 0
170