Академический Документы
Профессиональный Документы
Культура Документы
L1, algèbre 1.
Anne Beaulieu
Année 2008–2009
2
Table des matières
4 Applications linéaires. 35
4.1 Définitions et exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3 Application linéaire injective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Cas où l’espace vectoriel de départ est de dimension finie, image d’une partie
génératrice. Rang d’une application linéaire. . . . . . . . . . . . . . . . . . . . . . 38
4.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.6 Exemples : projections vectorielles, symétries vectorielles. . . . . . . . . . . . . . 40
3
4 TABLE DES MATIÈRES
Chapitre 1
qui a le même ensemble de solutions que (S1 ). En effet, on retrouve (S1 ) à partir de (S10 ) en
faisant ½
(L01 ) + 2(L02 )
(L02 )
La ligne (L01 ) est équivalente à y = 1. On reporte dans la deuxième équation, on trouve x = 2.
On conclut que (S1 ) a une solution et une seule : (x, y) = (2, 1).
Deuxième exemple.
½
2x − 2y = 10 (L1 )
(S2 )
x−y = 1 (L2 )
On remarque que le système (S2 ) peut être retrouvé à partir du système (S20 ) car
Les systèmes (S2 ) et (S20 ) ont donc le même ensemble de solutions. La première ligne (L01 ) n’est
jamais réalisée. On conclut que le système (S2 ) n’a aucune solution.
5
6 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
Troisième exemple.
½
2x − 2y = 8 (L1 )
(S3 )
x−y = 4 (L2 ).
La première ligne est égale à deux fois la seconde. On conclut que le système (S3 ) est équivalent
à
(S 0 3) x=y+4
Le système (S3 ) a donc une infinité de solutions. On dit qu’on a pris y comme paramètre.
Remarquons qu’au lieu de prendre y comme paramètre, on peut prendre x. Le même ensemble
de solutions s‘écrit donc aussi
{(x, x − 4); x ∈ R}.
est appelé le système homogène associé à (S) (on dit aussi le système sans second membre).
1.2. SYSTÈMES À N LIGNES ET P COLONNES, SYSTÈMES ÉCHELONNÉS. 7
Définition 1.2.3 On appelle solution de (S) tout n-uplet (u1 , ..., un ) de K n tel que
a1,1 u1 + ... + a1,p up = b1
...........
an,1 u1 + ... + an,p up = bn
Définition 1.2.4 Deux systèmes (S1 ) et (S2 ) sont équivalents s’ils ont le même ensemble de
solutions, c’est à dire si toute solution de (S1 ) est solution de (S2 ) et vice-versa.
½ ½
x1 =2 x1 + x2 = 0
Exemple : Les systèmes : et
x1 − x2 = 4 x1 − x2 = 4
sont équivalents car chacun d’eux a pour unique solution (2, −2).
Définition 1.2.5 On dit qu’un système n × p est carré si n = p. La matrice du système est
alors dite matrice carrée. On dit qu’un système carré est triangulaire inférieur si ai,j = 0 pour
tout couple (i, j) tel que i < j. On dit qu’un système carré est triangulaire supérieur si ai,j = 0
pour tout couple (i, j) tel que i > j.
On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls. Le système
ci-dessus est triangulaire supérieur à diagonale non nulle. La matrice du système est dite matrice
triangulaire supérieure à diagonale non nulle.
Définition 1.2.6 On dit qu’un système n × p est échelonné s’il est de la forme
a1,j1 xj1 + ....................... + a1,p xp = b1
a2,j2 xj2 + ............. + a2,p xp = b2
a3,j3 xj3 + .......... + a3,p xp = b3
..............
(S)
ak,jk xjk + .... + ak,p xp = bk
0 = bk+1
....
0 = bn
où 1 ≤ j1 < j2 < ... < jk ≤ p, 1 ≤ k ≤ n et tous les am,jm sont non nuls, m = 1....k. Les
k premières équations sont appelées les équations principales et les inconnues xj1 ,...,xjk sont
appelées les inconnues principales.
Exemple : Le système 3 × 5 suivant est échelonné.
x1 − x2 + +x4 + 2x5 = 0
−x3 + x4 − x5 = 0
0 =1
8 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
Remarque : Tout système triangulaire supérieur de taille n × n à diagonale non nulle est
échelonné avec k = n et ji = i pour i = 1...n. Si un système carré est échelonné alors il est :
soit triangulaire supérieur à diagonale non nulle, soit triangulaire supérieur avec certains termes
diagonaux nuls. Dans ce dernier cas, la ou les dernière lignes ont leurs premiers membres nuls.
Exemple : Le système carré 4 × 4 suivant
x1 +2x2 −x3 =2
x3 −x4 = 0
x4 = 5
0 =3
est échelonné, triangulaire avec des termes diagonaux nuls. Le premier membre de sa dernière
ligne est nul.
Pour retrouver le système initial, on remplace la ligne (L0i ) par (L0i ) − (L0j ).
Théorème 1.4.2 Tout système est équivalent à un système échelonné.
La démonstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple.
Soit le système
x1 +2x2 −x4 = 1 (L1 )
2x1 +3x2 +x3 +x4 = 2 (L2 )
x1 −x3 −x4 = 0 (L3 )
La première équation est prise comme pivot et reste inchangée. On remplace les deux dernières
lignes en leur retranchant un multiple de la première ligne, de manière à supprimer l’inconnue
x1 . On obtient le système équivalent suivant :
x1 +2x2 −x4 = 1 (L01 )
−x2 +x3 +3x4 = 0 (L02 ) = (L2 ) − 2(L1 )
−2x2 −x3 = −1 (L03 ) = (L3 ) − (L1 )
10 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
1 2 0 −1 1
0 −1 1 3 et 0 .
0 −2 −1 0 −1
En réitérant le procédé, on obtient la matrice et le second membre :
1 2 0 −1 1
0 −1 1 3 et 0 .
0 0 −3 −6 −1
Algorithme du pivot de Gauss dans le cas général.
Soit (S) un système n × p de matrice A non nulle. Soit j1 l’indice de la première colonne non
nulle.
Première étape. On permute éventuellement des lignes pour se ramener à a1,j1 6= 0. Après
cette permutation éventuelle, (S) est remplacé par un système équivalent, de matrice
0 ...0 a1,j1 ......
.. ..
A= . .
0 .....0 an,j1 .......
On n’oublie pas de faire simultanément les mêmes opérations élémentaires sur le second membre
du système. Après ces p opérations élémentaires, on obtient le système de matrice
0 ...0 a1,j1 ∗ ...∗
..
. 0 ∗ ...∗
0 .....0 0 ∗ ...∗
On recommence ces deux étapes pour le système (n − 1) × p constitué par les lignes numéros
2 à p du système obtenu à la fin de la première étape. L’algorithme s’arrête au bout d’au plus
n − 1 itérations, ou quand la matrice du sous-système obtenu a toutes ses lignes nulles.
L’algorithme est programmable et permet de résoudre des systèmes linéaires, même de très
grandes dimensions, par ordinateur.
x4 x4 1 0.
On présente l’ensemble des solutions sous la forme :
4 1
1 0
E = {λ
−1 + 1 ; λ ∈ R}.
1 0
Proposition 1.6.1 Soit (S) un système linéaire et soit (S0 ) le système homogène associé.
Soient E et E0 leurs ensembles de solutions respectifs. Alors E0 n’est jamais l’ensemble vide,
car il contient toujours la solution nulle. De plus, la différence de deux éléments de E est un
élément de E0 et la somme d’un élément de E et d’un élément de E0 est un élément de E. On
a donc : soit E = ∅, soit E est l’ensemble de la somme des éléments de E0 et d’un élément
particulier de E.
Preuve : Si E = 6 ∅, soit (α1 , ..., αp ) une solution de (S). Si (x1 , ..., xp ) est une autre solution de
(S), alors la différence (x1 − α1 , ..., xp − αp ) est une solution de (S0 ). Pour le montrer, on écrit,
pour tout i = 1, ..., n, que la ligne numéro i du système (S) est vérifiée par (x1 , ..., xp ) et par
(α1 , ..., αp ). On a donc : ½
ai,1 x1 + ... + ai,p xp = bi
ai,1 α1 + ... + ai,p αp = bi
On soustrait membre à membre les deux équations ci-dessus, on obtient :
ce qui signifie que la ligne numéro i du système homogène (S0 ) est vérifiée par (x1 −α1 , ..., xp −αp ).
Ceci est vrai pour i = 1, ..., n, donc (x1 − α1 , ..., xp − αp ) est une solution du système homogène
(S0 ).
1.6. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYSTÈME LINÉAIRE. 13
Réciproquement, on montre de la même manière que si (α1 , ..., αp ) est une solution de (S)
et si (β1 , ..., βp ) est une solution de (S0 ), alors (α1 + β1 , ..., αp + βp ) est une solution de (S).
1
0
Exemple. Dans l’exemple ci-dessus, remarquons que
1 est une solution de (S), obtenue
0
pour la valeur 0 du paramètre. D’après la proposition ci-dessus, les solutions de (S0 ) s’obtiennent
en retranchant cette solution particulière à toutes les solutions de (S). On a donc
4
1
E0 = {λ
−1 ; λ ∈ R}.
1
Point de vue géométrique. Un vecteur du plan est un segment orienté. Plus précisémment,
c’est une classe d’équivalence de segments pour la relation :
Ou encore : les couples de points (A, B) et (A0 , B 0 ) définissent le même vecteur si et seulement
si le quadrilatère ABB 0 A0 est un parallélogramme.
Point de vue analytique. Un vecteur du plan est caractérisé par ses coordonnées x et y
suivant une base de vecteurs (~i, ~j) fixée une fois pour toutes.
Pour nous : un vecteur du plan sera un couple de réels, autrement dit un élément de R2 ,
~u = (x, y), qu’on notera soit en ligne, soit en colonne.
On sait déjà ajouter deux vecteurs du plan. u~1 = (x1 , y1 ), u~2 = (x2 , y2 ).
Comme la somme de deux vecteurs du plan est un vecteur du plan, on dit que l’addition est une
loi interne.
On sait multiplier un vecteur du plan par un nombre réel. Si λ est un nombre réel et si
~u = (x, y) est un vecteur du plan, on définit
La multiplication est effectuée par un réel et non par un vecteur. On dit que la multiplication
par un réel est une loi externe.
On ne sait pas multiplier deux vecteurs du plan, ni diviser deux vecteurs du plan.
On peut combiner la multiplication par un réel et l’addition.
λ, µ ∈ R; λ~u1 + µ~u2 = (λx1 + µx2 , λy1 + µy2 ).
On dit qu’on a effectué une combinaison linéaire des deux vecteurs ~u1 et ~u2 avec les coefficients
λ et µ.
Lorsqu’il existe un réel λ tel que ~u = λ~v , ou tel que ~v = λ~u on dit que les vecteurs ~u et ~v
sont colinéaires. Dans le cas contraire, on dit qu’ils sont linéairement indépendants. Exemple :
(1, 0) et (0, 1) sont linéairement indépendants.
On peut définir aussi les vecteurs de l’espace comme les triplets de réels ~u = (x, y, z).
15
16 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
Définition 2.2.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deux
opérations : la somme et la multiplication par un scalaire. Ces deux opérations vérifient les
propriétés suivantes :
u, v ∈ E, u+v = v +u (l’addition est commutative). u, v, w ∈ E, u+(v +w) = (u+v)+w.
On notera u + v + w. (L’addition est associative).
Il existe e ∈ E tel que u + e = u pour tout u de E.
Pour tout u ∈ E, il existe u0 ∈ E tel que u + u0 = e.
u ∈ E, 1u = u.
u ∈ E, λ, µ ∈ K, (λ + µ)u = λu + µu
u ∈ E, λ, µ ∈ K, (λµ)u = λ(µu). (on notera λµu).
u, v ∈ E, λ ∈ K, λ(u + v) = λu + λv.
Tout élément de E s’appelle un vecteur. On pourrait noter ~u, on notera u.
Remarques : Ce n’est pas la nature des éléments de E qui fait que E est appelé un espace
vectoriel, mais ce sont les opérations qu’on peut effectuer sur les éléments de E et les propriétés
de ces opérations.
L’addition est une loi interne. Les quatre premières propriétés sont des propriétés de l’addi-
tion seulement. On dit que (E, +) est un groupe abélien. L’élément e est appelé l’élément neutre
pour +. Les éléments u et u0 sont appelés des éléments symétriques pour +.
La multiplication par un scalaire est une loi externe. On n’a pas défini la multiplication de
deux éléments de E.
Montrons l’unicité de l’élément neutre pour l’addition. Soient e et e0 tels que pour tout u ∈ E,
e + u = u et e0 + u = u. alors e + e0 = e et e0 + e = e0 . Mais e + e0 = e0 + e donc e = e0 .
Pour u ∈ E, montrons l’unicité de l’élément symétrique de u pour l’addition. Soient u0 et v
tels que u + u0 = e et u + v = e. Alors v + (u + u0 ) = (v + u) + u0 = e + u0 = u0 . Mais on a aussi
v + (u + u0 ) = v + e = v. Donc v = u0 .
Notation : L’élément neutre pour l’addition, e, sera noté 0. On pourrait noter ~0, pour ne pas
le confondre avec le 0 de R ou C, mais on décide de ne pas mettre de flèches sur les vecteurs.
Attention : On prendra garde, tout au long du cours, à ne pas confondre le vecteur 0 (vecteur
nul) avec le scalaire 0. C’est le contexte qui nous permettra de reconnaı̂tre dans quels cas le
symbole 0 désigne le vecteur nul et dans quels cas il désigne le scalaire nul.
Montrons que si u, v, w ∈ E,
(u + w = v + w) ⇒ (u = v).
(λu = 0) ⇒ (λ = 0 ou u = 0).
−u = (−1)u.
Exemples d’espaces vectoriels a) L’ensemble K lui même est un espace vectoriel sur K. On
prend comme opérations l’addition et la multiplication dans K. Toutes les propriétés ci-dessus
sont vérifiées.
b) C est un espace vectoriel sur C, d’après a). C’est aussi un espace vectoriel sur R, si on
prend les opérations suivantes : comme loi interne l’addition dans C et comme loi externe la
mutiplication d’un nombre complexe par un nombre réel. C’est à dire
a, b, a0 , b0 ∈ R, (a + ib) + (a0 + ib0 ) = (a + a0 ) + i(b + b0 ).
a, b, λ ∈ R, λ(a + ib) = λa + iλb.
c) Si n est un entier supérieur ou égal à 2, l’ensemble Rn des n−uplets de réels est un espace
vectoriel sur R. Pour n = 2, on trouve les vecteurs du plan étudiés au lycée, pour n = 3, on
trouve les vecteurs de l’espace. L’addition dans Rn est définie par :
L’addition dans Rn est commutative, car l’addition dans R l’est. On vérifie facilement que
l’addition dans Rn est associative car l’addition dans R l’est. L’addition dans Rn a un élément
neutre qui est (0, ..., 0) car (x1 , ..., xn ) + (0, ..., 0) = (x1 + 0, ..., xn + 0) = (x1 , ..., xn ). Chaque
élément (x1 , ..., xn ) de Rn a un symétrique pour l’addition, qui est (−x1 , ..., −xn ). Donc (Rn , +)
est un groupe abélien.
De plus on a :
1(x1 , ..., xn ) = (1x1 , ..., 1xn ) = (x1 , ..., xn ).
Pour λ, µ ∈ R on a :
(λ + µ)(x1 , ..., xn ) = ((λ + µ)x1 , ..., (λ + µ)xn ) = (λx1 + µx1 , ..., λxn + µxn ) =
(λx1 , ..., λxn ) + (µx1 , ..., µxn ) = λ(x1 , ..., xn ) + µ(x1 , ..., xn ),
λ(µ(x1 , ..., xn )) = λ(µx1 , ..., µxn ) = (λµx1 , ..., λµxn ) = (λµ)(x1 , ..., xn )
et
((λµ)f )(x) = (λµ)(f (x)) = λ(µf (x)) = λ((µf )(x)) = (λ(µf ))(x), donc (λµ)f = λ(µf ).
On a
((λ + µ)f )(x) = (λ + µ)(f (x)) = λ(f (x)) + µ(f (x)) = (λf )(x) + (µf )(x),
donc (λ + µ)f = λf + µf .
On a
(λ(f + g))(x) = λ((f + g)(x)) = λ(f (x) + g(x)) = λ(f (x)) + λ(g(x)) = (λf )(x) + (λg)(x) =
(λf + λg)(x),
donc λ(f + g) = (λf ) + (λg).
On a démontré que F(I, R) muni de l’addition et de la multiplication par un scalaire définies
ci-dessus est un espace vectoriel sur R.
Définition 2.3.2 Soit F un sous-ensemble non vide de E. On dit que F est un sous-espace
vectoriel de E si
(i) Pour tous u, v ∈ F , u + v ∈ F ;
(ii) pour tous λ ∈ K, u ∈ F , λu ∈ F .
Proposition 2.4.2 L’ensemble des solutions d’un système homogène n × p est un sous-espace
vectoriel de Kp .
Preuve : 0n rappelle qu’un système homogène n × p a n lignes et p inconnues et un second
membre nul.
a1,1 x1 + ... + a1,p xp = 0
...
(S) ai,1 x1 + ... + ai,p xp = 0
...
an,1 x1 + ... + an,p xp = 0
Montrons que F1 est un sous-espace vectoriel de Kp . D’abord F1 n’est pas vide car il contient
(0, ..., 0). Si λ ∈ K, (x1 , ..., xp ) ∈ F1 et (y1 , ..., yp ) ∈ F1 , alors on a
½
a1,1 x1 + ... + a1,p xp = 0
a1,1 y1 + ... + a1,p yp = 0
Définition 2.6.1 On dit que la somme F + G est une somme directe si tout vecteur de F + G
s’écrit de manière unique comme somme d’un vecteur de F et d’un vecteur de G.
Définition 2.6.3 On dit que F et G sont supplémentaires si tout vecteur de E s’écrit de manière
unique comme somme d’un vecteur de F et d’un vecteur de G.
On note alors E = F ⊕ G.
Proposition 2.6.4 Soient F et G deux sous-espaces vectoriels de E. Alors ils sont supplémentaires
si et seulement si E = F + G et F ∩ G = {0}. (C’est un corollaire de la proposition précédente).
Exemples : a) Dans R2 F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R} sont des sous-espaces
vectoriels supplémentaires.
b) Soit G l’espace vectoriel des fonctions affines de R dans R : G = {x → ax + b, a ∈ R, b ∈ R}.
Alors G = G1 ⊕ G2 où G1 est le sous-espace vectoriel des fonctions constantes et G2 est le
sous-espace vectoriel des fonctions linéaires. On vérifie que G1 ∩ G2 = {0G }, où 0G désigne la
fonction constante x → 0.
c) Dans E = F(R, R), on définit
On vérifie d’abord (exercice) que F et G sont des sous-espaces vectoriels de F(R, R). Montrons
que F(R, R) = F ⊕ G. Prouvons d’abord que F ∩ G = {0}. Soit f ∈ F ∩ G. Alors f est à la fois
paire et impaire, donc pour tout x ∈ R on a f (−x) = f (x) et f (−x) = −f (x). Donc f (x) = 0
pour tout x ∈ R, ce qui prouve que F ∩ G = {0}. Prouvons maintenant que F(R, R) = F + G.
Soit h ∈ F(R, R). On écrit :
h(x)+h(−x) h(x)−h(−x)
h(x) = 2 + 2 .
Posons
h(x)+h(−x) h(x)−h(−x)
f (x) = 2 et g(x) = 2 .
22 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.
Alors f est paire et g est impaire. On a donc bien F(R, R) = F + G et on conclut que
F(R, R) = F ⊕ G. Remarquons que pour trouver la décomposition d’une fonction h, on écrit a
priori h = f + g, avec f paire et g impaire, puis on calcule f et g en faisant h(x) = f (x) + g(x)
et h(−x) = f (x) − g(x).
d) Soit E comme dans l’exemple précédent, soit F le sous-espace vectoriel des fonctions qui
s’annulent en 0 et soit G le sous-espace vectoriel des fonctions constantes. Prouver que E = F ⊕G.
Proposition 2.7.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sous-
espace vectoriel de E, pour l’inclusion, qui contient tous les vecteurs de la partie S.
Dire que F est le plus petit sous-espace vectoriel, pour l’inclusion, contenant S signifie que
si G est un autre sous-espace vectoriel de E qui contient S, alors F ⊂ G.
Preuve : Le fait que F est un sous-espace vectoriel de E est immédiat : la somme de deux
combinaisons linéaires de familles finies d’éléments de S est une combinaison linéaire de la
réunion de ces deux familles ( pour les mêmes coefficients) donc c’est encore une combinaison
linéaire finie d’éléments de S. La multiplication par un scalaire d’une combinaison linéaire finie
d’éléments de S est encore une combinaison linéaire finie des mêmes éléments de S (avec les
coefficients multipliés par λ). Donc F est un sous-espace vectoriel de E. Montrons que c’est le
plus petit sous-espace vectoriel, pour l’inclusion, qui contient S. Soit G un sous-espace vectoriel
de E qui contient la partie S. Alors G contient toutes les combinaisons linéaires finie d’éléments
de S (Voir Remarques c)), donc F ⊂ G.
Définition 2.7.2 On appelle F le sous-espace vectoriel de E engendré par la partie S. On dit
que S est une partie génératrice de F .
Notation : F = Vect S.
Cas particulier : si S a un nombre fini d’éléments, il existe p ∈ N et e1 , ..., ep des vecteurs de
E tels que S = {e1 , ..., ep }. Dans ce cas,
Xp
F ={ λi ei ; λ1 ∈ K, ..., λp ∈ K}.
i=1
Définition 2.7.3 Soit u ∈ E, u 6= 0 et soit S = {u}. Alors Vect S = {λu; λ ∈ K}. On dit alors
que Vect S est une droite vectorielle de E. C’est la droite vectorielle engendrée par le vecteur
non nul u.
est par définition l’ensemble de toutes les combinaisons linéaires d’un nombre fini de monômes.
On a donc
Vect S = {αn xn + .... + α0 ; n ∈ N; α0 , ..., αn ∈ R}.
Donc les éléments de Vect S sont des fonctions polynômes de R dans R, de tous les degrés
possibles, avec tous les coefficients réels possibles. Vect S est donc l’ensemble des fonctions po-
lynômes de R dans R.
b) Soit F = {(x, y, z) ∈ R3 ; 2x − y + z = 0}. On sait que F est un sous-espace vectoriel de
R3 (c’est l’ensemble des solutions d’un système homogène 1 × 3). Peut-on trouver une partie
de R3 qui engendre F ? On a un système échelonné, avec une seule inconnue principale et deux
paramètres.
x=x x 1 0
(2x − y + z = 0) ⇔ (y = 2x + z) ⇔ y = 2x+ z ⇔ y = x 2 + z 1 .
z= z z 0 1
On en déduit que F est l’ensemble des combinaisons linéaires des vecteurs (1, 2, 0) et (0, 1, 1).
Donc F est le sous espace vectoriel de R3 engendré par ces deux vecteurs. On dit aussi que
ces deux vecteurs constituent une partie génératrice de F . Remarquons qu’en montrant que
F = Vect {(1, 2, 0); (0, 1, 1)}, on a redémontré que F est un sous-espace vectoriel de R3 !
Cela signifie que F + G est le plus petit sous-espace vectoriel, pour l’inclusion, qui contient
à la fois les éléments du sous-espace vectoriel F et ceux du sous-espace vectoriel G.
Preuve : Prouvons que F + G = Vect (F ∪ G). Prouvons d’abord que F + G ⊂ Vect (F ∪ G).
Soit u ∈ F et v ∈ G. Alors u + v est une combinaison linéaire de deux éléments de F ∪ G,
donc u + v ∈ Vect (F ∪ G). On a donc bien : F + G ⊂ Vect (F ∪ G). Montrons maintenant que
Vect (F ∪ G) ⊂ F + G. Soit w ∈ Vect (F ∪ G). Alors w est une combinaison linéaire d’un nombre
fini de vecteurs de F ∪ G. C’est à dire qu’il existe n, m ∈ N, il existe f1 ,...,fn ∈ F , il existe
g1 ,...,gm ∈ G, il existe λ1 ,...,λn ∈ K, il existe µ1 ,...,µm ∈ K tels que
n
X m
X
w= λi fi + µj gj .
i=1 j=1
Proposition 2.7.5 Si F est le sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp et
si G est le sous- espace vectoriel de E engendré par les vecteurs g1 ,...,gq , alors F + G est le
sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp , g1 ,...,gq . (la réunion des parties
génératrices est une partie génératrice de F + G. Ou encore V ect(X ∪ Y ) = V ectX + V ectY .)
Proposition 2.7.6 Soient g1 , ..., gq et f1 , ..., fp deux familles de vecteurs de E. Supposons que
pour tout i = 1, ..., q le vecteur gi s’écrive comme combinaison linéaire des vecteurs f1 , ..., fp .
Alors V ect{g1 , ..., gq } ⊂ V ect{f1 , ..., fp }. (Ou encore : si X ⊂ V ectY , alors V ectX ⊂ V ectY .)
Donc F est engendré par les deux vecteurs (−1, 1, 0) et (0, 0, 1). Alors F + G est le sous-espace
vectoriel de R3 engendré par la réunion des parties génératrices de F et de G. c’est à dire :
donc
(x, y, z) = (x + y)(1, 0, 0) + y(−1, 1, 0) + z(0, 0, 1).
D’où R3 ⊂ F + G et donc R3 = F + G.
Montrons que F ∩ G = {0}. Si (x, y, z) ∈ F ∩ G, alors d’une part il existe λ ∈ R tel que
(x, y, z) = λ(1, 0, 0) , ce qui signifie que y = z = 0 et d’autre part x = −z. Donc x = y = z = 0.
Finalement R3 = F ⊕ G. Remarquons que pour trouver la décomposition d’un vecteur (x, y, z)
de R3 sur F et G, on peut écrire a priori (x, y, z) = α(1, 0, 0) + β(−1, 1, 0) + γ(0, 0, 1) et calculer
α, β et γ.
λ1 ,...,λn ∈ K,
(λ1 u1 + ... + λn un = 0) ⇒ (λ1 = ... = λn = 0).
Remarques : a) Cette implication signifie qu’il n’y a qu’une seule façon d’écrire le vecteur nul
comme une combinaison linéaire des vecteurs u1 ,...,un . Cette écriture est 0 = 0u1 + .. + 0un ,
dans laquelle tous les coefficients sont des scalaires nuls.
b) Si n = 1, l’implication devient (λ1 u1 = 0) ⇒ (λ1 = 0). Donc u1 est ”linéairement
indépendant” si et seulement si il est non nul.
c) Si n ∈ N∗, et si u1 ,...,un sont des vecteurs de E, alors 0, u1 ,...,un ne sont pas linéairement
indépendants. En effet, le vecteur nul s’écrit de plusieurs manières comme combinaison linéaire
des vecteurs 0, u1 ,...,un , car pour n’importe quel scalaire λ on a : 0 = λ0 + 0u1 + ... + 0u2 .
Exemples : a) Dans R2 les vecteurs (1, 0) et (0, 1) sont linéairement indépendants. En effet si
λ1 (1, 0) + λ2 (0, 1) = 0, alors (λ1 , λ2 ) = (0, 0) donc λ1 = λ2 = 0.
b) Dans R2 les vecteurs (0, 3) et (0, 1) ne sont pas linéairement indépendants. On a (0, 3) −
3(0, 1) = (0, 0), donc le vecteur nul s’écrit au moins de deux manières différente comme combi-
naison linéaire des vecteurs (0, 3) et (0, 1).
Vocabulaire. a) Si les vecteurs u1 ,...,un sont linéairement indépendants, on dit qu’ils forment
une famille libre. On dit aussi que {u1 , ..., un } est une partie libre. Sinon, on dit qu’ils forment
une famille liée.
b) Si la partie {u1 , ..., un } est liée, et si λ1 ,...,λn sont n scalaires non tous nuls tels que λ1 u1 +
2.9. BASES. 25
... + λn un = 0, on dit qu’on a une relation linéaire non triviale entre les vecteurs u1 ,....,un , de
coefficients λ1 ,...,λn . La relation linéaire ”triviale” est celle où les coefficients sont tous nuls.
Généralisation. On peut définir la notion de famille libre ou liée pour des familles de vecteurs
qui ont une infinité d’éléments. Soient I un ensemble infini et ui , i ∈ I, une famille de vecteurs
de E. On dit qu’elle est libre si toute sous-famille finie est libre. On dit qu’elle est liée si elle n’est
pas libre. Par conséquent, la famille des ui , i ∈ I, sera liée si et seulement il existe un nombre fini
de vecteurs pris parmi les ui qui forment une famille liée. (Dans ce cours, on s’interessera plus
particulièrement aux familles libres qui ont un nombre fini d’éléments et aux parties génératrices
qui ont un nombre fini d’éléments).
Proposition 2.8.2 Si n ≥ 2, les vecteurs u1 ,...,un forment une famille liée si et seulement si
l’un des vecteurs est combinaison linéaire des autres.
Preuve : Supposons que les vecteurs u1 , ... , un forment une famille liée (autrement dit, ils
ne sont pas linéairement indépendants). Alors il existe des scalaires λ1 , ..., λn non tous nuls
tels que λ1 u1 + ... + λn un = 0. Quitte à réindexer, on Ppeut supposer que λ1 6= 0. Alors on a :
1 n −λi
u1 = λ1 (−λ2 u2 − ... − λn un ), c’est à dire que u1 = i=1 ( λ1 )xj . Donc u1 est combinaison
linéaire des vecteurs u2 , ..., un .
Supposons maintenant que l’un des vecteurs est combinaison linéaire des autres. En réindexant
on peut se ramener au cas où u1 est combinaison linéaire de u2 ,...,un . Il existe λ2 ,...,λn des sca-
laires tels que u1 = λ2 u2 + ... + λn un , donc u1 − λ2 u2 − ... − λn un = 0, donc u1 ,...,un ne sont
pas linéairement indépendants (car le coefficient 1 est 6= 0).
Remarque : Pour n = 2, la proposition ci-dessus signifie que deux vecteurs sont liés si et seule-
ment si ils sont colinéaires. (c’est à dire si il existe un scalaire λ tel que u1 = λu2 ou u2 = λu1 ).
2.9 Bases.
Définition 2.9.1 Si il existe des vecteurs u1 ,...,un de E qui sont linéairement indépendants et
qui engendrent E, on dit que u1 ,...,un forment une base de E.
Preuve : (i) ⇒ (ii) : soit u un vecteur de E. Comme les vecteurs u1 ,...,un engendrent E il
existe des scalaires λ1 ,...,λn tels que u = λ1 u1 + ... + λn un . Supposons qu’il existe des scalaires
λ01 ,...,λ0n tels que u = λ01 u1 + ... + λ0n un . En soustrayant membre à membre on trouve 0 =
(λ1 − λ01 )u1 + ... + (λn − λ0n )un . Comme u1 ,...,un sont linéairement indépendants, on en déduit
que λ1 − λ01 = ... = λn − λ0n = 0,, donc λ1 = λ01 , ..., λn = λ0n . Donc la décomposition de u comme
combinaison linéaire des vecteurs u1 ,...,un est unique.
(ii) ⇒ (i) : Comme tout vecteur de E s’écrit comme combinaison linéaire des vecteurs
u1 ,...,un , alors les vecteurs u1 ,...,un engendrent E. Prouvons qu’ils sont linéairement indépendants.
Le vecteur nul, comme tout vecteur de E s’écrit de manière unique comme combinaison linéaire
des vecteurs u1 ,...,un ( cette écriture unique est : 0 = 0u1 + ... + 0un ). Ceci est la définition de
vecteurs linéairement indépendants.
Exemples : a) Dans R2 , les vecteurs (1, 0) et (0, 1) forment une base de R2 . En effet, tout vecteur
de R2 s’écrit de manière unique comme combinaison linéaire de (1, 0) et (0, 1) : soit (x, y) ∈ R2 ,
on écrit (x, y) = x(1, 0) + y(0, 1) et si a et b sont des scalaires tels que (x, y) = a(1, 0) + b(0, 1),
alors a = x et b = y.
b) Pour n ∈ N, n ≥ 2, les vecteurs e1 = (1, 0, ..., 0), ..., ei = (0, ..., 1, ..., 0) (1 à la ième
place),..., en = (0, ...., 0, 1). forment une base de Rn , appelée la base canonique. En effet, tout
vecteur (x1 , ..., xn ) de Rn s’écrit comme combinaison linéaire des vecteurs e1 , ..., en :
Cette écriture est unique car si (x1 , ..., xn ) = a1 (1, 0, ..., 0) + ... + an (0, ..., 0, 1), alors x1 =
a1 ,...,xn = an .
c) On donne les vecteurs de R3 : v1 = (1, −1, 0), v2 = (0, 1, −1), v3 = (2, −1, −1). Forment-ils
une base de R3 ?
(Rep. :Non.)
Notation Si les vecteurs e1 ,...,en forment une base de E, on notera : (e1 , ..., en ) est une base de
E.
Définition 2.9.3 Soit (e1 , ..., en ) une base de E. Soit u ∈ E. Les scalaires λ1 ,...,λn ∈ K qui sont
tels que u = λ1 e1 + .... + λn en s’appellent les coordonnées du vecteur u dans la base (e1 , ..., en ).
Remarque : Si E = Kn . Soit u = (x1 , ..., xn ) un vecteur de Kn . Alors les coordonnées de u
dans la base canonique de Kn sont ses composantes x1 ,...,xn .
Chapitre 3
Définition 3.1.1 On dit que E est un espace vectoriel de dimension finie s’il est engendré par
un nombre fini d’éléments. C’est à dire s’il existe un sous-ensemble de vecteurs {u1 , ..., up } tel
que tout vecteur u de E s’écrive u = λ1 u1 + ... + λp up , pour certains scalaires λ1 ,...,λp .
Rappel L’ensemble {u1 , ..., up } est alors appelé une partie génératrice de E et il peut exister
d’autres coefficients µ1 ,...,µp tels que u = µ1 u1 + ... + µp up .
Exemple : Soit l’espace vectoriel sur R E = R3 . Les vecteurs e1 = (1, 2, 0), e2 = (0, 1, 1),
e3 = (0, 1, 0) et e4 = (0, 0, 1) engendrent R3 . En effet, on a
(1, 0, 0) = e1 − 2e2 + 2e4 .
Or tout vecteur de R3 est combinaison linéaire des vecteurs de la base canonique (1, 0, 0), (0, 1, 0),
(0, 0, 1). Ces trois vecteurs de la base canonique s’écrivent comme combinaisons linéaires des
vecteurs e1 , e2 , e3 , e4 , donc tout vecteur de R3 s’écrit comme combinaison linéaire de e1 , e2 , e3 ,
e4 .
On remarque que le vecteur e3 = (0, 1, 0) s’écrit au moins de deux manières comme combi-
naison linéaire des vecteurs e1 , e2 , e3 , e4 . En effet on écrit : e3 = 1e3 et e3 = e2 − e4 . Donc les
vecteurs e1 , e2 , e3 , e4 engendrent R3 mais ne forment pas une base de R3 .
Remarque : Il existe des espaces vectoriels qui ne sont pas engendrés par une famille finie de
vecteurs. On dit qu’ils sont de dimension infinie. Par exemple, montrons que l’espace vectoriel
E sur R des fonctions polynômes à coefficients réels n’est pas de dimension finie. Faisons une
démonstration par l’absurde. Supposons qu’il existe un nombre fini de fonctions polynômes
f1 ,...,fq qui engendrent E. Parmi ces fonctions polynômes, l’une au moins a un degré maximal,
noté d. (Par exemple, si on a : q = 2, f1 : x → x2 et f2 : x → x3 + 1, ce degré maximal est
d = 3.) Alors toute fonction polynôme est une combinaison linéaire de f1 ,...,fq (dans l’exemple,
toute fonction polynôme s’écrit x → λ1 x2 + λ2 (x3 + 1), pour certains réels λ1 , λ2 ). Donc toute
fonction polynôme est de degré inférieur ou égal à 3, ce qui est absurde.
27
28 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
p des entiers, p ≥ 1, q ≥ 1. Supposons que E soit engendré par les vecteurs g1 ,...,gq . Soient
f1 ,...,fp des vecteurs de E linéairement indépendants. Alors il existe un sous-ensemble G0 de
l’ensemble {g1 , ..., gq } tel que les éléments de l’ensemble {f1 , ..., fp } ∪ G0 forment une base de E.
Le théorème dit que si E est de dimension finie et si E 6= {0}, alors toute partie libre de E
peut être complètée en une base de E en lui ajoutant des vecteurs d’une partie génératrice.
Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f1 ,...,fp linéairement
indépendants. En particulier on peut choisir p = 1 et prendre pour f1 n’importe quel vecteur
non nul de E.
Posons G = {g1 , ..., gq } et L = {f1 , ..., fp }. Il existe des parties G0 de G telles que L ∪ G0 soit
libre : il y a au moins G0 = ∅. Soit G0 une partie de G telle que L ∪ G0 soit libre, de cardinal
maximal. (On commentera plus tard l’existence d’une telle partie G0 ).
Assertion : L ∪ G0 est une base de E.
Preuve de cette assertion. Par hypothèse, L ∪ G0 est libre. Il reste à prouver qu’elle engendre
E. Il suffit de prouver que tout élément g de G est combinaison linéaire des vecteurs de L ∪ G0 .
Distinguons deux cas.
Premier cas : G ⊂ L ∪ G0 . Alors il n’y a rien à démontrer.
Deuxième cas : il existe g ∈ G, g ∈ / L ∪ G0 . En particulier, g ∈ / G0 . Considèrons la partie G0 ∪ {g}
de G. Elle a un cardinal strictement plus grand que celui de G0 . On en déduit que L ∪ G0 ∪ {g}
n’est pas libre. Or L ∪ G0 est libre, donc g s’écrit comme combinaison linéaire des éléments de
L ∪ G0 .
Finalement, tout élément g de la partie génératrice G est combinaison linéaire des éléments de
L ∪ G0 , donc L ∪ G0 engendre E.
Commentons l’existence d’une partie G0 de G de cardinal maximal telle que L ∪ G0 soit libre.
Point de vue ”pratique” : on regarde les parties L ∪ {g1 },...,L ∪ {gq }. Si toutes ces parties sont
liées, alors G0 = ∅.
Sinon il existe un élément g de G tel que L∪{g} est libre. Supposons que c’est g1 . On recommence
avec les parties L∪{g1 } et {g2 , ..., gq }. On regarde donc les parties L∪{g1 }∪{g2 },...,L∪{g1 }∪{gq }.
Si toutes ces parties sont liées, alors on prend G0 = {g1 }. Sinon il existe un élément g de G tel
que L ∪ {g1 } ∪ {g} est libre. Supposons que c’est g2 . On recommence avec les parties L ∪ {g1 , g2 }
et {g3 , ..., gq }. Etc...On arrive à un nombre n maximal, n ≤ q tel que L ∪ {g1 , ..., gn } est libre.
On pose G0 = {g1 , ..., gn }.
Point de vue ”axiomatique” : l’existence d’une partie G0 de G, de cardinal le plus grand possible
telle que L ∪ G0 est libre vient de ”l’axiome du choix”.
Corollaire 3.2.2 Tout espace vectoriel de dimension finie, non égal à {0} possède des bases qui
ont un nombre fini d’éléments.
Preuve : Soit f un vecteur non nul de E et soit G une partie génératrice de E. Par le théorème
de la base incomplète il existe une partie G0 de G telle que {f } ∪ G0 est une base de E.
Corollaire 3.2.3 Si E est un espace vectoriel de dimension finie, E 6= {0}, alors de toute partie
génératrice de E on peut extraire une base.
Preuve : Soit G une partie génératrice de E et soit f un vecteur non nul de G, puis voir la
démonstration ci-dessus.
Preuve : Posons G = {g1 , ..., gq }. On va faire une démonstration par l’absurde. Soit L =
{f1 , ..., fq+1 , ...} une partie libre de plus de q éléments. On va utiliser le théorème de la base
incomplète pour arriver à une absurdité. La partie L\{f1 } est libre. Montrons qu’elle n’engendre
pas E. Comme L est libre, f1 ne peut pas s’écrire comme une combinaison linéaire d’éléments de
L\{f1 }, sinon cela donnerait une relation linéaire non triviale entre les éléments de L. Cela prouve
que L\{f1 } n’engendre pas E. Par le théorème de la base incomplète, il existe une partie G0 de G
telle que L\{f1 }∪G0 est une base de E. On a G0 6= ∅. Soit un élément g de G0 . On a que L\{f1 }∪
{g} est libre, car c’est un sous-ensemble de la base L\{f1 }∪G0 . Supposons que cet élément est g1 .
On est arrivé à : L\{f1 }∪{g1 } est libre et G engendre E. On recommence avec L\{f1 }∪{g1 } à la
place de L. La partie L\{f1 , f2 } ∪ {g1 } est libre et n’engendre pas E. Il existe donc un élément g
de G, g 6= g1 , tel que L\{f1 , f2 }∪{g1 , g} est libre. Supposons que c’est g2 . On recommence avec la
partie libre L\{f1 , f2 }∪{g1 , g2 } à la place de L\{f1 }∪{g1 }. Comme L a au moins q +1 éléments,
on peut faire ce raisonnement q fois. Au bout de q fois on obtient que L\{f1 , f2 , ..., fq }∪{g1 , ..., gq }
est libre. Donc L\{f1 , f2 , ..., fq , fq+1 } ∪ {g1 , ..., gq } est libre. Or comme G = {g1 , ..., gq } engendre
E, alors L\{f1 , f2 , ..., fq , fq+1 } ∪ {g1 , ..., gq } engendre E. En particulier, le vecteur fq+1 s’écrit
comme combinaison linéaire des vecteurs de L\{f1 , f2 , ..., fq , fq+1 } ∪ {g1 , ..., gq }. Cela donne une
relation linéaire non triviale entre les éléments de L\{f1 , f2 , ...fq } ∪ {g1 , ..., gq }. On conclut que
cette partie est à la fois libre et liée, ce qui est absurde. L’hypothèse de l’existence d’une partie
libre d’au moins q + 1 éléments est donc fausse.
Corollaire 3.3.2 Soit E un espace vectoriel de dimension finie. Alors toutes les bases de E
sont finies et ont le même nombre d’éléments.
Preuve : Soit B et B0 deux bases de E. Elles ont un nombre fini d’éléments car il existe une
partie génératrice finie. Soit n =CardB et n0 =CardB 0 . Alors on a n ≤ n0 et n ≥ n0 , donc n = n0 .
Définition 3.3.3 Si E est de dimension finie, le nombre d’éléments commun à toutes les bases
de E s’appelle la dimension de E. (Si E = {0}, E n’admet pas de base).
Théorème 3.4.4 Soit E un espace vectoriel sur K de dimension finie. Alors tout sous-espace
vectoriel de E admet un sous-espace vectoriel supplémentaire.
Preuve : Soit e1 ,...,ep une base de F . Par le théorème de la base incomplète, on peut complèter
ces vecteurs pour obtenir une base de E. Soient ep+1 ,...,en des vecteurs de E tels que les
vecteurs e1 ,...,ep ,ep+1 ,...,en forment une base de E. On pose G = V ect{ep+1 , ..., en }. Les vec-
teurs ep+1 ,...,en sont linéairement indépendants (car ils font partie d’une famille de vecteurs
linéairement indépendants) et ils engendrent G (par la définition de G). Donc les vecteurs
3.5. RANG D’UNE FAMILLE DE VECTEURS. 31
Premier exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vecteurs
u1 = (1, 0, −1, 1), u2 = (2, 1, 4, 0), u3 = (1, 1, 0, 0), u4 = (3, 1, 2, 1) et u5 = (4, 2, 13, −1). On
les place en colonnes. Comme la première composante de u1 est non nulle, on la prend comme
pivot. La première étape consiste à remplacer pour tout i ≥ 2 le vecteur ui par un vecteur de la
forme ui − λu1 , où le scalaire λ est choisi pour que la première composante du vecteur
32 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.
1 2 1 3 4 1 0 0 0 0
0 1 1 1 2 0 1 1 1 2
ui − λu1 soit nulle. On écrit : puis . Appelons
−1 4 0 2 13 −1 6 1 5 17
1 0 0 1 −1 1 −2 −1 −2 −5
w1 , w2 , w3 , w4 et w5 les colonnes qu’on vient d’obtenir. Alors F = Vect {w1 , w2 , w3 , w4 , w5 },
d’après le principe énoncé ci-dessus. Comme le coefficient de la deuxième colonne et deuxième
ligne est non nul, on le prend comme pivot et on recommence sur les colonnes j, j ≥ 2. On écrit :
1 0 0 0 0
0 1 0 0 0
Appelons η1 ,...,η5 les 5 colonnes obtenues. Selon le principe énoncé
−1 6 −5 4 5
1 −2 1 −1 −1
ci-dessus, on a Vect {w1 , ..., w5 } = V ect{η1 , ..., η5 } ; on recommence sur les colonnes 4 et 5.
1 0 0 0 0
0 1 0 0 0
.
−1 6 −5 0 0
1 −2 1 −1/5 0
Appelons t1 ,...,t5 les colonnes qu’on vient d’obtenir. Toujours grace au même principe, on a
Vect {η1 , ..., η5 } = Vect {t1 , ..., t5 }. Donc finalement F = Vect {t1 , ..., t5 }. Or t5 est nul, donc
F = Vect {t1 , t2 , t3 , t4 }. De plus les vecteurs t1 , t2 , t3 et t4 sont linéairement indépendants, à
cause du caractère échelonné de leurs composantes. En effet, t4 et t3 sont non colinéaires. Puis t2
n’est pas combinaison linéaire des vecteurs t4 et t3 , sinon sa deuxième composante serait nulle.
donc t4 , t3 , t2 sont linéairement indépendants. Puis t1 n’est pas combinaison linéaire de t4 , t3 ,t2 ,
sinon sa première composante serait nulle. Donc t1 , t2 , t3 , t4 sont linéairement indépendants.
Comme on sait qu’ils engendrent F , alors ils forment une base de F . On a donc trouvé que le
rang de la famille des 5 vecteurs u1 , u2 , u3 , u4 , u5 est 4.
Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss, on n’a pas eu
besoin d’intervertir l’ordre des colonnes. Montrons, à titre d’exercice, que cela implique que
les vecteurs u1 , u2 , u3 , u4 forment une base de F , extraite de la famille u1 , u2 , u3 , u4 , u5 .
Soient w1 ,...,w5 les vecteurs obtenus après la première étape. On remarque que w1 , w2 , w3 ,
w4 ∈ Vect {u1 , u2 , u3 , u4 } et que u1 , u2 , u3 ,u4 ∈ Vect {w1 , w2 , w3 , w4 }. En effet, les vecteurs
wi , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des vecteurs ui , i = 1, ..., 4 et
réciproquement, les vecteurs ui , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des
vecteurs wi , i = 1, ..., 4. Par conséquent Vect {u1 , ..., u4 } = Vect {w1 , ..., w4 }. A l’étape sui-
vante, on n’a pas intervertit les colonnes. On trouve donc des vecteurs η1 ,...,η5 de la forme
ηi = wi − λi w2 , i = 1, ..., 5, donc les vecteurs η1 ,...,η4 sont combinaisons linéaires de w1 ,...,w4
et réciproquement les vecteurs w1 ,...,w4 sont combinaisons linéaires de η1 ,...,η4 . Par conséquent
Vect {w1 , ..., w4 } = Vect {η1 , ..., η4 }. On recommence le même raisonnement à la dernière étape.
On trouve Vect {t1 , t2 , t3 , t4 } = Vect {η1 , η2 , η3 , η4 }. Finalement :
Vect {u1 , u2 , u3 , u4 } = Vect {t1 , t2 , t3 , t4 } = F . Les vecteurs u1 , u2 , u3 , u4 engendrent donc F .
Or F est de dimension 4, donc toute partie génératrice de 4 vecteurs est une base de F . Donc
les quatre vecteurs u1 , u2 , u3 et u4 forment une base de F .
Dans certains cas, on peut être obligé d’intervertir les colonnes, afin d’avoir à chaque itération
un pivot non nul.
Deuxième exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vec-
teurs e1 = (1, 2, 3, 1), e2 = (1, 2, 1, 0), e3 = (2, 1, 0, 1) et e4 = (0, 1, 2, 2). On cherche la dimension
de F , en même temps qu’une base de F . On écrit
3.6. SOUS-ESPACES VECTORIELS DE KP . 33
1 1 2 0 1 0 0 0
2 2 1 1 2 0 −3 1
puis .
3 1 0 2 3 −2 −6 2
1 0 1 2 1 −1 −1 2
le deuxième pivot est nul. On intervertit par exemple la deuxième colonne avec la dernière.
On obtient :
1 0 0 0 1 0 0 0
2 1 −3 0 2 1 0 0
, puis
3 2 −6 −2 3 2 0 −2
1 2 −1 −1 1 2 5 −1
Le troisième pivot est nul. On intervertit la troisième colonne et la quatrième. On obtient :
1 0 0 0
2 1 0 0
.
3 2 −2 0
1 2 −1 5
Soient t1 ,...,t4 ces colonnes . Comme dans le premier exemple on a F = V ect{t1 , ..., t4 } et t1 , t2 ,
t3 , t4 sont linéairement indépendants, car leurs composantes sont échelonnées. Donc le rang des
vecteurs e1 , e2 , e3 , e4 est 4 (et donc ils forment une base de F ).
Attention : La méthode ci-dessus ne s’applique qu’à partir d’une base de F et pas de n’importe
quelle partie génératrice. Si F est donné par une partie génératrice quelconque, il faut d’abord
trouver une base avant de calculer un système d’équations cartésiennes par cette méthode.
Chapitre 4
Applications linéaires.
Remarque : f est un homomorphisme de groupe du groupe (E, +) dans le groupe (F, +).
Propriétés. a) Pour tout u ∈ E, f (0u) = 0f (u) = 0F . Donc f (0E ) = 0F .
b)Pour tous n ∈ N? , λ1 ,...,λn ∈ K, u1 ,...,un ∈ E, f (λ1 u1 + ... + λn un ) = λ1 f (u1 ) + ... + λn f (un ).
(Démonstration par récurrence).
Exemples. a) Soit a ∈ R et f : R 7→ R, x → ax. Alors f est une application linéaire.
(Rappel : sa représentation graphique est une droite qui passe par 0. Les applications linéaires
de R dans R sont utilisées dans les problèmes de proportionnalité.) Montrons que si g : R 7→ R
est une application linéaire, alors il existe a ∈ R tel que pour tout x, g(x) = ax. On a g(x) =
g(1x) = xg(1). On pose a = g(1).
f :R →R
b) Si a ∈ R et b ∈ R, b 6= 0, alors l’application n’est pas linéaire, car
x → ax + b
f (0) 6= 0.
f :R →R
c) Soit alors f n’est pas une application linéaire. En effet :f (2x) = 4f (x) 6=
x → x2
2f (x) si x 6= 0.
d) E = C 1 (R, R), F = C 0 (R, R). E et F sont des espaces vectoriels sur R car ce sont des sous
Ψ:E →F
-espaces vectoriels de F(R, R). Alors est une application linéaire de E dans F .
f → f0
Φ:E →R
e) Soit F = C 0 (R, R) alors Rb est une application linéaire de E dans R.
f → a f (t)dt
H : Kn → Kp
f) Soient n et p des entiers, 1 ≤ p ≤ n alors est une application
(x1 , ..., xn ) → (x1 , ..., xp )
linéaire.
F(R, R) → R
g) Soit x0 un réel fixé. L’application est linéaire.
f → f (x0 )
35
36 CHAPITRE 4. APPLICATIONS LINÉAIRES.
R2 → R
h) Si a ∈ R et b ∈ R, alors est une application linéaire. Si λ ∈ R,
(x, y) → ax + by
on a f (λ(x, y)) = f (λx, λy) = aλx + bλy = λ(ax + by) = λf ((x, y)). et f ((x, y) + (x0 , y 0 )) =
f ((x + x0 , y + y 0 )) = a(x + x0 ) + b(y + y 0 ) = ax + ax0 + by + by 0 = f ((x, y)) + f ((x0 , y 0 )).
g◦f :E →F →G
Preuve : Si u,v ∈ E, (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) =
g ◦ f (u) + g ◦ f (v). De même, si λ ∈ K, g ◦ f (λu) = λg ◦ f (u).
Proposition 4.1.3 Soit f : E → F une application linéaire bijective. Alors son application
linéaire réciproque f −1 : F → G est une application linéaire.
Preuve : On sait que si u ∈ E, v ∈ F , (u = f −1 (v)) ⇔ (v = f (u)). Soient v1 et v2 ∈ F .
Montrons que f −1 (v1 + v2 ) = f −1 (v1 ) + f −1 (v2 ). Soient u1 et u2 les éléments de E tels que
f (u1 ) = v1 et f (u2 ) = v2 . Comme f est linéaire, on a
On pose u = u1 +u2 . On a f (u) = v1 +v2 , donc u = f −1 (v1 +v2 ), c’est à dire f −1 (v1 )+f −1 (v2 ) =
f −1 (v1 + v2 ).
Si λ ∈ K, v ∈ F et u ∈ E, montrons que f −1 (λv) = λf −1 (v). Soit u l’élément de E tel que
f (u) = v alors, comme f est linéaire, on a f (λu) = λv, donc f −1 (λv) = λu = λf −1 (v).
Exemple : Si a ∈ R, a 6= 0, alors f : R → R, x 7→ ax est une application linéaire bijective et
f −1 : x 7→ a1 x.
Définition 4.1.4 Soit f : E → F une application linéaire bijective. On dit que f est un iso-
morphisme d’espaces vectoriels de E sur F . On dit aussi que l’espace vectoriel E est isomorphe
à l’espace vectoriel F .
Proposition 4.1.5 Soit la relation binaire R définie sur l’ensemble des K-espaces vectoriels
par ”ERF si E est isomorphe à F ”. Alors R est une relation d’équivalence dans l’ensemble des
K-espaces vectoriels.
Preuve : Réflexive : id : E → E est un isomorphisme. Symétrique : si f : E → F est un
isomorphisme, alors f −1 : F → E est un isomorphisme. Transitive : si f : E → F et g : F → G
sont des isomorphismes, alors g ◦ f : E → G est un isomorphisme.
Exemple fondamental. Si E est un espace vectoriel de dimension n, alors E est isomorphe à
Kn .
Preuve : Soit (e1 , ..., en ) une base de E. On définit f : E → Kn , u 7→ (x1 , ..., xn ), où x1 , ..., xn
sont les coordonnées de u dans la base (e1 , ...., en ). On vérifie que f est une application (si u est
un vecteur de E, existence et unicité des coordonnées de u). Puis on vérifie que f est linéaire.
Ensuite on définit l’application g par g : Kn → E, (x1 , ..., xn ) 7→ x1 e1 +...+xn en . On a g◦f = idE
et f ◦ g = idKn . Donc f est bijective, d’application réciproque g.
Vocabulaire. Une application linéaire de E dans K s’appelle une forme linéaire.
Une application linéaire de E dans lui-même s’appelle un endomorphisme d’espace vectoriel de
E.
Un endomorphisme bijectif de E s’appelle un automorphisme de E.
4.2. IMAGE ET NOYAU. 37
Définition 4.2.3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f est
le vecteur nul de F .
Notation ker f .
On a ker f = {u ∈ E, f (u) = 0F }.
(f (u) = f (v)) ⇔ (f (u − v) = 0F ).
Donc
Comme Ker f = {0E }, alors : (f (u) = f (v)) ⇒ (u = v), donc f est injective.
Exemples f : R2 → R (x, y) → 2x + 3y. ker f = {(x, −(2/3)x); x ∈ R}, donc ker f 6= {(0, 0)}.
f n’est pas injective. Rπ
Soit E = C 0 (R, R) et Φ : E → R, f → −π f (t)dt. Soit f (t) = sin t. On a Φ(f ) = 0, et f 6= 0E ,
donc Φ n’est pas injective.
Proposition 4.3.2 Si f est injective alors l’image de toute partie libre de E est une partie libre
de F .
38 CHAPITRE 4. APPLICATIONS LINÉAIRES.
Proposition 4.4.1 Si {g1 , ..., gq } est une partie génératrice de E, alors son image {f (g1 ), ..., f (gq )}
est une partie génératrice de Im f .
Preuve : Si v ∈ Im f , alors il existe u ∈ E tel que v = f (u). Il existe des scalaires λ1 ,...,
λq tels que u = λ1 g1 + ... + λq gq . Donc v = λ1 f (g1 ) + ... + λq f (gq ), ce qui prouve que
Im f ⊂ Vect {f (g1 ), ..., f (gq )}. Réciproquement, on a bien Vect {f (g1 ), ..., f (gq )} ⊂ Im f, car
f (g1 ), ..., f (gq ) ∈ Im f . Finalement, Im f = Vect {f (g1 ), ..., f (gq )}.
Corollaire 4.4.2 Si l’espace vectoriel E est de dimension finie, alors son image par une appli-
cation linéaire est un espace vectoriel de dimension finie et dim Im f ≤ dim E.
Remarque 4.4.4 Si (e1 , ..., en ) est une base de E, alors le rang de f est égal au rang des
vecteurs f (e1 ),...,f (en ).
4.5 Isomorphismes.
Théorème 4.5.1 Soit f : E → F une application linéaire. Supposons que E est de dimension
finie. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) L’image de toute base de E est une base de F .
(iii) Il existe une base de E dont l’image par f est une base de F .
4.5. ISOMORPHISMES. 39
Preuve : a) Montrons (i) ⇒ (ii). Soit (e1 , ..., en ) une base de E. Comme f est injective alors
{f (e1 ), ..., f (en )} est une partie libre de F . On sait que cette partie engendre Im f , donc c’est
une base de Im f . Or f est surjective, donc Im f = F . Finalement, (f (e1 ), ..., f (en )) est une base
de F .
b) Montrons que (iii) ⇒ (i). Soit (e1 , ..., en ) une base de E telle que (f (e1 ), ..., f (en )) soit
une base de F . Montrons que f est bijective. On voit immédiatement que F ⊂ Im f , car
f (e1 ),...,f (en ) ∈ Im f. Donc f est surjective. Montrons que f est injective. Soit u ∈ ker f . Il
existe des scalaires λ1 ,...,λn tels que u = λ1 e1 +...+λn en . Alors f (λ1 e1 +...+λn en ) = 0F . Comme
f est linéaire, λ1 f (e1 ) + ... + λn f (en ) = 0F . Or f (e1 ),...,f (en ) sont linéairement indépendants,
donc λ1 = ... = λn = 0. On en déduit que u = 0E .
Corollaire 4.5.2 Soient E et F des espaces vectoriels isomorphes. Alors si l’un est de dimen-
sion finie, l’autre aussi et ils ont tous deux la même dimension.
Théorème 4.5.3 Supposons que E et F sont de dimension finie et que dim E = dim F . Soit
f : E → F une application linéaire. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) f est injective.
(iii) f est surjective.
Preuve : Soit r le rang des vecteurs u1 , ..., up . Rappelons que le rang est la dimension de
Vect {u1 , ..., up }. Le rang r est caractérisé par le fait qu’il existe r vecteurs linéairement indépendants
parmi les p vecteurs u1 , ..., up et que toute sous-famille d’au moins r + 1 vecteurs pris parmi
u1 , ..., up est liée. Supposons que u1 ,...,ur sont linéairement indépendants. Alors, comme f
est injective, f (u1 ), ..., f (ur ) sont linéairement indépendants. Appelons r0 le rang de la famille
f (u1 ), ..., f (up ). On a montré que r0 ≥ r. En faisant le même raisonnement avec l’isomorphisme
f −1 , on en déduit que r ≥ r0 . Donc r = r0 .
Corollaire 4.5.5 Soit E un espace vectoriel de dimension n. Soit (e1 , ..., en ) une base de E.
Soient u1 ...up des vecteurs de E. On note (x11 , ..., x1n ),...,(xp1 , ..., xpn ) les coordonnées des vecteurs
u1 ,...,up dans la base (e1 , ..., en ). Alors le rang de la famille u1 ,...,up est égal au rang de la
famille des p vecteurs de Kn : (x11 , ..., x1n ),...,(xp1 , ..., xpn ).
Applications. a) Pour calculer le rang de p vecteurs de E, on fixe une base de E et on écrit
les coordonnées de ces vecteurs dans la base. On est ramené au calcul du rang de p vecteurs de
Kn , ce qu’on sait faire, par la méthode du pivot appliquée aux colonnes.
b) Soit F un sous-espace vectoriel de E. Une base (e1 , ..., en ) de E étant fixée, on peut calculer
un système d’équations cartésiennes de F dans la base (e1 , ..., en ).
40 CHAPITRE 4. APPLICATIONS LINÉAIRES.
III) Exercice Dans E = R2 , soit F la droite vectorielle engendrée par le vecteur (1, 1) et G
la droite vectorielle engendrée par (1, −1).
(i) Montrer que E = F ⊕ G. (Indication : réunir une base de F et une base de G.)
(ii) Soit w = (x, y) un vecteur de R2 . Trouver les coordonnées de p(w) dans la base canonique
de R2 . (Réponse : p(w) = ( x+y x+y
2 , 2 )).