Вы находитесь на странице: 1из 78

Alg`ebre Lineaire

Semestre I
Professeur J. Thevenaz
redige par Alexis Barri`ere
avec la collaboration de
D. Nakic et J. Rouvinet
Version 2.0
Fevrier 2005
2
c Alexis Barri`ere, 2005
Table des mati`eres
1 Prealables dalg`ebre 5
1.1 Denitions de base . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Groupes et Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Les nombres complexes . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Polynomes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Espaces vectoriels 27
2.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Operations sur les sous-espaces . . . . . . . . . . . . . . . . . . . 31
3 Bases et dimensions 37
3.1 Parties generatrices et parties libres . . . . . . . . . . . . . . . . 37
3.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4 Corollaires des theor`emes precedents . . . . . . . . . . . . . . . . 43
3.5 Crit`eres et theor`emes sur les bases et dimensions . . . . . . . . . 44
4 Applications lineaires et matrices 49
4.1 Applications lineaires . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5 Operations elementaires 63
5.1 Operations elementaires matriciellement . . . . . . . . . . . . . . 63
5.2 Matrices echelonnees . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3 Syst`emes de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.4 Syst`emes dequations lineaires . . . . . . . . . . . . . . . . . . . . 71
5.5 Rang dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.6 Operation elementaire et matrices inversibles . . . . . . . . . . . 76
3
4 TABLE DES MATI
`
ERES
c Alexis Barri`ere, 2005
Chapitre 1
Prealables dalg`ebre
1.1 Denitions de base
Denition 1.1.1 Une loi de composition sur un ensemble E est une applica-
tion.
E E E
Remarques
1. Z avec laddition :
Z Z Z
(n, m) n +m
2. Z avec la multiplication :
Z Z Z
(n, m) n. m
3. R avec la multiplication :
R R R
(x, y) x. y
4. X un ensemble, E=P(X)
1
La reunion est une loi de composition sur P(X) :
P(X) P(X) P(X)
(A, B) A B
5. De meme avec lintersection
1
lensemble des parties de X
5
6 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
1.2 Groupes et Sous-groupes
Denition 1.2.1 Un groupe est un ensemble G muni dune loi de composition
(quon notera ) :
G G G
(a, b) a b
satisfaisant les axiomes suivants :
1. La loi est associative, cest `a dire :
a (b c) = (a b) c a, b, c G
2. Il existe dans G un element neutre note e, cest `a dire un element tel que :
_
e a = a a G
a e = a a G
3. Quelque soit le a appartenant `a G, il existe un inverse a

appartenant `a
G, cest `a dire un element a

tel que :
_
a

a = e a G
a a

= e a G
Remarques
Si la loi de composition est laddition, lelement neutre se note 0 et linverse
de a se note -a (et sappelle l oppose de a).
Si la loi de composition est la multiplication, lelement neutre se note 1
(ou parfois 1
G
, pour preciser le groupe G) et linverse de a se note a
1
.
Exemples
(Z,+) est un groupe.
(N,+) nest pas un groupe car il ny a pas doppose.
R

= R- {0}
(R

,.) est un groupe


(Z,.) nest pas un groupe car il ny a pas dinverses.
G={isometries du plan}
2
On consid`ere la loi de composition :
, G G
( )(x) = ((x))
(G,) est un groupe (non-commutatif : = )
Element neutre : Id
Inverses : inverse des applications bijectives
Proprietes 1.2.1 Lelement neutre est unique, car si e
1
et e
2
sont des
elements neutres, alors :
_
e
1
e
2
= e
1
e
1
e
2
= e
2
et donc e
1
= e
2
2
rotations, symetries, translations
c Alexis Barri`ere, 2005
1.2. GROUPES ET SOUS-GROUPES 7
Linverse de a est unique car si a

et a

sont des inverses de a alors :


(a

a) a

= a

(a a

)
e a

= a

e
a

= a

Denition 1.2.2 Soit (G,) un groupe et soit H une partie de G. On dit que
H est un sous-groupe de G si :
1. H est stable par la loi , cest `a dire :
h
1
h
2
H h
1
, h
2
H
2. (H,) est un groupe
Crit`ere des sous-groupes
Une partie H dun groupe G est un sous-groupe si et seulement si elle satisfait :
a) H est non-vide
b) H est stable par
c) h H, son inverse h

appartient `a H
Preuve
Si H est un sous-groupe, on voit aisement que a), b), c) sont satisfaits ;
reciproquement, supposons a), b), c) satisfait et montrons que H est un sous-
groupe :
Par a), h H
Par c), h

H
Par b), h h

H , donc e H
Les inverses existent dans H grace `a c).
Lassociativite dans H est evidente car elle est veriee dans G.
Exemples
1. Z est un sous-groupe de R pour laddition
2. N nest pas un sous-groupe de Z pour laddition :
a), b) satisfait
c) pas satisfait
3. G={isometries du plan}
H={rotations autour de O}
H est un sous-groupe de G
4. (R

,.) est un groupe


R

+
= {x R

/ x > 0}
R

+
est un sous-groupe de R

H = {-1 ;1} est un sous groupe de R

5. (Z,+) est un groupe


H = {entiers pairs} est un sous groupe
K = {entiers impairs} nest pas un sous groupe
c Alexis Barri`ere, 2005
8 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
Denition 1.2.3 Soit (G
1
,) et (G
2
,) deux groupes. Soit f : G
1
G
2
une
application. On dit que f est un homomorphisme de groupes si :
f(g h) = f(g) f(h) g, h G
1
Exemples
1. (Z,+)
f : Z Z
n 2n
f(n +m) = 2(n +m) = 2n + 2m = f(n) +f(m)
Donc f est un homomorphisme de groupes
2. (R,+) et (R

+
,.)
exp : R R

+
x 10
x
10
x+y
= 10
x
.10
y
Donc exp est un homomorphisme de groupes
Proprietes 1.2.2 Soit f : G
1
G
2
un homomorphisme de groupes
1.
f(e
1
) = e
2
o` u e
1
= element neutre de G
1
et e
2
= element neutre de G
2
2.
f(x

) = f(x)

o` u

designe linverse
Preuve
1.
e
2
f(e
1
) = f(e
1
) = f(e
1
e
1
) = f(e
1
) f(e
1
)
On compose `a droite avec f(e
1
)

(e
2
f(e
1
)) f(e
1
)

= (f(e
1
) f(e
1
)) f(e
1
)

Par associativite :
e
2
(f(e
1
) f(e
1
)

)
. .
e
2
= f(e
1
) (f(e
1
) f(e
1
)

)
. .
e
2
e
2
= f(e
1
)
2.
e
2
= f(xx

) = f(x) f(x

) f(x

) = inverse de f(x) = f(x)

Denition 1.2.4 Soit (G


1
,) et (G
2
,) deux groupes. Un isomorphisme de
G
1
sur G
2
est un homomorphisme de groupes f : G
1
G
2
qui est de plus
bijectif. Dans ce cas, lapplication inverse f
1
: G
2
G
1
est aussi un isomor-
phisme de groupes
c Alexis Barri`ere, 2005
1.2. GROUPES ET SOUS-GROUPES 9
Exemple
exp : (R, +) (R

+
, .)
x 10
x
exp est bijective, donc cest un isomorphisme de groupe.
Lisomorphisme inverse est :
log
10
: (R

+
, .) (R, +)
Denition 1.2.5 Soit f : (G
1
, ) (G
2
, ) un homomorphisme de groupes.
Le noyau de f, note Ker(f ), est le sous-ensemble de G
1
suivant :
Ker(f ) = {x G
1
/ f(x) = e
2
} o` u e
2
est lelement neutre de G
2
Si on a aaire `a laddition, Ker(f )={x G
1
/ f(x)=0}
Si on a aaire `a la multiplication, Ker(f )={x G
1
/ f(x)=1}
Proprietes 1.2.3 Ker(f ) est un sous-groupe de G
1
Preuve
Ker(f) = car e
1
Ker(f) (vu que f(e
1
)=f(e
2
))
Stabilite :
x, y Ker(f)
x y
?
Ker(f)
f(x y) = f(x)
..
e
2
f(y)
..
e
2
= e
2
e
2
= e
2
Inverses :
x Ker(f), x

?
Ker(f)
f(x

) = f(x)

= e

2
= e
2
Theor`eme 1.2.1 Soit f : G
1
G
2
un homomorphisme de groupes.
Alors f est injectif Ker(f)={e
1
}
Pour laddition : f injectif Ker(f)={0}
Pour la multiplication : f injectif Ker(f)={1}
Preuve
: On suppose f injectif et on demontre que Ker(f) ={e
1
}
{e
1
}
?
Ker(f)
e
1
Ker(f), cest evident car f(e
1
)= e
2
Ker(f)
?
{e
1
}
Soit x Ker(f)
Alors f(x)=e
2
=f(e
1
)
Comme f est une applicaton injective, x=e
1
Donc Ker(f){e
1
}
c Alexis Barri`ere, 2005
10 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
Finallement Ker(f)={e
1
}
: On suppose Ker(f)={e
1
} et on demontre que f est injectif
Soit x, y G
1
tel que f(x)=f(y)
A voir x
?
= y
f(x y

) = f(x) f(y

) = f(x) f(y)

f(x)=f(y)
= f(x) f(x)

= e
2
Donc x y

Ker(f)
Or Ker(f)={e
1
}
Donc x y

= e
1
On compose `a droite pa y et on obtient
(x y

) y = e
1
y
x (y

y) = y
x e
1
= y
x = y
Donc f est injectif
Denition 1.2.6 Un groupe G est dit abelien (ou commutatif ) si la loi est
commutative :
a b = b a a, b G
Le groupe symetrique
Denition 1.2.7 Une permutation dun ensemble E est une bijection de E
dans E. Lensemble de toutes les permutations de E est un groupe, note Sym(E),
pour la composition des applications (element neutre : id
E
, associativite

, in-
verses existent car bijections).
On sinteresse au cas E={1,2,. . .,n}, auquel cas le groupe Sym(E) se note S
n
et est le groupe symetrique (=groupe des permutations 1,2,. . .,n)
Le nombre de permutations est n(n 1)(n 2). . . . .2.1 = n!
1
`ere
Notation
= {1, 2, . . . , n} {1, 2, . . . , n}
=
_
1 2 3 4 . . . n
(1) (2) (3) (4) . . . (n)
_
Exemple
n = 4
1 2
2 4
3 3
4 1
=
_
1 2 3 4
2 4 3 1
_
c Alexis Barri`ere, 2005
1.2. GROUPES ET SOUS-GROUPES 11
La composition des applications se fait de droite `a gauche : : suivi de
( )(x)=((x))
La composition des permutations sappelle simplement le produit des permuta-
tions, et se note . ou meme Exemple
=
_
1 2 3 4
2 4 3 1
_
=
_
1 2 3 4
1 2 4 3
_
=
_
1 2 3 4
2 4 1 3
_
3

4

1

Denition 1.2.8 Un k-cycle est une perutation qui permute circulairement


k des nombres entre 1 et n, et laisse xe les n-k autres.
Explicitement
a
1
, a
2
, . . . , a
k
{1, 2, . . . , n} tous distincts tels que
(a
1
) = a
2
, (a
2
) = a
3
, . . ., (a
k1
) = a
k
, (a
k
) = a
1
et de plus (x)=x si
x = a
1
, a
2
, . . . , a
k
.
Notation pour un cycle
= (a
1
, a
2
, . . . , a
k
)
Exemple
(2 1 3 8) est un 4-cycle
1 3
2 1
3 8
4 4
5 5
6 6
7 7
8 2
(2 1 3 8)
. .
nouvelle notation pour un k-cycle
=
_
1 2 3 4 5 6 7 8
3 1 8 4 5 6 7 2
_
. .
1
`ere
notation
Theor`eme 1.2.2 Toute permutation est un produit de cycles disjoints
Rappel deux ensembles E et F sont disjoints sils nont rien en commun (E
F= )
c Alexis Barri`ere, 2005
12 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
Pas de preuve mais un exemple
=
_
1 2 3 4 5 6 7 8
3 2 5 7 8 6 4 1
_
= (1 3 5 8)(4 7) (2)
..
id
(6)
..
id
= (1 3 5 8)(4 7) = (4 7)(1 3 5 8)
Exemple de produit
= (1 3 5 8)(4 7)
= (2 3 5)(4 8 6)
= (3 8 6 7 4 1)(2 5) = (2 5)(4 1 3 8 6 7)
Remarque
S
n
nest pas abelien
(1 2 3)(2 3) = (1 2) = (2 3)(1 2 3) = (1 3)
Denition 1.2.9 Un 2-cycle sappelle une transposition
Theor`eme 1.2.3 Toute permutation peut se decomposer (de plusieurs mani`eres)
comme un produit de transpositions (non-disjointes en general)
Preuve
Il sut de decomposer un cycle en produit de transpositions comme ceci :
(1 2 3 . . . k 1 k) = (1 2)(2 3)(3 4) . . . (k 2 k 1)(k 1 k)
Theor`eme 1.2.4 Theor`eme de parite
Soit S
n
. Dans toutes les decmpositions possibles de en produit de trans-
positions, le nombre de transpositions a la meme parite (soit toujours pair, soit
toujours impair)
Pas de preuve mais un exemple
= (1 3 5 8)(4 7)
= (1 3)(3 5)(5 8)(4 7) 4 transpositions
= (4 6)(1 3)(3 5)(4 6)(5 8)(4 7) 6 transpositions
= (2 7)(3 5)(5 8)(8 1)(2 7)(4 7) 6 transpositions
toujours dierent du produit dun nombre impair de transpositions
Denition 1.2.10 Soit S
n
, on dit que est paire/impaire si est un
produit dun nombre pair/impair de transposition(s)
R`egles
1. Toute transposition est impaire
c Alexis Barri`ere, 2005
1.3. ANNEAUX ET CORPS 13
2. Un k-cycle est pair si k est impair
Un k-cycle est impair si k est pair
(1 2 . . . k) = (1 2)(2 3) . . . (k 1 k)
. .
k-1 transpositions
Denition 1.2.11 La signature dune permutation vaut 1
Cest 1 si est paire
Cest -1 si est impaire
Notation
() = signature de = 1
Proprietes 1.2.4 () = ()()
Preuve
() = (1)
n
si est un produit de n transpositions
() = (1)
m
si est un produit de m transpositions
Alors est un produit de n +m transpositions
() = (1)
n+m
= (1)
n
.(1)
m
= ().()
Corollaire
: S
n
{1, 1}
()
est un homomorphisme de groupes
Remarque
Ker() = { S
n
/() = 1}
= {permutations paires}
Cest un sous-groupe de S
n
, note A
n
, appele le groupe alterne. Il a
n!
2
elements
1.3 Anneaux et corps
Denition 1.3.1 Un anneau est un ensemble A muni de deux lois de compo-
sition, notes + et . , satisfaisant les axiomes suivants :
1. (A,+) est un groupe abelien (donc avec un element neutre 0)
2. La loi de composition . est associative :
a.(b.c) = (a.b).c a, b, c A
3. La loi . possede un element neutre note 1 ou 1
A
c Alexis Barri`ere, 2005
14 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
4. La loi . est distributive (des deux cotes) par rapport `a la loi + , cest `a
dire :
a.(b +c) = a.b + a.c a, b, c A
(b +c).a = b.a + c.a a, b, c A
Denition 1.3.2 Si, de plus, la loi . est commutative, on dit que A est un
anneau commutatif
Exemples
1. (Z, +, .) est un anneau commutatif
2. (Q, +, .) et (R, +, .) sont des anneaux commutatifs
3. {
n
m
Q / n, m Z, n pair} est un anneau
4. Lensemble de toutes les matrices carrees est un anneau non-commutatif
Proprietes 1.3.1 Soit A un anneau
1. a A, 0.a = 0, a.0 = 0
2. a.(b) = ab, (a).b = ab a, b A
Preuve
1. 0 + 0.a = 0.a = (0 + 0).a
distri.
= 0.a + 0.a
Donc 0 + 0.a = 0.a + 0.a
On ajoute loppose de 0.a et on obtient 0 = 0.a
2. 0
1
= a.0 = a.(b + (b))
distri.
= a.b +a.(b)
Donc a.(b) est loppose de a.b, cest-`a-dire a(b) = ab
Remarques
1. Les elements dun anneau ne sont pas necessairement inversibles (pour la
multiplication)
Par exemple dans (Z, +, .) les seuls elements inversibles sont 1 et -1
2. Si lanneau A nest pas reduit `a {0} alors 0 = 1 (sinon a = a.1 = a.0 =
0 a A)
Denition 1.3.3 Un corps (K, +, .) est un anneau avec de plus :
1. K nest pas reduit `a 0, K = {0} (cest `a dire 0 = 1, cf remarque 2
ci-dessus)
2. Tout element dierent de 0 est inversible :
a K{0}, a
1
K{0} tel que a.a
1
= a
1
.a = 1
K
3. K est commutatif
Consequences
Si (K, +, .) est un corps alors :
(K, +) est un groupe abelien (avec element neutre 0)
(K{0}, .) est un groupe abelien (avec element neutre 1)
c Alexis Barri`ere, 2005
1.4. LES NOMBRES COMPLEXES 15
Notation
K

=K{0}
Exemples
1. (Q, +, .) est un corps, (
n
m
)
1
=
m
n
2. (R, +, .) est un corps
3. Z/
n
Z= {[0],[1],[2],. . .,[n-2],[n-1]}
[n] = [0] = [2n] = [3n]
[n + 1] = [1] = [2n + 1] = [3n + 1]
On a 2 lois sur Z/
n
Z :
[k] + [l] = [k +l]
[k].[l] = [k.l]
(Z/
n
Z, +, .) est un anneau (sans dem.)
4. Cas particulier dun nombre premier p. Dans ce cas on note F
p
=Z/
p
Z
Si p est premier, F est un corps (sans dem.)
p=2 : F
2
={[0],[1]}
[0] = [2] = [4] = [6] = . . .
[1] = [3] = [5] = [7] = . . .
[1] + [1] = [0] La base de linformatique
p=3 F
3
= {[0], [1], [2]}
[1] + [2] = [0]
[2] + [2] = [1]
[2]
1
= [2] car [2].[2] = [1]
p=7 F
7
= {[0], [1], [2], . . . , [6]}
[3]
1
= [5], etc
Denition 1.3.4 Un homomorphisme danneaux, dun anneau (A, +, .) vers
un anneau (B, +, .) est une application f : A B telle que :
1. f(x +y) = f(x) +f(y), x, y A
2. f(x.y) = f(x).f(y), x, y A
3. f(1
A
) = 1
B
1.4 Les nombres complexes
On veut donner un sens `a

1.
On introduit un symbole i (qui sera lune des deux racines de 1) et on consid`ere
toutes les expressions x +yi avec x, y R
Cela denit lensemble des nombres complexes
C = {x +yi / x, y R}
On denit des lois + et . sur C :
Addition : (x +yi) + (u +vi) = (x +u) + (y +v)i
Multiplication : (x +yi).(u +vi) = (xu yv) + (xv +yu)i
c Alexis Barri`ere, 2005
16 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
Denition 1.4.1 Si x +yi est un C, x sappelle la partie reelle et yi sappelle
la partie imaginaire
Remarques
i = 0 + 1.i
i.i = (0.0 1.1) +(0.1 +1.0)i = 1 Donc on a bien unnombre i qui est

1
Theor`eme 1.4.1 C est un corps
Preuve
(C, +) est un groupe abelien : facile (ex. :(x +yi) = x + (y)i)
associativite de la multiplication?
z
1
= r +si, z
2
= u +vi, z
3
= x +yi
(z
1
.z
2
).z
3
= z
1
.(z
2
.z
3
)
[(r +si).(u +vi)].(x +yi) = (r +si).[(u +vi).(x +yi)]
[(ru sv) + (rv +su)i].(x +yi) = (r +si).[(ux vy).(uy +vx)i]
[(ru sv)x (rv +su)y]+ = [r(ux vy) s(uy +vx)] +
[(ru sv)y + (rv +su)x]i [r(uy +vx) +s(ux vy)]i
(rux svx rvy suy)+ = (rux svx rvy suy) +
(ruy svy +rvx +sux)i (ruy svy +rvx +sux)i
Donc (z
1
.z
2
).z
3
= z
1
.(z
2
.z
3
)
commutativite : z
1
.z
2
= z
2
.z
1
facile
distributivite z
1
.(z
2
+z
3
) = z
1
.z
2
+ z
1
.z
3
calcul `a faire
element neutre
1
C
= 1 + 0.i
(1 + 0.i)(x +yi) = (1x 0.y) + (1y + 0.x)i = x +yi
inverse z = x +yi = 0 (xouy = 0)(x
2
+y
2
= 0)
On pose z
1
=
x
x
2
+y
2

y
x
2
+y
2
i
et on verie que z

est bien l inverse de z :


z.z

= (x +yi).
_
x
x
2
+y
2

y
x
2
+y
2
i
_
=
_
x
2
x
2
+y
2

y.(y)
x
2
+y
2
_
+
_
x.(y)
x
2
+y
2

yx
x
2
+y
2
_
i
=
x
2
+y
2
x
2
+y
2
+ 0.i
= 1
C
Remarque
R C car x R, alors x + 0.i C
N Z Q R C
c Alexis Barri`ere, 2005
1.4. LES NOMBRES COMPLEXES 17
Denition 1.4.2 Le conjugue complexe dun nombre complexe z = x + yi est
le nombre complexe z deni par z = x yi.
Geom`etriquement z est le symetrique de z par rapport `a Ox.
Proprietes 1.4.1 Proprietes du conjugue
1. z
1
+z
2
= z
1
+z
2
z
1
, z
2
C
2. z
1
.z
2
= z
1
.z
2
z
1
, z
2
C
3. z = z z
1
, z
2
C
4. z = z z R
5. z = z z R
i
(nombres imaginaires purs)(R.i axe imaginaire)
6. Si z = x +yi, z
1
=
z
x
2
+y
2
7. Si z = x +yi, zz = x
2
+y
2
R
Preuve
1. trivial
2. z
1
= u +vi z
2
= x +yi
z
1
.z
2
= (u +vi).(x +yi)
= (ux vy) + (uy +vx)i
= (ux vy) (uy +vx)i
= (ux vy) + (uy vx)i
z
1
.z
2
= (u +vi).(x +yi)
= (u vi).(x yi)
= (ux (v)(y)) + (u(y) + (v)x)i
= (ux vy) + (uy vx)i
3. trivial
4. trivial
5. trivial
6. z
1
=
x
x
2
+y
2
+
y
x
2
+y
2
=
xyi
x
2
+y
2
=
z
x
2
+y
2
7. zz = (x +yi)(x yi) = x
2
(yi)
2
= x
2
+y
2
R
Remarque
C C
z z
est un homomorphisme danneaux (Proprietes 1. et 2.)
Calcul de fractions dans C
Pour calculer
x+yi
u+vi
(cest `a dire (x + yi).(u + vi)
1
), on peut soit utiliser la
denition de linverse, soit utiliser la methode suivante :
On amplie la fraction par le conjugue du denominateur, puis on calcule le
numerateur obtenu. Lavantage est que le denominateur devient reel.
c Alexis Barri`ere, 2005
18 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
Exemple
3 + 5i
2 3i
=
(3 + 5i)(2 + 3i)
4 + 9
=
9 + 19i
13
=
9
13
+
19
13
i
Denition 1.4.3 Le module dun nombre complexe z = x + yi est le nombre
reel positif |z| deni par :
|z| =
_
x
2
+y
2
|z| est la distance de z `a O.
Remarque
Si x R, |x|
..
module
=

x
2
+ 0
2
= |x|
..
valeur absolue de x
Proprietes 1.4.2 Proprietes du module
1. zz = |z|
2
z C
2. |z
1
.z
2
| = |z
1
|.|z
2
| z
1
, z
2
C
3. |z
1
+z
2
| |z
1
| +|z
2
| z
1
, z
2
C
4. z
1
=
z
|z|
2 en particulier si |z|=1 (cest `a dire z cercle unite), alors
z
1
= z
Preuve
1. |z|
2
= x
2
+y
2
= zz (si z = x +yi)
2. |z
1
.z
2
|
2
= (z
1
.z
2
).(z
1
.z
2
) = z
1
.z
2
.z
1
.z
2
= (z
1
.z
1
)(z
2
.z
2
) = |z
1
|
2
.|z
2
|
2
On prend la racine dans R
+
3. Geometriquement clair, addition vectorielle et inegalite du triangle
4. z
1
=
z
x
2
+y
2
=
z
|z|
2
Denition 1.4.4 Largument dun nombre complexe z non-nul est langle entre
la demi-droite de laxe reel positif et la demi droite issue de O passant par z
Largument se note Arg(z) et il est deni `a addition pr`es dun multiple entier
de 2
Arg(z) = +k.2 (k Z)
On prend souvent largument entre et
Si z = x +yi avec x > 0, Arg(z) = arctg(
y
x
) +k.2
Cercle unite
{z C/ |z| = 1}
z = cos +i.sin
si |z| = 1 o` u = Arg(z)
Expression trigonometrique dun nombre complexe non-nul
c Alexis Barri`ere, 2005
1.4. LES NOMBRES COMPLEXES 19
z = |z|.(cos +i.sin) |z| = module de z
= arg(z)
Preuve
z = 0
On pose w =
z
|z|
On a alors |w| = 1
car |w| =

z
|z|

=
1
|z|
.|z| = 1
(car |z| = |z| si R
+
ici on prend =
1
|z|
Donc w = cos +i.sin o` u = Arg(w) = Arg(z)
Il sensuit que z = |z|.w = |z|.(cos +i.sin)
Proprietes 1.4.3
Arg(z
1
.z
2
) = Arg(z
1
) +Arg(z
2
)
Preuve
z
1
= |z
1
|(cos
1
+i.sin
1
)
1
= Arg(z
1
)
z
2
= |z
2
|(cos
2
+i.sin
2
)
2
= Arg(z
2
)
z
1
.z
2
= |z
1
|.|z
2
|
. .
|z
1
.z
2
|
(cos
1
+i.sin
1
)(cos
2
+i.sin
2
)
= |z
1
.z
2
| (cos
1
.cos
2
sin
1
.sin
2
)
. .
cos(
1
+
2
)
+i. (cos
1
.sin
2
+sin
1
.cos
2
)
. .
sin(
1
+
2
)
= |z
1
.z
2
|.(cos(
1
+
2
) +i.sin(
1
+
2
))
Forme trigonometrique de z
1
.z
2
. Donc
1
+
2
doit etre largument de z
1
.z
2
Multiplication par cos +i.sin
Cest faire une rotation dangle
z(cos +i.sin) = |z|(cos( +
1
) +i.sin( +
1
))
On voit que z a subi une rotation dangle
Cas particlier : =

2
cos

2
+i.sin

2
= i
On tourne dun quart de tour
Racines n-i`emes de nombres complexes
z = |z|(cos +i.sin)
w =
n
_
|z|(cos +i.sin) o` u =

n
+
k
n
.2
Ce qui donne n valeurs pour

1
=

n
+m.2

2
=

n
+
1
n
.2 +m.2
c Alexis Barri`ere, 2005
20 CHAPITRE 1. PR

EALABLES DALG
`
EBRE

3
=

n
+
2
n
.2 +m.2
.
.
.

n
=

n
+
n 1
n
.2 +m.2
Preuve
w =
n
_
|z|(cos +i.sin) o` u =

n
+
k
n
.2
On veut montrer que w
n
= z
|w
n
| = |w|.|w|.|w|. . . . .|w| = |w|
n
= (
n
_
|z|)
n
= |z|
Arg(w
n
) = Arg(w) + . . . + Arg(w) = n.Arg(w) = n.(

n
+
k
n
.2) = + k.2 =
Arg(z)
Donc w
n
et z ont meme module et meme argument
ils sont egaux : w
n
= z
Formule de Moivre
(cos +i.sin)
n
= cos(n) +i.sin(n)
Preuve
Les arguments sadditionnent n fois.
1.5 Polynomes
Soit K un corps
Denition 1.5.1 Un polynome `a coecients dans K est une expression for-
melle f(t) = a
n
.t
n
+ a
n1
.t
n1
+ . . . + a
1
.t + a
0
o` u t est une indeterminee, o` u
n est un entier positif et o` u a
0
, a
1
, . . . , a
n1
, a
n
K.
Les elements a
0
, a
1
, . . . , a
n1
, a
n
sappellent les coecients du polynome f(t).
Le degre dun polynome f(t) = a
n
.t
n
+ a
n1
.t
n1
+ . . . + a
1
.t + a
0
est le plus
grand entier r tel que le coecient a
r
est non-nul. Si tous les coecients sont
nuls, on decr`ete que le degre vaut .
Exemple
f(t) = 0.t
4
+ 3.t
3
+ (2).t
2
+ 0.t + 7 est un polynome de degre 3 `a coecients
dans R
Si le degre def(t) vaut r (avec r 0) alors le coecient a
r
sappelle le coeent dominant.
Si le coecient dominant vaut 1, on dit que le polynome est unitaire.
Deux polynomes f(t) = a
n
.t
n
+ a
n1
.t
n1
+ . . . + a
1
.t + a
0
et g(t) = b
m
.t
m
+
b
m1
.t
m1
+. . . +b
1
.t +b
0
sont consideres comme egaux si leur coecients sont
les memes :
a
0
= b
0
, a
1
= b
1
, . . . , a
k
= b
k
pour tout k, avec la convention que a
k
= 0 si k > n
b
k
= 0 si k > m
Addition
f(t) = a
n
.t
n
+a
n1
.t
n1
+. . . +a
1
.t +a
0
g(t) = b
n
.t
n
+b
n1
.t
n1
+. . . +b
1
.t +b
0
c Alexis Barri`ere, 2005
1.5. POLYN

OMES 21
On peut ecrire f(t) et g(t) avec les memes puissances de t jusqu`a t
n
quitte `a
introduire des coecients 0.
Laddition est denie par :
f(t) +g(t) = (a
n
+b
n
).t
n
+ (a
n1
+b
n1
).t
n1
+. . . + (a
1
+b
1
).t + (a
0
+b
0
)
Multiplication
On veut que t.t.t. . . . .t
. .
k fois
= t
k
, t
k
+ t
l
= t
k+l
, et que la multiplication soit distri-
butive par rapport `a laddition. Cela force la denition suivante :
f(t) = a
n
.t
n
+a
n1
.t
n1
+. . . +a
1
.t +a
0
g(t) = b
m
.t
m
+b
m1
.t
m1
+. . . +b
1
.t +b
0
f(t).g(t) = a
n
.b
m
.t
n+m
+ (a
n
.b
m1
+a
n1
.b
m
).t
n+(m1)
+. . . +
(a
k
.b
0
+a
k1
.b
1
+. . . +a
1
.b
k1
+a
0
.b
k
).t
k
+. . . +
(a
0
.b
1
+a
1
.b
0
).t +a
0
.b
0
f(t).g(t) = c
n+m
.t
n+m
+c
n+m1
.t
n+(m1)
+. . . +c
1
.t +c
0
avec c
k
= a
0
.b
k
+a
1
.b
k1
+. . . +a
k1
.b
1
+a
k
.b
0
c
n+m
= a
n
.b
n+m
. .
0
+. . . +a
n
.b
m
+. . . +a
n+m
.b
0
. .
0
= a
n
.b
m
Notation
Lensemble de tous les polynomes `a coecients dans K se note K[t]
Proposition
(K[t], +, .) est un anneau commutatif
Preuve
Exercice : 1
K[t]
= 1
K
(polynomes de degre 0 ou constant)
Proprietes 1.5.1 deg(f(t).g(t)) = deg(f(t)) +deg(g(t))
Evaluation des polynomes
Soit f(t) = a
n
.t
n
+a
n1
.t
n1
+. . . +a
1
.t +a
0
K[t]
et soit c K
Levaluation de f(t) en c, notee f(c), est lelement de K suivant :
f(c) = a
n
.c
n
+a
n1
.c
n1
+. . . +a
1
.c +a
0
K
Plus generalement, si K est un sous-anneau dun anneau A et si d A, on
peut aussi evaluer en d : f(d) = a
n
.d
n
+a
n1
.d
n1
+. . . +a
1
.d +a
0
A
Exemples
K = R et A=C
f(t) = t
2
+ 2 R[t]
c Alexis Barri`ere, 2005
22 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
f(i) = i
2
+ 2 = 1 + 2 = 1 C
f(i + 1) = (i + 1)
2
+ 2 = 2i + 2 C
Denition 1.5.2 Un element c K (ou appartenant `a un corps L contenant
K) sappelle une racine de f(t).
Division euclidienne
Soit f(t), g(t) K[t] avec g(t) = 0
Alors il existe deux polynomes uniques q(t) et r(t) tels que : f(t) = q(t).g(t) +r(t)
deg(r(t)) < deg(g(t))
Pas de preuve mais un exemple
f(t) = 3t
3
+ 2t
2
t + 7
g(t) = t
2
+ 1
3t
3
+ 2t
2
t + 7

t
2
+ 1
3t
3
+ 0t
2
+ 3t

3t + 2
. .
q(t)
2t
2
4t + 7
2t
2
+ 0t + 2

4t + 5 r(t)
Cas particulier
g(t) = t c
f(t) = q(t).(t c) +f(c)
Le reste vaut levaluation f(c)
Preuve
f(t) = q(t).(t c) + r(t)
..
`a trouver
deg(r(t)) < 1 = deg(t c)
Donc r(t) = r
0
K
On evalue en c : f(c) = q(c)(c c)
. .
0
+r
0
= r
0
Donc r(t) = r
0
= f(c)
Corollaire
f(t) K[t]
c K
c est une racine de f(t) si et seulement si f(t) est divisible (sans reste) par t c
(cest-`a-dire f(t) = q(t).(t c))
c Alexis Barri`ere, 2005
1.5. POLYN

OMES 23
Denition 1.5.3 Soit f(t) et g(t) K[t], g(t) = 0
On dit que =
_
_
_
g(t) divise f(t)
f(t) est divisible par g(t)
f(t) est un multiple de g(t)
si le reste de la division de f(t) par g(t) est nul : f(t) = q(t).g(t)
Remarques
1. Tout polynome f(t) est toujours divisible par c K, c = 0 (polynome de
degre 0)
2. Tout polynome non-nul f(t) est toujours divisible par (lui-meme) c.f(t),
avec c non-nul. f(t) = c
1
..
q(t)
(c.f(t)) (c
1
K)
Denition 1.5.4 Un polynome f(t) est dit irreductible si :
1. deg(f(t)) 1
2. Les seuls diviseurs de f(t) sont les polynomes : c K de degre 0 (donc
c = 0) et c.f(t) de degre egal `a deg(f(t)), avec c = 0
La condition 2. peut secrire autrement :
Si f(t) = g(t).h(t), alors les seules possiblites sont : deg(g(t)) = 0 et deg(h(t)) =
deg(f(t)), ou deg(g(t)) = deg(f(t)) et deg(h(t)) = 0
Exemples
1. Tout polynome de degre 1 est irreductible
2. t
2
+ 1 R[t] est irreductible dans R[t]
3. t
2
+ 1 C[t] est reductible (t
2
+ 1 = (t +i)(t i))
4. Dans R[t]
at
2
+bt +c b
2
4.a.c < 0 irreductible
b
2
4.a.c 0 reductible
5. p premier : 1 + t + t
2
+ . . . + t
p1
Q[t] est irreductible dans Q[t] (sans
demo.)
Theor`eme 1.5.1 Tout polynome f(t) K[t] de degre 1 peut secrire de
mani`ere unique :
f(t) = a.g
1
(t).g
2
(t). . . . .g
r
(t) o` u a K

et o` u chaque g
i
(t) est un polynome irreductible unitaire.
Exemple
2t
2
+ 2 = 2
..
coe. dom.
. (t i).(t +i)
. .
irreductibles et unitaires
C[t]
Denition 1.5.5 Dans le theor`eme, les polynomes g
i
(t) sappellent les facteurs irreductibles
de f(t)
c Alexis Barri`ere, 2005
24 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
Denition 1.5.6 On dit quun polynome f(t) de degre 1 est scinde si tous
les facteurs irreductibles sont de degre 1. Dans ce cas, f(t) secrit :
f(t) = a
..
coef. dom.
.(t c
1
).(t c
2
). . . . .(t c
r
),
o` u c
1
, . . . , c
r
sont les racines de f(t) dans K
Si on regroupe toutes les racines qui sont egales entre elles, on obtient une
expression :
f(t) = a.(t c
1
)
m
1
.(t c
2
)
m
2
. . . . .(t c
k
)
m
k
o` u c
1
, c
2
, . . . , c
k
sont les racines distinctes de f(t) et o` u m
1
, m
2
, . . . , m
k
N

.
Lentier m
i
sappelle la multiplicite de la racine c
i
(1 i k).
Si m
i
2, on dit que la racine c
i
est une racine multiple
Theor`eme 1.5.2 Theor`eme fondamental de lalg`ebre (Theor`eme de dAlembert-
Gauss)
Pour le corps C, tout polynome `a coecients dans C est scinde (en dautres
termes, produit de facteurs du premier degre). De mani`ere equivalente, tout
polynome irreductible `a coecients dans C est de degre 1. (sans demonstration)
Consequence
Tout polynome `a coecients dans Q ou dans R, nest en general pas scinde,
mais le devient lorsquon le consid`ere `a coecients complexes.
Theor`eme 1.5.3 Theor`eme de rupture dun polynome
Pour tout polynome f(t) K[t] (o` u K est un corps arbitraire), il existe un corps
L contenant K comme sous-corps, dans lequel le polynome devient scinde
Exemple
f(t) = t
4
+t
3
+t
2
+t + 1 Q[t]
irreductible dans Q[t]
dans R[t], f(t) est reductible :
f(t) =
_
t
2
+
1 +

5
2
.t +1
_
.
_
t
2
+
1

5
2
.t +1
_
: facteurs irreductibles
dans C[t], f(t) devient scinde :
f(t) = (t c
1
).(t c
2
).(t c
3
).(t c
4
)
4 racines :
1

5
4
i.
_
10 2

5
4
Denition 1.5.7 Soit f(t), g(t) K[t], de degre 1
Le plus grand commun diviseur (pgcd) de f(t) et g(t) est un polynome h(t) tel
que :
1. h(t) divise f(t)
h(t) divise g(t)
2. Si k(t) divise f(t) et g(t), alors k(t) divise h(t)
3. h(t) est unitaire
c Alexis Barri`ere, 2005
1.5. POLYN

OMES 25
Proposition
Le plus grand commun diviseur existe et est unique
Lien avec la decomposition en facteurs irreductibles
On consid`ere chaque facteur irreductible s(t) commun `a f(t) et g(t) et on
consid`ere le minimum m des deux multiplicites de s(t) dans f(t) et dans g(t)
respectivement. Alors s(t) apparat avec multiplicite m dans le pgcd de f(t) et
g(t)
Exemples
f(t) = (t 1).(t
2
+ 1)
7
.(t 7)
5
.(t
2
t + 1)
3
R[t]
g(t) = (t 3).(t
2
+ 1)
3
.(t 6).(t 7)
8
.(t
2
+ 2t + 1) R[t]
pgcd(f(t), g(t)) = (t
2
+ 1)
3
.(t 7)
5
Analogue aux decompositions dentiers en produit de facteurs premiers
Theor`eme 1.5.4 Theor`eme de Bezout
Soit f(t), g(t) K[t] de degr`e 1 alors il existe deux polynomes p(t) et q(t)
tels que :
pgcd(f(t), g(t)) = p(t).f(t) +q(t).g(t)
Analogue au theor`eme de Bezout pour les nomres entiers (Z)
Denition 1.5.8 On dit que deux polynomes f(t) et g(t) sont premiers entre eux
si leur pgcd vaut 1. Dans ce cas, par Bezout, il existe p(t) et q(t) tels que
p(t).f(t) +q(t).g(t) = 1
Proprietes 1.5.2 f(t) et g(t) sont premiers entre eux f(t) et g(t) nont
aucun facteur irreductible en commun.
c Alexis Barri`ere, 2005
26 CHAPITRE 1. PR

EALABLES DALG
`
EBRE
c Alexis Barri`ere, 2005
Chapitre 2
Espaces vectoriels
2.1 Espaces vectoriels
Denition 2.1.1 Soit K un corps. Un K-espace vectoriel est un ensemble V
muni de deux lois :
Une loi de composition interne :
V V V
(v, w) v +w
Une loi de composition externe :
K V V
(, v) .v
avec les axiomes suivants :
1. (V, +) est un groupe abelien
2. ( +

).v = .v +

.v ,

K, v V
3. (

).v = .(

.v) ,

K, v V
4. .(v +w) = .v +.w K, v, w V
5. 1
K
.v = v v V
Les elements de V sappellent (generalement) des vecteurs.
Les elements de K sappellent (presque toujours) des scalaires.
La loi externe sappelle la multiplication scalaire.
Exemples
1. R
2
est un R-espace vectoriel
v = (x, y), w = (u, t)
v +w = (x +u, y +t) et .v = (.x, .y)
2. R
3
est un R-espace vectoriel
3. R
n
est un R-espace vectoriel
v = (x
1
, x
2
, . . . , x
n
), w = (x

1
, x

2
, . . . , x

n
)
v +w = (x
1
+x

1
, . . . , x
n
+x

n
) et .v = (.x
1
, . . . , .x
n
)
4. K
n
est un K-espace vectoriel (comme dans lexemple 3 mais avec K)
27
28 CHAPITRE 2. ESPACES VECTORIELS
5. K[t] est un K-espace vectoriel
(multiplication scalaire : (a
n
.t
n
+a
n1
.t
n1
+. . . +a
1
.t +a
0
) = .a
n
.t
n
+
.a
n1
.t
n1
+. . . +.a
1
.t +.a
0
6. F(R, R) ={fonctions de R dans R}
Cest un R-espace vectoriel.
f, g F(R, R)
(f +g)(x) := f(x) +g(x)
(.f)(x) = .f(x)
7. Matrices
Soit K un corps
Une matrice p n (o` u p, n N

) `a coecients dans K est un tableau `a p


lignes et n colonnes, constitue delements dans K. On ecrit une matrice :
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
. . . a
pn
_
_
_
_
_
a
ij
est le coecient `a la place (i, j) (i
`eme
ligne, j
`eme
colonne) o` u a
ij

K(i, j)
Notation Si A est une matrice p n, son coecient `a la place (i, j) se
note A
ij
:
A =
_
_
_
_
_
A
11
A
12
. . . A
1n
A
21
A
22
. . . A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
p1
A
p2
. . . A
pn
_
_
_
_
_
On note M
pn
(K) lensemble de toutes les matrices p n `a coecients
dans K. Dans le cas o` u p = n (meme nombre de lignes que de colonnes),
on dit que la matrice est carree et lensemble des matrices carrees n n
se note plus simplement M
n
(K) au lieu de M
nn
(K)
V= M
pn
(K) est un K-espace vectoriel, pour les lois evidentes :

_
_
_
A
11
. . . A
1n
.
.
.
.
.
.
.
.
.
A
p1
. . . A
pn
_
_
_+
_
_
_
B
11
. . . B
1n
.
.
.
.
.
.
.
.
.
B
p1
. . . B
pn
_
_
_ =
_
_
_
A
11
+B
11
. . . A
1n
+B
1n
.
.
.
.
.
.
.
.
.
A
p1
+B
p1
. . . A
pn
+B
pn
_
_
_
en dautres termes :
(A+B)
ij
:= A
ij
+B
ij
K, A M
pn
(K) : (.A)
ij
= .A
ij
Proprietes 2.1.1 Pout tout v V et K
a) 0
..
K
..
scalaire
.v = 0
..
V
..
vecteur
b) . 0
..
V
= 0
..
V
c Alexis Barri`ere, 2005
2.2. SOUS-ESPACES VECTORIELS 29
c) Si .v = 0, alors = 0 ou v = 0
d) ().v = (.v) et .(v) = (.v)
Preuve
a) 0.v + 0.v
axiome
= (0 + 0).v = 0.v
On simplie (possible dans un groupe abelien)
0.v + 0.v 0.v = 0.v 0.v
0.v = 0
b) Analogue en considerant .0 +.0
c) .v = 0. Si = 0, on a ni.
Sinon = 0, et donc
1
K. On multiplie par
1
:

1
.(.v) =
1
.0
. .
0 par b)
(
1
.)
. .
.v = 0
1
K
.v = 0
cest `a dire v = 0
d) ( + ()).v
. .
.v+(.v)
= 0.v = 0
Donc .v est loppose de .v
Cest `a dire ().v = (.v)
La preuve de .(v) = (.v) est analogue en considerant .(v + (v))
Denition 2.1.2 Combinaisons lineaires
1. Soit V un K-espace vectoriel. Une combinaison lineaire de deux vecteurs
v et w V est un vecteur de la forme .v +.w, o` u , K
2. Plus generalement, si v
1
, . . . , v
n
V, une combinaison lineaire de v
1
, . . . , v
n
est un vecteur de la forme :

1
.v
1
+. . . +
n
.v
n
, note aussi
n

i=1

i
.v
i
2.2 Sous-espaces vectoriels
Denition 2.2.1 Soit V un K-espace vectoriel. Une partie W de V sappelle
un K-sous-espace vectoriel, ou plus simplement un sous-espace vectoriel, ou plus
simplement un sous-espace, si la restriction des deux lois (externe et interne) `a
W fait de W un K-espace vectoriel.
Ceci sous-entend que W est stable par les deux lois, cest `a dire :
a) Si w
1
, w
2
W alors w
1
+w
2
W
b) Si w W et si K, alors .w W
Grace `a a) et b), les lois :
WW W
(w
1
, w
2
) w
1
+w
2
KW W
(, w) .w
c Alexis Barri`ere, 2005
30 CHAPITRE 2. ESPACES VECTORIELS
prennent un sens
Crit`ere des sous-espaces
Pour quune partie W dun K-espace vectoriel V soit un sous-espace vecto-
riel, il sut (et il faut aussi) que W soit non-vide et stable par les deux lois
externe et interne.
Preuve
Comme W= , w W
Donc 0.w
..
0
W (par stabilite de la loi externe)
Si u W arbitraire, alors (1).u W (. . .)
Donc u W. Donc W est un sous-groupe par le crit`ere des sous-groupes.
On doit montrer que W verie tous les axiomes pour un K-espace vectoriel. Le
premier est demontre, les autres et labelianite de + sont evidents, car ce sont
les conditions valables pour tous les vecteurs de V, donc en particulier pour
ceux de W.
Autre condition
Les deux conditions de stabilite a) et b) sont equivalentes `a la condition sui-
vante :
c) ,

K, w, w

W
alors la combinaison lineaire correspondante .w +.w

W
Preuve
a) et b) c)
.w W

.w

W
_
par b) .w +

.w

W par a)
c) a) et b)
Pour a) prendre =

= 1
Pour b) prendre

= 0
Exemples
1. V= R
2
W
1
= {(x, 0) R
2
/ x R}
W
2
= {(x, 2x) R
2
/ x R}
Verication de crit`ere : facile
2. V= R
3
U
1
= {(x, y, 0) R
3
/ x, y R}
U
2
= plan passant par 0
U
3
= droite passant par 0 = {.(x
0
, y
0
, z
0
) / R}
3. {0} est toujours un sous-espace de V
V est toujours un sous-espace de V
4. V= K[t]
W= {polynomes en t
2
}
c Alexis Barri`ere, 2005
2.3. OP

ERATIONS SUR LES SOUS-ESPACES 31


W= {a
2n
.t
2n
+a
2n1
.t
2n1
+. . . +a
2
.t
2
+a
0
/ a
0
, . . . , a
2n
R}
W est un sous-espace de = K[t]
5. V= F(R, R) fonctions de R dans R
W= C(R, R) fonctions continues de R dans R
U= C
1
(R, R) fonctions derivables de R dans R
U et W sont des sous-espaces de F(R, R)
6. Si V est un K-espace vectoriel et si on se xe r vecteurs v
1
, . . . , v
r
, alors
on denit V ect(v
1
, . . . , v
r
) = {combinaisons lineaires de v
1
, . . . , v
r
}
V ect(v
1
, . . . , v
r
) =
_
r

i=1

i
.v
i
/
i
K, i = 1, . . . , r
_
Cest un sous-espace de de V.
Stabilite de + :
_
r

i=1

i
.v
i
_
+
_
r

i=1

i
.v
i
_
=
r

i=1
(
i
+
i
).v
i

Stabilite de . : .
_
r

i=1

i
.v
i
_
=
r

i=1
.
i
.v
i
K

Il sappelle le sous-espace engendre par v
1
, . . . , v
r
Cas particulier : V= R
3
v
1
, v
2
R
3
avec v
1
= 0 et v
2
= 0
V ect(v
1
, v
2
) = {
1
.v
1
+
2
.v
2
/
1
,
2
R} = plancontenant v
1
et v
2
7. Syst`emes lineaires homog`enes
V= R
5
_
3.x
1
+ 7.x
2
x
3
+ x
5
= 0
8.x
1
+ x
2
81.x
4
x
5
= 0
Lensemble de toutes les solutions de ce syst`eme dequations est un sous-
espace de R
5
Stabilite de + et de . : exercice facile
Plus generalement : p equations lineaires homog`enes `a n inconnues x
1
, x
2
, . . . , x
n
`a coecients dans un corps K. Lensemble de toutes les solutions est un
K-sous-espace vectoriel de K
n
(preuve facile comme dans le cas particulier)
Exemple : V= R
3
W= {(x, y, z) R
3
/ (3.x 8.y + 14.z = 0}
W= plan dans R
3
passant par 0
2.3 Operations sur les sous-espaces
Soit V un K-espace vectoriel et soit u, w deux sous-espaces de V
1)Intersection : UW= {v V/ v U et v W}
Alors UW est un sous-espace.
Preuve : v
1
, v
2
UW
v
1
, v
2
U
c)

1
.v
1
+
2
.v
2
U
v
1
, v
2
W
c)

1
.v
1
+
2
.v
2
W

1
.v
1
+
2
.v
2
UW
c Alexis Barri`ere, 2005
32 CHAPITRE 2. ESPACES VECTORIELS
2)Somme : U+W= {u +w V/ u U et w W}
Cest un sous-espace
Preuve : u
1
+w
1
, u
2
+w
2
U+W

1
(u
1
+w
1
) +
2
(u
2
+w
2
)
(
1
.u
1
+
2
.u
2
)
. .
U
+(
1
.w
1
+
2
.w
2
)
. .
W
U+W
Exemple
V= R
3
U= {.(x
1
, y
1
, z
1
) / R} (x
1
, y
1
, , z
1
) = (0, 0, 0)
W= {.(x
2
, y
2
, z
2
) / R} (x
2
, y
2
, , z
2
) = (0, 0, 0)
Droites disctinctes : (x
2
, y
2
, z
2
) / U
U+W= plan contenant les deux droites
U+W= V ect
_
(x
1
, y
1
, z
1
), (x
2
, y
2
, z
2
)
_
Denition 2.3.1 Soit U un sous-espace vectoriel dun K-espace vectoriel V.
On dit que U est la somme directe de deux sous-espaces W
1
et W
2
si :
1. U=W
1
+W
2
2. W
1
W
2
= {0}
Dans ce cas on ecrit : U=W
1
W
2
Exemples
1. V= R
3
U= {(x, y, 0) R
3
/ x, y R}
W
1
= V ect(1, 1, 0)
W
2
= V ect(0, 1, 0)
U=W
1
W
2
2. V= M
4
(K)
U =
_
_
_
_
_
a b c d
e f g h
0 0 0 0
0 0 0 0
_
_
_
_
_
a, b, c, d, e, f, g, h K
_
W
1
=
_
_
_
_
_
a b c 0
e f g 0
0 0 0 0
0 0 0 0
_
_
_
_
_
a, b, c, e, f, g K
_
W
2
=
_
_
_
_
_
0 0 0 d
0 0 0 h
0 0 0 0
0 0 0 0
_
_
_
_
_
d, h K
_
U=W
1
W
2
Denition 2.3.2 Soit U un sous-espace de V
1. On dit que U est la somme de r sous-espaces W
1
,W
2
, . . ., W
r
et on ecrit
dans ce cas U=W
1
+W
2
+. . .+W
r
si U est constitue de toutes les sommes
w
1
+. . . +w
r
avec w
1
W
1
, w
2
W
2
, . . ., w
r
W
r
.
Donc W
1
+W
2
+. . .+W
r
={w
1
+. . . +w
r
V/ w
i
W
i
, i = 1, . . . , r}
c Alexis Barri`ere, 2005
2.3. OP

ERATIONS SUR LES SOUS-ESPACES 33


2. On dit que U est la somme directe de r sous-espaces W
1
,W
2
, . . ., W
r
, et
on ecrit U=W
1
W
2
. . .W
r
si on a :
a) U=W
1
+W
2
+. . .+W
r
b) W
i

_
W
1
+. . .+W
i1
+W
i+1
+. . .+W
r
_
={0} i = 1, . . . , r
Exemples
1. V=M
4
(K)
U =
_
_
_
_
_
a b c d
e f g h
0 0 0 0
0 0 0 0
_
_
_
_
_
a, b, c, d, e, f, g, h K
_
W
1
=
_
_
_
_
_
a b c 0
0 0 0 0
0 0 0 0
0 0 0 0
_
_
_
_
_
a, b, c, K
_
W
2
=
_
_
_
_
_
0 0 0 0
e f g 0
0 0 0 0
0 0 0 0
_
_
_
_
_
e, f, g K
_
W
3
=
_
_
_
_
_
0 0 0 d
0 0 0 h
0 0 0 0
0 0 0 0
_
_
_
_
_
d, h K
_
W
1
(W
2
+W
3
) = {0}
W
2
(W
1
+W
3
) = {0}
W
3
(W
1
+W
2
) = {0}
Alors U = W
1
W
2
W
3
Attention : On ne peut pas remplacer b) par la condition plus simple
W
i
W
j
= {0} pour tout i = j
2. V=R
2
U=R
3
W
1
, W
2
, W
3
: 3 droites distinctes passant par 0.
W
1
(W
2
+W
3
) = W
1
= {0}
V=W
1
+W
2
+W
3
pas somme direct
Theor`eme 2.3.1 Soit U un sous-espace dun K-espace vectoriel V.
Soient W
1
,W
2
, . . ., W
r
des sous-espaces de U.
Alors U=W
1
W
2
. . .W
r
si et seulement si u U peut secrire de mani`ere
unique comme une somme u = w
1
+w
2
+. . . +w
r
avec w
i
W
i
, i = 1, . . . , r
Preuve
On suppose U=W
1
W
2
. . .W
r
et on demontre la condition. Le fait que
U=W
1
+W
2
+. . .+W
r
siginie que tout u Upeut secrire u = w
1
+w
2
+. . .+w
r
c Alexis Barri`ere, 2005
34 CHAPITRE 2. ESPACES VECTORIELS
avec w
i
W
i
, i = 1, . . . , r.
Le fait que la somme est directe va correspondre `a lunicite de telles ecritures.
En eet, on suppose :
u = w
1
+. . . +w
r
u = w

1
+. . . +w

r
_
avec w
i
, w

i
W
i
, i
On en deduit :
w
1
w

1
. .
W
1
= (w

2
w
2
)
. .
W
2
+(w

3
w
3
)
. .
W
3
+. . . + (w

r
w
r
)
. .
W
r
. .
W
2
+...+W
r
Donc on a (w
1
w

1
) W
1
(w
2
+. . . +w
r
) = {0} car la somme est directe.
Par consequent w
1
w

1
= 0, cest `a dire w
1
= w

1
. Le meme raisonnement
sapplique `a w
2
w

2
et `a w
3
w

3
, . . . Donc w
i
= w

i
, ce qui montre lunicite de
lecriture.
Reciproquement, supposons la condition satisfaite et montrons que U=W
1
W
2
. . .W
r
.
Le fait que tout u U secrit comme

r
i=1
w
i
siginie que U W
1
+. . . +W
r
et W
i
U w
1
+ . . . + w
r
U. Le fait que lecriture de chaque u est unique
va impliquer que la somme est directe.
En eet, soit v W
i
(W
1
+. . . +W
i1
+W
i+1
+. . . +W
r
)
On doit alors montrer que v = 0
v W
1
+. . . +W
i1
+W
i+1
+. . . +W
r
v = w
1
+. . . +w
i1
+w
i+1
+. . . +w
r
_
avec w
j
W
j
j
Donc on obtient :
v = 0 +. . . + 0 + v
..
w
i
+0 +. . . + 0
v = w
1
+. . . +w
i1
+ 0 +w
i+1
+. . . +w
r
deux expressions pour u comme somme dans W
1
, . . . , W
r
Par unicite de telles expressions, on en tire : w
1
= 0, . . . , w
i1
= 0, v = 0 ,
w
i+1
= 0, . . . , w
r
= 0
Denition 2.3.3 Soit K un corps.
Une K-alg`ebre est un ensemble A muni de 3 lois +, , . les deux premi`eres
internes et la troisi`eme externe :
KA A
(, a) a
satisfaisant les axiomes suivants :
1. (A, +, ) est un anneau
2. (A, +, .) est un K-espace vectoriel
3. .(a b) = (.a) b K, a, b A
.(a b) = a (.b) K, a, b A
Exemples
c Alexis Barri`ere, 2005
2.3. OP

ERATIONS SUR LES SOUS-ESPACES 35


1. K[t] est une K-alg`ebre
2. C est une R-alg`ebre
3. Plus generalement si A est un anneau contenant le corps K comme sous-
anneau, et si .a = a. K, a A, alors A est une K-alg`ebre
(dans laquelle . est egal `a )
4. K est une K-alg`ebre
Notations
1. Si V est un K-espace vectoriel, la multiplication scalaire sera notee sans
point
2. Si A est une K-alg`ebre, on utilise aucun point ni pour la multiplication
interne, ni pour la multiplication scalaire
c Alexis Barri`ere, 2005
36 CHAPITRE 2. ESPACES VECTORIELS
c Alexis Barri`ere, 2005
Chapitre 3
Bases et dimensions
3.1 Parties generatrices et parties libres
Denition 3.1.1 Soit V un K-espace vectoriel.
1. Soit v
1
, v
2
, . . . , v
r
V. On dit que v
1
, v
2
, . . . , v
r
engendrent V, ou que
la partie {v
1
, v
2
, . . . , v
r
} est une partie generatrice si :
V= V ect(v
1
, v
2
, . . . , v
r
)
ou en dautres termes si tout vecteur v V peut secrire comme une
combinaison lineaire de v
1
, v
2
, . . . , v
r
. On dit aussi que v
1
, v
2
, . . . , v
r
est
un syst`eme de geneateurs de V
2. Plus generalement, une partie X (non-necessairement nie) dans V est
une partie generatrice si tout vecteur v dans V peut secrire comme une
combinaison lineaire dun certain nombre (ni !) delements de X
Exemples
1. e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1) R
3
{e
1
, e
2
, e
3
} est une partie generatrice de R
3
v = (v
1
, v
2
, v
3
) R
3
v = v
1
e
1
+v
2
e
2
+v
3
e
3
2. v
1
= (1, 0, 1), v
2
= (0, 2, 7), v
3
= (1, 1, 1), v
4
= (1, 0, 1)
{v
1
, v
2
, v
3
, v
4
} est un syst`eme de generateurs de R
3
1
2
(v
1
+v
4
) = (0, 0, 1) = e
3
1
2
(v
2
7.e
3
) = (0, 1, 0) = e
2
v
3
e
2
e
3
= v
3

1
2
v
2
+
7
2
v
1
+
7
2
v
4

1
2
v
1

1
2
v
4
= (1, 0, 0) = e
1
En faisant des combinaisons lineaires de e
1
, e
2
, e
3
on peut obtenir tout
v R
3
, donc (combinaison lineaire de combinaisons lineaires !) on peut
ecrire tout v R
3
comme combinaison lineaire de v
1
, v
2
, v
3
, v
4
3. {1, t, t
2
, . . . , t
n
} nest pas un syst`eme de generateurs de K[t] car t
n+1
, t
n+2
ne sont pas obtenues par combinaisons lineaires
4. X={1, t, t
2
, . . . , t
n
, . . .} (partie innie) est un syst`eme generateurs de K[t]
37
38 CHAPITRE 3. BASES ET DIMENSIONS
Denition 3.1.2 1. Une partie {v
1
, . . . , v
r
} dun K-espace vectoriel V est
dite liee (ou lineairement dependante) sil existe des scalaires
1
, . . . ,
r

K non tous nuls tels que
1
v
1
+. . . +
r
v
r
= 0
2. Plus generalement, une partie X (non necessairement nie) de V est dite
liee (ou lineairement dependante) sil existe dans X un nombre ni de
vecteurs v
1
, v
2
, . . . , v
r
qui sont liees (au sens de la denition precedente)
Proposition
Soit v
1
, v
2
, . . . , v
r
V tous distincts
Alors {v
1
, v
2
, . . . , v
r
} est lie lun des v
i
est combinaison lineaire des autres.
Preuve
On suppose {v
1
, v
2
, . . . , v
r
} liee.
1
, . . . ,
r
K non tous nuls tels que

r
i=1

i
v
i
= 0.
Il y a au moins 1 des
i
, disons
j
, qui nest pas nul.
Alors
j
v
j
=
1
v
1
. . .
j1
v
j1

j+1
v
j+1
. . .
r
v
r
On multiplie par
1
j
(qui existe car
j
= 0) et on obtient v
j
comme combinai-
son lineaire des autres.
Reciproquement si v
j
est combinaison lineaire des autres :
v
j
=
1
v
1
+. . . +
j1
v
j1
+
j+1
v
j+1
+. . . +
r
v
r
0 =
1
v
1
+. . . +
j1
v
j1
+ (1)v
j

j+1
v
j+1
+. . . +
r
v
r
Donc {v
1
, v
2
, . . . , v
r
} est une partie liee
Denition 3.1.3 Une partie X de V est dite libre (ou lineairement independante)
si X nest pas liee
1
er
cas : X={v
1
, . . . , v
r
} partie nie
{v
1
, . . . , v
r
} est libre pour tous scalaires
1
, . . . ,
r
K tels que
1
v
1
+
. . . +
r
v
r
= 0 la seule possibilite est
1
= . . . =
r
= 0
2
`eme
cas : X (non necessairemetn nie)
X est libre toute partie nie de X est libre (au sens du premier cas)
Exemples
1. e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1) R
3
e
1
, e
2
, e
3
sont lineairement independants. En eet si
1
e
1
+
2
e
2
+
3
e
3
= 0
Alors (
1
,
2
,
3
) = 0 = (0, 0, 0)
Donc
1
=
2
=
3
= 0
2. v
1
= (1, 2, 1), v
2
= (0, 1, 3) R
3
{v
1
, v
2
} est libre. En eet si
1
v
1
+
2
v
2
= 0
Alors (
1
, 2
1
+
2
,
1
+ 3
2
) = 0
_
_
_

1
= 0
2
1
+
2
= 0

1
+ 3
2
= 0

_

1
= 0

2
= 0
3. V=K[t]
X={1, t, t
2
, . . .} est libre
c Alexis Barri`ere, 2005
3.2. BASES 39
En eet, considerons une partie nie : {t
i
1
+t
i
2
+. . . +t
i
r
} dans X

1
t
i
1
+
2
t
i
2
+. . . +
r
t
i
r
. .
polynome
= 0
Et donc par denition des polynomes tous les coecients doivent etre 0 :

1
= . . . =
r
= 0
4. V=F(R, R)
f
1
(x) = x
2
, f
2
(x) = sin(x), f
3
(x) = cos(x)
f
1
, f
2
, f
3
sont lineairement independantes
En eet si
1
f
1
+
2
f
2
+
3
f
3
= 0
Alors on evalue en certaines valeurs de x :
x = 0
1
0 +
2
0 +
3
1 = 0
3
= 0
Il ne reste plus que
1
f
1
+
2
f
2
= 0
x =
1
()
2
+
2
0 = 0
1
= 0
Il ne reste plus que
2
f
2
= 0
x =

2

2
1 = 0
1
= 0
3.2 Bases
Denition 3.2.1 Une partie X dun espace vectoriel V sappelle une base si X
est `a la fois libre et generatrice
Exemples
1. {e
1
, e
2
, e
3
} est une base de R
3
2. Plus generalement :
Dans le K-espace vectoriel K
n
, on denit n-vecteurs :
e
1
= (1, 0, . . . , 0)
e
2
= (0, 1, 0, . . . , 0)
e
3
= (0, 0, 1, 0, . . . , 0)
.
.
.
e
n
= (0, . . . , 0, 1)
{e
1
, e
2
, . . . , e
n
} forment une base de K
n
appelee la base canonique de K
n
libre :
1
e
1
+. . . +
n
e
n
= 0
(
1
,
2
, . . . ,
n
) = 0

1
=
2
= . . . =
n
= 0
generatrice : v = (a
1
, a
2
, . . . , a
n
) K
n
, on prend les scalaires a
1
, a
2
, . . . , a
n
et on obtient v = a
1
e
1
+a
2
e
2
+. . . +a
n
e
n
3. K[t] = {1, t, t
2
, . . .}
libre et generateur
Donc cest une base de K[t]
4. W={(x, y, z) R
3
/ x + 3y 7z = 0}
Il y a beaucoup de choix possibles pour une base de W, mais il ny a pas
de choix evidement unique (pas de base canonique).
On peut prendre par exemple (0, 7, 3) et (7, 0, 1) comme base de W ou
bien (3, 1, 0) et (0, 7, 3) ou encore (3, 0, 1) et (7, 0, 1)
c Alexis Barri`ere, 2005
40 CHAPITRE 3. BASES ET DIMENSIONS
Theor`eme 3.2.1 Une partie X dun K-espace vectoriel V est une base de V
si et seulement si tout vecteur v V secrit de mani`ere unique comme combi-
naison lineaire de vecteurs de X
Preuve (dans le cas o` u X est nie pour simplier)
X={f
1
, . . . , f
n
}
On suppose dabord que X est une base de V et on montre la condition de
lenonce.
Soit v V. Comme Xest generatrice, v peut secrire comme cominaison lineaire
de X. On doit montrer lunicite de lecriture.
v =
1
f
1
+. . . +
n
f
n
v =
1
f
1
+. . . +
n
f
n
A voir :
1
=
1
, . . . ,
n
=
n
On soustrait :
0 = (
1

1
)f
1
+. . . + (
n

n
)f
n
Comme X est libre, on doit avoir :

1
=
1
= 0, . . . ,
n
=
n
= 0
Donc
1
=
1
, . . . ,
n
=
n
Reciproquement, on suppose veriee la condition de lenonce et on montre que
X est une base generatrice car tout v secrit comme combinaison lineaire de X
par hypoth`ese.
Pour montrer que X est libre, on consid`ere une combinaison lineaire
1
f
1
+. . . +

n
f
n
= 0 et on doit montrer que
1
=
2
= . . . =
n
=0
On ecrit le vecteur nul de deux facons :
0 = 0f
1
+ 0f
2
+. . . + 0f
n
0 =
1
f
1
+
2
f
2
+. . . +
n
f
n
Par unicite de lecriture de 0 (hypoth`ese) on doit avoir :

1
= 0,
2
= 0, . . . ,
n
= 0
Ce qui montre que X est libre.
Denition 3.2.2 Soit X={f
1
, . . . , f
n
} une base dun K-espace vectoriel V, soit
v V, et soit v =
1
f
1
+. . . +
n
f
n
, lecriture unique de v comme combinaison
lineaire de la base X (
1
, . . . ,
n
K) alors les scalaires
1
, . . . ,
n
sappellent
les composantes de v relativement `a la base X (on dit aussi coordonnees)
Theor`eme 3.2.2 Theor`eme de la base
Soit V un K-espace vectoriel, soit L une partie libre dans V et soit G une
partie generatrice de V avec LG. On suppose que G est une partie nie.
Alors il existe une base B de V telle que LBG.
c Alexis Barri`ere, 2005
3.2. BASES 41
Remarque
Lhypoth`ese de la nitude de G nest en fait pas necessaire, mais la preuve est
plus compliquee.
Preuve
On grossit L autant quon peut tout en gardant la propriete detre libre. En
dautres termes soit B une partie de G contenant L et maximale sous la condi-
tion detre libre (ceci est ni car G est nie par hypoth`ese).
On veut montrer que cette partie B est une base.
Il est evident que B est libre, donc il faut montrer que B est une partie
generatrice.
1
er
cas : B=G, alors B est generatrice car G lest et on a termine.
2
`eme
cas : BG, B=G
B={b
1
, . . . , b
n
} et soit g GB
Alors B{g} = {b
1
, . . . , b
n
, g} nest pas libre par maximalite de B. Donc
il existe une combinaison lineaire non-triviale :

1
b
1
+
2
b
2
+. . . +
n
b
n
+g = 0
Alors ne peut pas etre nul, sinon on aurait une combinaison lineaire non
triviale
1
b
1
+
2
b
2
+. . . +
n
b
n
= 0 contrairement au fait que B est libre.
Donc = 0 et donc g =
1

1
b
1

1
b
2
. . .
n

1
b
n
Donc g est une combinaison lineaire de B
Ceci vaut pour tout g GB
Soit alors v V. Comme G est generatrice de V, v est combinaison
lineaire de G : v =
1
v
1
+. . . +
n
v
n
+
1
g
1
+. . . +
r
g
r
Do` u G=B{g
1
, . . . , g
r
}
Par le point precedent, on peut ecrire chacun des g
1
, . . . , g
r
comme une
combinaison lineaire de B={b
1
, . . . , b
n
}. On obtient ainsi v comme com-
binaison lineaire de b
1
, . . . , b
n
.
Donc B est generatrice et donc B est une base.
Corollaire
Tout espace vectoriel poss`ede (au moins) une base.
Preuve
On choisit un syst`eme de generateur G et on prend L=
On peut applique le theor`eme : il existe une base B ( BG)
Theor`eme 3.2.3 Theor`eme de la dependance lineaire
Soit V un K-espace vectoriel, soit G= {g
1
, . . . , g
n
} un syst`eme de generateurs
de V (suppose ni) et soit L= {v
1
, . . . , v
p
} une partie arbitriare.
Si p > n alors L nest pas libre
Autre formulation : si L est une partie libre, alors p n
Preuve Par recurrence sur le cardinal n de G
Cas n = 1 : G= {g
1
}, v = {g
1
/ K}
p > 1 par hypoth`ese
Soit v
1
, v
2
L. On peut ecrire :
v
1
=
1
g
1
v
2
=
2
g
1
_

1
,
2
K
c Alexis Barri`ere, 2005
42 CHAPITRE 3. BASES ET DIMENSIONS
Alors
2
v
1

1
v
2
= 0. Cette combinaison est non-triviale, car si
1
=

2
= 0, on aurait v
1
= v
2
= 0
Donc {v
1
, v
2
} est une partie liee et donc L aussi
(
1
v
1

2
v
2
+ 0v
3
+. . . + 0v
p
= 0)
Cas n 2 : On suppose (hypoth`ese de recurrence) le theor`eme demontre pour
un espace engendre par n 1 elements.
Posons W= V ect(g
1
, . . . , g
n1
)
Tout vecteur v V peut secrire :
v = w +g
n
(avec K)
Car v V ect(g
1
, . . . , g
n
), donc :
v =
1
g
1
+. . . +
n1
g
n1
. .
wW
+
n
..

g
n
Donc
v
1
= w
1
+
1
g
n
v
2
= w
2
+
2
g
n
.
.
.
v
p
= w
p
+
p
g
n
w
i
W,
i
K, i = 1, . . . , p
1. Si
1
=
2
= . . . =
p
= 0, alors v
1
= w
1
, . . . , v
p
= w
p
W =
V ect(g
1
, . . . , g
n1
)
Comme p > n 1 > n, on applique lhypoth`ese de recurrence `a W
et on obtient que v
1
, . . . , v
p
sont lies
2. Si lun des
i
nest pas nul, on peut supposer que cest
p
. On en tire
g
n
=
1
p
(v
p
w
p
)
On remplace dans v
1
, . . . , v
p1
:
_

_
v
1
= w
1
+
1

1
p
(v
p
w
p
)
.
.
.
v
p1
= w
p1
+
p1

1
p
(v
p
w
p
)
Ce qui donne :
_

_
v
1

1
p
v
p
= w
1

1
p
w
p
.
.
.
v
p1

p1

1
p
v
p
= w
p1

p1

1
p
w
p
Ces vecteurs sont dans W et ils sont en nombre p 1
Comme p > n, p 1 > n 1, et donc lhypoth`ese de recurrence
sapplique : il y a une combinaison lineaire non-triviale entre
w
1

1
p
w
p
, . . . , w
p1

p1

1
p
w
p
On remplace w
i

i

1
p
w
p
par v
i

i

1
p
v
p
(ils sont egaux) i =
1, . . . , p 1. On obtient ainsi une combinaison lineaire non-triviale
entre ces vecteurs, donc aussi entre v
1
, . . . , v
p
, v
p1
Donc L= {v
1
, . . . , v
p
} est une partie liee.
c Alexis Barri`ere, 2005
3.3. DIMENSION 43
3.3 Dimension
Theor`eme 3.3.1 Theor`eme de la dimension
Soit V un espace vectoriel avec un nombre ni de generateurs. Alors :
1. Toute base de V est nie
2. Deux bases quelconques ont le meme cardinal. Ce cardinal (nombre delements
dune base) sappelle la dimension de V et est notee dim(V)
Preuve
1. G= {g
1
, . . . , g
n
} partie generatrice
Si B est une base, alors B est en particulier libre. Par le theor`eme de la
dependance lineaire (3.2.3), B doit avoir moins delements que G. Donc
B est une partie nie.
2. Soit B une base avec n elements, et B

avec n

elements. A voir n = n

:
B generatrice
B

libre
_
th. de dep. lin.
n

n
B

generatrice
B libre
_
th. de dep. lin.
n

n
Denition 3.3.1 Si V est un espace vectoriel ayant une base innie, on dit
que V est de dimension innie.
Exemple
1. K
n
est un K-espace vectoriel de dimension n (cf. base canonique)
2. K[t] est de dimension innie (base {1, t, t
2
, . . .})
3. Lespace {0} reduit au vecteur nul est de dimension 0 (base vide !)
3.4 Corollaires des theor`emes precedents
Premier corollaire (completion en une base)
Soit V un K-espace vectoriel de dimension nie et soit L une partie libre dans
V.
Alors :
1. card(L) dim(V)
2. L peut-etre completee en une base de V
3. Si card(L) = dim(V) alors L est une base de V
Preuve
1. Consequence du theor`eme precedent de la dependance lineaire
2. Dej`a vu (theor`eme de la base)
(on choisit une base B et on prend comme partie generatrice G=LB qui
contient alors L)
c Alexis Barri`ere, 2005
44 CHAPITRE 3. BASES ET DIMENSIONS
3. On applique 2) pour obtenir une base B contenant L
dim(V)
hyp.
= card(L) card(B)
def.
= dim(V)
Cela force legalite card(L) = card(B) et donc L=B et donc L est une
base.
Exemple
v
1
= (1, 2, 0), v
2
= (2, 0, 7), v
3
= (3, 4, 5) R
3
L= {v
1
, v
2
, v
3
} est libre (facile)
On en deduit que L est une base de R
3
, card(L) = 3
Deuxi`eme corollaire (extraction dune base)
Soit V un K-espace vectoriel de dimension nie, et soit G une partie generatrice.
Alors :
1. card(G) dim(V)
2. on peut extraire de G une base de V
3. Si card(G) = dim(V), alors G est une base de V
Preuve
1. Resulte du theor`eme de la dependance lineaire
2. Resulte du theor`eme de la base
3. GB=base (par 2))
dim(V)
hyp.
= card(G) card(B
def.
= dim(V)
Cela force card(G) = card(B)
Donc G= B
et donc G est une base
Exemple
v
1
= (1, 2, 0), v
2
= (2, 0, 7), v
3
= (3, 4, 5) R
3
G={v
1
, v
2
, v
3
} est generatrice (facile)
Donc G est une base
3.5 Crit`eres et theor`emes sur les bases et di-
mensions
Crit`ere de dimension innie
Soit V un K-espace vectoriel.
Alors V est de dimension innie si et seulement si pour tout entier r N, il
existe une partie libre `a r elements.
Preuve
Supposons V de dimension innie.
Donc V poss`ede une base innie B.
Donc pour tout n N, il existe dans B une partie L `a n elements. Une telle
partie L est libre (car contenue dans B, qui est libre).
Reciproquement, supposons quil existe une partie libre `a n elements (pour tout
c Alexis Barri`ere, 2005
3.5. CRIT
`
ERES ET TH

EOR
`
EMES SUR LES BASES ET DIMENSIONS 45
n N). Si V etait de dimension nie r, alors toute partie de cardinal r + 1
est liee, ce qui contredit notre hypoth`ese pour n = r + 1. Donc V doit etre de
dimension innie.
Crit`ere de dimension nie
Soit V un K-espace vectoriel. Alors V est de dimension nie si et seulement
si il existe un entier m tel que toute partie `a m elements nest pas libre.
Preuve
Cela resulte immediatement du crit`ere precedent par passage `a la negation.
Theor`eme 3.5.1 Theor`eme des sous-espaces
Soit V un K-espace vectoriel de dimension nie r. Soit W un sous-espace de
V.
Alors :
1. W est de dimension nie
2. dim(W) dim(V)
3. Si dim(W) = dim(V), alors W=V
Preuve
1. On utilise le crit`ere pour la dimension nie : toute partie de W avec au
moins n +1 elements doit etre liee car cest le cas pour toute partie de V
`a n + 1 elements
2. Soit Bune base de W. Cest une partie libre dans V(mais pas necessairement
generatrice de V). On peut donc completer B en une base BB

de V.
dim(W) = card(B) card(B B

) = dim(V)
3. Soit B une base de W
card(B) = dim(W)
hyp.
= dim(V)
On en tire que B est une base de V (B libre et card(B)=dim(V))
Donc V= V ect(B) W, et legalite W=V sensuit.
Theor`eme 3.5.2 Theor`eme du supplementaire
Soit W un sous-espace dun K-espace vectoriel V. Alors il existe un autre sous-
espace U tel que V=WU
(Mais U nest pas du tout unique).
Denition 3.5.1 Dans ce cas un tel sous-espace U, sappelle un supplementaire
de W
Preuve
Le theor`eme est vrai en general, mais on ne le demontre que dans le cas o` u V
est de dimension nie (pour simplier).
On choisit une base de W (de dimension nie par le theor`eme precedent).
c Alexis Barri`ere, 2005
46 CHAPITRE 3. BASES ET DIMENSIONS
Comme B est une partie libre dans V, on peut la completer en une base BB

de V.
On pose U= V ect(B) et on va montrer que V=WU
V = V ect(B B) = V ect(B) +V ect(B) = W+U
Une combinaison lineaire de BB

est la somme dune combinaison lineaire de


B et dune combinaison lineaire de B

Il reste `a voir que WU= {0}. Soit v WU. On doit montrer que v = 0.
Comme v W, v =
r

i=1

i
b
i
o` u B = {b
1
, . . . , b
r
},
i
K i
Comme v U, v =
s

j=1

j
b

j
o` u B

= {b

1
, . . . , b

s
},
j
K j
On soustrait :
0 =
1
b
1
+. . . +
r
b
r

1
b

1
. . .
s
b

s
Comme BB

est libre (car cest une base de V) la seule possibilite est

1
= . . . =
r
=
1
= . . . =
s
= 0
En particulier v =

r
i=1

i
b
i
= 0
Ainsi WU= {0}
Finalemenent V=WU
Non-unicite des supplementaires
On le voit sur lexemple facile suivant :
V= R
2
et W= une droite (passant par 0)
Soit U, U

, . . . des droites (passant par 0) distinctes de W


Alors V=WU=WU

=. . .
Autre exemple :
V= R
3
et W= un plan (passant par 0)
U= nimporte quelle droite (passant par 0) non contenue dans W
Alors U est un supplementaire de W
Denition 3.5.2 Soit W un sous-espace dun K-espace vectoriel V.
La codimension de W dans V est la dimension dun supplementaire de W dans
V
Donc V=WU
codim
V
(W)
def.
= dim(U)
voir ci-dessous
= dim(V) dim(W)
Theor`eme 3.5.3 Formule des dimensions
Soit U et W deux sous-espaces de dimension nie dun K-espace vectoriel V.
Alors dim(U+W) = dim(U) +dim(W) dim(U W)
Cas particulier : UW= {0}
dim(UW) = dim(U) +dim(W)
Preuve
Le cas particulier resulte immediatement du cas general. Il sut de montrer la
premi`ere formule.
c Alexis Barri`ere, 2005
3.5. CRIT
`
ERES ET TH

EOR
`
EMES SUR LES BASES ET DIMENSIONS 47
Soit {v
1
, . . . , v
r
} une base de lintersection UW.
On la compl`ete en une base {v
1
. . . , v
r
, u
1
, . . . , u
p
} de U
On peut aussi completer {v
1
, . . . , v
r
} en une base {v
1
. . . , v
r
, w
1
, . . . , w
q
} de W
Assertion : {v
1
. . . , v
r
, u
1
, . . . , u
p
, w
1
, . . . , w
q
} est une base de U+W
Cette assertion resoud note probl`eme :
dim(U+W) = r +p +q
dim(U) = r +p
dim(W) = r +q
dim(U W) = r
(r +p) + (r +q) r = r +p +q
Reste `a demontrer lassertion :
partie generatrice : Soit u +w U+W (u U, w W)
u secrit u =
1
v
1
+. . . +
r
v
r
+
1
u
1
+. . . +
p
u
p
w secrit w =
1
v
1
+. . . +
r
v
r
+
1
w
1
+. . . +
q
w
q
Donc u+w est une combinaison lineaire de {v
1
. . . , v
r
, u
1
, . . . , u
p
, w
1
, . . . , w
q
}
partie libre : On part de :

1
v
1
+. . . +
r
v
r
. .
v UW
+
1
u
1
+. . . +
p
u
p
. .
uU
+
1
w
1
+. . . +
q
w
q
. .
wW
= 0
On doit demontrer que tous les
i
,
j
,
k
= 0
On a v +u +w = 0
On ecrit (v +u)
. .
U
= w
..
W
donc w UW
Donc w =
1
v
1
+. . . +
r
v
r
(base de UW)
Or w =
1
w
1
+. . . +
q
w
q
Donc 0 =
1
v
1
+. . . +
r
v
r

1
w
1
. . .
q
w
q
Mais {v
1
. . . , v
r
, w
1
, . . . , w
q
} est libre (base de W)
Donc
1
= . . . =
r
=
1
= . . . =
q
= 0
En particulier w = 0
Il ne reste que v +u = 0
Cest `a dire
1
v
1
+. . . +
r
v
r
+
1
u
1
+. . . +
p
u
p
= 0
Mais {v
1
. . . , v
r
, u
1
, . . . , u
p
} est une base de U, donc libre.
Donc
1
= . . . =
r
=
1
= . . . =
p
= 0
Exemple
V=R
3
U, W deux plans distincts
UW droite
U+W=V
dim(V) = dim(U) + dim(W) dim(U W)
3 = 2 + 2 1
c Alexis Barri`ere, 2005
48 CHAPITRE 3. BASES ET DIMENSIONS
c Alexis Barri`ere, 2005
Chapitre 4
Applications lineaires et
matrices
4.1 Applications lineaires
Denition 4.1.1 Soit K un corps.
Soit V et W deux K-espaces vectoriels.
Une application lineaire : V W est une application qui satisfait les deux
conditions suivantes :
1. (v
1
+v
2
) = (v
1
) +(v
2
) v
1
, v
2
V
Cest-`a-dire est un homomorphisme de groupes pour laddition.
2. (v) = (v) v Vet K
Denition 4.1.2 Denition equivalente
3. (
1
v
1
+
2
v
2
) =
1
.(v
1
) +
2
.(v
2
) v
1
, v
2
V et
1
,
2
K
Preuve de lequivalence des denitions
1. + 2. 3. (
1
v
1
+
2
v
2
)
1.
= (
1
v
1
) +(
2
v
2
)
2.
=
1
.(v
1
) +
2
.(v
2
)
3. 1. + 2.

1
=
2
= 1 donne 1.

2
= 0 donne 2.
Denition 4.1.3 Plus generalement
Si : V W est une application lineaire
Alors (
1
v
1
+. . . +
n
v
n
) =
1
(v
1
) +. . . +
n
(v
n
)
n 1, v
1
, . . . , v
n
V,
1
, . . . ,
n
K
Preuve
Par recurrence sur n
n = 1 (
1
v
1
) =
1
(v
1
)
n = 2 condition 3. ci-dessus
_
par hypoth`ese que est lineaire
Pour n 3, on suppose la propriete veriee pour toutes les valeurs < n
3. (
1
v
1
+. . . +
n1
v
n1
) +
n
(v
n
)

1
(v
1
) +. . . +
n1
(v
n1
) +
n
(v
n
)
49
50 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
Remarque
Si on veut preciser avec quel corps on travaille, on dit aussi quune application
lineaire : V W est K-lineaire
Exemples
1. Lapplication nulle
0 : V W
v 0 v V
est lineaire
2. Lapplication identite
id : V V
v v v V
est lineaire
3. Toute rotation dans R
2
de centre 0 est lineaire
4. Projection dans R
2
ou R
3
5. Lapplication
: R
3
R
3
(x, y, z) (3x + 2y z, x +z, y 7z)
est lineaire
6. Plus generalement
: K
n
K
n
(x
1
, . . . , x
n
) (
n

i=1
a
1i
x
i
, . . . ,
n

i=1
a
ni
x
i
)
a
11
, . . . , a
1n
, . . . , a
n1
, . . . , a
nn
K
est lineaire
7. V= C(R, R) = {fonctions continues de R dans R}
W= R
I : C(R, R) R (On denit un intervalle[a, b])
f
_
b
a
f(x)dx = I(f)
I est R-lineaire
8. C

(R, R) = {fonctions inniment derivables}


C

(R, R) C

(R, R)
f D(f) = f

D est lineaire
c Alexis Barri`ere, 2005
4.1. APPLICATIONS LIN

EAIRES 51
9. : R R
est R-lineaire le graphe de est une droite par 0
Cela justie le mot lineaire
Applications lineaires et bases
Soit : V W une application lineaire
Et soit B= {b
1
, . . . , b
n
} une base de V (suppose de dimension nie pour simpli-
er)
Principe dunicite : Si (b
1
) = w
1
, . . . , (b
n
) = w
n
, alors est determine de
mani`ere unique par ces n vecteurs (images de la base)
Preuve : tout vecteur v de V secrit v =
1
b
1
+. . . +
n
b
n
De plus (v) = (
1
b
1
) +
2
b
2
+. . . +
n
b
n
) =
1
(b
1
) +. . . +
n
(b
n
)
=
1
w
1
+. . . +
n
w
n
unique facon de determiner (v) `a partir de (b
1
) = w
1
, . . . , (b
n
) = w
n
Principe dexistence : Si on choisit arbitrairement des images w
1
= (b
1
), . . . , w
n
=
(b
n
) pour les vecteurs de la base B= {b
1
, . . . , b
n
} de V, cela permet de
denir une application lineaire : V W grace `a la denition suivante :
(
1
b
1
+. . . +
n
b
n
) =
1
w
1
+. . .
n
w
n
Preuve : on doit demontrer que denie ainsi est bien lineaire :
v =
1
b
1
+. . .
n
b
n
v

1
b
1
+. . .

n
b
n
(v +

) = ((
1
+

1
)b
1
+. . . + (
n
+

n
)b
n
)
def. de
= (
1
+

1
)w
1
+. . . + (
n
+

n
)w
n
= (
1
w
1
+. . . +
n
w
n
)
. .
(v)
+

1
w
1
+. . . +

n
w
n
)
. .
(v

)
= (v) +

(v

)
Addition des applications lineaires
Soit : V W et : V W deux applications lineaires entre deux K-
espaces vectoriels V et W.
On denit + : V W par ( +)(v) = (v) +(v) v V
On verie que + est (de nouveau) une application lineaire :
( +)(v +

)
def.
= (v +

) +(v +

)
lin., lin.
= (v) +

(v

) +(v) +

(v

)
def.
= ( +)(v) +

( +)(v

)
Multiplication par un scalaire
Soit : V W une application lineaire et soit K.
c Alexis Barri`ere, 2005
52 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
On denit . : V W par ()(v) = .(v)
On verie que est une application lineaire :
()(v +

)
def.
= (v +

)
lin.
= ((v) +

(v

) = (v) +

(v

)
= ()(v) +

()(v

)
Denition 4.1.4 L(V, W){ : V W/ lineaire}
Ensemble de toutes les applications lineaires de V dans V
Proposition
L(V, W) est un K-espace vectoriel, par les lois + et . denies ci-dessus
Preuve
Exercice facile
Composition des applications lineaires
Soit : V W et : U V deux applications K-lineaires (o` u U, V,
W sont des K-espaces vectoriels)
: U W
( )(u) = ((u))
Proprietes 4.1.1 est K-lineaire
Preuve
Exercice
Inverse dune application lineaire bijective
Soit : V W une application lineaire bijective.
Alors lapplication
1
: WV est lineaire
Preuve
Soit w
1
, w
2
W et
1
,
2
K
(
1

1
(w
1
) +
2

1
(w
2
))
lin.
=
1
(
1
(w
1
)) +
2
(
1
(w
2
)) =
1
w
1
+
2
w
2
On applique
1
aux termes de cette egalite :

1
((
1

1
(w
1
) +
2

1
(w
2
))) =
1
(
1
w
1
+
2
w
2
)

1
(w
1
) +
2

1
(w
2
) =
1
(
1
w
1
+
2
w
2
)
Donc
1
est lineaire
c Alexis Barri`ere, 2005
4.1. APPLICATIONS LIN

EAIRES 53
Image dune application lineaire
Soit : V W une application lineaire
Im() = {w W/ v V tel que (v) = w} image de
Proprietes 4.1.2 Im() est un sous-espace vectoriel de W
Preuve
Soit w
1
, w
2
Im() et
1
,
2
K

1
w
1
+
2
w
2
Im()
w
2
Im() v
i
V tel que (v
i
) = w
i
(i = 1, 2, . . . , )

1
w
1
+
2
w
2
=
1
(v
1
) +
2
(v
2
)
lin.
= (
1
v
1
+
2
v
2
) Im()
Noyau dune application lineaire
Soit : V W une application lineaire
Ker() = {v V/ (v) = 0} noyau de
Proprietes 4.1.3 Ker() est un sous-espace vectoriel de V
Preuve
On sait que Ker() est un sous-groupe (pour +)
Reste la multiplication scalaire
Soit v Ker() et K
(v)
lin.
= (v)
..
0 car v Ker()
= 0
Donc v Ker()
Crit`ere dinjectivite
Soit : V W une application lineaire
est injective Ker() = {0} dim(Ker()) = 0
Crit`ere de surjectivite
Soit : V W une application lineaire
est surjective Im() = W dim(Im()) = dim(W)
Denition 4.1.5 Le rang dune application lineaire : V W est la dimen-
sion de Im()
Theor`eme 4.1.1 Theor`eme de rang
Soit : V W une application lineaire. On suppose que V est de dimension
nie. Alors Im() est de dimension nie et on a la formule :
rang() = dim(Im()) = dim(V) dim(Ker())
c Alexis Barri`ere, 2005
54 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
En dautres termes :
dim(Ker()) +dim(Im()) = dim(V)
Preuve
On choisit une base {v
1
, . . . , v
r
} de Ker(). On la compl`ete en une base {v
1
, . . . , v
r
, u
1
, . . . , u
s
}
de V
dim(Ker()) = r
dim(V) = r +s
On doit montrer que dim(Im()) = s
Pour cela on monter que {(u
1
), . . . , (u
s
)} est une base de Im()
Partie libre :
1
(u
1
) +. . . +
s
(u
s
) = 0
On doit montrer
1
= . . . =
s
= 0
Comme est lineaire : (
1
u
1
+. . . +
s
u
s
) = 0
Donc
1
u
1
+. . . +
s
u
s
Ker()
Donc
1
u
1
+ . . . +
s
u
s
=
1
v
1
+ . . . +
r
v
r
(
i
K, v
i
, . . . , v
r
base de
Ker())

1
v
1
+. . . +
r
v
r

1
u
1
. . .
s
u
s
= 0
Or {v
1
, . . . , v
r
, u
1
, . . . , u
s
} est libre (car base de V)
Donc
1
= . . . =
s
=
1
= . . . =
s
= 0
Partie generatrice : Soit w Im()
On doit montrer quil existe
1
, . . . ,
s
K
tel que w =
1
(u
1
) +. . . +
s
(u
s
)
Comme w Im(), v V tel que (v) = w
On ecrit dans la base de V :
v =
1
v
1
+. . . +
r
v
r
+
1
u
1
+. . . +
s
u
s
On applique :
w = (v) =
1
(v
1
)
. .
0
+. . . +
r
(v
r
)
. .
0
+
1
(u
1
) +. . . +
s
(u
s
)
w =
1
(u
1
) +. . . +
s
(u
s
)
Exemple
V= R
3
: R
3
R
2
(x, y, z) (x, y, 0) (projection verticale (4.1)
Im() dimension 2
Ker() dimension 1
dim(V) = 1 + 2 = 3
Crit`ere de bijectivite
Soit : V W une application lineaire entre espaces de dimension nie
On suppose que dim(V) = dim(W).
Alors est bijective est injective est surjective
(Il sut que soit lun ou lautre pour quelle soit les deux)
Cas particulier essentiel : V de dimension nie
: V V
Alors le crit`ere sapplique
c Alexis Barri`ere, 2005
4.2. MATRICES 55
Preuve
bijectif=injectif et surjectif
Il sut de montrer :
a) injectif surjetif
b) surjectif injectif
Par le theor`eme du rang : dim(Im()) = dim(V) dim(Ker())
hyp.
= dim(W) dim(Ker())
injective dim(Ker()) = 0 dim(Im()) = dim(W) surjective
Exemple
: R
3
R
3
(x, y, z) (2x y + 7z, y 3z, 5z)
est injective : (x, y, z) = 0
?
(x, y, z) = (0, 0, 0)
2x y + 7z = 0
y 3z = 0
5z = 0
_
_
_
x = y = z = 0
Par le crit`ere de bijectivite, on en deduit que est surjective
Il existe une solution au syst`eme (a, b, c R) :
2x y + 7z = a
y 3z = b
5z = c
_
_
_
Cest `a dire (x, y, z) = (a, b, c)
4.2 Matrices
Produit de matrices
On denit le produit dune matrice A M
mn
(K) et dune matrice B
M
np
(K). Le resultat est une matrice A.B, ou simplement AB, de taille mp,
denie par :
(AB)
ik
=

n
j=1
A
ij
B
jk
_
1 i m
1 k p
(AB)
ik
= A
i1
B
1k
+A
i2
B
2k
+. . . +A
in
B
nk
Remarque
On ne peut multiplier A et B que si le nombre n de colonnes de A est egal au
nombre de lignes de B
m= nombre de lignes de AB= nombre de lignes de A
p= nombre de colonnes de AB= nombre de colonnes de B
B =
_
_
. . .
. . .
. . .
1.
. . .
. . .
. . .
_
_
A =
_
_
. . . . . . . . .
2.
. . . . . . . . .
_
_
AB =
_
_
. . . . . . . . .
. . . 3. . . .
. . . . . . . . .
_
_
c Alexis Barri`ere, 2005
56 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
1. k-i`eme colonne de B
2. i-`eme ligne de A
3. AB
ik
Exemple
B =
_
_
2 1 0 1
1 1 2 1
0 0 4 1
_
_
A =
_
1 0 3
2 1 0
_
AB =
_
2 1 12 2
3 1 2 3
_
Proprietes 4.2.1 A,A

M
mn
(K), B,B

M
np
(K), C M
pq
(K)
1. Associativite : (AB)C = A(BC)
2. Distributivite : (A+A

)B = AB+A

B , A(B+B

) = AB+AB

3. Matrice identite :
I
n
=
_
_
_
_
_
1 0
1
.
.
.
0 1
_
_
_
_
_
M
nn
(K)
(I
n
)
ij
=
ij
..
symbole de Kronecker
=
_
1 si i = j
0 si i = j
Alors AI
n
= A et I
m
A = A
Preuve
1. On a ((AB)C)
ik
:
((AB)C)
ik
=
p

j=1
(AB)
ij
C
jk
=
p

j=1
_
n

l=1
A
il
B
lj
_
C
jk
=
p

j=1
n

l=1
A
il
B
lj
C
jk
Par ailleurs (A(BC))
ik
= . . .
On aboutit au meme resultat.
2. On a ((A+A

)B)
ik
:
((A+A

)B)
ik
=
n

j=1
(A+A

)
ij
B
jk
=
n

j=1
(A
ij
+A

ij
)B
jk
=
n

j=1
A
ij
B
jk
+
n

j=1
A

ij
B
jk
= (AB)
ik
+ (A

B)
ik
= (AB +A

B)
ik
Idem pour (A(B +B

))
ik
c Alexis Barri`ere, 2005
4.2. MATRICES 57
3. (AI
n
)
ik
=

n
j=1
A
ij
(I
n
)
jk
=

n
j=1
A
ij

jk
j=k
= A
ik

kk
= A
ik
De meme I
m
A = A
Corollaire
M
n
(K)(matrices carrees) est une K-alg`ebre
Preuve
La condition supplementaire (A.B) = (A).B = A.(B) est veriee
Remarques
1. Le produit matriciel nest pas commutatif
2. Le produit de deux matrices non-nulles peut etre nul
Notation pour les matrices carrees
A=(a
ij
M
n
(K)
Diagonale de A : ce sont les coecients a
11
, a
22
, . . . , a
nn
Trace de A : Tr(A) =

n
i=1
a
ii
Matrice diagonale : matrice A=(a
ij
) M
n
(K) dont les coecients
non-diagonaux valent 0
A =
_
_
_
_
_
a
11
0
a
22
.
.
.
0 a
nn
_
_
_
_
_
En dautres termes A
ij
= 0 si i = j
Matrice scalaire : matrice diagonale avec tous les coecients diagonaux
egaux
A =
_
_
_
_
_
0

.
.
.
0
_
_
_
_
_
= I
n
Matrice inversible : A M
n
(K) est inversible sil existe B M
n
(K)
telle que AB = I
n
et BA = I
n
et se note A
1
(ne jamais utiliser
1
A
car
(AB)
1
= B
1
A
1
(dans cet ordre))
Lensemble de toutes les matrices n n inversibles est un groupe pour la
multiplication et il se note GL
n
(K) (Groupe lineaire general)
Matrice dun vecteur (par rapport `a une base)
Soit V un K-espace vectoriel de dimension nie et soit F=(f
1
, f
2
, . . . , f
n
) une
base ordonnee de V.
Denition 4.2.1 Une base de V est dite ordonnee si on a choisi un ordre pour
les vecteurs de base
Ainsi une base ordonnee est un n-uple (f
1
, . . . , f
n
) tandis quune base (non-
ordonnee) est un sous-ensemble {f
1
, . . . , f
n
}
c Alexis Barri`ere, 2005
58 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
Convention
Desormais on travaillera toujours avec des bases ordonnees
Denition 4.2.2 La matrice dun vecteur v V par rapport `a la base (or-
donnee) F=(f
1
, . . . , f
n
) est la matrice colonne :
(v)
F
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
O` u
1
,
2
, . . . ,
n
sont les composantes du vecteur v par rapport `a la base F
(cest `a dire v =
1
f
1
+
2
f
2
+. . . +
n
f
n
)
(v)
F
M
n1
(K)
Exemple simple
V = K
n
E=(e
1
, e
2
, . . . , e
n
) base canonique
v = (x
1
, x
2
, . . . , x
n
) K
n
Donc (v)
E
=
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
(cas tr`es particulier)
Par rapport `a une autre base G, on aura une autre matrice (v)
G
Matrice dune application lineaire (par rapport `a certaines bases)
Soit : V W une application lineaire entre deux K-espace vectoriels V
et W de dimensions nies.
Soit F= (f
1
, . . . , f
n
) une base de V et soit G= (g
1
, . . . , g
p
) une base de W.
On denit la matrice de par rapport `a F et G de la facon suivante :
On exprime limage (f
j
) de chaque vecteur de base f
j
par rapport `a la base
G, avec des coecients a
ij
:
(f
j
) = a
1j
g
1
+. . . +a
pj
g
p
=
p

i=1
a
ij
g
i
Ces coecients forment une matrice :
()
G
F
= (a
ij
) 1 i p
1 j n
M
pn
(K)
Cette matrice A est la matrice de , par rapport `a F et G. On la note A=()
G
F
Principe
On met dans la j-`eme colonne les composantes du j-`eme vecteur de base
Theor`eme 4.2.1 Theor`eme 1
Soit ()
G
F
la matrice de : V W par rapport `a F et G.
c Alexis Barri`ere, 2005
4.2. MATRICES 59
Soit v V et soit (v)
F
sa matrice colonne.
Alors limage (v) du vecteur peut se calculer matriciellement de la facon sui-
vante :
((v))
G
. .
colonne p1
= ()
G
F
. .
matrice pn
. (v)
F
..
colonne n1
Preuve
(v)
F
=
_
_
_

1
.
.
.

n
_
_
_ signie que (f
j
) =
p

i=1
a
ij
g
i
()
G
F
= (a
ij
) 1 i p
1 j n
signie que (f
j
) =
p

i=1
a
ij
g
i
On calcule (v) :
(v) =
_
n

j=1

j
f
j
_
lin.
=
n

j=1

j
(f
j
)
=
n

j=1

j
_
p

i=1
a
ij
g
i
_
=
1
(a
11
g
1
+. . . +a
p1
g
p
) +
2
(a
12
g
1
+. . . +a
p2
g
p
)
+. . . +
n
(a
1n
g
1
+. . . +a
pn
g
p
)
= (
1
a
11
+
2
a
12
+. . . +
n
a
1n
)g
1
+. . . + (
1
a
p1
+. . . +
n
a
pn
)g
p
=
p

i=1
_
n

j=1

j
a
ij
_
g
i
Donc ((v))
G
=
_
_
_
_
_

n
j=1

j
a
1j

n
j=1

j
a
2j
.
.
.

n
j=1

j
a
pj
_
_
_
_
_
=
_
_
_
_
_

1
a
11
+. . . +
n
a
1n

2
a
21
+. . . +
n
a
2n
.
.
.

p
a
p1
+. . . +
n
a
pn
_
_
_
_
_
Or cette matrice-colonne p 1 est egale au produit :
_
_
_
_
_
a
11
. . . a
1n
a
21
. . . a
2n
.
.
.
.
.
.
.
.
.
a
p1
. . . a
pn
_
_
_
_
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= ()
G
F
.(v)
F
Corollaire Soit A, B M
pn
(K) deux matrices pn on suppose que A.X=B.X
pour toute matrice-colonne X de taille n 1
Alors A=B
c Alexis Barri`ere, 2005
60 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
Premi`ere preuve
Calcul matriciel en utilisant pour X toutes les matrices
_
_
_
_
_
_
_
1
0
0
.
.
.
0
_
_
_
_
_
_
_
,
_
_
_
_
_
_
_
0
1
0
.
.
.
0
_
_
_
_
_
_
_
, . . . ,
_
_
_
_
_
_
_
0
0
.
.
.
0
1
_
_
_
_
_
_
_
Deuxi`eme preuve (plus conceptuelle)
A est la matrice dune application lineaire : V W par rapport `a des
bases F et G
B est la matrice dune application lineaire : V W par rapport `a des
bases F et G
En dautres termes A=()
G
F
et B=()
G
F
Une matrice X arbitraire de taille n 1 correspond `a un vecteur arbitraire v
V. En dautres termes X=(v)
F
Lhypoth`ese nous dit A.X=B.X, X, cest `a dire grace au theor`eme, (v) = (v)
v V
Donc les applications =
Et donc A=B
Theor`eme 4.2.2 Theor`eme 2
Soit : U V et : V W deux applications lineaires entre K-espaces
vectoriels de dimension nie.
Soit :
F une base de U
G une base de V
H une base de W
Alors : U W est representee matriciellement par la matrice produit :
( )
H
F
= ()
H
G
.()
G
F
Preuve
_
()
H
G
.()
G
F
_
.(u)
F
ass.
= ()
H
G
_
()
G
F
.(u)
F
_
th. 1
= ()
H
G
.
_
(u)
_
G
th. 1
=
_

_
(u)
_
_
H
=
_
( )(u)
_
H
th. 1
= ( )
H
F
(u)
F
Ceci vaut pour tout u U, donc pour toute matrice-colonne X=(u)
F
Donc
_
()
H
G
.()
G
F
_
.X= ( )
H
F
.X X M
n1
(K)
Par le corollaire, les matrices sont egales :
()
H
G
.()
G
F
= ( )
H
F
Corollaire
Si une application lineaire : V W est inversible, alors (
1
)
F
G
=
_
()
G
F
_
1
o` u F est une base de V
et G est une base de W
Preuve
I
n
= (id
W
)
G
G
= (.
1
)
G
G
th. 2
= ()
G
F
.(
1
)
F
G
c Alexis Barri`ere, 2005
4.2. MATRICES 61
Premi`ere egalite evidente car :
(id
W
)(g
j
) = 0.g
1
+. . . + 0.g
j1
+ 1.g
j
+ 0.g
j+1
+. . . + 0.g
n
=
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
j-`eme colonne
De meme (
1
)
F
G
.()
G
F
= I
n
Donc (
1
)
F
G
est linverse de ()
G
F
Changement de base
Soit F= (f
1
, . . . , f
n
) une base dun K-espace vectoriel V.
Soit F

= (f

1
, . . . , f

n
) une base de V.
Chaque f

j
sexprime dans lancienne base :
f

j
= S
1j
f
1
+S
2j
f
2
+. . . +S
nj
f
n
=
n

i=1
S
ij
f
i
Cela denit une matrice carree S = (S
ij
) appelee la matrice de changement de
base (de F vers F

) ou matrice de passage (transition matrix)


Remarque fondamentale
S = (id
V
)
F
F

Preuve
f

j
= (id
V
)(f

j
) =
n

i=1
S
ij
f
i
Principe
Dans la j-`eme colonne de S, on trouve les composantes de f

j
par rappot `a lan-
cienne base de F
Composantes dun vecteur
Soit v V
(v)
F
= S.(v)
F

Preuve
(v)
F
th. 1
= (id)
F
F
.(v)
F
= S.(v)
F

Remarque
La matrice S de changement de base permet d :
1. exprimer les nouveaux vecteurs par rapport aux anciens
2. exprimer les anciennes composantes par rapport aux nouvelles compo-
santes
c Alexis Barri`ere, 2005
62 CHAPITRE 4. APPLICATIONS LIN

EAIRES ET MATRICES
Matrice de passage inverse
Si S est la matrice de passage de F vers F

, alors la matrice de passage de F

vers F est la matrice inverse S


1
En particulier toute matrice de changement de base est inversible.
Preuve
I
n
= (id)
F
F
= (id id)
F
F
th. 2
= (id)
F
F
.(id)
F

F
De meme (id)
F

F
(id)
F
F

. .
S
= I
n
Donc (id)
F

F
= S
1
Remarque
La matrice S
1
de changement de base permet d :
1. exprimer les anciens vecteurs de base par rapport aux nouveaux
2. exprimer les nouvelles composantes par rapport aux anciennes compo-
santes
Theor`eme 4.2.3 Theor`eme de changement de base
Soit : V W une application lineaire entre deux K-espaces vectoriels de
dimension nie.
Soit F, F

deux bases de V
Soit G, G

deux bases de W
Soit A= ()
G
F
et soit B= ()
G

Soit S = (id
V
)
F
F
et soit T = (id
w
)
G
G
les deux matrices de changement de base
(dans V et W respectivement)
Alors B = T
1
.A.S
Preuve
T
1
.A.S =
_
(id
W
)
G
G

_
1
.()
G
F
.(id
V
)
F
F

= (id
W
)
G

G
.()
G
F
.(id
V
)
F
F

th. 2
= (id
W
id
V
)
G

= ()
G

= B
Cas particulier
Lorsque V=W
Soit : V V une transformation lineaire
Soit F et F

deux bases de V
Alors B = S
1
.A.S o` u A = ()
F
F
B = ()
F

F
S = (id)
F
F

Donc T = S
Denition 4.2.3 On dit que deux matrices carrees A et B M
n
(K) sont
semblables sil existe une matrice inversible S GL
n
K telle que B = S
1
.A.S
c Alexis Barri`ere, 2005
Chapitre 5
Operations elementaires
La methode des operations elementaires est LA methode pour resoudre beau-
coup de probl`emes dalg`ebre lineaire, de plus aisement programmable
Soit A M
pn
(K). On fait des operations de 3 types sur les lignes de A :
Type I : Echange de deux lignes
Type II : Multiplication dun ligne par un scalaire non-nul
Type III : Ajout dune ligne au multiple scalaire dune autre
Operations reversibles Toutes ces opterations sont reversibles :
Type I : Meme echange
Type II : Multiplier la meme ligne par un scalaire inverse
Type III : Ajout `a cette meme ligne du multiple scalaire oppose de lautre ligne
Denition 5.0.1 On dit que deux matrices A et B M
pn
(K) sont equivalentes par lignes,
ou lignes-equivalentes si on peut passer de A `a B par une suite (nie) doperations
elementaires
Remarques
Lequivalence par ligne est une relation dequivalence :
Reexive : A est ligne-equivalente `a A
Symetrique : Si A est ligne-equivalente `a B alors B est ligne-equivalente
`a A
Transitive : Si A est ligne-equivalente `a B et B est ligne-equivalente `a C,
alors A est ligne-equivalente `a C
Exercice
La relation de similitude est une relation dequivalence
5.1 Operations elementaires matriciellement
Chaque operation elementaire correspond `a la multiplication `a gauche par
une certaine matrice carre p p, comme suit :
63
64 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
Type I
Echanger les lignes r et s revient `a multiplier par la matrice T
rs
suivante :
T
rs
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
.
1
0 1
| 1 |
|
.
.
.
|
| 1 |
1 0
1
.
.
.
0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Le carre etant situe entre les lignes r et s et les colonnes r et s.
Cest `a dire (T
rs
)
ij
=
_

_
1 si i = j et i = r, s
1 si i = r et j = s
1 si i = s et j = r
0 dans tous les autres cas
Preuve
T
rs
A
?
= echange des lignes r et s dans A
(T
rs
)
ij
A =
p

j=1
(T
rs
)
ij
A
jk
=
_
_
_
A
ik
si i = r, s
A
sk
si i = r et donc j = s unique valeur possible
A
rk
si i = s et donc j = r unique valeur possible
On voit que les lignes r et s ont ete echangees (et le reste inchange)
Type II
Multiplier la r-`eme ligne par (avec = 0) revient `a multiplier `a gauche
par la matrice D
r
() suivante :
D
r
() =
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
.
1

1
.
.
.
0 1
_
_
_
_
_
_
_
_
_
_
_
_
r-`eme ligne (matrice diagonale)
Cest ` a dire D
r
()
ij
=
_
_
_
0 si i = j
1 si i = j = r
si i = j = r
c Alexis Barri`ere, 2005
5.1. OP

ERATIONS

EL

EMENTAIRES MATRICIELLEMENT 65
Preuve
(D
r
()A)
ik
=
p

j=1
D
r
()
ij
A
jk
= D
r
()
ii
A
ik
=
_
A
ik
si i = r
A
ik
si i = r
On voit que la r-`eme ligne a ete multiplie par
Type III
e
rs
=
_
_
0 0
1
0 0
_
_
(e
rs
)
ij
=
ir

js
_
_
e
rs
_
1 r p
1 s p
_
base canonique de M
p
(K)
_
On denit E
rs
() = I
p
+e
rs
(pour r = s)
E
rs
() =
_
_
_
_
_
_
_
_
_
1 0 . . . . . . 0
.
.
.
0
.
.
.
.
.
.
0
.
.
.
.
.
.
0
0 1
_
_
_
_
_
_
_
_
_
se situant `a la ligne r et `a la colonne s
E
rs
() sappelle une matrice elementaire
Ajouter `a la r-`eme ligne fois la s-`eme revient `a multiplier `a gauche par E
rs
()
Preuve
(E
rs
()A)
ik
=
_
(I
p
+e
rs
)A
_
ik
= (I
p
A+e
rs
A)
ik
= A
ik
+(e
rs
A)
ik
= A
ik
+
_
p

j=1
(e
rs
)
ij
. .
=
ir

js
=0sij=s
A
jk
_
j=s
= A
ik
+
ir
A
sk
=
_
A
ik
si i = r
A
rk
+A
sk
si i = r
On voit quon a ajoute la r-`eme ligne fois la s-`eme (les autres lignes restent
inchangees)
Exemple p = 3 ; n = 2
E
3,2
(8) =
_
_
1 0 0
0 1 0
0 8 1
_
_
A =
_
_
a b
c d
e f
_
_
E
3,2
(8).A =
_
_
1 0 0
0 1 0
0 8 1
_
_
_
_
a b
c d
e f
_
_
=
_
_
a b
c d
e + 8c f + 8d
_
_
c Alexis Barri`ere, 2005
66 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
5.2 Matrices echelonnees
Denition 5.2.1 On dit quune matrice B M
pn
(K) est echelonnee sil y a
un entier r 0 et r indice de colonnes j
1
, j
2
, . . . , j
r
tels que :
a) 1 j
1
< j
2
< . . . < j
r
n (indices de colonnes)
b) La 1
`ere
ligne commence `a la colonne j
1
:
B
1i
= 0 si i < j
1
et B
1j
1
= 0
La 2
`eme
commence `a la colonne j
2
:
B
2i
= 0 si i < j
2
et B
2j
2
= 0
.
.
.
La r
`eme
commence `a la colonne j
r
:
B
ri
= 0 si i < j
r
et B
rj
r
= 0
c) r p et si r < p, alors les lignes r + 1, . . . , p sont nulles.
Les positions (1, j
1
), (2, j
2
), . . . , (r, j
r
) sappellent les echelons de B
B =
_
_
_
_
_
_
_
_
0 . . . 0

B
1j
1
. . . . . . . . . . . . . . . . . . . . .
0 . . . . . . 0

B
2j
2
. . . . . . . . .
.
.
.
.
.
. . . . . . .
0 . . . . . . . . . . . . . . . . . . . . . . . . 0

B
rj
r

0 . . . . . . . . . . . . . . . 0
_
_
_
_
_
_
_
_
Denition 5.2.2 Une matrice B M
pn
(K) est dite echelonnee reduite si elle
est echelonnee, avec echelons j
1
, j
2
, . . . , j
r
et si de plus :
B
ij
k
=
_
0 si i = k
1 si i = k (B
kj
k
= 1)
Cest `a dire toute la colonne j
k
est nulle sauf `a lechelon (k, j
k
) o` u on a la valeur
1
B =
_
_
_
_
_
_
_
_
0 . . . 0

1 . . . 0 . . . 0 . . .
0 . . . . . . . . . . . . 0

1
. . .
.
.
. . . .
.
.
.
.
.
.
0 . . .
0 . . . . . . . . . . . . . . . . . . . . . 0

1 . . .
0 . . . . . . . . . . . . . . . 0
_
_
_
_
_
_
_
_
Exemples
Exemple 1 :
_
_
_
_
0

2 7 1 0 2 1
0 0 0

1 8 0 4
0 0 0 0 0

4 5
0 0 0 0 0 0 0
_
_
_
_
Cette matrice est echelonne non-reduite, avec j
1
= 2, j
2
= 4, j
3
= 6, p = 4,
n = 7, et r = 3
Exemple 2 :
_
_
_
_
_
_
0

1 7 0 0 0 2
0 0 0

1 0 1 2
0 0 0 0

1 4 9
0 0 0 0 0 0 0
0 0 0 0 0 0 0
_
_
_
_
_
_
c Alexis Barri`ere, 2005
5.2. MATRICES

ECHELONN

EES 67
Cette matrice est echelonnee reduite avec j
1
= 2, j
2
= 4, j
3
= 5, p = 5, n = 7,
et r = 3
Exemple 3 :
_

1 4 6 5
0

2 0 1
_
Cette matrice est echelonnee avec j
1
= 1 et j
2
= 2
Exemple 4 :
_
_
_
_
0

1 2 7 0
0 0

2 5 1
0 0

3 4 0
0 0 0 0 0
_
_
_
_
Cette matrice nest pas echelonnee
Theor`eme 5.2.1 Toute matrice A M
pn
(K) est ligne-equivalente `a une ma-
trice B M
pn
(K) qui est echelonnee reduite. En dautres termes, par une
suite doperations elementaires sur les lignes on peut passer de A `a une matrice
echelonnee reduite
Preuve et algorithme Methode du pivot de Gauss
Soit j
1
lindice de colonne le plus petit pour lequel la colonne nest pas enti`erement
nulle.
Soit r p tel que A
rj
1
= 0 (A
rj
1
etant le pivot). Par une operation de type I
(echange de lignes) on peut ramener le pivot `a la premi`ere ligne, donc on peut
supposer A
1j
1
= 0. Par une operation de type II, on peut supposer le pivot egal
`a 1 (multiplier le pivot par A
1
1j
1
).
Par une succesion de type III, on peut annuler le reste de la colonne j
1
: on
ajoute `a la r-`eme ligne (A
rj
1
)fois la premi`ere.
On aboutit `a une matrice de la forme suivante :
_
_
_
_
_
_
0 0 1
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
0 0 0
. . .

C.

_
_
_
_
_
_
Si C = 0, on recommence avec cette matrice C
En reiterant cette methode, on aboutit `a une matrice echelonnee avec des valeurs
1 aux pivots (cest `a dire aux echelons) :
_
_
_
_
_
_
_
0 . . . 0

1 . . . . . . . . . . . .
0 . . . . . . . . . . . . 0

1 . . . . . .
.
.
.
.
.
.
. . . . . .
0 . . . . . . . . . . . . . . . . . . . . . 0

1 . . .
0 . . . . . . . . . . . . . . . 0
_
_
_
_
_
_
_
Finalement pour rendre la matrice echelonnee reduite, il reste `a annuler les co-
ecients au-dessus des pivots.
c Alexis Barri`ere, 2005
68 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
On traite dans lordre les colonnes j
2
, j
3
, . . . , j
r
et on ajoute `a la i-`eme ligne
(A
ij
k
)fois la k-`eme, pour 1 i k 1
Cette operation ne modie pas les colonnes precedentes car la k-`eme ligne com-
mence `a la colonne j
k
(il y a des zeros avant)
Exemple
_
_
_
_
1 2 3 4 5
0 1 2 1 2
1 3 5 7 9
0 1 2 3 4
_
_
_
_
E
3,1
(1)
;
_
_
_
_

1 2 3 4 5
0

1 2 1 2

1 2 3 4

1 2 3 4

_
_
_
_
E
3,2
(1)
E
4,2
(1)
;
_
_
_
_

1 2 3 4 5
0

1 2 1 2
0 0 0

2 2

0 0 0

2 2

_
_
_
_
E
4,3
(1)
echelonnee non-reduite
;
_
_
_
_
1 2 3 4 5
0 1 2 1 2
0 0 0 2 2
0 0 0 0 0
_
_
_
_
D
3
(
1
2
)
E
1,2
(2)
;
_
_
_
_

1 0 1 2 1
0

1 2 1 1
0 0 0

1 1
0 0 0 0 0
_
_
_
_
E
1,3
(2)
E
2,3
(1)
;
_
_
_
_

1 0 1 0 1
0

1 2 0 1
0 0 0

1 1
0 0 0 0 0
_
_
_
_
echelonnee reduite
Remarque Quelque soit lordre choisi des operations elementaires, la matrice
reduite B obtenue `a partir de A est toujours la meme (unicite de lechelonnee
reduite). La preuve est assez facile
Corollaire
Pour toute matrice A M
pn
(K), il existe une matrice inversible T GL
p
(K)
telle que TA est echelonne reduite.
Preuve
T
N
. . . T
3
T
2
T
1
. .
op. elementaires
.A = B echelonnee reduite
T = T
N
. . . T
2
T
1
est inversible car chaque T
i
est inversible (ex 3 serie 13)
Proprietes 5.2.1 Propriete Cruciale
Soit B une matrice ligne-equivalente `a A. Alors chaque ligne de B est une com-
binaison lineaire de lignes de A. De meme facon, chaque ligne de A est une
combinaison lineaire des lignes de B
c Alexis Barri`ere, 2005
5.3. SYST
`
EMES DE VECTEURS 69
Preuve
T
N
. . . T
3
T
2
T
1
. .
op. elementaires
.A = B
Il sut de montrer le resultat lorsquon passe dune matrice `a une autre par 1
operation elementaire.
Dans ce cas cest completement banal.
Pour la reciproque, cela utilise les operations (reversibles !) en sens inverse.
5.3 Syst`emes de vecteurs
Soit u
1
, . . . , u
p
K
n
. On parle dun syst`eme de p vecteurs dans K
n
. Chaque
u
i
a des composantes u
i
= (u
i1
, u
i2
, . . . , u
in
) K
n
Denition 5.3.1 La dimension de V ect(u
1
, . . . , u
p
) sappelle le rang du syt`eme
de vecteurs u
1
, . . . , u
p
Question : Trouver une bonne base de V ect(u
1
, . . . , u
p
) K
n
et en particulier
la dimension.
Reponse : Operations elmentaires !
Plus precisement, on met u
1
, . . . , u
p
dans une matrice en mettant les compo-
santes en lignes :
A =
_
_
_
_
_
u
11
u
12
. . . u
1n
u
21
u
22
. . . u
2n
.
.
.
.
.
.
.
.
.
.
.
.
u
p1
u
p2
. . . u
pn
_
_
_
_
_
u
1
u
2
.
.
.
u
p
Chaque operation elementaire sur les lignes de A corespond `a une operation sur
le syst`eme de vecteurs (echange de vecteurs, multiplication dun vecteur par un
scalaire non-nul, ajouter `a un vecteur le multiple dun autre)
Proprietes 5.3.1 Propriete Cruciale
Si deux syst`emes de vecteurs sont equivalents (cest `a dire quon peut passer
de lun `a lautre par des operations elementaires) alors ils engendrent le meme
sous-espace de K
n
u
1
, . . . , u
p
equivalent `a v
1
, . . . , v
p
V ect(u
1
, . . . , u
p
) = V ect(v
1
, . . . , v
p
)
En eet v
1
, . . . , v
p
sont des combinaisons lineaires de u
1
, . . . , u
p
(propriete cru-
ciale precedente)
Donc v
1
, . . . , v
p
V ect(u
1
, . . . , u
p
)
Donc V ect(v
1
, . . . , v
p
) V ect(u
1
, . . . , u
p
)
Tout est reversible V ect(u
1
, . . . , u
p
) V ect(v
1
, . . . , v
p
)
Et nalement V ect(u
1
, . . . , u
p
) = V ect(v
1
, . . . , v
p
)
On utilise cela pour le cas o` u on obtient un syst`eme w
1
, . . . , w
p
qui est echelonne
(reduit)
c Alexis Barri`ere, 2005
70 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
Dans ce cas, on peut repondre `a la question comme ceci :
w
1
= (0, . . . , 0, 1, , . . . , . . . , . . . , )
w
2
= (0, . . . , . . . , 0, 1, , . . . , . . . , )
.
.
.
w
r
= (0, . . . , . . . , . . . , 0, 1, , . . . , )
w
r+1
= (0, . . . , . . . , . . . . . . . . . , . . . , 0) = 0
.
.
.
w
p
= (0, . . . , . . . , . . . . . . . . . , . . . , 0) = 0
Alors w
1
, . . . , w
r
forment une base (echelonnee) de V ect(u
1
, . . . , u
p
). En parti-
culier sa dimension vaut r
rang(u
1
, . . . , u
p
)
def.
= dim
_
V ect(u
1
, . . . , u
p
)
_
= r = nombre de vecteurs non-nuls
dans un syst`eme echelonne equivalent
Preuve
w
1
, . . . , w
r
base de V ect(u
1
, . . . , u
p
) ?
V ect(u
1
, . . . , u
p
)
prop. cruc.
= V ect(w
1
, . . . , w
p
)
w
r+1
=...=w
p
=0
= V ect(w
1
, . . . , w
r
)
Donc w
1
, . . . , w
r
est un syst`eme de generateurs de V ect(u
1
, . . . , u
p
)
Par ailleurs le syst`eme w
1
, . . . , w
r
est libre, car echelonne

1
w
1
+. . . +
r
w
r
= 0
?

1
= . . . =
r
= 0

1
w
1
= (0, . . . , 0,
1
, , . . . , . . . , . . . , )

2
w
2
= (0, . . . , . . . , 0,
2
, , . . . , . . . , )
.
.
.

r
w
r
= (0, . . . , . . . , . . . , 0,
r
, , . . . , )
0 =
r

i=1

i
w
i
= (0, . . . ,
1
, ,
2
+
1
, ,
r
+ combinaisons lineaires des
i
, , . . .)
Il sensuit que
1
= 0, puis
2
= 0, . . ., puis
r
= 0
Denition 5.3.2 Le rang-ligne dune matrice A M
pn
(K) est le rang du
syst`eme de p vecteurs constitue des p lignes de A, cest `a dire la dimension de
lespace engendre par les lignes de A
Calcul du rang-ligne de A
On echelonne A (non-necessairement reduit) et on compte le nombre r de vec-
teurs non-nuls dans le syst`eme echelonne. Alors r =rang-ligne(A)
Denition 5.3.3 Le rang-colonne dune matrice A M
pn
(K) est la dimen-
sion du sous-espace de K
p
engendre par les colonnes de A
En dautres termes, cest le nombre maximal de colonnes lineairement independantes
(car on peut extraire une base parmi les colonnes en prenant le nombre maximum
possible de colonnes lineairement independantes)
c Alexis Barri`ere, 2005
5.4. SYST
`
EMES D

EQUATIONS LIN

EAIRES 71
Remarques
De meme, le rang-ligne de A est le nombre maximum de lignes lineairement
independantes
Calcul du rang-colonne de A
On echelonne (en colonnes) par des operations elementaires sur les colonnes. En
pratique, on transpose la matrice, ce qui permet de faire les operations sur les
lignes de la matrice transposee.
Rang-colonne et image
Si A M
pn
(K) est la matrice dune application lineaire : V W, par rap-
port `a certaines bases F de V et G de W, alors les colonnes de A correspondent
aux images (f
i
) des vecteurs f
i
de la base F, par rapport `a la base G.
Donc le sous-espace engendre par les colonnes correspond au sous-espace de W
engendre par les vecteurs (f
i
), . . . , (f
n
), cest `a dire limage Im() :
Im() = {(v) / v V}
= {
_
n

i=1

i
f
i
_
/
1
, . . . ,
n
K}
= {
n

i=1

i
(f
i
) /
1
, . . . ,
n
K}
Pour trouver une base de Im(), et en particulier sa dimension, on doit faire
des operations elementaires sur les colonnes de A
On a en particulier :
rang-colonne de A = dim(Im()) = rang()
Methode pour limage de
1. Transposer A
t
A M
np
(K)
2. Faire des operations elementaires sur les lignes de
t
A
3. La matrice echelonnee (reduite) B obtenue `a partir de
t
A fournit une base
de limage.
En particulier, le rang-colonne de A (cest `a dire le rang-ligne de
t
A) est
egal au nombre de lignes non-nulles de B
5.4 Syst`emes dequations lineaires
Syst`eme de p equations lineaires `a n inconnues :
_

_
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= b
1
.
.
.
a
p1
x
1
+ a
p2
x
2
+ . . . + a
pn
x
n
= b
p
x
1
, . . . , x
n
inconnues
a
ij
K scalaire xes (1 i p, 1 j n)
b
1
, . . . , b
p
scalaires xes (second membre)
c Alexis Barri`ere, 2005
72 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
On dit que le syst`eme est homog`ene sil est sans second membre, cest `a dire
si b
1
= . . . = b
p
= 0.
Il est inhomog`ene dans le cas contraire
Traduction matricielle
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ B =
_
_
_
b
1
.
.
.
b
p
_
_
_ A = (a
ij
) M
pn
(K)
Le syst`eme devient simplement AX=B
Le rang du syst`eme est par denition le rang-ligne de A
Traduction en termes dapplications lineaires
Soit : V W une application lineaire, soit F une base de V et G une
base de W et soit A = ()
G
F
M
pn
(K) (n = dim(V), et p = dim(W))
Soit w W un vecteur xe avec matrice :
(w)
F
=
_
_
_
b
1
.
.
.
b
p
_
_
_
On veut trouver tous les vecteurs v V dont limage vaut w
Le vecteur v V a une matrice :
(v)
F
=
_
_
_
x
1
.
.
.
x
n
_
_
_
constitue dinconnues (`a trouver)
On veut (v) = w, ce qui donne matriciellement AX=B
Les solutions de ce syst`eme AX=B permettent de decrire lensemble des vecteurs
v cherches :
{v V/ (v) = w}
Cas particulier : w = 0
{v V/ (v) = 0} = Ker()
Trouver Ker() revient `a resoudre le syst`eme homog`ene AX=0
En particulier, on voit que lensemble des solutions dun syst`eme homog`ene est
un sous-espace vectoriel de K
n
(mais ce nest pas le cas pour un syst`eme inho-
mog`ene)
Methode de resolution
On fait des operations elementaires sur les lignes de A, ce qui correspond `a
des operations elementaires sur les equations :
c Alexis Barri`ere, 2005
5.4. SYST
`
EMES D

EQUATIONS LIN

EAIRES 73
I - echange dequations
II - Multiplication dune equation par un scalaire non-nul
III - Ajouter `a une equation un multiple dune autre
Attention : il faut aussi faire les operations sur le second membre
Matriciellement : chaque operation elementaire revient `a multiplier `a gauche
par une certaine matrice. Donc AX=B devient T
1
AX = T
1
B, etc
T
n
. . . T
1
. .
T
.A.X = T
n
. . . T
1
. .
T
.B , cest `a dire T.A.X = T.B
Operations reversibles, donc AX=B TAX=TB
(o` u T = produit des matrices doperations elementaires = matrices reversibles)
Methode : on echelonne et on reduit.
Les solutions se lisent tr`es facilement dans le syst`eme echelonne reduit :
x
j1
+ + 0x
j2
+ + 0x
jr
+ = c
1
0 . . . 0 + x
j2
+ + 0x
jr
+ = c
2
0 . . . 0
.
.
.
0 . . . 0 + x
jr
+ = c
r
0 . . . . . . 0 = c
r+1
.
.
.
.
.
.
0 . . . . . . 0 = c
p
_

_
o` u
_
_
_
c
1
.
.
.
c
p
_
_
_ = T.
_
_
_
b
1
.
.
.
b
p
_
_
_
et o` u r= rang du syt`eme
Les inconnues x
j1
, . . . , x
jr
sappellent les inconnues principales, les autres sap-
pellent les inconnues libres :
r inconnues principales
n r inconnues libres
Solution :
1. On regarde les p r derni`eres equations (sil y en a)
Si lun des scalaires c
r+1
, . . . , c
p
est non-nul, on aboutit `a une equation
impossible 0 = c
i
Dans ce cas, le syst`eme na aucune solution.
Sinon cest-`a-dire si c
r+1
= . . . = c
p
= 0 ou bien si r = p (pas de derni`eres
equations) alors le syst`eme a des solutions
2. Si le syst`eme a des solutions, on les trouve en donnant des valeurs arbitraires
aux inconnues libres et en determinant les valeurs des inconnues princi-
pales imposees par le syst`eme
Exemple
a R xe
_
_
_
x
2
x
3
= 6
2x
1
+ 4x
2
6x
3
= 2
3x
1
+ x
2
4x
3
= a
c Alexis Barri`ere, 2005
74 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
T
1,2
puisD
1
(
1
2
)
;
_
_
_
x
1
+ 2x
2
3x
3
= 1
x
2
x
3
= 6
3x
1
+ x
2
4x
3
= a
E
3,1
(3)
;
_
_
_
x
1
+ 2x
2
3x
3
= 1
x
2
x
3
= 6
5x
2
+ 5x
3
= a 3
E
3,2
(5)
;
_
_
_
x
1
+ 2x
2
+ 3x
3
= 1
x
2
x
3
= 6
0 = a + 27
E
1,2
(2)
;
_
_
_
x
1
x
3
= 11
x
2
x
3
= 6
0 = a + 27
Discussion
Si a = 27, pas de solution
Sinon
_
x
1
= x
3
11
x
2
= x
3
+ 6
x
3
libre
Resultats generaux pour un syst`eme homog`ene
p equations, n inconnues, rang r
1. Il y a toujours la solution 0
2. Lensemble des solutions est un sous-espace vectoriel de K
n
de dimension
n r (car il y a n r inconnues libres)
3. Sil y a n equations lineairement independantes (ce qui force n p), alors
dans ce cas r = n et lespace des solutions est {0} de dimension 0. Il ny
a que la solution nulle dans ce cas
4. Si n > p (plus dinconnues que dequations), alors lespace des solutions
est de dimension 1 (innite de solutions si K est inni)
En eet n r > p r 0
Base de lespace des solutions dun syst`eme homog`ene
p equations `a n inconnues, rang r
n r inconnues libres
Pour trouver une base de lespace des solutions de AX=0 :
1. On donne la valeur 1 `a la premi`ere inconnue libre, 0 aux autres, puis on
determine la solution, ce qui donne le premier vecteur de base
2. on donne la valeur 1 `a la deuxi`eme inconnue libre, 0 aux autres, puis on
determine la solution, ce qui donne le 2
`eme
vecteur de base
3. . . . pour chacune de n r inconnues libres
On obtient n r vecteurs qui forment une base de lespace des solutions. En
eet ces vecteurs sont lineairement independants (facile en regardant chaque
inconnue libre)
c Alexis Barri`ere, 2005
5.4. SYST
`
EMES D

EQUATIONS LIN

EAIRES 75
Comme ces nr vecteurs sont lineairement independants, ils forment une base
(car lespace des solutions est de dimension n r)
Exemple
_

_
x
2
+ 3x
4
x
6
= 0
+ x
3
x
4
2x
6
= 0
+ x
5
+ x
6
= 0
0 = 0
p = 4, n = 6, r = 3, n r = 3 inconnues libres (x
1
, x
4
, x
6
)
1. x
1
= 1, x
4
= x
6
= 0 x
2
= 0, x
3
= 0, x
5
= 0
f
1
= (1, 0, 0, 0, 0, 0)
2. x
1
= x
6
= 0, x
4
= 1 x
2
= 3, x
3
= 1, x
5
= 0
f
2
= (0, 3, 1, 1, 0, 0)
3. x
1
= x
4
= 0, x
6
= 1 x
2
= 1, x
3
= 2, x
5
= 1
f
3
= (0, 1, 2, 0, 1, 1)
f
1
, f
2
, f
3
sont libres (regarder les composantes n1,4,6)
Cest la base cherchee pour lespace des solutions
Resultats pour un syst`eme inhomog`ene
AX=B, p equations `a n inconnues, rang r
1. Il peut ny avoir aucune solution. Cela se discute en regardant les p r
equations restantes dans le syst`eme echelonne (reduit)
2. Si r = n = p (n equations `a n inconnues, lineairement independantes),
alors il y a une solution unique
En eet p r = 0 (pas dequations restantes) donc il a des solutions, et
de plus n r = 0, donc pas dinconnues libres
Les inconnues principales (toutes !) sont determinees alors de mani`ere
unique
3. Principe fondamental
Soit S lensemble de toutes les solutions du syst`eme AX=B
Soit Y = (y
1
, . . . , y
n
) une de ces solutions : solution particuli`ere (xee)
Soit W lensemble de toutes les solutions du syst`eme homog`ene corres-
pondant : AX=0, donc W est un sous-espace.
Alors on obtient S en ajoutant `a Y , toutes les solutions homog`enes (celles
dans W)
S={Y +w/ w W}
Preuve : soit w W et considerons Y +w. A montrer Y +w S
Y solution particuli`ere AY =B
w solution homog`ene Aw=0
Ce qui donne : A(Y +w)=B
Y +w est solution Y +w S
Autre inclusion : soit s S. Donc As=B
Par ailleurs AY =B, on soustrait et on obtient A(s Y )=0
Donc s Y est une solution homog`ene, cest `a dire s Y W
Finalement s = Y + (s Y )
. .
W
et s RHS (Right Hand Side)
c Alexis Barri`ere, 2005
76 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
Remarque : Lensemble {Y + w/ w W} est un sous-espace ane de
K
n
, cest `a dire un sous-ensemble obtenu en additionant `a des elements w
dun sous-espace W, un vecteur Y xe (sous-espace vectoriel translate
par Y )
5.5 Rang dune matrice
Theor`eme 5.5.1 Soit A M
pn
(K), alors rang-ligne(A)=rang-colonne(A)
Preuve
A M
pn
(K)
A est la matrice dune application lineaire : V W par rapport `a des bases
F=(f
1
, . . . , f
n
) de V et G=(g
1
, . . . , g
p
) de W, cest `a dire A=()
G
F
(Par exemple : K
n
K
n
par rapport aux bases canoniques)
Le syst`eme homog`ene AX=0 correspond `a la recherche du noyau de (cest
`a dire {x/ (x) = 0}). La dimension du noyau est la dimension de lespace
des solutions, cest `a dire n r o` u r=rang du syst`eme
def.
= rang-ligne de A. Le
theor`eme du rang nous dit que :
dim(Im()) = dim(V) dim(Ker())
= n (n r)
= r
Or dim(Im()) =rang-colonne de A
Donc rang-colonne(A) vaut r=rang-ligne
Denition 5.5.1 On appelle rang dune matrice son rang-ligne (ou rang-colonne)
5.6 Operation elementaire et matrices inversibles
On consid`ere des matrices carrees n n
Theor`eme 5.6.1 Theor`eme dinversibilite
Soit A M
n
(K), les conditions suivantes sont equivalentes :
a) A est inversible
b) A est inversible `a gauche (B M
n
(K) telle que BA=I
n
)
c) A est inversible `a droite (C M
n
(K) telle que AC=I
n
)
d) Le rang de A vaut n (rang maximal)
e) La matrice echelonne reduite qui est ligne-equivalente `a A est la matrice
identite I
n
Preuve
a) b)

a) c)

c Alexis Barri`ere, 2005
5.6. OP

ERATION

EL

EMENTAIRE ET MATRICES INVERSIBLES 77


b) a) A est la matrice dune application lineaire : V V, donc A=()
F
F
par rapport `a une certaine base F
Lhypoth`ese b) nous dit quil existe une application lineaire : V V,
avec matrice B=()
F
F
telle que = id
V
Il sensuit que est injectif, car si (v) = 0
Alors v = ( )(v) = ((v)) = (0) = 0
Par le theor`eme de bijectivite, on sait que est bijectif (car dim(V) est
nie)
Donc est inversible et donc A est inversible
c)a) A= ()
F
F
. Lhypoth`ese c) nous dit quil existe : V V avec matrice
C=()
F
F
, telle que = id
V
Il sensuit que est surjectif, car si w V, alors w = ( )(w) =
((w)) Im()
Par le theor`eme de bijectivite, est bijectif, donc inversible et donc A est
inversible
b) d) Par hypoth`ese il existe B M
n
(K) telle que BA=I
n
. Or les lignes de
BA sont des combinaisons lieaires des lignes de A. En eet :
(BA)
ij
=
n

k=1
B
ik
A
kj
et donc i-`eme ligne de BA=B
i1
(1
`ere
ligne de A)+B
i2
(2
`eme
de A)+ . . .+
B
in
(n-`eme ligne de A)
Ici BA=I
n
et donc e
1
= (1, 0, . . . , 0), e
2
= (0, 1, 0, . . . , 0),. . .,e
n
= (0, . . . , 0, 1)
sont des combinaisons lineaires de lignes de A. Donc le sous-espace de K
n
engendre par les lignes de A contient e
1
, . . . , e
n
, donc contient V ect(e
1
, . . . , e
n
) =
K
n
. Donc V ect(lignes de A) = K
n
Sa dimension est le rang-ligne.
Donc rang(A)=n
d) e) Par hypoth`ese, rang(A)=n. On echelonne et on reduit A. On ob-
tient une matrice echelonnee reduite E (et donc TA=E). On sait que
rang(A)=rang(E), et donc rang(E)=n. Il y a donc n echelons j
1
, . . . , j
n
avec 1 j
1
< j
2
< . . . < j
n
n.
Cela force j
1
= 1, j
2
= 2, . . . , j
n
= n. Dans la i-`eme colonne, il y a un 1 `a
la i-`eme ligne et 0 ailleurs (i = 1, . . . , n)
Il sensuit que E = I
n
e) b) On fait des operations elementaires et on trouve I
n
. Donc TA=I
n
, o` u
T = T
N
. . . T
2
T
1
(succession doperations elementaires). On voit que A est
inversible `a gauche
Corollaire
a) Toute matrice inversible est egale `a un produit de matrices doperations
elementaires
b) Si A est inversible et si T = T
N
. . . T
2
T
1
est la matrice des operations
elementaires permettant de passer `a la forme echelonnee reduite (cest `a
dire I
n
), alors T = A
1
Preuve
Par e), on a TA = I
n
, et donc A
1
= T
c Alexis Barri`ere, 2005
78 CHAPITRE 5. OP

ERATIONS

EL

EMENTAIRES
De plus A = T
1
= (T
N
. . . T
2
T
1
)
1
= T
1
1
T
1
2
. . . T
1
N
et chauqe T
1
i
est la
matrice dune operation elementaire (operation inverse de celle correspondant `a
T
i
). Ceci demontre a)
Methode pour inverser une matrice
Si A est inversible, alors TA = I
n
o` u T = T
N
. . . T
2
T
1
(succesions doperations
elementaires)
De plus TI
n
= T = A
1
, et donc (T
N
. . . T
2
T
1
)I
n
= A
1
Do` u la methode :
1. On met cote `a cote A et I
n
2. On fait des operations elmentaires `a partir de A, et simultanement on fait
les memes operations elementaires en partant de I
n
3. On aboutit `a I
n
`a partir de A et `a A
1
`a partir de I
n
De plus, cette methode est aussi un test dinversibilite : si les operations elementaires
sur A naboutissent pas ` a I
n
, alors A nest pas inversible (et on trouve du meme
coup le rang)
Exemples
1.
_
1 2

1 0
2 6

0 1
_
E
2,1
(2)
;
_
1 2

1 0
0 2

2 1
_
D
2
(
1
2
)
;
_
1 2

1 0
0 1

1
1
2
_
E
1,2
(2)
;
_
1 0

3 1
0 1

1
1
2
_
On a `a gauche I
2
et `a droite A
1
On verie que AA
1
= I
2
2.
A =
_
1 3
3 9
_
_
1 3

1 0
3 9

0 1
_
E
2,1
(3)
;
_
1 3

1 0
0 0

3 1
_
Echelonnee reduite mais = I
2
Donc A nest pas inversible
De plus on voit que rang(A)=1
c Alexis Barri`ere, 2005