Вы находитесь на странице: 1из 104

Algebra

Lineal y Geometra
Grado en Fsica
Notas de teora
Temas 1-4

Departamento de Algebra,
Universidad de Sevilla

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

El contenido de estas notas ha sido disenado


y redactado por el profesorado de la asig de
natura y esta registrado bajo una licencia Creative Commons. Se permite la reproduccion
la totalidad o de parte de las presentes notas con cualquier fin excepto el lucrativo, siempre
y cuando se cite correctamente la procedencia y autora de las mismas.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Indice general
1. Matrices y sistemas de ecuaciones
1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . .
1.2. Sistemas compatibles, incompatibles, determinados...
1.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . .
gaussiana . . . . . . . . . . . . . . . . . .
1.4. Eliminacion

1.5. Algebra
matricial . . . . . . . . . . . . . . . . . . . . .
1.6. Matrices elementales. Matriz inversa . . . . . . . . . .
1.7. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Determinantes . . . . . . . . . . . . . . . . . . . . . . .
1.9. Determinantes: desarrollo por filas y columnas . . . .
1.10. Submatrices. El metodo del orlado . . . . . . . . . . .
1.11. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . .
2. Espacios vectoriales
y ejemplos
2.1. Espacios vectoriales: Definicion
2.2. Dependencia e independencia lineal . . . .
2.3. Sistemas generadores y bases . . . . . . . .
. . . . . . . . . . . . . . . . . . .
2.4. Dimension
2.5. Coordenadas . . . . . . . . . . . . . . . . . .
2.6. Subespacios . . . . . . . . . . . . . . . . . .
2.7. Operaciones entre subespacios . . . . . . .
2.8. Suma directa . . . . . . . . . . . . . . . . . .
2.9. Producto escalar . . . . . . . . . . . . . . . .
2.10. Bases ortonormales . . . . . . . . . . . . . .
3. Homomorfismos de espacios vectoriales
y ejemplos
3.1. Homomorfismos: definicion

3.2. Nucleo
e imagen . . . . . . . . . . . . .
3.3. Isomorfismos . . . . . . . . . . . . . . .
3.4. Espacio dual . . . . . . . . . . . . . . . .
3.5. Autovalores y autovectores . . . . . . .
. . . . . . . . . . . . . .
3.6. Diagonalizacion
3.7. Teoremas espectrales . . . . . . . . . . .
4. Espacio afn y eucldeo
4.1. Espacio afn . . . . . . . . .
4.2. Variedades lineales . . . . .
4.3. Sistemas de referencia . . .
4.4. Operaciones con variedades
4.5. Espacio eucldeo . . . . . . .
4.6. Aplicaciones afines . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento3de Algebra.
http://departamento.us.es/da/da.html

.
.
.
.
.
.
.
.
.
.
.

5
5
7
9
12
13
17
19
22
26
28
30

.
.
.
.
.
.
.
.
.
.

33
33
35
37
39
41
43
46
48
50
55

.
.
.
.
.
.
.

57
57
60
62
64
65
67
70

.
.
.
.
.
.

75
75
77
79
80
82
84

INDICE GENERAL

4
4.7.
4.8.
4.9.
4.10.

Afinidades . . . . . . . . . . . . . . . . .
Movimientos . . . . . . . . . . . . . . . .
de movimientos en A2 (R) .
Clasificacion
de movimientos en A3 (R) .
Clasificacion

A. Resultados auxiliares
A.1. Aplicaciones . . . . . . . . . . . . . . .
A.2. Operaciones y estructuras algebraicas
A.3. Polinomios . . . . . . . . . . . . . . . .

A.4. Numeros
complejos . . . . . . . . . . .

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

.
.
.
.

87
90
92
94

.
.
.
.

99
99
100
102
103

Tema 1
Matrices y sistemas de ecuaciones
1.1.

Sistemas de ecuaciones lineales

En estas notas, k denotara bien el conjunto de los numeros


racionales Q, el conjunto de

los numeros
reales R o el conjunto de los numeros
complejos C. Mas generalmente, la teora
es valida siendo k un cuerpo cualquiera. Los elementos de k se denominaran escalares.

lineal en n variables con coeficientes en k es una expresion del


Definicion
1.1 Una ecuacion
tipo
a1 x 1 + a2 x 2 + + an x n = b
donde a1 , a2 , . . . , an , b k. Los escalares a1 , a2 . . . , an son los coeficientes de la ecuacion, b

el termino independiente y x1 , x2 , . . . , xn las incognitas.


La ecuacion se dice homogenea si
b = 0.

lineal es una n-upla1 de elementos de k (c1 , c2 , . . . , cn )


Una solucion de dicha ecuacion
se transforma en una
k n tal que al sustituir cada xi por el correspondiente ci la ecuacion
igualdad en k.
Ejemplo

Las 3-uplas (1, 1, 1) y (3, 1, 0) son soluciones de la ecuacion


x1 x2 + 2x3 = 2.

Por el contrario, (1, 0, 0) y (0, 1, 1) no son soluciones de dicha ecuacion.

Definicion
1.2 Un sistema de ecuaciones lineales en n variables con coeficientes en k es conjunto de m 1 ecuaciones lineales en n variables
a11 x1 + a12 x2 + + a1n xn = b1
..
.
am1 x1 + am2 x2 + + amn xn = bm
1

Una n-upla es un conjunto ordenado de n elementos de k: por ejemplo, (1, 4, 3, 2) es una 4-upla de elementos
de R distinta de (1, 3, 2, 4). El conjunto de n-uplas de elementos de k se denota por k n .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento5de Algebra.
http://departamento.us.es/da/da.html

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

de dicho sistema es una n-upla de elementos de k que sea solucion de cada una de
Una solucion
las ecuaciones por separado. Un sistema se dice homogeneo si todas sus ecuaciones lo son, es
decir, si b1 = . . . = bm = 0.

Ejemplo
del sistema
La 3-upla (1, 1, 1) es solucion
x1 x2 + 2x3 = 2
x1 + x2 x3 = 1
de dicho sistema, puesto que no es solucion
de la
Sin embargo, (3, 1, 0) no es solucion

segunda ecuacion.
fundamental que se nos plantea es hallar
Dado un sistema de ecuaciones, la cuestion
el conjunto de todas sus soluciones. Para algunos sistemas, es facil hallarlas. Por ejemplo,
consideremos el sistema siguiente:
x1 2x2 + x3 = 1
x2 x3 = 3
2x3 = 4

(1.1)

se ve claramente que cualquier solucion


(x1 , x2 , x3 ) del
Fijandonos en la ultima
ecuacion
vemos que x2 debe ser igual
sistema debe tener x3 = 2. Usando ahora la segunda ecuacion,
deducimos que x1 = 9. Por tanto, el sistema tiene
a 5, y finalmente, de la primera ecuacion

que es (9, 5, 2). Este tipo de sistemas, en los que la primera variable que
una unica
solucion,
es distinta, se llamaran escalonados.
aparece con coeficiente no nulo en cada ecuacion
Consideremos ahora el siguiente sistema:
x1 2x2 + x3 = 1
x1 x2 = 4
x1 + x2 + 2x3 = 0
En este caso no podemos aplicar el mismo metodo que en el sistema anterior: no es posible averiguar el valor de ninguna de las variables a partir de una sola de las ecuaciones.
de la segunda y le sumamos e sta a la tercera,
Sin embargo, si restamos la primera ecuacion
volvemos a obtener el sistema anterior. Al realizar estas operaciones, esta claro que no cambiamos el conjunto de soluciones del sistema, ya que podemos recuperar el sistema original

de este ultimo

realizando las operaciones inversas. Por tanto, la unica


solucion
sistema es

(9, 5, 2), al igual que en el sistema anterior. Esta


sera nuestra estrategia para resolver sistemas en general.

Definicion
1.3 Dos sistemas de ecuaciones en n variables se dicen equivalentes si tienen exactamente las mismas soluciones.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.2. SISTEMAS COMPATIBLES, INCOMPATIBLES, DETERMINADOS...

Ejemplo
Los sistemas

x1 2x2 + x3 = 1
x2 x3 = 3
2x3 = 4

y
x1 2x2 + x3 = 1
x1 x2 = 4
x1 + x2 + 2x3 = 0

Los sistemas
son equivalentes, ambos tienen a (9, 5, 2) como unica
solucion.
x1 2x2 + x3 = 1
x2 x3 = 3
2x3 = 4
y
x1 2x2 + x3 = 1
x2 x3 = 3
del segundo pero no del primero.
no son equivalentes, puesto que (7, 3, 0) es solucion
Dado un sistema de ecuaciones, podemos realizar una de las siguientes operaciones sobre e l, y obtendremos un sistema equivalente:
1. Intercambiar dos ecuaciones
por un escalar distinto de cero
2. Multiplicar una ecuacion

3. Sumarle un multiplo
de una de las ecuaciones a cualquier otra

Notese
que estas tres operaciones son reversibles: la primera puede deshacerse volviendo
por el escalar
a intercambiar las ecuaciones, la segunda multiplicando la misma ecuacion

a la segunda (es
inverso, y la tercera restandole el mismo multiplo
de la primera ecuacion
decir, sumarsela multiplicada por el opuesto del escalar). Llamaremos transformaciones elementales a estos tres tipos de operaciones realizadas sobre un sistema de ecuaciones.

En las proximas
secciones, veremos como
podemos transformar cualquier sistema en
transformaciones elementales, y como

otro equivalente escalonado usando solo


resolver los
sistemas escalonados. Esto nos dara un metodo para hallar las soluciones de cualquier sistema.

1.2.

Sistemas compatibles, incompatibles, determinados


e indeterminados

Los sistemas de ecuaciones pueden clasificarse dependiendo de si tienen o no solucion.

Definicion
1.4 Un sistema de ecuaciones lineales se dice compatible si tiene alguna solucion.
De lo contrario, se dice incompatible.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Un sistema homogeneo siempre es compatible, puesto que tiene a la n-upla (0, 0, . . . , 0)


Sea
como solucion.
a11 x1 + a12 x2 + + a1n xn = b1
..
.
am1 x1 + am2 x2 + + amn xn = bm
un sistema de ecuaciones. El sistema homogeneo asociado es el sistema de ecuaciones obtenido al hacer todos los terminos independientes iguales a 0. Si (1 , 2 , . . . , n ) es una solu del sistema y (1 , 2 , . . . , n ) es una solucion
del sistema homogeneo asociado, entonces
cion
del sistema original. Ademas, cual(1 + 1 , 2 + 2 , . . . , n + n ) es tambien una solucion
del sistema original puede obtenerse de esta forma. Es decir, si un sistema
quier otra solucion
puede obtenerse sumandole a una solucion
prefijada una
es compatible, cualquier solucion
del sistema homogeneo asociado. En particular, el sistema y su sistema homogeneo
solucion

asociado tienen el mismo numero


de soluciones.

Teorema 1.1 Si (1 , 2 , . . . , n ) es solucion de un sistema de ecuaciones, cualquier otra solucion


es de la forma (1 + 1 , 2 + 2 , . . . , n + n ), donde (1 , 2 , . . . , n ) es solucion del sistema
homogeneo asociado.

estudiaremos las posibles soluciones de sistemas escalonados.


En lo que resta de seccion
la primera variable que
Recordemos que un sistema es escalonado si, para cada ecuacion,
aparece con coeficiente no nulo es distinta. Reordenando las ecuaciones, podemos suponer
la primera variable que aparece con coeficiente no nulo tiene ndice
que, en cada ecuacion,
anterior (de ah el nombre de sistema
mayor que la correspondiente variable de la ecuacion
escalonado). A partir de ahora, supondremos que todos los sistemas escalonados cumplen

esta condicion.
Ejemplo
Los sistemas

x1 + 2x2 3x3 = 0
x2 + x3 = 1
x3 = 4

y
x1 + x2 x4 = 0
x2 + 2x3 = 2
x4 = 1
son escalonados.
se llamara vaLa primera variable que aparezca con coeficiente no nulo en una ecuacion
riable pivote. El el primer ejemplo anterior, las variables pivote son x1 , x2 y x3 respectivamente. En el segundo ejemplo, las variables pivote son x1 , x2 y x4 .

Es posible que una de las ecuaciones (necesariamente la ultima)


no contenga ninguna
sera del tipo 0 = b. Si b es 0,
variable con coeficiente no nulo. En tal caso, la ecuacion
se verifica siempre, por lo que podemos eliminarla del sistema sin
claramente la ecuacion

no se verifica nunca,
modificar el numero
de soluciones. Por el contrario, si b 6= 0, la ecuacion
por lo que el sistema no puede tener soluciones. Dicho de otro modo, es incompatible.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.3. MATRICES

Si el sistema es compatible, podemos hallar sus soluciones empezando por la ultima


y moviendonos hacia arriba. Para cada ecuacion,
podemos despejar la variable
ecuacion
de las demas, que se suponen ya conocidas. Aqu debemos distinguir dos
pivote en funcion
casos:
al despejar la variable pivote en
1. Si todas las variables son pivotes de alguna ecuacion,
obtenemos un valor completamente determinado para cada variable. Es
cada ecuacion
unica

lo que ocurra en el sistema (1.1). En ese caso obtenemos una solucion


y decimos
que el sistema es determinado.

Definicion
1.5 Un sistema de ecuaciones lineales compatible se dice determinado si tiene
una unica

solucion. De lo contrario, se dice indeterminado.

entonces a esta va2. Si alguna variable no aparece como pivote en ninguna ecuacion,
riable puede asignarsele cualquier valor en k. Diremos que esta variable es libre. Para
distinta del sistema. Por
cada posible valor que se le asigne, obtendremos una solucion
tanto, en este caso el sistema es indeterminado.
Ejemplo
Consideremos el sistema escalonado
x1 + x2 x4 = 0
x2 + 2x3 = 2
x4 = 1
el sistema es indeterminado.
Como la variable x3 no es pivote de ninguna ecuacion,

se obtiene x4 = 1. La variable x3 es libre,


Veamos sus soluciones: de la ultima
ecuacion
obtenemos
podemos asignarle cualquier valor: llamemosle t. De la segunda ecuacion
entonces x2 = 2t + 2, y de la primera x1 = 2t 1. Las soluciones del sistema son, por
tanto, (2t 1, 2t + 2, t, 1) para cualquier valor de t k.
Si el cuerpo k es infinito, como ocurre en los casos k = Q, R o C, un sistema compatible

indeterminado tiene un numero


infinito de soluciones (ya que cada variable libre puede

tomar un numero
infinito de valores).

Ahora que sabemos como


resolver cualquier sistema escalonado, el siguiente paso es
lograr transformar cualquier sistema en uno escalonado equivalente. Para ello, sera conve contenida en un
niente ver antes un metodo para escribir de manera eficiente la informacion
sistema.

1.3.

Matrices

Dado un sistema de ecuaciones lineales


a11 x1 + a12 x2 + + a1n xn = b1
..
.
am1 x1 + am2 x2 + + amn xn = bm

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

(1.2)

10

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

importante son los coeficientes correspondientes a cada variable y los termila informacion
nos independientes. El resto de elementos que aparecen (las variables, los signos + e =)
sirven simplemente para recordarnos que papel juega cada escalar. Para poder realizar operaciones sobre el sistema de manera mas eficiente, extraeremos los datos importantes y los
rectangular de la siguiente forma:
colocaremos en una formacion

a11 a12
..
..
..
.
.
.
am1 am2

a1n
..
.
amn

b1
..
.
bm

Esto es lo que se denomina una matriz con coeficientes en k.

Definicion
1.6 Una matriz m n sobre k es una tabla formada por mn elementos de k dispuestos en m filas y n columnas, escrita entre parentesis

a11 a12 a1n

..
..
...
A = ...
.
.
am1 am2

amn

Los elementos de la matriz A se denotan por aij , donde i y j indican, respectivamente, la fila y la
columna que ocupa el elemento dentro de la tabla.
El conjunto de todas las matrices de orden m n definidas sobre k se denota por Mmn (k)

Definicion
1.7 Una matriz fila (respectivamente matriz columna) es una matriz con una uni
ca fila (resp. con una unica

columna).

Al sistema de ecuaciones (1.2) le asociaremos dos matrices: su matriz de coeficientes sera la


matriz m n

a11 a12 a1n

..
..
..
A = ...
.
.
.
am1 am2 amn

y su matriz ampliada sera la obtenida de la matriz de coeficientes anadi


endole a la derecha la
columna de terminos independientes:

a11 a12
..
..
..
.
.
.
am1 am2

a1n
..
.
amn

b1
..
.
bm

Si el sistema es escalonado, su matriz ampliada tiene la propiedad de que el primer elemento distinto de cero en cada fila (a partir de la segunda) esta situado mas a la derecha que
el primer elemento distinto de cero en la fila anterior.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.3. MATRICES

11

Definicion
1.8 Una matriz A Mmn (k) esta en forma escalonada si cumple las dos condiciones siguientes
a) Si una fila de A contiene solo ceros, todas las filas por debajo de ella contienen solo ceros.
b) El primer elemento distinto de cero en cada fila esta situado mas a la derecha que el primer
elemento distinto de cero en la fila anterior.
En tal caso, los primeros elementos distintos de cero en cada fila se llaman elementos pivote de
la matriz.

Ejemplo
La matriz

1
0
0

2
1
0

0 1 1
1 0 0
0
2 1

esta en forma escalonada, y los pivotes son los elementos marcados con un recuadro. La
matriz

1 2 0 1 1
0 0 1 0 0
0 0 2
1 1
no esta en forma escalonada, puesto que el primer elemento distinto de cero en la tercera
fila esta justo debajo del primer elemento distinto de cero en la segunda.
elemental sobre un sistema de ecuaciones corresponde a
Realizar una transformacion
realizar una de las siguientes operaciones sobre su matriz ampliada correspondiente:
1. Intercambiar dos filas
2. Multiplicar todos los elementos de una fila por un escalar distinto de cero
3. Sumarle a cada elemento de una fila el correspondiente elemento de otra fila multiplicado por un escalar fijo
Estas operaciones se denominaran operaciones elementales por filas de tipo 1, 2 y 3 respectivamente. Tambien es posible realizar operaciones elementales por columnas, aunque no
haremos uso de ellas por el momento.

Definicion
1.9 Dos matrices A y B se dicen equivalentes por filas si una de ellas puede obtenerse a partir de la otra mediante una sucesion de operaciones elementales por filas.

Si dos sistemas de ecuaciones lineales son tales que sus matrices ampliadas son equivalentes por filas, entonces los sistemas son equivalentes, es decir, tienen las mismas soluciones.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

12

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1.4.

Eliminaci
on gaussiana

gaussiana nos permitira transformar cualquier matriz en una


El metodo de eliminacion

en forma escalonada usando unicamente


operaciones elementales por filas. Por tanto, si la
matriz es la matriz ampliada de un sistema de ecuaciones, la forma escalonada final correspondera a un sistema escalonado equivalente al primero, que sabemos resolver. Esto nos da
un metodo para hallar las soluciones de cualquier sistema de ecuaciones.
Algoritmo de eliminacion
gaussiana

Las variables i y j indicaran el numero


de fila y columna en que nos encontramos,
respectivamente. El algoritmo comienza con i = j = 1.
1. Se busca un elemento distinto de cero en la columna j, moviendonos de la fila i
hacia abajo. Si no hay ninguno, aumentamos j en 1 y volvemos al paso (1).
2. Una vez hallado el elemento distinto de cero, digamos en la fila k, si i 6= k intercambiamos las filas i y k para que el elemento situado en la fila i, columna j sea
distinto de cero.

3. Sumamos multiplos
de la fila i a cada una de las filas inferiores para que todos los
elementos en la columna j por debajo de la fila i sean 0.
4. Aumentamos i y j en 1, y volvemos al paso (1).

El algoritmo termina cuando i supera al numero


de filas o j supera al numero
de columnas de la matriz.

Veamos en la practica como


funciona el algoritmo en el ejemplo siguiente:
x2 2x3 2x4 = 3
x1 + 2x2 x3 = 1
2x1 + 3x2 + 3x4 = 0

(1.3)

La matriz ampliada es

0 1 2 2 3
1 2 1 0 1
2 3 0
3 0

Comenzamos con i = j = 1. Buscamos un elemento distinto de cero en la primera columna,


empezando por la primera fila. El primero que encontramos esta en la segunda fila, por lo
(1, 1):
que debemos intercambiar las filas 1 y 2 para colocarlo en la posicion

1 2 1 0 1
0 1 2 2 3
2 3 0
3 0
Ahora necesitamos que todos los elementos por debajo del (1, 1) sean cero. Para ello,
sumamos a la tercera fila la primera multiplicada por 2:

1
1 2 1 0
0 1 2 2 3
0 1 2
3 2

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


1.5. ALGEBRA
MATRICIAL

13

(1, 1), as que aumentamos i y j en 1 y repetiYa tenemos ceros por debajo de la posicion
(2, 2) es distinto de cero, as que no es necesario
mos en proceso. El elemento en la posicion
intercambiar filas. Debemos conseguir ceros por debajo de e l, as que sumamos la segunda
fila a la tercera:

1 2 1 0 1
0 1 2 2 3
0 0 0
1 1
(3, 3), en la que encontramos un cero y no hay
El siguiente paso nos lleva a la posicion
elemento distinto de cero por debajo. El algoritmo nos dice entonces que debemos
ningun
(3, 4). Este elemento es distinto de cero, y
movernos una columna a la derecha, a la posicion
ya no hay mas filas por debajo, por lo que podemos saltarnos el paso (3). El siguiente paso
nos lleva fuera de la matriz, por lo que el algoritmo termina aqu.
Concluimos as que el sistema (1.3) es equivalente al sistema
x1 + 2x2 x3 = 1
x2 2x3 2x4 = 3
x4 = 1
que es escalonado, y por tanto se puede resolver facilmente: las variables pivote son x1 , x2 y
x4 , y las soluciones son (3t 9, 2t + 5, t, 1) para cualquier valor de t k.
Hemos probado entonces que

Teorema 1.2 Toda matriz es equivalente por filas a una matriz en forma escalonada

1.5.

Algebra
matricial

con algunas definiciones de tipos especiales de matrices.


Comenzamos esta seccion

Definicion
1.10 Sea A Mmn (k) una matriz.
1. La diagonal de A son los elementos de la forma aii , para 1 i mn{m, n}.
2. A se dice cuadrada si m = n, es decir, si tiene tantas filas como columnas. El conjunto de
las matrices cuadradas de orden n n definidas sobre k se denota por Mn (k).
3. Una matriz cuadrada se dice diagonal si aij = 0 cuando i 6= j, esto es, todos los elementos
fuera de la diagonal son 0.
4. Una matriz se dice triangular superior (respectivamente triangular inferior) si aij = 0
cuando i > j (respectivamente i < j), esto es, cuando todos los elementos situados por
debajo (respectivamente por encima) de la diagonal son cero.

Veamos ahora las diferentes operaciones que podemos realizar en el conjunto de las matrices. Comenzamos con la mas sencilla: la suma

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

14

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Definicion
1.11 Sean A, B Mmn (k) dos matrices del mismo tamano.
Su suma es la matriz
A + B Mmn (k) que tiene en la posicion (i, j) la suma de los elementos de A y B en dicha
posicion, para todo 1 i m y 1 j n.

pueden sumarse si tienen las mismas dimensiones, y la suma es otra


Dos matrices solo
matriz con las mismas dimensiones. Las siguientes propiedades se deducen automaticamente de las correspondientes propiedades en el cuerpo k.
Para cualesquiera A, B, C Mmn (k) se tiene:
1. A + B = B + A (propiedad conmutativa)
2. (A + B) + C = A + (B + C) (propiedad asociativa)
3. A + 0mn = A, donde 0mn es la matriz m n que tiene todos sus elementos iguales a
cero (elemento neutro)
4. A + (A) = 0mn , donde A es la matriz que tiene los mismos elementos que A pero
cambiados de signo
sencilla es el producto de una matriz por un escalar
Otra operacion

Definicion
1.12 Sea A Mmn (k) una matriz y k un escalar. El producto A (o
simplemente A) es la matriz m n obtenida a partir de A multiplicando todos sus elementos
por .

De nuevo, las propiedades del producto por un escalar se deducen directamente de las
de k. Para cualesquiera A, B Mmn (k) y , k se tiene:
1. ( + )A = A + A (propiedad distributiva con respecto al escalar)
2. (A + B) = A + B (propiedad distributiva con respecto a la matriz)
3. (A) = ()A (propiedad asociativa)
4. 0 A = 0mn
5. 1 A = A
del producto de matrices es algo mas complicada. Para poder multiplicar
La definicion

dos matrices, es necesario que el numero


de columnas de la primera sea igual al numero
de
filas de la segunda.

Definicion
1.13 Sean A Mmn (k) y B Mnp (k) dos matrices. Su producto es la matriz
A B (o simplemente AB) Mmp (k) cuyo elemento situado en la posicion (i, j) viene dado por
n
X

aik bkj = ai1 b1j + ai2 b2j + + ain bnj

k=1

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


1.5. ALGEBRA
MATRICIAL

15

El producto de matrices verifica las siguientes propiedades:


1. A(BC) = (AB)C para A Mmn (k), B Mnp (k), C Mpq (k) (propiedad asociativa)
2. A(B + C) = AB + AC para A Mmn (k), B, C Mnp (k) (propiedad distributiva a
la derecha)
3. (A + B)C = AC + BC para A, B Mmn (k), C Mnp (k) (propiedad distributiva a
la izquierda)
4. (A)B = A(B) = (AB) para A Mmn (k), B Mnp (k), k
Una diferencia fundamental con el producto de escalares es que el producto de matrices
no es conmutativo. Para empezar, es posible que el producto AB tenga sentido pero el producto BA no (por ejemplo, si A es 2 3 y B es 3 4). Pero aunque ambos productos esten
definidos, no tienen por que ser iguales.
Ejemplo
Sean


A=

0 1
1 0

Entonces,


B=


3 4
1 2

2 1
4 3

AB =

1 2
3 4

pero
BA =

Definicion
1.14 La matriz identidad de orden n es la matriz In Mn (k) cuyo elemento en la
posicion (i, j) es 1 si i = j y 0 si i 6= j.

Es decir, la matriz identidad es una matriz diagonal cuadrada con unos en la diagonal.
es decir, se tiene que:
Esta matriz hace las veces de unidad para la multiplicacion,
1. Im A = A para toda A Mmn (k)
2. AIn = A para toda A Mmn (k)
El producto de matrices nos proporciona una forma abreviada, que usaremos frecuentemente a partir de ahora, para expresar un sistema de ecuaciones. Dado el sistema
a11 x1 + a12 x2 + + a1n xn = b1
..
.
am1 x1 + am2 x2 + + amn xn = bm

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

16

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

su forma matricial sera

a11 a12
..
..
..
.
.
.
am1 am2
donde

a1n
..
.
amn


x1
.. =
.
xn

a11 a12
..
..
...
A= .
.
am1 am2

b1
..
.
bm

a1n
..
.
amn

es la matriz de coeficientes del sistema,

x1

x = ...
xn

es la matriz columna de incognitas


y

b1

b = ...
bm
matricial (donde x es la
es la matriz columna de terminos independientes. Esta ecuacion

incognita)
es equivalente a las m ecuaciones que componen el sistema.
definiendo una ultima

caracterstica de las matrices,


Terminamos esta seccion
operacion

la trasposicion.

Definicion
1.15 Sea A Mmn (k) una matriz. La traspuesta de A es la matriz At
Mnm (k) obtenida a partir de A intercambiando sus filas y sus columnas.

Es decir, si

a11 a12
..
..
..
A= .
.
.
am1 am2
entonces

a11 a21

..
..
At = ...
.
.
a1n a2n

a1n
..
.
amn

am1
..
.
amn

verifica las siguientes propiedades, para todas A, B Mmn (k), C


La trasposicion
Mnp (k) y c k:
1. (At )t = A
2. (A + B)t = At + B t
3. (BC)t = C t B t
4. (cA)t = c(At )

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.6. MATRICES ELEMENTALES. MATRIZ INVERSA

17

Definicion
1.16 Una matriz A Mn (k) se dice simetrica si At = A, y antisimetrica si
t
A = A. Si k = C, la matriz A se dice hermtica si At = A, donde A es la matriz obtenida a
partir de A conjugando todos sus elementos.

1.6.

Matrices elementales. Matriz inversa

Recordemos que existen tres tipos de operaciones elementales por filas que pueden rea de una fila por un escalar no
lizarse sobre una matriz: intercambio de filas, multiplicacion
nulo y suma de una fila multiplicada por un escalar a otra fila.

Definicion
1.17 Una matriz elemental de tipo 1, 2 o 3 es una matriz obtenida al aplicarle a la
matriz identidad In una operacion elemental por filas de tipo 1, 2 o 3 respectivamente.

elemental por filas sobre una matriz A es equivaEs facil ver que realizar una operacion
lente a multiplicar A a la izquierda por la matriz elemental correspondiente.

Definicion
1.18 Una matriz A Mn (k) se dice invertible o regular si existe una matriz
B Mn (k) tal que AB = BA = In . En caso contrario, A se dice singular. La matriz B se
denomina la matriz inversa de A y se denota por A1 .

Por ejemplo, la matriz identidad es su propia inversa. Si dos matrices A, B Mn (k) son
invertibles, la propiedad asociativa del producto implica que su producto AB tambien lo es,
y (AB)1 = B 1 A1 .
Toda matriz elemental es invertible, y su inversa es la matriz elemental correspondiente
elemental inversa: por ejemplo, la inversa de la matriz elemental corresa la operacion
multiplicar la segunda fila por 2 es la matriz elemental correspondiente a la operacion
multiplicar la segunda fila por 1/2:
pondiente a la operacion

1 0 0
1 0 0
1 0 0
1 0 0
1 0 0
0 2 0 0 1 0 = 0 1 0 0 2 0 = 0 1 0
2
2
0 0 1
0 0 1
0 0 1
0 0 1
0 0 1
Hemos visto que toda matriz A Mn (k) puede transformarse en una matriz escalonada

B mediante un numero
finito de operaciones elementales por filas. Es decir, existen matrices
elementales E1 , E2 , . . . , Er tales que
B = Er E2 E1 A.
si B lo es.
Como las matrices elementales Ei son todas invertibles, A sera invertible si y solo
Y como la matriz B es cuadrada, hay dos posibilidades:

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

18

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES


elemento distinto de
1. B tiene menos de n pivotes. Como toda fila que contenga algun
cero tiene un pivote, B debe tener al menos una fila identicamente nula. Entonces, para
cualquier matriz C Mn (k), el producto BC tendra la misma fila identicamente nula,
por lo que no puede ser la matriz identidad. Es decir, B no es invertible, y por tanto A
tampoco lo es.
2. B tiene exactamente n pivotes. Entonces los pivotes deben estar situados en la diagonal. Mediante operaciones elementales por filas de tipo 2 podemos hacer que todos
los pivotes sean iguales a 1, y mediante operaciones elementales por filas de tipo 3
podemos lograr que todos los elementos por encima de la diagonal sean cero, es decir,
que la matriz se transforme en la identidad. Existen por tanto matrices elementales
Er+1 , . . . , Es tales que
Es Er+1 Er E2 E1 A = In .
Como las matrices elementales son invertibles, su producto tambien lo es, y multiplicando la igualdad anterior por (Es . . . E2 E1 )1 a la izquierda obtenemos
A = (Es E2 E1 )1 = E11 E21 Es1 .
Como la inversa de una matriz elemental es tambien elemental, concluimos que A se
puede descomponer como producto de matrices elementales, y en particular es invertible. Su inversa es el producto Es E2 E1 = Es E2 E1 In . Este producto es la matriz
resultante al aplicar sobre la identidad las operaciones elementales por filas correspondientes a las matrices E1 , E2 , . . . , Es en ese orden. Y e stas son justamente las operaciones que habamos realizado sobre A para transformarla en la matriz identidad.

Teorema 1.3 Una matriz A es invertible si y solo si puede transformarse en la matriz identidad
mediante una sucesion de operaciones elementales por filas. En tal caso, A1 es la matriz obtenida
al aplicar la misma sucesion de operaciones elementales sobre la matriz identidad.

Ejemplo
Apliquemos el resultado anterior para hallar la inversa de la matriz

1 2 1
A = 0 1 1
1 3 2
Iremos aplicando las mismas operaciones elementales por filas a A y a la identidad:

1 2 1
1 0 0
1 2 1 1 0 0
0 1 1 0 1 0 0 1 1 0 1 0
1 3 2 0 0 1
0 1 1 1 0 1

1 2 1
1
0 0
1 2 1
1
0 0
0 1 1 0
1 0 0 1 1 0
1 0
0 0 2 1 1 1
0 0 1 21 12 21

1 0 3
1 2 0
1 0 3 1 2 0
0 1 1 0
1 0 0 1 0 12 12 12
0 0 1 12 12 21
0 0 1 12 12 12

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.7. RANGO

19

Ejemplo (cont)

1 0 0 52 21 32
1
0 1 0 1 1
2
2
2
1
1
1
0 0 1 2 2 2

Por tanto A es invertible, y su inversa es

5
2

21 32

A1 = 12 21
12 21

1
2
1
2

La formula
(AB)t = B t At implica que

Teorema 1.4 Sea A Mn (k) una matriz invertible. Entonces su traspuesta At tambien lo es, y
(At )1 = (A1 )t .

1.7.

Rango

Dada una matriz A Mmn (k), su rango es un numero


que nos dara una medida del
del conjunto de soluciones del sistema de ecuaciones homogeneo que tiene a A
tamano
como matriz de coeficientes. Hemos visto que, para una matriz en forma escalonada, cada
columna que no tenga pivote da lugar a una variable libre. Por tanto, cuantas mas columnas
haya sin pivote (o cuantos menos pivotes haya), mas soluciones tendra el sistema, en cierto
sentido que definiremos mas adelante.

Definicion
1.19 Sea A Mmn (k) una matriz. El rango de A es el numero

de pivotes de una
matriz escalonada equivalente por filas a A.

Como toda matriz es equivalente por filas a una escalonada, esto nos permite calcular
tenga sentido, el
el rango de cualquier matriz. El problema es que, para que la definicion

numero
de pivotes debe ser independiente de la forma escalonada de A que obtengamos.
Esto es consecuencia del siguiente resultado

Lema 1.5 Sean A, B Mmn (k) dos matrices en forma escalonada equivalentes por filas. Entonces los pivotes de A y B estan situados en las mismas posiciones. En particular, A y B tienen
el mismo numero

de pivotes.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

20

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostracion

al absurdo, que A y B son dos matrices en forma escaloSupongamos, por reduccion


nada equivalentes por filas con los pivotes en distintas posiciones. Sea la fila i la primera
de los pivotes no coincide: pongamos que en A esta en la posicion

en la que la posicion
(i, j) y en B mas a la derecha. Si A y B son equivalentes por filas, tambien lo son las
matrices A0 y B 0 formadas por las primeras j columnas de A y B respectivamente, que
tambien estan en forma escalonada. Los sistemas homogeneos que tienen como matriz

de coeficientes a A0 y B 0 son equivalentes. Pero A0 tiene un pivote en la ultima


colum xj = 0 para algun
6= 0.
na, as que el sistema correspondoente contiene la ecuacion
debe tener la j-esima coordenada igual a cero. Por otra parte, B 0
As que toda solucion

no tiene pivote en la ultima


columna, as que la variable xj es libre en el sistema corres con xj = 1. Como esta solucion
no
pondiente: en particular, el sistema tiene una solucion
del primer sistema, es imposible que los sistemas sean equivalentes.
puede ser solucion
En particular, dada una matriz A, cualquier matriz en forma escalonada que se pueda

obtener a partir de ella mediante operaciones elementales por filas tiene el mismo numero
de pivotes, as que su rango esta unvocamente definido. El rango de una matriz es, por de invariante al hacer operaciones elementales por filas. Como toda matriz invertible
finicion,
es producto de matrices elementales, deducimos que

Teorema 1.6 Para toda matriz A Mmn (k) y toda matriz invertible B Mm (k) se tiene que
rango(BA) = rango(A).

El rango de una matriz es siempre menor o igual que su numero


de filas y su numero
de columnas, porque puede haber como maximo un pivote por fila y por columna. Es mas,
gaussiana no toca las filas que solo
contengan ceros, el rango
como el metodo de eliminacion

siempre es menor o igual que el numero


de filas distintas de cero de la matriz.

Teorema 1.7 Para toda matriz A Mmn (k) y toda matriz invertible C Mn (k) se tiene que
rango(AC) = rango(A).

Demostracion

Basta probar que rango(AC) rango(A), ya que A = (AC)C 1 , as que podemos


intercambiar los papeles de A y de AC.
Como el rango no cambia al multiplicar a la izquierda por matrices invertibles y
existe una matriz invertible E (producto de matrices elementales) tal que EA esta en
forma escalonada, pordemos suponer que A esta en forma escalonada. Entonces el rango

de A es igual a m menos el numero


de filas identicamente nulas. Pero el producto AC
tiene al menos tantas filas de ceros como A, por lo que su rango debe ser menor o igual
que el de A.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.7. RANGO

21

Veamos ahora que el rango es invariante por trasposicion

Teorema 1.8 Para cualquier matriz A Mmn (k) se tiene que


rango(At ) = rango(A).

Demostracion

Existe una matriz invertible E tal que B = EA esta en forma escalonada. Entonces
rango(A) = rango(EA) = rango(B)
y
rango(At ) = rango(At E t ) = rango(B t )
as que basta probar que el rango de B es igual al de B t . Sea r el rango de B, es decir, B
tiene r filas con pivote y m r filas de ceros. Su traspuesta B t tiene entonces r columnas
tales que el primer elemento no nulo en cada una de ellas esta por debajo del primer
elemento no nulo en la columna anterior, seguidas de m r columnas de ceros:

0 0 0
0 0

..
.. . .
.. ..
.
. . .
.

0
0
Es facil ver que, mediante operaciones elementales por filas de tipo 3, es posible poner
B t en forma escalonada, de manera que los pivotes esten exactamente en las mismas
posiciones donde estaban los de B despues de trasponerla. As que B y B t tienen el
mismo rango.
Finalmente, podemos reescribir algunos de los resultados anteriores de manera sencilla
del rango. Por ejemplo, el criterio de invertibilidad
en funcion

Teorema 1.9 Una matriz A Mn (k) es invertible si y solo si tiene rango n.

y el criterio de compatibilidad de sistemas de ecuaciones. Este resultado se conoce como


Teorema de Rouche-Frobenius

Teorema 1.10 Un sistema de ecuaciones es compatible si y solo si sus matrices de coeficientes y


ampliada tienen el mismo rango.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

22

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

1.8.

Determinantes

El determinante es un escalar asociado a toda matriz cuadrada, que contiene mucha in acerca de la matriz. En particular, el determinante nos dira si la matriz es o no
formacion
invertible, y nos dara un metodo para calcular el rango de cualquier matriz. En estas notas,
definiremos el determinante a partir de sus propiedades fundamentales2 .

Definicion
1.20 El determinante es una aplicacion que asocia a cada matriz cuadrada A
Mn (k) un escalar det(A) k, de manera que se verifican las siguientes propiedades:
1. Multilinearidad:
a) Si una fila de la matriz A se descompone como suma de otras dos matrices fila, el determinante de A es la suma de los determinantes de las matrices obtenidas al sustituir
dicha fila por cada uno de los dos sumandos.
b) Si se multiplica una fila de A por un escalar , el determinante de A queda multiplicado por .
2. Alternancia: Si A tiene dos filas iguales, su determinante es igual a 0.
3. Normalizacion: El determinante de la matriz identidad In es igual a 1.

Si queremos resaltar explcitamente los elementos


matriz A se denota tambien como

a11 a12

a21 a22

det(A) = ..
..
..
.
.
.

an1 an2

de la matriz, el determinante de la
a1n
a2n
..
.
ann

La propiedad de multilinearidad puede enunciarse de manera alternativa de la siguiente


forma: supongamos que para un cierto i = 1, . . . , n y escalares , k se tiene que aij =
bij + cij para todo j = 1, . . . , n. Entonces,










a11 a12
..
..
..
.
.
.
ai1 ai2
..
..
..
.
.
.
an1 an2













ain =


..

.


ann
a1n
..
.

a11 a12
..
..
..
.
.
.
bi1 bi2
..
..
..
.
.
.
an1 an2













bin +


..

.


ann
a1n
..
.

a11 a12
..
..
..
.
.
.
ci1 ci2
..
..
..
.
.
.
an1 an2







cin
..
.
ann
a1n
..
.

Como caso particular importante, tomando = = 0, deducimos que el determinante


de una matriz que tenga una fila de ceros es igual a 0. A partir de estas tres propiedades del
determinante pueden deducirse todas las demas. Por ejemplo,

Para ser matem


aticamente correctos, habra que demostrar que existe una aplicacion con estas propiedades.
Es posible demostrarlo, pero no lo haremos en estas notas.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.8. DETERMINANTES

23

Teorema 1.11 Al intercambiar dos filas de una matriz A Mn (k) su determinante cambia de
signo.

Demostracion

Sea B la matriz que se obtiene a partir de A al intercambiar las filas i y j, y sean C, D


y E las matrices que se obtienen al sustituir las filas i y j de A por copias de la fila i, de
la fila j y de la suma de las filas i y j respectivamente. La propiedad de multilinearidad
nos dice entonces que
det(E) = det(A) + det(B) + det(C) + det(D).
Pero las matrices C, D y E tienen dos filas iguales, as que por la alternancia se tiene que
det(C) = det(D) = det(E) = 0. Concluimos as que
det(A) + det(B) = 0.

determiVeamos como
las propiedades de multilinearidad, alternancia y normalizacion
nan completamente el determinante de cualquier matriz A. Para empezar, podemos descomponer cada fila en suma de filas que contengan como maximo un elemento distinto de
cero. Usando la multilinearidad, el determinante de A queda expresado como suma de determinantes de matrices que contienen como maximo un elemento no nulo por cada fila.
Usando ahora la segunda parte de la multilinearidad, nos basta estudiar el caso en el que
dicho elemento no nulo es igual a 1.
Tenemos as una matriz en la que cada fila tiene como maximo un elemento distinto de

cero, y este elemento es igual a 1. Si alguna fila contiene unicamente


ceros, sabemos ya que
el determinante es 0. Supongamos entonces que todas las filas contienen un 1. Si en dos filas
distintas el 1 esta situado en la misma columna, la matriz tiene dos filas iguales, as que
por la alternancia su determinante es cero. De lo contrario, habra exactamente un 1 en cada

columna. En tal caso, podemos transformar la matriz en la identidad mediante una sucecion
de intercambios de filas. Por cada intercambio, debemos cambiar el signo del determinante.
Como el determinante de la identidad es 1, concluimos que el determinante de la matriz

es igual a 1 o 1, dependiendo de si el numero


de intercambios de filas necesarios para
transformar la matriz en la identidad es par o impar.
Veamos con detalle el caso n = 2:






a b





= a 1 0 + b 0 1 =
c d
c d
c d

1 0
ac
1 0


ya que la matriz





+ ad 1 0

0 1





+ bc 0 1

1 0





+ bd 0 1

0 1

= ac 0 + ad 1 + bc (1) + bd 0 = ad bc

0 1
se transforma en la identidad al intercambiar las filas 1 y 2. De
1 0

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

24

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

manera similar, en el caso n = 3 se puede comprobar que




a b c


d e f = aei + bf g + cdh af h bdi ceg.


g h i

elemenComo
vara el determinante de una matriz al realizar sobre ella una operacion
tal por filas? Para operaciones de tipo 1 y 2 lo sabemos ya: al intercambiar dos filas cambia
el signo del determinante, y al multiplicar una fila por un escalar no nulo el determinante
de tipo 3, estamos susqueda multiplicado por el mismo escalar. Al realizar una operacion

tituyendo una fila por la suma de dicha fila y un multiplo


de otra. Por la multilinearidad, el
sera igual al determinante de la matriz original
determinante despues de la transformacion

mas el de la matriz obtenida al sustituir una fila por un multiplo


de otra. Este determinante
es cero, como puede verse al sacar el escalar por el que se multiplica fuera del determinante,
elemenobteniendo as una matriz con dos filas iguales. Por tanto, al realizar una operacion
tal de tipo 3 no cambia el determinante de la matriz.
La consecuencia mas importante es que el determinante cambia si hacemos operaciones
elementales por filas, pero no cambia el hecho de que sea o no igual a cero. Obtenemos tambien
los determinantes de las matrices elementales: las de tipo 1 tienen determinante 1, las de
tipo 2 (en las que se multiplica una fila por el escalar 6= 0) tienen determinante , y las de
tipo 3 tienen determinante 1.

Teorema 1.12 El determinante de una matriz triangular superior o inferior es igual al producto
de sus elementos diagonales.

Demostracion

anterior, cada una de las


Sea A una matriz triangular. Al realizar la descomposicion
un elemento distinto de cero en cada fila tienen dicho
matrices que se obtienen con solo
elemento en la diagonal o por encima de ella (en el caso triangular superior) o en la dia
gonal o por debajo de ella (en el caso triangular inferior). La unica
forma en la que puede
conseguirse que no haya dos 1 en la misma columna es si estan todos en la diagonal. El

de det(A) como suma de los determinanunico


sumando no nulo en la descomposicion
tes de estas matrices es, por tanto, el correspondiente a la matriz identidad, que da como
resultado el producto de los elementos diagonales.

Veamos ahora como


el determinante nos dice si una matriz es invertible o no:

Teorema 1.13 Una matriz A Mn (k) es invertible si y solo si su determinante es distinto de


cero.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.8. DETERMINANTES

25

Demostracion

Sabemos que, a partir de A, se puede obtener una matriz B en forma escalonada me de operaciones elementales por filas. Estas operaciones solo
pueden
diante una sucesion
cambiar el signo del determinante o multiplicarlo por un escalar no nulo, por lo que el
si lo es el de B.
determinante de A es cero si y solo
si tiene rango n, es decir, B tiene n
Sabemos tambien que A es invertible si y solo
pivotes. En tal caso, como B es cuadrada, los pivotes deben estar situados en la diagonal.
Al ser B triangular superior, su determinante es el producto de los pivotes, y es por tanto
distinto de cero.
Si, por el contrario, A no es invertible, entonces B tiene menos de n pivotes, por lo
que debe tener una fila de ceros y su determinante (y el de A) es igual a cero.

Una de las propiedades mas importantes del determinante es su compatibilidad con el


producto de matrices

Teorema 1.14 Para cualesquiera A, B Mn (k) se tiene que det(AB) = det(A) det(B).

Demostracion

gaussiana obteneSupongamos en primer lugar que det(A) = 0. Por eliminacion


mos una matriz invertible E tal que EA esta en forma escalonada. Como A tiene rango menor que n, EA debe tener una fila de ceros, as que (EA)B = E(AB) tambien tiene una fila de ceros. Por tanto, EAB tiene rango menor que n. Pero entonces
rango(AB) = rango(E 1 (EAB)) = rango(EAB) < n, as que AB es singular, y en particular det(AB) = 0 = det(A) det(B).
Supongamos ahora que det(A) 6= 0, es decir, A es invertible. Si A es una matriz ele
mental, el resultado es consecuencia de como
cambia el determinante al realizar operaciones elementales por filas. En general, podemos descomponer A como producto de
matrices elementales, A = E1 E2 Er , as que
det(AB) = det(E1 E2 Er B) = det(E1 ) det(E2 Er B) = . . .
. . . = det(E1 ) det(E2 ) det(Er ) det(B) = . . .
. . . = det(E1 ) det(E2 Er ) det(B) = det(E1 E2 Er ) det(B) =
= det(A) det(B).

Teorema 1.15 Para toda matriz A Mn (k) se tiene que det(At ) = det(A).

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

26

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostracion

Si A es singular, entonces At tambien lo es, por lo que det(At ) = det(A) = 0. Si A es


una matriz elemental, At tambien es una matriz elemental del mismo tipo, y el resultado
es evidente.
En general, si A es regular podemos descomponerla como producto de matrices elementales: A = E1 E2 Er , y entonces At = Ert E2t E1t . Se tiene entonces que
det(At ) = det(Ert E2t E1t ) = det(Ert ) det(E2t ) det(E1t ) =
= det(Er ) det(E2 ) det(E1 ) = det(E1 E2 Er ) = det(A).

que conUna consecuencia importante del resultado anterior es que, en toda proposicion
seguira siencierna al determinante, se pueden sustituir filas por columnas y la proposicion
do cierta. Por ejemplo, si intercambiamos dos columnas de una matriz el determinante cambia de signo; y si multiplicamos una columna por un escalar el determinante queda multiplicado por el mismo escalar.

1.9.

Determinantes: desarrollo por filas y columnas

para calcular determinantes de


El desarrollo por filas (o columnas) es una formula
util
matrices en las que haya filas (o columnas) con muchos ceros. Dada una matriz A, denotemos por Aij la matriz obtenida al eliminar la fila i y la columna j de A.

Teorema 1.16 Sea A Mn (k). Para todo i = 1, . . . , n se tiene que


n
X
det(A) =
(1)i+j aij det(Aij )
j=1

(desarrollo por la fila i-esima), y para todo j = 1, . . . , n se tiene que


n
X
det(A) =
(1)i+j aij det(Aij )
i=1

(desarrollo por la columna j-esima).

Demostracion

No daremos aqu la prueba detallada. En lneas generales consiste, en el caso del

desarrollo por filas, en demostrar que el escalar definido por esta formula
cumple las tres
anterior. El desarrollo
propiedades con las que definimos el determinante en la seccion
por columnas se deduce directamente del desarrollo por filas usando que det(At ) =
det(A).

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.9. DETERMINANTES: DESARROLLO POR FILAS Y COLUMNAS

27

Ejemplo
Usemos el desarrollo por filas para hallar el determinante de la matriz 4 4 siguiente

0 7 3 0
1 5
4 2

0 2
0 0
2 1
2 3
Desarrollando por la tercera fila (en la que todos los elementos excepto uno son cero)
obtenemos


0 7 3 0




0 3 0
1 5



4 2

1 4 2 =
=
(1)

2
0 2


0 0

2 2 3
2 1
2 3


1 2
= (6) (3 4) = 6.
= (2) (1) (3)
2 3

Gracias al desarrollo por filas podemos dar una formula


para la inversa de una matriz
del determinante
en funcion

Definicion
1.21 Sea A Mn (k). La matriz adjunta de A es la matriz adj(A) Mn (k) cuyo
elemento en la posicion (i, j) viene dado por
(1)i+j det(Aij )

Teorema 1.17 Para toda matriz invertible A Mn (k) se tiene


A1 =

1
adj(A)t
det(A)

Demostracion

(i, i) de B es
Sea B el producto A adj(A)t . El elemento en la posicion
n
X

aik (1)i+k det(Aik ),

k=1

que es justamente el desarrollo por la fila i-esima del determinante de A. Si i 6= j, el


(i, j) es
elemento de B en la posicion
n
X

aik (1)j+k det(Ajk ),

k=1

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

28

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Demostracion
(cont)
que es el desarrollo por la fila j-esima del determinante de la matriz obtenida al sustituir
la fila j de A por una copia de la fila i. Como esta matriz tiene dos filas iguales, su
determinante es igual a cero. Por tanto, el producto A adj(A)t es una matriz diagonal
cuyos elementos diagonales son todos iguales a det(A), es decir,
A adj(A)t = det(A)In ,
por lo que

A

1
adj(A)t
det(A)


= In .

Analogamante, usando desarrollos por columnas, se comprueba que




1
t
adj(A) A = In .
det(A)

1.10.

Submatrices. El m
etodo del orlado

A partir de una matriz dada, podemos construir nuevas matrices eliminando algunas de
sus filas y de sus columnas

Definicion
1.22 Sea A Mmn (k). Se denomina submatriz de A a toda matriz que se obtenga
a partir de A eliminando algunas de sus filas y columnas. Un menor de orden r de A es el
determinante de una submatriz cuadrada de A de tamano
r r.

Lema 1.18 Si B es una submatriz de A, entonces rango(B) rango(A).

Demostracion

basta probar que el rango no puePuesto que el rango es invariante por trasposicion,

de aumentar al eliminar algunas columnas de A. Sea m el numero


de filas de A, y supongamos que B se obtiene de A eliminando algunas de sus columnas. Mediante una
de operaciones elementales por filas, podemos transformar A en una matriz
sucesion
escalonada A0 con el mismo rango. Eliminando las mismas columnas que antes en A0 , se
obtiene una matriz B 0 que es equivalente por filas a B, y por tanto tiene el mismo rango.

Al ser A0 escalonada, su rango es igual al numero


de filas que no sean identicamente
0
nulas. Pero toda fila identicamente nula en A lo es tambien en B 0 , por lo que su rango

(que no puede ser mayor que el numero


de filas distintas de cero) es menor o igual que
el de A0 .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


1.10. SUBMATRICES. EL METODO
DEL ORLADO

29

El metodo del orlado es una forma alternativa de calcular el rango de una matriz, a veces
gaussiana si la matriz tiene pocas filas o columnas. Se basa
mas efectivo que la eliminacion
en el siguiente resultado.

Teorema 1.19 Supongamos que la matriz A Mmn (k) contiene una submatriz r r S invertible, y que cualquier submatriz (r + 1) (r + 1) de A que contenga a S es singular. Entonces,
el rango de A es igual a r.

Demostracion

Intercambiando filas y columnas (lo que no cambia el rango de A) podemos suponer


que S esta formada por las primeras r filas y columnas de A. Al ser S una submatriz de
A, en lema anterior implica que rango(A) rango(S) = r.
al absurdo, que el rango es mayor que r. Como S es
Supongamos, por reduccion
de operaciones elementales por filas que transforma S en
invertible, existe una sucesion
la matriz identidad. Realizando las mismas operaciones sobre A obtenemos una matriz
de la forma


Ir

Continuamos realizando operaciones elementales por filas hasta que la matriz quede en
forma escalonada. Entonces habra pivotes en las r primeras entradas diagonales, y al
menos en otro lugar mas. Supongamos que, aparte de los r primeros, hay otro pivote en
la columna j > r. Entonces, la matriz B formada por las primeras r columnas de A junto
con la columna j-esima tiene rango r + 1.
Consideramos ahora la matriz B t , que tiene la forma



St
a1j arj ar+1,j anj
y rango r + 1. Poniendola en forma escalonada igual que hicimos con A (primero S t ,
luego el resto) tendremos pivotes en las primeras r entradas diagonales y otro mas en

la fila r + 1. Supongamos que este ultimo


pivote esta en la columna l > r. Entonces, la
t
submatriz de B formada por las primeras r columnas junto con la columna l tiene rango
r + 1. Como esta matriz es cuadrada, esto quiere decir que es invertible. Pero esta matriz
es la traspuesta de la submatriz de A formada por las primeras r filas y columnas junto
con la fila l y la columna j, que es una submatriz (r + 1) (r + 1) de A que contiene a S.
de que toda tal matriz debe ser singular.
Esto contradice la suposicion

Para calcular el rango de una matriz podemos seguir entonces este proceso: comenzamos
buscando un elemento no nulo (si no lo hay, el rango es obviamente cero). Despues buscamos una submatriz 2 2 regular que contenga a este elemento. Si no la hay, el rango deber
ser 1. Si la hay, el rango es 2. Fijamos ahora esta submatriz, y buscamos una 3 3 regular
que la contenga. Si no la hay, el rango es 2. Si encontramos una, continuamos el proceso con
ella. Y as sucesivamente, hasta que no exista ninguna submatriz cuadrada regular de orden
mayor que contenga a la que hemos encontrado en el paso anterior.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

30

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Ejemplo
Usemos el metodo del orlado para calcular el rango de la matriz siguiente

1 0 1 2
A = 2 1 2 1
1 1 5 5
(1, 1) es no nulo: empezamos con e l. Buscamos un menor
El elemento en la posicion
2 2 no nulo que lo contenga. Por ejemplo, el formado por las dos primeras filas y las
dos primeras columnas nos sirve:


1 0


2 1 = 1 6= 0
Continuamos el proceso con esta submatriz. Buscamos ahora una submatriz 33 regular
dos posibilidades, usar la tercera columna o la cuarta, y ambas
que la contenga. Hay solo
tienen determinante cero:


1 0 1


2 1 2 = 0


1 1 5


1 0 2


2 1 1 = 0


1 1 5
Por tanto el metodo del orlado nos dice que el rango de la matriz A es igual a 2.

1.11.

Regla de Cramer

Los sistemas de Cramer son un tipo particular de sistemas de ecuaciones con solucion

del determinante. Esta formula

unica,
para los que existe una formula
en funcion
puede ser
del sistema que el metodo de eliminacion
gaussiana en
mas practica para hallar la solucion
los casos de 2 y 3 variables.

Definicion
1.23 Un sistema de ecuaciones lineales se dice un sistema de Cramer si cumple las
dos condiciones siguientes:
1. Tiene tantas ecuaciones como incognitas, es decir, su matriz de coeficientes es cuadrada.
2. Su matriz de coeficientes es invertible.

Un sistema de Cramer es compatible determinado: en efecto, como la matriz de coeficientes es invertible, los pivotes de su forma escalonada estan situados en la diagonal, y por
tanto no puede haber pivote en la columna de los terminos independientes de la matriz ampliada (luego el sistema es compatible) y no hay ninguna variable libre (luego el sistema es
determinado).

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

1.11. REGLA DE CRAMER

31

Teorema 1.20 (Regla de Cramer) Sea


Ax=b
un sistema de Cramer, donde A es la matriz de coeficientes y b la matriz columna de terminos
independientes. Entonces, la unica

solucion del sistema es (z1 , . . . , zn ), donde zi viene dada por


zi =

det(Bi )
det(A)

siendo Bi la matriz obtenida al sustituir la i-esima columna de A por la columna b.

Demostracion

z1

Sea z la matriz columna ... . Se tiene entonces la igualdad matricial


zn
A z = b.
Como A es invertible, multiplicando ambos lados de la igualdad por A1 a la izquierda
obtenemos
z = A1 b

del determinante,
o, usando la formula
para la inversa en funcion
z=

1
adj(A)t b.
det(A)

Comparando las filas i-esimas, obtenemos


zi =


1
(1)i+1 det(A1i )b1 + + (1)i+n det(Ani )bn .
det(A)

La suma entre parentesis es justamente el desarrollo por la columna i-esima del determinante de Bi . Por tanto,
det(Bi )
.
zi =
det(A)

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

32

TEMA 1. MATRICES Y SISTEMAS DE ECUACIONES

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Tema 2
Espacios vectoriales
2.1.

Espacios vectoriales: Definici


on y ejemplos

Sea V = k n el conjunto de n-uplas de elementos de k. Denotaremos en negrita los elementos de V , por ejemplo:
v = (v1 , v2 , . . . , vn )
con vi k para i = 1, . . . , n. Los escalares vi se llamaran las coordenadas de v.
Dos elementos de V se pueden sumar coordenada a coordenada, es decir,
u + v = (u1 + v1 , u2 + v2 , . . . , un + vn )
y podemos multiplicar elementos de V por escalares multiplicando cada una de sus coordenadas por dicho escalar:
c v = (cv1 , cv2 , . . . , cvn ).
Estas operaciones verifican las siguientes propiedades. Para cualesquiera u, v, w V y
c, d k se tiene:
1. Propiedad asociativa: (u + v) + w = u + (v + w)
2. Propiedad conmutativa: u + v = v + u
3. Existe un elemento 0 V tal que 0 + v = v para todo v
4. Para cada v existe un elemento v V tal que v + (v) = 0
5. 1 v = v
6. c (d v) = (cd) v
7. (c + d) v = c v + d v
8. c (u + v) = c u + c v
como puede comprobarse facilmente. Pero estas mismas propiedades se verifican tambien
para otros muchos conjuntos con sus correspondientes operaciones suma y producto por
escalar.
Definicion
2.1 Un espacio vectorial sobre el cuerpo k (o un k-espacio vectorial) es un conjunto V con una operacion suma (v, w) 7 v + w y una operacion producto por escalar
(c, v) 7 c v tales que se verifican las propiedades (1)-(8) anteriores. Los elementos de V se
denominan vectores.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
33de Algebra.

34

TEMA 2. ESPACIOS VECTORIALES

Ejemplo
1. El conjunto V = k n con las operaciones definidas anteriormente es un espacio
vectorial sobre k.
2. El conjunto Mmn (k) de matrices mn con coeficientes en k es un espacio vectorial
sobre k con las operaciones suma y producto por escalar definidas en el tema 1.
3. El conjunto P(k) de polinomios con coeficientes en k es un espacio vectorial sobre
k con las operaciones habituales. Tambien lo son los conjuntos Pn (k) formados por
los polinomios de grado menor o igual que n, para todo n 1.
4. El conjunto de funciones reales f : R R es un espacio vectorial sobre R. Tambien
lo son los subconjuntos formados por las funciones continuas y por las funciones
diferenciables.

5. El conjunto C de los numeros


complejos es un espacio vectorial sobre s mismo,
sobre R y sobre Q. Es importante notar que, si cambiamos el cuerpo de escalares,
el espacio vectorial obtenido es distinto, a pesar de que el conjunto V siga siendo el mismo. Mas generalmente, si el cuerpo k esta contenido en otro cuerpo K
mas grande, K puede verse como un espacio vectorial sobre k (con la suma y el
producto definidos por los de K).

6. Un ejemplo exotico:
Dado k = R, sea V = R+ el conjunto de enteros positivos. Si
definimos la suma de dos elementos v, w V como su producto, y el producto
de v V por el escalar c R como vc , el conjunto V adquiere una estructura de
espacio vectorial sobre R.

A partir de las propiedades que definen un espacio vectorial se pueden deducir todas las
demas. Por ejemplo:

Teorema 2.1 Sea V un espacio vectorial sobre k. Para cualesquiera c k y v V se tiene que:
1. c 0 = 0
2. 0 v = 0
3. (1) v = v
4. Si c v = 0, entonces c = 0 o v = 0.

Demostracion

Veamos por ejemplo (2). Como 0 + 0 = 0 en k, se tiene que


0 v = (0 + 0) v = 0 v + 0 v
I

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.2. DEPENDENCIA E INDEPENDENCIA LINEAL

35

Demostracion
(cont)
sumando a los dos lados el opuesto de 0 v obtenemos
0 = 0 v + (0 v) = (0 v + 0 v) + (0 v) = 0 v + (0 v + (0 v)) = 0 v + 0 = 0 v.
Para probar (4), supongamos que c v = 0 pero c 6= 0. Entonces, multiplicando a ambos
lados por c1 y usando el apartado (1),
c1 (c v) = c1 0 = 0,
pero
c1 (c v) = (c1 c) v = 1 v = v.

2.2.

Dependencia e independencia lineal

Sea V un espacio vectorial sobre el cuerpo k. Diremos que un vector es combinacion

lineal de otros si puede obtenerse a partir de ellos mediante un numero


finito de sumas y
productos por escalares. Mas concretamente,

lineal de un conjunto de vectores S V si


Definicion
2.2 Un vector u V es combinacion
existen vectores v1 , . . . , vr S y escalares c1 , . . . , cr k tales que u = c1 v1 + + cr vr .

Ejemplo
lineal de cualquier conjunto no vaco S V , ya que
1. El vector 0 es combinacion
0 v = 0 para cualquier v V . Por convenio, tambien se considera que 0 es
lineal del conjunto vaco.
combinacion
i-esima.
2. Sea ei = (0, 0, . . . , 1, . . . , 0) k n , donde el 1 esta situado en la posicion
lineal de {e1 , . . . , en }: En efecto, v k n
Entonces todo vector de k n es combinacion
puede escribirse como v1 e1 + + vn en .

Definicion
2.3 Diremos que los vectores v1 , . . . , vr V son linealmente dependientes si
existen escalares c1 , . . . , cr k no todos nulos tales que c1 v1 + + cr vr = 0. En caso contrario,
diremos que los vectores son linealmente independientes. Un subconjunto S V se dice
linealmente dependiente si existen vectores distintos v1 , . . . , vr S linealmente dependientes,
y linealmente independiente en caso contrario.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

36

TEMA 2. ESPACIOS VECTORIALES

Ejemplo
si v = 0. Un conjunto de
1. Un solo vector v es linealmente dependiente si y solo
vectores linealmente independientes nunca puede contener al vector 0.
si uno de ellos es un multi
2. Dos vectores u, v son linealmente dependientes si y solo
plo escalar del otro: en efecto, si c u + d v = 0 y, por ejemplo, c 6= 0, entonces
u = dc v.
3. Los monomios 1, x, x2 , . . . , xn son linealmente independientes en P(k).
4. Los vectores e1 , . . . , en son linealmente independientes en k n .

que, si los vectores v1 , . . . , vr son linealmente


Se deduce inmediatamente de la definicion
independientes, un subconjunto cualquiera de ellos tambien lo son.

Teorema 2.2 Los vectores v1 , . . . , vr V son linealmente dependientes si y solo si uno de ellos
es combinacion lineal de los demas.

Demostracion

lineal de los demas, existen escalares


Si uno de ellos, por ejemplo vi , es combinacion
c1 , . . . , ci1 , ci+1 , . . . , cr tales que
vi = c1 v1 + + ci1 vi1 + ci+1 vi+1 + + cr vr .
Entonces
c1 v1 + + ci1 vi1 vi + ci+1 vi+1 + + cr vr = 0,
por lo que los vectores son linealmente dependientes. Recprocamente, si son linealmente dependientes existen escalares c1 , . . . , cr , no todos nulos, tales c1 v1 + + cr vr = 0.
Supongamos por ejemplo que ci 6= 0. Entonces
vi =

ci1
ci+1
cr
c1
v1
vi1
vi+1 vr ,
ci
ci
ci
ci

lineal de los demas.


as que vi es combinacion

En particular, si a un conjunto de vectores linealmente independientes le anadimos


un
lineal de ellos, el conjunto resultante sigue siendo linealmenvector que no sea combinacion
te independiente.
Cuando V = kn , sea vi = (vi1 , . . . , vin ) para cada i = 1, . . . , r, y sea u = (u1 , . . . , un ).
lineal de v1 , . . . , vr si y solo
si el sistema de ecuaciones Ax = ut
Entonces u es combinacion
es compatible, donde

A = v1t |v2t | |vrt
es la matriz n r cuya columna i-esima contiene las coordenadas del vector vi para cada
i = 1, . . . , r.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.3. SISTEMAS GENERADORES Y BASES

37

si el sistema homogeneo
Los vectores v1 , . . . , vr son linealmente dependientes si y solo
no trivial, es decir, si es compatible indeterminado. Por tanto,
Ax = 0 tiene alguna solucion
si el sistema es determinado, lo cual es equivalente
los vectores son independientes si y solo
a decir que el rango de la matriz A es igual a r.

Teorema 2.3 Los vectores v1 , . . . , vr k n son linealmente independientes si y solo si la matriz


que tiene dichos vectores por columnas tiene rango r.

En particular, deducimos que un conjunto de mas de n vectores en k n siempre es lineal


mente dependiente (puesto que el rango de la matriz nunca puede superar a su numero
de
filas, que es n).

2.3.

Sistemas generadores y bases

Definicion
2.4 Un subconjunto S V se dice un sistema generador del k-espacio vectorial
V si todo vector u V es combinacion lineal de vectores de S. El espacio vectorial V se dice
finitamente generado si tiene un sistema generador finito.

Ejemplo
1. Los vectores e1 , . . . , en forman un sistema generador de k n , por lo que es finitamente generado.
2. Sea Eij la matriz de Mmn (k) que tiene todas sus entradas iguales a cero excepto
la situada en la fila i y la columna j, que es igual a 1. Entonces el conjunto {Eij |1
i m, 1 j n} es un sistema generador de Mmn (k).
3. El cuerpo C como espacio vectorial sobre R tiene a {1, i} como sistema generador,
y por tanto es finitamente generado.
4. Los monomios 1, x, x2 , . . . generan el espacio vectorial P(k) de polinomios. El
espacio Pn (k) de polinomios de grado menor o igual que n esta generado por
{1, x, . . . , xn }.

Si S T V son dos subconjuntos de V y S es sistema generador, tambien lo es T .

Si T es sistema generador y, ademas, todo vector de T puede escribirse como combinacion


lineal de vectores de S, entonces S tambien es sistema generador: basta escribir un vector
lineal de elementos de T y sustituir e stos por las corresponcualquiera como combinacion
dientes combinaciones lineales de elementos de S.
Sea V = k n , y vi = (vi1 , . . . , vin ) para i = 1, . . . , r. Decir que v1 , . . . , vr forman un sistema
generador de k n es lo mismo que decir que, para todo vector u k n , el sistema de ecuaciones
Ax = ut es compatible, donde A es la matriz n r que tiene a los vectores v1 , . . . , vr como

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

38

TEMA 2. ESPACIOS VECTORIALES

columnas. En particular, existe una matriz B Mrn (k) tal que AB = In , y por tanto el
rango de A debe ser al menos n. Como A tiene n filas, dicho rango es exactamente n.

Teorema 2.4 Los vectores v1 , . . . , vr k n forman un sistema generador de k n si y solo si la


matriz que tiene dichos vectores por columnas tiene rango n.

Definicion
2.5 Un subconjunto B V se dice una base de V si es un sistema generador
linealmente independiente.

Ejemplo
1. Los vectores e1 , . . . , en forman una base del k-espacio vectorial k n .
2. Las matrices Ei,j para 1 i m, 1 j n forman una base del k-espacio vectorial
Mmn (k).
3. {1, i} es una base de C como espacio vectorial sobre R, pero no como espacio vectorial sobre C.
4. El conjunto de monomios {1, x, x2 , . . . , xn , . . .} forma una base del espacio vectorial
P(k).

El siguiente resultado nos permitira construir bases de espacios vectoriales finitamente


generados:

Teorema 2.5 Sea S V un conjunto linealmente independiente y T V un conjunto generador finito tales que S T . Entonces existe una base B de V tal que S B V .

Demostracion

Si S es sistema generador, tomamos B = S. De lo contrario, debe existir un vector


lineal de S (puesto que T es sistema generador). Sea
v de T que no sea combinacion
S1 = S {v}. Entonces S1 es tambien linealmente independiente, por lo que podemos
momento
repetir el proceso con S1 en lugar de S. Este algoritmo debe acabar en algun
(ya que T es finito), y entonces habremos obtenido una base de V formada por todos los
vectores de S y algunos de T .
En particular, tomando S = , todo espacio vectorial finitamente generado tiene una base

con un numero
finito de elementos. Mas generalmente, todo sistema generador finito de V

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


2.4. DIMENSION

39

contiene una base. Ademas, si V es finitamente generado, todo subconjunto finito S V


linealmente independiente puede extenderse a una base (aplicando el resultado anterior
de S y un sistema generador finito de V cualquiera).
tomando como T la union

2.4.

Dimensi
on

Sea V un espacio vectorial finitamente generado. Entonces V tiene muchas bases finitas
distintas: cualquier conjunto linealmente independiente puede extenderse a una de ellas.
veremos que todas las posibles bases de V tienen en comun
su numero

En esta seccion
de
elementos.

Teorema 2.6 Sea R = {u1 , . . . , ur } un conjunto de vectores de V linealmente independientes y


S = {v1 , . . . , vs } un sistema generador finito de V . Entonces r s.

Demostracion

Como S es un sistema generador, para cada i = 1, . . . , r el vector ui V puede


lineal de v1 , . . . , vs : existen escalares ci1 , . . . , cis tales que
escribirse como combinacion
ui = ci1 v1 + + cis vs .
al absurdo, que s < r. Entonces el sistema de ecuaciones
Supongamos, por reduccion
homogeneo


c11 cr1
x1
0
.. . .
.. .. = ..
.
. . . .
c1s

crs

xr

es indeterminado (puesto que tiene mas incognitas


que ecuaciones). Si (a1 , . . . , ar ) es una
no nula, esta claro que
solucion
a1 u1 + + ar ur = a1 (c11 v1 + + c1s vs ) + + ar (cr1 v1 + + crs vs ) =
= (a1 c11 + + ar cr1 )v1 + + (a1 c1s + + ar crs )vs = 0,
por lo que los vectores u1 , . . . , ur seran linealmente dependientes.

Teorema 2.7 (de la base) Si V es finitamente generado, todas las bases de V son finitas y tienen
el mismo numero

de elementos.

Demostracion

Sea B una base de V y S un conjunto generador finito. Por el teorema anterior, el

numero
de elementos de B no puede ser mayor que el de S, por lo que B es un conjunto
finito. Sea B 0 otra base. Aplicando el teorema anterior con R = B y S = B 0 deducimos

que el numero
de elementos de B es como mucho igual al numero
de elementos de B 0 .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

40

TEMA 2. ESPACIOS VECTORIALES

Demostracion
(cont)
Intercambiando los papeles de B y B 0 tenemos la desigualdad contraria, por lo que el

numero
de elementos de B y B 0 debe ser el mismo.

de V es el numero
Definicion
2.6 Si V es finitamente generado, la dimension

de elementos de
cualquier base de V . Se denota por dim(V ). Si V no es finitamente generado, se dice que V tiene
infinita.
dimension

Ejemplo
n, puesto que la base B = {e1 , . . . , en } tiene n
1. El espacio V = k n tiene dimension
elementos.
mn: la base B = {Ei,j |1 i m, 1 j
2. El espacio V = Mmn (k) tiene dimension
n} tiene mn elementos.

3. El espacio V = Pn (k) de polinomios de grado menor o igual que n tiene dimension


n
n+1, puesto que {1, x, . . . , x } es una base con n+1 elementos. El espacio V = P(k)
infinita.
tiene dimension
1 como espacio vectorial sobre C, y dimension
2 como
4. V = C tiene dimension
espacio vectorial sobre R.

Teorema 2.8 Sea V un espacio vectorial sobre k de dimension n. Entonces,


1. Un subconjunto S V linealmente independiente tiene a lo sumo n vectores. Si S tiene n
vectores, entonces es una base de V .
2. Un sistema generador S V tiene como mnimo n vectores. Si S tiene n vectores, entonces
es una base de V .
3. Si W es otro espacio vectorial sobre k y W V , entonces W es finitamente generado y
dim(W ) dim(V ). Ademas, si dim(W ) = dim(V ) entonces W = V .

Demostracion

1. Todo conjunto linealmente independiente S se extiende a una base B. Como B


tiene n elementos, S tiene a lo sumo n elementos. Ademas, si tiene exactamente n
entonces debe ser igual a B.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.5. COORDENADAS

41

Demostracion
(cont)
2. Todo sistema generador S de V contiene una base B. Como B tiene n elementos,
S debe tener como mnimo n elementos. Ademas, si tiene exactamente n debe ser
igual a B.
infinita de
3. Si W no fuera finitamente generado, podramos construir una sucesion

vectores de W linealmente independientes (simplemente anadiendo,


uno a uno,
lineal de los que ya tenemos). Pero estos vectores
vectores que no sean combinacion
tambien seran linealmente independientes en V , lo cual es imposible: en V no
puede haber mas de n vectores linealmente independientes.
Sea B 0 una base de W . Entonces B 0 es linealmente independiente (tanto en W como

en V ), as que se extiende a una base B de V . Como B 0 B, el numero


de elementos
0
de W ) es menor o igual que el numero

de B (que es la dimension
de elementos de
de V ). Si estos dos numeros

B (que es la dimension
son iguales, es porque B 0 = B,
y por tanto W = V .

En particular, aplicando lo que ya sabemos en k n , se tiene

Teorema 2.9 Los vectores v1 , . . . , vn k n forman una base de k n si y solo si la matriz que tiene
dichos vectores por columnas es invertible.

2.5.

Coordenadas

Las coordenadas con respecto a una base nos permitiran realizar operaciones en un espacio vectorial finitamente generado arbitrario como si se tratara de k n .

Teorema 2.10 Sea B = {v1 , . . . , vn } una base del k-espacio vectorial V . Para cada u B,
existen escalares unicos

c1 , . . . , cn k tales que u = c1 v1 + + cn vn .

Demostracion

Tales escalares existen, porque B es un sistema generador de V . Supongamos que


existen otros escalares d1 , . . . , dn k con la misma propiedad. Restando las igualdades
u = c1 v1 + + cn vn y u = d1 v1 + + dn vn obtenemos
0 = (c1 d1 )v1 + + (cn dn )vn .
Como v1 , . . . , vn son linealmente independientes concluimos que ci di = 0, y por tanto
ci = di , para todo i = 1, . . . , n.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

42

TEMA 2. ESPACIOS VECTORIALES

Definicion
2.7 Las coordenadas de u con respecto a B = {v1 , . . . , vn } son la unica

n-upla
n
de escalares (c1 , . . . , cn ) k tal que u = c1 v1 + . . . + cn vn . Se denotan por (u)B .

entre V y k n . Ademas,
Las coordenadas con respecto a B nos dan entonces una biyeccion
es facil ver que si u1 , u2 V y c k, entonces (u1 + u2 )B = (u1 )B + (u2 )B y (cu1 )B = c(u1 )B .
tomar coordenadas con respecto a B preserva las operaciones de
Es decir, la operacion
k-espacio vectorial. En particular, se tiene:

Teorema 2.11 Sean u1 , . . . , ur V y B una base de V .


1. Un vector u V es combinacion lineal de u1 , . . . , ur si y solo si (u)B k n es combinacion
lineal de (u1 )B , . . . , (ur )B .
2. Los vectores u1 , . . . , ur son linealmente dependientes en V si y solo si (u1 )B , . . . , (ur )B lo
son en k n .
3. Los vectores u1 , . . . , ur son un sistema generador de V si y solo si (u1 )B , . . . , (ur )B lo son
de k n .
4. Los vectores u1 , . . . , un forman una base de V si y solo si (u1 )B , . . . , (un )B forman una base
de k n .

Demostracion

Veamos por ejemplo la primera. Si u = c1 u1 + + cr ur , entonces (u)B = (c1 u1 + +


cr ur )B = c1 (u1 )B + + cr (ur )B .
Recprocamente, si (u)B = d1 (u1 )B + +dr (ur )B , entonces (u)B = (d1 u1 + +dr ur )B ,
y por tanto u = d1 u1 + + dr ur (ya que un vector esta unvocamente determinado por
sus coordenadas con respecto a B).
Sea B 0 = {v10 , . . . , vn0 } otra base de V . Las coordenadas de un vector u V con respecto a
entre ellas?
B y con respecto a B 0 son distintas pero, hay alguna relacion
Como B es una base de V , las coordenadas de sus vectores con respecto a B 0 forman una
base de k n . Es decir, la matriz que tiene como columnas (v1 )B0 , . . . , (vn )B0 es invertible.

Definicion
2.8 La matriz de cambio de base de B a B 0 es la matriz M (B, B 0 ) Mn (k) que
tiene como columnas las coordenadas de los vectores v1 , . . . , vn de B con respecto a B 0 .

Esta matriz nos permite pasar directamente de coordenadas con respecto a B a coordenadas con respecto a B 0 :

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.6. SUBESPACIOS

43

Teorema 2.12 Para todo u V , si (u)tB denota las coordenadas de u con respecto a B vistas
como vector columna, se tiene
(u)tB0 = M (B, B 0 )(u)tB .

Demostracion

Como tomar coordenadas con respecto a una base preserva la suma y el producto por
escalares, es evidente que si la igualdad se cumple para dos vectores se cumple tambien
para su suma y para el producto de cualquiera de ellos por un escalar. Por tanto, basta
probar la igualdad para los vectores de un sistema generador de V , por ejemplo B.
Sea vi B, entonces sus coordenadas con respecto a B son ei , y por tanto
de M (B, B 0 ), esta coM (B, B 0 )(vi )tB es la i-esima columna de M (B, B 0 ). Por definicion
lumna es justamente (vi )B0 .

Teorema 2.13 Sea B, B 0 y B 00 tres bases de V . Entonces


1. M (B, B) = In
2. M (B, B 00 ) = M (B 0 , B 00 )M (B, B 0 )
3. M (B 0 , B) = M (B, B 0 )1

Demostracion

Para la segunda, notemos que para


La primera propiedad es evidente por definicion.
00
cada i = 1, . . . , n la columna i-esima de M (B, B ) es
M (B, B 00 )ei = M (B, B 00 )(vi )tB = (vi )tB00
mientras que la columna i-esima de M (B 0 , B 00 )M (B, B 0 ) es
M (B 0 , B 00 )M (B, B 0 )ei = M (B 0 , B 00 )M (B, B 0 )(vi )tB = M (B 0 , B 00 )(vi )tB0 = (vi )tB00

y por tanto coinciden. La ultima


propiedad se deduce de e sta tomando B 00 = B:
M (B 0 , B)M (B, B 0 ) = M (B 0 , B 0 ) = In .

2.6.

Subespacios

Definicion
2.9 Un subconjunto no vaco L V de un k-espacio vectorial se dice un subespacio
de V si

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

44

TEMA 2. ESPACIOS VECTORIALES

1. Para todos u, v L se tiene que u + v L.


2. Para todo v L y todo escalar c k se tiene que c v L.

Si L es un subespacio de V , entonces L es tambien un espacio vectorial sobre k, con las


hay que comprobar las propiedades (3) y (4) de la definicion

mismas operaciones que V . Solo


de espacio vectorial, ya que las demas se heredan directamente de V : se tiene que 0 v = 0
y (1) v = v para todo v L, as que tanto 0 como v estan en L.
Ejemplo
1. En todo espacio vectorial V , los subconjuntos L = {0} y L = V son subespacios.
Los restantes subespacios se dicen propios.

2. Si v V , el conjunto de multiplos
escalares de v es un subespacio de V .
3. Sea A Mmn (k) una matriz. El conjunto de soluciones del sistema homogeneo
A x = 0 es un subespacio de k n . Por el contrario, si b k m es un vector no nulo,
el conjunto de soluciones del sistema A x = bt no es un subespacio de k n .
4. Los subconjuntos de Mn (k) formados por las matrices diagonales, triangulares
superiores, triangulares inferiores, simetricas, o antisimetricas son subespacios de
Mn (k). Si k = C, el subconjunto formado por las matrices hermticas no es un
subespacio (no es estable para el producto por escalares).
5. El subconjunto R C es un subespacio si vemos C como espacio vectorial sobre
k = R. No lo es si vemos C como espacio vectorial sobre k = C.

Definicion
2.10 Sea S V un subconjunto. El subespacio de V generado por S es el conjunto hSi V formado por los vectores que son combinacion lineal de vectores de S.

lineal de cualquier conjunto, incluido el


Recordemos que el vector 0 es combinacion
vaco. Por tanto hi = {0}. En general, hSi es un subespacio de V , y es el menor de ellos
que contiene a los vectores de S, ya que todo subespacio que contenga a S debe contener
lineal de vectores de S. Las siguientes propiedades se detambien a cualquier combinacion

ducen facilmente de la definicion:

Teorema 2.14

1. hSi = V si y solo si S es un sistema generador de V .

2. Si S T V entonces hSi hT i.
3. Si L V es un subespacio, entonces hLi = L.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.6. SUBESPACIOS

45

Si V es finitamente generado, todo subespacio L V tambien lo es, y por tanto se puede


describir dando un conjunto finito de generadores. Veamos ahora otra forma de determinar
un subespacio de V , dependiente de las coordenadas con respecto a una base.
Dado un subespacio L V y una base B de V , sea LB = {(v)B |v L} el subconjunto
de k n formado por las coordenadas de los vectores de L. Entonces LB es un subespacio de
k n , y esto nos da una correspondencia biunvoca entre el conjunto de subespacios de V y el
conjunto de subespacios de k n .
Sea v1 , . . . , vr un conjunto de generadores de L. Entonces (v1 )B , . . . , (vr )B forman un conjunto de generadores de LB . Es decir, LB es el conjunto de vectores de k n que son combina lineal de (v1 )B , . . . , (vr )B . Para que un vector x = (x1 , . . . , xn ) k n este en LB , se tiene
cion
que cumplir entonces que


rango (v1 )tB | |(vr )tB |xt = rango (v1 )tB | |(vr )tB .
Supongamos ahora que v1 , . . . , vr son linealmente independientes (es decir, forman una base de L). Entonces el rango de la matriz ((v1 )tB | |(vr )tB ) es r. Para que el rango de la matriz
ampliada sea tambien igual a r, todos los menores de orden r + 1 deben anularse. Cada uno
lineal cuyas incognitas

de estos menores nos da una ecuacion


son las coordenadas de x. El
sistema homogeneo obtenido de esta forma tiene como soluciones el conjunto de coordenadas de los vectores de L con respecto a B.

Definicion
2.11 Un sistema de ecuaciones implcitas de L con respecto a B es un sistema
de ecuaciones homogeneo cuyo conjunto de soluciones esta formado por las coordenadas de los
vectores de L con respecto a B.

El proceso anterior nos da un metodo para obtener un sistema de ecuaciones implcitas


de cualquier subespacio a partir de un sistema de generadores: primero extraemos una base
de dicho sistema, y despues construimos el sistema de ecuaciones homogeneas correspondiente.
Recprocamente, dado un sistema de ecuaciones implcitas de un subespacio L de V con
respecto a una base B es posible obtener una base de L. Basta hallar sus coordenadas con
respecto a B, que forman una base del conjunto de soluciones del sistema en k n . Supongamos que la matriz de coeficientes del sistema tiene rango r. Al poner la matriz en forma
escalonada, obtendremos r pivotes y n r columnas sin pivotes, que corresponden a varia del
bles libres. Para cada valor que le demos a cada una de ellas, obtenemos una solucion
sistema. Sean u1 , . . . , unr las soluciones obtenidas al asignarle a una de las variables libres
obtenida al asignarle a la i-esima variable
el valor 1 y a las restantes 0. Entonces la solucion
libre el valor ci es justamente c1 u1 + + cnr unr . Por tanto, u1 , . . . , unr forman un siste
ma generador del subespaico de soluciones del sistema. Por otra parte, en la combinacion
lineal c1 u1 + + cnr unr la coordenada correspondiente a la i-esima variable libre es ci .
identicamente nula solo
puede obtenerse si c1 = = cnr = 0. Es
Por tanto, la solucion
decir, u1 , . . . , unr son linealmente independientes, as que forman una base del conjunto de
soluciones del sistema. Hemos probado:

Teorema 2.15 El conjunto de soluciones de un sistema de ecuaciones homogeneo con n incognitas cuya matriz de coeficientes tiene rango r es un subespacio de k n de dimension n r.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

46

TEMA 2. ESPACIOS VECTORIALES

Un sistema de ecuaciones implcitas de un subespacio L V depende, por supuesto, de


la base elegida. Si usamos otra base, el sistema obtenido cambiara.

Teorema 2.16 Sea L V un subespacio y B, B 0 dos bases de V , y sea A x = 0 un sistema de


ecuaciones implcitas de L con respecto a B. Entonces, un sistema de ecuaciones implcitas de L
con respecto a B 0 viene dado por B x = 0, donde B = A M (B 0 , B).

Demostracion

si sus coordenadas con respecto a B son una


Un vector u V esta en L si y solo
del sistema A x = 0, es decir, si y solo
si A (u)tB = 0. Por la formula

solucion
del cambio
t
0
t
si
de base, (u)B = M (B , B) (u)B0 , as que u L si y solo
A M (B 0 , B) (u)tB0 = 0.
Es decir, las coordenadas de los vectores de L con respecto a B 0 son las soluciones del
sistema A M (B 0 , B) x = 0.

2.7.

Operaciones entre subespacios

L1 L2 es entonces
Sean L1 y L2 dos subespacios del k-espacio vectorial V . Su interseccion
otro subespacio de V : Si u, v L1 L2 y c k, la suma u + v y el producto c v estan tanto en
L1 L2 . Mas generalmente, la interseccion

L1 como en L2 , y por tanto estan en la interseccion

de un numero
cualquiera de subespacios de V es un subespacio.
L1 L2 , sin embargo, no es un subespacio en general: por ejemplo, si V = k 2 ,
La union
L1 = h(1, 0)i y L2 = h(0, 1)i, entonces los vectores (1, 0) y (0, 1) estan en L1 L2 pero su suma
no lo esta.

Definicion
2.12 La suma de dos subespacios L1 , L2 de V es el subespacio L1 + L2 generado por
la union de L1 y L2 .

Es decir, L1 + L2 es el menor subespacio de V que contiene tanto a L1 como a L2 .

Teorema 2.17 La suma L1 + L2 es el conjunto de vectores v V que pueden expresarse en la


forma v1 + v2 con v1 L1 y v2 L2 .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.7. OPERACIONES ENTRE SUBESPACIOS

47

Demostracion

El conjunto de vectores que pueden escribirse de esa forma es claramente un subespacio de V , y contiene a L1 y a L2 (puesto que todo u L1 se puede expresar como u + 0
y todo v L2 como 0 + v). Ademas, todo subespacio de V que contenga a L1 y L2 debe
contener tambien a todo vector de la forma v1 + v2 con v1 L1 y v2 L2 . Por tanto este
conjunto es el subespacio generado por L1 L2 .

Corolario 2.18 Si S1 y S2 son sistemas generadores de L1 y L2 respectivamente, la union S1 S2


es un sistema generador de L1 + L2 .

Mas generalmente, la suma de una familia arbitraria de subespacios de V se define como


de todos ellos, y esta generado por la union
de un
el subespacio generado por la union
sistema de generadores para cada uno de los subespacios.

Teorema 2.19 Sean L1 , L2 y L3 subespacios de V .


1. Si L1 L2 , entonces L1 L2 = L1 y L1 + L2 = L2 .
2. Si L1 L3 , entonces L1 + (L2 L3 ) = (L1 + L2 ) L3 .

Demostracion

ya que L1 L2 = L2 . Supongamos que


El apartado (1) es evidente por definicion,
L1 L3 , y sea v L1 +(L2 L3 ). Entonces v puede escribirse como v1 +v2 , donde v1 L1
y v2 L2 L3 . Como L2 L3 L2 tenemos que v2 L2 , as que v = v1 + v2 L1 + L2 .
Ademas, como v1 L1 L3 y v2 L2 L3 L3 , la suma v = v1 + v2 tambien esta en
(L1 + L2 ) L3 .
L3 , y por tanto esta en la interseccion
Recprocamente, sea v (L1 + L2 ) L3 . Como v L1 + L2 , se puede expresar como
v1 + v2 con v1 L1 y v2 L2 . Ademas, como L1 L3 , v y v1 estan en L3 , por lo que v2 =
v v1 tambien lo esta. De modo que v2 L2 L3 , y por tanto v = v1 +v2 L1 +(L2 L3 ).
de un sistema generador de L1 y uno de L2 sea un sisNo es cierto que la interseccion
sea vaca).
tema generador de L1 L2 (de hecho, lo mas probable es que dicha interseccion
de dos subespacios, es necesario pasar a ecuaciones implcitas.
Para calcular la interseccion
Fijada una base B de V , un sistema de ecuaciones implcitas de L1 L2 son respecto a B se
obtiene uniendo las ecuaciones de un sistema de ecuaciones implcitas de L1 y de un sistema
de ecuaciones implcitas de L2 . En efecto, las coordenadas de los vectores de L1 (respectivamente de L2 ) con respecto a B son las soluciones del primer sistema (respectivamente del
segundo), por lo que las coordenadas de los vectores que estan tanto en L1 como en L2 seran
las soluciones del sistema formado por todas estas ecuaciones simultaneamente.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

48

TEMA 2. ESPACIOS VECTORIALES

Teorema 2.20 (de la dimension)

Sean L1 y L2 dos subespacios finitamente generados de V .


Entonces se tiene que
dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) dim(L1 L2 ).

Demostracion

Como L1 y L2 son finitamente generados, tambien lo son L1 L2 y L1 +


L2 . Sean d, e y s las dimensiones de L1 , L2 y L1 L2 respectivamente. Fijemos una base B = {u1 , . . . , us } de L1 L2 . Entonces B es un conjunto linealmente independiente en L1 y en L2 , por lo que puede extenderse a bases B1 =
{u1 , . . . , us , v1 , . . . , vds } de L1 y B2 = {u1 , . . . , us , w1 , . . . , wes } de L2 . Veamos que los
vectores u1 , . . . , us , v1 , . . . , vds , w1 , . . . , wes forman una base de L1 + L2 , y por tanto su
sera s + (d s) + (e s) = d + e s.
dimension
En primer lugar, estos vectores forman un sistema generador de L1 + L2 , puesto
de B1 , que es un sistema generador de L1 , y de B2 , que es un sisque son la union
tema generador de L2 . Veamos que son linealmente independientes. Supongamos que
c1 , . . . , cs , a1 , . . . , ads , b1 , . . . , bes son escalares tales que
c1 u1 + + cs us + a1 v1 + + ads vds + b1 w1 + + bes wes = 0.
Entonces el vector u = c1 u1 + + cs us + a1 v1 + + ads vds = b1 w1 bes wes
lineal de B1 ) como en L2 (por ser combinacion

esta tanto en L1 (por ser combinacion

lineal de B2 ). Por lo tanto esta en L1 L2 , as que se puede escribir como combinacion


lineal de u1 , . . . , us . Es decir, existen escalares d1 , . . . , ds tales que
c1 u1 + + cs us + a1 v1 + + ads vds = d1 u1 + + ds us .

Pero como B1 es una base, un vector de L1 se puede expresar de una unica


forma como
lineal de los vectores de B1 , y por tanto ci = di y ai = 0 para todo i. Entonces
combinacion
lineal anterior queda
la combinacion
c1 u1 + + cs us + b1 w1 + + bes wes = 0.
Al ser u1 , . . . , us , w1 , . . . , wes linealmente independientes, concluimos que ci y bi tambien deben ser 0 para todo i.

2.8.

Suma directa

Definicion
2.13 Sean L1 y L2 dos subespacios de V . Se dice que V es suma directa de L1 y L2
si L1 L2 = {0} y L1 + L2 = V . En ese caso escribimos V = L1 L2 .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.8. SUMA DIRECTA

49

Ejemplo
1. El espacio k n es suma directa del subespacio L1 generado por {e1 } y el subespacio
x1 = 0.
L2 de soluciones de la ecuacion
2. El espacio Mn (k) es suma directa del subespacio de matrices simetricas y el subespacio de matrices antisimetricas.
3. El espacio vectorial C sobre R es suma directa del subespacio formado por los

numeros
reales y el subespacio formado por los numeros
imaginarios puros.

si V = L1 L2 , entonces dim(V ) = dim(L1 ) + dim(L2 ).


Por el teorema de la dimension,

Teorema 2.21 Sean L1 , L2 dos subespacios de V . Entonces, las siguientes propiedades son equivalentes:
1. V = L1 L2 .
2. Todo vector u V se escribe de manera unica

como u1 + u2 , donde u1 L1 y u2 L2 .
3. Si v1 , . . . , vr forman una base de L1 y w1 , . . . , ws forman una base de L2 , entonces
v1 , . . . , vr , w1 , . . . , ws forman una base de V .

Demostracion

Supongamos que V = L1 L2 . Entonces V = L1 + L2 , por lo que todo vector u V


puede expresarse de la forma u1 + u2 con u1 L1 y u2 L2 . Supongamos que existe otra
de este tipo, u = u01 +u02 . Entonces u1 +u2 = u01 +u02 , por lo que u1 u01 = u02 u2 .
expresion
Este vector esta en L1 (por ser suma de dos vectores de L1 ) y en L2 (por ser suma de dos
vectores de L2 ). Como L1 L2 = {0}, debe ser el vector 0. Por tanto u1 = u01 y u2 = u02 .
Supongamos ahora que se cumple la propiedad (2), y sea u V . Entonces podemos

lineal
escribir u de manera unica
como u1 + u2 con ui Li . Como u1 es combinacion
lineal de w1 , . . . , ws , su suma es combinacion
lineal de
de v1 , . . . , vr y u2 es combinacion
v1 , . . . , vr , w1 , . . . , ws . Supongamos que 0 = c1 v1 + +cr vr +d1 w1 + +ds ws . Entonces
el vector 0 se puede escribir como la suma de c1 v1 + +cr vr L1 y d1 w1 + +ds ws L2 ,

y tambien como la suma de 0 L1 y 0 L2 . Por la unicidad de la descomposicion,


deducimos que c1 v1 + + cr vr = d1 w1 + + ds ws = 0. Y como los vi y los wi son
linealmente independientes, todos los coeficientes ci y di deben ser iguales a cero. Por
tanto los r + s vectores v1 , . . . , vr , w1 , . . . , ws son independientes, as que forman una
base de V .
Supongamos finalmente que se cumple la propiedad (3). Como V esta generado por
de un sistema generador de L1 y de un sistema generador de L2 , se tiene que
la union
V = L1 + L2 . De la propiedad (3) deducimos que dim(V ) = dim(L1 ) + dim(L2 ). Por la

concluimos que L1 L2 = {0}.


formula
de la dimension
Mas generalmente, diremos que el espacio vectorial V es suma directa de los subespacios
de Li con la suma de los
L1 , . . . , Lr V si V = L1 + . . . + Lr y, para todo i, la interseccion

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

50

TEMA 2. ESPACIOS VECTORIALES

restantes Lj es {0}. Esto equivale a que todo vector u V pueda escribirse de forma unica
como una suma v1 + . . . + vr con vi Li .

Definicion
2.14 Sea L V un subespacio. Un subespacio complementario de L en V es un
subespacio L0 V tal que V = L L0 .

Un subespacio L tiene, en general, muchos subespacios complementarios distintos. Para


calcular uno de ellos podemos extender una base de L a una base de V , y tomar como L0 el

subespacio generado por los vectores que hemos anadido


para obtener esta base.

Definicion
2.15 Sean V y W dos espacios vectoriales sobre k. La suma directa de V y W es el
espacio vectorial V W que tiene como conjunto subyacente el producto cartesiano V W , y en
el que las operaciones estan definidas de la siguiente forma:
(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) para todos v1 , v2 V y w1 , w2 W
c (v, w) = (c v, c w) para todos v V, w W y c k.

Es facil ver que, con estas operaciones, V W es un espacio vectorial sobre k. Ademas,
V W contiene dos subespacios L1 = {(v, 0)|v V } y L2 = {(0, w)|w W } que podemos
identificar con V y W respectivamente, tales que V W es la suma directa de L1 y L2 . En
particular, si V y W son finitamente generados, se tiene que dim(V W ) = dim(V )+dim(W ).

2.9.

Producto escalar

Durante el resto de este tema supondremos que el cuerpo de escalares k es el cuerpo R

de los numeros
reales o el cuerpo C de los numeros
complejos. Esto es importante porque
necesitaremos tomar la raz cuadrada de cualquier escalar positivo, lo cual no es posible en
un cuerpo arbitrario.

Definicion
2.16 Sea V un espacio vectorial sobre k. Un producto escalar en V es una aplicacion V V k que asigna a cada par de vectores u, v V un escalar, que denotaremos hu, vi,
de manera que se cumplen las siguientes propiedades:
1. hu1 + u2 , vi = hu1 , vi + hu2 , vi para todos u1 , u2 , v V y
hc u, vi = chu, vi para todos u, v V , c k (lineal en la primera variable)
2. hv, ui = hu, vi para todos u, v V , donde c denota el conjugado del numero

complejo c.
3. hv, vi es positivo para todo v V distinto de 0.
Un espacio vectorial finitamente generado dotado de un producto escalar se denomina un
espacio de Hilbert.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.9. PRODUCTO ESCALAR

51

De las propiedades (1) y (2) se deduce que hu, v1 + v2 i = hu, v1 i + hu, v2 i y hu, c vi =
chu, vi para todos u, v, v1 , v2 V y c k. Si V es un espacio de Hilbert, cualquier subespacio
suyo tambien es un espacio de Hilbert con el mismo producto escalar.
Ejemplo
1. Sea V = k n . Entonces hu, vi = u1 v1 + + un vn define un producto escalar en
V . Este espacio de Hilbert se denomina el espacio eucldeo de dimension n. A partir
de ahora, si no especificamos un producto escalar en k n , supondremos que nos
estamos refiriendo a e ste.

2. En V = k n , la formula
hu, vi = u1 v1 + + un vn define un producto escalar si k = R
(de hecho es el mismo que en el ejemplo anterior) pero no si k = C, ya que no
verifica la propiedad (2).
3. En V = R2 , hu, vi = u1 v1 u2 v2 no define un producto escalar, ya que no verifica
la propiedad (3): h(0, 1), (0, 1)i = 1 < 0.

4. En V = Mn (k) la formula
hA, Bi = tr(AB ) (donde B = B t es la conjugada
traspuesta de B) define un producto escalar.
5. Sea V el R-espacio vectorial de funciones reales continuas definidas en el intervalo
R1
[0, 1] R. Entonces, hf, gi = 0 f (x)g(x)dx define un producto escalar en V .

Supongamos que V es finitamente generado, y sea B = {v1 , . . . , vn } una base de V . Sean


(c1 , . . . , cn ) y (d1 , . . . , dn ) las coordenadas de los vectores u y v con respecto a B. Usando las
propiedades (1) y (2) del producto escalar, deducimos que
hu, vi =

n
X

ci dj hvi , vj i.

i,j=1

Es decir, un producto escalar esta completamente determinado por su valor en todos los
pares de elementos de una base. En forma matricial, podemos expresarlo como

d1

hu, vi = (c1 cn )A ... = (u)B A (v)B


dn
(i, j), que llamaremos la
donde A Mn (k) es la matriz que tiene hvi , vj i en la posicion
matriz del producto escalar con respecto a B. Por ejemplo, en el espacio eucldeo k n , la matriz
del producto escalar con respecto a la base estandar es la matriz identidad. En general, por
la propiedad (2), la matriz A es siempre hermtica. El producto escalar esta determinado por
esta matriz, pero no toda matriz hermtica determina un producto escalar de esta manera:
(i, i), por lo que
por ejemplo, hvi , vi i es el elemento diagonal de la matriz en la posicion
para que se cumpla la propiedad (3) es necesario (aunque no suficiente) que los elementos
diagonales de la matriz sean positivos.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

52

TEMA 2. ESPACIOS VECTORIALES

Definicion
2.17 Sea V un espacio de Hilbert. Dos vectores u, v V se dicen ortogonales o
perpendiculares, y se denota u v, si hu, vi = 0.

Definici
2.18 Sea V un espacio de Hilbert. El modulo
de un vector u V es el numero

real
pon
||u|| = hu, ui 0.

Por ejemplo, en Rn o en Cn , el modulo


depu = (u1 , . . . , un ) es
se puede expresar de la forma mas habitual u21 + + u2n .

p
|u1 |2 + . . . + |un |2 . En Rn

Teorema 2.22 Para todos u, v V y c k se tiene que:


1. ||c u|| = |c| ||u||
2. ||u|| = 0 si y solo si u = 0
3. Desigualdad de Cauchy-Schwarz: |hu, vi| ||u|| ||v||, con igualdad si y solo si u y v son
linealmente dependientes.
4. Desigualdad triangular: ||u + v|| ||u|| + ||v||
5. Teorema de Pitagoras: Si u v, entonces ||u + v||2 = ||u||2 + ||v||2

Demostracion

La primera propiedad se deduce de las propiedades (1) y (2) del producto escalar,
ya que cc = |c|2 . La segunda es consecuencia directa de la propiedad (3) del producto
escalar.
La desigualdad (3) es evidente (y de hecho una igualdad) si u = 0. Supongamos que
u 6= 0. Entonces, para todo t k, se tiene que
0 htu + v, tu + vi = tthu, ui + thu, vi + thv, ui + hv, vi.
hv,ui
Tomando t = hu,ui
, obtenemos

hu, vihv, ui hu, vihv, ui hu, vihv, ui


|hu, vi|2

+ hv, vi = hv, vi
hu, ui
hu, ui
hu, ui
hu, ui

de donde
|hu, vi|2 = hu, vihv, ui hu, uihv, vi = ||u||2 ||v||2 .
La desigualdad (3) se obtiene tomando raz cuadrada. Ademas, por (2), se tiene la igualhv,ui
si v hu,ui
si u y v son linealmente dependad si y solo
u = 0, lo cual ocurre si y solo
dientes.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.9. PRODUCTO ESCALAR

53

Demostracion
(cont)
Veamos ahora (4). Usando (3), tenemos que
||u + v||2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi =
= ||u||2 +2<hu, vi+||v||2 ||u||2 +2|hu, vi|+||v||2 ||u||2 +2||u||||v||+||v||2 = (||u||+||v||)2

donde < denota la parte real de un numero


complejo. Concluimos tomando raz cuadrada. Ademas, si u v entonces hu, vi = 0, por lo que se obtiene (5) como parte de la
igualdad anterior.

Definicion
2.19 Sea V un espacio de Hilbert y L V un subespacio. El complemento ortogonal de V es el conjunto L formado por los vectores de V que son ortogonales a todos los
vectores de L.

si es
Por linearidad, un vector v V es ortogonal a todos los vectores de L si y solo
ortogonal a todo vector de un sistema generador de L.

Teorema 2.23 Para todo subespacio L de un espacio de Hilbert finitamente generado V , su complemento ortogonal L V es un subespacio complementario de L.

Demostracion

Veamos que L es un subespacio. Sean u, v L . Entonces hu, wi = hv, wi = 0 para


todo w L, por lo que hu + v, wi = hu, wi + hv, wi = 0 y hcu, wi = chu, wi = 0 para
todo w L y todo c k. Por tanto u + v y cu estan en L .
Veamos ahora que L L = V . Sea u L L . Entonces u es ortogonal a todo vector
de L, en particular a s mismo, por lo que hu, ui = 0, as que u debe ser el vector 0. Por la

tenemos entonces que dim(L + L ) = dim(L) + dim(L ). Para


formula
de la dimension
probar que L + L = V basta entonces probar que dim(L) + dim(L ) es igual a n, la
de V .
dimension
Fijemos una base de L y extendamosla a una base B de V , y sea A la matriz del

producto escalar con respecto a B. Un vector x = (x1 , . . . , xn ) es ortogonal a L si y solo


si es ortogonal a los vectores de un sistema generador de L, por ejemplo los primeros r
vectores de B (donde r = dim(L)). Las coordenadas de estos vectores con respecto a B
si
son e1 , . . . , er , as que x L si y solo
ei A x = 0 ei A xt = 0.
Es decir, las coordenadas de los vectores de L con respecto a B son las soluciones del
sistema de ecuaciones homogeneo cuya matriz de coeficientes esta formada por las pri de L es n menos el rango de
meras r filas de A conjugadas. En particular, la dimension
esta matriz, el cual es como maximo r. Por tanto dim(L + L ) = dim(L) + dim(L )
n, la dimension
de L + L debe ser igual a n.
r + (n r) = n. Como V tiene dimension

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

54

TEMA 2. ESPACIOS VECTORIALES


En particular se tiene la igualdad dim(L) + dim(L ) = dim(V ).

Teorema 2.24 Sea V un espacio de Hilbert finitamente generado. Entonces,


1. V = {0} y {0} = V .
2. Para todo subespacio L V , (L ) = L.

3. Para todo par de subespacios L1 , L2 V , (L1 + L2 ) = L


1 L2 .

4. Para todo par de subespacios L1 , L2 V , (L1 L2 ) = L


1 + L2 .

Demostracion

anterior. Para el apartado


(1) es consecuencia directa de la formula
de la dimension

que L (L ) (ya que todo vector de L es ortogonal
(2), es evidente por definicion

a todo vector de L ). Pero por la formula


anterior ambos subespacios tienen la misma
as que deben ser iguales.
dimension,

si v
Para probar (3) elijamos bases B1 y B2 de L1 y L2 . Entonces v L
1 L2 si y solo
si es ortogonal
es ortogonal a todo vector de B1 y a todo vector de B2 , es decir, si y solo
a todo vector de B1 B2 . Pero B1 B2 es un sistema generador de L1 + L2 , por lo tanto
esto es equivalente a ser ortogonal a todo vector de L1 + L2 .
Finalmente, (4) se deduce de (2) y (3):

(L1 L2 ) = ((L
1 ) (L2 ) ) = ((L1 + L2 ) ) = L1 + L2 .

Este resultado nos permite dar un metodo sencillo para calcular el complemento ortogonal de un subespacio L del espacio eucldeo k n . Supongamos primero que L esta generado

por un unico
vector v = (v1 , . . . , vn ). Entonces L es el conjunto de vectores ortogonales
v1 x1 + + vn xn = 0. En
a v, es decir, los vectores (x1 , . . . , xn ) que verifican la ecuacion
general, si L esta generado por los vectores v1 , . . . , vr , su complemento ortogonal sera la
de los complementos ortogonales de los subespacios generados por cada vi =
interseccion
(vi1 , . . . , vin ), y por tanto sera el conjunto de soluciones del sistema formado por las ecuaciones vi1 x1 + + vin xn = 0 para i = 1, . . . , r. Es decir,

Teorema 2.25 Sea L = hv1 , . . . , vr i k n . Entonces L es el conjunto de soluciones del sistema


A x = 0, donde A Mrn (k) es la matriz cuyas filas son los conjugados de los vectores
v 1 , . . . , vr .
Recprocamente, si L esta definido como el conjunto de soluciones de un sistema homogeneo
B x = 0, L es el subespacio de V generado por los conjugados de los vectores fila de B.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

2.10. BASES ORTONORMALES

2.10.

55

Bases ortonormales

Definicion
2.20 Sea V un espacio de Hilbert. Una base B de V se dice ortogonal si los vectores
de B son ortogonales dos a dos, y ortonormal si es ortogonal y, ademas, cada vector de B tiene
modulo 1.

Ejemplo
1. En el espacio eucldeo k n , la base estandar {e1 , . . . , en } es ortonormal.
x1 +x2 +x3 +x4 =
2. En el subespacio del espacio eucldeo R4 definido por la ecuacion
0, la base {( 21 , 12 , 12 , 21 ), ( 12 , 12 , 12 , 12 ), ( 12 , 21 , 12 , 12 )} es ortonormal.

La principal ventaja de las bases ortonormales es que hallar las coordenadas de cualquier vector con respecto a ella es inmediato: supongamos que B = {u1 , . . . , un } es una base
ortonormal de V , y sea v V . Si v = c1 u1 + + cn un , entonces para cada i = 1, . . . , n:
hv, ui i = c1 hu1 , ui i + + cn hun , ui i = ci hui , ui i = ci ,
as que

Teorema 2.26 Si B = {u1 , . . . , un } es una base ortonormal de V , las coordenadas del vector v
con respecto a B son (hv, u1 i, . . . , hv, un i).

En un espacio de Hilbert finitamente generado V , la matriz del producto escalar con


respecto a una base ortonormal B cualquiera es la matriz identidad. Por tanto, si u, v V
tienen coordenadas con respecto a B (c1 , . . . , cn ) y (d1 , . . . , dn ) respectivamente, el producto
escalar de u y v viene dado por c1 d1 + + cn dn . En particular, una segunda base B 0 es
si la matriz de cambio de base verifica que M (B, B 0 ) M (B, B 0 ) = In .
ortonormal si y solo

Definicion
2.21 Una matriz A Mn (C) se dice unitaria si A A = In . Si A Mn (R) esto
es equivalente a A At = In , y en ese caso A se dice ortogonal.

si sus columnas forman una base ortonormal de k n .


Una matriz es unitaria si y solo

Veamos ahora como


construir una base ortonormal de cualquier espacio de Hilbert finitamente generado V a partir de una base arbitraria, mediante un algoritmo llamado de
Gram-Schmidt. Lo haremos en dos pasos: en primer lugar construimos una base ortogonal
a partir de la base dada, y finalmente multiplicamos cada vector de esta base por el inverso
de su norma para obtener una base ortonormal.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

56

TEMA 2. ESPACIOS VECTORIALES

Algoritmo de Gram-Schmidt
Comenzamos con una base B = {v1 , . . . , vn } de V . En el paso i-esimo, construimos el
vector wi V de la siguiente forma: para i = 1, w1 = v1 . Supongamos que hemos construido w1 , . . . , wi1 y que estos vectores son ortogonales entre s. El vector wi sera de la
forma wi = vi c1 w1 . . . ci1 wi1 . Para hallar los coeficientes c1 , . . . , ci1 , imponemos
que wi sea ortogonal a wj para j < i:
0 = hwi , wj i = hvi c1 w1 . . . ci1 wi1 , wj i = hvi , wj i cj hwj , wj i
por lo que debemos tomar cj =
wi = v i

hvi ,wj i
.
hwj ,wj i

Es decir,

hvi , w1 i
hvi , wi1 i
w1 . . .
wi1 .
hw1 , w1 i
hwi1 , wi1 i

Obtenemos as una base ortogonal B 0 = {w1 , . . . , wn } de V . Para obtener la base orto


normal, concluimos multiplicando cada vector wi por el inverso de su modulo:
ui =

1
wi .
||wi ||

Los vectores u1 , . . . , un forman entonces una base ortonormal de V .


Apliquemos el algoritmo para obtener una base ortonormal del subespacio L de R4 de x1 + x2 x3 x4 = 0. Una base de L esta formada por los vectores
finido por la ecuacion
v1 = (1, 1, 0, 0), v2 = (1, 0, 1, 0) y v3 = (1, 0, 0, 1). Mediante el algoritmo de Gram-Schmidt
obtenemos
w1 = (1, 1, 0, 0)


1
1 1
h(1, 0, 1, 0), (1, 1, 0, 0)i
(1, 1, 0, 0) = (1, 0, 1, 0) (1, 1, 0, 0) =
, , 1, 0
w2 = (1, 0, 1, 0)
h(1, 1, 0, 0), (1, 1, 0, 0)i
2
2 2


h(1, 0, 0, 1), ( 12 , 12 , 1, 0)i 1 1
h(1, 0, 0, 1), (1, 1, 0, 0)i
w3 = (1, 0, 0, 1)
(1, 1, 0, 0) 1 1
, , 1, 0 =
h(1, 1, 0, 0), (1, 1, 0, 0)i
h( 2 , 2 , 1, 0), ( 12 , 21 , 1, 0)i 2 2
 


1 1 1
1 1 1
1
= (1, 0, 0, 1) (1, 1, 0, 0)
, , 1, 0 =
, , ,1
2
3 2 2
3 3 3

y, finalmente, dividiendo cada wi por su modulo,


1
u1 = w1 =
2


1
1
1
, , 0, 0 , u2 = p
w2 =
2
2
3/2

3
y u3 =
w3 =
2

1 1
2
, , ,0
6 6 3

!
1
1
3
1
, , ,
.
2 3 2 3 2 3 2

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Tema 3
Homomorfismos de espacios vectoriales
3.1.

Homomorfismos: definici
on y ejemplos

Los homomorfismos entre espacios vectoriales son aplicaciones que preservan las operaciones de espacio vectorial.

Definicion
3.1 Sean V y W dos k-espacios vectoriales. Un homomorfismo entre V y W es
una aplicacion f : V W tal que
1. f (u + v) = f (u) + f (v) para todos u, v V .
2. f (c v) = c f (v) para todos c k, v V .
El conjunto de homomorfismos entre V y W se denota por Hom(V, W ). Si V = W , se dice que f
es un endomorfismo de V .

Si f : V W es un homomorfismo, entonces f (0) = f (0 0) = 0 f (0) = 0. Ademas, si


lineal de v1 , . . . , vr V , entonces su imagen f (v) W es
un vector v V es combinacion
lineal de f (v1 ), . . . , f (vr ) W (con los mismos coeficientes). En particular, si
combinacion
v1 . . . , vr son linealmente dependientes, tambien lo son f (v1 ), . . . , f (vr ).
Ejemplo
f : V W dada por f (v) = 0 para todo v V es un homomorfismo.
1. La aplicacion
f : V V dada por f (v) = v es un endomorfismo de V , llamado
2. La aplicacion
identidad.
f : V V dada por f (v) = c v es un endomorfismo
3. Para todo c k, la aplicacion
de V . Para c = 0 es el homomorfismo cero, y para c = 1 es la identidad.
f : k n k m dada por f (v)t = A vt
4. Sea A Mmn (k) una matriz. La aplicacion
(donde los vectores de k n y k m se escriben como matrices columna) es un homomorfismo.

5. Sea V = P(k) el espacio vectorial de polinomios con coeficientes en k. La aplicacion


es un homomorfismo.
f : V V dada por f (P ) = P 0 (derivacion)

Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
57de Algebra.

58

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Ejemplo (cont)
traza tr : V k es un homomorfismo. Sin embargo,
6. Sea V = Mn (k). La aplicacion
determinante det : V k no lo es.
la aplicacion
f : V k n dada por f (v) = (v)B
7. Sea B = {v1 , . . . , vn } una base de V . La aplicacion
es un homomorfismo.
z 7 z es un endomorfismo de C como R-espacio
8. Sea V = C. La conjugacion
vectorial, pero no como C-espacio vectorial.

Veamos que el ejemplo (4) describe todos los homomorfismos entre k n y k m .

Teorema 3.1 Sea f : k n k m un homomorfismo. Existe una matriz A Mmn (k) tal que
f (v)t = A vt para todo v k n .

Demostracion

Sea {e1 , . . . , en } la base canonica


de k n . Entonces v = v1 e1 + + vn en , as que f (v) =
v1 f (e1 ) + + vn f (en ). Es decir,
f (v)t = A vt
donde A Mmn (k) es la matriz que tiene por columnas f (e1 )t , . . . , f (en )t .
Sean ahora V y W dos k-espacios vectoriales de dimensiones n y m, y sean B = {v1 , . . . , vn }
y C = {w1 , . . . , wm } bases de V y W . Sea f : V W un homomorfismo. Dado v V , sean
(c1 , . . . , cn ) sus coordenadas con respecto a B. Entonces v = c1 v1 + + cn vn , y por tanto
f (v) = c1 f (v1 ) + + cn f (vn ). Tomando coordenadas con respecto a C, tenemos que
(f (v))C = c1 (f (v1 ))C + + cn (f (vn ))C ,
es decir,
(f (v))tC = A (v)tB
donde A Mmn (k) es la matriz que tiene por columnas (f (v1 ))tC , . . . , (f (vn ))tC .

Definicion
3.2 La matriz de f : V W con respecto a B y C es la matriz M (f )B,C
Mmn (k) que tiene por columnas (f (v1 ))tC , . . . , (f (vn ))tC . Si V = W y B = C se denota simplemente por M (f )B , y se denomina matriz de f con respecto a B.

Esta matriz es la unica


que verifica que (f (v))C = M (f )B,C (v)B para todo v V .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Y EJEMPLOS
3.1. HOMOMORFISMOS: DEFINICION

59

Ejemplo
1. La matriz del homomorfismo cero f : V W con respecto a cualquier par de
bases es la matriz cero.
2. La matriz del endomorfismo identidad f : V V con respecto a las bases B y B 0
de V es justamente la matriz de cambio de base de B a B 0 . En particular, si B = B 0 ,
es la matriz identidad.
3. Si V = M2 (k), la matriz del
 homomorfismo traza V k con respecto a las bases

canonicas
es 1 0 0 1 .
con
4. Si V = C como R-espacio 
vectorial,la matriz del endomorfismo conjugacion
1 0
respecto a la base {1, i} es
.
0 1

Al igual que las coordenadas con respecto a una base B de V nos dan una correspondencia biunvoca entre los vectores de V y los de k n , las matrices con respecto a las bases
B = {v1 , . . . , vn } de V y C = {w1 , . . . , wm } de W nos dan una correspondencia biunvoca
entre el conjunto de homomorfismos f : V W y el espacio de matrices Mmn (k).

Teorema 3.2 Sean f : U V y g : V W dos homomorfismos de k-espacios vectoriales.


Entonces la composicion g f : U W tambien es un homomorfismo. Si B, C y D son bases de
U, V y W respectivamente, se tiene que
M (g f )B,D = M (g)C,D M (f )B,C .

Demostracion

Sean u, v U . Entonces (g f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) +
g(f (v)) = (g f )(u) + (g f )(v). Si c k, entonces (g f )(c v) = g(f (c v)) = g(c f (v)) =
c g(f (v)) = c (g f )(v). Por tanto, g f es un homomorfismo.
Ademas, para todo u U se tiene que
((g f )(u))D = (g(f (u)))D = M (g)C,D (f (u))C = M (g)C,D M (f )B,C (u)B ,
as que, por la unicidad de la matriz de un homomorfismo,
M (g f )B,D = M (g)C,D M (f )B,C .

Sean ahora B 0 y C 0 otras bases de V y W respectivamente. Para todo v V se tiene


entonces que (v)B = M (B 0 , B)(v)B0 y, para todo w W , (w)C 0 = M (C, C 0 )(w)C . Por tanto,
(f (v))C 0 = M (C, C 0 )(f (v))C = M (C, C 0 )M (f )B,C (v)B = M (C, C 0 )M (f )B,C M (B 0 , B)(v)B0 .
Por la unicidad de M (f )B0 ,C 0 se tiene entonces

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

60

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Teorema 3.3 (cambio de base) Sean B, B 0 dos bases de V , C, C 0 dos bases de W y f : V W


un homomorfismo. Entonces
M (f )B0 ,C 0 = M (C, C 0 ) M (f )B,C M (B 0 , B).
En particular, si V = W ,
M (f )B0 = M (B 0 , B)1 M (f )B M (B 0 , B).

Un homomorfismo esta unvocamente determinado por las imagenes de los elementos


de una base:

Teorema 3.4 Sea B = {v1 , . . . , vn } una base de V , y sean w1 , . . . , wn W . Existe un unico

homomorfismo f : V W tal que f (vi ) = wi para todo i = 1, . . . , n.

Demostracion

Dado v V , existen escalares unicos


c1 , . . . , cn k tales que v = c1 v1 + + cn vn .
Entonces, para que f sea un homomorfismo, debemos definir f (v) = c1 f (v1 ) + +
definida de esta forma es, en
cn f (vn ) = c1 w1 + + cn wn . Es facil ver que la aplicacion
efecto, un homomorfismo.

3.2.

N
ucleo e imagen

Teorema 3.5 Sea f : V W un homomorfismo de k-espacios vectoriales, y L V un subespacio. La imagen f (L) de L por f es entonces un subespacio de W .

Demostracion

La imagen f (L) es el conjunto de vectores de la forma f (v) con v L. Sean w1 y w2


in f (L). Entonces existen v1 y v2 en L tales que w1 = f (v1 ) y w2 = f (v2 ), y por tanto
w1 + w2 = f (v1 + v2 ) y cw1 = f (cv1 ) para todo c k, por lo que f (L) es un subespacio
de w.
Si L esta generado por los vectores v1 , . . . , vr V , entonces f (L) esta generado por
f (v1 ), . . . , f (vr ) W .
Definicion
3.3 Sea f : V W un homomorfismo de k-espacios vectoriales. La imagen de f es
el subespacio im(f ) = f (V ) W .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


3.2. NUCLEO
E IMAGEN

61

Si B y C son bases de V y W , el subespacio de coordenadas de im(f ) con respecto a C


de im(f ) es el rango de
esta generado por las columnas de M (f )B,C . Por tanto, la dimension
la matriz M (f )B,C .

Teorema 3.6 Sea f : V W un homomorfismo de k-espacios vectoriales, y L W un subespacio. La imagen inversa f 1 (L) de L por f es entonces un subespacio de V .

Demostracion

La imagen inversa f 1 (L) es el conjunto de vectores v V tales que f (v) L. Sean


u, v f 1 (L). Entonces f (u + v) = f (u) + f (v) L y f (cv) = cf (v) L, puesto que L
es un subespacio. Por tanto f 1 (L) tambien es un subespacio.

Definicion
3.4 Sea f : V W un homomorfismo de k-espacios vectoriales. El nucleo
de f es
1
el subespacio ker(f ) = f ({0}) = {v V |f (v) = 0} V .

Sean B y C bases de V y W , y supongamos que un sistema de ecuaciones de L con res si A (w)tC = 0. Entonces v f 1 (L) si y solo

pecto a C es A x = 0. Es decir, w L si y solo


si
A (f (v))tC = A M (f )B,C (v)tB = 0.
Por tanto, un sistema de ecuaciones de f 1 (L) con respecto a B es A M (f )B,C x = 0. En
de ker(f ) es
particular, un sistema de ecuaciones de ker(f ) es M (f )B,C x = 0. La dimension
de V menos el rango de M (f )B,C .
igual, por tanto, a la dimension

Teorema 3.7 Sea f : V W un homomorfismo de k-espacios vectoriales. Si V es finitamente


generado, entonces tambien lo son im(f ) y ker(f ), y dim(im(f )) + dim(ker(f )) = dim(V ).

Demostracion

Supongamos que V es finitamente generado, y sea B una base de V . Entonces f (B) es


un sistema generador de im(f ), que es por tanto finitamente generado. Ademas, ker(f )
es finitamente generado por ser un subespacio de V .
Sea u1 , . . . , ur una base de ker(f ), y w1 , . . . , ws una base de im(f ). Para cada i =
1, . . . , s existe un vi V tal que f (vi ) = wi . Veamos que {u1 , . . . , ur , v1 , . . . , vs } es una
base de V , y por tanto dim(V ) = r + s = dim(ker(f )) + dim(im(f )).
Para todo v V , f (v) esta en im(f ), y por tanto existen d1 , . . . , ds k tales que
f (v) = d1 w1 + + ds ws = d1 f (v1 ) + + ds f (vs ) = f (d1 v1 + + ds vs ). Entonces
f (v d1 v1 ds vs ) = f (v) f (d1 v1 + + ds vs ) = 0,

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

62

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostracion
(cont)
as que v d1 v1 ds vs ker(f ), por lo que existen c1 , . . . , cr k tales que v d1 v1
lineal de u1 , . . . , ur , v1 , . . . , vs .
ds vs = c1 u1 + + cr ur , y v es por tanto combinacion
Veamos ahora que son linealmente independientes: supongamos que c1 u1 + +
cr ur + d1 v1 + + ds vs = 0. Aplicando f y teniendo en cuenta que f (ui ) = 0 para todo
i = 1, . . . , r, deducimos que d1 w1 + + ds ws = 0, y por tanto d1 = . . . = ds = 0 por ser
w1 , . . . , ws linealmente independientes. Se tiene entonces que c1 u1 + + cr ur = 0, y por
tanto c1 = . . . = cr = 0 por ser u1 , . . . , ur linealmente independientes.

3.3.

Isomorfismos

de imagen, un homomorfismo de k-espacios vectoriales f : V


Por la propia definicion
si im(f ) = W . En cuanto a la inyectividad, tambien hay un
W es sobreyectivo si y solo
del nucleo:

criterio en funcion

Teorema 3.8 Sea f : V W un homomorfismo de k-espacios vectoriales. Las siguientes propiedades son equivalentes:
1. f es inyectivo, es decir, las imagenes de dos vectores distintos de V son distintas.
2. ker(f ) = {0}.
3. Para todos v1 , . . . , vr V linealmente independientes, sus imagenes f (v1 ), . . . , f (vr )
W son linealmente independientes.

Demostracion

Supongamos que f es inyectivo, y sea v ker(f ). Entonces f (v) = 0 = f (0), y por


tanto v = 0. As que ker(f ) = {0}.
Supongamos ahora que ker(f ) = {0}, y sean v1 , . . . , vr V linealmente independientes. Sean c1 , . . . , cr k tales que c1 f (v1 ) + + cr f (vr ) = f (c1 v1 + + cr vr ) = 0.
Entonces c1 v1 + + cr vr ker(f ), y por tanto c1 v1 + + cr vr = 0. Como v1 , . . . , vr son
linealmente independientes, concluimos que c1 = . . . = cr = 0.
Finalmente, supongamos que se verifica la propiedad (3), y sean u, v V tales que
f (u) = f (v). Entonces f (u v) = 0. Como el conjunto {0} es linealmente dependiente,
tambien debe serlo {u v}, por lo que u v = 0, de donde u = v.

Definicion
3.5 Un isomorfismo entre dos k-espacios vectoriales V y W es un homomorfismo
biyectivo f : V W . Los espacios vectoriales V y W se dicen isomorfos si existe un isomorfismo
entre ellos.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

3.3. ISOMORFISMOS

63

Teorema 3.9 Sea f : V W un isomorfismo de k-espacios vectoriales. Entonces la aplicacion


inversa f 1 : W V tambien es un isomorfismo.

Demostracion

La inversa f 1 es claramente biyectiva, por lo que basta probar que es un homomorfismo. Sean w1 , w2 W , v1 = f 1 (w1 ) y v2 = f 1 (w2 ). Entonces f (v1 ) = w1
f 1 (w1 + w2 ) es el unico

y f (v2 ) = w2 . Por definicion,


vector de V tal que su imagen por f es w1 + w2 . Como f (v1 + v2 ) = f (v1 ) + f (v2 ) = w1 + w2 , debe ser
f 1 (w1 + w2 ) = v1 + v2 = f 1 (w1 ) + f 1 (w2 ). Analogamente, para todo c k f 1 (cw1 )

es el unico
vector de V tal que su imagen por f es cw1 . Como cv1 cumple esa condicion,
1
1
1
debe ser f (cw1 ) = cv1 = cf (w1 ). Por tanto f es un homomorfismo.
de las maLos criterios de sobreyectividad e inyectividad se pueden expresar en funcion
trices de los homomorfismos, si fijamos bases. Supongamos que V y W tienen dimensiones
n y m respectivamente, y sean B y C bases de V y W . Entonces se tiene que
si M (f )B,C tiene rango m.
f es sobreyectiva si y solo
si M (f )B,C tiene rango n.
f es inyectiva si y solo
si M (f )B,C es invertible.
f es un isomorfismo si y solo

Teorema 3.10 Sean V y W dos k-espacios vectoriales finitamente generados de la misma dimension, y f : V W un homomorfismo. Las siguientes propiedades son equivalentes:
1. f es inyectivo.
2. f es sobreyectivo.
3. f es un isomorfismo.

Demostracion

Obviamente basta probar que las condiciones (1) y (2) son equivalentes. Sea n =
dim(V ) = dim(W ). Se tiene entonces que n = dim(ker(f )) + dim(im(f )), por lo que
si dim(im(f )) = n (es decir, f es
dim(ker(f )) = 0 (es decir, f es inyectivo) si y solo
sobreyectivo, ya que dim(W ) = n).
y de hecho esta es
Dos espacios vectoriales isomorfos deben tener la misma dimension,

necesaria:
la unica
condicion

Teorema 3.11 Dos k-espacios vectoriales finitamente generados V y W son isomorfos si y solo
si tienen la misma dimension.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

64

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostracion

Supongamos que V y W son isomorfos, y sea f : V W un isomorfismo. Entonces


dim(V ) = dim(ker(f )) + dim(im(f )) = dim({0}) + dim(W ) = dim(W ).
Recprocamente, supongamos que dim(V ) = dim(W ) = n, y sean B = {v1 , . . . , vn }

y C = {w1 , . . . , wn } bases de V y W . Sea f : V W el unico


homomorfismo tal que
f (vi ) = wi para todo i = 1, . . . , n. Como los vectores w1 , . . . , wn estan en im(f ) y generan
W , f es sobreyectiva. Concluimos por el resultado anterior.

3.4.

Espacio dual

Definicion
3.6 Sea V un k-espacio vectorial. Una forma lineal definida en V es un homomorfismo : V k. El conjunto de formas lineales definidas en V se denota por V .

Si V , denotaremos por h, vi el valor (v) k obtenido al aplicar al vector v.


Ejemplo
1. Sea B = {v1 , . . . , vn } una base de V . Para cada v V , sea (v) k la primera
:V k
coordenada de v con respecto a B (la correspondiente a v1 ). La aplicacion
es una forma lineal.
traza Mn (k) k es una forma lineal.
2. La aplicacion
3. Sea V el espacio vectorial de funciones reales continuas definidas en el intervalo
R1
: V R dada por (f ) = 0 f (x)dx es una forma lineal.
[0, 1] R. La aplicacion

que asocia a
Si , V son dos formas lineales, su suma + (es decir, la aplicacion

cada v V el escalar (v) + (v)) tambien lo es. Ademas, para todo c k, la aplicacion
c : V k tambien es una forma lineal.

Definicion
3.7 Con estas dos operaciones, el conjunto V adquiere una estructura de espacio
vectorial sobre k, que llamaremos espacio dual de V .

Fijemos una base B = {v1 , . . . , vn } de un espacio vectorial finitamente generado V . Para


i : V k de la siguiente forma: si v V y las
cada i = 1, . . . , n definimos una aplicacion
coordenadas de v con respecto a B son (c1 , . . . , cn ), sea i (v) = ci . Es facil ver que i es una
forma lineal.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

3.5. AUTOVALORES Y AUTOVECTORES

65

Teorema 3.12 Con las notaciones anteriores, B = {1 , . . . , n } es una base de V , que llamaremos base dual de B. En particular, dim(V ) = dim(V ).

Demostracion

Notemos que hi , vj i es igual a 1 si i = j, y a 0 si i 6= j. Veamos que 1 , . . . , n


son linealmente independientes. Sean c1 , . . . , cn k tales que c1 1 + + cn n sea la
cero V k. Entonces hc1 1 + + cn n , vi i = 0 para todo i = 1, . . . , n. Pero
aplicacion
hc1 1 + + cn n , vi i = c1 h1 , vi i + + cn hn , vi i = ci , por lo que ci = 0 para todo
i = 1, . . . , n.
Veamos ahora que 1 , . . . , n generan V . Sea V una forma lineal, y definamos
ci = h, vi i para cada i = 1, . . . , n. Entonces y c1 1 + + cn n son dos formas lineales
en V cuyos valores coinciden en v1 , . . . , vn . Como estos vectores forman una base de V ,

concluimos que las dos formas lineales deben ser iguales, y por tanto es combinacion
lineal de 1 , . . . , n .

3.5.

Autovalores y autovectores

Definicion
3.8 Sea V un k-espacio vectorial y f : V V un endomorfismo. Un vector v 6= 0
se dice un autovector de f si f (v) = v para un escalar k, que llamaremos el autovalor
asociado a v.

Si A Mn (k) es una matriz cuadrada, llamaremos autovectores y autovalores de A a los


(a la izquierda) por A.
del endomorfismo de k n dado por la multiplicacion
Ejemplo
1. Todo v ker(f ) distinto de 0 es un autovector de f asociado al autovalor 0.
Una matriz
2. Sea f : Mn (k) Mn (k) es endomorfismo dado por la trasposicion.
simetrica no nula es un autovector de f asociado al autovalor 1, y una matriz antisimetrica no nula es un autovector de f asociado al autovalor 1.

Si u, v son autovectores de f asociados a k, entonces u + v y c v para todo escalar c


tambien lo son (si no son nulos). Por tanto, los autovectores de f asociados a junto con el
vector 0 forman un subespacio de V , que llamaremos subespacio propio de f asociado a .
El subespacio propio de f asociado a esta formado por los vectores v tales que f (v) =
v = IdV (v), es decir, tales que ( IdV f )(v) = 0. Por tanto, el subespacio propio no es
mas que ker( IdV f ).
Fijemos una base B = {v1 , . . . , vn } de V , y sea A = M (f )B la matriz de f con respecto a
B. Entonces la matriz de IdV f con respecto a B es In A. Si es un autovalor de f ,

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

66

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

debe existir un vector no nulo en el nucleo


de IdV f , por lo que el rango de In A debe
ser menor que n. Es decir, la matriz In A debe tener determinante nulo. Recprocamente,
si esta matriz tiene rango menor que n el sistema homogeneo correspondiente debe tener
no nula, por lo que existe algun
autovector asociado a . Por tanto,
alguna solucion

Teorema 3.13 Sea A la matriz del endomorfismo f : V V con respecto a una base B. El
escalar k es un autovalor de f si y solo si la matriz In A es singular.

Para hallar los autovalores de f debemos entones hallar los tales que det(In A) = 0.
de V ).
Notemos que este determinante es un polinomio en de grado n (la dimension

Definicion
3.9 Sea A Mn (k) una matriz cuadrada. El polinomio caracterstico de A es
P (t) = det(tIn A) k[t].

Las races del polinomio caracterstico de M (f )B son entonces los autovalores de f . Si


usamos otra base B 0 , la matriz correspondiente sera M (f )B0 = M (B 0 , B)1 M (f )B M (B 0 , B).
Veamos que el polinomio caracterstico no vara.

Definicion
3.10 Dos matrices A, B Mn (k) se dicen semejantes si existe una matriz invertible P Mn (k) tal que B = P 1 AP .

Si B y B 0 son dos bases de V , las matrices M (f )B y M (f )B0 son semejantes.

Teorema 3.14 Dos matrices semejantes tienen el mismo polinomio caracterstico.

Demostracion

Sea P Mn (k) una matriz invertible tal que B = P 1 AP . Entonces tIn B = tP 1 P


P 1 AP = P 1 (tIn A)P , as que
det(tIn B) = det(P 1 ) det(tIn A) det(P ) = det(P )1 det(tIn A) det(P ) = det(tIn A).

Definicion
3.11 Sea f : V V un endomorfismo. El polinomio caracterstico de f es polinomio caracterstico de la matriz de f con respecto a cualquier base de V .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


3.6. DIAGONALIZACION

67

Si k es algebraicamente cerrado (por ejemplo k = C) todo endomorfismo f : V V


tiene al menos un autovalor, ya que todo polinomio tiene al menos una raz en k. Si k no
es algebraicamente cerrado, pueden existir endomorfismos sin autovalores:
el
 por ejemplo,

0 1
por la matriz
endomorfismo f : R2 R2 dado por la multiplicacion
no tiene
1 0
autovalor.
ningun

Definicion
3.12 Sea V un k-espacio vectorial finitamente generado, f : V V un endomorfismo y k un autovalor de f . La multiplicidad algebraica de es la multiplicidad de como
raz del polinomio caracterstico de f . La multiplicidad geometrica de es la dimension del
subespacio propio asociado a .

Las multiplicidades algebraica y geometrica de un autovalor de f son siempre mayores


o iguales que 1.

Teorema 3.15 La multiplicidad geometrica de un autovalor del endomorfismo f : V V es


menor o igual que su multiplicidad algebraica.

Demostracion

(es decir, la
Sea W V el subespacio propio asociado a , y sea r su dimension
multiplicidad geometrica de ). Sea B una base de V obtenida ampliando una base de
W . Como todo vector v W verifica que f (v) = v, la matriz de f con respecto a B
tiene la forma

0
.. . . . .. .. . . . ..
. .
.
.

A = 0
. .

..
. . ... ... . . . ...
0 0
Desarrollando el determinante de tIn A por las primeras columnas, vemos que su
polinomio Q(t)
polinomio caracterstico tiene la forma P (t) = (t )r Q(t) para algun
de grado n r, por lo que la multiplicidad de la raz es como mnimo igual a r.
En particular, si la multiplicidad algebraica del autovalor es 1 (es decir, si es una raz
simple del polinomio caracterstico de f ), su multiplicidad geometrica tambien es igual a 1.

3.6.

Diagonalizaci
on

Definicion
3.13 Sea V un k-espacio vectorial finitamente generado. Un endomorfismo f : V
V se dice diagonalizable si existe una base B de V tal que la matriz M (f )B sea diagonal. Una
matriz A Mn (k) se dice diagonalizable si es semejante a una matriz diagonal.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

68

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Por la formula
de cambio de base, un endomorfismo f : V V es diagonalizable si y
si su matriz con respecto a una base cualquiera B de V es diagonalizable.
solo

Teorema 3.16 Sea f : V V un endomorfismo. Entonces f es diagonalizable si y solo si existe


una base B de V formada por autovectores de f .

Demostracion

Sea B = {v1 , . . . , vn } una base de V , y supongamos que M (f )B es diagonal.

Sean c1 , . . . , cn sus elementos diagonales. Entonces, aplicando la formula


(f (v))B =
M (f )B (v)B a los vectores de B, obtenemos f (vi ) = ci vi , es decir, B esta formada por
autovectores de f .
Recprocamante, supongamos que los vectores de B son autovectores de f . Entonces
i k, por lo que la matriz de f con respecto a B tiene la forma
f (vi ) = i vi para algun

1 0 0
0 2 0

..
.. . .
.. .
.
.
.
.
0 0 n

de V . Para cada autovalor de f , sea a su multiplicidad


Sea n la dimension
algebraica
P
y g su multiplicidad geometrica. Recordemos que 1 g a , y ademas a n (puesto
que la suma de las multiplicidades de las races del polinomio caracterstico de f es como
mucho igual a su grado).

Teorema 3.17 Sea f : V V un endomorfismo. Son equivalentes:


1. f es diagonalizable.
2. La suma de los g es igual a n.
3. El polinomio caracterstico de f se descompone como producto de factores lineales, y g = a
para todo autovalor .

Veamos antes un lema tecnico

Lema 3.18 Sean f : V V un endomorfismo, y v1 , . . . , vr V autovectores de f asociados a


autovalores distintos. Entonces v1 + . . . + vr 6= 0.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


3.6. DIAGONALIZACION

69

Demostracion

en r:
Supongamos que vi esta asociado al autovalor i . Procedemos por induccion
para r = 1 es evidente, puesto que todo autovector debe ser distinto de 0. Supongamos
al absurdo que v1 + v2 + + vr = 0. Aplicando f , obtenemos
por reduccion
f (v1 ) + f (v2 ) + + f (vr ) = 1 v1 + 2 v2 + + r vr = 0.
Por otra parte, multiplicando la suma original por 1 :
1 v1 + 1 v2 + + 1 vr = 0.
Restando ambas igualdades, se tiene
(2 1 )v2 + + (r 1 )vr = 0.

esto es imposible, puesto que (i 1 )vi es un autovector


Por hipotesis
de induccion,
asociado a i para todo i = 2, . . . , r.

Demostracion
del teorema
Supongamos que f es diagonalizable, y sea B una base de V formada por autovecto
res de f . Cada autovector esta asociado a un autovalor . Para cada , sea b el numero
de
elementos de B asociados a . Como maximo hay g autovectores
indepenP linealmente
P
P
dientes asociados
a
,
por
lo
que
b

g
.
Pero
entonces
n
=
b

a n,

P
por lo que g = n.
P
P
Supongamos
ahora
que
la
suma
de
los
g
es
igual
a
n.
Entonces
n
=
g

a n,

P
por lo que a = n (esP
decir, el P
polinomio caracterstico se descompone como producto
de factores lineales) y
a =
g , lo cual implica que a = g para todo (ya que
g a ).
Finalmente, supongamos que el polinomio
caracterstico de f se descompone como
P
producto de factores lineales (es decir,
a = n) y que g = a para todo autovalor .
Para cada , sea B una base delSsubespacio propio asociado a . Entonces B tiene g

elementos.
B es una base de V , y entonces f sera diagonalizable,
S Veamos que la union
ya que BS esta compuesto
por
autovectores
de f .
P
Como B tiene g = n elementos, basta probar que es linealmente independiente. Sea B = {v1 , . . . , vn }, y c1 , . . . , cn k tales que c1 v1 + + cn vn = 0. Denotemos
lineal anterior los
por 1 , . . . , r los autovalores de f , y agrupemos en la combinacion
terminos asociados al mismo autovalor:
(c1 v1 + + cm1 vm1 ) +(cm1 +1 vm1 +1 + + cm2 vm2 ) + + (cmr1 +1 vmr1 +1 + + cn vn ) = 0
donde vmi1 +1 , . . . , vmi son los elementos de Bi . La suma del grupo i-esimo es, o bien
cero, o bien un autovector asociado a i . Por el lema, todas las sumas debe ser igual a
cero: cmi1 +1 vmi1 +1 + + cmi vmi = 0 para todo i = 1, . . . , r. Pero Bi es linealmente
independiente, por lo que concluimos que todos los ci deben ser cero.
Notemos que, si k es algebraicamente cerrado (por ejemplo, k = C), la primera parte de
(3) se cumple automaticamente por el teorema fundamental del a lgebra.
la condicion
Un caso especial importante es el siguiente:

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

70

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Corolario 3.19 Supongamos que f tiene n autovalores distintos. Entonces f es diagonalizable.

Demostracion

En ese caso, a = 1 para todo , por lo que g tambien es igual a 1 para todo y se
(2) del teorema.
cumple la condicion

Ejemplo
La matriz

1 0 0
3 1 4
0 0 2

tiene tres autovalores distintos 1, 1 y 2, por lo que es diagonalizable. La matriz

1 0
0
3 1 4
0 0 1
tiene dos autovalores 1 y 1, y para = 1 se tiene a1 = 2 y g1 = 1, por lo que no es
diagonalizable.
Si A es una matriz diagonalizable, sea B una base de k n formada por autovectores de
A. Si denotamos por P la matriz invertible que tiene como columnas los vectores de B, se
tiene entonces que AP = P D, donde D es la matriz diagonal que tiene como elementos
diagonales los autovalores de A (asociados a los elementos correspondientes de B). Dicho
de otra forma, se tiene P 1 AP = D.
En tal caso, es facil calcular An para todo n 1: como A = P DP 1 , tenemos que
An = (P DP 1 )n = (P DP 1 )(P DP 1 ) (P DP 1 ) = P Dn P 1
y Dn se obtiene simplemente elevando a n cada una de sus entradas diagonales.

3.7.

Teoremas espectrales

trabajaremos sobre el espacio eucldeo Cn o Rn .


En esta seccion

Definicion
3.14 Una matriz A Mn (k) se dice normal si AA = A A, es decir, si A conmuta
con su conjugada traspuesta.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

3.7. TEOREMAS ESPECTRALES

71

Ejemplo
1. Las matrices diagonales son normales.
2. Si k = C, las matrices hermticas (es decir, tales que A = A) son normales.
3. Si k = R, las matrices simetricas y antisimetricas son normales.
4. Si k = C, las matrices unitarias (es decir, tales que AA = In ) son normales.
5. Si k = R, las matrices ortogonales (es decir, tales que AAt = In ) son normales.

Teorema 3.20 (Lema de Schur) Sea A Mn (C) una matriz. Entonces existe una matriz unitaria U Mn (C) tal que U AU es triangular superior.

Demostracion

en n. Para n = 1 toda matriz es triangular, por lo que el


Procedemos por induccion
resultado es evidente. Como C es algebraicamente cerrado, A tiene al menos un autovector v. Extendamos v a una base {v1 = v, v2 , . . . , vn } de Cn , y sea B = {u1 , . . . , un } la
base ortonormal obtenida al aplicar el algoritmo de Gram-Schmidt a e sta. Entonces u1

es un multiplo
de v, por lo que es tambien un autovector de A, asociado a un autovalor
. Si U1 es la matriz cuyas columnas son los vectores de B, U1 es unitaria y AU1 es de la
forma

u1 Au2 Aun .
Por tanto, U1 AU1 es de la forma


0
..
.
B
0

existe una matriz unitaria V


donde B Mn1 (C). Por hipotesis
de induccion,

Mn1 (C) tal que V BV es triangular superior. Sea

1 0 0
0

U2 = ..
Mn (C),
.

V
0
entonces U2 es unitaria y, si denotamos U = U1 U2 , se tiene que

U AU = U2 (U1 AU1 )U2 = ..

V BV
0
I

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

72

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Demostracion
(cont)
es triangular superior.

Teorema 3.21 Una matriz A Mn (C) es normal si y solo si existe una matriz unitaria U
Mn (C) tal que U AU es diagonal.

Demostracion

Supongamos que A es normal. Por el lema de Schur, existe una matriz unitaria U
Mn (C) tal que U AU = T es triangular superior. Entonces T T = (U AU ) (U AU ) =
U A AU = U AA U = (U AU )(U AU ) = T T , por lo que T tambien es normal. Para
(i, i) viene dado por t1i t1i + t2i t2i +
todo i = 1, . . . , n, el elemento de T T en la posicion
2
2

+ tii tii = |t1i | + + |tii | , y el de T T viene dado por tii tii = |tii |2 , por lo que
t1i = t2i = = ti1,i = 0, es decir, T es diagonal.
Recprocamente, supongamos que existe una matriz unitaria U tal que D = U AU
es diagonal. Entonces A = U DU , por lo que A A = (U DU ) (U DU ) = U D DU =
U DD U = (U DU )(U DU ) = AA .

Teorema 3.22 Sea A Mn (C) una matriz normal, y u, v k n dos autovectores de A asociados
a autovalores distintos. Entonces u v.

Demostracion

Supongamos en primer lugar que A es diagonal, y sean a1 , . . . , an las entradas diagonales. Sean , los autovalores asociados a u, v. Entonces Aut = (a1 u1 , . . . , an un )t =
(u1 , . . . , un )t y Avt = (a1 v1 , . . . , an vn )t = (v1 , . . . , vn )t , de donde ai ui = ui y ai vi = vi
para todo i = 1, . . . , n. Por tanto ai ui vi = ui vi = ui vi para todo i. Como 6= , se
deduce que ui vi = 0 para todo i, es decir, o bien ui = 0 o bien vi = 0. En particular, u v.
En general, sea U Mn (C) una matriz unitaria tal que D = U AU sea diagonal.
Entonces U ut y U vt son autovectores de D asociados a autovalores distintos, por lo
vt = 0, es decir,
que (U ut ) (U vt ). En otras palabras, (U ut ) (U vt ) = 0, de donde u
u v.

Teorema 3.23 Si A Mn (C) es una matriz hermtica, todos los autovalores de A son reales.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

3.7. TEOREMAS ESPECTRALES

73

Demostracion

Sea C un autovalor de A y v un autovector asociado a e l. Entonces Avt = vt , de


v. Por tanto
A = v
A = (Avt ) = (vt ) =
donde v
2
v)vt = ||v||

(vt ) = v
Avt = (
||v||2 = v

es decir, R.
de donde = ,

Corolario 3.24 Sea A Mn (R) una matriz simetrica. Entonces existe una matriz ortogonal
O Mn (R) tal que Ot AO es diagonal. En particular, A es diagonalizable.

Demostracion

Si vemos A como matriz en Mn (C) es diagonalizable, por ser normal. Pero tambien
es hermtica, por lo que sus autovalores son reales, y por tanto los autovectores pueden
de la prueba del lema de Schur nos da entonces
tomarse tambien reales. La construccion

una matriz ortogonal O tal que O AO = Ot AO es diagonal.


Las columnas de O forman una base ortonormal de Rn con respecto a la cual el endo por A tiene matriz diagonal. Para calcular dicha base,
morfismo dado por la multiplicacion
hallamos bases de los subespacios propios asociados a cada autovalor. Los vectores de bases
correspondientes a autovalores distintos son automaticamente ortogonales entre s, por lo
que basta aplicar Gram-Schmidt a cada subespacio propio por separado, y unir las bases
ortonormales obtenidas de esta forma.

Teorema 3.25 Si A Mn (C) es una matriz unitaria (y, en particular, si A Mn (R) es una
matriz ortogonal), todos sus autovalores tienen valor absoluto 1.

Demostracion

Sea C un autovalor de A y v un autovector asociado. Entonces Avt = vt , de


v. Por tanto
A = (Avt ) =
donde v
vvt = (
v)(vt ) = v
A Avt = v
vt = ||v||2 ,
||2 ||v||2 =
de donde ||2 = 1, y tiene valor absoluto 1.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

74

TEMA 3. HOMOMORFISMOS DE ESPACIOS VECTORIALES

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Tema 4
Espacio afn y eucldeo
4.1.

Espacio afn

El espacio afn sobre un cuerpo k es el marco en el que se desarrolla la geometra afn.


entre ellos.
Consta de dos tipos de objetos: puntos y vectores, y una operacion

Definicion
4.1 Sea k un cuerpo. El espacio afn n-dimensional sobre k consta de:
El conjunto k n (visto simplemente como conjunto de puntos), que denotaremos An (k).
El espacio vectorial V = k n . Para distinguir sus elementos de los de An (k), los denotaremos

de la forma (v1 , . . . , vn ).
Una operacion suma externa An (k) V An (k) que asocia al punto P = (a1 , ..., an ) y

al vector v = (v1 , . . . , vn ) el punto P + v = (a1 + v1 , . . . , an + vn ).

de suma de deduce la siguiente propiedad asociativa: Para


De la propia definicion
de
todo punto P An (k) y u, v V se tiene que (P + u) + v = P + (u + v). En la expresion
la derecha, la primera suma es la suma externa del espacio afn, mientras que la segunda es
la suma del espacio vectorial V .

Definicion
4.2 Dados dos puntos P, Q An (k), el unico

vector v de V tal que P + v = Q se

denota por P Q.

se cumple la formula

Es decir, por definicion


P + P Q = Q. En coordenadas, si P =

(a1 , . . . , an ) y Q = (b1 , . . . , bn ), entonces P Q = (b1 a1 , . . . , bn an ).

Teorema 4.1 Para todos P, Q, R, S An (k), se tiene:



1. P Q + QR = P R

2. P P = 0

Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
75de Algebra.

TEMA 4. ESPACIO AFIN Y EUCLIDEO

76

3. P Q = QP


4. P Q = RS P R = QS (formula del paralelogramo)

Demostracion

Veamos por
Todas las propiedades son consecuencia inmediata de la definicion.
ejemplo la primera: se tiene que

P + (P Q + QR) = (P + P Q) + QR = Q + QR = R

pero como P R es el unico


vector que sumado a P nos da R, debe ser igual a P Q + QR.

Definicion
4.3 Los puntos P0 , P1 , . . . , Pr An (k) se dicen afnmente dependientes o inde

pendientes si los vectores P0 P1 , . . . , P0 Pr V son linealmente dependientes o independientes,


respectivamente.

Por ejemplo, los puntos (1, 0), (0, 1) y (1, 1) de A2 (R) son afnmente independientes, pero

(1, 0), (0, 1) y (2, 1) son afnmente dependientes. Como el maximo numero
de vectores linealmente independientes en k n es n, un conjunto de puntos afnmente independiente tiene
a lo sumo n + 1 elementos.
Pongamos Pi = (ai1 , . . . , ain ) para cada i = 0, . . . , r. Entonces los puntos {P0 , P1 , . . . , Pr }
si el rango de la matriz
son afnmente independientes si y solo

a11 a01 ar1 a01


a12 a02 ar2 a02

..
..
..

.
.
.
a1n a0n arn a0n
es igual a r. Este rango es uno menos que el de la matriz

1
0

0
0 a11 a01 ar1 a01

0 a12 a02 ar2 a02

..
..
..
..
.
.
.
.
0 a1n a0n arn a0n
Sumando la primera fila multiplicada por a0i a la
este rango es el mismo que el de la matriz

1
0

a01 a11 a01

a02 a12 a02

..
..
..
.
.
.
a0n a1n a0n

fila (i + 1)-esima para todo i = 1, . . . , n,


0
ar1 a01
ar2 a02
..
.
arn a0n

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.2. VARIEDADES LINEALES

77

Finalmente, sumando la primera columna a todas las demas, concluimos que

Teorema 4.2 Los puntos P0 , . . . , Pr son afnmente


matriz

1
1
a01 a11

a02 a12

..
..
...
.
.
a0n a1n

independientes si y solo si el rango de la

1
ar1

ar2

..
.
arn

es igual a r + 1.

En particular, el que los puntos sean o no afnmente dependientes no depende del orden en que se tomen. Es decir, podemos elegir cualquiera de ellos como punto base para
construir los vectores que deben o no ser linealmente dependientes.

4.2.

Variedades lineales

Dado un punto O An (k) y un subconjunto S V , denotaremos por O + S el conjunto


de puntos de An (k) de la forma O + v, para todo v S.

Definicion
4.4 Un subconjunto L An (k) se dice una variedad lineal si es vaco o si es de la
forma O + W , donde O es un punto de An (k) y W un subespacio vectorial de V . En tal caso, el
subespacio W se denotara por D(L) y se llamara subespacio de direcciones de L.

Si P, Q O + W , entonces existen u, v W tales que P = O + u y Q = O + v, por lo

que Q = (O + u) + (v u) = P + (v u). Es decir, el vector P Q = v u esta en D(L).

Por tanto, D(L) es igual al conjunto de todos los vectores de la forma P Q para todo par de
puntos P, Q L y, en particular, no depende de O.
Ejemplo
punto es una variedad lineal, y D(L) = {0}. El
Un conjunto L = {P } con un solo
espacio total L = An (k) tambien lo es, con D(L) = k n .

Sea O = (a1 , . . . , an ) y v1 , . . . , vr un sistema generador de W , donde vi = (vi1 , . . . , vin ).


Entonces los puntos de O + W son los de la forma (x1 , . . . , xn ), donde
x1 = a1 + t1 v11 + + tr vr1
..
..
.
.
xn = an + t1 v1n + + tr vrn
unas ecuaciones papara t1 , . . . , tr k escalares cualesquiera. Llamaremos a esta expresion
rametricas de L.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

78

Sean ahora Cxt = 0 unas ecuaciones implcitas de W (donde C es la matriz de coeficien

si el vector OP = (x1 a1 , . . . , xn an )
tes). Un punto P = (x1 , . . . , xn ) esta en L si y solo
si
esta en W , es decir, si y solo

x 1 a1
0
x1
b1

..
. .
..
C
= . C .. = ..
.
x n an

donde

b1
..

. =C
br

xn

br

a1
.. .
.
an

Es decir, una variedad lineal es siempre el conjunto de soluciones de un sistema de ecuaciones lineales (no necesariamente homogeneas). A un tal sistema lo llamaremos unas ecuaciones implcitas de L.
Recprocamente, el conjunto de soluciones de un sistema de ecuaciones lineales es siempre una variedad lineal. Si el sistema es incompatible es evidente, puesto que el conjunto
Si es compatible, sea O = (a1 , . . . , an ) una sovaco es una variedad lineal por definicion.
del sistema, y sea W el subespacio de soluciones del sistema homogeneo corresponlucion
del sistema,
diente. Entonces todo punto de la forma O + v con v W es tambien solucion
del sistema puede escribirse de esta forma, como se vio en el tema 1. Por
y toda solucion
tanto el conjunto de soluciones forma una variedad lineal L, y ademas su subespacio de
del sistema
direcciones D(L) esta formado por los vectores cuyas coordenadas son solucion
homogeneo correspondiente.

como la
Definicion
4.5 Sea L An (k) una variedad lineal no vaca. Se define su dimension
n
dimension del subespacio D(L) k .

de una variedad lineal no vaca en An (k) es un numero

En particular, la dimension
entero
0 son los puntos, las de dimension
1
comprendido entre 0 y n. Las variedades de dimension
n 1 se llaman hiperplanos.
y 2 se llaman rectas y planos respectivamente, y las de dimension
Si una variedad no vaca L1 esta contenida en otra variedad L2 , entonces D(L1 ) D(L2 ),

por lo que dim(L1 ) dim(L2 ). Ademas, la igualdad se da unicamente


cuando L1 = L2 .

Definicion
4.6 Sea L An (k) una variedad lineal. Un conjunto de puntos {P0 , P1 , . . . , Pr } de

L se dice un sistema generador de L si los vectores P0 P1 , . . . , P0 Pr forman un sistema generador

de D(L), y se dice una base de L si los vectores P0 P1 , . . . , P0 Pr forman una base de D(L).

Si Pi = (ai1 , . . . , ain ) para cada i = 0, . . . , r, el conjunto {P0 , P1 , . . . , Pr } es un sistema


si el rango de la matriz
generador de L si y solo

1
1 1
a01 a11 ar1

a02 a12 ar2

..
..
..
.
.
.
.
.
.
a0n a1n arn

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.3. SISTEMAS DE REFERENCIA

79

(que es uno mas que el rango de la matriz formada por los vectores P0 P1 , . . . , P0 Pr ) es igual

a dim(L) + 1. En particular, si el conjunto es una base de L, este numero


debe ser igual a r + 1.

Teorema 4.3 Toda base de una variedad lineal L de dimension d tiene d + 1 elementos.

4.3.

Sistemas de referencia

Los sistemas de referencia jugaran el papel que jugaban las bases para los espacios vectoriales: dado un sistema de referencia, podremos asociar unas coordenadas a cada punto
de una variedad lineal.

Definicion
4.7 Un sistema de referencia de una variedad lineal L An (k) es un par R =
(O, B) formado por un punto O L (llamado el origen de R) y una base B de D(L).

Ejemplo

Si L = An (k), el punto O = (0, . . . , 0) An (k) y la base canonica


de k n forman un
sistema de referencia, que llamaremos sistema de referencia canonico.
Fijemos un sistema de referencia R de L. Dado un punto P L, las coordenadas del

vector OP D(L) con respecto a B se llamaran las coordenadas de P con respecto a R, y se


denotaran por (P )R . Si B = {v1 , . . . , vd }, decir que (P )R = (c1 , . . . , cd ) es equivalente a decir
que P = O + c1 v1 + + cd vd . Esto nos da una correspondencia biunvoca entre los puntos
de L y los elementos de k d , donde d = dim(L).
Ejemplo
Sea L A3 (R) el plano definido por x + y + z = 1. Entonces D(L) es el subespacio de

x+y+z = 0. El par R = ((1, 0, 0), {(1, 1, 0), (1, 0, 1)}) es un


R3 definido por la ecuacion
sistema de referencia de L. Con respecto a este sistema de referencia, las coordenadas del

punto (1, 1, 1) L son (1, 1), puesto que (1, 1, 1) = (1, 0, 0) (1, 1, 0) (1, 0, 1).
Todo sistema de referencia R = (O, B) de L determina una base, formada por los puntos
O, O + v1 , . . . , O + vd . Recprocamente, toda base {P0 , P1 , . . . , Pd } de L determina el sistema

de referencia formado por el punto P0 como origen y la base {P0 P1 , . . . , P0 Pd } de D(L). As,
dar un sistema de referencia de una variedad lineal es equivalente a dar una base.
Sea ahora R0 = (O0 , B 0 ) otro sistema de referencia de L, y sea P L un punto con
coordenadas (c1 , . . . , cd ) con respecto a R. Entonces

P = O + c1 v 1 + + cd v d = O 0 + O 0 O + c1 v 1 + + cd v d

y por tanto las coordenadas de P con respecto a R0 son las coordenadas del vector O0 O +
c1 v1 + + cd vd con respecto a B 0 = {v10 , . . . , vd0 }, que son la suma de las coordenadas de

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

80

O O y las de c1 v1 + + cd vd . Las de O0 O son las coordenadas de O con respecto a R0 por


y las de c1 v1 + + cd vd se obtienen multiplicando el vector (c1 , . . . , cd )t por la
definicion,
matriz de cambio de base M (B, B 0 ). Es decir,
(P )tR0 = (O)tR0 + M (B, B 0 ) (P )tR
lo cual puede escribirse mas concisamente como




1
1
0
= M (R, R )
(P )tR0
(P )tR
donde
0

M (R, R ) =

1
0 0
t
(O)R0 M (B, B 0 )


,

que llamaremos matriz de cambio de sistema de referencia de R a R0 .


En particular, si O = O0 , las coordenadas de P con respecto a R0 se obtienen a partir de
las coordenadas con respecto a R multiplicando por la matriz de cambio de base de B a B 0 .
Si B = B 0 , las coordenadas de P con respecto a R0 se obtienen a partir de las coordenadas
con respecto a R sumandoles el vector constante (O)R0 .

4.4.

Operaciones con variedades

de dos variedades lineales en An (k) es tambien una variedad lineal: basta


La interseccion
ver cada una de ellas como el conjunto de soluciones de un sistema de ecuaciones lineales,
sera el conjunto de soluciones de la union
de los dos sistemas. La
y entonces la interseccion
de variedades lineales, sin embargo, no es una variedad lineal en general. Por ello es
union
entre variedades, la suma.
necesario definir una nueva operacion

Definicion
4.8 Sea S An (k) un subconjunto y O S. La variedad lineal generada por S

es la variedad L(S) = O + W , donde W es el subespacio de k n generado por los vectores OP para


todo P S.

Es decir, L(S) es el conjunto de puntos de la forma O+c1 OP1 + +cr OPr para cualesquie de L(S) no depende del punto O S elegido:
ra P1 , . . . , Pr S y c1 , . . . , cr k. La definicion

0
si O es otro punto de L, todo elemento que se pueda escribir como O + c1 OP1 + + cr OPr
se escribe tambien como

O0 + (1 c1 cr )O0 O + c1 O0 P1 + + cr O0 Pr
y viceversa. La variedad L(S) es claramente la menor variedad lineal de An (k) que contiene
todos los puntos de S.

Definicion
4.9 Sean L1 , L2 dos variedades lineales en An (k). La suma de L1 y L2 es la variedad
L1 + L2 = L(L1 L2 ) generada por L1 L2 .

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.4. OPERACIONES CON VARIEDADES

81

Si {P0 , . . . , Pr } es un sistema generador de L1 y {Q0 , . . . , Qs } un sistema generador de L2 ,


{P0 , . . . , Pr , Q0 , . . . , Qs } es un sistema generador de L1 + L2 . En particular, dim(L1 +
la union
L2 ) dim(L1 ) + dim(L2 ) + 1.

Teorema 4.4 Si L1 L2 6= , entonces D(L1 L2 ) = D(L1 ) D(L2 ) y D(L1 + L2 ) =


D(L1 ) + D(L2 ).

Demostracion

Sea O L1 L2 . Entonces D(L1 L2 ) es el conjunto de vectores v V tales que


O + v L1 L2 . Es decir, el conjunto de vectores v tales que O + v esta tanto en L1 como
en L2 , que no es mas que D(L1 ) D(L2 ).
Claramente D(L1 ) y D(L2 ) estan contenidas en D(L1 + L2 ) (puesto que L1 y L2 estan
contenidas en L1 + L2 ). Por tanto, D(L1 ) + D(L2 ) D(L1 + L2 ). Sea v D(L1 + L2 ). Por
de L1 +L2 , existen P1 , . . . , Pr L1 y Q1 , . . . , Qs L2 tales que v es combinacion

definicion

lineal de OP1 , . . . , OPr , OQ1 , . . . , OQs . En particular, es suma de un vector de D(L1 ) (la

lineal que contiene a OP1 , . . . , OPr ) y uno de D(L2 ) (la parte de


parte de la combinacion

lineal que contiene a OQ1 , . . . , OQs ). Por tanto esta en D(L1 ) + D(L2 ).
la combinacion

Teorema 4.5 Si L1 L2 = , entonces D(L1 + L2 ) = D(L1 ) + D(L2 ) + hP Qi, donde P L1


y Q L2 son puntos cualesquiera.

Demostracion

Tanto D(L1 ) como D(L2 ) y hP Qi estan contenidos en D(L1 + L2 ), por lo que su su opuesta. Tomando P como punto base en la
ma tambien lo esta. Veamos la contencion
de L1 + L2 , tenemos que D(L1 + L2 ) es el conjunto de vectores v V que
definicion

se escriben como c1 P P1 + + cr P Pr + d1 P Q1 + + ds P Qs , con P1 , . . . , Pr L1 y


Q1 , . . . , Qs L2 . Entonces

v = (c1 P P1 + +cr P Pr )+(d1 QQ1 + +ds QQs )+(d1 + +ds )P Q D(L1 )+D(L2 )+hP Qi.

Teorema 4.6 (de la dimension)

Sean L1 , L2 An (k) dos variedades lineales.


1. Si L1 L2 6= , entonces dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) dim(L1 L2 ).
2. Si L1 L2 = , entonces dim(L1 + L2 ) = dim(L1 ) + dim(L2 ) + 1 dim(D(L1 ) D(L2 )).

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

82

Demostracion

para subespacios vectoriaEl caso L1 L2 6= se deduce del teorema de la dimension


les, puesto que en ese caso D(L1 + L2 ) = D(L1 ) + D(L2 ) y D(L1 L2 ) = D(L1 ) D(L2 ).

En el segundo caso tenemos que D(L1 + L2 ) = D(L1 ) + D(L2 ) + hP Qi donde P L1 y

Q L2 son puntos cualesquiera. El vector P Q no esta en D(L1 ) + D(L2 ): si lo estuviera,


podra escribirse como u + v, donde u D(L1 ) y v D(L2 ). Entonces Q = P + u + v o,
equivalentemente, P +u = Qv. Pero esto es imposible, porque P +u L1 y Qv L2 ,
L1 L2 .
con lo cual habra un elemento en la interseccion

Por tanto D(L1 +L2 ) es suma directa de D(L1 )+D(L2 ) y hP Qi, as que dim(L1 +L2 ) =

para subespadim(D(L1 ) + D(L2 )) + 1. Aplicando ahora la formula


de la dimension
cios vectoriales, concluimos que dim(D(L1 ) + D(L2 )) = dim(D(L1 )) + dim(D(L2 ))
dim(D(L1 ) D(L2 )) = dim(L1 ) + dim(L2 ) dim(D(L1 ) D(L2 ))
veamos las posibles posiciones relativas de dos rectas r y s en el espacio
Como aplicacion,
3. Como dim(r) = dim(s) = 1, la interseccion
r s tiene como maximo
afn de dimension
1. Si tiene dimension
1, es porque r s = r = s, es decir, las dos rectas coinciden.
dimension
0, se cortan en un punto, y entonces por la formula

Si tiene dimension
de la dimension
es vaca, hay
dim(r + s) = 2, es decir, las rectas estan en un mismo plano. Si la interseccion
de D(r) D(s), que puede ser 1 o 0. En el primer caso, las rectas son
que mirar la dimension
paralelas, y en el segundo se cruzan.

Definicion
4.10 Dos variedades lineales L1 , L2 An (k) se dicen paralelas si D(L1 ) D(L2 )
o D(L2 ) D(L1 ). Se dice que L1 y L2 se cruzan si L1 L2 = y D(L1 ) D(L2 ) = {0}.

La siguiente tabla resume las posiciones relativas de dos rectas en A3 (k):


dim(r s) dim(D(r) D(s)) dim(r + s)
1
1
1
0
0
2

1
2

0
3

4.5.

coinciden
se cortan en un punto
son paralelas
se cruzan

Espacio eucldeo

supondremos que k es el cuerpo R de los numeros

En esta seccion
reales.

Definicion
4.11 El espacio eucldeo n-dimensional es el espacio afn An (R), donde el espacio
vectorial asociado V = Rn esta dotado del producto escalar hu, vi = u1 v1 + + un vn .

La existencia del producto escalar nos permite definir la distancia entre dos puntos

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.5. ESPACIO EUCLIDEO

83

Definicion
4.12 Sean P, Q An (R) dos puntos. La distancia entre ellos se define como

d(P, Q) = ||P Q||.

Las propiedades del modulo


de un vector se traducen en las siguientes propiedades de
la distancia entre puntos. Para cualesquiera P, Q, R An (R), se tiene
si P = Q.
1. d(P, Q) = 0 si y solo
2. d(P, Q) = d(Q, P ).
3. d(P, R) d(P, Q) + d(Q, R) (desigualdad triangular).

Definicion
4.13 Dos variedades L1 , L2 An (R) se dicen perpendiculares si D(L1 )
D(L2 ) (o, equivalentemente, si D(L2 ) D(L1 ) ).

Dados dos subconjuntos A, B An (R), en general no existe una distancia mnima entre

un punto de A y uno de B (por ejemplo, en A1 (R), si A es el conjunto de numeros


positivos

y B el de numeros
negativos, podemos encontrar puntos en A y en B tan cercanos como
queramos, pero nunca dos puntos a distancia cero). Sin embargo, para variedades lineales
siempre existe la distancia mnima.

Teorema 4.7 Sean L1 , L2 An (R) dos variedades lineales no vacas y disjuntas. Entonces existen dos puntos P L1 y Q L2 tales que la distancia entre P y Q es mnima entre todas las

posibles distancias entre un punto de L1 y uno de L2 . Ademas, el vector P Q es perpendicular a


L1 y a L2 . Los puntos P y Q estan unvocamente determinados si y solo si L1 y L2 se cruzan.

Demostracion

Sean P 0 L1 y Q0 L2 dos puntos cualesquiera, y sea W Rn el subespacio D(L1 ) +

D(L2 ). Como Rn = W W , el vector P 0 Q0 se puede escribir de manera unica


como

u + v, con u W y v W . Ademas, u se puede escribir (no de manera unica


en
general) como u1 + u2 , donde u1 D(L1 ) y u2 D(L2 ). Definamos P = P 0 + u1 y
Q = Q0 u2 , y veamos que cumplen las condiciones del teorema.

En primer lugar, P Q = P 0 Q0 u1 u2 = v, que es perpendicular tanto a L1 como a L2
por estar en W = D(L1 ) D(L2 ) . Sean P 00 L1 y Q00 L2 otros dos puntos, veamos
que d(P, Q) d(P 00 , Q00 ). Por el teorema de Pitagoras,

d(P 00 , Q00 )2 = ||P 00 Q00 ||2 = ||P 00 P + P Q + QQ00 ||2 = ||P Q||2 + ||P 00 P + QQ00 ||2 d(P, Q)2

ya que P Q es perpendicular a P 00 P + QQ00 D(L1 ) + D(L2 ). Ademas, se da la igualdad




si P 00 P + QQ00 = 0, lo cual implica que P P 00 = QQ00 D(L1 ) D(L2 ). Si D(L1 )
si y solo

puede ocurrir cuando P P 00 = QQ00 = 0, es decir, cuando


y D(L2 ) se cruzan esto solo
P = P 00 y Q = Q00 . En tal caso los puntos P y Q estan unvocamente determinados.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

84

Definicion
4.14 Sean L1 , L2 An (R) dos variedades. La distancia d(L1 , L2 ) entre ellas es la
menor distancia entre un punto de L1 y un punto de L2 .

El teorema anterior implica que, si dos variedades son disjuntas, entonces la distancia
entre ellas es positiva.
Como caso particular, calculemos la distancia entre un punto y un hiperplano. Un hiper
lineal a1 x1 + +an xn = b.
plano L es el conjunto de puntos definido por una unica
ecuacion
n
Sea P el punto (c1 , . . . , cn ) A (R). Por el teorema, la distancia entre P y un punto Q L

sera mnima cuando el vector P Q sea perpendicular a L. Si Q = (t1 , . . . , tn ), dicho vec

tor es (t1 c1 , . . . , tn cn ). Por otra parte, D(L) es el subespacio definido por la ecuacion
a1 x1 + + an xn = 0, por lo que su complemento ortogonal es el subespacio generado

por (a1 , . . . , an ). Por tanto, necesitamos que (t1 c1 , . . . , tn cn ) = (a1 , . . . , an ) para algun
R. Dicho de otra forma, ti = ci + ai para todo i = 1, . . . , n. Imponiendo que el punto Q
de L, obtenemos que
cumpla la ecuacion
a1 c1 + + an cn + (a21 + + a2n ) = b =

b a1 c1 an cn
a21 + + a2n

por lo que

|a1 c1 + + an cn b|
p
.
d(P, L) = d(P, Q) = ||(a1 , . . . , an )|| = || ||(a1 , . . . , an )|| =
a21 + + a2n

4.6.

Aplicaciones afines

Definicion
4.15 Una aplicacion f : An (k) Am (k) entre dos espacios afines sobre k se dice

afn si existe un homomorfismo de espacios vectoriales f : k n k m tal que,


una aplicacion
para todo par de puntos P, Q An (k), se tiene que


f (P )f (Q) = f (P Q).


Dicho de otra forma, para todo P y Q se tiene que f (Q) = f (P ) + f (P Q). En particular,
afn esta completamente determinada si conocemos la imagen de un punto y
una aplicacion

el homomorfismo f .
Sean R = (O, B) y S = (Q, C) sistemas de referencia de An (k) y Am (k) respectivamente.
las del vector
Las coordenadas de un punto P An (k) con respecto a R son, por definicion,

m
OP con respecto a B. Las de f (P ) A (k) con respecto a S son las del vector Qf (P ) con




respecto a C. Pero Qf (P ) = Qf (O) + f (O)f (P ) = Qf (O) + f (OP ), y las coordenadas de

f (OP ) con respecto a C se obtienen multiplicando las coordenadas de OP con respecto a B

por la matriz de f con respecto a las bases B y C. Es decir,

(f (P ))tS = (Qf (O))tC + ( f (OP ))tC = (f (O))tS + M ( f )B,C (P )R ,

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.6. APLICACIONES AFINES

85

lo cual puede escribirse mas concisamente como




1
(f (P ))tS


= M (f )R,S

1
(P )tR

donde M (f )R,S M(m+1)(n+1) (k) es la matriz dada por


M (f )R,S =

0 0
1

(f (O))tS M ( f )B,C

!
,

que llamaremos matriz de f con respecto a los sistemas de referencia R y S. Como es habitual,
si n = m y R = S, se llamara simplemente matriz de f con respecto a R y se denotara por
M (f )R . Si R0 y S 0 son otros dos sistemas de referencia de An (k) y Am (k) respectivamente,

usando la formula
para el cambio de sistema de referencia obtenemos:

Teorema 4.8 (cambio de sistemas de referencia) Para toda aplicacion afn f : An (k)
Am (k) se tiene que
M (f )R0 ,S 0 = M (S, S 0 ) M (f )R,S M (R0 , R).

Veamos ahora que ocurre con las imagenes directa e inversa de variedades lineales me afn.
diante una aplicacion

Teorema 4.9 Sea f : An (k) Am (k) una aplicacion afn, y L = O + W An (k) una variedad
lineal, donde W es un subespacio de k n . Entonces f (L) Am (k) es una variedad lineal. Mas

concretamente, f (L) = f (O) + f (W ). En particular, la imagen por f de un conjunto generador


de L es un conjunto generador de f (L).

Demostracion

Los puntos de L son los de la forma O + v con v W , por lo que los puntos de

f (L) son los de la forma f (O + v) = f (O) + f (v), es decir, los de la forma f (O) + w

con w f (W ). Como f (W ) es un subespacio de k m , el conjunto f (L) es una variedad


lineal en Am (k).

Teorema 4.10 Sea f : An (k) Am (k) una aplicacion afn, y M Am (k) una variedad lineal.
Entonces f 1 (M ) An (k) es una variedad lineal.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

86

Demostracion

En este caso es conveniente ver M como el conjunto de soluciones de un sistema de


ecuaciones lineales A xt = bt . Sea B M(m+1)(n+1) (k) la matriz de f con respecto a

los sistemas de referencia canonicos.


Entonces un punto P = (x1 , . . . , xn ) esta en f 1 (M )
si f (P ) esta en M , es decir, si y solo
si f (P ) es una solucion
del sistema de
si y solo
ecuaciones dado. Esto se puede expresar como



1
t
t
t
= 0.
A (f (P )) = b b A
(f (P ))t
Usando que


1
(f (P ))t


=B

1
(P )t

concluimos que los puntos de f 1 (M ) son los que verifican





1
t
b A B
=0
(P )t
que es un sistema de ecuaciones lineales, y por tanto forman una variedad lineal.

Ejemplo
En el espacio eucldeo An (R), sea L cualquier variedad no vaca. Para cada punto

P An (R), existe un unico


punto Q L tal que el vector P Q es ortogonal a D(L). Si

P L, esta claro que el punto Q = P es el unico


que lo cumple. Si P
/ L, sabemos que

Q existe por el teorema 4.7, y es unico


porque si existiera otro punto Q0 L tal que P Q0

es ortogonal a D(L), el vector QQ0 = P Q0 P Q tambien sera ortogonal a D(L), lo cual

es imposible porque QQ0 esta en D(L).


pL : An (R) An (R) que asocia a cada punto P An (R)
Veamos que la aplicacion
afn, que llamaremos la proyeccion ortogonal sobre
el correspondiente Q es una aplicacion

0
L. Sean P otro punto. Los puntos pL (P ) y pL (P 0 ) estan en L, por lo que pL (P )pL (P 0 )



D(L). Ademas, P P 0 = pL (P )pL (P 0 ) + (P pL (P ) P 0 pL (P 0 )), y como P pL (P ) P 0 pL (P 0 )

del vector P P 0 como suma de un vector


D(L) , e sta debe ser la (unica)
descomposicion

n
n
en D(L) y uno en D(L) . Por tanto pL (P )pL (P 0 ) =
p
L (P P ), donde pL : R R es el

homomorfismo que asocia a cada vector v Rn el primer termino de su descomposicion

como suma de un vector en D(L) y uno en D(L) .


Sea O un punto de L y B = {v1 , . . . , vn } una base de Rn tal que los r primeros vectores

formen una base de D(L) y los n r ultimos


una base de D(L) . Entonces pL (O) = O,

pL (vi ) = vi para i = 1, . . . , r y pL (vi ) = 0 para i = r + 1, . . . , n, por lo que la matriz de pL


con respecto al sistema de referencia R = (O, B) es

01r
01(nr)
1
Ir
0r(nr)
M (pL )R = 0r1
0(nr)1 0(nr)r 0(nr)(nr)

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.7. AFINIDADES

87

Teorema 4.11 Sean f : An (k) Am (k) y g : Am (k) Ar (k) dos aplicaciones afines. Entonces

la composicion g f : An (k) Ar (k) tambien lo es, y se cumple que g f =


g f . Si R, S, T
son sistemas de referencia de An (k), Am (k) y Ar (k) respectivamente, entonces
M (g f )R,T = M (g)S,T M (f )R,S .

Demostracion

Sean P, Q An (k). Entonces (g f )(P )(g f )(Q) = g(f (P ))g(f (Q)) =

lineal
g (f (P )f (Q)) =
g ( f (P Q)) = (
g f )(P Q), as que g f es una aplicacion

con g f = g f .
Ademas, para todo punto P An (k) se tiene que
((g f )(P ))tT = (g(f (P )))tT = M (g)S,T (f (P ))tS = M (g)S,T M (f )R,S (P )tR ,
por lo que la matriz de g f con respecto a R y T es M (g)S,T M (f )R,S .

4.7.

Afinidades

Definicion
4.16 Una afinidad es una aplicacion afn f : An (k) An (k) biyectiva.

Teorema 4.12 Sea f : An (k) An (k) una aplicacion afn. Las siguientes condiciones son
equivalentes:
1. f es una afinidad.
2. f es inyectiva.
3. f es sobreyectiva.

4. f : k n k n es un automorfismo.

Demostracion

Claramente (1) implica (2) y (3). Supongamos que f es inyectiva, veamos que f

tambien lo es (y por tanto sera un automorfismo). Sea v ker( f ) y sea P An (R).

Entonces f (P + v) = f (P ) + f (v) = f (P ) + 0 = f (P ). Como f es inyectiva, P + v debe


ser igual a P , por lo que v = 0.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

88

Demostracion
(cont)
Supongamos ahora que f es sobreyectiva, y sea w k n . Fijado un punto P An (k),


debe existir otro punto Q tal que f (P ) + w = f (Q). Entonces w = f (P )f (Q) = f (P Q),

por lo que w Im( f ). Por tanto f es sobreyectiva, por lo que debe ser un automorfismo.

Finalmente, supongamos que f es un automorfismo. Veamos que f es inyectiva:


sean P, Q An (R) tales que f (P ) = f (Q). Entonces 0 = f (P )f (Q) = f (P Q), por lo

que P Q = 0, es decir, P = Q. Ademas, dado R An (R), como f es sobreyectiva, debe

existir un vector v k n tal que f (v) = f (P )R. Entonces R = f (P ) + f (v) = f (P + v),


por lo que f es sobreyectiva.
si el determinante de la matriz de f con respecto
En particular, f es una afinidad si y solo

a cualquier sistema de referencia (que es el mismo que el de la matriz de f con respecto a


la base de ese sistema de referencia) es no nulo.

Teorema 4.13 Sea f : An (k) An (k) una afinidad. Entonces la aplicacion inversa f 1 :

An (k) An (k) tambien lo es, se cumple que f 1 = f 1 , y para todo sistema de referencia R de
An (k) se tiene que M (f 1 )R = M (f )1
R .

Demostracion

Sean P, Q An (k). Entonces f (f 1 (P )) = P y f (f 1 (Q)) = Q, por lo que P Q =

f (f 1 (P )f 1 (Q)) o, equivalentemente, f 1 (P )f 1 (Q) = f 1 (P Q). Por tanto, f 1 es


lineal y f 1 = f 1 . Como ademas es biyectiva, es una afinidad. La ulti


una aplicacion
es consecuencia de la formula

de dos
ma afirmacion
para la matriz de la composicion
1
n
aplicaciones afines, aplicada a IdA (k) = f f .

Definicion
4.17 Sea f : An (k) An (k) una afinidad. Una variedad lineal L An (k) se dice
fija por f si f (L) L.

Como f es una afinidad, f es un isomorfismo, por lo que D(f (L)) = f (D(L)) tiene la
que D(L) para cualquier L. Por tanto, si L es fija, f (L) debe ser igual a L.
misma dimension
si lo es para f 1 .
En particular, L es fija para f si y solo
Ejemplo
Es importante distinguir entre una variedad fija (es decir, tal que f (P ) L para todo
P L) y una variedad de puntos fijos (es decir, tal que f (P ) = P para todo P L). Por

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.7. AFINIDADES

89

Ejemplo (cont)
ejemplo, si f : A2 (R) A2 (R) es la afinidad que tiene como matriz

1 0 0
2 1 0
0 0 1
(es decir, f (x, y) = (2 x, y)), la recta x = 1 es una recta de puntos fijos, ya que todo
punto de la forma (1, y) es fijo. La recta y = 0 es fija, pero no de puntos fijos.

Si A es la matriz de f con respecto al sistema de referencia canonico,


los puntos fijos de
A xt = xt , y por tanto
f son aquellos cuyas coordenadas son soluciones de la ecuacion

forman una variedad lineal. En general, una variedad lineal L = O + W es fija por f si y solo

si f (O) L y f (v) W para todo vector v de un sistema generador de W .


Hallar las variedades fijas por f es un problema difcil en general. En el caso particular
de los hiperplanos, tenemos el siguiente criterio:

Teorema 4.14 Sea f : An (k) An (k) una afinidad con matriz M con respecto al sistema de
referencia canonico, y L An (k) un hiperplano dado por la ecuacion a1 x1 + + an xn = b.

Entonces L es fijo por f si y solo si el vector (b, a1 , . . . , an ) es un autovector de M t .

Demostracion

si es fijo por f 1 . Como f es biyectiva, la imagen


El hiperplano L es fijo por f si y solo
1
de L por f es la imagen inversa por f de L, que por el teorema 4.10 viene dada por la

ecuacion


x1
b a1 an M .. = 0.
.
xn
defina el hiperplano L, debe ser un multiplo

Para que esta ecuacion


de la ecuacion

a1 x1 + + an xn = b, es decir, el vector (b, a1 , , an )M debe ser un multiplo


escalar de
(b, a1 , , an ). Tomando la traspuesta, esto es equivalente a decir que (b, a1 , . . . , an )t
es un autovector de M t .

Por tanto, para hallar los hiperplanos fijos por f basta hallar los autovectores de M t ,

de
y descartar los que sean multiplos
de (1, 0, . . . , 0) (que no corresponden a la ecuacion
hiperplano).
ningun

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

90

Ejemplo

Sea f : An (k) An (k) una afinidad tal que el homomorfismo f sea la multiplicacion
por un escalar 6= 0. Entonces la matriz de f es de la forma

1 0 0
a1

..

In
an
donde (a1 , . . . , an ) = f (O). Es decir, f (x1 , . . . , xn ) = (a1 + x1 , . . . , an + xn ). Los puntos
fijos de f son entonces las soluciones del sistema formado por las ecuaciones ( 1)xi =

tiene
ai para i = 1, . . . , n. Si = 1 (es decir, f es la identidad), este sistema solo
cuando f (O) = O (en cuyo caso f es la identidad). Si = 1 y f (O) 6= O, sea v =
solucion

Of (O). Entonces para todo P se tiene que f (P ) = f (O) + f (OP ) = O + v + OP = P + v.

Es decir, P f (P ) = v para todo P , y diremos que f es una traslacion de vector v.

Si 6= 1, entonces f tiene un unico


punto fijo, que llamaremos P . Entonces para todo


Q An (k) se tiene que f (Q) = f (P ) + f (P Q) = P + P Q. Es decir, los puntos P, Q y

f (Q) estan siempre alineados, y el vector P f (Q) se obtiene multiplicando el vector P Q


. En el caso = 1, P es el
por . Diremos que f es una homotecia de centro P y razon
punto medio del segmento Qf (Q) para todo Q, y f se llamara simetra de centro P .

4.8.

Movimientos

A partir de ahora trabajaremos en el espacio eucldeo An (R).

Definicion
4.18 Una afinidad f : An (R) An (R) se dice un movimiento si preserva las
distancias, es decir, si d(f (P ), f (Q)) = d(P, Q) para todo par de puntos P, Q An (R).

Ejemplo
de vector v Rn es un movimiento, puesto que d(f (P ), f (Q)) =
1. La traslacion

||f (P )f (Q)|| = ||P Q|| = d(P, Q).


6= 0, 1 es un movimiento si y solo
si = 1, es decir, si y
2. Una homotecia de razon

si es una simetra central: d(f (P ), f (Q)) = ||f (P )f (Q)|| = ||P Q|| = ||d(P, Q)
solo
si = 1.
es igual a d(P, Q) si y solo

Teorema 4.15 Sea f : An (R) An (R) una afinidad. Son equivalentes:

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

4.8. MOVIMIENTOS

91

1. f es un movimiento.

2. || f (v)|| = ||v|| para todo v Rn .

3. La matriz de f es ortogonal.

Demostracion

Fijemos O An (R). Si f es un movimiento, para todo v Rn se tiene que

d(f (O), f (O + v)) = d(O, O + v) = ||v||. Pero d(f (O), f (O + v)) = ||f (O)f (O + v)|| =

(2) se cumple,
|| f (v)||, por lo que || f (v)|| = ||v||. Recprocamente, si la condicion

para todo par de puntos P, Q An (R) se tiene que d(f (P ), f (Q)) = ||f (P )f (Q)|| =

|| f (P Q)|| = ||P Q|| = d(P, Q).

Si la matriz A de f es ortogonal, entonces || f (v)||2 = ||Avt ||2 = hAvt , Avt i =


(Avt )t (Avt ) = vAt Avt = vvt = hv, vi = ||v||2 para todo v Rn , por lo que

(2) implica que la matriz de f es orto|| f (v)|| = ||v||. Falta probar que la condicion
gonal.

Como las columnas de la matriz de f son las imagenes por f de los vectores de la

base canonica,
basta probar que { f (e1 ), . . . , f (en )} es una base ortonormal de Rn . Cada

vector tiene modulo


1, puesto que || f (ei )|| = ||ei || = 1. Ademas, si i 6= j,

|| f (ei ) + f (ej )||2 = h f (ei ) + f (ej ), f (ei ) + f (ej )i = h f (ei ), f (ei )i + h f (ej ), f (ej )i+

+2h f (ei ), f (ej )i = || f (ei )||2 + || f (ej )||2 + 2h f (ei ), f (ej )i = 2 + 2h f (ei ), f (ej )i.

Pero por otra parte, || f (ei ) + f (ej )||2 = || f (ei + ej )||2 = ||ei + ej ||2 = 2, de donde se

deduce que h f (ei ), f (ej )i = 0.


se deduce inmediatamente que tanto la composicion
de dos
A partir de la definicion
movimientos como la afinidad inversa de un movimiento son tambien movimientos.
Ejemplo
Sea L An (R) una variedad lineal no vaca. Dado un punto P An (R), sea pL (P )

ortogonal sobre L, y definamos L (P ) = pL (P ) + P pL (P ) = P + 2P pL (P ).


su proyeccion
Veamos que L es un movimiento, que llamaremos simetra de eje L.

Descompongamos el vector P Q como u + v, donde u D(L) y v D(L) , y sea

R = P + u (por lo que Q = R + v). Por el teorema de Pitagoras, ||P Q||2 = ||u||2 + ||v||2 .
Recordemos que
p
L es el homomorfismo que asigna a cada vector la parte en D(L) de su
como suma de un vector en D(L) y uno en D(L) , por lo que
descomposicion
p
L (v) = 0

y pL (u) = u.

Entonces L (P )L (Q) = L (P )pL (P )+pL (P )pL (Q)+pL (Q)L (Q) = pL (P )P +QpL (Q)+

u = pL (P )pL (Q) P Q+u = u(u+v)+u = uv. Por tanto ||L (P )L (Q)||2 = ||uv||2 =

||u||2 + ||v||2 = ||P Q||2 por el teorema de Pitagoras.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

92

Ejemplo (cont)
Con respecto a un sistema de referencia R formado por un punto O L y una base
ortonormal B = {v1 , . . . , vn } de Rn tal que los primeros r vectores sean una base de D(L)

y los n r ultimos
una base de D(L) , la matriz de L tiene la forma

01r
01(nr)
1

Ir
0r(nr)
M (L )R = 0r1
0(nr)1 0(nr)r I(nr)(nr)

4.9.

Clasificaci
on de movimientos en A2(R)

vamos a estudiar con detalle los posibles movimientos en el plano eucldeo.


Es esta seccion
2
Sea f : A (R) A2 (R) un movimiento. La matriz de f tiene la forma

1 0 0
a


M
(
f)
b

donde (a, b) = f (0, 0) y M ( f ) es una matriz ortogonal 2 2. Como los vectores de modulo
1

2
[0, 2), M ( f ) se puede escribir como
en R son de la forma (cos(), sen()) para algun


cos() cos()
sen() sen()
con , [0, 2). Ademas las columnas deben ser ortogonales, por lo que cos() cos() +
sen() sen() = cos() = 0. Por tanto = /2 o 3/2. Si = +/2 o = 3/2,

entonces sen() = cos() y cos() = sen(), y M ( f ) es de la forma




cos() sen()
.
sen() cos()
Por el contrario, si = /2 o = + 3/2, entonces sen() = cos() y cos() = sen(),

y M ( f ) es de la forma


cos() sen()
.
sen() cos()
Los dos casos pueden distinguirse por el determinante: en el primer caso es 1, y en el segundo es 1.

Caso 1: det(M ( f )) = 1

Si = 0, entonces M ( f ) es la identidad. Este caso ya ha sido estudiado anteriormente,

de vector (a, b) si (a, b) 6= (0, 0). En este ultimo

f es la identidad si a = b = 0 o una traslacion


punto fijo.
caso no hay ningun
Supongamos que 6= 0. Los puntos fijos de f son las soluciones del sistema
a + cos()x sen()y = x
.
b + sen()x + cos()y = y

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

DE MOVIMIENTOS EN A2 (R)
4.9. CLASIFICACION

93

Su matriz de coeficientes es


cos() 1 sen()
sen()
cos() 1


,

que tiene determinante cos()2 +12 cos()+sen()2 = 2(1cos()) > 0 (puesto que 6= 0).
unica:

As que es un sistema de Cramer, y por tanto tiene solucion


f tiene un unico
punto

2
fijo, que llamaremos P . Dado cualquier otro punto Q A (R), escribamos el vector P Q en

forma polar: P Q = (r cos(), r sen()) con r > 0 y [0, 2). Entonces





cos() sen()
r cos()
P f (Q) = f (P )f (Q) = f (P Q) =
=
sen() cos()
r sen()

 

r cos() cos() r sen() sen()
r cos( + )
=
=
,
r cos() sen() + r sen() cos()
r sen( + )

es decir, el vector P f (Q) se obtiene a partir del vector P Q girandolo un a ngulo . Diremos
que f es un giro de centro P y a ngulo . Si = , entonces P es el punto medio del segmento
Qf (Q) para todo punto Q, y f se denomina tambien simetra de centro P .

Caso 2: det(M ( f )) = 1

En primer lugar, vemos que el polinomio caracterstico de M ( f ) es




t cos() sen()
2
2
2
2


sen() t + cos() = t cos() sen() = t 1,

as que M ( f ) tiene dos autovectores u y v (ortogonales entre s, puesto que M ( f ) es

simetrica) asociados a los autovalores 1 y 1 respectivamente, es decir, f (u) = u y f (v) =


v.
Supongamos que f tiene un punto fijo P . Entonces, como {u, v} es una base de R2 , todo
punto Q es de la forma P + u + v con , R. Aplicando f , obtenemos f (Q) = f (P ) +

f (u) + f (v) = P + u v. En particular, la recta r = P + hui es de puntos fijos. El vector

Qf (Q) = 2v es perpendicular a r, y el punto medio del segmento Qf (Q) es P + u, que


esta en r. Por tanto, f es una simetra con eje r.
Supongamos ahora que f no tiene puntos fijos, y sea P A2 (R) un punto cualquiera.
de f con la traslacion
de vector u.
Pongamos f (P ) = P + u + v. Sea g la composicion
Entonces g es tambien un movimiento de determinante 1. Veamos que Q = P + 2 u + 2 v
(el punto medio del segmento P f (P )) es un punto fijo de g:

f (u) + f (v) u =
2
2

= P + u + v + u v u = P + u + v = Q.
2
2
2
2
de dicha
Por tanto, g es una simetra con eje la recta r = Q + hui, y f es la composicion
de vector u. Diremos que f es una simetra con deslizamiento de eje
simetra con la traslacion

es paralelo el eje.
r y vector u. Notese
que el vector de traslacion
En la practica, dado un movimiento con determinante 1, para clasificarlo hallamos la
imagen del punto P = ( a2 , 2b ) (el punto medio entre (0, 0) y su imagen). Si f (P ) = P , f es una
simetra de eje P + hui. En caso contrario, f es una simetra con deslizamiento de eje la recta

P f (P ) y vector P f (P ).
que pasa por P con direccion
g(Q) = f (Q) u = f (P ) +

en la siguiente tabla:
Resumimos la clasificacion

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

94

det(M ( f ))
1

0
0

6= 0,

4.10.

Puntos fijos
Elementos
2
A (R)
identidad

traslacion
vector v
punto P
simetra central
centro P
punto P
giro
centro P , a ngulo
recta r
simetra
eje r

simetra con deslizamiento


eje r, vector v||r

Clasificaci
on de movimientos en A3(R)

2, basareSea f : A3 (R) A3 (R) un movimiento. Al igual que en el caso de dimension

en el determinante de M ( f ), que puede ser 1 o 1.


mos nuestra clasificacion

Caso 1: det(M ( f )) = 1

Como M ( f ) es una matriz ortogonal, todos sus autovalores complejos tienen valor absoluto 1. Ademas, los autovalores no reales siempre aparecen en pares conjugados, por lo
uno de ellos es real, los otros dos son de la
que al menos uno de ellos debe ser real. Si solo
forma a + bi y a bi con b 6= 0, y su producto es a2 + b2 > 0. Como el determinante es el
producto de los autovalores y es igual 1 (positivo), el autovalor real debe ser igual a 1. Si los
tres autovalores son reales (y por tango iguales a 1), al menos uno de ellos debe ser igual a
1 para que su producto sea 1.

En cualquier caso M ( f ) tiene un autovalor igual a 1. Los otros dos pueden ser o bien 1

y 1, o bien 1 y 1, o bien un par de numeros


complejos no reales conjugados. En el primer

trivialmente
caso, como M ( f ) es diagonalizable, existe una base B de R3 tal que f actua

sobre sus vectores, por lo que f debe ser la identidad. Entonces f es la identidad (si f (O) =

de vector Of (O) (si f (O) 6= O).


O) o una traslacion

Supongamos ahora que M ( f ) tiene autovalores 1 con multiplicidad 1 y 1 con multiplicidad 2. Sea {u, v, w} una base ortonormal de autovectores, con f (u) = u, f (v) = v
y f (w) = w. Supongamos que f tiene un punto fijo P . Cualquier otro punto Q puede
escribirse como P + u + v + w, con , , R. Entonces

f (Q) = f (P ) + f (u) + f (v) + f (w) = P + u v w.

En particular, los puntos de la recta r = P + hui son fijos. Ademas, el vector Qf (Q) =
2v 2w es perpendicular a r, y el punto medio del segmento Qf (Q), que es P + u,
esta en r. Por tanto f es la simetra de eje r.
Si f no tiene puntos fijos, sea P A2 (R) un punto cualquiera. Pongamos f (P ) = P +u+
de f con la traslacion
de vector u. Entonces g es tambien
v + w. Sea g la composicion

un movimiento y M ( g ) = M ( f ). Veamos que Q = P + 2 u + 2 v + 2 w (el punto medio del


segmento P f (P )) es un punto fijo de g:
g(Q) = f (Q) u = f (P ) +

f (u) + f (v) + f (w) u =


2
2
2

= P + u + v + w + u v w u = P + u + v + w = Q.
2
2
2
2
2
2

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

DE MOVIMIENTOS EN A3 (R)
4.10. CLASIFICACION

95

de dicha
Por tanto, g es una simetra con eje la recta r = Q + hui, y f es la composicion
de vector u. Diremos que f es una simetra (axial) con deslizamiento
simetra con la traslacion

es paralelo el eje.
de eje r y vector u. Notese
que el vector de traslacion

Veamos ahora el caso en el que M ( f ) tiene 1 como unico


autovalor real, con multiplicidad 1. Entonces los otros dos autovalores complejos deben ser un par de conjugados de
valor absoluto 1, es decir, son de la forma cos() sen()i para algun (0, ). Sea u R3
un autovector asociado a 1. Supongamos en primer lugar que f tiene un punto fijo P . Enton

ces f (P + u) = f (P ) + f (u) = P + u, por lo que la recta r = P + hui es de puntos fijos.

Sea W R3 el complemento ortogonal de hui. Como M ( f ) es ortogonal, W es invariante

por f . Sean z = v + iw y z = v iw autovectores complejos asociados a cos() + sen()i y


cos() sen()i respectivamente. Estos vectores son ortogonales entre s y ortogonales a u,
y entonces
0 = hv + iw, v iwi = hv, vi hw, wi + ihv, wi + ihw, vi = (||v||2 ||w||2 ) + 2hv, wii
por lo que ||v|| = ||w|| y v, w son tambien ortogonales entre s (y ortogonales a u). Multi
plicando por un escalar, podemos suponer que tienen modulo
1. Calculemos la matriz de la

de f a W con respecto a la base ortonormal {v, w}:


restriccion

1
1
f (v) = ( f (z) + f (z)) = ((cos() + sen()i)z + (cos() sen()i)z) =
2
2
1
= ((cos() + sen()i)(v + iw) + (cos() sen()i)(v iw)) = cos()v sen()w
2
y analogamente,

1
f (w) = ( f (z) f (z)) = sen()v + cos()w,
2i

es decir, la matriz de f restringida a W es




cos() sen()
.
sen() cos()
anterior, esta matriz corresponde a un giro de a ngulo . Sea ahora
Como vimos en la seccion
ortogonal de
Q = P + u + v + w un punto cualquiera, y sea R = P + u (la proyeccion

Q sobre r). Entonces f (Q) = f (P ) + f (u) + f (v + w) = R + f (v + w), por lo que



Rf (Q) = f (v + w) = f (RQ): el punto f (Q) se obtiene girando el punto Q un a ngulo
con respecto al punto R. Diremos que f es un giro de eje r y a ngulo . Notemos que hay dos
depende de en que sentido se
movimientos distintos que corresponden a esta descripcion:
realice el giro.
Supongamos ahora que f no tiene puntos fijos. Pongamos f (O) = O +u+v+w, y sea
de f con la traslacion
de vector u. Entonces g es tambien un movimiento
g la composicion

y g = f . Dado un punto P = O + u + v + w, tenemos que

g(P ) = g(O) + u + f (v + w) = O + u + v + w + f (v + w)

si v + w = v + w + f (v + w) (Id f )(v + w) =
y por tanto g(P ) = P si y solo

v + w. La matriz de Id f con respecto a la base {v, w} es




1 cos()
sen()
sen() 1 cos()

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

TEMA 4. ESPACIO AFIN Y EUCLIDEO

96

(Id f )(v + w) = v + w
que tiene determinante 2 2 cos() 6= 0, por lo que la ecuacion
unica

tiene solucion
en , : en particular, g tiene puntos fijos y por tanto es un giro de a ngulo
de g con una traslacion
de vector u,
con respecto a un cierto eje r, y f es la composicion
paralelo a r. Diremos que f es un giro con deslizamiento o movimiento helicoidal de eje r, a ngulo
y vector u.
En la practica, si f es una simetra axial o un giro (con o sin deslizamiento), para hallar el

eje se toma un punto arbitrario P = (x, y, z) y se impone que el vector P f (P ) que lo une con
es conocida: es la del autovector asociado
su imagen por f sea paralelo al eje (cuya direccion
al autovalor 1). Esto nos da las ecuaciones implcitas del eje, a partir del cual es facil hallar
los restantes elementos.

Caso 2: det(M ( f )) = 1

Ahora hay tres posibilidades con respecto a los autovalores de f : 1 con multiplicidad
3, 1 con multiplicidad 1 y 1 con multiplicidad 2, o 1 con multiplicidad 1 y un par de
conjugados no reales de la forma cos() sen()i con (0, ).

En el primer caso, como f es diagonalizable, existe una base B de R3 tal que todos sus

vectores cambian de signo al aplicarles f . Como la imagen de los vectores de B determina

f , concluimos que f = Id. Denotemos por P = O+ 21 Of (O) el punto medio del segmento

Of (O). Sea Q = O + v cualquier otro punto. Entonces f (Q) = f (O) + f (v) = f (O) v,


por lo que Qf (Q) = Of (O) 2v y Q + 12 Qf (Q) = O + v + 12 Of (O) v = P . Es decir, para
cualquier punto Q, el punto medio del segmento Qf (Q) es el mismo punto P . Por tanto f es
la simetra de centro {P }.

Veamos ahora el caso en el que f tiene autovalor 1 con multiplicidad 2, ademas del 1.

Sea B = {u, v, w} una base ortonormal de autovectores de f , con u y v asociados a 1 y w a


1. Supongamos en primer lugar que f tiene un punto fijo P y sea Q = P + u + v + w

otro punto cualquiera. Entonces f (Q) = f (P )+ f (u)+ f (v)+ f (w) = P +u+vw.

El vector Qf (Q) = 2w es perpendicular al plano = P + hu, vi, y el punto medio del


segmento Qf (Q) es P + u + v, que esta en . Por tanto f es la simetra de centro .
Supongamos ahora que f no tiene puntos fijos, y sea f (O) = O + u + v + w. Sea g la
de f con la traslacion
de vector uv. Entonces g es tambien un movimiento
composicion

con g = f , y g(O) = O + w. Veamos que el punto P = O + 2 u + 2 v + 2 w (el punto medio


del segmento Of (O)) es fijo para g:
g(P ) = g(O) +

f (u) + f (v) + f (w) = O + w + u + v w = P,


2
2
2
2
2
2

as que por lo visto anteriormente g es la simetra de centro = P + hu, vi, y f es la com de g con la traslacion
de vector u + v. Diremos que f es una simetra (plana) con
posicion
deslizamiento de centro y vector u + v (paralelo a ).
Finalmente, veamos el caso en el que f tiene un par de autovalores no reales conjugados:
cos() sen()i con (0, ). Sea {u, v, w} una base ortonormal de R3 tal que w sea un
autovector asociado a 1. Pongamos f (O) = O + u + v + w, y sea P = O + 2 u + 2 v + 2 w
el punto medio del segmento Of (O). Denotemos por el plano P + hu, vi, por la simetra

trivialmente sobre hu, vi y cambia el signo de


de centro , y sea g = f . Como
actua

trivialmente sobre w y actua


igual que f sobre hu, vi, es decir, con autovalores
w, g actua
cos() sen()i. Como vimos en el caso de determinante positivo, esto nos dice que g es
un giro (posiblemente con deslizamiento) de eje una cierta recta r paralela a w. El vector de

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

DE MOVIMIENTOS EN A3 (R)
4.10. CLASIFICACION

97

de w del vector que une un punto cualquiera


deslizamiento es la componente en la direccion
con su imagen. Tomemos, por ejemplo, el punto P . Entonces (P ) = P , por lo que

g(P ) = f (P ) = f (O) + f ( u + v) + f (w) = f (O) + f ( u + v) w =


2
2
2
2
2
2

= O + u + v + f ( u + v) + w = P + u + v + f ( u + v) P + hu, vi
2
2
2
2
2
2
2

de w, es decir, g es un giro
as que el vector P g(P ) no tiene componente en la direccion
con la simetra de centro (perpendicular al eje).
sin deslizamiento, y f es su composicion
Diremos que g es una simetra rotacional de centro , eje r y a ngulo . En este caso, como en
uno
el del giro directo, existen dos movimientos distintos que responden a esta descripcion,

por cada sentido de giro. Notemos que una simetra rotacional tiene un unico
punto fijo, la
de y r. Conociendo el punto fijo P , la recta r sera P + hwi, donde w es un
interseccion
autovector asociado a 1, y el plano sera P + hwi .
en la siguiente tabla:
Resumimos la clasificacion

det(M ( f ))

Autovalores de f
1, 1, 1
1, 1, 1
1, 1, 1
1, 1, 1
1, cos() sen()i
1, cos() sen()i
1, 1, 1
1, 1, 1
1, 1, 1
1, cos() sen()i

Puntos fijos
A2 (R)

recta r

recta r

punto P
plano

punto P

identidad

traslacion
simetra axial
simetra axial con desl.
giro
giro con deslizamiento
simetra central
simetra plana
simetra plana con desl.
simetra rotacional

Elementos
vector v
recta r
recta r, vector v||r
recta r
eje r, a ngulo , vector v||r

centro P
plano
plano , vector v||
plano , eje r, a ngulo

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

98

TEMA 4. ESPACIO AFIN Y EUCLIDEO

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Ap
endice A
Resultados auxiliares
A.1.

Aplicaciones

Una aplicacion f : A B de un conjunto A en un conjunto B es una regla que asocia a


cada elemento a A un elemento de B, que se denota por f (a) y se denomina imagen de a
por f . El conjunto A se llama el dominio de f , y B el codominio.
Ejemplo
f : Z Z que asocia a cada entero n Z su cuadrado, es decir,
1. La aplicacion
f (n) = n2 .
f : R R que asocia a cada x R su seno: f (x) = sen(x).
2. La aplicacion
f : RR R que asocia a cada par de numeros

3. La aplicacion
reales (a, b) su suma:
f (a, b) = a + b.

es la
Definicion
A.1 Sean f : A B y g : B C dos aplicaciones. Su composicion
aplicacion g f : A C que asocia a cada a A el elemento g(f (a)) C, es decir, el elemento
obtenido al aplicar g a la imagen de a por f .

Definicion
A.2 Sea f : A B una aplicacion.
f se dice inyectiva si las imagenes por f de dos elementos cualesquiera distintos de A son
distintas.
f se dice sobreyectiva si todo elemento de B es imagen por f de algun
elemento de A.
f se dice biyectiva si es a la vez inyectiva y sobreyectiva.

Si f : A B es biyectiva, todo elemento de B es imagen de un unico


elemento de

Algebra
Lineal y Geometra. Curso 2013/14. Departamento
http://departamento.us.es/da/da.html
99de Algebra.


APENDICE
A. RESULTADOS AUXILIARES

100

de B en A que asocie a cada b B el unico

A. Podemos definir entonces una aplicacion


se llama la inversa de f , y se denota por f 1 .
elemento a A tal que f (a) = b. Esta aplicacion

Definicion
A.3 Sea f : A B una aplicacion. Si C A es un subconjunto, la imagen de C es
el subconjunto f (C) B formado por las imagenes por f de los elementos de C. Si D B es un
subconjunto, la contraimagen de D es el subconjunto f 1 (D) A formado por los elementos
de A cuya imagen esta en D.3

Ejemplo
dada por f (x) = x2 . La imagen por f del intervalo
Sea f : R R la aplicacion
[1, 1] es el intervalo [0, 1]. La contraimagen del intervalo [1, 1] es el intervalo [1, 1].
La contraimagen del intervalo [2, 1] es el conjunto vaco.

Teorema A.1 Sean C, C 0 A y D, D0 B. Entonces


1. f (C C 0 ) = f (C) f (C 0 )
2. f (C C 0 ) f (C) f (C 0 )
3. C f 1 (f (C)). Si f es inyectiva, se da la igualdad.
4. f 1 (D D0 ) = f 1 (D) f 1 (D0 )
5. f 1 (D D0 ) = f 1 (D) f 1 (D0 )
6. f (f 1 (D)) D. Si f es sobreyectiva, se da la igualdad.

A.2.

Operaciones y estructuras algebraicas

en un conjunto A es una aplicacion : A A A que asocia


Definicion
A.4 Una operacion
a cada par (a, b) de elementos de A un elemento a b A.

Ejemplo
en el conjunto de los numeros

La suma (a, b) 7 a + b es una operacion


enteros, en

el de los numeros
racionales y en el de los numeros
reales. Tambien lo son la resta y el
producto. El cociente no lo es, puesto que no esta definido si el segundo elemento es
cero.
3

No confundir con la aplicaci


on inversa de f , que no tiene por que existir.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

A.2. OPERACIONES Y ESTRUCTURAS ALGEBRAICAS

101

Definicion
A.5 Una operacion en el conjunto A se dice asociativa si (a b) c = a (b c)
para todos a, b, c A. Una operacion se dice conmutativa si a b = b a para todos a, b A.

Ejemplo

La suma y el producto de numeros


enteros son operaciones asociativas y conmutativas. La resta no es ni asociativa (por ejemplo, (3 2) 1 6= 3 (2 1)) ni conmutativa
(3 2 6= 2 3).

Definicion
A.6 Sea una operacion en el conjunto A. Un elemento neutro para es un elemento e A tal que e a = a e = a para todo a A.

Ejemplo

El 0 es un elemento neutro para la suma de numeros


enteros, y el 1 es un elemento
neutro para el producto.

Si existe un elemento neutro, es unico,


puesto que si existieran dos e y e0 , se tendra que
e = e e0 = e0 .

Definicion
A.7 Sea una operacion en el conjunto A con elemento neutro e, y sea a A. Un
inverso de a es un elemento a0 A tal que a a0 = a0 a = e.

Si el elemento a A tiene inverso, debe ser unico,


puesto que si existieran dos a0 y a00 se
tendra que a0 = a0 e = a0 (a a00 ) = (a0 a) a00 = e a00 = a00 .
Ejemplo
El 1 es inverso de 1 para la suma de enteros. El 2 no tiene inverso para el producto

de enteros, pero s para el producto de numeros


racionales: 21 .

Definicion
A.8 Un grupo es un conjunto A con una operacion asociativa tal que existe un
elemento neutro y todo elemento de A tiene inverso. Si la operacion es conmutativa, diremos que
el grupo es abeliano.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


APENDICE
A. RESULTADOS AUXILIARES

102

Ejemplo

suma,
El conjunto de los numeros
enteros es un grupo abeliano con la operacion
producto (no todo elemento tiene inverso). El conjunto de los
pero no con la operacion

suma, pero no con la operacion

numeros
reales es un grupo abeliano con la operacion
producto (el 0 no tiene inverso). Sin embargo, si le quitamos el 0, s que es un grupo para
el producto.

Definicion
A.9 Un cuerpo es un conjunto k con dos operaciones, llamadas suma y producto,
tales que:
1. k con la operacion suma es un grupo abeliano. Denotemos por 0 su elemento neutro.
2. k {0} con la operacion producto es un grupo abeliano.
3. Se cumple la propiedad distributiva: a (b + c) = a b + a c para todos a, b, c k.

Es decir, en un cuerpo se cumplen los requisitos necesarios para poder sumar, restar,
multiplicar y dividir por cualquier elemento distinto de cero, de manera que se cumplan las
de la forma a x + b = c
propiedades habituales. En particular, en un cuerpo toda ecuacion

si a 6= 0.
tiene una unica
solucion
Ejemplo

1. El conjunto Z de los numeros


enteros con las operaciones habituales no es un cuer 1 y 1 tienen inverso para el producto.
po, puesto que solo

2. Los conjuntos Q de numeros


racionales y R de numeros
reales son cuerpos.
3. El conjunto {0, 1} es un cuerpo si definimos las operaciones siguientes: 0 + 0 =
1 + 1 = 0, 1 + 0 = 0 + 1 = 1, 0 0 = 0 1 = 1 0 = 0, 1 1 = 1.

A.3.

Polinomios

de la forma
Sea k un cuerpo. Un polinomio con coeficientes en k es una expresion
P (x) = an xn + an1 xn1 + + a1 x + a0
donde a0 , a1 , . . . , an k y x es una variable indeterminada. Si an 6= 0, diremos que P (x) tiene
grado n. El conjunto de polinomios con coeficientes en k se denota por k[x]. Dos polinomios
pueden sumarse y multiplicarse, teniendo en cuanta la regla de los exponentes xa xb = xa+b .
El producto de dos polinomios de grados d y d0 es un polinomio de grado d + d0 . El conjunto
suma (pero no para el producto).
k[x] es un grupo abeliano para la operacion
(tambien denotada por P ) de k en
Todo polinomio P (x) k[x] define una aplicacion
s mismo, que asocia a cada a k el elemento P (a) obtenido al sustituir la variable x por a
correspondiente en k.
en P y realizar la operacion

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


A.4. NUMEROS
COMPLEJOS

103

Ejemplo
Si k = R y P (x) = 1 + 2x x2 , entonces P (0) = 1, P (1) = 2 y P (1) = 2.

Definicion
A.10 Sea P (x) k[x] un polinomio. Una raz de P (x) es un elemento a k tal
que P (a) = 0.

Teorema A.2 Un elemento a k es raz del polinomio P (x) k[x] si y solo si el polinomio
P (x) es un multiplo

de x a, es decir, si y solo si existe un polinomio Q(x) k[x] tal que


P (x) = (x a)Q(x).

Si a es una raz de P (x), podemos escribir P (x) = (x a)Q(x). Si ahora a es tambien raz
polinomio R(x), por lo que P (x) = (x
de Q(x), se tiene que Q(x) = (x a)R(x) para algun
2
del tipo P (x) = (x a)m S(x),
a) R(x). Continuando de esta forma, llegamos a una expresion
donde a ya no es raz de S(x). El entero m es la multiplicidad de la raz a.

Definicion
A.11 Si a k es una raz de P (x) k[x], la multiplicidad de a es el mayor entero
m tal que P (x) sea multiplo

de (x a)m .

Supongamos que P (x) tiene races a1 , . . . , ar con multiplicidades m1 , . . . , mr . Entonces

P (x) es multiplo
de (x a1 )m1 (x ar )mr , por lo que el grado de P (x) debe ser como

mnimo igual al grado de este ultimo


polinomio, que es m1 + + mr .

Corolario A.3 La suma de las multiplicidades de las races de un polinomio P (x) k[x] es a lo
sumo igual a su grado.

Es posible que un polinomio no tenga ninguna raz: por ejemplo, el polinomio x2 + 1 no


tiene races en R ni en Q.

A.4.

N
umeros complejos

Definicion
A.12 Un numero
complejo es una expresion z de la forma a + bi, donde a, b R
son numeros

reales. Los numeros

a y b se denominan respectivamente la parte real y la parte


imaginaria de z, y se denotan por <(z) e =(z). El conjunto de los numeros

complejos se denota
por C.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html


APENDICE
A. RESULTADOS AUXILIARES

104

Los numeros
reales pueden identificarse con los numeros
complejos que tienen parte

imaginaria 0, de manera que R C. Dos numeros


complejos a + bi y c + di pueden sumarse

y multiplicarse mediante las formulas


siguientes
(a + bi) + (c + di) = (a + c) + (b + d)i
(a + bi) (c + di) = (ac bd) + (ad + bc)i
En particular, se cumple que i2 = 1.

Teorema A.4 Con estas operaciones, el conjunto C de numeros

complejos es un cuerpo, con


elemento neutro 0 para la suma y 1 para la multiplicacion.

Definicion
A.13 El conjugado de un numero

complejo z = a +
bi es el numero

complejo

z = a bi. El modulo
o valor absoluto de z es el numero

real |z| = a2 + b2 .

de conjugacion
es conmuta con sumas y productos: z1 + z2 = z1 + z2 , y
La operacion

z1 z2 = z1 z2 . El modulo
conmuta con el producto: |z1 z2 | = |z1 | |z2 |, pero no con la suma.

Si identificamos el numero
complejo a + bi con el punto (a, b) del plano cartesiano, su

modulo
no es mas que su distancia al origen de coordenadas. El producto z z es igual a

a2 + b2 = |z|2 , as que dividiendo por |z|2 obtenemos la siguiente formula


para el inverso
multiplicativo de z:
z
z 1 = 2 .
|z|
de los numeros

La propiedad mas importante y mas util


complejos es:

Teorema A.5 (Fundamental del Algebra)


Todo polinomio P (x) C[x] con coeficientes en C
de grado al menos 1 tiene una raz en C.

Por tanto, si P (x) tiene grado n, aplicando el teorema n 1 veces deducimos que P (x)
puede descomponerse como P (x) = an (x 1 ) (x n ). Es decir, todo polinomio en
C[x] de grado n tiene exactamente n races si las contamos tantas veces como indique su
multiplicidad.
Si P (x) R[x] es ahora un polinomio con coeficientes reales, y C es una raz compleja
de P (x), entonces P () = 0. Tomando conjugados en esta igualdad, y teniendo en cuenta

que el conjugado de un numero


real es e l mismo, vemos que P (
) = 0, es decir,
tambien
es una raz de P (x). Ademas, un razonamiento similar muestra que y
deben tener la
misma multiplicidad. Es decir, las races complejas de un polinomio con coeficientes reales
aparecen siempre en pares conjugados. En particular, si P (x) tiene grado impar, debe tener
al menos una raz real.

Algebra
Lineal y Geometra. Curso 2013/14. Departamento de Algebra.
http://departamento.us.es/da/da.html

Вам также может понравиться