Вы находитесь на странице: 1из 141

CUADERNOS DE

ALGEBRA
No. 4

Algebra lineal
Oswaldo Lezama
Departamento de Matematicas
Facultad de Ciencias
Universidad Nacional de Colombia
Sede de Bogota
Diciembre 12 de 2011
ii
Cuaderno dedicado a To nita, mi madre.
Contenido
Pr ologo v
1. Matrices 1
1.1. Estructuras algebraicas basicas . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 13
1.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 17
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2. Determinantes y sistemas de ecuaciones lineales 22
2.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Determinantes y funciones multilineales . . . . . . . . . . . . . . . . . 27
2.3. Menores y cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ideales, rango y sistemas de ecuaciones . . . . . . . . . . . . . . . . . 35
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3. Producto tensorial 50
3.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 50
3.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 54
3.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 58
3.4. Tensores simetricos, antisimetricos y alternados . . . . . . . . . . . . 63
3.5.

Algebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 66
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4. Formas can onicas 75
4.1. Polinomios mnimo y caracterstico . . . . . . . . . . . . . . . . . . . 75
4.2. Forma canonica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3. Forma canonica racional . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 90
4.5. Forma canonica diagonal: valores y vectores propios . . . . . . . . . . 95
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
iii
iv CONTENIDO
5. Grupos de matrices 107
5.1. Grupos de matrices sobre cuerpos . . . . . . . . . . . . . . . . . . . . 107
5.1.1. El grupo lineal y algunos subgrupos destacados . . . . . . . . 107
5.1.2. Grupos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.2. Grupos de matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . 115
5.3. El grupo elemental sobre anillos conmutativos . . . . . . . . . . . . . 117
5.3.1. Teorema de normalizacion de Suslin . . . . . . . . . . . . . . . 117
5.3.2. Teorema de estabilidad de Suslin . . . . . . . . . . . . . . . . 121
5.4. Grupos clasicos sobre anillos . . . . . . . . . . . . . . . . . . . . . . . 125
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Bibliografa 134
Pr ologo
La coleccion Cuadernos de algebra consta de 10 publicaciones sobre los principales
temas de esta rama de las matematicas y pretende servir de material para preparar
los examenes de admision y de candidatura de los programas colombianos de doc-
torado en matematicas. Los primeros cinco cuadernos cubren el material basico de
los cursos de estructuras algebraicas y algebra lineal de los programas de maestra;
los cinco cuadernos siguientes contienen algunos de los principales temas de los
examenes de candidatura, a saber: anillos y modulos, categoras, algebra homologi-
ca, algebra conmutativa y geometra algebraica. Cada cuaderno es fruto de las clases
dictadas por el autor en la Universidad Nacional de Colombia en los ultimos 20 a nos,
y estan basados en las fuentes bibliogracas consignadas en cada uno de ellos, como
tambien en el libro Anillos, Modulos y Categoras, publicado por la Facultad de
Ciencias de la Universidad Nacional de Colombia, y cuya edicion esta totalmente
agotada (vease [7]). Un material similar al presentado en estas diez publicaciones es
el libro de Serge Lang, Algebra, cuya tercera edicion revisada ha sido publicada por
Springer en el 2004 (vease [8]). Posiblemente el valor de los Cuadernos de algebra sea
su presentacion mas ordenada y didactica, as como la inclusion de muchas pruebas
omitidas en la literatura y sucientes ejemplos que ilustran la teora. Los cuadernos
son:
1. Grupos 6. Anillos y modulos
2. Anillos 7. Categoras
3. Modulos 8.

Algebra homologica
4.

Algebra lineal 9.

Algebra conmutativa
5. Cuerpos 10. Geometra algebraica
Los cuadernos estan dividido en captulos, los cuales a su vez se dividen en
secciones. Para cada captulo se a nade al nal una lista de ejercicios que debera ser
complementada por los lectores con las amplias listas de problemas que inluyen las
principales monografas relacionadas con el respectivo tema.
Cuaderno de algebra lineal. El presente cuaderno esta dedicado al estudio
del algebra lineal generalizada, es decir, al estudio de los espacios vectoriales, los
operadores lineales, las matrices y las formas, pero consideradas sobre anillos di-
mensionales arbitratrarios, es decir, anillos para los cuales un espacio libre de bases
v
vi PR

OLOGO
nitas tiene dimension. El algebra lineal sobre anillos ha sido tratada tambien por
otros autores, veanse por ejemplo las monografas [1] y [9] en las cuales se estudia
en algebra lineal sobre anillos conmutativos.
Para aprovechar mejor el material del presente cuaderno es conveniente que el
lector haya estudiado previamente un curso elemental de algebra lineal clasica, es
decir, de algebra lineal sobre cuerpos, y un curso basico de anillos y modulos (veanse
por ejemplo [5] y [6]).
El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, discpu-
la y amiga, por la digitalizacion del material del presente cuaderno.
Oswaldo Lezama
Departamento de Matematicas
Universidad Nacional de Colombia
Bogota, Colombia
jolezamas@unal.edu.co
Captulo 1
Matrices
El estudio de los espacios vectoriales sobre anillos, desde la perspectiva matricial,
tensorial y de las formas canonicas y sesquilineales que estudiaremos en el presente
cuaderno, constituye la denominada algebra lineal generalizada, o tambien llamada
algebra lineal sobre anillos. Esta area por supuesto se puede considerar como una
rama de la teora de modulos (vease [6]). La teora que desarrollaremos se hara sobre
anillos arbitrarios (principalmente conmutativos), sin embargo, los ejemplos estaran
centrados en los siguientes anillos particulares: un cuerpo cualquiera K, el anillo Z
de los n umeros enteros, el anillo Z
n
de los enteros modulo n 2, y el anillo K[x] de
los polinomios en una indeterminada con coecientes en el cuerpo K.
1.1. Estructuras algebraicas basicas
La primera seccion de este captulo es de caracter introductorio y permite repasar
algunos conceptos de anillos y modulos, sin embargo, invitamos al lector a recordar
la teora basica de los cuadernos 2 y 3, la cual usaremos libremente durante todos
los desarrollos del presente cuaderno (veanse [5] y [6]).
Denici on 1.1.1. Sea G un conjunto no vaco. Una operacion binaria interna
en G es una funcion con dominio el producto cartesiano GG y codominio G
GG

G
(a, b) a b.
Si la operacion es asociativa en el sentido que
(a b) c = a (b c)
para cualesquiera elementos a, b, c G, entonces se dice que (G, ) es un semi-
grupo. Si en el conjunto G del semigrupo (G, ) existe un elemento e tal que
1
2 CAP

ITULO 1. MATRICES
e a = a = a e
para cada a G, se dice que (G, ) es un monoide con elemento neutro e. Si
(G, ) es un monoide y cada elemento a G tiene un inverso, es decir, existe a

G
tal que
a a

= e = a

a
entonces se dice que (G, , e) es un grupo. Si ademas la operacion es conmutativa,
es decir,
a b = b a
para cualesquiera elementos a, b G, entonces se dice que el grupo (G, , e) es
conmutativo (tambien llamado abeliano).
Los semigrupos, monoides y grupos se acostumbran a denotar simplemente por
su conjunto de elementos, de tal manera que por ejemplo el grupo (G, , e) se deno-
tara por G.
Ejemplo 1.1.2. El conjunto N = 0, 1, 2, . . . de los n umeros naturales es un
monoide conmutativo respecto de la adicion usual y tiene como elemento neutro al
natural 0. De igual manera, el conjunto Z = . . . , 2, 1, 0, 1, 2, . . . de los n umeros
enteros es un grupo abeliano con la adicion usual.
Proposici on 1.1.3. En cualquier grupo el elemento neutro y el inverso de un ele-
mento son unicos.
Demostracion. La prueba es una consecuencia directa de las deniciones.
Notemos que el conjunto Z posee dos operaciones, la adicion y el producto, de tal
forma que respecto de la primera es un grupo abeliano, mientras que con la segunda
es un monoide. Conjuntos con tal condicion conforman los llamados anillos.
Denici on 1.1.4. Un anillo es un conjunto A con dos operaciones + y . llamadas
adicion y producto, tal que
(i) A es un grupo conmutativo respecto de la adicion.
(ii) A es un monoide respecto del producto.
(iii) El producto se distribuye sobre la adicion, es decir,
a (b + c) = a b + a c
(a + b) c = a c + b c.
1.1. ESTRUCTURAS ALGEBRAICAS B

ASICAS 3
(iv) El anillo A es conmutativo si el producto es conmutativo.
(v) Un elemento a A es invertible si tiene inverso respecto del producto.
Observaci on 1.1.5. Todos los anillos tendran elemento neutro respecto del produc-
to, este elemento sera denotado por 1. El neutro respecto de la adicion sera denotado
por 0. Si a A, entonces el inverso de a respecto de la adicion se denominara en
adelante el opuesto de a, y se denotara por a. El producto a b sera simbolizado
simplemente como ab, es decir, omitiremos el punto para el producto de dos elemen-
tos del anillo A. Si a A es invertible, entonces el inverso de a es unico y se denota
por a
1
.
Ejemplo 1.1.6. El conjunto Z de los n umeros enteros es un anillo conmutativo
respecto de las operaciones usuales de adicion y producto. El neutro aditivo es 0
y el neutro del producto es 1. De igual manera, si restringimos el conjunto de los
enteros a los 8 primeros enteros no negativos, es decir, Z
8
= 0, 1, 2, 3, 4, 5, 6, 7
y realizamos las operaciones tomando resduos respecto de 8 obtenemos el llamado
anillo de enteros modulo 8 (vease [8]). El neutro aditivo es nuevamente el 0 y el neutro
multiplicativo es 1. Este ejemplo por supuesto se puede generalizar a cualquier entero
positivo n 2 (veanse [5] y [7]). De otra parte, el conjunto de todos los polinomios en
la variable x y con coecientes reales constituyen otro ejemplo de anillo conmutativo,
el cual se acostumbra denotar por R[x]. El neutro aditivo es el polinomio nulo y el
neutro multiplicativo es el polinomio constante 1 (veanse [5], [7] y [8]).
Ejemplo 1.1.7. Es posible que el lector este familiarizado con el conjunto de las
matrices cuadradas reales de tama no 2 2, M
2
(R) (veanse [5], [7] y [8]). Estas
matrices conforman un anillo no conmutativo respecto de la adicion y multiplicacion
habituales, el neutro aditivo es la matriz nula y el neutro multiplicativo es la matriz
identica. Notemos que
_
1 0
0 0
_ _
0 1
0 0
_
,=
_
0 1
0 0
_ _
1 0
0 0
_
.
En la denicion de anillo no se exige que cada elemento no nulo tenga inverso
respecto del producto. As por ejemplo, Z es un anillo en el cual no existe entero
x tal que 2x = 1. Sin embargo, existen anillos en los cuales este tipo de ecuaciones
tiene solucion, tal es el caso de anillo de los n umeros racionales Q con las operaciones
habituales. Esta observacion permite denir el siguiente tipo de anillo.
Denici on 1.1.8. Un anillo A es de division si cada elemento no nulo es in-
vertible. Si ademas A es conmutativo, entonces se dice que A es un cuerpo.
Proposici on 1.1.9. Sea A un anillo, el conjunto A

conformado por los elemen-


tos invertibles de A es un grupo respecto del producto, y se denomina el grupo de
elementos invertibles de A.
4 CAP

ITULO 1. MATRICES
Demostracion. Ejercicio para el lector.
Seg un la proposicion anterior, A es un anillo de division si, y solo si, A

= A0.
Ejemplo 1.1.10. Los n umeros racionales Q, los n umeros reales R y los n umeros
complejos C, con sus operaciones habituales, son cuerpos. Notemos adicionalmente
que Z

= 1, 1 es decir, Z no es un cuerpo. De otra parte, M


2
(R)

consta de las
matrices invertibles, es decir, aquellas que tienen determinante no nulo. Este grupo
se denomina grupo lineal general de orde 2 sobre R y se denota por GL
2
(R).
Sobre estos grupos de matrices invertibles volveremos mas adelante.
Un tipo de estructura mas compleja que las denidas anteriormente la consti-
tuyen los llamados espacios vectoriales, tambien denominados modulos, los cuales
conforman los objetos en se basa el algebra lineal generalizada.
Denici on 1.1.11. Un espacio vectorial es una tripla conformada por
(a) Un grupo abeliano V cuyos elementos llamaremos vectores.
(b) Un anillo A cuyos elementos llamaremos escalares.
(c) Una operacion externa entre escalares y vectores
V A V
(v, a) v a
que satisface las siguientes condiciones:
(i) (v + u) a = v a + u a
(ii) v (a + b) = v a + v b
(iii) v (ab) = (v a) b
(iv) v 1 = v
para cualesquiera elementos a, b A, v, u V .
Si no hay lugar a confusion, el espacio vectorial (V, A, .) sera denotado sim-
plemente por V y se dira que V es un espacio vectorial sobre A, o que V es un
A-espacio. Cuando los escalares operan al lado izquierdo se dice que V es un A-
espacio a izquierda, sin embargo, es necesario aclarar que la teora de algebra lineal
desarrollada a izquierda es completamente equivalente a la desarrollada a derecha. Si
no se advierte lo contrario, todos los espacios vectoriales del presente cuaderno son
espacios vectoriales a derecha. Los espacios vectoriales sobre anillos se les denomina
tambien modulos (vease [6]). As pues, en teora de anillos y modulos se dira que
V es un A-modulo a derecha.
1.1. ESTRUCTURAS ALGEBRAICAS B

ASICAS 5
Observaci on 1.1.12. Es importante se nalar que si A es un anillo no conmutativo
y V es un espacio vectorial izquierdo, entonces no basta con cambiar de lado los
escalares, pero manteniendo la asignacion del literal (c) de la dencion anterior,
para obtener un espacio vectorial a derecha. En efecto, si V es un A-espacio a
izquierda y denimos v a := a.v, entonces notemos que (v a) b = b.(a.v) pero
v (ab) = (ab) v = a (b v) y los dos resultados anteriores pueden ser distintos
(veanse [6] y [7]). Claramente para anillos conmutativos los escalares pueden ser
dispuestos indistintamente a derecha o izquierda, seg un resulte mas conveniente.
En adelante, salvo que sea necesario algo distinto, los escalares para modulos sobre
anillos conmutativos seran dispuestos los el lado izquierdo.
Ejemplo 1.1.13. Sean Aun anillo y n 1 un entero, el conjunto A
n
conformado por
todos los vectores columna de n componentes (a
1
, . . . , a
n
)
T
, a
i
A, 1 i n, cons-
tituye un espacio vectorial sobre el anillo A respecto de las siguientes operaciones:
[a
1
, . . . , a
n
]
T
+ [b
1
, . . . , b
n
]
T
= [a
1
+ b
1
, . . . , a
n
+ b
n
]
T
[a
1
, . . . , a
n
]
T
c = [a
1
c, . . . , a
n
c]
T
,
con c A. A
n
se conoce como el n-espacio vectorial canonico sobre el anillo
A. Dos casos particulares destacados son el n-espacio vectorial canonico real R
n
y
el n-espacio vectorial canonico entero Z
n
. Tomando n = 1, es decir, A
1
= A, se
obtiene que el anillo A tiene estructura de espacio vectorial sobre si mismo: la suma
de vectores es la suma en el anillo A y el producto entre vectores y escalares es el
producto del anillo A.
Observaci on 1.1.14. El conjunto de vectores la de n componentes se acostumbra
a denotar por A
1n
y usualmente se le da estructura de A-espacio a izquierda:
c (a
1
, . . . , a
n
) := (ca
1
, . . . , ca
n
). Sin embargo, con el proposito de ahorrar espacio y
simplicar la notacion, en adelante, a menudo escribiremos los elementos del espacio
A
n
como vectores la, siempre y cuando esto no represente confusion.
Como anotamos al principio, toda la teora de espacios vectoriales y transfor-
maciones lineales sobre anillos desarrollada en [6] sera usada en adelante. No sobra
resaltar algunos resultados, deniciones y observaciones.
Teorema 1.1.15. Todo espacio vectorial sobre un anillo de division es libre, es
decir, posee una base. En particular, todo espacio vectorial sobre un cuerpo es libre.
Demostracion. Sea V un espacio vectorial sobre un anillo de division A y sea L la
coleccion de subconjuntos de V que son linealmente independientes (l.i.); L es no
vaco y es ordenado respecto de la inclusion de conjuntos. Sea ( un subconjunto no
vaco de L totalemente ordenado y sea C la reunion de los conjuntos que conforman
a (. Vamos a demostrar que C L. Sea x
1
, . . . , x
n
un subconjunto nito de C,
6 CAP

ITULO 1. MATRICES
existen entonces C
1
, . . . , C
n
( tales que x
i
C
i
, 1 i n. Como ( es totalmente
ordenado podemos suponer que x
i
C
n
para cada 1 i n, luego x
1
, . . . , x
n

es l.i ya que C
n
es l.i. Esto muestra que C es l.i. C es pues una cota superior
para ( en L; aplicamos entonces el lema de Zorn y encontramos en L un elemento
maximal X. Basta entonces demostrar que X) = V . Sea v V , si v X entonces
v X), sea v / X, entonces por la maximalidad de X se tiene que X v es l.d.
y existen escalares no todos nulos a, a
1
, . . . , a
n
A y vectores x
1
, . . . , x
n
X tales
que v a +x
1
a
1
+ +x
n
a
n
= 0. No es posible que a = 0, de lo contrario X sera
l.d. Por lo tanto, v = (x
1
a
1
a
1
+ + x
n
a
n
a
1
) X).
Denici on 1.1.16. Sean V y W dos espacios vectoriales sobre un anillo A. Una
transformacion lineal (t.l.) de V en W es una funcion f : V W que satisfece
las siguientes condiciones:
(i) f(u + v) = f(u) + f(v)
(ii) f(v a) = f(v) a
para cualesquiera vectores u, v V y cualquier escalar a A. Se dice tambien que
f es un operador lineal o un A-homomorsmo.
Ejemplo 1.1.17. La funcion
A
n
A
m
(a
1
, . . . , a
n
) (b
1
a
1
+ c
1
a
n
, b
2
a
1
+ c
2
a
n
, . . . , b
m
a
1
+ c
m
a
n
)
donde b
1
, c
1
. . . b
m
, c
m
son escalares de A, es una transformacion lineal de A
n
en A
m
.
Ejemplo 1.1.18. La transformacion lineal nula denotada por 0 se dene por
V
0
W
v 0
De igual manera, la transformacion lineal identica de V se denota por i
V
y se dene
por
V
i
V
V
v v
En algebra lineal, como en cualquier rama del algebra, es de vital importancia
el concepto de isomorsmo.
Denici on 1.1.19. Dos espacios vectoriales V y W se dicen isomorfos si existe
una transformacion lineal biyectiva entre ellos, denominada isomorsmo. En tal caso
se escribe V

= W. Una transformacion lineal f : V W es invertible si existe una
funcion g : W V tal que fg = i
W
y gf = i
V
.
1.1. ESTRUCTURAS ALGEBRAICAS B

ASICAS 7
Es facil vericar que la funcion g de la denicion anterior es tambien una t.l. y
que f es un isomorsmo si, y solo si, f es invertible.
Pasamos ahora a recordar la estructura algebraica del conjunto de todas las t.l.
de un espacio V en otro W.
Denici on 1.1.20. Sean V y W dos A-espacios. Se denen
Hom
A
(V, W) := f : V W[f es una t.l.,
End
A
(V ) : = Hom
A
(V, V ).
Proposici on 1.1.21. Sea A un anillo y sean V, W dos A-espacios. Entonces,
(i) Hom
A
(V, W) es un grupo abeliano.
(ii) End
A
(V ) es un anillo.
(iii) Si R es un anillo conmutativo, entonces Hom
R
(V, W) es un R-espacio.
Demostracion. Vease [6].
Notemos que en general el anillo End
A
(V ) no es conmutativo, basta por ejemplo
tener en cuenta el caso particular End
R
(R
2
). El grupo de elementos invertibles del
anillo End
A
(V ) juega un papel muy importante en el algebra lineal generalizada, en
particular, cuando V es de dimension nita.
Denici on 1.1.22. Sea V un A-espacio. Aut
A
(V ) := End
A
(V )

es el grupo lineal
general sobre A.
Notemos tambien que si R es conmutativo, End
R
(V ) posee dos estructuras: es
un anillo y es un R-espacio. Este tipo de estructuras se conoce como R-algebras, en
el sentido de la siguiente denicion.
Denici on 1.1.23. Sea R un anillo conmutativo y sea A un conjunto no vaco. Se
dice que A es una R-algebra si
(i) A es un anillo.
(ii) A es un R-espacio respecto de la adicion denida en A.
(iii) (ab) r = a(b r) = (a r)b, para cualesquiera a, b A y cada r R.
A es en algebra conmutativa si A es un anillo conmutativo.
Ejemplo 1.1.24. Si R es un anillo conmutativo y V es un R-espacio, entonces
End
R
(V ) es una R-algebra no necesariamente conmutativa.
Ejemplo 1.1.25. Si R es un anillo conmutativo entonces el conjunto R[x] de todos
los polinomios con coecientes en R es una R-algebra conmutativa.
8 CAP

ITULO 1. MATRICES
1.2. Matrices sobre anillos
Denici on 1.2.1. Sea A un anillo y sean m, n enteros positivos; una matriz de
tama no m n es una tabla ordenada de m las y n columnas conformada por
elementos de A en la forma
B =
_

_
b
11
b
1n
.
.
.
.
.
.
b
m1
b
mn
_

_
.
Los elementos b
11
, . . . , b
mn
se denominan las componentes o entradas de B. La
entrada que esta en la interseccion de la i-esima la con la j-esima columna se
denota por b
ij
, y la matriz B tambien se simboliza por B = [b
ij
]. La i-esima la de
B se denota por B
i
:= [b
i1
, . . . , b
in
], la j-esima columna se denota por
B
(j)
:=
_

_
b
1j
.
.
.
b
mj
_

_
.
La matriz B
T
= [b

ij
] de tama no n m denida por b

ij
:= b
ji
, para cada i y cada j,
se denomina la traspuesta de B. La matriz B se dice cuadrada si m = n.
Proposici on 1.2.2. El conjunto M
mn
(A) de todas las matrices de tama no mn
con entradas en el anillo A es un A-espacio vectorial respecto de las siguientes
operaciones: si B = [b
ij
], C = [c
ij
] M
mn
(A) y a A, entonces
B + C := [b
ij
+ c
ij
], B a := [b
ij
a].
M
mn
(A) es libre con base canonica E
ij

m,n
i=1,j=1
, donde
E
ij
:=
_

_
0
.
.
. 0
1
0
.
.
. 0
_

_
, (1.2.1)
es decir, en la matriz E
ij
la unica entrada no nula corresponde a la interseccion de
la i-esima la con la j-esima columna en donde esta ubicado el elemento 1. Ademas,
estas matrices satisfacen la siguiente regla para el producto:
E
ij
E
pq
=
_
E
iq
, j = p
0, j ,= p.
Demostracion. Dejamos los detalles de la prueba al lector. Indiquemos solamente la
notacion para la matriz nula y la representacion de cualquier matriz B de M
mn
(A)
en terminos de la base canonica:
1.2. MATRICES SOBRE ANILLOS 9
0 =
_

_
0 0
.
.
.
.
.
.
0 0
_

_
, B =

i,j
E
ij
b
ij
.
Denici on 1.2.3. Sean B = [b
ij
] M
mn
(A), C = [c
ij
] M
np
(A), se dene el
producto
BC := D = [d
ij
], d
ij
:=
n

i=1
b
ik
c
kj
, 1 i m, 1 j p.
Notemos que el producto de matrices se dene con la siguiente condicion de
compatibilidad: el n umero de columnas del primer factor coincide con el n umero de
las del segundo factor.
Proposici on 1.2.4. Sean B, C, D matrices compatibles para las operaciones indi-
cadas. Entonces
(i) (BC)D = B(CD).
(ii) B(C + D) = BC + BD; (B + C)D = BD + CD.
(iii) Si R es un anillo conmutativo y B, C son matrices con entradas en R, entonces
para cada r R se tiene que (B r)C = (BC) r = B(C r).
(iv) Sean B, C y D matrices como en la denicion 1.2.3. Entonces,
BC = [BC
(1)
BC
(p)
],
BC = [B
1
C B
m
C]
T
(v) Para cada 1 se dene la matriz identica de tama no n n sobre el anillo
A por
E = [e
ij
] :=
_

_
1 0
.
.
.
0 1
_

_
, e
ij
:=
_
1, i = j
0, i ,= j
Entonces, para cada matriz B M
mn
(A) se tiene que
EB = B, BE = B.
10 CAP

ITULO 1. MATRICES
(vi) Para cada n 1, M
n
(A) es un anillo. Si R es un anillo conmutativo, entonces
M
n
(R) es una R-algebra.
Demostracion. Todas las armaciones de esta proposicion son consecuencia directa
de las deniciones; dejamos su prueba la lector.
Las matrices constituyen un lenguaje computacional para el algebra lineal tal
como lo ilustra el siguiente teorema en el cual mostraremos la representacion de
transformaciones lineales por medio de matrices. Para el teorema necesitamos las
siguientes nociones (veanse [4], [5] y [6]).
Denici on 1.2.5. Sean G, H dos grupos, se dice que G es isomorfo a H, lo
cual se denota por G

= H, si existe una funcion biyectiva f : G H tal que
f(g g

) = f(g) f(g

) para cualesquiera elementos g, g

G. Sean A, B dos anillos,


se dice que A es isomorfo a B, lo cual se denota por A

= B, si existe una funcion


biyectiva f : A B tal que f(a + a

) = f(a) + f(a

), f(aa

) = f(a)f(a

) para
cualesquiera elementos a, a

A, y ademas f(1) = 1. Sea R un anillo conmutativo


y sean K, L dos R-algebras, se dice que K es isomorfa a L, lo cual se denota por
K

= L, si existe una funcion biyectiva f : K L tal que f(k +k

) = f(k) +f(k

),
f(k r) = f(k) r, f(kk

) = f(k)f(k

) para cualesquiera elementos k, k

K, r R,
y ademas f(1) = 1.
Teorema 1.2.6. Sea A un anillo arbitrario.
(i) Si V es un A-espacio libre con una base de n 1 elementos y W es un
A-espacio libre con una base de m elementos, entonces
Hom
A
(V, W)

= M
mn
(A) (isomorsmo de grupos).
Si A = R es un anillo conmutativo entonces el isomorsmo anterior es de
espacios vectoriales.
(ii) End
A
(V )

= M
n
(A) (isomorsmo de anillos).
(iii) Si R es un anillo conmutativo, entonces End
R
(V )

= M
n
(R) (isomorsmo de
algebras).
Demostracion. La idea central de la prueba del teorema es asignar a cada transfor-
macion lineal una matriz y, recprocamente, denir con cada matriz una transfor-
macion lineal.
Matriz asociada a una transformacion lineal : sea X = x
1
, . . . , x
n
una
base de V y sea Y = y
1
, . . . , y
m
una base de W; sea f : V W una t.l., entonces
1.2. MATRICES SOBRE ANILLOS 11
f determina una unica matriz m
X,Y
(f) := F := [f
ij
] M
mn
(A), llamada la matriz
de la tranformacion f en las bases X, Y , y denida por
f(x
j
) :=
m

i=1
y
i
.f
ij
, 1 j n. (1.2.2)
Transformacion lineal denida por una matriz: cada matriz F = [f
ij
]
M
mn
(A) determina una unica t.l. f : V W denida como en (1.2.2). Si en
particular V = A
n
y W = A
m
, entonces f se puede presentar matricialmente en la
siguiente forma:
f : A
n
A
m
a := [a
1
, . . . , a
n
]
T
Fa = F[a
1
, . . . , a
n
]
T
= F
(1)
a
1
+ + F
(n)
a
n
. (1.2.3)
(i) Por lo anterior es claro que la funcion
Hom
A
(V, W)
m
X,Y
M
mn
(A)
f m
X,Y
(f)
es un isomorsmo de grupos. Si A = R es un anillo conmutativo, la funcion m
X,Y
es un isomorsmo de espacios vectoriales.
(ii) Sea U un A-espacio libre con una base Z = z
1
, . . . , z
p
de p elementos y sea
g : W U otra t.l., veamos entonces que
m
X,Z
(gf) = m
Y,Z
(g)m
X,Y
(f). (1.2.4)
Sean F = m
X,Y
(f), G = m
Y,Z
(g) y H = m
X,Z
(gf); se tiene que
(gf)(x
j
) =
p

k=1
z
k
h
kj
= g(f(x
j
)) = g(
m

l=1
y
l
f
lj
)
=
m

l=1
(
p

k=1
z
k
g
kl
) f
lj
=
p

k=1
z
k
(
m

l=1
g
kl
f
lj
),
luego h
kj
=

m
l=1
g
kl
f
lj
, es decir, H = GF.
Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)
se obtiene que End
A
(V ) y M
n
(A) son anillos isomorfos. Notemos que m
X,X
(i
V
) :=
m
X
(i
V
) = E.
(iii) Esto es consecuencia directa de (i) y (ii).
12 CAP

ITULO 1. MATRICES
Observaci on 1.2.7. (i) Al considerar espacios vectoriales a izquierda algunos au-
tores acostumbran a disponer por las los coecientes de la expansion a traves
de una base. En forma mas precisa, sea X = x
1
, . . . , x
n
una base de V y sea
Y = y
1
, . . . , y
m
una base de W; sea f : V W una t.l., entonces f determina
una unica matriz m
X,Y
(f) := [f
ij
] M
nm
(A), denominada tambien la matriz de
la tranformacion f en las bases X, Y , y denida por
f(x
i
) :=
m

j=1
f
ij
y
j
, 1 i n. (1.2.5)
La identidad (1.2.4) se convierte en
m
X,Z
(gf) = m
X,Y
(f)m
Y,Z
(g). (1.2.6)
En efecto, usando la notacion de la demostracion del toerema 1.2.6 tenemos que
g(y
j
) =

p
k=1
g
jk
z
k
, 1 j m, m
Y,Z
(g) := [g
ij
] M
mp
(A), luego
(gf)(x
i
) =
m

j=1
f
ij
g(y
j
) =
m

j=1
p

k=1
f
ij
g
jk
z
k
.
Si utilizaramos tambien notacion izquierda para funciones, es decir, en lugar de
f(x) escribieramos xf, entonces la compuesta V
f
W
g
U debera denotarse fg,
en cuyo caso se tendra la relacion m
X,Z
(fg) = m
X,Y
(f)m
Y,Z
(g). Con esta notacion
tendramos en particular el isomorsmo de anillos End
A
(
A
V )

= M
n
(A). Sin em-
bargo, la notacion a izquierda para funciones es muy poco usada, esto trae como
consecuencia que en el teorema 1.2.6 los anillos End
A
(
A
V ) y M
n
(A) sean anti-
isomorfos. Pero si consideramos el anillo opuesto de M
n
(A) (vease [6]), entonces
tendremos el isomorsmo de anillos End
A
(
A
V )

= M
n
(A)
op
. Notemos adicionalmente
que una matriz F := [f
ij
] M
nm
(A) dene una t.l. dada por
A
1n
f
A
1m
(a
1
, . . . , a
n
) (a
1
, . . . , a
n
)F (1.2.7)
y la matriz de f en las bases canonicas coincide con F.
(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los
coecientes de la expansion por columnas y mantener la notacion usual de funciones
a derecha, en tal caso resulta
(gf)(x
j
) = g(
m

i=1
f
ij
y
i
) =
m

i=1
p

k=1
f
ij
g
ki
z
k
;
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 13
si cambiamos el anillo A por su anillo opuesto A
op
, entonces tendramos m
X,Z
(gf) =
m
Y,Z
(g)m
X,Y
(f), y en consecuencia el isomorsmo End
A
(
A
V )

= M
n
(A
op
). Otra
variante de esta alternativa es no usar el anillo opuesto, pero entonces la identidad
anterior dice que
m
X,Z
(gf) = (m
X,Y
(f)
T
m
Y,Z
(g)
T
)
T
. (1.2.8)
La matriz F M
rs
(S) dene un homomorsmo
S
s
f
S
r
a (a
T
F
T
)
T
(1.2.9)
y su matriz en las bases canonicas coincide con F. As pues, f : S
r
S
r
es un
isomorsmo si, y solo si, F
T
GL
r
(S). Finalmente, sea C M
r
(S); las columnas
de C constituyen una base de S
r
si, y solo si, C
T
GL
r
(S) (vease el corolario 1.3.5
mas adelante).
(iii) Notemos de todos modos que los valores asignados por la funcion f en
cada una de las dos opciones anteriores coinciden ya que la matriz F en (1.2.7) es
precisamente F
T
en (1.2.9).
(iv) Finalmente, si Aes un anillo conmutativo entonces la relacion (1.2.8) coincide
con (1.2.4) y tambien se tiene que (a
T
F
T
)
T
= Fa.
1.3. Inversa de una matriz y cambio de base
Denici on 1.3.1. Sea B M
nm
(A) una matriz; se dice que B es semi-invertible
si existe otra matriz B

M
mn
(A) tal que BB

= E y B

B = E. En tal caso se
dice que B

es la semi-inversa de B. Si n = m se dice que B es invertible y


B
1
:= B

es la inversa de B. El grupo de elementos invertibles del anillo M


n
(A)
se denota por GL
n
(A) y se denomina el grupo lineal general de orden n sobre el
anillo A.
Notemos que la semi-inversa de una matriz es unica. Ademas, si C M
mp
es
semi-invertible, entonces BC es semi-invertible con semi-inversa C

.
Corolario 1.3.2. Sea V un A-espacio libre con una base de n 1 elementos.
Entonces,
Aut
A
(V )

= GL
n
(A) (isomorsmo de grupos).
Demostracion. Esto es consecuencia del teorema anterior y los detalles de la prueba
los dejamos al lector.
El grupo GL
n
(A) y varios de sus subgrupos mas destacados seran estudiados
en forma detallada en el ultimo captulo del presente cuaderno. Pasamos ahora a
estudiar los cambios de bases en los espacios libres y a entender su efecto en las
representaciones matriciales de las transformaciones lineales.
14 CAP

ITULO 1. MATRICES
Proposici on 1.3.3. Sea V un espacio libre con base X = x
1
, . . . , x
n
y sea B =
[b
ij
] M
nm
(A). Entonces el conjunto
Y := y
j
=
n

i=1
x
i
.b
ij
[1 j m (1.3.1)
es una base de V si, y solo si, B es semi-invertible.
Demostracion. Para simplicar la prueba utilizaremos notacion matricial de tal for-
ma que la igualdad (1.3.1) la escribiremos como
[Y ] = [X]B
con [Y ] := [y
1
, . . . , y
m
].
) Si Y es una base de V cada elemento de X es combinacion lineal de los
elementos de Y , resulta entonces una matriz B

M
mn
(A) tal que [X] = [Y ]B

.
Por lo tanto , [Y ] = [X]B = [Y ]B

B, y por la independencia lineal de Y se tiene


que B

B = E. Por la simetra del problema, BB

= E.
) [X] = [X]E = [X]BB

= [Y ]B

, luego V = X) Y ) y entonces V = Y ).
Sean a
1
, . . . , a
m
A tales que y
1
a
1
+ +y
m
a
m
= 0; se tiene entonces que [Y ]F = 0,
donde F M
m
(A) es una matriz en la cual cada la es el vector [a
1
, . . . , a
m
]. Resulta
entonces [X]BF = 0, pero como X es l.i. entonces BF = 0, luego B

BF = 0, es
decir, F = 0, con lo cual a
1
= = a
m
= 0.
Denici on 1.3.4. La matriz B de la proposicion 1.3.3 es la matriz de cambio
de la base X a la base Y .
La matriz B

es la matriz de cambio de Y a X; notemos que B

es semi-invertible.
Esta situacion se presenta solamente en los anillos no dimensionales (vease [5] y la
observacion 1.3.10 mas adelante). Para anillos dimensionales n = m y la matriz de
cambio B es invertible.
Corolario 1.3.5. Sea B M
nm
(A); B es semi-invertible si, y solo si, las columnas
de B constituyen una base de A
m
. Si m = n, B es invertible si, y solo si, las columnas
de B constituyen una base de A
n
.
Demostracion. Basta tomar V = A
n
y X la base canonica de A
n
en la prueba de la
proposicion 1.3.3.
Ejemplo 1.3.6. La sola independencia la columnas de una matriz no garantiza que
sea semi-invertible. Consideremos por ejemplo la matriz cuadrada
B =
_
1 2
3 4
_
M
2
(Z),
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 15
notemos que B no es invertible como matriz entera ya que su inversa como matriz
real es
B
1
=
_
2 1
3
2

1
2
_
M
2
(Z);
notemos ademas que las columnas de B son l.i.
Denici on 1.3.7. Dos matrices P M
pq
(A) y Q M
mn
(A) son semi-equi-
valentes si existen matrices semi-invertibles D M
pm
(A) y C M
qn
(A) tales
que
Q = D

PC.
Si p = m y q = n se dice que P y Q son equivalentes si existen matrices invertibles
D GL
m
(A) y C GL
n
(A) tales que Q = D
1
PC, lo cual denotaremos por P Q.
Si p = m = q = n se dice que P y Q son similares si existe una matriz invertible
C GL
n
(A) tal que Q = C
1
PC, lo cual se denota por P Q.
Todas las relaciones de la denicion anterior son de equivalencia.
Proposici on 1.3.8. Sea f : V W una t.l, donde V es libre con bases X =
x
1
, . . . , x
n
, X

= x

1
, . . . , x

q
y W es libre con bases Y = y
1
, . . . , y
m
, Y

=
y

1
, . . . , y

p
. Sean P = m
X,Y
(f), Q = m
X

,Y
(f), C la matriz de cambio de X a X

y D la matriz de cambio de Y a Y

. Entonces,
Q = D

PC.
Si q = n y p = m entonces Q = D
1
PC. Si V = W, Y = X, Y

= X

, entonces
Q = C
1
PC.
Demostracion. Tenemos que
f(x
j
) =
m

k=1
y
k
.p
kj
, 1 j n
f(x

t
) =
p

r=1
y

r
.q
rt
, 1 t q
x

t
=
n

j=1
x
j
.c
jt
y

r
=
m

k=1
y
k
.d
kr
, 1 r p,
luego
16 CAP

ITULO 1. MATRICES
f(x

t
) =

n
j=1
f(x
j
).c
jt
=

n
j=1
(

m
k=1
y
k
.p
kj
).c
jt
=

m
k=1
y
k
.(

n
j=1
p
kj
c
jt
);
f(x

t
) =

p
r=1
(

m
k=1
y
k
.d
kr
).q
rt
=

m
k=1
y
k
.(

p
r=1
d
kr
q
rt
),
y puesto que Y es l.i, entonces PC = DQ, es decir, Q = D

PC.
Proposici on 1.3.9. Dos matrices P M
pq
(A) y Q M
mn
(A) son semiequi-
valentes si, y solo si, representan la misma transformacion lineal. Si q = n y p =
m, entonces P, Q M
mn
(A) son equivalentes si, y solo si, representan la misma
transformacion lineal. Si q = n = p = m, entonces P, Q M
n
(A) son similares si,
y solo si, representan la misma transformacion lineal.
Demostracion. ): sea Q = D

PC con D M
pm
(A) y C M
qn
(A) semi-
invertibles; P representa una t.l. A
q
f
A
p
en las bases canonicas X de A
q
y Y
de A
p
. Sea [Y

] := [Y ]D; como D es semi-invertible, entonces Y

es tambien una
base de A
p
(notemos que Y

esta conformada por las m columnas de D, luego


A
p

= A
m
). De igual manera, sea [X

] := [X]C, y X

es tambien una base de A


q
(X

esta conformada por las n columnas de C, luego A


q

= A
n
). De otra parte, Q tambien
representa una t.l. A
q
g
A
p
en las bases X

, Y

; se tiene entonces que m


X,Y
(f) = P
y m
X

,Y
(g) = Q, de donde m
X

,Y
(f) = D

m
X,Y
(f)C = D

PC = Q = m
X

,Y
(g), y
por lo tanto, f = g.
): esta parte corresponde la la proposicion 1.3.8.
Observaci on 1.3.10. (i) Un punto donde el algebra lineal sobre anillos se aparta del
algebra lineal clasica es en la existencia y tama no de las bases. En [6] se demuestra
que el Z-espacio de los n umeros racionales Q no es libre. En cuanto a la unicidad
de las bases, en general, podemos armar que en un espacio vectorial libre existen
innitas bases. Por ejemplo, en R
n
el conjunto X
a
= e
1
.a, . . . , e
n
, con a R0,
es una base. En Z
2
se tienen las siguientes bases,
(1, 0), (0, 1), (1, 0), (0, 1), (1, 0), (0, 1), (1, 0), (0, 1), (1, 1), (1, 2).
En el siguiente captulo veremos que (a, b), (c, d) es una base de Z
2
si, y solo si,
ad bc = 1. El problema de la unicidad entonces es mejor plantearlo en terminos
del tama no de las bases. En [6] se prueba que todo espacio vectorial libre nitamente
generado (f.g.) posee una base nita, y tambien que, en un espacio vectorial libre
todas las bases son nitas o bien todas son innitas. Ademas, para espacios de bases
innitas no hay problema con el tama no de las bases, todas tinen la misma cantidad
de elementos. Sin embargo, existen anillos A para los cuales se tiene la siguiente
propiedad: si V es un A-espacio de bases nitas, no necesariamente todas las bases
de V tienen el mismo n umero de elementos. Un ejemplo puede ser consultado en [6].
(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases de
V tienen el mismo n umero de elementos. Este n umero se denomina la dimension
1.4. MATRICES Y OPERACIONES ELEMENTALES 17
de V y se denota por dim
A
(V ). Se dice que A es un anillo dimensional si todos
sus A-espacios libres son dimensionales (en ingles IBN, invariant basis number). La
mayora de los anillos estudiados en algebra son dimensionales (vease [2] y [4]). Por
ejemplo, los anillos de division y los anillos conmutativos son dimensionales (esto lo
probaremos mas adelante).
(iii) Notemos que un anillo A es dimensional si, y solo si, las unicas matrices
semi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).
Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectoriales
libres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y solo
si, A es dimensional a izquierda (vease [4]). Ademas, en anillos dimensionales, semi-
invertible = invertible y semi-equivalente = equivalente.
(iv) En adelante en el presente cuaderno asumiremos que A es un anillo dimen-
sional.
1.4. Matrices y operaciones elementales
En el grupo GL
n
(A) se tienen tres tipos importantes de matrices que permiten
realizar cambios sobre las las y/o columnas de una matriz. Denimos en esta seccion
estas matrices invertibles especiales.
Denici on 1.4.1. Sea n 2. Se denen los siguientes tipos de matrices elemen-
tales.
(i) Matrices propiamente elementales:
T
ij
(a) := E + E
ij
a =
_

_
1
.
.
. a
.
.
.
.
.
.
1
_

_
, a A, i ,= j.
(ii) Permutaciones:
P
ij
:= E E
ii
E
jj
+ E
ij
+ E
ji
.
(iii) Diagonales:
D
i
(a) := E + E
ii
(a 1), a A

.
Proposici on 1.4.2. Las matrices elementales son invertibles,
18 CAP

ITULO 1. MATRICES
T
ij
(a)
1
= T
ij
(a), P
1
ij
= P
ij
, D
i
(a)
1
= D
i
(a
1
).
Demostracion. Ejercicio para el lector.
Denici on 1.4.3. El subgrupo de GL
n
(A) generado por todas las matrices propia-
mente elementales se denomina grupo elemental, y se denota por E
n
(A).
Las matrices elementales inducen las llamadas operaciones elementales sobre
las las y columnas de una matriz F M
mn
(A), m, n 2:
(i) El efecto de multiplicar F a la derecha por T
ij
(a) GL
n
(A) es sumar a la
j-esima columna de F la i-esima columna multiplicada a derecha por a. El
efecto de multiplicar F a la izquierda por T
ij
(a) GL
m
(A) es sumar a la
i-esima la la j-esima multiplicada a izquierda por a.
(ii) El producto FP
ij
, con P
ij
GL
n
(A) intercambia las columnas i-esima y j-
esima de F. P
ij
F, con P
ij
GL
m
(A), efect ua el correspondiente intercambio
de las.
(iii) La matriz FD
i
(a), con D
i
(a) GL
n
(A), se obtiene de F multiplicando la
i-esima columna de F a la derecha por a. D
i
(a)F, con D
i
(a) GL
m
(A), se
obtiene de F multiplicando la i-esima la de F por a a la izquierda.
Teniendo en cuenta que el producto de matrices invertibles es invertible, obtenemos
inmediatamente el siguiente resultado.
Corolario 1.4.4. Si la matriz G M
mn
(A) se obtuvo de F M
mn
(A) por
medio de operaciones elementales sobre las la y/o columnas de F, entonces G es
equivalente a F.
1.5. Ejercicios
1. Determine 10 bases diferentes en Z
2
distintas de la base canonica.
2. Determine 10 conjuntos diferentes en Z
2
cada uno de 2 elementos y l.d.
3. Sea K un cuerpo y sea V un K-espacio. Si x
1
, . . . , x
n
son vectores l.i. de V ,
demuestre que cada conjunto de n + 1 vectores de x
1
, . . . , x
n
) es l.d.
4. Demuestre que todo cuerpo K es un anillo dimensional.
5. Sea n 1 entero y sea R
n
[x] el conjunto de polinomios reales de grado menor
o igual a n. Demuestre que R
n
[x] es un R-espacio de dimension n + 1.
1.5. EJERCICIOS 19
6. Con la notacion del ejercicio anterior, sea X un subconjunto de R
n
[x] que
contiene para cada k = 0, 1, . . . , n un unico polinomio de grado k. Demuestre
que X es una base de R
n
[x].
7. Demuestre la armacion del ejemplo 1.1.17.
8. Sea f : V W una t.l. para la cual existe una funcion g : W V tal que
fg = i
W
y gf = i
V
. Demuestre que g es una t.l.
9. Compruebe que End
R
(R
2
) no es un anillo conmutativo.
10. Demuestre que M
2
(R) es una R-algebra no conmutativa.
11. Sea R un anillo conmutativo y R[x
1
, . . . , x
n
] el conjunto de polinomios en
n indeterminadas con coecientes en R. Demuestre que R[x
1
, . . . , x
n
] es una
R-algebra conmutativa.
12. Demuestre el corolario 1.3.2.
13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.
14. Demuestre que las relaciones de la denicion 1.3.7 son de equivalencia.
15. (vease [1], pag. 17) Sea A un anillo; un subconjunto no vaco I de A es un
ideal derecho de A si x + y I y xa I para cada x I y cada a A.
De manera similar se denen los ideales izquierdos de A. Demuestre que para
cada 1 r n 1, el conjunto
I =
_
0
A
_
conformado por todas las matrices en las cuales las primeras r las son nulas
es un ideal derecho de M
n
(A). De igual manera, demuestre que el conjunto
de matrices de M
n
(A) conformado por todas las matrices en las cuales las
primeras r columnas son nulas es un ideal izquierdo de M
n
(A).
16. Sea V un A-espacio y sea v V ; se dene
Ann
A
(v) := a A[v.a = 0.
Demuestre que Ann
A
(v) es un ideal derecho de A. Ademas, si
Ann
A
(V ) := a A[v.a = 0 para cada v V ,
20 CAP

ITULO 1. MATRICES
entonces Ann
A
(V ) es un ideal bilatero de A, es decir, Ann
A
(V ) es un ideal
izquierdo y derecho de A que cumple
Ann
A
(V ) =

vV
Ann
A
(v).
17. Sean V
1
, V
2
dos subespacios de un A-espacio V . Demuestre que
V
1
+ V
2
:= v
i
+ v
2
[v
1
V
1
, v
2
V
2

es un subespacio de V y que Ann


A
(V
1
+ V
2
) = Ann
A
(V
1
) Ann
A
(V
2
).
18. Sea V un A-espacio libre con una base de n elementos. Sea f : V V una
t.l. Muestre con un ejemplo que la sobreyectividad de f y la inyectividad no
son condiciones equivalentes.
19. Demuestre la proposicion 1.4.2.
20. Sea A un anillo y sea B M
n
(A); se dice que B es simetrica si B
T
= B,
y antisimetrica si B
T
= B. Demuestre que B + B
T
es simetrica y que
B B
T
es antisimetrica. Ademas, si 2 := 1 + 1 A

, entonces demuestre que


B es suma de una matriz simetrica y una matriz antisimetrica.
21. Sean P, Q matrices rectangulares o cuadradas, seg un corresponda, sobre un
anillo conmutativo R. Demuestre que (P +Q)
T
= P
T
+Q
T
; (PQ)
T
= Q
T
P
T
;
(P
1
)
T
= (P
T
)
1
.
22. Sean A
1
, . . . , A
n
anillos; demuestre que el producto cartesiano
A
1
A
n
:= (a
1
, . . . , a
n
)[a
i
A
i
, 1 i n
bajo las operaciones denidas por componenetes tiene estructura de anillo.
Demuestre ademas los siguientes isomorsmos de anillo y grupo, respectiva-
mente:
M
n
(A
1
A
n
)

= M
n
(A
1
) M
n
(A
n
),
GL
n
(A
1
A
n
)

= GL
n
(A
1
) GL
n
(A
n
).
23. Sea R un anillo conmutativo y sea B = [b
ij
] M
n
(R). Se dene la traza de B
por Tr(B) := b
11
+ + b
nn
. Demuestre las siguientes propiedades:
(i) Tr(BC) = Tr(CB).
(ii) Tr(B + C) = Tr(B) + Tr(C).
1.5. EJERCICIOS 21
(iii) Tr(B.r) = Tr(B)r, r R.
(iv) La traza es una t.l. sobreyectiva de M
n
(R) en R.
(v) ker(Tr) = X), donde X = E
ij
[i ,= j E
11
E
ii
[i ,= 1.
(vi) Tr(B
T
) = Tr(B).
(vii) Tr(P
1
BP) = Tr(B), para cada P GL
n
(R).
(viii) ker(Tr) = Y ), con Y = BC CB[B, C M
n
(R).
Captulo 2
Determinantes y sistemas de
ecuaciones lineales
En este captulo presentaremos la teora de determinantes sobre anillos conmutativos
arbitrarios y la usaremos para estudiar sistemas de ecuaciones lineales sobre estos
anillos. Si no se advierte lo contrario R denotara un anillo conmutativo.
2.1. Determinantes
El enfoque que daremos a la funcion determinante utiliza el grupo de permutaciones
de un conjunto nito, el cual trataremos a continuacion.
Denici on 2.1.1. Para cada n 1 sea S
n
el conjunto de todas las funciones biyec-
tivas del conjunto I
n
:= 1, 2, . . . , n. Cada una de tales funciones se denomina
permutacion del conjunto I
n
. Bajo la operacion de composicion de funciones , S
n
es claramente un grupo, y se le denomina grupo simetrico de grado n. Una per-
mutacion S
n
se llama ciclo de longitud m, 1 m n, si existen m elementos
diferentes
1
, . . . ,
m
I
n
tales que (
i
) =
i+1
para 1 i m 1, (
m
) =
1
y () = para cada I
n

1
, . . . ,
m
. Un ciclo de longitud 2 se denomina
trasposicion. Dos ciclos = (
1

m
) y = (
1

r
) se dicen disyuntos, si

1

m

1

r
= .
Enunciamos a continuacion algunas de las propiedades mas importantes del
grupo S
n
y de sus ciclos. La demostracion de estas puede ser consultada en [8]
y [4].
(i) Los ciclos disjuntos conmutan.
(ii) Cada permutacion de S
n
es el producto de ciclos disjuntos. La representacion
es unica salvo el orden.
22
2.1. DETERMINANTES 23
(iii) Cada permutacion en S
n
es producto de trasposiciones.
(iv) Si una permutacion S
n
tiene dos descomposiciones en productos de r y s
trasposiciones, entonces r es par si, y solo si, s es par.
(v) Una permutacion S
n
se denomina par, si se descompone en un n umero
par de trasposiciones. El conjunto A
n
de las trasposiciones pares de S
n
tiene
las siguientes propiedades: el producto de permutaciones para es par; la per-
mutacion identica es par; la inversa de una permutacion par es par. En otras
palabras, A
n
bajo la composicion es un grupo, llamado el grupo alternante
de grado n.
(vi) S
n
tiene n! elementos, mientras que A
n
posee
n!
2
.
Denici on 2.1.2. Sea n 1. Para cada B = [b
ij
] M
n
(R) se dene su determi-
nante como el elemento de R dado por
det B :=

Sn
(1)

b
1(1)
b
n(n)
, (2.1.1)
donde (1)

es 1 o 1, dependiendo si es par o impar, respectivamente.


A partir de ((2.1.1)) se pueden demostrar las principales propiedades de la funcion
determinante
det : M
n
(R) R
B det B.
Proposici on 2.1.3. Sea B = [b
ij
] M
n
(R). Entonces
det[B
1
, . . . , aB
i
, . . . , B
n
]
T
= a det B, a R.
Demostracion. Sea C = [c
ij
] la matriz obtenida de B multiplicando la i-esima la
por a R. Entonces
det C =

Sn
(1)

c
1(1)
c
i(i)
c
n(n)
=

Sn
(1)

b
1(1)
ab
i(i)
b
n(n)
= a det B.
Notese la aplicacion de la propiedad conmutativa.
24 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Proposici on 2.1.4. Sea B = [b
ij
] M
n
(R) y (a
1
. . . , a
n
) R
n
. Entonces
det
_

_
b
11
b
1n
b
i1
+ a
1
b
in
+ a
n
b
n1
b
nn
_

_
= det B + det
_

_
b
11
b
1n
a
1
a
n
b
n1
b
nn
_

_
.
Demostracion. Sea C = [c
ij
] M
n
con
c
rs
=
_
b
rs
, r ,= i
b
is
+ a
s
, r = i.
Entonces,
det C =

Sn
(1)

b
1(1)
(b
i(i)
+ a
(i)
) b
n(n)
= det B + det
_

_
b
11
b
1n
a
1
a
n
b
n1
b
nn
_

_
.
Proposici on 2.1.5. Si dos las de una matriz son iguales entonces su determinante
es nulo.
Demostracion. Sea B = [b
ij
] M
n
(R) tal que B
r
= B
s
con r ,= s. Sea =
(rs) S
n
y A
n
el grupo de permutaciones pares. Sea A
n
:= [ A
n
.
Notese que [A
n
[ =
n!
2
y que cada permutaci on de A
n
es impar. resulta entonces
S
n
= A
n

A
n
, con lo cual podemos desarrollar el determinante de B de la siguiente
manera:
det B =

An
(1)

b
1(1)
b
n(n)
+

An
(1)

b
1(1)
b
n(n)
=

An
[(1)

b
1(1)
b
n(n)
+ (1)

b
1(1)
b
n(n)
].
Observemos con mayor detalle cada termino de la anterior suma:
(1)

b
1(1)
b
r(r)
b
s(s)
b
n(n)
+ (1)

b
1(1)
b
r(r)
b
s(s)
b
n(n)
(2.1.2)
Para i ,= r, s, b
i(i)
= b
i(i)
; b
r(r)
= b
s(r)
= b
s(s)
; b
s(s)
= b
r(s)
= b
r(r)
; (1)

y (1)

tienen signo diferente. Por lo tanto la suma de 2.1.2 es nula, obteniendose


que det B = 0.
2.1. DETERMINANTES 25
Proposici on 2.1.6. Si en una matriz se intercambian dos las el determinante
cambia de signo.
Demostracion. Sean B, C M
n
(R), donde C
r
= B
s
, C
s
= B
r
para r ,= s, y C
i
= B
i
para i ,= r, s. Considerese la matriz D = [B
1
, . . . , B
r
+ B
s
, . . . , B
s
+ B
r
, . . . , B
n
]
T
.
De acuerdo a 2.1.5 det D = 0, pero por 2.1.4 se tiene que
0 = det D =det[B
1
, . . . , B
r
, . . . , B
s
+ B
r
, . . . , B
n
]
T
+
det[B
1
, . . . , B
s
, . . . , B
s
+ B
r
, . . . , B
n
]
T
=det[B
1
, . . . , B
r
, . . . , B
s
, . . . , B
n
]
T
+ det[B
1
, . . . , B
r
, . . . , B
r
, . . . , B
n
]
T
+
det[B
1
, . . . , B
s
, . . . , B
s
, . . . , B
n
]
T
+ det[B
1
, . . . , B
s
, . . . , B
r
, . . . , B
n
]
T
=det B + det C.
Corolario 2.1.7. Si la matriz C M
n
(R) se obtuvo de B M
n
(R) mediante una
permutacion de las, entonces det C = (1)

det B.
Demostracion. Consecuencia directa de 2.1.6.
Proposici on 2.1.8. Sea B M
n
(R). Entonces
det[B
1
, . . . , B
r
+ aB
s
, . . . , B
s
, . . . , B
n
]
T
= det B, con a R, r ,= s.
En consecuencia, si una la es nula el determinante es nulo.
Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.5.
De la denicion y de las propiedades establecidas se obtienen los siguientes re-
sultados:
(i) det E = 1.
(ii) det D
i
(a) = a, a R.
(iii) det P
ij
= 1 para i ,= j.
(iv) det T
ij
(a) = 1, a R.
Teorema 2.1.9. Para B, C M
n
(R) se cumple que
det(BC) = (det B)(det C). (2.1.3)
26 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Demostracion. Considerese la matriz D M
n
(R) cuyas las se denen por
D
i
:= b
i1
C
1
+ + b
in
C
n
, 1 i n.
Aplicando 2.1.3 y 2.1.4 a la primera la de D obtenemos
det D =
n

j=1
b
ij
det[C
j
, b
21
C
1
+ + b
2n
C
n
, . . . , b
n1
C
1
+ + b
nn
C
n
]
T
Procediendo de manera analoga con las demas las resulta
det D =

j
1
,...,jn
b
1j
1
b
2j
2
b
njn
det[C
j
1
, . . . , C
jn
]
T
, (2.1.4)
donde j
1
, . . . , j
n
recorren independientemente los valores de 1 a n. Para valores
iguales de dos ndices el determinante det[C
j
1
, . . . , C
jn
] es nulo. As pues, en (2.1.4)
podemos suponer que los subndices j
1
, . . . , j
n
son diferentes. Esto hace que tengamos
una correspondencia biyectiva entre S
n
las n-plas (j
1
, . . . , j
n
) de entradas diferentes
entre s. Resulta entonces
det D =

Sn
b
1(1)
b
n(n)
det[C
(1)
, . . . , C
(n)
]
T
,
aplicando el corolario 2.1.7 resulta
det D =

Sn
(1)

b
1(1)
b
n(n)
det[C
1
, . . . , C
n
]
T
, es decir,
det D = (det B)(det C).
De este teorema se desprenden algunas conclusiones importantes.
Corolario 2.1.10. (i) Si B GL
n
(R), entonces det B R

y ademas det B
1
=
(det B)
1
.
(ii) Matrices similares tienen el mismo determinante.
(iii) Los anillos conmutativos son dimensionales.
Demostracion. Las dos primeras armaciones son evidentes.
(iii) Sea V un R-espacio libre con bases X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m
.
Supongase que m ,= n; por ejemplo m > n. Sea B M
nm
(R) la matriz de cambio
de X a Y . Por 1.3.3, existe B

M
mn
(R) tal que B

B = E (identica de orden m).


Sean

B,

M
m
(R) las matrices obtenidas de B y B

adjuntando columnas y las


nulas respectivamente. Entonces

B

B = E, pero det E = 1 = det

det

B = 0 ya
que

B tiene las nulas.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 27
El punto (ii) del corolario anterior induce la siguiente denicion.
Denici on 2.1.11. Si f : V V es una transformacion lineal de un espacio de
dimension nita, entonces se dene el determinante de f como el determinante
de la matriz de f en cualquier base.
La funcion determinante ha sido introducida a traves de las las de las matrices.
Para mostrar que el tratamiento por columnas es analogo, basta probar que para
cada B M
n
(R) se tiene que
det B = det B
T
. (2.1.5)
En efecto, sea B
T
= [b

ij
] con b

ij
= b
ij
. Notese que S
n
es par s, y solo si,

1
S
n
lo es; ademas, cuando recorre S
n
,
1
tambien lo hace. Por tanto,
det B =

Sn
(1)

b
1(1)
b
n(n)
=

Sn
(1)

(1)1
b

(n)n
.
Sea (i
1
) = 1, (i
2
) = 2,. . . , (i
n
) = n, reordenando el producto b

(1)1
b

(n)n
se
tiene que
det B =

Sn
(1)

(i
1
)i
1
b

(in)in
=

Sn
(1)

1
1
(1)
b

n
1
(n)
=

1
Sn
(1)

1
1
(1)
b

n
1
(n)
.
En total,
det B =

Sn
(1)

1(1)
b

n(n)
= det B
T
2.2. Determinantes y funciones multilineales
Consideramos en seguida la caracterizacion de los determinantes a traves de
cuatro propiedades basicas.
28 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Denici on 2.2.1. Sea V un R-espacio y n 1. Una funcion multilineal sobre
V de n argumentos es una aplicacion
T : V V R,
que es lineal en cada uno de sus argumentos, es decir,
(i) T(v
i
, . . . , v
i
+ v

i
, . . . , v
n
) = T(v
1
, . . . , v
i
, . . . , v
n
) + T(v
1
, . . . , v

i
, . . . , v
n
), para
cada 1 i n.
(ii) T(v
1
, . . . , v
i
a, . . . , v
n
) = T(v
1
, . . . , v
i
, . . . , v
n
)a, a R, para cada 1 i n.
La funcion se dice alternada si
(iii) T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
) = 0, para v
i
= v
i+1
y cada 1 i n 1;
y antisimetrica, si
(iv) T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
) = T(v
1
, . . . , v
i+1
, v
i
, . . . , v
n
), para cada 1 i n.
Proposici on 2.2.2. Toda funcion multilineal alternada es antisimetrica. Si 2 :=
1 + 1 R

, entonces el recproco es valido.


Demostracion.
T(v
1
, . . . , v
i
+ v
i+1
, v
i
+ v
i+1
, . . . , v
n
) = 0
=T(v
1
, . . . , v
i
, v
i
+ v
i+1
, . . . , v
n
) +T(v
1
, . . . , v
i+1
, v
i
+ v
i+1
, . . . , v
n
)
=T(v
1
, . . . , v
i
, v
i
, . . . , v
n
) +T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
)+
T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
) +T(v
1
, . . . , v
i+1
, v
i+1
, . . . , v
n
),
de donde
T(v
1
, . . . , v
i
, v
i+1
, . . . , v
n
) = T(v
1
, . . . , v
i+1
, v
i
, . . . , v
n
).
Para el recproco basta considerar
T(v
1
, . . . , v
i
, v
i
, . . . , v
n
) = T(v
1
, . . . , v
i
, v
i
, . . . , v
n
),
de donde 2T(v
1
, . . . , v
i
, v
i
, . . . , v
n
) = 0.
Proposici on 2.2.3. La funcion determinante denida en (2.1.1), es una funcion
multilineal alternada de sus las (y columnas).
Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.6.
Teorema 2.2.4. Sea T : M
n
(R) R es una funcion multilineal y alternada re-
specto de las las, tal que T(E) = 1. Entonces T = det.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 29
Demostracion. Sean B, C M
n
(R), tales C
r
= B
s
, C
s
= B
r
para r ,= s y C
i
= B
i
para i ,= r, s. Entonces T(C) = T(B): en efecto, supongase por ejemplo que s > r.
La matriz C es el resultado de intercambiar la r-esima y s-esima las de B. Notese
que este intercambio se logra aplicando 2(s r) 1 veces la propiedad (iv) de 2.2.1,
la cual podemos usar en virtud de 2.2.2. Puesto que toda permutacion S
n
es producto de transposiciones , entonces de lo demostrado hace un momento se
obtiene: si la matriz C M
n
(R) se obtuvo de B M
n
(R) mediante una permutacion
de sus las, entonces T(C) = (1)

T(B).
Antes de emprender la prueba propiamente, notese que si la matriz B tiene dos las
iguales, entonces T(B) = 0: si las las son consecutivas no hay algo por mostrar.
De no ser as, aplicamos una permutacion adecuada para que lo sean, y entonces
usamos lo probado hace un momento.
Sea B = [b
ij
] M
n
(R) y e
i
= (0, . . . , 1, . . . , 0) para 1 i n. B puede ser
considerado como una elemento de R
n
R
n
notando que B = [

n
j=1
b
1j

e
j
, . . . ,

n
j=1
b
nj
e
j
]. De esto se sigue que
T(B) =T[
n

j=1
b
1j
e
j
, . . . ,
n

j=1
b
nj
e
j
]
=
n

j=1
b
1j
T[e
j
, . . . ,
n

j=1
b
nj
e
j
]
= =
=

j
1
,...,jn
b
1j
1
bnj
n
T[e
j
1
, . . . , e
jn
],
donde j
1
, . . . , j
n
recorren independientemente valores de 1 a n. El resto de la prueba
es similar a la demostracion del teorema 2.1.9.
La proposicion 2.2.3 y el teorema 2.2.4 garantizan la existencia y unicidad de
una funcion determinante.
Presentaremos a continuacion un resultado antiguo relativo a determinantes pero
con aplicaciones recientes. Sea A M
mn
(R) y A
_
i
1
, . . . , i
k
j
1
, . . . , j
k
_
la submatriz de A de
orden k k, conformada por las las i
1
, . . . , i
k
y las columnas j
1
, . . . , j
k
. Se tiene
entonces la siguiente formula.
Proposici on 2.2.5 (F ormula de Cauchy-Binet). Sean A M
mn
(R), B
M
mp
(R) matrices sobre R y C M
mp
(R) su producto. Entonces,
det C
_
i
1
, . . . , i
k
j
1
, . . . , j
k
_
=

det A
_
i
1
, . . . , i
k
r
1
, . . . , r
k
_
det B
_
r
1
, . . . , r
k
j
1
, . . . , j
k
_
,
30 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


donde la suma se extiende a todos los subconjuntos r
1
, . . . , r
k
de I
n
= 1, 2, . . . , n
tales que 1 r
1
< r
2
< < r
k
n.
Demostracion. Ejercicio para el lector.
2.3. Menores y cofactores
La teora de determinantes puede ser emprendida por medio de los llamados menores
de las matrices. La construccion en este caso la efectuamos por induccion sobre el
tama no n de las matrices. Apoyandonos en el teorema 2.2.4, estableceremos que la
nueva denicion coincide con la dada en ((2.1.1)) de la seccion anterior.
Denici on 2.3.1. Denimos inductivamente una funcion
T : M
n
(R) R
de la siguiente manera:
(i)
T
1
: M
1
(R) R
a T
1
(a) := a
(ii)
T
2
: M
2
(R) R
_
b
11
b
12
b
21
b
22
_
b
11
T
1
(b
22
) b
21
T
1
(b
12
) = b
11
b
22
b
21
b
12
(iii) Se supone denida una funcion
T
n1
: M
n1
(R) R
B T
n1
(B)
(iv) Sea B = [b
ij
] M
n
(R). Se denomina menor del elemento b
ij
a la imagen
mediante T
n1
de la matriz obtenida eliminando la i-esima la y la j-esima
columna de B. Dicho menor lo denotaremos por M
ij
. Denimos entonces
T : M
n
(R) R
B
n

i=1
(1)
i+1
b
i1
M
i1
. (2.3.1)
2.3. MENORES Y COFACTORES 31
Se dice que la funcion T se ha denido por medio de los menores de la primera
columna.
Proposici on 2.3.2. La funcion T de la denicion 2.3.1 es multilineal y alternada
de sus las. Ademas T(E) = 1.
Demostracion. La prueba de las cuatro propiedades requeridas se hace por induccion
sobre n. Los casos n = 1, 2 se demuestran directamente a partir de las deniciones
de T
1
y T
2
. Supongase entonces que T
n1
satisface las cuatro propiedades. Sea
E = (e
ij
) la identica de orden n. Puesto que e
ij
= 0 para i ,= 1, de (2.3.1) resulta
T(E) = e
11
M
11
. Pero M
11
= T
n1
(E
n1
) donde E
n1
denota la identica de tama no
n 1. Por induccion T(E) = 1.
Sea B = [b
ij
] M
n
(R), v = (a
1
, . . . , a
n
) R
n
y C = [c
ij
] = (B
1
, . . . , B
r
+
v, . . . , B
n
)
T
. Por (2.3.1), T(C) =

n
i=1
(1)
i+1
c
i1
M

i1
, donde M

i1
es el menor de
c
i1
. Podemos escribir entonces
T(C) =
n

i=1
i=r
(1)
i+1
c
i1
M

i1
+ (1)
r+1
(b
r1
+ a
1
)M
r1
=
n

i=1
i=r
(1)
i+1
b
i1
[M
i1
+T
n1
(F)] + (1)
r+1
(b
r1
+ a
1
)M
r1
,
donde F es la matriz obtenida de C suprimiendo la primera columna y la i-esima
la. Resulta entonces
T(C) = T(B) +T[B
1
, . . . , v, . . . , B
n
].
Sean ahora B = [b
ij
] M
n
(R) y C = [c
ij
] = [B
1
, . . . , aB
r
, . . . , B
n
]
T
, a R. Entonces
T(C) =
n

i=1
(1)
i+1
c
i1
M

i1
=
n

i=1
i=r
(1)
i+1
b
i1
aM
i1
+ (1)
r+1
b
r1
aM
r1
=aT(B).
Sean por ultimo B = [b
ij
] M
n
(R) tal que B = [B
1
, . . . , B
r
, B
r
, . . . , B
n
]
T
. Entonces
T(B) =
n

i=1
i=r,r+1
(1)
i+1
b
i1
M
i1
+ (1)
r+1
b
r1
M
r1
+ (1)
r+2
M
r+1,1
=0 + (1)
r+1
[b
r1
M
r1
b
r1
M
r1
],
dado que M
r1
= M
r+1,r
. De esta manera, T(B) = 0.
32 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Del teorema 2.2.4 se desprende inmediatamente que la funcion T en (2.3.1)
coincide con la funcion denida en (2.1.1).
Como habiamos mencionado antes, la funcion T se denio mediante los menores
de la primera columna. Sin embargo, tambien podemos denir la funcion T a traves
de los menores de cualquier columna, y demostrar de manera analoga la proposicion
2.3.2. De esto, y teniendo en cuenta que det(B
T
) = det(B), resulta que
det B =
n

i=1
(1)
i+j
b
ij
M
ij
, 1 j n (2.3.2)
det B =
n

j=1
(1)
j+i
b
ij
M
ij
, 1 i n (2.3.3)
Denici on 2.3.3. Sea B = [b
ij
] M
n
(R). El elemento B
ij
denido mediante
B
ij
:= (1)
i+j
M
ij
,
se denomina el complemento algebraico de b
ij
. La matriz Cof(B) de los com-
plementos algebraicos
Cof(B) = [B
ij
],
se denomina matriz cofactor de B. La transpuesta Cof(B)
T
de la matriz cofactor
de denomina la adjunta de B, y se denota por Adj(B).
Teorema 2.3.4. Sea B M
n
(R). Entonces,
(i) BAdj(B) = Adj(B)B = det(B)E.
(ii) B GL
n
(R) si, y solo si, det(B) R

. En tal caso
B
1
= (det B)
1
Adj(B).
Demostracion. (i) Probaremos inicialmente las siguientes formulas:
b
i1
B
j1
+ + b
in
B
jn
=
_
0, i ,= j,
det B, i = j.
(2.3.4)
b
1j
B
1i
+ + b
nj
B
ni
=
_
0, i ,= j,
det B, i = j.
(2.3.5)
Las pruebas en ambos casos son analogas, por ello solo analizaremos (2.3.4). El caso
i = j corresponde a (2.3.3). Sea pues i ,= j y considerese la matriz C = [c
ij
] obtenida
2.3. MENORES Y COFACTORES 33
de B reemplazando la j-esima la de B por la i-esima. Entonces calculando det C
por la j-esima la tenemos
0 = det C =
n

k=1
(1)
k+j
b
jk
M
jk
=
n

k=1
b
ik
B
jk
.
Sea ahora C = [c
ij
] = BAdj(B). Entonces,
c
ij
=
n

k=1
b
ik
B
jk
_
0, i ,= j,
det B, i = j
,
de donde BAdj(B) = det(B)E. De (2.3.5) resulta tambien det(B)E = Adj(B)B.
(ii) Es consecuencia de (i) y del corolario 2.1.10
Del teorema anterior se desprenden algunas consecuencias interesantes. Sean
B, C M
n
(R) tales que BC = E. entonces det B R

, con lo cual B GL
n
(R) y
CB = E.
La funcion
det : GL
n
(R) R

B det B
es un homomorsmo sobreyectivo de grupos (o equivalentemente, un isomorsmo
no necesariamente inyectivo).
Denici on 2.3.5. El conjunto de matrices de GL
n
(R) cuyo determinante es 1,
es decir, el n ucleo del homomorsmo det es un subgrupo normal de GL
n
(R), de-
nominado el grupo especial lineal de dimension n sobre R, y se denota por
SL
n
(R).
SL
n
(R) constituye otro de los grupos de matrices que estudiaremos en el ultimo
captulo. Se tienen ademas las siguientes propiedades:
E
n
(R) SL
n
(R) GL
n
(R), GL
n
(R)/SL
n
(R)

= R

, (2.3.6)
donde E
n
(R) es el grupo elemental generado por todas las transvecciones (vease
la denicion 1.4.3). Se puede probar que para n 3, E
n
(R) SL
n
(R). Ademas,
existen clases importantes de anillos conmutativos para los cuales el grupo especial
y el elemental coinciden. Sobre esto volveremos en el ultimo captulo (vease tambien
[12]). Por ahora veamos las siguientes propiedades para cuerpos.
Proposici on 2.3.6. Sea K un cuerpo. Entonces,
(i) GL
n
(K) = T
ij
(a), D
n
(b), 1 i, j n, i ,= j, a K, b K

).
34 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


(ii) E
n
(K) = SL
n
(K).
Demostracion. (i) Induccion sobre n. Para n = 1 no hay algo por demostrar. Sea
n = 2 y
_
a b
c d
_
GL
n
(K); no es posible que a = 0 = c; sea c ,= 0, entonces
_
1
1a
c
0 1
_ _
a b
c d
_
=
_
1 b

c d
_
, b

= b +
(1a)d
c
,
_
1 0
c 1
_ _
1 b

c d
_
=
_
1 b

0 d

_
, d

= b

c + d,
_
1 b

0 d

_ _
1 b

0 1
_
=
_
1 0
0 d

_
,
de donde,
_
a b
c d
_
=
_
1
a1
c
0 1
_ _
1 0
c 1
_ _
1 0
0 d

_ _
1 b

0 1
_
;
notese que d

,= 0, pues de lo contrario d = b

c =
bc+dab
c
c y as bc ad = 0, esto
ultimo implica que b =
d
c
a, y como d =
d
c
c tenemos que las columnas de la matriz son
l.d. contradiciendo nuestra hipotesis inicial. Sea D =
_
_
d
11
d
1n
d
n1
d
nn
_
_
GL
n
(K);
existe 1 j n tal que d
j1
,= 0; entonces
T
1j
(
1 d
11
d
j1
)D =
_

_
1 d

12
d

1n
d

21
d

22
d

2n
d

n1
d

n2
d

nn
_

_
,
mediante operaciones elementales del tipo T
ij
reducimos esta ultima matriz a una
de la forma
_
1 0
0 D

_
donde D

GL
n1
(K); mediante induccion y despejando como
hicimos en el caso n = 2 completamos la prueba (notese que en la factorizacion
de de D solo aparece una matriz diagonal). Por otra parte, si c = 0 pero a ,= 0,
realizamos la siguiente operacion elemental previamente:
_
1 0
1 1
_ _
a b
0 d
_
=
_
a b
a b + d
_
con a ,= 0.
(ii) Esto se obtiene de (i) y (2.3.6).
Otras consecuencias de la teora de determinantes son las siguientes.
Teorema 2.3.7. Sea V un R-espacio libre de dimension nita n 1. Tenemos,
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 35
(i) Si X es un sistema de generadores de V con n elementos, entonces X es una
base de V .
(ii) Un conjunto X de generadores de V con r 1 elementos es minimal si V
no se puede generar con menos de R elementos. Si X es minimal, entonces X
es una base de V y [X[ = n. En particular, V no se puede generar con menos
de n elementos, es decir, dimV = minimal de generadores de V .
Demostracion. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con [X[ = n,
no necesariamente X resulta ser una base de V . Veremos ahora que si V = X) y
[X[ = n, entonces X es una base de V . En efecto, sean Y = y
1
, . . . , y
n
un base
de V , y r
1
. . . , r
n
R tales que x
1
r
1
+ + x
n
r
n
= 0, entonces [X][r]
T
= 0;
sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C M
n
(R).
De esta forma, [Y ]B[r]
T
= 0 de donde B[r]
T
= 0; ademas, [Y ] = [Y ]BC y en
consecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) R

y por
tanto B GL
n
(R); as, CB = E y CB[r]
T
= 0, de donde se concluye que [r]
T
= 0.
(ii) Como r es minimal necesariamente r n. Supongamos que r < n; como en (i),
sea Y = y
1
, . . . , y
n
una base de V , entonces [X] = [Y ]B para alguna B M
nr
(R)
y [Y ] = [X]C para cierta matrice C M
rn
(R); as [Y ] = [Y ]BC, y por tanto,
BC = E. Sean B
0
:= [B [ 0] M
n
(R) y C
0
:= [
C
0
] M
n
(R), entonces B
0
C
0
= E
y, en consecuencia, det(B
0
) det(C
0
) = 1; pero det(C
0
) = 0 lo que es claramente una
contradiccion, y as necesariamente r = n. De (i) se sigue que X es una base.
Teorema 2.3.8. Sea R un anillo conmutativo cualquiera y sea f : R
n
R
n
un
homomorsmo sobreyectivo. Entonces f es biyectivo.
Demostracion. Sea X = e
1
, . . . , e
n
la base canonica de R
n
; entonces existen
a
1
, . . . , a
n
R
n
tales que f(a
i
) = e
i
para 1 i n. Sea g : R
n
R
n
el homomors-
mo dado por g(e
i
) = a
i
para 1 i n, entonces fg = i
R
n; as m
X
(fg) = FG = E,
de modo que det(F) R

y, por tanto, F es invertible. En consecuencia, f es un


homomorsmo biyectivo.
Ejemplo 2.3.9. A un en DIPs inyectividad no implica sobreyectividad: basta con-
siderar la aplicacion f : Z Z dada por f(a) := 2a; claramente esta aplicacion es
un homomormo inyectivo pero no sobre.
2.4. Ideales, rango y sistemas de ecuaciones
Denici on 2.4.1. Sea R un anillo conmutativo. Se denomina sistema lineal de
ecuaciones en n indeterminadas y m ecuaciones, al conjunto de ecuaciones
a
11
x
1
+ + a
1n
x
n
= b
1
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ + a
mn
x
n
= b
m
(2.4.1)
36 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


con a
11
, . . . , a
mn
, b
1
, . . . , b
m
R. Los elementos a
ij
se denominan coecientes del
sistema, los b
i
se denominan los terminos independientes del sistema, esto para
1 i m y 1 j n, y x
1
, . . . , x
n
representan elementos de R por determinar. Si
A = [a
ij
] M
nm
(R) es la matriz de coecientes del sistema, X := [x
1
, . . . , x
n
]
T
y
B := [b
1
, . . . , b
m
]
T
, el sistema (2.4.1) puede escribirse matricialmente en la forma
AX = B (2.4.2)
El sistema (2.4.2) se dice homogeneo si B = 0. Se denomina solucion del sistema
(2.4.2) a una matriz columna X
0
= [x
0
1
, . . . , x
0
n
], x
0
i
R, tal que AX
0
= B. (2.4.2)
se dice compatible (o soluble) si posee al menos una solucion, de los contrario se
denomina incompatible. Un sistema compatible con mas de una solucion se llama
indeterminado. Sea A

X = B

otro sistema de orden mn sobre R; AX = B y


A

X = B

se dicen equivalentes, si ambos son incompatibles, o bien siendo ambos


compatibles, tienen el mismo conjunto de soluciones. Es claro que esta relacion es
de equivalencia. La matriz (A [ B) de orden m(n + 1) obtenida de A adjuntando
B como ultima columna, se denomina matriz ampliada del sistema (2.4.2).
El proposito de esta seccion es estudiar la compatibilidad y determinabilidad de
los sistemas lineales de ecuaciones con coecientes en un anillo conmutativo arbi-
trario
Supongamos inicialmente que el sistema (2.4.2) es cuadrado, es decir, m = n.
Multiplicando (2.4.2) por la adjunta de A resulta
Adj(A)AX = Adj(A)B
det(A)[x
1
, . . . , x
n
]
T
=
_

n
k=1
(1)
k+1
M
k1
b
k
.
.
.

n
k=1
(1)
k+n
M
kn
b
k
_

_
.
Entonces,
det(A)x
j
=
n

k=1
(1)
k+j
M
kj
b
k
,
es decir,
det(A)x
j
= det
_

_
a
11
a
1,j1
b
1
a
1,j+1
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n,j1
b
n
a
n,j+1
a
nn
_

_
(2.4.3)
para cada 1 j n, es decir, det(A)x
j
= det[A
1
A
j1
BA
j+1
A
n
]. Notese que
si det(A) R

, entonces el sistema cuadrado AX = B es determinado. En tal caso,


(2.4.3) se conoce como la regla de Cramer, con X = A
1
B.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 37
Pasamos ahora a considerar el caso general de un sistema rectangular como en
(2.4.2). Comencemos por recordar el concepto de ideal de un anillo conmutativo R.
Denici on 2.4.2. Un subconjunto no vaco I de R se denomina ideal de R si
(i) Para cualesquiera a, b I su suma a + b I.
(ii) Para cada a I y cada r R el producto ar I.
En otras palabras, los ideales de R son los subespacios del R-espacio canonico
R
1
. Podemos entonces hablar del ideal generado por un conjunto (nito o innito)
X de elementos de R. Sea A = [a
ij
] M
nn
(R). Para cada 1 k mnm, n, sea
I
k
(A) el ideal generado por los determinantes de todas las submatrices de orden kk
de A. Se dene ademas I
k
(A) := R para k 0 e I
k
(A) := 0 para k > mnm, n.
I
k
(A) se denomina el k-esimo ideal determinante de la matriz A.
Notese que se tiene la cadena
= I
1
(A) = R = I
0
(A) I
1
(A) I
mn{m,n}
I
mn{m,n}+1
= 0 = .
Presentamos enseguida el primer criterio de necesidad para la compatibilidad de un
sistema.
Proposici on 2.4.3. Si el sistema (2.4.2) tiene solucion, entonces los ideales de-
terminantes de A coiniciden con los ideales determinantes de la matriz ampliada
(A [ B).
Demostracion. Podemos asumir que m n: en efecto, si m > n, agregando inde-
terminadas x
n+1
, . . . , x
m
con coecientes nulos y columnas a la matriz A, obten-
emos un nuevo sistema A

= B con A

= (A [ 0); notese que X es solucion


de AX = B si, y solo si, X

=
_

_
X
x
n+1
.
.
.
x
m
_

_
es solucion de A

= B. Ademas,
I
k
(A) = I
k
(A

) e I
k
(A [ B) = I
k
(A

[ B), para todo k Z. Por lo tanto, dado


k Z, I
k
(A

) = I
k
(A

[ B) si, y solo si, I


k
(A) = I
k
(A [ B). Supondremos entonces
que m n; para k 0 o k > mnm, n = m se tiene que I
k
(A) = I
k
(A [ B). Sea
entonces 1 k mnm, n; es claro que I
k
(A) I
k
(A [ B). Sea s el determinante
de una submatriz de (A [ B) de tama no k k; si toda la submatriz esta incluida
en A se sigue de inmediato que s I
k
(A). Supongamos entonces que la submatriz
incluye la columna B:
s = det
_

_
a
i
1
j
1
a
i
1
j
k1
b
i
1
a
i
2
j
1
a
i
2
j
k1
b
i
2
.
.
.
.
.
.
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k1
b
i
k
_

_
.
38 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Sea X = [x
1
, . . . , x
n
] una solucion de AX = B, entonces
b
i
1
= a
i
1
1
x
1
+ + a
i
1
n
x
n
.
.
.
.
.
.
.
.
.
.
.
.
b
i
k
= a
i
k
1
x
1
+ + a
i
k
n
x
n
Aplicando las propiedades de la funcion determinante obtenemos
s =x
1
det
_

_
a
i
1
j
1
a
i
1
j
k1
a
i
1
1
.
.
.
.
.
.
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k1
a
i
k
1
_

_
+ +
x
n
det
_

_
a
i
1
j
1
a
i
1
j
k1
a
i
1
n
.
.
.
.
.
.
.
.
.
.
.
.
a
i
k
j
1
a
i
k
j
k1
a
i
k
n
_

_
.
De esta forma s resulta ser una combinacion lineal de subdeterminantes de A de
tama no k k (algunos de ellos pueden ser nulos). En consecuencia, s I
k
(A).
La condicion de la proposicion 2.4.3 no es suciente para garantizar la solubilidad
del sistema AX = B. Es posible presentar un ejemplo donde los ideales determi-
nantes de A y (A [ B) coincidan, sin que el sistema AX = B tenga solucion (vease
[1], pag. 59, ejemplo 5.24).
Denici on 2.4.4. Sea A M
mn
(R), con m, n enteros positivos arbitrarios. El
rank(A) de la matriz A se dene como el mayor entero no negativo k tal que
I
k
(A) ,= 0. Notese que 0 rank(A) mnm, n. El rango de A seg un McCoy,
denotado por Mrank(A), es el menor entero no negativo tal que Ann
R
(I
k
(A)) = 0,
donde
Ann
R
(I
k
(A)) := r R [ I
k
(A)r = 0,
es decir, Ann
R
(I
k
(A)) es el conjunto de elementos r R que anulan a cada elemento
de I
k
(A).
Se tienen las siguientes propiedades del rango.
Proposici on 2.4.5. Sea A M
mn
(R). Entonces,
(i) rank(A) = rank(A
T
),
Mrank(A) = Mrank(A
T
).
(ii) Para cada Q GL
m
(R) y P GL
n
(R),
rank(QAP) = rank(A),
Mrank(QAP) = Mrank(A).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 39
(iii) 0 Mrank(A) rank(A) mnm, n.
Demostracion. (i) Veamos primero que I
k
(A) = I
k
(A
T
), para todo k Z. Para
k 0 tenemos que I
k
(A) = R e I
k
(A
T
) = R; para k > mnm, n tenemos que
I
k
(A) = 0 = I
k
(A
T
). Supongamos ahora que 1 k mnm, n y sea s un
generador de I
k
(A), entonces existe una submatriz A
_
_
i
1
i
k
j
1
j
k
_
_
de A tal que s =
det A
_
_
i
1
i
k
j
1
j
k
_
_
= det A
T
_
_
i
1
i
k
j
1
j
k
_
_
; de esto ultimo se sigue que s I
k
(A
T
).
De manera analoga se muestra la otra contenencia, de modo que I
k
(A) = I
k
(A
T
);
as rank(A) coincide con el mayor entero positivo k tal que I
k
(A) ,= 0, que es
precisamente el mayor entero positivo k para el que I
k
(A
T
) ,= 0, es decir, es igual al
rank(A
T
). De la misma manera tenemos que Mrank(A) = Mrank(A
T
).
(ii) Comenzamos probando la siguiente propiedad general (vease [1], pag. 43, lema
4.5): si B M
mp
(R) y C M
pn
(R) entonces
I
k
(BC) I
k
(B) I
k
(C), para todo k Z. (2.4.4)
En efecto, para k 0 tenemos que I
k
(BC) = R, I
k
(B) = R = I
k
(C); de forma
similar, si k > mnm, n entonces I
k
(BC) = 0, pero en este caso k > m o k > n
lo cual implica que k > mnm, p o k > mnp, n, luego I
k
(B) = 0 o I
k
(C) = 0.
Por tanto, podemos asumir 1 k mnm, n. Para terminar la demostracion de
(2.4.4) probemos tres propiedades preliminares:
I
k
(BC) I
k
(C): sea C = [C
1
C
n
], entonces BC = [BC
1
BC
n
]. Sea
s un generador de I
k
(BC), es decir, s es el determinante de una submatriz
de BC de orden k k tomando las las i
1
< < i
k
y las columnas j
1
<
< j
k
de BC, entonces (BC)
j
1
= BC
j
1
, . . . , (BC)
j
k
= BC
j
k
, de modo que
s I
k
([(BC)
j
1
(BC)
j
k
]) = I
k
([BC
j
1
BC
j
k
]) = I
k
(B[C
j
1
C
j
k
]). Clara-
mente I
k
([C
j
1
C
j
k
]) I
k
(C), luego basta probar que I
k
(B[C
j
1
C
j
k
])
I
k
([C
j
1
C
j
k
]). As pues, estamos en la situacion inical pero con dos matri-
ces B M
mp
(R), F M
pk
(R) con 1 k mnm, k, esto es, k m.
Tenemos BF =
_

_
B
1
F
.
.
.
B
m
F
_

_
, luego para cada 1 i m
(BF)
i
=B
i
F = [b
i1
b
ip
]
_
_
f
11
f
ik
f
p1
f
pk
_
_
=[b
i1
f
11
+ + b
ip
f
p1
b
i1
f
1k
+ + b
ip
f
pk
]
=b
i1
F
1
+ + b
ip
F
p
,
40 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


de donde (BF)
i
=

p
l=1
b
il
F
l
. Sea u un generador de I
k
(BF), entonces
u =det(BF
_
_
i
1
i
k
1 k
_
_
) = det
_

_
(BF)
i
1
.
.
.
(BF)
i
k
_

_
=det
_

p
l=1
b
i
1
l
F
l
.
.
.

p
l=1
b
i
k
l
F
l
_

_
=
p

l=1
b
i
1
l
det
_

_
F
l

p
l=1
b
i
2
l
F
l
.
.
.

p
l=1
b
i
k
l
F
l
_

_
= =

l
1
,...,l
k
b
i
1
l
1
b
i
k
l
k
det
_

_
F
l
1
.
.
.
F
l
k
_

_
,
pero det
_

_
F
l
1
.
.
.
F
l
k
_

_
= 0 si hay las repetidas, y en los de mas casos det
_

_
F
l
1
.
.
.
F
l
k
_

_

I
k
(F). Por lo tanto, u I
k
(F).
I
k
(BC) I
k
(B): por (i) I
k
(BC) = I
k
((BC)
T
) = I
k
(C
T
B
T
) I
k
(B
T
) =
I
k
(B). Con esto hemos completado la prueba de 2.4.4.
De (2.4.4) resulta I
k
(PAQ) = I
k
(A) para todo k Z, P GL
m
(R) y Q GL
n
(R):
en efecto, I
k
(PA) I
k
(A) = I
k
(P
1
(PA)) I
k
(PA), entonces I
k
(PA) = I
A
;
I
k
(PAQ) = I
k
(AQ) I
k
(A) = I
k
((AQ)Q
1
) I
k
(AQ) = I
k
(PAQ), y as, I
k
(PAQ)
= I
k
(A). En consecuencia, rank(PAQ) = rank(A) y Mrank(PAQ) = Mrank(A).
(iii) Es claro que rank(A) mnm, n, tambien por denicion Mrank(A) 0; sea
l = Mrank(A) y supongamos que l > rank(A), entonces I
l
(A) = 0 y en consecuencia
An
R
(I
l
(A)) = R, lo que claramente es una contradiccion.
Sea ahora A M
mn
(R) con m n y supongase que Mrank(A) = m. Sea
I

m
(A [ B) el ideal generado por los determinantes de todas las submatrices de orden
mm de (A [ B) que no son completamente submatrices de A, es decir, la columna
B va incluida.
Proposici on 2.4.6. Sea A M
mn
con m n, y sea Mrank(A) = m. Si existe
un ideal J de R y un elemento s R rm(que no sea divisor de cero), tales que
JI

m
(A [ B) s) JI
m
(A),
entonces AX = B es soluble.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 41
Demostracion. Antes de probar la proposicion, recordemos algunos hechos elemen-
tales relacionados con divisores de cero e ideales. Un elemento s R se dice que
no es divisor de cero en R si s ,= 0 y para cada a R tal que sa = 0 se tiene
que a = 0. De otra parte, siendo I, J ideales de un anillo R se dene su producto
IJ como el ideal generado por el conjunto de todos los productos de la forma ab,
con a I y b J. Notese entonces que cada elemento de IJ es una suma nita
a
1
b
1
+ + a
t
b
t
, con a
i
I, b
i
J, 1 i t.
Como Mrank(A) = 0, entonces Ann
R
(Im
A
) = 0 y por tanto, I
m
(A) ,= 0. Existe
entonces al menos una submatriz A

de A de orden m m con determinante no


nulo. Reenumerando las columnas y las indeterminadas x
1
, . . . , x
n
, podemos asumir
sin perdida de generalidad que
A

=
_
_
a
11
a
1m
a
m1
a
mm
_
_
, r
1
:= det(A

) ,= 0.
Entonces,
_

_
det(A

) 0
.
.
.
0 det(A

)
_

_
_

_
b
1
.
.
.
b
m
_

_
= A

Adj(A

)
_

_
b
1
.
.
.
b
m
_

_
,
y por tanto,
_

_
r
1
0
.
.
.
0 r
1
_

_
_

_
b
1
.
.
.
b
m
_

_
=A

_
_
(1)
1+1
M
11
(1)
m+1
M
m1
(1)
1+m
M
1m
(1)
m+m
M
mm
_
_
_

_
b
1
.
.
.
b
m
_

_
=A

_
_
(1)
1+1
b
1
M
11
+ + (1)
m+1
b
m
M
m1
(1)
1+m
b
1
M
1m
+ + (1)
m+m
b
m
M
mm
_
_
_

_
b
1
.
.
.
b
m
_

_
=A

_
x
1
1
.
.
.
x
1
m
_

_
,
con x
1
j
I

m
(A [ B), luego r
1
b
i
=

m
j=1
a
ij
x
1
j
para 1 i m. Tomando x
1
m+1
=
= x
1
n
= 0 obtenemos
r
1
b
i
n

j=1
a
ij
x
1
j
, 1 i m.
Sean r
1
, . . . , r
k
los generadores de I
m
(A). De manera analoga a como lo hicimos hace
42 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


un momento tenemos
r
t
b
i
=
n

j=1
a
ij
x
t
j
, 1 i m, 1 t k,
donde x
t
j
I

m
(A [ B). Por hipotesis existen q
1
, . . . , q
k
J tales que
s =
k

t=1
q
t
r
t
.
Entonces
sb
i
=
k

t=1
q
t
r
t
b
i
=
k

t=1
n

j=1
q
t
a
ij
x
t
j
=
n

j=1
a
ij
(
k

t=1
q
t
x
t
j
).
Pero

k
t=1
q
t
x
t
j
JI

m
(A [ B) s). Por lo tanto,
sb
i
=
n

j=1
a
ij
s x
j
, x
j
R, 1 i m,
y como s no es divisor de cero tenemos que
b
i
=
n

j=1
a
ij
x
j
.
Corolario 2.4.7. Sea A M
mn
(R) con m n. Si I
m
(A) = R, entonces AX = B
es soluble.
Demostracion. I
m
(A) = R implica que Mrank(A) = m. Tomando J = R y s = 1
en la proposicion 2.4.6, el corolario se sigue de inmediato.
Evidentemente el recproco no es siempre cierto, Basta considerar el sistema
homogeneo sobre el anillo Z de enteros
_
1 0
0 0
_ _
x
y
_
=
_
0
0
_
.
Denici on 2.4.8. Sea A M
mn
(R); se dice que A es unimodular si I
mn{m,n}
(A)
= R.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 43
Corolario 2.4.9. Sea A M
mn
(R).
(i) Sea m n. Entonces, A es unimodular si, y solo si, A tiene inversa a derecha.
(ii) Sea n m. Entonces, A es unimodular si, y solo si, A tiene inversa a izquier-
da.
Demostracion. (i)) Como m n entonces mnm, n = m, as I
m
(A) = R y
por el corolario 2.4.9 tenemos que AX =
_

_
1
0
.
.
.
0
_

_
, . . . , AX =
_

_
0
0
.
.
.
1
_

_
son solubles, luego
existen C
1
=
_

_
c
11
.
.
.
c
n1
_

_
, . . . , C
m
=
_

_
c
1m
.
.
.
c
nm
_

_
R
n
tales que A[C
1
C
m
] = E, es decir,
si C = [C
1
C
m
], entonces C es una inversa derecha de A.
) Si AC = E para alguna C M
nm
(R), entonces I
m
(AC) = I
m
(E) = R
I
m
(A) I
m
(C), y por tanto, I
m
(A) = R, es decir, A es unimodular dado que
mnm, n = m.
(ii) Sea n m; como A M
mn
(R) entonces A
T
M
nm
(R); as, A
T
tiene in-
versa a derecha si, y solo si, I
n
(A
T
) = R, es decir, si existe D M
mn
(R) tal que
A
T
D = E. Esto ultimo se tiene si, y solo si I
n
(A) = R dado que I
n
(A) = I
n
(A
T
).
Por lo tanto, D
T
A = E si, y solo si, A es unimodular.
Observaci on 2.4.10. (i) Sea A M
mn
(R) con m n. Entonces A no puede tener
inversa a izquierda: si existe C M
nm
(R) tal que CA = E, entonces [C [ 0][
A
0
] = E
y tomando determinantes obtenemos que 0 = 1.
(ii) Sea A M
mn
(R) con n m. Entonces A no puede tener inversa a derecha:
si existe C M
mn
(R) tal que CA = E, entonces [A [ 0][
C
0
] = E y tomando
determinantes obtenemos que 0 = 1.
Estudiaremos ahora los sistemas homogeneos AX = 0 con A M
mn
(R). Notese
en primer lugar que tales sistemas son solubles y que el conjunto de soluciones
conforman un subespacio de M
n1
(R)

= R
n
.
Teorema 2.4.11. Sea A M
mn
(R). AX = 0 tiene solucion no trivial X =
[x
1
, . . . , x
n
]
T
si, y solo si, Mrank(A) < n. En particular si m < n, entonces el
sistema AX = 0 tiene solucion no trivial.
Demostracion. ) Sea X = [x
1
. . . , x
n
]
T
una solucion no trivial del sistema AX = 0,
luego x
j
,= 0 para alg un subndice j, 1 j n. Si m < n, tenemos que Mrank(A)
44 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


m < n y no hay algo por probar. Sea entonces m n; de este modo
A

=
_

_
x
1
.
.
.
x
n
_

_
= 0, con A

=
_
_
a
11
a
1n
a
n1
a
nn
_
_
.
Multiplicando por Adj(A

) obtenemos
det(A

)x
j
= 0. (2.4.5)
Notese que si A

es cualquier submatriz de A de tama no n n, entonces tambien se


tiene 2.4.5; en otras palabras, x
j
,= 0 anula a todos los generadores de I
n
(A). Por lo
tanto, A
n
(R)(I
n
(A)) ,= 0, y as Mrank(A) < n.
) Supongase ahora que t := Mrank(A) < n; entonces An
R
(I
t
(A)) ,= 0. Sea
y ,= 0 R tal que I
t+1
(A) = 0; si t = 0 entonces X := [y, . . . , y] es una solucion no
trivial del sistema. Supongase entonces que 1 t mnm, n; como An
r
(I
t
(A)) =
0, el producto de y con alg un generador de I
t
(A) es no nulo. Este generador es el
determinante de una submatriz de A de orden t t. Permutando las y/o columnas
de A y reindizando las indeterminadas, podemos asumir sin perdida de generalidad
que tal submatriz es
A

_
_
a
11
a
1t
a
t1
a
tt
_
_
, y(det(A

)) ,= 0.
Sea A

la matriz
A

:=
_
_
a
11
a
1,t+1
a
t+1,1
a
t+1,t+1
_
_
,
(si t = m, tomamos a
t+1,1
= = a
t+1,t+1
= 0). Sea d
j
el determinante de la
submatriz de A

obtenida al suprimir la ultima la y la j-esima columna, 1 j


t + 1; sean ademas
h
j
:=(1)
j+(t+1)
d
j
, 1 j t + 1
x
j
:=h
j
y, 1 j t + 1
x
j
:=0, t + 2 j n

X :=[ x
1
, . . . , x
n
]
T
.
Notese que

X ,= 0 dado que x
t+1
= y det(A

) ,= 0; se tiene entonces que


A

X =
_

t+1
j=1
a
1j
x
j
.
.
.

t+1
j=1
a
mj
x
j
_

_
.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 45
Pero para 1 i m,
t+1

j=1
a
ij
x
j
=(
t+1

j=1
a
ij
h
j
)y
=(
t+1

j=1
a
ij
(1)
j+(t+1)
d
j
)y
=(
t+1

j=1
a
ij
A

t+1,j
)y.
Para i ,= t + 1 la suma en el ultimo parentesis es nula; para i = t + 1 esta suma
corresponde al determinante de una submatriz de A de tama no (t + 1) (t + 1), es
decir, es un generador de I
t+1
(A). Como y An
R
(I
t+1
(A)) entonces A

X = 0 y el
sistema tiene una solucion no trivial.
Corolario 2.4.12. Sea A M
n
(R). AX = 0 tiene solucion no trivial si, y solo si,
det(A) es un divisor de cero en R.
Demostracion. det(A) es un divisor de cero en R si, y solo si, An
R
(I
n
(A)) ,= 0 si, y
solo si, Mrank(A) < n.
Corolario 2.4.13. Sea V un R-espacio libre de dimension m 1. Entonces todo
conjunto de n > m vectores de V es l.d.
Demostracion. Sean Y := y
1
, . . . , y
m
una base de V , v
1
, . . . , v
n
V y b
1
, . . . , b
n

R tales que v
1
b
1
+ + v
n
b
n
= 0. Entonces, existen escalares a
ij
R tales que
(a
11
y
1
+ +a
m1
y
m
)b
1
+ +(a
1n
y
1
+ +a
mn
y
m
)b
n
= 0. De la independencia
lineal de los vectores de Y resulta el sistema AB = 0, con A M
mn
(R) y B :=
[b
1
, . . . , b
n
]
T
. Seg un el teorema 2.4.11, alg un b
j
es no nulo.
Ejemplo 2.4.14. Calculemos rank(A) y Mrank(A) para
A =
_
2 2
0 2
_
, B =
_
2 0
0 3
_
, C =
_
1 2
3 5
_
M
2
(Z
6
).
rank(A): I
0
(A) = Z
6
, I
1
(A) = 2), I
2
(A) = a); as rank(A) = 2.
Mrank(A): Ann(I
0
(A)) = 0, Ann(I
1
(A)) = 0, 3 = 3), Ann(I
2
(A)) = 3);
as Mrank(A) = 0.
rank(B): I
0
(B) = Z
6
, I
1
(B) = 2, 3) = Z
6
dado que 3 2 = 1 I
1
(B) e
I
2
(B) = 0; entonces rank(B) = 1.
Mrank(B): Ann(I
0
(B)) = 0, Ann(I
1
(B)) = 0, Ann(I
2
(B)) = Z
6
; por lo tanto
Mrank(B) = 1.
rank(C), Mrank(C): I
0
(C) = Z
6
, I
1
(C) = 1, 2, 3, 5) = Z
6
, I
2
(C) = 1) =
1) = Z
6
. Entonces rank(C) = 2 = Mrank(C).
46 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Ejemplo 2.4.15. Sea R = Z
4
. Calculemos todas las soluciones de AX = B con
A =
_
_
1 1 1
2 1 2
1 0 2
_
_
y B =
_
_
1
2
3
_
_
.
Tenemos,
det(A) =1 det
_
1 1
1 2
_
+ 2 det
_
1 1
2 1
_
=(2 1) + 2(1 2) = 1 = 3,
det
_
_
1 1 1
2 1 2
3 0 2
_
_
=3 + 2(1) = 1;
entonces 3x
1
= 1 de modo que x
1
= 3. Analogamente,
det
_
_
1 1 1
2 2 2
1 3 2
_
_
= 0,
as que 3x
2
= 0 implica x
2
= 0.
Finalmente,
det
_
_
1 1 1
2 1 2
1 0 3
_
_
= 1 + 3(1) = 2 = 2,
por tanto de 3x
3
= 2 se sigue x
3
= 2 y en consecuencia X =
_
_
3
2
2
_
_
.
A continuacion haremos la comparacion de algunos de los resultados de esta
seccion con los correspondientes del algebra lineal clasica sobre cuerpos.
Denici on 2.4.16. Sea K un cuerpo y sea X = x
1
, . . . , x
n
un conjunto nito
de vectores de un K-espacio vectorial V . Se dene el rango de X, denotado por
Rank(X), como la dimension de su envolvente lineal, es decir,
Rank(X) := dim(X)).
Recordemos algunas propiedades destacadas del rango:
(i) Rank(X) coincide con el maximo n umero de vectores l.i. que posea X. Notese
tambien que Rank(X) concuerda con el n umero minimal de generadores de
X) (vease el teorema 2.3.7).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 47
(ii) Si V es un K-espacio de dimension n y X es un sistema de n vectores de V ,
entonces X es una base de V si, y solo si, Rank(X) = n.
(iii) El rango columna de una matriz F M
mn
(K) se dene como el rango
de sus vectores columna: cada columna de F se puede considerar como un
elemento de K
m
y de esta forma
rango columna de F := RankF
(1)
, . . . , F
(n)
.
(iv) El rango columna de F coincide con la dimension del espacio imagen de la
transformacion f que F representa.
(v) De manera analoga se dene el rango la de la matriz F, el cual coincide
con el rango columna. Este rango com un se denomina rango de la matriz F
y se denota por Rank(F). En particular se tiene que Rank(F) = Rank(F
T
).
(vi) F M
n
(K) es invertible si, y solo si, Rank(F) = n.
(vii) Sean F M
mn
(K), Q GL
m
(K) y P GL
n
(K). Entonces,
Rank(QFP) = Rank(F).
(viii) Dos matrices son equivalentes si, y solo si, tienen el mismo rango.
Proposici on 2.4.17. Para cada A M
mn
(K) se cumple
0 Mrank(A) = rank(A) = Rank(A).
Demostracion. Si k = rank(A), I
k
(A) ,= 0, I
k+1
= 0, luego Ann
K
(I
K
(A)) = 0 y
Ann
K
(I
k+1
(A)) = K, con lo cual Mrank(A) = k. Sea ahora Rank(A) = r, entonces
A es equivalente a la matriz
B =
_
E 0
0 0
_
, E = Identica de orden r r.
Por la proposicion 2.4.5, rank(A) = rank(B) = r; en consecuencia, r = k.
En relacion con los sistemas de ecuaciones lineales sobre cuerpos se tienen los si-
guientes resultados.
(a) Sea AX = 0 un sistema homogeneo de orden mn. Si Rank(A) = r entonces
la dimension del espacio solucion es n r, y recprocamente.
48 CAP

ITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


(b) Todo sistema lineal AX = B de orden mn, con A ,= 0, es equivalente a uno
con matriz escalonada y de la forma
a

1j
1
x
j
1
+ a

1j
2
x
j
2
+ a

1j
3
x
j
3
+ + a

1n
x
n
= b

1
a

2j
2
x
j
2
+ a

2j
3
x
j
3
+ + a

2n
x
n
= b

2

a

rjr
x
jr
+ + a

rn
x
n
= b

r
0 = b

r+1

0 = b

m
,
(2.4.6)
donde a

1j
1
, . . . , a

rjr
,= 0, 1 j
1
< j
2
< < j
r
. AX = B es soluble si, y solo
si, en el sistema escalonado anterior no se presentan ecuaciones de la forma
b

t
= 0, t r, con b

t
un elemento no nulo de K. En tal caso, dando valores ar-
bitrarios de K a las indeterminadas libres x
jr+1
, . . . , x
n
obtenemos valores
determinados para las indeterminadas principales x
j
1
, . . . , x
jr
.
(c) Sea AX = B un sistema lineal de orden m n. En el corolario 2.4.7 se
demostro que si m n con I
m
(A) = K, entonces el sistema AX = B es
soluble. Pero la condicion I
m
(A) = K es equivalente a que Mrank(A) = m =
Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.
(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A [ B] se
tiene que la coincidencia de estos ultimos implica la solubilidad del sistema
AX = B: en efecto, si los ideales determinantes de A y [A [ B] coinciden,
entonces sus rangos son iguales. De esta forma la envolvente lineal de las
columnas de [A [ B] coincide con la envolvente lineal de las columnas de A, es
decir, B es una combinacion lineal de las columnas de A
_

_
b
1
.
.
.
b
m
_

_
=
_

_
a
11
.
.
.
a
m1
_

_
x
1
+ +
_

_
a
1n
.
.
.
a
mn
_

_
x
n
,
de donde B = AX y X = [x
1
, . . . , x
n
]
T
es solucion. En resumen tenemos que
AX = B es soluble si, y solo si, Rank(A) = Rank[A [ B].
(e) Si A M
mn
(K), vimos en el teorema 2.4.11 que AX = 0 tiene solucion no
trivial si, y solo si, Rank(A) < n. En particular, si m < n entonces Rank(A)
m < n y el sistema AX = 0 tiene solucion no trivial. Para el caso cuadrado la
condicion det(A) es divisor de cero (vease el corolario 2.4.12) es equivalente a
que det(A) = 0.
2.5. EJERCICIOS 49
2.5. Ejercicios
1. Sea A
0
la coleccion de elementos de A que son divisores de cero. Si K es un
cuerpo demuestre que
M
n
(K)
0
= B M
n
(K)[ det(B) = 0.
2. Sean B M
mp
(R) y C M
pn
(R). Demuestre que
(i) Mrank(BC) mnMrank(B), Mrank(C).
(ii) rank(BC) mnrank(B), rank(C).
3. Sean A M
n
(R) y B R
n
. Sea X
0
una solucion de AX = B. Demuestre que
X
0
es la unica solucion si, y solo si, Mrank(A) = n.
Captulo 3
Producto tensorial
En este captulo estudiamos el producto tensorial de espacios, transformaciones y
matrices sobre anillos conmutativos. Deniremos los tensores y estableceremos su
relacion con las funciones multilineales. El producto tensorial de tensores tambien
sera considerado. Salvo que se advierta lo contrario, R denotara un anillo conmuta-
tivo arbitrario. Para los espacios vectoriales utilizaremos la notacion por la izquierda
para los escalares de R.
3.1. Producto tensorial de espacios vectoriales
Sea V un R-espacio vectorial libre con base X, recordemos que cada funcion t :
X W, con W un R-espacio arbitrario, se puede extender de manera unica a
una transformacion lineal T : V W de tal forma que T(x) = t(x), para cada
x X. De otra parte, si X es un conjunto no vaco cualquiera, entonces R
(X)
denota el R-espacio libre con base canonica X

:=
x
(1)
xX
, donde
x
: R R
(X)
es la inyeccion canonica de la suma directa externa (vease [6]) de tal forma que

x
(1) := (r
z
)
zX
y r
z
:= 0 si z ,= x y r
x
:= 1.
Podemos ya emprender la construccion del producto tensorial de dos espacios
vectoriales arbitrarios.
Sean U, V dos espacios vectoriales sobre R, sea X el producto cartesiano de los
conjuntos U y V , es decir, X := U V . Notemos que en el conjunto X hemos
olvidado las estructuras de R-espacio que tienen U y V , a estos ultimos los estamos
tomando simplemente como conjuntos no vacos. Consideremos entonces el R-espacio
vectorial R
(X)
con base canonica X

=
x
(1)
xX
. Notemos que los elementos de
X son parejas, es decir, un elemento x X es de la forma x = (u, v). En otras
palabras,
x
(1) =
(u,v)
(1) denota el arreglo que tiene solamente una entrada no
nula, la ubicada en la posicion (u, v), en la cual colocamos el escalar 1 R. Un
50
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51
elemento de R
(X)
es una combinacion lineal nita en la forma
r
1

(u
1
,v
1
)
(1) + + r
t

(ut,vt)
(1).
Observemos que el elemento anterior es un arreglo nito que tiene ubicados en la
posicion (u
1
, v
1
) al escalar r
1
, en la posicion (u
2
, v
2
) al escalar r
2
y, por ultimo, en
la posicion (u
t
, v
t
) al escalar r
t
, en todas las demas posiciones al escalar cero. Esta
notacion puede ser simplicada de la siguiente manera: representemos el elemento

(u,v)
(1) de la base canonica X simplemente por (u, v) de tal forma que veamos a
U V como la base canonica de R
(X)
y a las parejas (u, v) como los elementos de
esta base. As pues, podemos pensar en R
(UV )
y considerar que la base canonica
es U V . Con esta notacion podemos decir que un elemento de R
(UV )
es una
combinacion lineal nita en la forma
r
1
(u
1
, v
1
) + + r
t
(u
t
, v
t
) ,
donde r
1
, . . . , r
t
R.
Sea S el subespacio de R
(UV )
generado por todos los elementos de la siguiente
forma
(u + u

, v) (u, v) (u

, v) , (3.1.1)
(u, v + v

) (u, v) (u, v

) , (3.1.2)
r (u, v) (r u, v) , (3.1.3)
r (u, v) (u, r v) , (3.1.4)
con r R. Sea U V el R-espacio vectorial cociente correspondiente, es decir,
U V := R
(UV )
/S (3.1.5)
Denotemos por uv la clase de equivalencia (u, v) en el cociente UV = R
(UV )
/S.
Entonces en U V se tienen las siguientes propiedades fundamentales.
Proposici on 3.1.1. Para cualesquiera elementos u, u

U, v, v

V y r R se
tiene que:
(i) (u + u

) v = u v + u

v
(ii) u (v + v

) = u v + u v

(iii) r (u v) = r u v
(iv) r (u v) = u r v
Demostracion. Esto resulta en forma directa de las relaciones (3.1.1) - (3.1.4).
52 CAP

ITULO 3. PRODUCTO TENSORIAL


Corolario 3.1.2. La funcion canonica
t : U V U V
(u, v) u v
es bilineal, es decir, satisface las siguientes propiedades:
(i) t (u + u

, v) = t(u, v) + t(u

+ v)
(ii) t(u, v + v

) = t(u, v) + t(u, v

)
(iii) t(r u, v) = r t(u, v)
(iv) t(u, r v) = r t(u, v),
para cualesquiera u, u

U, v, v

V y r R.
Demostracion. Consecuencia directa de la proposicion anterior.
Denici on 3.1.3. El espacio vectorial U V se denomina producto tensorial de
U con V .
Sea z un elemento de U V , con z R
(UV )
, entonces z es de la forma z =
r
1
(u
1
, v
1
) + + r
t
(u
t
, v
t
), por tanto en el cociente U V = R
(UV )
/S se tiene
que
z = (r
1
u
1
) v
1
+ + (r
t
u
t
) v
t
,
pero como r
1
u
1
, . . . , r
t
u
t
U, entonces podemos siempre asumir que z es de la
forma
u
1
v
1
+ + u
t
v
t
.
El producto tensorial tiene la siguiente propiedad universal.
Teorema 3.1.4. Sea W un R-espacio y sea f : U V W una funcion bilineal.
Entonces, existe una unica transformacion lineal F : U V W tal que Ft = f:
U V U V
W
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
C
F
La tranformacion lineal F se dene por
F (u v) := f (u, v) .
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53
Demostracion. La funcion f denida sobre la base canonica UV de R
(UV )
induce
una unica transformacion lineal F

: R
(UV )
W dada por F

(u, v) := f (u, v).


Denimos entonces la funcion F (z) := F

(z), donde z R
(UV )
. En particular, si
z = (u, v) es un basico, entonces F (u v) = F

(u, v) = f (u, v). Debemos ver que


F esta bien denida. Sean z
1
, z
2
R
(UV )
tales que z
1
= z
2
, entonces z
1
z
2
S
y por tanto z
1
z
2
es una R-combinacion lineal de elementos como en (3.1.1) -
(3.1.4). Como F

es R-lineal, basta considerar cada una de las cuatro relaciones por


separado. Si z
1
z
2
= (u + u

, v) (u, v) (u

, v), entonces
F

(z
1
z
2
) = F

[(u + u

, v) (u, v) (u

, v)]
= f (u + u

, v) f (u, v) f (u

, v)
= 0, ya que f es bilineal.
De igual manera se establecen los otros tres casos. Esto muestra que F

(z
1
) = F

(z
2
),
y F esta bien denida.
De otra parte, como F

es R-lineal, entonces F es una transformacion lineal.


Ademas, Ft (u, v) = F (u v) = f (u, v), esto prueba que Ft = f.
Para terminar la demostracion, sea G otra transformacion lineal G : U V W
tal que Gt = f; para probar la igualdad G = F basta considerar el vector u v.
As pues, Gt (u, v) = f (u, v), es decir, G(u v) = f (u, v) = F (u v).
Algunas consecuencias del teorema anterior son las siguientes propiedades evi-
dentes del producto tensorial de espacios. Sean U, V R-espacios, entonces:
(i) (U V ) W

= U (V W). El producto tensorial de estos tres espacios
se puede entonces denotar como U V W. Mas adelante consideraremos el pro-
ducto tensorial de tres o mas espacios y su relacion con las funciones multilineales
introducidas en el captulo 2.
(ii) U V

= V U.
(iii)
R V

= V , U R

= U, R R

= R.
Para probar (iii) basta considerar la funcion bilineal f : RV V , f(r, v) := rv. Se
induce entonces la transformacion lineal F : R V V dada por F(r v) := r.v.
De otra parte, la funcion G : V R V denida por G(v) := 1 v es una
transformacion lineal tal que FG = i
V
y GF = i
RV
. El segundo isomorsmo se
establece en forma similar, y el tercero es consecuencia de cualquiera de los dos
anteriores.
Consideremos el caso particular en que U y V son libres de dimension nita.
Teorema 3.1.5. Sean U y V dos espacios vectoriales libres de dimension nita n
y m con bases X = x
1
, . . . , x
n
y Y = y
1
, . . . , y
m
, respectivamente. Entonces,
XY := x
i
y
j
[ 1 i n, 1 j m es una base de U V , y en consecuencia,
dim
R
(U V ) = nm.
54 CAP

ITULO 3. PRODUCTO TENSORIAL


Demostracion. Notemos en primer lugar que si U = 0 o V = 0, entonces el teorema
se tiene en forma trivial con bases vacas. Sean pues n, m 1. Consideremos el
R-espacio de matrices rectangulares M
nm
(R) con componentes en R. Denimos
entonces la transformacion lineal
T : M
nm
(R) U V
E
ij
x
i
y
j
, 1 i n, 1 j m.
De otra parte, consideremos la funcion
f : U V M
nm
(R)
f (u, v) = a
1
b
1
E
11
+ + a
1
b
m
E
1m
+ + a
n
b
1
E
n1
+ + a
n
b
m
E
nm
,
donde u = a
1
x
1
+ +a
n
x
n
y v = b
1
y
1
+ +b
m
y
m
. Es facil ver que f es bilineal.
Por el teorema 3.1.4 existe una transformacion lineal F : UV M
nm
(R) denida
por F (u v) = f (u, v) = a
1
b
1
E
11
+ +a
1
b
m
E
1m
+ +a
n
b
1
E
n1
+ +a
n
b
m
E
nm
.
Pero notemos que FT = i
M
nm
(R)
y tambien TF = i
UV
. Esto demuestra que T es
un isomorsmo de espacios vectoriales, con lo cual X Y es una base de U V y
dim
R
(U V ) = nm.
Corolario 3.1.6. Sea R un dominio de integridad y sean U, V, X, Y como en el
teorema 3.1.5. Para cualesquiera elementos u U y v V se tiene que
u v = 0 u = 0 o v = 0.
Demostracion. La condicion suciente se tiene en forma trivial. Sean pues u =
a
1
x
1
+ +a
n
x
n
y v = b
1
y
1
+ +b
m
y
m
no nulos, entonces existen i
0
, j
0
tales que
a
i
0
,= 0 y b
j
0
,= 0; puesto que u v =

n,m
i=1,j=1
a
i
b
j
(x
i
y
j
), entonces del teorema
3.1.5 resulta u v ,= 0 ya que a
i
0
b
j
0
,= 0.
3.2. Producto tensorial de transformaciones y ma-
trices
Sean T : U U

y F : V V

dos transformaciones lineales, entonces la funcion


T F : U V U

(u, v) T (u) F (v)


es bilineal y por tanto induce una transformacion lineal
T F : U V U

u v T (u) F (v) .
La transformacion T F se conoce como el producto tensorial de T con F. Se
tiene entonces la siguiente propiedad.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 55
Teorema 3.2.1. Sean X = x
1
, . . . , x
n
una base de U, X

= x

1
, . . . , x

p
una
base de U

, Y = y
1
, . . . , y
m
una base de V y Y

= y

1
, . . . , y

q
una base de V

.
Entonces,
m
XY,X

Y
(T F) =
_

_
a
11
B a
1n
B
.
.
.
.
.
.
a
p1
B a
pn
B
_

_
,
donde A = [a
ij
] := m
X,X
(T) y B = [b
ij
] := m
Y,Y
(F). La matriz de T F se
conoce como el producto tensorial de las matrices A y B, y se denota por AB.
As pues,
A B :=
_

_
a
11
B a
1n
B
.
.
.
.
.
.
a
p1
B a
pn
B
_

_
.
A B es de orden pq nm.
Demostracion. Basta aplicar T F a los vectores de la base X Y y expresar los
resultados a traves de la base X

.
Ejemplo 3.2.2. Sean T : R
3
R
2
y F : R
2
R
4
las transformaciones lineales
denidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y x) .
Determinemos la matriz de T F en las bases canonicas: Basta calcular las matrices
A y B de las transformaciones T y F en las bases canonicas:
A = m(T) =
_
2 3 0
3 0 4
_
,
B = m(F) =
_

_
1 0
1 1
0 1
1 1
_

_
,
m(T F) = A B =
_
2B 3B 0B
3B 0B 4B
_
,
m(T F) =
_

_
2 0 3 0 0 0
2 2 3 3 0 0
0 2 0 3 0 0
2 2 3 3 0 0
3 0 0 0 4 0
3 3 0 0 4 4
0 3 0 0 0 4
3 3 0 0 4 4
_

_
.
56 CAP

ITULO 3. PRODUCTO TENSORIAL


Mostraremos a continuacion otras propiedades interesantes del producto tensorial
de transformaciones y matrices.
(i) Sean T : U U

y F : V V

transformaciones lineales sobreyectivas.


Entonces, T F es sobreyectiva. En efecto, si u

, entonces existe
u U y v V tales que T (u) = u

, F (v) = v

. Por lo tanto, (T F) (u v) =
T (u) F (v) = u

.
(ii) Sean T : U U

y F : V V

transformaciones lineales sobreyectivas,


entonces ker (T F) = ker (T)V +Uker (F). Veamos la demostracion: denotemos
por W := ker (T) V + U ker (F), este es un subespacio de U V . Es claro que
W ker (T F), probemos entonces la otra inclusion. Consideremos el espacio
cociente (U V ) /W y la transformacion lineal canonica
J : U V (U V ) /W
z z
Para el producto tensorial U

consideremos el siguiente diagrama:


U

(U V ) /W
c
h
E
t
p
p
p
p
p
p
p
p
p
p
p
C
H
donde h(T (u) , F (v)) := J (u v). Veamos que f esta bien denida. Sean T (u
1
) =
T (u) y F (v
1
) = F (v), entonces u
1
u := u
2
ker (T) y v
1
v := v
2
ker (F),
luego
u
1
v
1
= (u + u
2
) (v + v
2
)
= u v + u v
2
+ u
2
v + u
2
v
2
= u v + (u v
2
+ u
2
v + u
2
v
2
) ,
donde u v
2
+u
2
v +u
2
v
2
U ker (F) +ker (T) V = W, esto muestra que
u
1
v
1
u v W,
luego J (u v) = J (u
1
v
1
). Notemos que h es bilineal, por tanto induce la trans-
formacion lineal H dada por
H (T (u) F (v)) := h(T (u) , F (v)) = J (u v) ,
de donde H (T F) = J. Sea z ker (T F), entonces H (T F) (z) = H (0) =
0 = J (z) = z, lo cual indica que z W.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 57
(iii) Sean T
1
: U U

, T
2
: U

y F
1
: V V

, F
2
: V

transforma-
ciones lineales, entonces
(T
2
T
1
) (F
2
F
1
) = (T
2
F
2
) (T
1
F
1
) .
En forma matricial,
A
2
A
1
B
2
B
1
= (A
2
B
2
) (A
1
B
1
) .
(iv) Si i
U
: U U es la identica de U e i
V
: V V , es la identica de V , entonces
i
U
i
V
= i
UV
.
En forma matricial,
E
n
E
m
= E
nm
.
(v) Sean T : U U

y F : V V

transformaciones lineales biyectivas, entonces


(T F)
1
= T
1
F
1
.
Matricialmente,
(A B)
1
= A
1
B
1
.
(vi) Sean T y F
1
, F
2
transformaciones lineales compatibles para las operaciones
indicadas, entonces
T (F
1
+ F
2
) = T F
1
+ T F
2
.
En forma matricial,
A (B
1
+ B
2
) = A B
1
+ A B
2
.
En forma similar se tienen las distributivas por el lado derecho.
(vii) Sean T : U U

y F : V V

transformaciones lineales y sea a R,


entonces
(a.T) F = T (a.F) = a. (T F) .
En forma matricial,
(a A) B = A (a B) = a (A B).
(viii) Sean A M
n
(R) , B M
m
(R), entonces
tr (A B) = tr (A) tr (B) ,
det (A B) = det (A)
m
det (B)
n
.
(ix) Sean A, A

M
n
(K) y B, B

M
m
(K), entonces
A A

, B B

A B A

; A A

, B B

A B A

.
58 CAP

ITULO 3. PRODUCTO TENSORIAL


3.3. Funciones multilineales y tensores
En el captulo 2 consideramos funciones multilineales sobre un mismo espacio V
para establecer la teora de determinantes (vease la denicion 2.2.1). Estudiaremos
ahora la nocion general de funcion multilineal y su relacion con el producto tensorial
de tres o mas espacios vectoriales. Comezamos con el dual de un espacio vectorial.
Sea V un R-espacio, el conjunto de transformaciones lineales Hom
R
(V, R) es un
R-espacio y se denomina el espacio dual de V , denotado V

. Para cuando V es
libre de dimension nita se tiene la siguiente propiedad.
Proposici on 3.3.1. Sea V un R-espacio de dimension nita n 1 con base X :=
x
1
, . . . , x
n
. Entonces, X

:= x

1
, . . . , x

n
es una base de V

, denominada la base
dual de X, con x

i
(x
j
) :=
ij
, donde
ij
es el smbolo de Kronecker. Ademas, para
cada f V

y cada v V se tiene que f =

n
k=1
f(x
k
) x

k
y v =

n
k=1
x

k
(v) x
k
.
Demostracion. Este es un sencillo ejercicio para el lector.
Denici on 3.3.2. Sean V
1
, . . . , V
n
, W espacios vectoriales sobre el anillo conmuta-
tivo R; una funcion
V
1
V
n
f
W
es multilineal si es lineal en cada argumento, es decir, para 1 i n y r R
f(x
1
, . . . , x
i
+ x

i
, . . . , x
n
) = f(x
1
, . . . , x
i
, . . . , x
n
) + f(x
1
, . . . , x

i
, . . . , x
n
),
f(x
1
, . . . , r x
i
, . . . , x
n
) = r f(x
1
, . . . , x
i
, . . . , x
n
).
Proposici on 3.3.3. La coleccion /(V
1
, . . . , V
n
; W) de todas las funciones multi-
lineales de V
1
V
n
en W es un R-espacio vectorial respecto de las siguientes
operaciones:
(f + g)(x
1
, . . . , x
n
) := f(x
1
, . . . , x
n
) + g(x
1
, . . . , x
n
),
(r f)(x
1
, . . . , x
n
) := r f(x
1
, . . . , x
n
).
Demostracion. Ejercicio para el lector.
El producto tensorial de tres o mas espacios V
1
, . . . , V
n
se puede construir en forma
inductiva deniendo V
1
V
n
:= (V
1
V
n1
) V
n
, o tambien, mediante
las funciones multilineales, como veremos a continuacion: consideremos el cociente
del R-espacio libre R
(V
1
Vn)
por el subespacio S generado por todos los vectores
de la forma
(x
1
, . . . , x
i
+ x

i
, . . . , x
n
) (x
1
, . . . , x
i
, . . . , x
n
) (x
1
, . . . , x

i
, . . . , x
n
),
r (x
1
, . . . , x
i
, . . . , x
n
) (x
1
, . . . , r x
i
, . . . , x
n
),
3.3. FUNCIONES MULTILINEALES Y TENSORES 59
con 1 i n y r R. Este espacio cociente se denota por V
1
V
n
y se
denomina producto tensorial de V
1
, . . . , V
n
. La clase del vector (x
1
, . . . , x
n
) se
denota por x
1
x
n
, y cada elemento de V
1
V
n
es una suma nita de
elementos de esta forma. La funcion canonica denida por
t : V
1
V
n
V
1
V
n
(x
1
, . . . , x
n
) x
1
x
n
es multilineal. Esto en particular quiere decir que x
1
(x
i
+ x

i
) x
n
=
x
1
x
i
x
n
+x
1
x

i
x
n
y r(x
1
x
i
x
n
) = x
1
r
x
i
x
n
. El producto tensorial V
1
V
n
tiene la siguiente propiedad universal
(vease el teorema 3.1.4): sea W un R-espacio y sea f : V
1
V
n
W una funcion
multilineal. Entonces, existe una unica transformacion lineal F : V
1
V
n
W
tal que Ft = f:
V
1
V
n
V
1
V
n
W
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
%
F
La tranformacion lineal F se dene por
F (x
1
x
n
) := f (x
1
, . . . , x
n
) .
El teorema 3.1.5 tiene tambien lugar en este caso general, es decir, el producto
tensorial de espacios libres de dimension nita es libre y la dimension es el producto
de las dimensiones. De manera mas precisa, si X
j
es una base de V
j
entonces
X := X
1
X
n
:= x
j
1
x
jn
[x
j
i
X
i
, 1 i n
es una base de V
1
V
n
. Utilizando la notacion precedente tenemos el siguiente
resultado general valido para espacios arbitrarios.
Teorema 3.3.4. /(V
1
, . . . , V
n
; W)

= Hom
R
(V
1
V
n
, W).
Demostracion. Seg un acabamos de ver, dada f /(V
1
, . . . , V
n
; W) existe una
unica F Hom
R
(V
1
V
n
, W) tal que Ft = f, denimos entonces :
/(V
1
, . . . , V
n
; W) Hom
R
(V
1
V
n
, W) por (f) := F. Observemos que
es una transformacion lineal inyectiva. Ademas, dada F Hom
R
(V
1
V
n
, W)
denimos f /(V
1
, . . . , V
n
; W) por f (x
1
, . . . , x
n
) := F (x
1
x
n
); es claro
entonces que f /(V
1
, . . . , V
n
; W) y (f) = F.
60 CAP

ITULO 3. PRODUCTO TENSORIAL


Corolario 3.3.5. /(V
1
, . . . , V
n
; R)

= Hom
R
(V
1
V
n
, R) := (V
1
V
n
)

.
Si V
1
, . . . , V
n
son libres de dimension nita, entonces
(V
1
V
n
)


= V

1
V

n
. (3.3.1)
Demostracion. La primera armacion es consecuencia directa del teorema anterior
tomando W := R.
Sea f
i
V

i
, 1 i n. Denimos la funcion
f : V
1
V
n
R
f (v
1
, . . . , v
n
) := f
1
(v
1
) f
n
(v
n
) .
Notemos que f es multilineal, luego induce una unica transformacion lineal
F : V
1
V
n
R
F (v
1
v
n
) := f (v
1
, . . . , v
n
) = f
1
(v
1
) f
n
(v
n
) .
Esto indica que F (V
1
V
n
)

; se dene entonces la funcion

f : V

1
V

n
(V
1
V )

(f
1
, . . . , f
n
)

f(f
1
, . . . , f
n
) := F.
Notemos que

f es multilineal, y por lo tanto, induce una transformacion lineal

F : V

1
V

n
(V
1
V
n
)

F (f
1
f
n
) :=

f(f
1
, . . . , f
n
) = F

F (f
1
f
n
) (v
1
v
n
) = F (v
1
v
n
) = f
1
(v
1
) f
n
(v
n
) .
Sea X
i
:= x
i1
, . . . , x
ik
i
un base de V
i
y sea X

i
= x

i1
, . . . , x

ik
i
la base dual.
Entonces,

F
_
x

1j
1
x

njn
_
(x
1r
1
x
nrn
) = x

1j
1
(x
1r
1
) x

njn
(x
nrn
)
= 1 si (j
1
, . . . , j
n
) = (r
1
, . . . , r
n
)
= 0, en otro caso.
Sabemos que x

1j
1
x

njn
[ 1 j
i
k
i
, 1 i n es una base de V

1
V

n
,
y por lo anterior,

F
_
x

1j
1
x

njn
_
= (x
1j
1
x
njn
)

, 1 j
i
k
i
, 1 i n.
Es decir,

F es una transformacion lineal que enva una base en una base, por tanto,

F es biyectiva.
3.3. FUNCIONES MULTILINEALES Y TENSORES 61
Sea V un R-espacio arbitrario y denotemos por
/
n
(V ; R) := /(V, . . . , V
. .
n-veces
; R)

= (V V
. .
n-veces
)

(3.3.2)
el R-espacio de funciones multilineales sobre V de n argumentos (vease la denicion
2.2.1). Para el caso particular en el cual V es de dimension nita se tiene la siguiente
nocion de tensor.
Denici on 3.3.6. Sea V un R-espacio vectorial libre de dimension nita k 1.
Los elementos del R-espacio
T
n
(V ) := /
n
(V ; R)

= (V V
. .
n-veces
)


= V

. .
n-veces
se denominan n-tensores sobre V .
Notemos que V

es el espacio de los 1-tensores y que las funciones bilineales sobre


V son los 2-tensores. Las funciones multilineales considerdas en el captulo 2 para
denir la funcion determinante son un ejemplo de n-tensores. Seg un la dencion
anterior, un n-tensor es el producto tensorial de n 1-tensores.
Corolario 3.3.7. Sea V un R-espacio vectorial libre de dimension nita k 1.
Entonces, T
n
(V ) es libre con dim(T
n
(V )) = k
n
. Si X := x
1
, . . . , x
k
es una base de
V , entonces x

j
1
x

jn
[ 1 j
i
k, 1 i n es una base de T
n
(V ). Ademas,
si f T
n
(V ), entonces
f =
k

j
1
,...,jn
f(x
j
1
, . . . , x
jn
) (x

j
1
x

jn
). (3.3.3)
Demostracion. Las primeras dos armaciones son consecuencia directa de la prueba
del corolario 3.3.5. Veamos la prueba de la segunda armacion: sea (v
1
, . . . , v
n
)
V
n
= V V , si v
i
= a
i1
x
1
+ + a
ik
x
k
, entonces
f(v
1
, . . . , v
n
) =
k

j
1
,...,jn
a
1j
1
a
2j
2
a
njn
f(x
j
1
, . . . , x
jn
),
y por otro lado
[
k

j
1
,...,jn
f(x
j
1
, . . . , x
jn
) (x

j
1
x

jn
)](v
1
, . . . , v
n
)
=
k

j
1
,...,jn
f(x
j
1
, . . . , x
jn
)x

j
1
(v
1
) x

jn
(v
n
)
=
k

j
1
,...,jn
f(x
j
1
, . . . , x
jn
)a
1j
1
a
2j
2
a
njn
.
62 CAP

ITULO 3. PRODUCTO TENSORIAL


Los escalares f(x
j
1
, . . . , x
jn
) se denominan las coordenadas del tensor f en la
base X := x
1
, . . . , x
k
. Veamos como cambian las coordenadas de f al cambiar
la base X: sea Y := y
1
, . . . , y
k
otra base de V y Y

= y

1
, . . . , y

k
la base dual
correspondiente. Entonces,
f =
k

i
1
,...,in
f(y
i
1
, . . . , y
in
) (y

i
1
y

in
). (3.3.4)
Puesto que y

i
1
y

in
[ 1 j
i
k es una base de T
n
(V ) y x

j
1
x

jn
T
n
(V ),
entonces
x

j
1
x

jn
=
k

i
1
,...,in
(x

j
1
x

jn
)(y
i
1
, . . . , y
in
) (y

i
1
y

in
)
=
k

i
1
,...,in
x

j
1
(y
i
1
) x

jn
(y
in
) (y

i
1
y

in
)
=
k

i
1
,...,in
x

j
1
(
k

v=1
c
vi
1
x
v
) x

jn
(
k

v=1
c
vin
x
v
) (y

i
1
y

in
)
=
k

i
1
,...,in
c
j
1
i
1
c
jnin
(y

i
1
y

in
).
Reemplazando en (3.3.3) resulta
f =
k

j
1
,...,jn
k

i
1
,...,in
c
j
1
i
1
c
jnin
f(x
j
1
, . . . , x
jn
) (y

i
1
y

in
).
De (3.3.4) se obtiene entonces que
f(y
i
1
, . . . , y
in
) =
k

j
1
,...,jn
c
j
1
i
1
c
jnin
f(x
j
1
, . . . , x
jn
), (3.3.5)
donde C := [c
rs
] es la matriz de cambio de la base X a la base Y .
Concluimos esta seccion con la denicion del producto tensorial de tensores. Para
esto comencemos con una construccion un poco mas general. Existe una transfor-
macion lineal
/
n
(V ; R) /
m
(V ; R)
F
/
n+m
(V ; R).
3.4. TENSORES SIM

ETRICOS, ANTISIM

ETRICOS Y ALTERNADOS 63
En efecto, consideremos el siguiente diagrama
/
n
(V ; R) /
m
(V ; R) /
n
(V ; R) /
m
(V ; R)
/
n+m
(V ; R)
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
%
F
donde t(h, g) := h g y f(h, g) := f
h,g
, con
f
h,g
(v
1
, . . . , v
n
; v
n+1
, . . . , v
n+m
) := h(v
1
, . . . , v
n
)g(v
n+1
, . . . , v
n+m
).
Observemos que efectivamente f
h,g
/
n+m
(V ; R) y f es bilineal, luego F existe y
es una transformacion lineal denida por F(h g) := f
h,g
, es decir,
F(h g)(v
1
, . . . , v
n
; v
n+1
, . . . , v
n+m
) := h(v
1
, . . . , v
n
)g(v
n+1
, . . . , v
n+m
). (3.3.6)
As pues, dadas dos funciones multilineales h /
n
(V ; R) y g /
m
(V ; R) se dene
su producto tensorial por
(h g)(v
1
, . . . , v
n
; v
n+1
, . . . , v
n+m
) := h(v
1
, . . . , v
n
)g(v
n+1
, . . . , v
n+m
). (3.3.7)
En particular, si V es de dimension nita, entonces h T
n
(V ), g T
m
(V ) y la
relacion anterior dene el producto tensorial de tensores.
Proposici on 3.3.8. Sea V un R-espacio vectorial libre de dimension nita k 1.
Entonces, T
n
(V ) T
m
(V )

= T
n+m
(V ).
Demostracion. Basta observar que la transformacion lineal F denida en (3.3.6)
envia una base de T
n
(V )T
m
(V ) en una base de T
n+m
(V ), luego F es un isomorsmo.
3.4. Tensores simetricos, antisimetricos y alterna-
dos
En el captulo 2 denimos las funciones multilineales antisimetricas y alternadas
de n argumentos sobre un R-espacio arbitrario V . Demostramos que que si 2
R

, entonces las funciones multilineales alternadas y las antisimetricas coinciden.


Retomamos ahora el tema para el caso particular de los tensores. En esta seccion,
salvo que advierta lo contrario, V es un R-espacio libre de dimension nita k 1.
64 CAP

ITULO 3. PRODUCTO TENSORIAL


Denici on 3.4.1. Un tensor f T
n
(V ) es simetrico si para cada permutacion
S
n
y cualquier elemento (v
1
, . . . , v
n
) V V se cumple
f((v
1
), . . . , (v
n
)) = f(v
1
, . . . , v
n
).
Se dice que F es antisimetrico si
f((v
1
), . . . , (v
n
)) = (1)

f(v
1
, . . . , v
n
).
F es alternado si f(v
1
, . . . , v
n
) = 0, cuando v
i
= v
j
con i ,= j.
De esta denicion se obtienen de manera directa los siguientes resultados.
Proposici on 3.4.2. Sean o
n
(V ), /
n
(V ) y /L
n
(V ) las colecciones de n-tensores
simetricos, antismetricos y alternados, respectivamente, sobre el espacio V . En-
tonces, o
n
(V ), /
n
(V ) y /L
n
(V ) son R-espacios. Ademas, /L
n
(V ) /
n
(V ) y
si 2 R

, entonces /
n
(V ) = /L
n
(V ).
Demostracion. Ejercicio para el lector.
Para los tensores alternados se tienen ademas las siguientes propiedades.
Proposici on 3.4.3. Sean v
1
, . . . , v
n
V vectores tales que para alg un i, v
i

v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
). Entonces, para cada f /L
n
(V ), f(v
1
, . . . , v
n
) = 0.
Ademas, si R es un DI y v
1
, . . . , v
n
V son linealmente dependientes, entonces
para cada f /L
n
(V ), f(v
1
, . . . , v
n
) = 0.
Demostracion. Sea v
i
= r
1
v
1
+ +r
i1
v
i1
+r
i+1
v
i+1
+ +r
n
v
n
, entonces
f(v
1
, . . . , v
i1
, r
1
v
1
+ + r
i1
v
i1
+ r
i+1
v
i+1
+ + r
n
v
n
, v
i+1
, . . . , v
n
) =
r
1
f(v
1
, . . . , v
i1
, v
1
, v
i+1
, . . . , v
n
) + + r
i1
f(v
1
, . . . , v
i1
, v
i1
, v
i+1
, . . . , v
n
) +
r
i+1
f(v
1
, . . . , v
i1
, v
i+1
, v
i+1
, . . . , v
n
) + +r
n
f(v
1
, . . . , v
i1
, v
n
, v
i+1
, . . . , v
n
) = 0.
Para la segunda armacion, existen r
1
, . . . , r
n
R no todos nulos, digamos r
i
,= 0,
tales que r
1
v
1
+ + r
i
v
i
+ + r
n
v
n
= 0. Resulta,
0 = f(v
1
, . . . , v
i1
, 0, v
i+1
, . . . , v
n
) = r
i
f(v
1
, . . . , v
i1
, v
i
, v
i+1
, . . . , v
n
),
pero como R es un DI y r
i
,= 0, entonces f(v
1
, . . . , v
n
) = 0.
Corolario 3.4.4. Sea R un DI y sea V un R-espacio libre de dimension nita
k 1. Entonces, para cada n > k, /L
n
(V ) = 0.
Demostracion. Consecuencia directa del corolario 2.4.13 y de la proposicion anterior.
Si R = K es un cuerpo de caractersitica cero, a cada tensor f T
n
(V ) se pueden
asociar un tensor simetrico y uno alternado ( = antisimetrico). En efecto, denimos
3.4. TENSORES SIM

ETRICOS, ANTISIM

ETRICOS Y ALTERNADOS 65
S
f
(v
1
, . . . , v
n
) :=
1
n!

Sn
f((v
1
), . . . , (v
n
)),
Al
f
(v
1
, . . . , v
n
) :=
1
n!

Sn
(1)

f((v
1
), . . . , (v
n
)).
Sea S
n
, entonces := recorre tambien el grupo S
n
y se obtiene
S
f
((v
1
), . . . , (v
n
)) :=
1
n!

Sn
f((v
1
), . . . , (v
n
))
=
1
n!

Sn
f((v
1
), . . . , (v
n
))
= S
f
(v
1
, . . . , v
n
).
As pues, S
f
o
n
(V ). De manera similar, =
1
y (1)

= (1)

(1)

1
, pero
(1)

1
= (1)

, luego
Al
f
((v
1
), . . . , (v
n
)) :=
1
n!

Sn
(1)

f((v
1
), . . . , (v
n
))
=
1
n!

Sn
(1)

(1)

f((v
1
), . . . , (v
n
))
= (1)

Al
f
(v
1
, . . . , v
n
).
Proposici on 3.4.5. Sean K un cuerpo, con char(K) = 0, y V un K-espacio de
dimension k 1. Entonces, las funciones S : T
n
(V ) o
n
(V ) y Al : T
n
(V )
/L
n
(V ) denidas por S(f) := S
f
y Al(f) := Al
f
son transformaciones lineales.
Ademas, si f es simetrico (alternado), entonces S
f
= f (Al
f
= f).
Demostracion. Ejercicio para el lector.
Proposici on 3.4.6. Sea K un cuerpo, con char(K) = 0, y sea V un K-espacio de
dimension nita k 1. Entonces,
T
2
(V ) = o
2
(V ) /L
2
(V ).
Demostracion. Considerando que un 2-tensor sobre V es una funcion bilineal sobre
V , entonces el resultado es inmediato si se tiene en cuenta que toda forma bili-
neal se puede expresar en forma unica como suma de una forma simetrica y una
antisimetrica:
f(u, v) =
1
2
[f(u, v) + f(v, u)] +
1
2
[f(u, v) f(v, u)].
Concluimos esta seccion deniendo el producto exterior entre tensores alternados.
66 CAP

ITULO 3. PRODUCTO TENSORIAL


Denici on 3.4.7. Sea K un cuerpo, con char(K) = 0. Sea V un K-espacio de
dimension k 1 y sean f T
n
(V ), g T
m
(V ). El producto exterior de f y g se
dene por
f g :=
(n + m)!
n!m!
Al(f g). (3.4.1)
Algunas propiedades del producto exterior se resumen en la siguiente proposicion.
Proposici on 3.4.8. Sean, K, V , k, V , f y g como en la dencion anterior. En-
tonces,
(i) Si f, g T
1
(V ), entonces f g = f g g f.
(ii) f 0 = 0.
(iii) Si h T
m
(V ), entonces f (g +h) = f g +f h. La distributiva por el lado
izquierdo tambien se cumple.
(iv) Si h T
p
(V ), entonces (f g) h = f (g h).
(v) Si a K, entonces, (a f) g = f (a g) = a (f g).
(vi) g f = (1)
nm
(f g).
(vii) f f = 0.
Demostracion. Ejercicio para el lector.
3.5.

Algebras y producto tensorial
En esta ultima seccion vamos es denir el producto tensorial de algebras, el algebra
tensorial y el algebra exterior de un R-espacio.
Sean A y B dos R-algebras, entonces podemos construir el producto tensorial
A B de los R-espacios A y B. Este espacio puede ser dotado de estructura de R-
algebra con el producto denido de la siguiente manera: consideremos el diagrama
A B A B A B A B
A B
c
f
E
t
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
%
F
donde t es la funcion multilineal canonica, t(a, b, a

, b

) := aba

y f es denida
por f(a, b, a

, b

) := aa

bb

. Notese que f es multilineal, por tanto, f induce la


3.5.

ALGEBRAS Y PRODUCTO TENSORIAL 67
transformacion lineal F denida por F(aa

bb

) := aa

bb

. Puesto que se tiene


el isomorsmo de R-espacios ABAB

= (AB) (AB), entonces podemos
suponer que F es la transformacion lineal denida por (AB) (AB)
F
AB,
F((ab) (a

)) := aa

bb

. Por el teorema 3.3.4, F induce una funcion bilineal


(A B) (A B)

f
A B,
la cual permite denir la multiplicacion en A B:

f(a b, a

) := F((a b) (a

)) = aa

bb

;
as pues, como

f es bilineal entonces el producto queda bien denido por
(a b)(a

) :=

f(a b, a

) = aa

bb

. (3.5.1)
La bilinealidad de

f garantiza que este produto es distributivo. La asociatividad
es consecuencia asociatividad en A y B. El uno de esta algebra es 1 1. A B se
conoce como el producto tensorial de A y B. Si A y B son algebras conmutativas,
entonces A B es conmutativa.
Consideremos ahora un R-espacio V , denimos
T(V ) :=

i0
T
i
(V ), T
0
(V ) := R, T
i
(V ) := V V
. .
iveces
, i 1. (3.5.2)
Notemos que cada elemento z T(V ) es de la forma z = (z
i
)
i0
, con z
i
T
i
(V )
y z
i
= 0 para casi todo i. En otras palabras, si
i
: T
i
(V ) T(V ) es la inyeccion
canonica de la suma directa externa (vease [6]), entonces z se puede escribir en la
forma z =

iCz

i
(z
i
), donde (
z
:= i[z
i
,= 0 es el soporte de z (nito). T(V ) es
pues un R-espacio. Si identicamos a T
i
(V ) con su imagen a traves de la inyeccion
canonica
i
, es decir, si consideramos a T
i
(V ) como subespacio del R-espacio T(V ),
entonces T(V ) es suma directa interna de los subespacios T
i
(V ):
T(V ) =

i0
T
i
(V ) = R V (V V )
As pues, cada elemento z T(V ) tiene una representacion unica en la forma z =
z
0
+ z
1
+ + z
i
, con z
j
T
j
(V ), 0 j i. T(V ) tiene estructura de R-algebra
con el producto denido mediante distributividad y el R-isomorsmo
T
i
(V ) T
j
(V )

= T
i+j
(V ). (3.5.3)
En T(V ) tenemos entonces que
(v
1
v
i
)(v
i+1
v
i+j
) := v
1
v
i+j
, (3.5.4)
r(v
1
v
i
) := r (v
1
v
i
) =: (v
1
v
i
)r. (3.5.5)
68 CAP

ITULO 3. PRODUCTO TENSORIAL


El producto anterior est a bien denido si se tiene en cuenta (3.5.3) y que la repre-
sentacion de cada elemento de T(V ) a traves de la suma directa interna es unica.
Como estamos considerando que T
i
(V ) T(V ), entonces el isomorsmo ((3.5.3))
se puede interpretar como
T
i
(V )T
j
(V ) T
i+j
(V ).
Notemos que el elemento v
1
v
i
T
i
(V ) corresponde al producto v
1
v
i
de
tal forma que la relacion (3.5.4) se puede escribir en el forma
(v
1
v
i
)(v
i+1
v
i+j
) = (v
1
v
i
)(v
i+1
v
i+j
) = v
1
v
i+j
.
T(V ) se conoce como el algebra tensorial del R-espacio V . Notemos que la in-
clusion
: V T(V )
v v
es una transformacion lineal. El cero de T(V ) es el cero de R, lo mismo ocurre con
el uno. Observemos que T(V ) es un algebra no conmutativa: para v, v

V se tiene
que vv

= v v

,= v

v = v

v.
El producto tensorial tiene la siguiente propiedad universal.
Teorema 3.5.1. Para cada R-algebra B y cada transformacion lineal f : V B,
existe un unico homomorsmo de R-algebras F : T(V ) B tal que F = f:
V
T(V )
B
c
f
E

p
p
p
p
p
p
p
p
p

F
F se dene por
F(v) := f(v), v V, F(r) := r 1, r R. (3.5.6)
Demostracion. Para i 2, sea f
i
es la transformacion lineal inducida por la funcion
multilineal
f

i
: V V B, f

i
(v
1
, . . . , v
i
) := f(v
1
) f(v
i
),
f
i
(v
1
v
i
) = f(v
1
) f(v
i
);
ademas, sean f
1
:= f, f
0
(r) = r 1. Denimos F por
F(z
0
+ z
1
+ + z
i
) := f
0
(z
0
) + f
1
(z
1
) + + f
i
(z
i
), con z
j
T
j
(V ), 0 j i.
3.5.

ALGEBRAS Y PRODUCTO TENSORIAL 69
As, F es una transformacion lineal bien denida y satisface F(v
1
v
i
) =
f
i
(v
1
v
i
) = f(v
1
) f(v
i
) para i 2, F(v) = f
1
(v) = f(v) para cada v V y
F(r) = f
0
(r) = r 1 para cada r R. Notemos que F = f. F es un homomorsmo
de R-algebras ya que
F(v
1
v
i
)F(v
i+1
v
i+j
) = F(v
1
v
i
)F(v
i+1
v
i+j
) =
f(v
1
) f(v
i
)f(v
i+1
) f(v
i+j
) = F(v
1
v
i+j
) = F(v
1
v
i+j
) =
F((v
1
v
i
)(v
i+1
v
i+j
)),
y ademas F(1) = 1. Si G es otro homomorsmo de R-algebras tal que G = f,
entonces para cada v V , G(v) = G(v) = f(v) = F(v), ademas, G(r) = G(r 1) =
r G(1) = r 1 = F(r) para cada r R, es decir, G = F.
Pasamos ahora a construir el algebra exterior de V . En T(V ) consideremos el
ideal bilatero J (vease [5]) generado por los elementos de la forma v
2
, v V , es
decir,
J := v
2
[v V );
ademas, denimos
J
0
:= 0 =: J
1
, J
i
:= J T
i
(V ) para i 2.
Notese que J
i
coincide con el R-subespacio S
i
de T
i
(V ) generado por los elementos
de la forma v
1
v
i
, con v
r
= v
s
para alg un par de ndices 1 r ,= s i. En efecto,
es claro que J
i
S
i
; para la inclusion recproca basta observar que cada elemen-
to v
1
v
r
v
s
v
i
, con v
r
= v
s
, pertenece a J
i
. Ilustremos con dos situaciones
particulares la prueba inductiva requerida: consideremos v
1
v
2
v
1
,
(v
1
+v
2
)(v
1
+v
2
)v
1
= v
1
(v
1
+v
2
)v
1
+v
2
(v
1
+v
2
)v
1
= v
1
v
1
v
1
+v
1
v
2
v
1
+v
2
v
1
v
1
+v
2
v
2
v
1
,
luego v
1
v
2
v
1
J
3
. Consideremos tambien el caso v
1
v
2
v
3
v
1
:
(v
1
+ v
2
)(v
1
+ v
2
)v
3
v
1
= v
1
v
1
v
3
v
1
+ v
1
v
2
v
3
v
1
+ v
2
v
1
v
3
v
1
+ v
2
v
2
v
3
v
1
,
notemos que los sumandos v
1
v
1
v
3
v
1
, v
2
v
1
v
3
v
1
estan en J
4
tal como vimos en el caso
particular anteriormente analizado. Por lo tanto, v
1
v
2
v
3
v
1
J
4
. Los dos casos ante-
riores muestran que la prueba en el caso general v
1
v
r
v
s
v
i
, con v
r
= v
s
, se
establece por induccion sobre s r.
Notemos que
J =

i0
J
i
.
En efecto, es claro que J
i
J para cada i 0, luego

i0
J
i
J; ademas, la
suma es directa ya que J
i
T
i
(V ). Veamos que J

i0
J
i
. Sea z J, entonces
existen z
j
, z

j
T(V ) y v
j
V , 1 j t, tales que z = z
1
v
2
1
z

1
+ + z
t
v
2
t
z

t
, pero
70 CAP

ITULO 3. PRODUCTO TENSORIAL


si expresamos cada z
j
y cada z

j
a traves de su expansion en T(V ) =

i0
T
i
(V ),
encontramos que cada uno de los sumandos de z
j
v
2
j
z

j
pertenece a alg un J
i
, luego la
inclusion se nalada es cierta.
Se dene entonces el algebra cociente
(V ) := T(V )/J, (3.5.7)
y se conoce como el algebra exterior de V .
Proposici on 3.5.2. Sea V un R-espacio. Entonces, se tiene el R-isomorsmo de
espacios
(V )

i0

i
(V ), (3.5.8)
donde

0
(V ) := T
0
(V )/J
0
= R,
1
(V ) := T
1
(V )/J
1
= V ,
i
(V ) := T
i
(V )/J
i
, i 2.
Demostracion. La propiedad universal de

i0

i
(V ) permite denir una transfor-
macion lineal F seg un el siguiente diagrama:
(V )

i
(V )

i0

i
(V )

i
E

i
p
p
p
p
p
p
p
p
p
p
p
p
T
F
donde
i
es la inyeccion canonica y
i
viene dada por
T
i
(V )/J
i
=
i
(V )

i
(V ) = T(V )/J,
i
(z
i
) := z
i
,
con z
i
:= z
i
+J
i
, z
i
T
i
(V ), z
i
:= z
i
+J. Notese que
i
es una transformacion lineal
bien denida: en efecto, si z
i
= z

i
, entonces z
i
z

i
J
i
J, luego z
i
=

z

i
.
F se dene por F((z
i
)) :=

iC

i
(z
i
) =

iC
z
i
, donde ( es el soporte de
(z
i
) ,= 0 y F(0) := 0. Notemos que existe k de tal forma que completando con
sumandos nulos podemos escribir
F((z
i
)) =

iC
z
i
= z
0
+ + z
k
, con z
j
T
j
(V ), 1 j k.
Por otro lado, sea G

: T(V )

i0

i
(V ) denida por G

(z
0
+ + z
i
) :=

0
(z
0
)+ +
i
(z
i
), con z
j
T
j
(V ), 0 j i. G

es obviamente una transformacion


lineal bien denida. Hacemos entonces G : (V )

i0

i
(V ), G( z) := G

(z), con
z T(V ). G esta bien denida ya que si z =

z

, entonces z z

J =

i0
J
i
,
3.5.

ALGEBRAS Y PRODUCTO TENSORIAL 71
de donde z z

= z
0
+ + z
i
, con z
j
J
j
, luego G

(z z

) = 0. G es claramente
una transformacion lineal. Finalmente, GF((z
i
)) = G( z
0
) + + G( z
k
) = G

(z
0
) +
+ G

(z
k
) = G

(z
0
+ + z
k
) =
0
(z
0
) + +
i
(z
k
) = (z
i
), es decir, GF es
la identica de

i0

i
(V ). Tambien, si z := z
0
+ + z
i
T(V ), con z
i
T
j
(V ),
1 j i, entonces FG( z) = FG

(z) = FG

(z
0
+ +z
i
) = F
0
(z
0
)+ +F
i
(z
i
) =

0
(z
0
) + +
i
(z
i
) = z
0
+ + z
i
= z. Esto muestra que FG = i
(V )
.
Si identicamos a
i
(V ) con su imagen a traves de la inyeccion canonica
i
, es
decir, si consideramos a
i
(V ) como subespacio del R-espacio (V ), entonces (V )
es suma directa interna de los subespacios
i
(V ):
(V ) =

i0

i
(V ) = R V
2
(V )
Cada elemento z (V ) tiene una representacion unica en la forma z = z
0
+ z
1
+
+ z
i
, con z
j

j
(V ), 0 j i. Para los elementos de
i
(V ) se usa la siguiente
notacion:
v
1
v
i
:= v
1
v
i
+ J
i

i
(V ), (3.5.9)
El isomorsmo (3.5.8) permite reinterpretar el producto en el anillo (V ) ya que
a traves del isomorsmo F se tiene que
(v
1
v
i
)(v
i+1
v
i+j
) = v
1
v
i+j
. (3.5.10)
Lo anterior demuestra que en (V ) se cumple la siguiente propiedad:

i
(V )
j
(V )
i+j
(V ). (3.5.11)
La transformacion lineal canonica de inclusion
: V (V )
satisface (v)
2
= 0 para cada v V . En efecto, en (V ) tiene lugar la identidad
v v = v
2
+ J
2
= 0. (3.5.12)
El algebra exterior esta caracterizada con la siguiente propiedad universal.
Teorema 3.5.3. Para cada R-algebra B y cada transformacion lineal f : V B
tal que f(v)
2
= 0, con v V , existe un unico homomorsmo de R-algebras F :
(M) B tal que F = f:
V
(V )
B
c
f
E

p
p
p
p
p
p
p
p
p

F
72 CAP

ITULO 3. PRODUCTO TENSORIAL


F se dene por
F(v) := f(v), v V, F(r) := r 1, r R. (3.5.13)
Demostracion. Seg un el teorema 3.5.1, existe un homomorsmo de R-algebras F

:
T(V ) B tal que F

= f. Denimos F( z) := F

(z), con z T(V ); F esta bien


denido ya que si z =

z

, entonces z z

J y existen z
j
, z

j
T(V ) y v
j
V , 1
j t, tales que zz

= z
1
v
2
1
z

1
+ +z
t
v
2
t
z

t
, luego F

(zz

) = F

(z
1
)F

(v
1
)
2
F

(z

1
)+
+ F

(z
t
)F

(v
t
)
2
F

(z

t
) = F

(z
1
)f(v
1
)
2
F

(z

1
) + + F

(z
t
)f(v
t
)
2
F

(z

t
) = 0. F es
un homomorsmo de R-algebras ya que F

los es; ademas, para cada v V se tiene


que F(v) = F( v) = F

(v) = F

(v) = f(v). Es claro que F(r) = r 1. Sea G otro


homomorsmo de R-algebras tal que G = f, entonces G(v) = G(v) = f (v) =
F (v) y G(r) = G(r 1) = r G(1) = r 1 = F(r), para cada r R.
Algunas propiedades interesantes realcionadas con el algebra exterior son las
siguientes:
(i) Para cada v V , v v = 0. En notacion multiplicativa usual, v
2
= 0.
(ii) Para u, v V , u v = (v v). En notacion multiplicativa, uv = vu. En
efecto, (u + v)(u + v) = 0 = u
2
+ uv + vu + v
2
= uv + vu.
(iii) Para cada z
i
(V ) y w
j
(V ), z w = (1)
ij
(w z). Mediante notacion
multiplicativa se tiene que zw = (1)
ij
wz. En efecto, si z = z
1
z
i
y w =
w
1
w
j
, entonces zw = (z
1
z
i
)(w
1
w
j
) = (1)
i
w
1
(z
1
z
i
)(w
2
w
j
)
= = (1)
i
(1)
i
. .
jveces
(w
1
w
j
)(z
1
z
i
) = (1)
ij
wz.
(iv) Si V es generado por n elementos, entonces para i > n,
i
(V ) = 0. En efecto,
en cada sumando de la expansion de v
1
v
i
:= v
1
v
i
+ J
i

i
(V ) a
traves de los generadores de V hay elementos repetidos.
(v) Sea V
f
U una transformacion lineal. Entonces f induce un unico homomor-
smo de R-algebras (V )
(f)
(U) que envia elementos de
i
(V ) en
i
(U)
para cada i 0. La restriccion de (f) a
i
(V ) se denota por
i
(f) y es tal
que
i
(f)(v
1
v
i
) = f(v
1
) f(v
i
). Ademas, (f) es sobreyectivo
si, y solo si, para cada i 0,
i
(f) es sobreyectivo. En efecto, basta aplicar el
teorema 3.5.3 y observar que (f) =

i
(f).
(vi) Sea R
f
S un homomorsmo de anillos. Entonces se tienen los siguientes
isomorsmos:
S (V )

= (S V ) (isomorsmo de R-algebras),
S
i
(V )

=
i
(S V ), i 0 (isomorsmo de R-espacios).
3.6. EJERCICIOS 73
(vii) Sea V = V
1
V
2
, entonces se tienen los siguientes isomorsmos:
(V )

= (V
1
) (V
2
) (isomorsmo de R-algebras),

i
(V )

j+k=i

j
(V
1
)
k
(V
2
), i 0 (isomorsmo de R-espacios).
(viii) Si V es libre con base X := x
1
, . . . , x
n
, entonces para 1 i n,
i
(V ) es
libre con base x
j
1
x
j
i
[1 j
1
< < j
i
n. Ademas, dim
i
(V ) =
_
n
i
_
y dim(V ) = 2
n
.
(ix) Si V es un espacio proyectivo nitamente geenerado , es decir, V es sumando
directo de un espacio libre de dimension nita, entonces (V ) y
i
(V ) son
espacios proyectivos nitamente generados, para cada i 0.
3.6. Ejercicios
1. Demuestre la proposicion 3.3.3.
2. Sean U, V, W R-espacios. Demuestre que (U V ) W

= U (V W) y
U V

= V U.
3. Demuestre las propiedades (iii)-(ix) y (xi) de la seccion 3.2.
4. Demuestre que el producto tensorial de dos matrices cuadradas simetricas es
una matriz simetrica.
5. Sean V
1
, . . . , V
n
R-espacios y sea S
n
una permutacion. Demuestre que
V
1
V
n

= V
(1)
V
(n)
.
6. Determine en cada caso si f T
2
(R
2
), donde
a) f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
d
2
+ c
2
d
1
.
b) f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
d
2
c
2
d
1
.
c) f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
+ d
2
.
7. Para los tensores f del ejercicio anterior calcule S
f
y Al
f
.
8. Sean T : R
3
R
2
y F : R
2
R
4
transformaciones lineales denidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y x) .
Entonces, dim(ker(T F)) = 2 ?.
74 CAP

ITULO 3. PRODUCTO TENSORIAL


9. Demuestre la proposicion 3.4.2.
10. Sean V un R-espacio de dimension nita k 1 y f T
n
(V ). Demuestre que
f /
n
(V ) si, y solo si, para cada trasposicion S
n
y cada (v
1
, . . . , v
n
)
V V , f((v
1
), . . . , (v
n
)) = f(v
1
, . . . , v
n
).
11. Demuestre la proposicion 3.4.5.
12. Demuestre la proposicion 3.4.8.
13. Determine si se tienen los siguientes isomorsmos de R-algebras:
M
n
(R) M
m
(R)

= M
nmnm
(R).
R[x] R[y]

= R[x, y].
14. Demuestre el teorema 3.5.1.
15. Demuestre los numerales (v)-(ix) de la seccion 5.5.
16. Sea K un cuerpo y sean A M
n
(K), B M
m
(K) matrices diagonalizables,
entonces A B es diagonalizable ?.
17. La funcion f denida por
f : R
2
R
2
R, f((c
1
, c
2
), (d
1
, d
2
)) := c
1
d
2
c
2
d
1
es un tensor?.
18. Sean f, g /L
2
(R
2
) dos tensores antisimetricos. Entonces, f g es anti-
simetrico ?.
19. Demuestre las propiedades (v)-(xi) de la seccion 3.5.
Captulo 4
Formas can onicas
Aplicamos en este captulo la teora de los modulos nitamente generados sobre
dominios de ideales principales (vease [6]) para el estudio de las formas canonicas
clasica, racional y de Jordan de una transformacion lineal T : V V , con V un K-
espacio no nulo de dimension nita y K un cuerpo. En la ultima seccion estudiaremos
la forma canonica diagonal y la diagonalizacion de matrices mediante similaridad.
4.1. Polinomios mnimo y caracterstico
Sea End
K
(V ) la K-algebra de transformaciones lineales de V , T : V V un elemen-
to que jamos en End
K
(V ), y sea K[x] la K-algebra de polinomios con coecientes
en K.
Proposici on 4.1.1. La funcion
f : K[x] End
K
(V )
a(x) = a
0
+ a
1
x + + a
n
x
n
a
0
i
V
+ a
1
T + + a
n
T
n
=: a(T)
(4.1.1)
es un homomorsmo de K-algebras, donde i
V
es la funcion identica de V .
Demostracion. Sean a(x) = a
0
+ a
1
x + + a
n
x
n
, b(x) = b
0
+ b
1
x + + b
m
x
m

K[x], k K. Sin perdidad de generalidad podemos suponer que n = m. Entonces


f[a(x) +b(x)] = f[(a
0
+b
0
) +(a
1
+b
1
)x+ +(a
n
+b
n
)x
n
] = (a
0
+b
0
) i
V
+(a
1
+b
1
)
T + +(a
n
+b
n
) T
n
= (a
0
i
V
+a
1
T + +a
n
T
n
)+(b
0
i
V
+b
1
T + +b
n
T
n
) =
f(a(x)) + f(b(x)).
f[a(x)b(x)] = f(c(x)) = c
0
i
V
+c
1
T + +c
2n
T
2n
, donde c
i
=

i=j+l
a
j
b
l
, 1
i 2n, pero utilizando la distributividad del anillo End
K
(V ) se verica facilmente
que (a
0
i
V
+a
1
T+ +a
n
T
n
)(b
0
i
V
+b
1
T+ +b
n
T
n
) = c
0
I+c
1
T+ +c
2n
T
2n
,
es decir, f(c(x)) = f(a(x))f(b(x)). Finalmente resulta evidente que f(k a(x)) =
k f(a(x)) y f(1) = i
V
.
75
76 CAP

ITULO 4. FORMAS CAN

ONICAS
Corolario 4.1.2. Sea a(x) como en la proposicion 4.1.1 y v V . El producto
a(x) v :=(a
0
i
V
+ a
1
T + + a
n
T
n
)(v)
=a
0
v + a
1
T(v) + + a
n
T
n
(v) = a(T)(v)
dota a V una estructura de K[x]-espacio izquierdo. Esta estructura se denota por
V
T
.
Demostracion. Notese que V tiene estructura de End
K
(V )-modulo izquierdo con el
producto H v := H(v), H End
K
(V ), v V . La armacion es ahora evidente ya
que f en (4.1.1) es un homomorsmo de anillos.
Proposici on 4.1.3. V
T
es un K[x]-espacio nitamente generado y de torsion.
Demostracion. Sea X = x
1
, . . . , x
t
una base de V
K
. De la inclusion natural
l : K K[x]
k k
concluimos que V
T
=
K[x]
x
1
, . . . , x
t
). De otra parte se tiene el isomorsmo de K-
algebras End
K
(V ) = M
t
(K). Por lo tanto, dim
K
(End
K
(V )) = t
2
, esto ultimo im-
plica que f en (4.1.1) no puede ser inyectiva ya que de lo contrario f(1), f(x),
f(x
2
), . . . sera un subconjunto innito linealmente independiente de End
K
(V ), en
contradiccion con lo ya establecido. As, ker(f) ,= 0; dado que K[x] es un DIP se
tiene
ker(f) = q
T
(x)), (4.1.2)
con 0 ,= q
T
(x) K[x]. Sin perdida de generalidad podemos tomar q
T
(x) monico.
Resulta entonces que q
T
(x) v = 0 para cada v V
T
, con lo cual V
T
es de torsion.
Notese nalmente que
Ann
K[x]
(V
T
) = q
T
(x)). (4.1.3)
De acuerdo con este resultado podemos aplicar a V
T
la teora de los espacios
nitamente generados de torsion sobre un DIP.
Denici on 4.1.4. El polinomio q
T
(x) denido en (4.1.3) se denomina polinomio
mnimo de T.
Seg un (4.1.3), q
T
(x) no depende de la base X elegida en V .
Proposici on 4.1.5. Se tienen las siguientes propiedades para el polinomio mnimo
q
T
(x):
4.1. POLINOMIOS M

INIMO Y CARACTER

ISTICO 77
(i) Si q(x) K[x] es tal que
q(x) v = 0 para cada v V
T
, (4.1.4)
es decir, si q(T) = 0, entonces q
T
(x) [ q(x).
(ii) q
T
(x) es el polinomio monico de menor grado tal que satisface (4.1.4) y es
unico para T.
Demostracion. (i) Sea q(x) K[x] como en (4.1.4). Entonces q(x) Ann
K[x]
(V
T
) =
q
T
(x)), con lo que q
T
(x) [ q(x).
(ii) Sea p(x) monico de K[x] que satisface (4.1.4). Por (i), gr(q
T
(x)) gr(p(x)).
Ahora, si p(x) es de grado mnimo entre los que cumplen (4.1.4), tenemos que
gr(q
T
(x)) = gr(p(x)), por (i) y como q
T
(x) y p(x) son monicos, necesariamente
q
T
(x) = p(x).
Sea A M
t
(K) una matriz, A dene una unica transformacion lineal T : V V
en la base X. Notemos que q
T
(A) = 0. En efecto, q
T
(m
X
(T)) = m
X
(q
T
(T)) =
m
X
(0) = 0. Tenemos pues que existe al menos un polinomio monico que se anula en
A; consideremos la coleccion I de todos los polinomios de K[x] que se anulan en A,
este conjunto es claramente un ideal de K[x], luego I = q
A
(x)) y el polinomio q
A
(x)
se puede tomar monico. Notese que q
A
(x) es el polinomio monico de menor grado tal
que q
A
(A) = 0. En efecto, sea p(x) un polinomio monico de grado mnimo tal que
p(A) = 0, entonces p(x) I, luego q
A
(x)[p(x), pero como p(x) es monico y de grado
mnimo, entonces p(x) = q
A
(x). Se dene el polinomio mnimo de la matriz A
por q
A
(x). Notese que q
A
(x) = q
T
(x). En efecto, ya sabemos que q
T
(A) = 0, luego
q
A
(x)[q
T
(x); pero tambien q
A
(T) = 0 ya que m
X
(q
A
(T)) = q
A
(m
X
(T)) = q
A
(A) = 0
y m
X
es inyectiva. Resulta, q
T
(x)[q
A
(x), con lo cual q
T
(x) = q
A
(x).
Denici on 4.1.6. (i) Sea A = [a
ij
] M
t
(K) una matriz cuadrada; se denomina
polinomio caracterstico de A al determinante de la matriz caracterstica
xE A :=
_

_
x a
11
a
12
a
1t
a
21
x a
22
a
2t
.
.
.
.
.
.
.
.
.
.
.
.
a
t1
a
t2
x a
tt
_

_
(4.1.5)
y se denota por p
A
(x).
(ii) Sean K, V , T, X, t como en el corolario 4.1.3. Sea A = [a
ij
] = m
X
(T)
la matriz de T en la base X. Se dene el polinomio caracterstico de T por
p
T
(x) := p
A
(x).
78 CAP

ITULO 4. FORMAS CAN

ONICAS
Notese que gr(p
T
(x)) = t = dim
K
(V ); ademas, p
T
(x) es monico y no depende de
la base X elegida en V . En efecto, si Y es otra base de V y B := m
Y
(T), entonces
det(xE B) = det(xE C
1
AC) = det(C
1
(xE A)C) = det(xE A), donde C
es la matriz de cambio de la base X a la base Y .
Observemos que matrices similares tienen el mismo polinomio mnimo ya que
representan la misma transformacion lineal. Lo mismo se tiene para el polinomio
caracterstico. Las armaciones recprocas no son siempre ciertas, tal como lo ilustran
las matrices
_
1 1
0 1
_
y
_
1 0
0 1
_
.
Proposici on 4.1.7. Sea V = V
1
V
r
una descomposicion de V en suma de
subespacios T-invariantes no triviales, es decir, T(V
j
) V
j
. Sea T
j
la restriccion
de T a V
j
, 1 j r. Entonces
(i) Existe una base X en V tal que la matriz de T en la base X es diagonal por
bloques.
(ii) det(T) = det(T
1
) det(T
r
).
(iii) p
T
(x) = p
T
1
(x) p
Tr
(x).
(iv) q
T
(x) = m.c.m.q
T
1
(x), . . . , q
Tr
(x)
Demostracion. (i) Si juntamos las bases de V
1
, . . . , V
r
obtenemos una base de V y
en esta base la matriz de T es diagonal por bloques.
Teniendo en cuenta que el determinante, el polinomio caracterstico y el poli-
nomio mnimo de una transformacion lineal coinciden con los de su matriz en
cualquier base, entonces basta probar las armaciones en el caso matricial. Pero
el determinante de una matriz diagonal en bloques es el producto de los determi-
nantes de sus bloques, luego las partes (ii)-(iii) ya estan probadas.
Resta demostrar la parte (iv). Sea
A :=
_

_
A
1
0
.
.
.
.
.
.
.
.
.
0 A
r
_

_
y q
A
(x) el polinomio mnimo de A. Hagamos m(x) := m.c.mq
A
1
(x), . . . , q
Ar
(x).
Existen polinomios m
i
(x), 1 i r, tales que m(x) = q
A
i
(x)m
i
(x). Se debe entonces
demostrar que q
A
(x) = m(x). Teniendo en cuenta que tanto q
A
(x) como m(x) son
monicos, entonces basta demostrar que q
A
(x) [ m(x) y m(x) [ q
A
(x). Sea m(x) =
m
0
+ m
1
x + + m
l
x
l
, entonces
4.1. POLINOMIOS M

INIMO Y CARACTER

ISTICO 79
m(A) = m
0
E + m
1
A + + m
l
A
l
=
_

_
m
0
E + m
1
A
1
+ + m
l
A
l
1
0
.
.
.
.
.
.
.
.
.
0 m
0
E + m
1
A
r
+ + m
l
A
l
r
_

_
=
_

_
m(A
1
) 0
.
.
.
.
.
.
.
.
.
0 m(A
r
)
_

_
=
_

_
q
A
1
(A
1
)m
1
(A
1
) 0
.
.
.
.
.
.
.
.
.
0 q
Ar
(A
r
)m
r
(A
r
)
_

_
= 0.
Esto garantiza que q
A
(x) [ m(x).
Para demostrar la segunda parte basta mostrar que q
A
(x) es m ultiplo de cada
q
A
i
(x). Sea q
A
(x) = q
0
+q
1
x+ +q
t
x
t
, entonces q
A
(A) = 0 luego q
0
E+q
1
A+ +
q
t
A
t
= 0 y
q
0
I +
_

_
q
1
A
1
0
.
.
.
.
.
.
.
.
.
0 q
1
A
r
_

_
+ +
_

_
q
t
A
t
1
0
.
.
.
.
.
.
.
.
.
0 q
t
A
t
r
_

_
=
_

_
q
A
(A
1
) 0
.
.
.
.
.
.
.
.
.
0 q
A
(A
r
)
_

_
= 0,
luego q
A
(A
i
) = 0 para cada i, y esto indica que q
A
(x) es m ultiplo de cada q
A
i
(x).
Proposici on 4.1.8. Sea V
T
un K[x]-espacio cclico con generador v
0
. Sean q
T
(x) =
q
0
+ q
1
x + + q
n1
x
n1
+ x
n
el polinomio mnimo de T y p
T
(x) su polinomio
caracterstico. Entonces,
(i) X := v
0
, T(v
0
), . . . , T
n1
(v
0
) es una K-base de V .
(ii) m
X
(T) =
_

_
0 0 0 q
0
1 0 0 q
1
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 q
n1
_

_
,
denominada la matriz compa nera del polinomio q
T
(x).
(iii) p
T
(x) = q
T
(x).
Demostracion. (i) Dado que V
T
es cclico, tenemos
V
T

= K[x]/Ann
K[x]
(V ) (K[x]-isomorsmo).
De acuerdo con (4.1.3), Ann
K[x]
(V
T
) = q
T
(x)) (notese que q
T
(x) ,= 0 pues de lo
contrario V no sera de dimension nita sobre K). La inclusion natural K K[x]
80 CAP

ITULO 4. FORMAS CAN

ONICAS
convierte a K[x]/q
T
(x)) en un K-espacio vectorial con base 1, x, . . . , x
n1
, x
i
=
x
i
+q
T
(x)).
Sea v V
T
, entonces v = q(x) v
0
, q(x) K[x]; dado que K[x] es un dominio
euclideano, v = q
T
(x)t(x) v
0
+ r(x) v
0
, con r(x) = 0 o gr(r(x)) < n; resulta
entonces v = r(x) v
0
v
0
, T(v
0
), . . . , T
n1
(v
0
)), es decir, V = X). Sean ahora
a
0
, . . . , a
n1
K tales que
a
0
v
0
+ a
1
T(v
0
) + + a
n1
T
n1
(v
0
) = 0,
entonces
(a
0
+ a
1
x + + a
n1
x
n1
) v
0
= 0,
y as
a
0
+ a
1
x + + a
n1
x
n1
Ann
K[x]
(V ) = q
T
(x)).
Por lo tanto, a
0
+a
1
x + +a
n1
x
n1
= 0, de donde a
0
= a
1
= = a
n1
= 0.
(ii) La armacion de esta parte se sigue de (i) y del hecho que
q
T
(x) v
0
= 0 = q
0
v
0
+ q
1
T(v
0
) + + q
n1
T
n1
(v
0
) + T
n
(v
0
).
(iii) Dado que al mutilplicar una matriz por una propiamente elemental su determi-
nante no vara, se tiene
p
T
(x) =det
_

_
x 0 0 q
0
1 x 0 q
1
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x + q
n1
_

_
= det
_

_
0 x
2
0 q
0
+ q
1
x
1 x 0 q
1
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x + q
n1
_

_
=det
_

_
0 0 0 q
0
+ q
1
x + q
2
x
2
1 0 0 q
1
+ q
2
x
0 1 0 q
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 x + q
n1
_

_
= =
=det
_

_
0 0 0 q
0
+ q
1
x + + q
n1
x
n1
+ x
n
1 0 0 q
1
+ q
2
x + + x
n1
0 1 0 q
2
+ q
3
x + + n
n2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
n2
+ q
n1
x + x
2
0 0 1 x + q
n1
_

_
=q
T
(x).
4.1. POLINOMIOS M

INIMO Y CARACTER

ISTICO 81
Regresamos al estudio de las componentes primarias de V
T
.
Proposici on 4.1.9. Sea p(x) un polinomio monico irreducible de K[x]. La compo-
nente p(x)-primaria de V
T
es no nula si, y solo si, p(x) [ q
T
(x).
Demostracion. ) Supongase que V
(p(x))
T
,= 0 y sea 0 ,= v V
(p(x))
T
. Entonces,
Ann
K[x]
(v) = p(x)
l
), l 1 (vease [6]). Puesto que q
T
(x) v = 0 entonces p(x)
l
[
q
T
(x), y por lo tanto p(x) [ q
T
(x).
) Sea q
T
(x) = p(x)q(x) con q(x) K[x] monico. Notese que gr(q(x)) <
gr(q
T
(x)), as que por la proposicion 4.1.5, existe v ,= 0 en V
T
tal que q(x) v ,= 0,
pero entonces p(x) (q(x) v) = q
T
(x) v = 0, es decir , V
(p(x))
T
,= 0.
De la armacion anterior resulta inmediatamente la siguiente descomposicion de
V
T
en suma directa de sus componentes primarias.
Corolario 4.1.10. Sea
q
T
(x) = q
1
(x)
k
1
q
r
(x)
kr
(4.1.6)
la descomposicion del polinomio mnimo de T en producto de monicos irreducibles.
Entonces la descomposicion de V
T
en suma de sus componentes primarias esta dada
por
V
T
= (V
T
)
(q
1
(x))
(V
T
)
(qr(x))
. (4.1.7)
Se puede ahora descomponer cada componente primaria en suma directa de
K[x]-espacios cclicos (vease [6]). Para simplicar un poco la notacion escribimos
(V
T
)
(q
j
(x))
=: V
j
, (4.1.8)
para 1 j r.
Lema 4.1.11. Con la notacion anterior se tiene que:
(i) V
j
es un K-subespacio T-invariante de V y entonces T
j
:= T [
V
j
es un K-
endomorsmo de V
j
.
(ii) Sea q
T
j
(x) el polinomio mnimo de T
j
. Entonces
q
T
j
(x) = q
j
(x)
k
j
y V
j
= ker(q
j
(T)
k
j
).
(iii) Si s
j1
s
jl
j
1 son los divisores elementales de V
j
, escritos en orden
decreciente, entonces
s
j1
= k
j
.
82 CAP

ITULO 4. FORMAS CAN

ONICAS
(iv) Sea p
T
j
(x) el polinomio caracterstico de T
j
. Entonces,
p
T
j
(x) = q
j
(x)
s
j1
++s
jl
j
.
(v) q
T
j
(x)[p
T
j
(x).
(vi) dim
K
(V
j
) = (s
j1
+ + s
jl
j
)gr(q
j
(x)).
Demostracion. (i) Dado que V
j
en un K[x]-subespacio de V
T
, este tambien resulta
ser K-subespacio de V . Ademas, V
j
es T-invariante. En efecto, T(V
j
) = x V
j
V
j
.
(ii) Por (4.1.6), q
T
(x) = q
j
(x)
k
j
z
j
(x), con
z
j
(x) := q
k
1
1
(x) q
k
j1
j1
(x)q
k
j+1
j+1
(x) q
kr
r
(x).
Sea v
j
V
j
, entonces existe n 1 tal que q
n
j
(x) v
j
= 0. Como m.c.d.(q
n
j
(x), z
j
(x))
= 1, existen w(x), l(x) K[x] tales que 1 = w(x)q
n
j
(x) + l(x)z
j
(x), luego v
j
=
w(x)q
n
j
(x) v
j
+l(x)z
j
(x) v
j
= l(x)z
j
(x) v
j
, de donde q
k
j
j
(x) v
j
= l(x)q
T
(x) v
j
= 0.
Entonces, hemos demostrado que para cada j, q
T
j
(x) [ q
k
j
j
(x).
Por otra parte, de acuerdo con (4.1.7), cada elemento v V se puede expresar
en la forma
v = v
1
+ + v
j
+ + v
r
, v
j
V
j
.
Entonces,
q
T
j
(x)z
j
(x) v = q
T
j
(x)q
k
1
1
(x) q
k
j1
j1
(x)q
k
j
+1
j+1
(x) q
kr
r
(x) v = 0.
Resulta q
T
(x) [ q
T
j
(x)z
j
(x), con lo que q
k
j
j
(x) [ q
T
j
(x).
Notemos que si v V
j
, entonces q
j
(T
j
)
k
j
(v) = 0, es decir, q
j
(T)
k
j
(v) = 0, luego
v ker(q
j
(T)
k
j
). Recprocamente, si v ker(q
j
(T)
k
j
), entonces q
j
(T)
k
j
(v) = 0, luego
q
j
(x)
k
j
v = 0, es decir, v V
j
.
(iii) Se tiene el K[x]-isomorsmo
V
j

= K[x]/q
s
j1
j
(x)) K[x]/q
s
jl
j
j
(x)), (4.1.9)
y Ann
K[x]
(V
j
) = q
s
j1
j
(x)) = q
T
j
(x)), vease (4.1.3), de modo que seg un (ii), s
j1
= k
j
.
(iv) En (4.1.9) cada sumando es un K[x]-subespacio, luego tambien un K-
subespacio de V
j
; notemos que cada uno estos sumandos es T
j
-invariante: en efecto,
sea W
i
:= K[x]/q
s
ji
j
(x)), 1 i l
j
, entonces V
j

= W
1
W
l
j
; sea w W
i
,
luego x w W
i
, es decir, T(w) W
i
, luego T
j
(W
i
) W
i
.
Tenemos entonces que cada W
i
es un K[x]- espacio cclico T
j
-invariante, podemos
entonces aplicar las proposiciones 4.1.8 y 4.1.7 para obtener (iv).
(v) Consecuancia directa de (ii), (iii) y (iv).
(vi) Como el grado del polinomio caracterstico p
T
j
(x) de T
j
coincide con la
dimension de V
j
, entonces (v) es consecuencia de (iv).
4.2. FORMA CAN

ONICA CL

ASICA 83
Denici on 4.1.12. Sea V
T
descompuesto como en (4.1.7). Los divisores elementales
de V
T
se denominan divisores elementales de T.
De los resultados obtenidos podemos deducir uno de los teoremas basicos y mas
importantes del algebra lineal.
Teorema 4.1.13 (Hamilton-Cayley). Sea V un K-espacio de dimension nita y
T : V V una transformacion lineal de V . Entonces
q
T
(x) [ p
T
(x).
Demostracion. Por la parte (v) del lema 4.1.11, para cada 1 j r se tiene
que q
T
j
(x) [ p
T
j
(x), pero de la proposicion 4.1.7 y la descomposicion (4.1.7) resulta
q
T
1
(x) q
Tr
(x) = q
k
1
1
(x) q
kr
r
(x) = q
T
(x) [ p
T
(x).
4.2. Forma can onica clasica
Aplicamos ahora los resultados anteriores al estudio de las llamadas formas canonicas
de una transformacion lineal, o equivalentemente, de una matriz. Comenzamos con
la forma canonica clasica.
Seg un (4.1.7), podemos elegir en cada V
j
una base X
j
de tal manera que X :=

r
j=1
X
j
es una base de V y la matriz de T en dicha base toma la forma
m
X
(T) =
_

_
m
X
1
(T
1
) 0
.
.
.
.
.
.
.
.
.
0 m
Xr
(T
r
)
_

_
. (4.2.1)
Pero de acuerdo con (4.1.9), podemos elegir la base X
j
de V
j
de tal manera que la
matriz de T
j
en dicha base es diagonal en bloques:
m
X
j
(T
j
) =
_

_
A
j1
0
.
.
.
.
.
.
.
.
.
0 A
jl
j
_

_
. (4.2.2)
Por la proposicion 4.1.8, el bloque A
ji
es la matriz compa nera del polinomio q
j
(x)
s
ji
de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera que
aparezca la matriz compa nera de q
j
(x).
Proposici on 4.2.1. Sea V un K[x]-espacio cclico con generador v
0
y supongase
que el polinomio mnimo de T (vease la proposicion 4.1.8) es de la forma q(x)
s
,
84 CAP

ITULO 4. FORMAS CAN

ONICAS
donde q(x) := q
0
+ q
1
x + + q
n1
x
n1
+ x
n
es irreducible, s 1. Entonces existe
una base X en V tal que la matriz T en dicha base es de la forma
m
X
(T) =
_

_
C 0 0
1 C 0
0 1 0
.
.
.
.
.
.
0 1 C
_

_
, (4.2.3)
con s bloques C, donde C es la matriz compa nera de q(x) y los 1 van dispuestos en
las entradas (n + 1, n), (2n + 1, 2n) . . . , ((s 1)n + 1, (s 1)n).
Demostracion. Seg un la proposicion 4.1.8, una K-base de V es
X

= v
0
, Tv
0
, T
2
v
0
, . . . , T
ns1
v
0
.
Notese que
X := v
0
, Tv
0
, . . . , T
n1
v
0
;
q(T)v
0
, Tq(T)v
0
, . . . , T
n1
q(T)v
0
;
q(T)
2
v
0
, Tq(T)
2
v
0
, . . . , T
n1
q(T)
2
v
0
;
. . . ; q(T)
s1
v
0
, Tq(T)
s1
v
0
, . . . , T
n1
q(T)
s1
v
0

tiene ns elementos y satisface X

) = X) = V : en efecto, basta mostrar que cada


elemento de X

esta en X). Es claro que v


0
, Tv
0
, . . . , T
n1
v
0
X); como
q(T)v
0
= q
0
v
0
+ q
1
Tv
0
+ + q
n1
T
n1
v
0
+ T
n
v
0
,
entonces
T
n
v
0
= q(T)v
0
q
0
v
0
q
1
Tv
0
q
n1
T
n1
v
0
X)
T
n+1
v
0
= Tq(T)v
0
q
0
Tv
0
q
n1
T
n
v
0
X)
.
.
.
T
n+n1
v
0
= T
n1
q(T)v
0
q
0
T
n1
v
0
q
n1
T
2n2
v
0
X)
T
2n
v
0
= T
n
q(T)v
0
q
0
T
n
v
0
q
n1
T
2n1
v
0
= q(T)
2
v
0
q
0
q(T)v
0
q
1
Tq(T)v
0
q
n1
T
n1
q(T)v
0
q
0
T
n
v
0
q
n1
T
2n1
v
0
X),
continuando de esta manera, y por recurrencia, obtenemos lo anunciado.
As pues, X es una base de V y es facil ver que m
X
(T) es como en (4.2.3).
Reemplazando (4.2.3) en (4.2.2), y luego en (4.2.1), obtenemos la denominada
matriz canonica clasica de T. Notese que esta matriz canonica clasica consta
solamente de unos, ceros y los coecientes de los factores irreducibles q
1
(x), . . . , q
r
(x)
4.2. FORMA CAN

ONICA CL

ASICA 85
del polinomio mnimo q
T
(x). Para calcular la matriz canonica clasica de T es nece-
sario conocer el sistema de divisores elementales de T, es decir, de V
T
. Si A es una
matriz cuadrada, entonces A determina una unica transformacion lineal T, y se de-
nen los divisores elementales de A como el sistema de divisores elementales de
T.
Corolario 4.2.2. (i) Sea T : V V una transformacion lineal de un K-espacio
V de dimension nita. Entonces, existe una base X en V tal que la matriz de
T en la base X es una matriz canonica clasica.
(ii) Toda matriz A M
n
(K) es similar a una unica matriz canonica clasica.
(iii) Dos matrices cuadradas son similares si, y solo si, tienen el mismo sistema de
divisores elementales.
Demostracion. Las dos primeras armaciones fueron probadas en el desarrollo de
la presente seccion. La tercera se tiene ya que matrices similares representan la
misma transformacion lineal y, si dos matrices tienen el mismo sistema de divisores
elementales, entonces son similares a la misma matriz canonica clasica, y por lo
tanto son similares.
Ejemplo 4.2.3. Ilustramos a continuacion el calculo de las componentes primarias
del V
T
, donde T es una transformacion lineal denida por medio de una matriz.
Tambien calcularemos la base X que permite obtener la forma diagonal en bloques
dada en (4.2.1). Consideremos la transformacion lineal T : R
4
R
4
denida por la
matriz
A =
_

_
1 1 0 1
0 3 1 0
2 1 2 1
3 2 0 4
_

_
.
Mediante calculo manual o usando alg un paquete de computo (por ejemplo el SWP,
Scientic WorkPlace) encontramos que
p
A
(x) = q
A
(x) = 36 60x + 37x
2
10x
3
+ x
4
= (x 2)
2
(x 3)
2
;
debemos entonces calcular las componentes primarias de V := R
4
inducidas por A,
V
1
= ker((A 2E)
2
), V
2
= ker((A 3E)
2
). Tenemos
(A 2E)
2
=
_

_
2 2 1 1
2 2 1 1
1 1 1 0
3 3 2 1
_

_
, (A 3E)
2
=
_

_
1 0 1 1
2 1 1 1
3 1 2 2
3 1 2 2
_

_
y calculamos las bases de sus n ucleos:
86 CAP

ITULO 4. FORMAS CAN

ONICAS
ker(A 2E)
2
=
_

_
_

_
1
0
1
1
_

_
,
_

_
1
1
0
0
_

_
_

_
, ker(A 3E)
2
=
_

_
_

_
1
1
1
0
_

_
,
_

_
1
1
0
1
_

_
_

_
.
La base buscada X es la union de los cuatro vectores anteriores. Construimos la
matriz de cambio
C =
_

_
1 1 1 1
0 1 1 1
1 0 1 0
1 0 0 1
_

_
, C
1
=
_

_
0 1 1 1
1 1 0 0
1 1 1 0
1 1 0 1
_

_
,
y nalmente encontramos que
_

_
0 1 1 1
1 1 0 0
1 1 1 0
1 1 0 1
_

_
_

_
1 1 0 1
0 3 1 0
2 1 2 1
3 2 0 4
_

_
_

_
1 1 1 1
0 1 1 1
1 0 1 0
1 0 0 1
_

_
=
_

_
3 1 0 0
1 1 0 0
0 0 3 0
0 0 1 3
_

_
.
Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su forma
canonica clasica: tenemos p
A
(x) = q
A
(x) = q
1
(x)
2
q
2
(x)
2
, con q
1
(x) = x2 y q
2
(x) =
x 3, luego la forma buscada es
_

_
2 0 0 0
1 2 0 0
0 0 3 0
0 0 1 3
_

_
.
4.3. Forma can onica racional
La segunda forma canonica destacada es la racional, tambien denominada forma
canonica de Frobenius, en la cual intervienen los factores invariantes de V
T
. Del
corolario 4.1.10 y del teorema de estructura de los modulos f.g. sobre DIPs (vease
[6]) resulta
V
T

= K[x]/q
1
(x)) K[x]/q
m
(x)), (4.3.1)
4.3. FORMA CAN

ONICA RACIONAL 87
donde q
i
(x) [ q
j
(x) para i j (cada q
i
(x) se puede tomar monico). Existe entonces
una base X en V tal que
R := m
X
(T) =
_

_
C
1
0
.
.
.
.
.
.
.
.
.
0 C
m
_

_
, (4.3.2)
donde C
j
es la matriz compa nera de q
j
(x). Notese que
p
T
(x) = q
1
(x) q
m
(x),
q
m
(x)) = Ann
K[x]
(V
T
), q
T
(x) = q
m
(x),
(4.3.3)
resultando otra demostracion del teorema 4.1.13. Esta forma canonica consta de
ceros, unos y los coecientes de los factores invariantes.
Denici on 4.3.1. La matriz R en (4.3.2) se denomina racional o de Frobenius.
Los polinomios q
1
(x), . . . , q
m
(x) en (4.3.1) se denominan los factores invariantes
de la matriz R. Una transformacion lineal T : V V es racionalizable si existe
una base X en V tal que m
X
(T) es racional. Los factores invariantes de m
X
(T)
se denominan factores invariantes de T. Una matriz A M
n
(K) es racio-
nalizable si A es similar a una matriz racional R, y los factores invariantes R se
conocen como los factores invariantes de A.
Corolario 4.3.2. Sea T : V V una transformacion lineal sobre un K-espacio V
de dimension nita. Entonces, para cada base Y de V se cumple: T es racionalizable
si, y solo si, m
Y
(T) es racionalizable.
Demostracion. Esto es consecuencia del hecho que matrices similares representan la
misma transformacion lineal.
Corolario 4.3.3. (i) Toda transformacion lineal T : V V de un K-espacio V de
dimension nita es racionalizable.
(ii) Toda matriz A M
n
(K) es similar a una unica matriz racional R.
(iii) Dos matrices cuadradas son similares si, y solo si, tienen los mismos factores
invariantes.
Demostracion. La primera armacion se tiene tal como vimos en (4.3.2); la segunda
en consecuencia de que una matriz representa una transformacion lineal, la unicidad
se obtiene de la unicidad de los factores invariantes de V
T
. La tercera resulta de
que matrices similares representan la misma transformacion lineal y, si dos matrices
tienen los mismos facores invariantes, entonces son similares a la misma matriz
racional, y por lo tanto son similares.
En la proposicion 4.1.8 vimos que si V
T
es un K[x]-espacio cclico, entonces
p
T
(x) = q
T
(x). Veamos ahora la armacion recproca.
88 CAP

ITULO 4. FORMAS CAN

ONICAS
Corolario 4.3.4. Sea T : V V una transformacion lineal de un K-espacio de
dimension nita. V
T
es cclico si, y solo si, p
T
(x) = q
T
(x).
Demostracion. La condicion necesaria la vimos en la proposicion 4.1.8. Supongamos
entonces que p
T
(x) = q
T
(x). Seg un (4.3.3), V
T
tiene un solo factor invariante, luego
por (4.3.1) V
T
es cclico.
Ejemplo 4.3.5. En este ejemplo mostramos un procedimiento manual sencillo para
calcular los factores invariantes de una matriz, y en consecuencia, su forma canonica
racional. El metodo sin embargo no es eciente para matrices de dimensiones supe-
riores. Calculemos entonces los factores invariantes de la matriz
A =
_
_
3 4 4
1 3 2
2 4 3
_
_
.
Notemos en primer lugar que si q(x) = q
0
+ q
1
x + + q
n1
x
n1
+ x
n
y A es la
matriz compa nera de p(x) entonces
(xE A)
_

_
q(x) 0
1
.
.
.
0 1
_

_
.
En efecto, vimos en la prueba de la proposicion 4.1.8 que
(xE A)
_

_
0 0 0 q
0
+ q
1
x + + q
n1
x
n1
+ x
n
1 0 0 q
1
+ q
2
x + + x
n1
0 1 0 q
2
+ q
3
x + + n
n2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 q
n2
+ q
n1
x + x
2
0 0 1 x + q
n1
_

_
,
luego
(xE A)
_

_
0 0 0 q(x)
1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_

_
q(x) 0
1
.
.
.
0 1
_

_
.
4.3. FORMA CAN

ONICA RACIONAL 89
Por otra parte, si q
1
(x), . . . , q
m
(x) son los factores invariantes de A, entonces
(xE A)
_

_
q
1
(x) 0
.
.
.
q
m
(x)
1
.
.
.
0 1
_

_
.
En efecto, dado que toda matriz es racionalizable, existe una matrix invertible C tal
que
C
1
AC =
_

_
A
1
0
.
.
.
0 A
m
_

_
,
donde A
i
es la compa nera de q
i
(x), 1 i m. Entonces,
C
1
(xE A)C =
_

_
xE A
1
0
.
.
.
0 xE A
m
_

_
,
pero por lo que acabamos de ver, (xE A
i
)
_

_
q
i
(x) 0
1
.
.
.
0 1
_

_
, de modo que
(xE A)
_

_
q
1
(x) 0
.
.
.
q
m
(x)
1
.
.
.
0 1
_

_
.
90 CAP

ITULO 4. FORMAS CAN

ONICAS
Con el soporte teorico anterior podemos resolver el ejercicio planteado:
(xE A) =
_
_
x 3 4 4
1 x 3 2
2 4 x + 3
_
_

_
_
1 x 3 2
x 3 4 4
2 4 x + 3
_
_

_
_
1 x 3 2
0 (x 5)(x 1) 2(x 1)
0 2(x 1) x 1
_
_

_
_
1 0 0
0 (x 5)(x 1) 2(x 1)
0 2(x 1) x 1
_
_

_
_
1 0 0
0 (x 1)
2
0
0 2(x 1) x 1
_
_

_
_
1 0 0
0 (x 1)
2
0
0 0 x 1
_
_

_
_
x 1 0 0
0 (x 1)
2
0
0 0 1
_
_
,
entonces p
A
(x) = (x 1)
3
, q
A
(x) = (x 1)
2
y los factores invariantes de A son
x 1,(x 1)
2
. Finalmente podemos calcular la forma racional de A:
_
_
1 0 0
0 0 1
0 1 2
_
_
.
4.4. Forma can onica de Jordan
Presentamos en esta seccion otra forma canonica importante para transformaciones
lineales y matrices.
Denici on 4.4.1. Sea a K, la matriz cuadrada de orden k 1
J
a,k
:=
_

_
a 0 0 0
1 a 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
_

_
se denomina bloque elemental de Jordan de orden k perteneciente a a. La
matriz diagonal de m 1 bloques
J
a
:=
_

_
J
1
0
.
.
.
0 J
m
_

_
,
donde cada J
j
es un bloque elemental de Jordan perteneciente a a y tal que
4.4. FORMA CAN

ONICA DE JORDAN 91
orden J
1
orden J
2
orden J
m
se denomina bloque de Jordan perteneciente a a.
Sean a
1
, . . . , a
r
elementos diferentes de K. La matriz diagonal de r bloques de Jor-
dan, r 1,
J :=
_

_
J
a
1
0
.
.
.
0 J
ar
_

_
,
con J
a
i
perteneciente a a
i
se denomina matriz diagonal en bloques de Jordan
pertenecientes a a
1
, . . . , a
r
. Una transformacion lineal T : V V de un K-
espacio de dimension nita se dice diagonalizable en bloques de Jordan si
existe una base X en V tal que m
X
(T) es una matriz diagonal en bloques de Jordan.
Una matriz cuadrada se dice diagonalizable en bloques de Jordan si es similar
a una matriz diagonal en bloques de Jordan.
Corolario 4.4.2. Sea T : V V una transformacion lineal sobre un K-espacio V
de dimension nita. Entonces, para cada base X de V se cumple: T es diagonalizable
en bloques de Jordan si, y solo si, m
X
(T) es diagonalizable en bloques de Jordan.
Demostracion. Dado que matrices similares representan la misma transformacion
lineal se tiene entonces la armacion de la proposicion.
Ya se demostro que toda transformacion T de un espacio vectorial nito dimen-
sional es reducible a la forma canonica clasica, o equivalentemente, que toda matriz
cuadrada es similar a una matriz canonica clasica. Se probaron resultados analogos
para la forma canonica racional. Mostraremos en seguida que para cuerpos alge-
braicamente cerrados, toda transformacion lineal (= toda matriz cuadrada) sobre
un espacio nito dimensional es diagonalizable en bloques de Jordan.
Denici on 4.4.3. Una transformacion lineal T es nilpotente si existe s 1 tal
que T
s
= 0. El menor natural s con esta propiedad se llama ndice de nilpotencia
de T.
Proposici on 4.4.4. Sea T : V V una transformacion nilpotente de un K-espacio
V de dimension nita n 1 con ndice de nilpotencia s 1. Entonces existe una
base Y en V tal que
m
Y
(T) =
_

_
C
1
0
.
.
.
0 C
m
_

_
,
92 CAP

ITULO 4. FORMAS CAN

ONICAS
con
C
j
:=
_

_
0 0 0 0
1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
_

_
, de tama no s
j
s
j
, (4.4.1)
s
1
+ + s
m
= n, 1 s
1
s
2
s
m
, s
m
= s, q
T
(x) = x
s
, m = n umero de
factores invariantes de T y ademas m = dim(ker(T)).
Demostracion. Sean q
1
(x), . . . , q
m
(x) los factores invariantes de T. Seg un (4.3.3),
q
T
(x) = q
m
(x); sea s := ndice de nilpotencia de T, entonces q
m
(x) = x
s
, de donde
q
j
(x) = x
s
j
con 1 s
1
s
2
s
m
= s. Notese que la matriz compa nera
de q
j
(x) es efectivamente (4.4.1). Seg un (4.3.3), n = gr(p
T
(x)) = s
1
+ + s
m
.
Aplicamos entonces (4.3.2).
Veamos la prueba de la ultima armacion de la proposicion, es decir,
m = dim(ker(T).
Seg un (4.3.1), V
T
tiene la descomposicion en suma de K[x]-subespacios cclicos
V
T
= w
1
) w
m
), con w
j
)

= K[x]/x
s
j
).
La idea es probar que T
s
1
1
(w
1
), . . . , T
sm1
(w
m
) es una base de ker(T). Si w
ker(T), entonces w = u
1
+ + u
m
, donde u
j
es un elemento de w
j
), 1 j m.
Entonces,
w = g
1
(T)(w
1
) + + g
m
(T)(w
m
),
donde el grado de g
j
(x) se puede tomar inferior a s
j
. Se tiene que T(w) = 0, pero
como la suma directa, se concluye que g
j
(T)T(w
j
) = 0. Esto implica que x
s
j
divide a
g
j
(x)x, pero por la escogencia del grado de g
j
(x) se tiene que g
j
(x)x = b
j
x
s
j
, b
j
K.
Por lo tanto, g
j
(x) = b
j
x
s
j
1
, y en consecuencia,
w = b
1
T
s
1
1
(w
1
) + + b
t
T
st1
(w
m
).
La independencia lineal se obtiene de la suma directa y de que x
s
j
) = Ann
K[x]
(w
j
).
Teorema 4.4.5. Sea T : V V una transformacion lineal de un K-espacio de
dimension nita n 1. Supongase que p
T
(x) se descompone completamente en K[x]
en producto de factores lineales (esto ocurre por ejemplo si K es algebraicamente
cerrado). Entonces, T es diagonalizable en bloques de Jordan de manera unica, salvo
el orden de disposicion de los bloques.
4.4. FORMA CAN

ONICA DE JORDAN 93
Demostracion. Sea
p
T
(x) := (x a
1
)
n
1
(x a
r
)
nr
,
con a
1
, . . . , a
r
elementos diferentes de K, 1 n
j
n, 1 j r. Seg un (4.3.3),
p
T
(x) y q
T
(x) tienen los mismos factores irreducibles (aunque no necesariamente con
la misma multiplicidad). Entonces
q
T
(x) = (x a
1
)
k
1
(x a
r
)
kr
, 1 k
j
n
j
.
Sean V
j
y T
j
como se denieron en (4.1.8) y en el lema 4.1.11. Para cada 1 j r
consideremos la transformacion lineal
T

j
:= T
j
a
j
i
V
j
: V
j
V
j
.
Por el lema 4.1.11, el polinomio mnimo de T
j
es (x a
j
)
k
j
, luego T

j
es nilpotente
de ndice k
j
. De acuerdo con la proposicion 4.4.4, para cada 1 j r existe una
base Y
j
en V
j
tal que
m
Y
j
(T

j
) =
_

_
C
j1
0
.
.
.
0 C
jm
j
_

_
,
con cada bloque como en (4.4.1) y de orden s
ji
. Notese que s
jm
j
= k
j
, m
j
= n umero
de factores invariantes de T

j
, y tal como vimos en la la proposicion 4.4.4,
m
j
= dim(ker(T

j
)) = dim(ker(T
j
a
j
i
V
j
)) = dim(ker(T a
j
i
V
)). (4.4.2)
En efecto, la ultima igualdad se tiene ya que ker(T
j
a
j
i
V
j
) = ker(T a
j
i
V
) (vease
el lema 4.1.11, parte (ii)). Ademas, 1 s
j1
s
j2
s
jm
j
, s
j1
+ +s
jm
j
= n
j
.
Seg un (4.1.7), si Y :=

Y
j
entonces
m
Y
(T) =
_

_
m
Y
1
(T
1
) 0
.
.
.
0 m
Yr
(T
r
)
_

_
.
Pero m
Y
j
(T
j
) = m
Y
j
(T

j
) + m
Y
j
(a
j
i
V
j
) y as m
Y
j
(T
j
) es un bloque de Jordan perte-
neciente a a
j
:
m
Y
j
(T
j
) =
_

_
_

_
a
j
1
.
.
.
1 a
j
_

_
bloque elemental de orden s
j1
.
.
.
bloque elemental de orden s
jm
j
_

_
a
j
1
.
.
.
1 a
j
_

_
_

_
.
94 CAP

ITULO 4. FORMAS CAN

ONICAS
Notese que en la forma canonica de Jordan aparecen solo ceros, unos y las races del
polinomio caracterstico. La unicidad de estas ultimas, la unicidad de las compo-
nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan la
unicidad de la estructura de los bloques de Jordan, salvo el orden de disposicion.
Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-
das son similares si, y solo si, tienen la misma forma canonica de Jordan.
Demostracion. Sean A, B M
n
(K) similares, A J
1
y B J
2
con J
1
y J
2
matrices diagonales en bloques de Jordan. Por transitividad J
1
J
2
. Puesto que
matrices similares representan la misma transformacion lineal, se sigue, por la uni-
cidad expuesta en el teorema 4.4.5 que J
1
= J
2
(salvo el orden de los bloques).
Recprocamente, si A J B entonces A B.
Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C
1
AC
es una matriz de Jordan, con
A =
_

_
4 1 1 1
1 2 1 1
6 1 1 1
6 1 4 2
_

_
.
Consideramos a la matriz A como una transformacion lineal de R
4
en R
4
en la
base canonica. Determinemos en primer lugar el polinomio caracterstico y el poli-
nomio mnimo de A : p
A
(x) = (x + 2)(x 3)
3
, q
A
(x) = (x + 2)(x 3)
2
. De
acuerdo con la prueba del teorema 4.4.5, el n umero de bloques de Jordan es 2,
uno correspondiente al valor 2 y otro correspondiente a 3 Ademas se tiene que
R
4
= V
1
V
2
, con V
1
= ker(A + 2E) = (0, 0, 1, 1)) y V
2
= ker[(A 3E)
2
] =
(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)). Seg un la proposicion 4.4.4, el n umero de bloques
elementales de Jordan correspondiente a 2 viene dado por dim(ker(A + 2E)) y el
n umero correspondiente a 3 es dim(ker(A3E)). Pero ker(A+2E) = (0, 0, 1, 1)) y
ker(A3E) = (0, 1, 0, 1) , (1, 2, 1, 0)), luego dim(ker(A+2E)) = 1 y dim(ker(A
3E)) = 2. Para el valor 3 se tiene que el tama no del segundo bloque elemental de
Jordan viene dado por la multiplicidad de 3 en el polinomio mnimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:
J =
_

_
2 0 0 0
0 3 0 0
0 0 3 0
0 0 1 3
_

_
.
Para calcular la matriz C debemos encontrar bases X
1
en V
1
y X
2
en V
2
de tal
forma que C es la matriz de cambio de la base can onica de R
4
a la base X =
X
1
X
2
. Consideremos las transformaciones A

1
:= A + 2E : V
1
V
1
y A

2
:=
4.5. FORMA CAN

ONICA DIAGONAL: VALORES Y VECTORES PROPIOS 95


A 3E : V
2
V
2
. Notese que A

1
es nilpotente de ndice 1 y A

2
es nilpotente
de ndice 2. Seg un la prueba de la proposicion 4.4.4, debemos descomponer V
1
y
V
2
en suma directa de subespacios cclicos. Tal como vimos arriba, el n umero de
sumandos cclicos de V
1
es 1 = dim(ker(A + 2E)) y coincide con el n umero de
factores invariantes de A

1
; de igual manera, el n umero de sumandos cclicos de V
2
es
2 = dim(ker(A3E)) y coincide con el n umero de factores invariantes de A

2
. Pero
V
1
= (0, 0, 1, 1)), entonces la descomposicion cclica de V
1
es trivial: V
1
= v
1
)
con v
1
:= (0, 0, 1, 1), y en consecuencia, X
1
= (0, 0, 1, 1). Para V
2
los factores
invariantes de A

2
son x y x
2
. Necesitamos dos vectores v
2
, v
3
V
2
de tal forma que
V
2
= v
2
) v
3
), donde el polinomio anulador de v
2
es x y el polinomio anulador
de v
2
sea x
2
. La base buscada en V
2
es pues X
2
= v
2
, v
3
, A

2
v
3
. Resulta entonces
que x v
2
= 0, es decir, A

2
v
2
= 0, con lo cual v
2
ker(A

2
) = ker(A 3E), luego
podemos tomar por ejemplo v
2
= (0, 1, 0, 1). Notese que en calidad de v
3
podemos
tomar a (0, 0, 0, 1) de tal forma que A

2
(v
3
) = (1, 1, 1, 1). Se tiene entonces que
X
2
:= (0, 1, 0, 1) , (0, 0, 0, 1) , (1, 1, 1, 1) es una base de V
2
. La matriz C es
pues
C =
_

_
0 0 0 1
0 1 0 1
1 0 0 1
1 1 1 1
_

_
, C
1
=
_

_
1 0 1 0
1 1 0 0
1 1 1 1
1 0 0 0
_

_
,
C
1
AC =
_

_
2 0 0 0
0 3 0 0
0 0 3 0
0 0 1 3
_

_
.
4.5. Forma can onica diagonal: valores y vectores
propios
Estudiaremos ahora la forma canonica mas sencilla, pero a su vez muy exigente,
para una transformacion lineal o matriz: la forma diagonal. Al igual que en la for-
ma canonica de Jordan, la diagonalizacion requiere que el polinomio mnimo tenga
un aspecto especial, razon por la cual no todo operador lineal (matriz) ha de ser
diagonalizable.
Denici on 4.5.1. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1. Se dice que T es diagonalizable si existe una base X en
V tal que m
X
(T) es una matriz diagonal. Una matriz A de orden n 1 se dice que
es diagonalizable si A es similar a una matriz diagonal.
96 CAP

ITULO 4. FORMAS CAN

ONICAS
Corolario 4.5.2. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1 y sea X una base cualquiera de V . Entonces, T es diagona-
lizable si, y solo si, m
X
(T) es diagonalizable.
Demostracion. Teniendo en cuenta que matrices que representen la misma transfor-
macion lineal son similares, se tiene el resultado.
Teorema 4.5.3. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1. T es diagonalizable si, y solo si, el polinomio mnimo de T
es de la forma
q
T
(x) = (x a
1
) (x a
r
), a
j
K, 1 j r. (4.5.1)
Demostracion. ): sea X una base de V tal que la matriz de T es diagonal, digamos,
m
X
(T) =
_

_
a
1
0
.
.
.
.
.
.
.
.
.
0 a
n
_

_
.
Notese que m
X
(T) es la forma canonica de Jordan de T; ademas, el polinomio
caracterstico de T es p
T
(x) = (x a
1
)
n
1
(x a
r
)
nr
, con a
1
, . . . , a
r
los diferentes
escalares en la diagonal de m
X
(T) y n
j
la multiplicidad de a
j
, 1 j r. Luego el
polinomio mnimo de T es de la forma q
T
(x) = (xa
1
)
k
1
(xa
r
)
kr
, con k
j
1. Si
para lag un j, k
j
2, entonces en la forma de Jordan de T apareceran unos debajo
de la diagonal, por lo tanto k
j
= 1 para cada j.
): si q
T
(x) es como en (4.5.1), entonces la notacion y demostracion del teorema
4.4.5 indican que cada s
jm
j
= 1, pero esto signica que la matriz de Jordan de T es
diagonal, es decir, T es diaginalizable.
En la seccion anterior nos encontramos con el calculo del n ucleo de operadores
de la forma T a i
V
, con T : V V una transformacion lineal y a K un escalar,
as pues, los elementos de este n ucleo son vectores v V tales que T(v) = a v.
Tales vectores ocupan un lugar destacado en algebra lineal clasica y los deniremos a
continuacion. A traves de los valores y vectores propios podemos tambien presentar
otros criterios de diagonalizacion de operadores lineales.
Denici on 4.5.4. Sea T : V V una transformacion de un K-espacio V ; un
escalar a K se dice que es un valor propio de T si existe un vector no nulo
v V tal que T(v) = a v. En tal caso se dice que v es un vector propio de T
perteneciente al valor propio a.
Notese que un vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 4.5.5. Para la transformacion lineal T : R
2
R
2
denida por T[x, y]
T
:=
[2x, 3y]
T
, a = 2 es un valor propio con vector propio [6, 0]
T
; a = 3 es tambien un
valor propio de T con vector propio [0, 2]
T
.
4.5. FORMA CAN

ONICA DIAGONAL: VALORES Y VECTORES PROPIOS 97


Sea a K, el conjunto
E(a) := v V [T(v) = a v
es un subespacio de V ; notese que E(a) ,= 0 si, y solo si, a es un valor propio de T.
Denici on 4.5.6. E(a) se denomina el espacio propio de T correspondiente al
valor propio a.
Las deniciones de vector propio, valor propio y espacio propio aplican para
espacios vectoriales arbitrarios, no necesariamente de dimension nita.
Ejemplo 4.5.7. Sea D el operador derivacion denido sobre el espacio de funciones
reales cuyas derivadas de cualquier orden existen, y sea a R, entonces E(a) =
ce
ax
[c R.
Ejemplo 4.5.8. Existen transformaciones lineales sin valores propios, es decir,
E(a) = 0, para cada a K. En efecto, la transformacion T : R
2
R
2
denida
por
T[x, y]
T
= [y, x]
T
no tiene valores propios.
Proposici on 4.5.9. Sea T : V V una transformacion lineal de un espacio V .
Sean a
1
, . . . , a
r
valores propios diferentes con vectores propios v
1
, . . . , v
r
, respectiva-
mente. Entonces v
1
, . . . , v
r
son l.i. En particular, si V es de dimension nita n 1,
entonces T tiene a lo sumo n valores propios diferentes. Si T tiene exactamente n
valores propios diferentes, entonces v
1
, . . . , v
n
es una base de V .
Demostracion. La prueba de la primera armacion la se realiza por induccion. Las
otras dos armaciones son consecuencia directa de la primera.
n = 1: si a es un valor propio y v ,= 0 es un vector propio asociado al valor a,
entonces v es l.i. Supongase que la armacion ha sido probada para n 1 valores
propios diferentes. Sean a
1
, . . . , a
n
valores propios diferentes para T con vectores
propios v
1
, . . . , v
n
. Sean b
1
, . . . , b
n
escalares tales que b
1
v
1
+ + b
n
v
n
= 0.
Aplicando T y multiplicando por a
n
se pueden restar las dos relaciones y obtener
que
(b
1
a
1
b
1
a
n
) v
1
+ + (b
n1
a
n1
b
n1
a
n
) v
n1
= 0
Aplicando induccion resulta entonces que b
1
= = b
n1
= 0, de donde b
n
= 0.
Esto prueba que los vectores v
1
, . . . , v
n
son l.i.
El recproco de la proposicion anterior no es siempre cierto, por ejemplo, si T = i
V
cualquier base de V pertenece a 1 que es el unico valor propio de i
V
.
98 CAP

ITULO 4. FORMAS CAN

ONICAS
Ejemplo 4.5.10. Sea K[x] el conjunto de polinomios con coecientes en el cuerpo
K, y sea T : V V una transformacion lineal. Entonces para cada polinomio p(x)
K[x] se tiene que si a K es un valor propio de T con vector propio v, entonces
p(a) es un valor propio de p(T) con vector propio v. En tal caso, E(a) ker(p(T))
si a es raz de p(x), y E(a) Im(p(T)) si a no es raz de p(x).
El polinomio caracterstico es un instrumento para determinar los valores propios
de una transformacion lineal.
Proposici on 4.5.11. Sea T : V V una transformacion lineal de un espacio V
de dimension nita n 1 y sea a K. Entonces, a es un valor propio de T si, y
solo si, p
T
(a) = 0.
Demostracion. ) Sea v un vector propio de a, entonces, T(v) = a v, luego (T
a i
V
)(v) = 0, es decir, T a i
V
no es una transformacion inyectiva. Esto implica
que si X es una base cualquiera que jamos en V , entonces m
X
(T a i
V
) tiene
determinante igual a cero, es decir, det(AaE) = 0, donde A es la matriz de T en
la base X. Por lo tanto, p
A
(a) = 0, es decir, a es raz del polinomio caracterstico
de A, o sea del polinomio caracterstico de T.
) Si a es raz de p
T
(x), entonces a es raz de p
A
(x). Por lo tanto, det(A
aE) = 0, luego m
X
(T a i
V
) no es invertible. Esto garantiza que T a i
V
no es
invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T a i
V
)(v) = 0, es decir, T(v) = a v. Esto quiere decir que v es vector propio
con valor propia a.
Este resultado es valido para valores a K, podra ocurrir que las races del
polinomio caracterstico no pertenezcan al cuerpo K, por ejemplo, en el caso en
que K sea el cuerpo de n umeros reales y todas las races de p
T
(x) sean complejas,
entonces no tendramos valores propios. Esta situacion no se presenta por supuesto
en cuerpos algebraicamente cerrados.
Corolario 4.5.12. Sea K un cuerpo algebraicamente cerrado y sea T : V V
una transformacion lineal de un K-espacio V de dimension nita n 1, Entonces,
T tiene n valores propios (no necesariamente diferentes) correspondientes a las n
races de su polinomio caracterstico.
No sobra reformular las nociones de valores y vectores propios para matrices. Sea
A una matriz cuadrada de orden n 1, un elemento a K se dice que es un valor
propio de A si existe una matriz columna no nula u = (u
1
, . . . , u
n
)
T
K
n
tal que
Au = a.u . La teora de valores y vectores propios para matrices esta relacionada de
manera obvia con la correspondiente teora para transformaciones lineales.
4.5. FORMA CAN

ONICA DIAGONAL: VALORES Y VECTORES PROPIOS 99


Denici on 4.5.13. Sea A M
n
(K) una matriz cuadrada de orden n 1, un
elemento a K se dice que es un valor propio de A si existe vector no nulo
u := [u
1
, . . . , u
n
]
T
K
n
tal que Au = a u. Se dice u es un vector propio de A
correspondiente al valor propio a.
La teora de valores y vectores propios para matrices esta relacionada de manera
obvia con la correspondiente teora para transformaciones lineales.
Corolario 4.5.14. Sea T : V V una transformacion lineal de un K-espacio V
de dimension nita n 1. Sean X := v
1
, . . . , v
n
una base de V , A := m
X
(T) y
a K. Entonces, a es un valor propio de T si, y solo si, a es un valor propio de A.
Mas exactamente, v = u
1
v
1
+ + u
n
v
n
es un vector propio de T perteneciente
al valor propio a si, y solo si, [u
1
, . . . , u
n
]
T
es un vector propio de A perteneciente
al valor propio a.
Teorema 4.5.15. Sea T : V V una transformacion lineal de un espacio V de
dimension nita n 1. T es diagonalizable si, y solo si, V tiene una base constituida
por vectores propios.
Demostracion. ) Existe una base X := x
1
, . . . , x
n
en V tal que m
X
(T) es dia-
gonal, digamos
m
X
(T) =
_

_
d
1
0
.
.
.
0 d
n
_

_
Esto indica que T(x
1
) = d
1
x
1
, . . . , T(x
n
) = d
n
x
n
. Puesto que los vectores x
1
, . . . , x
n
son no nulos, entonces estos vectores son propios.
) Sea X = x
1
, . . . , x
n
una base de vectores propios. Entonces, existen es-
calares d
1
, . . . , d
n
en K tales que T(x
1
) = d
1
x
1
, . . . , T(x
n
) = d
n
x
n
. Notese que
entonces la matriz de T es la base X es diagonal, y sus elementos diagonales son
precisamente d
1
, . . . , d
n
.
Sea A M
n
(K) una matriz diagonalizable. Entonces existe una matriz invertible
C tal que C
1
AC = D, donde D es una matriz diagonal. La demostracion del
teorema anterior nos da una manera de encontrar la matriz diagonalizante C. En
efecto, sea Y la base canonica de K
n
, entonces sabemos que A es la matriz de una
transformacion T : K
n
K
n
, A = m
Y
(T). Como A es diagonalizable entonces
T es diagonalizable. Seg un la demostracion del teorema anterior, existe una base
X = x
1
, . . . , x
n
en K
n
de vectores propios de T de tal forma que m
X
(T) = D,
donde D es una matriz diagonal. Entonces, D = m
X
(T) = C
1
m
Y
(T)C, donde C
es la matriz de cambio de la base Y a la base X. Es decir, la i-esima columna de C
son los coecientes de la expansion del i-esimo vector x
i
a traves de la base canonica
Y , es decir, las coordenadas del vector columna x
i
. En otras palabras, las columnas
100 CAP

ITULO 4. FORMAS CAN

ONICAS
de C son los vectores columna x
1
, . . . , x
n
(notese que seg un el corolario 4.5.14, cada
vector columna x
i
es un vector propio de A).
Corolario 4.5.16. Sea A una matriz cuadrada de orden n 1. Entonces,
(i) A es diagonalizable si y solo si, A tiene n vectores propios l.i.
(ii) Si A tiene n valores propios diferentes, entonces A es diagonalizable.
Demostracion. Consecuencia inmediata de los resultados precedentes.
Proposici on 4.5.17. Sea T : V V una transformacion lineal de un espacio V
de dimension nita n 1. Sean a
1
, . . . , a
r
los valores propios diferentes para T,
1 r n, y E(a
1
), . . . , E(a
r
) los subespacios propios correspondientes. Entonces,
la suma E(a
1
) + + E(a
r
) es directa. En consecuencia,
dim(E(a
1
) E(a
r
)) = dim(E(a
1
)) + + dim(E(a
r
)).
Demostracion. Sean u
1
E(a
1
), . . . , u
r
E(a
r
) tales que u
1
+ + u
r
= 0,
supongase que alguno de estos sumandos es no nulo, y entre ellos sean u
1
, . . . , u
s
, 1
s r los no nulos. Como u
1
, . . . , u
s
son vectores propios correspondientes a valores
propios diferentes, entonces son l.i, pero esto contradice la condicion u
1
+ +u
s
= 0.
Por lo tanto, u
i
= 0, para cada 1 i r.
Podemos probar ahora un criterio de diagonalizacion en terminos del polinomio
caracterstico y de los espacios propios.
Teorema 4.5.18. Sea T : V V una transformacion lineal de un espacio V
de dimension nita n 1. Sean a
1
, . . . , a
r
los valores propios diferentes para T,
1 r n, y E(a
1
), . . . , E(a
r
) los subespacios propios correspondientes. Entonces,
las siguientes condiciones son equivalentes:
(i) T es diagonalizable.
(ii) El polinomio caracterstico de T es de la forma
p
T
(x) = (x a
1
)
n
1
. . . (x a
r
)
nr
,
donde n
i
= dim(E(a
i
)), 1 i r.
(iii) dim(V ) = dim(E(a
1
)) + . . . + dim(E(a
r
)).
(iv) V = E(a
1
) . . . E(a
r
).
4.5. FORMA CAN

ONICA DIAGONAL: VALORES Y VECTORES PROPIOS 101


Demostracion. (i) (ii): por el teorema 4.5.15, V tiene una base X = v
1
, . . . , v
n

constituida por vectores propios. Se ordena esta base de tal manera que los primeros
n
1
vectores correspondan al valor propio a
1
, los siguientes n
2
vectores correspondan
al valor a
2
y as sucesivamente. Entonces claramente la matriz de T en esta base
toma la forma
m
X
(T) =
_

_
a
1
E 0
.
.
.
.
.
.
.
.
.
0 a
r
E
_

_
,
donde a
i
E es una matriz diagonal de orden n
i
,
a
i
E =
_

_
a
i
0
.
.
.
.
.
.
.
.
.
0 a
i
_

_
,
1 i r. El polinomio caracterstico de T es p
T
(x) = (x a
1
)
n
1
(x a
r
)
nr
.
Se vera ahora que n
i
= dim(E(a
i
)). Puesto que gr(p
T
(x)) = n, entonces n =
n
1
+ +n
r
. Por la forma como se ha organizado la base X, se tiene que V = X)
E(a
1
) + + E(a
r
), es decir, V = E(a
1
) + + E(a
r
), luego por la proposicion
4.5.17, n = dim(E(a
1
)) + +dim(E(a
r
)). Se sabe que n
i
dim(E(a
i
)), para cada
1 i r, supongase que existe i tal que n
i
< dim(E(a
i
)), entonces
n = n
1
+ + n
r
< dim(E(a
1
)) + + dim(E(a
r
)) = n.
Esto indica que n
i
= dim(E(a
i
)) para cada 1 i r.
(ii) (iii): dim(V ) = n = n
1
+ + n
r
= dim(E(a
1
)) + + dim(E(a
r
)).
(iii) (iv): dim(V ) = dim(E(a
1
))+ +dim(E(a
r
)) = dim(E(a
1
)+ +E(a
r
)),
de donde , V = E(a
1
) + + (E(a
r
), ademas, por la proposicion 4.5.17, la suma es
directa, es decir, V = E(a
1
) E(a
r
).
d) a) Al reunir las bases de E(a
1
), . . . , E(a
r
) se obtiene una base de V
constituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantiza
que T es diagonalizable.
Ejemplo 4.5.19. (i) Sea K un cuerpo y sean T : U U, F : V V transforma-
ciones lineales de espacios vectoriales no nulos de dimension nita. Sea a un valor
propio de T con vector propio u y sea b un valor propio de F con vector propio
v. Entonces, ab es un valor propio de T F con vector propio u v. En efecto,
(T F)(u v) = T(u) F(v) = (a u) (b v) = ab (u v). Seg un el corolario
3.1.6, u v es no nulo.
En forma matricial, sean A M
n
(K), B M
m
(K) matrices, a un valor propio
de A con vector columna propio u y b un valor propio de B con vector columna
propio v. Entonces, u v es un vector propio de A B con valor propio ab.
102 CAP

ITULO 4. FORMAS CAN

ONICAS
(ii) Sean A M
n
(K), B M
m
(K) matrices diagonalizables, entonces AB es
diagonalizable.
Ejemplo 4.5.20. En este ejemplo mostraremos una aplicacion del producto tenso-
rial de matrices y de la forma canonica de Jordan. Sean A, B y C matrices complejas
de tama nos n n, mm y n m respectivamente. Supongase que para cada valor
propio de A y cada valor propio de B se cumple que + ,= 0. Demostremos
entonces que la ecuacion matricial AX + XB = C tiene solucion unica.
Solucion. Consideremos el C-espacio de matrices rectangulares M
nm
(C), de-
namos la funcion T por
T : M
nm
(C) M
nm
(C)
X AX + XB.
Notemos que T es una transformacion lineal. Para resolver el problema mostraremos
que T es biyectiva, con esto, dada C M
nm
(C) existe una unica X M
nm
(C)
tal que AX + XB = C.
La prueba de la biyectividad de T la haremos a traves de su matriz en la base
canonica A := E
11
, . . . , E
1m
; . . . ; E
n1
, . . . , E
nm
de M
nm
(C), es decir, probaremos
que m
X
(T) es invertible. Notemos entonces que
m
X
(T) =
_

_
a
11
E
m
a
1n
E
m
.
.
.
.
.
.
.
.
.
a
n1
E
m
a
nn
E
m
_

_
+
_

_
B
T
0
.
.
.
.
.
.
.
.
.
0 B
T
_

_
donde E
m
es la identica de orden m y B
T
es la transpuesta de B. Pero,
_

_
a
11
E
m
a
1n
E
m
.
.
.
.
.
.
.
.
.
a
n1
E
m
a
nn
E
m
_

_
= A E
m
,
_

_
B
T
0
.
.
.
.
.
.
.
.
.
0 B
T
_

_
= E
n
B
T
.
De esta forma
m
X
(T) = A E
m
+E
n
B
T
.
Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G de
tama nos n n y mm, respectivamente, tales que F
1
AF = J
1
y G
1
B
T
G = J
2
son matrices de Jordan. Notemos que en la diagonal de J
1
y J
2
estan localizados
4.6. EJERCICIOS 103
los valores propios de A y de B
T
, respectivamente (observemos que los valores
propios de B
T
son los mismos de B). Tenemos
J
1
E
m
=
_
F
1
AF
_
E
m
=
_
F
1
E
m
_
(A E
m
) (F E
m
) ,
E
n
J
2
= E
n

_
G
1
B
T
G
_
=
_
E
n
G
1
_ _
E
n
B
T
_
(E
n
G) ,
donde ademas
_
F
1
E
m
_
= (F E
m
)
1
_
E
n
G
1
_
= (E
n
G)
1
.
De esta forma se tiene que
J
1
E
m
= (F E
m
)
1
(A E
m
) (F E
m
) ,
E
n
J
2
= (E
n
G)
1
_
E
n
B
T
_
(E
n
G) .
Resulta entonces que
(F E
m
)
1
m
X
(T) (F E
m
) = (F E
m
)
1
(A E
m
) (F E
m
)
+(F E
m
)
1
_
E
n
B
T
_
(F E
m
) =
(J
1
E
m
) + (F
1
E
m
)
_
E
n
B
T
_
(F E
m
) =
(J
1
E
m
) +
_
E
n
B
T
_
.
Ahora, (E
n
G)
1
(F E
m
)
1
m
X
(T) (F E
m
) (E
n
G) =
(E
n
G)
1
(J
1
E
m
) (E
n
G) + (E
n
G)
1
_
E
n
B
T
_
(E
n
G) =
(J
1
E
m
) + (E
n
J
2
). En total,
(E
n
G)
1
(F E
m
)
1
m
X
(T) (F E
m
) (E
n
G) = (J
1
E
m
) + (E
n
J
2
) ,
es decir,
(F G)
1
m
X
(T) (F G) = (J
1
E
m
) + (E
n
J
2
) .
Notemos que la matriz (J
1
E
m
) +(E
n
J
2
) es triangular inferior y en su diagonal
estan las sumas de la forma + , las cuales por hipotesis son no nulas, es decir,
esta matriz es invertible, o sea que, m
X
(T) es tambien invertible, y la prueba ha
terminado.
4.6. Ejercicios
1. Sea T : V V una transformacion lineal de un espacio K-espacio V de
dimension nita n 1. Demuestre que T es invertible si, y solo si, el termino
independiente q
0
del polinomio mnimo q
T
(x) es no nulo.
2. Determine la forma canonica de Jordan de la matriz:
104 CAP

ITULO 4. FORMAS CAN

ONICAS
_

_
0 0 1 0
0 0 0 1
1 0 0 0
0 1 0 0
_

_
.
3. Calcule la forma de Jordan de la matriz
_

_
5 10 10 5 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
_

_
.
4. Sean T
1
, T
2
: V V transformaciones diagonalizables de un espacio V de
dimension nita n 1 tales que T
1
T
2
= T
2
T
1
. Demuestre que existe una base
X en V tal que m
X
(T
1
) y m
X
(T
2
) son diagonales.
5. Sea T : V V una transformacion lineal de un espacio K-espacio V de
dimension nita n 1 tal que T tiene n valores propios diferentes. Calcule el
n umero de subespacios invariantes de T.
6. Sea A = [a
ij
] una matriz cuadrada de orden n 1 tal que su n umero de
entradas nulas es superior a n
2
n. Demuestre que el determinante de A es
igual a cero.
7. Sea A = [a
ij
] una matriz cuadrada invertible de orden n 1. Demuestre que
p
A
1(x) = (x)
n
(det(A))
1
p
A
(x
1
),
donde p
A
(x) denota el polinomio caracterstico de la matriz A.
8. Sea T : V V una transformacion lineal de un K-espacio de dimension
nita n. Suponga que T es diagonalizable y que
1
, . . .
k
son los distintos
valores propios de T, 1 k n. Demuestre que existen transformaciones
lineales T
1
, . . . , T
k
de V tales que:
(i) T =
1
T
1
+ +
k
T
k
(ii) I
V
= T
1
+ + T
k
(iii) T
i
T
j
= 0, para i ,= j
(iv) T
2
i
= T
i
(v) T
i
(V ) = E(
i
), 1 i k.
4.6. EJERCICIOS 105
Demuestre tambien el recproco de esta armacion, es decir, si existen k es-
calares distintos
1
, . . .
k
y k transformaciones lineales T
1
, . . . , T
k
de V , con
k n, que satisfacen (i)-(iii), entonces T es diagonalizable,
1
, . . .
k
son los
valores propios distintos de T y (iv)-(v) tambien se cumplen.
9. Demuestre que cada matriz cuadrada compleja A es similar a su transpuesta
A
T
.
10. Sea A una matriz cuadrada compleja de orden n 1 tal que existe un n umero
natural m para el cual se tiene que A
m
= E. Demuestre que A es diagonalizable
(E denota la matriz identica de tama no n).
11. Sean S, T : V V transformaciones tales que ST = TS. Demuestre que
ker(S) e Im(S) son subespacios T-invariantes.
12. Sea T : V V una transformacion lineal de un espacio V de dimension nita.
Demuestre que existe un entero k tal que:
(a) Para j k se cumple que Im(T
j
) = Im(T
k
) y ker(T
j
) = ker(T
k
).
(b) Im(T
k
) y ker(T
k
) son subespacios T-invariantes y ademas V = Im(T
k
)
N(T
k
).
13. Calcule, usando los resultados del presente captulo, una matriz invertible C
tal que C
1
BC sea una matriz de Jordan, donde
_

_
7 1 2 2
1 4 1 1
2 1 5 1
1 1 2 8
_

_
.
14. Sea T : C
2
C
2
una transformacion lineal con un solo valor propio . De-
muestre que T I es nilpotente.
15. Sea T : V V una transformacion lineal invertible en un espacio V complejo
de dimension nita. Demuestre que existe una transformacion S : V V tal
que S
2
= T (sugerencia: use la forma canonica de Jordan). Se dice que S es la
raz cuadradade T.
16. Encuentre la raz cuadrada de la siguiente matriz
_
_
2 1 1
1 2 1
1 1 2
_
_
.
106 CAP

ITULO 4. FORMAS CAN

ONICAS
17. Calcule la forma canonica racional de la transformacion T : R
3
R
3
denida
por T (x, y, z) = (4z, y x + 2z, 3x z).
18. Para la matriz real
A =
_

_
1 1 0 8
1 1 0 4
0 1 0 5
0 0 1 4
_

_
determine:
(a) A es diagonalizable?. En caso armativo, calcule una matriz diagonalizante.
(b) A es diagonalizable en bloques?. En caso armativo calcule una matriz que
la convierta en matriz diagonal en bloques.
(c) La forma racional de A y una matriz racionalizante.
(d) A es diagonalizable en bloques de Jordan?. En caso armativo calcule una
matriz que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.
19. Sea A M
n
(K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que la forma racional de A es la compa nera del polinomio mnimo
de A (en consecuencia, la forma racional de A tiene un solo bloque racional).
20. Sea A M
n
(K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que A no es diagonalizable en bloques.
21. Determine si las siguientes matrices son diagonalizables. En caso armativo
calcule una matriz que diagonalice:
A =
_
_
0 1 0
0 0 1
1 3 3
_
_
, B =
_

_
1 1 2 3
0 2 2 4
0 0 1 2
0 0 0 2
_

_
.
22. Determine los valores y vectores propios del operador derivacion sobre el es-
pacio R
n
[x]. Es este operador diagonalizable?
23. Sea A una matriz de orden n 1 y p(x) un polinomio cualquiera. Demuestre
que si A es diagonalizable, entonces p(A) es diagonalizable.
24. Sea A = [a
ij
] una matriz de orden n 1 tal que

n
j=1
a
ij
= 1 para cada
1 i n. Demuestre que 1 es un valor propio de A.
Captulo 5
Grupos de matrices
Este captulo esta dedicado a estudiar grupos de matrices sobre anillos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas so-
bre cuerpos ya que aqu construiremos los llamados grupos clasicos sobre anillos,
generalizando dichas formas para anillos no conmutativos con involucion. Ademas,
estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-
mutativos.
5.1. Grupos de matrices sobre cuerpos
En esta seccion se enuncian las deniciones y algunas propiedades relativas a grupos
de matrices sobre cuerpos. Aunque algunos de estos grupos y resultados ya haban
sido presentados en captulos anteriores los repertiremos para darle completez al
tema (vease tambien [4]).
5.1.1. El grupo lineal y algunos subgrupos destacados
Si V es un espacio vectorial sobre un cuerpo K, el conjunto de transformaciones
lineales biyectivas de V es un grupo con la composicion de funciones, denominado
grupo lineal general , y se denota por GL(V ). Cuando la dimension del espacio
es nita, dim(V ) = n 1, V se puede identicar con K
n
y el grupo lineal depende
unicamente del cuerpo y la dimension; en este caso GL(V )

= GL
n
(K). As pues,
GL
n
(K) := M
n
(K)

es el grupo de elementos invertibles del anillo M


n
(K) y se
conoce como el grupo lineal general de orden n sobre K
Una matriz F es invertible si, y solo si, det(F) ,= 0. Por lo tanto, el homomorsmo
de grupos det : GL
n
(K) K

es sobreyectivo y K

es isomorfo al grupo cociente de


GL
n
(K) con n ucleo constituido por las matrices de determinante uno. Este subgrupo
se denota SL
n
(K) y se denomina grupo especial lineal de orden n sobre K. En
general, podemos destacar en GL
n
(K) los siguientes subgrupos:
107
108 CAP

ITULO 5. GRUPOS DE MATRICES


(i) SL
n
(K) es el subconjunto de GL
n
(K) constituido por las matrices de deter-
minante 1, es decir,
SL
n
(K) := F GL
n
(K) [ det(F) = 1,
y ademas SL
n
(K) GL
n
(K).
(ii) Sea
D
n
(K) :=
_

_
diag(d
1
, . . . , d
n
) :=
_

_
d
1
0
.
.
.
0 d
n
_

_
M
n
(K) [ d
1
d
n
,= 0
_

_
.
Entonces, D
n
(K) GL
n
(K) y se conoce como el grupo de matrices dia-
gonales de orden n sobre K.
(iii) Sea
T
n
(K) :=
_

_
_

_
f
11
f
1n
.
.
.
.
.
.
0 f
nn
_

_
M
n
(K) [ f
11
f
nn
,= 0, f
ij
= 0 si i > j
_

_
.
Entonces, T
n
(K) GL
n
(K) y se denomina el grupo de matrices triangu-
lares superiores de orden n sobre K. Ademas, D
n
(K) T
n
(K).
(iv) Sea
UT
n
(K) := F T
n
(K) [ f
ii
= 1, 1 i n.
Entonces, UT
n
(K) T
n
(K) SL
n
(K) y se denomina el grupo de matrices
unitriangulares superiores de orden n sobre K.
(iv) Para 1 m n sea UT
m
n
(K) el conjunto de matrices unitriangulares F =
[f
ij
] UT
n
(K) tales que f
ij
= 0 para i < j < i + m, es decir, las primeras
m 1 diagonales consecutivas por encima de la diagonal principal de F son
nulas. Entonces, UT
m
n
(K) UT
n
(K), y ademas
UT
n
(K) = UT
1
n
(K) UT
2
n
(K) UT
n
n
(K) = E.
Usando la notacion de la seccion 1.4 se tienen las siguientes propiedades, donde
E
n
(K) representa el grupo elemental de orden n sobre K denido como el sub-
grupo de GL
n
(K) generado por todas las matrices propiamente elementales, es decir,
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 109
E
n
(K) := T
ij
(a)[1 i, j n, i ,= j, a K).
Proposici on 5.1.1. Sea K un cuerpo. Entonces,
(i) GL
n
(K) se puede generar por matrices propiamente elementales y matrices
diagonales. En forma mas precisa,
GL
n
(K) = T
ij
(a), D
n
(d)[1 i, j n, i ,= j, a K, 0 ,= d K),
GL
n
(K) = SL
n
(K)D
n
(K).
(ii) SL
n
(K) = E
n
(K).
(iii) D
n
(K) = D
i
(d
i
)[0 ,= d
i
K, 1 i n).
(iv) T
n
(K) = T
ij
(a), D
i
(d
i
)[j > i, a K, 0 ,= d
i
, 1 i, j n).
(iv) UT
n
(K) = T
ij
(a)[j > i, a K, 1 i, j n).
(v) UT
m
n
(K) = T
ij
(a)[j i m, a K, 1 i, j n).
(vi)
Z(GL
n
(K)) = a E [ a K

,
Z(SL
n
(K)) = a E [ a K, a
n
= 1.
(vii)
Z(D
n
(K)) = D
n
(K),
Z(T
n
(K)) = C
GLn(K)
=
_
Z(GL
n
(K)), si [K[ 3,
E, T
1n
(1)

= Z
2
, si [K[ = 2.
.
(viii)
[GL
n
(K), GL
n
(K)] = SL
n
(K) si n 3 o n = 2 y [K[ 3,
[GL
2
(Z
2
), GL
2
(Z
2
)]

= Z
3
.
[SL
n
(K), SL
n
(K)] = SL
n
(K) si n 3 o n = 2 y [K[ 4,
[SL
2
(Z
2
), SL
2
(Z
2
)]

= Z
3
, [SL
2
(Z
3
), SL
2
(Z
3
)]

= Q
8
.
(ix)
110 CAP

ITULO 5. GRUPOS DE MATRICES


[D
n
(K), D
n
(K)] = E
[T
n
(K), T
n
(K)] = UT
n
(K) si n 2 y [K[ 3,
[T
n
(Z
2
), T
n
(Z
2
)] = UT
2
n
(Z
2
),
[UT
r
n
(K), UT
s
n
(K)] = UT
r+s
n
(K).
(x) Si K es nito con [K[ := q 3, entonces
[GL
n
(K)[ =

n1
j=0
(q
n
q
j
), [SL
n
(K)[ =
1
q1

n1
j=0
(q
n
q
j
).
(xi) Si [K[ 3, D
n
(K) GL
n
(K) y D
n
(K) T
n
(K).
(xii) T
n
(K), UT
n
(K) GL
n
(K); UT
n
(K) SL
n
(K).
(xiii) Para 1 m n 1, UT
m
n
(K) GL
n
(K).
(xiv) Para 1 m n, UT
m
n
(K) T
n
(K) y ademas,
E = UT
n
n
(K) UT
n1
n
(K) UT
1
n
(K) = UT
n
(K) T
n
(K).
(xv) GL
n
(K)/SL
n
(K)

= K

.
(xvi) T
n
(K)/UT
n
(K)

= D
n
(K)

= K

. .
n-veces
.
(xvii) UT
m
(K)/UT
m+1
(K)

= K

. .
n m-veces
, 1 m n 1.
(xviii) Para n 3, SL
n
(K) y GL
n
(K) no son solubles. Para n = 2 y [K[ 4,
SL
2
(K) y GL
2
(K) no son solubles.
(xix) SL
2
(Z
3
), SL
2
(Z
2
), GL
2
(Z
3
) y GL
2
(Z
2
) son solubles.
(xx) D
n
(K), T
n
(K) y UT
m
n
(K) son solubles, 1 m n.
Demostracion. Ejercicio para el lector.
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 111
5.1.2. Grupos clasicos
Los llamados grupos clasicos surgen al estudiar formas bilineales y sesquilineales
sobre un espacio vectorial. Nos ocuparemos en esta seccion de estos grupos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas sobre
cuerpos, sin embargo, algunas deniciones y resultados basicos seran recordados.
Si V es un espacio vectorial sobre un cuerpo K, una forma bilineal sobre
V es una funcion f : V V K lineal en ambos argumentos, es decir, f(u
1
+
u
2
, v) = f(u
1
, v) +f(u
2
, v), f(a u, v) = af(u, v), f(u, v
1
+v
2
) = f(u, v
1
) +f(u, v
2
),
f(u, a v) = af(u, v), para cualesquiera u
1
, u
2
, u, v
1
, v
2
, v V , a K. Una forma
bilineal f permite denir la ortogonalidad: si u, v V , u es ortogonal a v (u
v) si, y solo si, f(u, v) = 0. La forma f es simetrica si f(u, v) = f(v, u) para
cualesquiera vectores u, v V ; f se dice antisimetrica si f(u, v) = f(v, u), y f
es alternada si f(u, u) = 0 para cada u V . Notemos que toda forma alternada
es antisimetrica y si char(K) ,= 2, entonces toda forma antisimetrica es alternada.
Si dim(V ) = n y X = x
1
, . . . , x
n
es una base del espacio V , la matriz de la forma
f en la base X es la matriz B := [b
ij
], donde b
ij
:= f(x
i
, x
j
); si u y v se expresan
como u = u
1
x
1
+ + u
n
x
n
y v = v
1
x
1
+ + v
n
x
n
, entonces
f(u, v) = [u
1
u
n
]B[v
1
v
n
]
T
.
Una forma bilineal f es no degenerada si para 0 ,= u V , existe v V tal
que f(u, v) ,= 0, es decir, ning un vector no nulo es ortogonal a todo el espacio (para
u, v V , se dice que u es ortogonal a v, lo cual se denota por u v, si f(u, v) = 0).
Equivalentemente, f es no degenarada si, y solo si, det(B) ,= 0, con B la matriz de
f en cualquier base. Una transformacion T de V preserva f si para cada u, v V ,
f(T(u), T(v)) = f(u, v).
Proposici on 5.1.2. Si dim(V ) = n y f es no degenerada, el conjunto de las trans-
formaciones lineales que preservan f es un grupo con la composicion.
Demostracion. Si S, T preservan f, para cada u, v V se tiene f(ST(u), ST(v)) =
f(T(u), T(v)) = f(u, v) y ST preserva f; obviamente el producto es asociativo y
la transformacion identica preserva cualquier forma. Finalmente, si T preserva f y
u V es tal que T(u) = 0, entonces para cada v V f(u, v) = f(T(u), T(v)) =
f(0, T(v)) = 0 y en consecuencia u = 0 por ser f no degenerada. Por lo tanto, T es
inyectiva, y como la dimension de V es nita, T es invertible y f(T
1
(u), T
1
(v)) =
f(TT
1
(u), TT
1
(v)) = f(u, v), es decir, T
1
tambien preserva f.
La armacion anterior se puede traducir tambien en terminos de matrices, pues
si F es la matriz de T en la base de X, entonces
[u
1
u
n
]B[v
1
v
n
]
T
= f(u, v) = f(T(u), T(v)) = [u
1
u
n
]F
T
BF[v
1
v
n
]
T
;
112 CAP

ITULO 5. GRUPOS DE MATRICES


consecuentemente T preserva f si, y solo si, B = F
T
BF, y si f es no degenerada,
det(B) ,= 0 de manera que det(F) = 1 y as, F (y T) es invertible. De este modo,
asociado a cada forma bilineal no degenerada f hay un subgrupo de GL
n
(K) a
saber, el grupo de matrices correspondientes a las transformaciones que preservan
f. Los llamados grupos clasicos sobre K son algunos de los subgrupos de GL
n
(K)
denidos por medio de estas formas bilineales no degeneradas. Por cada forma no
degenerada f, o lo que es equivalente, por cada matriz invertible B tendramos uno
de tales grupos.
Observaci on 5.1.3. (i) Notemos sin embargo que si B M
n
(K) es una matriz
cualquiera, no necesariamente invertible, entonces tambien se pueden denir sub-
grupos de GL
n
(K) de la siguiente manera:
O(B) := F GL
n
(K)[F
T
BF = B.
(ii) De todos los posibles grupos clasicos que se pudieran denir con formas no
degeneradas se destacan aquellos para los cuales la relacion de ortogonalidad entre
vectores es simetrica, es decir, u v si, y solo si, v u.
Proposici on 5.1.4. Sea dim(V ) = n y f una forma bilineal sobre V . La relacion
ser ortogonal a es simetrica si, y solo si, f es simetrica o f es alternada.
Demostracion. ): si f es simetrica y u v, entonces f(v, u) = f(u, v) = 0, de
manera que tambien v u. Si f es alternada, tambien es antisimetrica, por lo tanto,
si u v, entonces f(v, u) = f(u, v) = 0 y v u.
): sean u, v, w V y u := f(u, v) w f(u, w) v. Entonces f(u, u) =
f(u, f(u, v) w f(u, w) v) = f(u, v)f(u, w) f(u, w)f(u, v) = 0, es decir, u u;
por hipotesis u u, esto es,
0 = f( u, u) = f(u, v)f(w, u) f(u, w)f(v, u), (5.1.1)
y haciendo w = u resulta
f(u, u)[f(u, v) f(v, u)] = 0 (5.1.2)
para cada u, v V . Supongase ahora que existen x, y V tales que f(x, y) ,= f(y, x)
y que existe z V tal que f(z, z) ,= 0. Por (5.1.2),
f(x, x) = f(y, y) = 0 y f(z, x) = f(x, z), f(z, y) = f(y, z),
y por (5.1.1), 0 = f(x, z)[f(y, x) f(x, y)], 0 = f(y, z)[f(x, y) f(y, x)], luego
f(x, z) = 0 = f(z, x) y f(y, z) = 0 = f(z, y).
Ahora f(x, y+z) = f(x, y) y f(y+z, x) = f(y, x), luego f(x, y+z) ,= f(y+z, x) y por
(5.1.2) f(y+z, y+z) = 0. Pero f(y+z, y+z) = f(y, y)+f(y, z)+f(z, y)+f(z, z) =
f(z, z) lo que contradice la hipotesis f(z, z) ,= 0. As, f(x, y) = f(y, x) para cada
x, y V (f simetrica), o bien f(z, z) = 0 para cada z V (f alternada).
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 113
De este modo, el estudio de los grupos clasicos se reduce a dos casos: grupos
obtenidos de formas simetricas y grupos obtenidos de formas alternadas.
Sea f una forma bilineal simetrica no degenerada sobre V ; una transformacion
T que preserva f se denomina transformacion ortogonal , y el grupo clasico
correspondiente se denomina grupo ortogonal denotado O(V, f). Esta notacion
resulta adecuada pues el grupo ortogonal denido de esta manera depende de V (y
por lo tanto de K y de n) y de f, o de manera equivalente, de la matriz B. Seg un
vimos atras, el grupo ortogonal se puede caracterizar en lenguaje matricial de la
siguiente manera:
O(V, f) = F GL
n
(K)[F
T
BF = B,
donde B es la matriz de f en una base X de V que se ja (recordemos que B es
simetrica e invertible). Como se anoto antes, si F O(V, f) entonces det(F) =
1; las transformaciones ortogonales de determinante 1 se denominan rotaciones
y constituyen un subgrupo normal de O(V, f), notado O
+
(V, f), de manera que
O
+
(V, f) SL
n
(K).
Si en particular B = E, entonces se tiene el grupo ortogonal de orden n sobre
K, denotado O
n
(K), conformado por las matrices ortogonales, es decir,
O
n
(K) := F GL
n
(K)[F
T
F = E.
Observaci on 5.1.5. El centro de O
n
(K) es E, E y, salvo algunos casos parti-
culares, el cociente del grupo conmutante de O
n
(K) y su centro es un grupo simple;
estos resultados fueron probados por Dickson y Dieudonne, pero la prueba no esta en
el contexto del presente cuaderno.
Sea f una forma bilineal alternada no degenerada sobre V . Una transformacion lineal
que preserva f se denomina transformacion simplicial , el grupo correspondiente
se denomina grupo simplicial y se nota Sp
n
(K). Se puede probar que si char(K) ,=
2, entonces se puede encontrar una base de V tal que la matriz

B de f en dicha base
tenga la siguiente presentacion

B :=
_

_
_
0 1
1 0
_
0
_
0 1
1 0
_
.
.
.
0
_
0 1
1 0
_
_

_
.
Notese que la dimension n de V es entonces siempre par. Se tiene pues que
Sp
n
(K) := F GL
n
(K)[F
T

BF =

B.
114 CAP

ITULO 5. GRUPOS DE MATRICES


Observaci on 5.1.6. El grupo simlectico tiene las siguientes propiedades: Sp
n
(K)
SL
n
(K), el centro de Sp
n
(K) es E, E, y si K posee mas de tres elementos
entonces el grupo simplicial es igual a su grupo conmutante. El cociente del grupo
conmutante de Sp
n
(K) con su centro es un grupo simple. Finalmente, si K es un
cuerpo nito con q elementos (q 3), entonces el orden del grupo simplicial es
o(Sp
n
(K)) = (q
n
1)q
n1
(q
n2
1)q
n3
q
3
(q
2
1)q.
A partir de formas sesquilineales que se denen en cuerpos que presenten una in-
volucion analoga a la conjugacion en C aparece otro tipo de grupo clasico de ma-
trices, tal como veremos a continuacion. Una forma sesquilineal en un espa-
cio vectorial sobre C es una funcion f : V V C lineal en un argumento
y semilineal en el otro; mas precisamente: f(u, v
1
+ v
2
) = f(u, v
1
) + f(u, v
2
),
f(u, a v) = af(u, v), f(u
1
+ u
2
, v) = f(u
1
, v + f(u
2
, v) y f(a u, v) = af(u, v)
para todo u, v, u
1
, u
2
, v
1
, v
2
V y a C. Habitualmente la semilinealidad se es-
tablece para el segundo argumento, pero para denir los grupos clasicos el cambio
al primer argumento resulta conveniente. Se tiene entonces que si dim(V ) = n y
X = x
1
, . . . , x
n
es una base del espacio V , la matriz de la forma sesquilineal f en
la base X es la matriz B := [b
ij
], donde b
ij
:= f(x
i
, x
j
); si u y v se expresan como
u = u
1
x
1
+ + u
n
x
n
y v = v
1
x
1
+ + v
n
x
n
, entonces
f(u, v) = [u
1
u
n
]B[v
1
v
n
]
T
.
Notemos que si f es una forma sesquilineal no degenerada, entonces el conjunto
de transformaciones lineales del espacio V que preservan f es un grupo, es decir,
la proposicion 5.1.2 tambien se tiene en este caso. El estudio de los grupos clasicos
asociados a formas no degeneradas sesquilineales complejas generalmente se limita
a las formas hermitianas, es decir, tales que f(u, v) = f(v, u). Observemos que la
matriz B := [b
ij
] de f satisface B

= B, con B

:= (B)
T
:= [b
ij
]
T
, denominada la
trasjugada de B (las matrices complejas que coinciden con su trasjugada se de-
nominan hermitianas). El grupo de transformaciones que preservan f se denomina
grupo unitario y se denota por U(V, f). Al igual que en el caso ortogonal, este
grupos se pueden tambien describir matricialmente: si F es la matriz de T U(V, f)
en la base de X, entonces
[u
1
u
n
]B[v
1
v
n
]
T
= f(u, v) = f(T(u), T(v)) = [u
1
u
n
]F

BF[v
1
v
n
]
T
;
consecuentemente T preserva f si, y solo si, B = F

BF. As pues,
U(V, f) = F GL
n
(K)[F

BF = B.
Adicionalmente, notemos que como f es no degenerada, det(B) ,= 0 de manera que
det(F) = 1, i.
Si en particular B = E, entonces se tiene el grupo unitario de orden n sobre
C, denotado U
n
(C), y conformado por las matrices unitarias, es decir,
5.2. GRUPOS DE MATRICES SOBRE ANILLOS 115
U
n
(C) := F GL
n
(C)[F

F = E.
Notemos que O
n
(R) = U
n
(R).
Observaci on 5.1.7. Notemos que si B M
n
(C) es una matriz cualquiera, no
necesariamente invertible, entonces tambien se pueden denir subgrupos de GL
n
(C)
de la siguiente manera:
U(B) := F GL
n
(C)[F

BF = B.
5.2. Grupos de matrices sobre anillos
Sea A un anillo arbitrario, el grupo lineal general de orden n sobre A fue presentado
en la denicion 1.3.1 y esta constituido por las matrices invertibles del anillo M
n
(A),
es decir, recordemos que
GL
n
(A) := F M
n
(A)[A es invertible = M
n
(A)

.
Los subgrupos E
n
(A), D
n
(A), T
n
(A), UT
n
(A) y UT
m
n
(A) se denen en forma analoga
a como vimos antes para cuerpos; en los casos de D
n
(A) y T
n
(A) se debe asumir
que d
1
, . . . , d
n
, f
11
, . . . , f
nn
A

. El grupo especial lineal sobre anilllos arbitrarios


en general carece de sentido ya que la teora de determinantes para anillos no con-
mutativos no esta siempre denida; por supuesto que si R es un anillo conmutativo
entonces SL
n
(R) esta denido y consta de las matrices con determinante 1.
Las propiedades estructurales de GL
n
(A) y sus subgrupos fueron objeto de in-
tenso estudio en las decadas de los 70 y 80. Mostraremos a continuacion solo un par
de estas propiedades.
Proposici on 5.2.1.
Z(GL
n
(A)) = a E [ a Z(A)

= Z(A)

E.
Demostracion. Es evidente que aE con a Z(A)

es invertible (con inversa a


1
E)
y que conmuta con cualquier matriz de M
n
(A), luego a E Z(GL
n
(A)). Sea ahora
F Z(GL
n
(A)), entonces para r, s, con 1 r ,= s n, F(E + E
rs
) = (E + E
rs
)F,
luego FE
rs
= E
rs
F. Ahora bien, FE
rs
tiene la r-esima columna de F en la columna
s, y cero en las demas entradas, y E
rs
F tiene la s-esima la de F en la la r y
cero en las demas entradas. Por lo tanto, FE
rs
= E
rs
F implica que si F := [f
ij
]
entonces f
rr
= f
ss
, f
ir
= 0 para i ,= r y f
sj
= 0 para j ,= s. Pero F Z(GL
n
(A))
conmuta con todas las matrices E
rs
(r ,= s), luego todas las entradas de la diagonal
son iguales y las demas entradas son cero, es decir, F = a E para alg un a A. Pero
F GL
n
(A), luego necesariamente a es invertible, y como F conmuta con todas las
matrices de GL
n
(A), a Z(A).
116 CAP

ITULO 5. GRUPOS DE MATRICES


Proposici on 5.2.2. Para cada a, b A y cualesquiera u, v A

:
(i) T
ij
(a)T
ij
(b) = T
ij
(a + b).
(ii) Para i ,= l y k ,= j, T
ij
(a)T
kl
(b) = T
kl
(b)T
ij
(a).
(iii) [T
ik
(a), T
kj
(b)] = T
ij
(ab). Ademas, si i ,= l y k ,= j, [T
ij
(a), T
kl
(b)] = E.
(iv) D
i
(u)D
j
(v) = D
j
(v)D
i
(u) si i ,= j, y D
i
(u)D
i
(v) = D
i
(uv).
(v) D
i
(u)T
ij
(a) = T
ij
(ua)D
i
(u), D
i
(u)T
ji
(a) = T
ji
(au
1
)D
i
(u). Ademas, para j ,=
i y k ,= i, D
i
(u)T
jk
(a) = T
jk
(a)D
i
(u).
Demostracion. (i) T
ij
(a)T
ij
(b) = (E + a E
ij
)(E + b E
ij
) = E + a E
ij
+ b E
ij
=
E + (a + b) E
ij
= T
ij
(a + b).
(ii) T
ij
(a)T
kl
(b) = (E +a E
ij
)(E +b E
kl
) = E +a E
ij
+b E
kl
y T
kl
(b)T
ij
(a) =
(E + b E
kl
)(E + a E
ij
) = E + b E
kl
+ a E
ij
.
(iii) [T
ik
(a), T
kj
(b)] = (E + a E
ik
)(E + b E
kj
)(E a E
ik
)(E b E
kj
) =
(E + a E
ik
+ b E
kj
+ ab E
ij
)(E a E
ik
b E
kj
+ ab E
ij
) = E a E
ik
b
E
kj
+ ab E
ij
+ a E
ik
ab E
ij
+ b E
kj
+ ab E
ij
= E + ab E
ij
= T
ij
(ab).
Usando (ii) y (i) se tiene que
[T
ij
(a), T
kl
(b)] = T
ij
(a)T
kl
(b)T
ij
(a)T
kl
(b) = T
kl
(b)T
ij
(a)T
ij
(a)T
kl
(b) =
T
kl
(b)T
kl
(b) = E.
(iv) D
i
(u)D
j
(v) = (E+(u1) E
ii
)(E+(v 1) E
jj
) = E+(u1) E
ii
+(v 1) E
jj
y D
j
(v)D
i
(u) = (E+(v 1) E
jj
)(E+(u1) E
ii
) = E+(v 1) E
jj
+(u1) E
ii
.
D
i
(u)D
i
(v) = (E+(u1)E
ii
)(E+(v1)E
ii
) = E+(u1+v1+uvvu+1)E
ii
=
E + (uv 1) E
ii
= D
i
(uv).
(v) D
i
(u)T
ij
(a) = (E+(u1) E
ii
)(E+a E
ij
) = E+a E
ij
+(u1) E
ii
+(u
1)a E
ij
= E+(u1) E
ii
+ua E
ij
y T
ij
(ua)D
i
(u) = (E+ua E
ij
)(E+(u1) E
ii
) =
E + (u 1) E
ii
+ ua E
ij
.
D
i
(u)T
ji
(a) = (E + (u 1) E
ii
)(E + a E
ji
) = E + (u 1) E
ii
+ a E
ji
y
T
ji
(au
1
)D
i
(u) = (E +au
1
E
ji
)(E +(u1) E
ii
) = E +(u1) E
ii
+au
1
E
ji
+
(a au
1
) E
ji
= E + (u 1) E
ii
+ a E
ji
.
D
i
(u)T
jk
(a) = (E + (u 1) E
ii
)(E + a E
jk
) = E + (u 1) E
ii
+ a E
jk
, y
T
jk
(a)D
i
(u) = (E + a E
jk
)(E + (u 1) E
ii
) = E + (u 1) E
ii
+ a E
jk
.
Corolario 5.2.3. Si n 3,
[E
n
(A), E
n
(A)] = E
n
(A).
Demostracion. [E
n
(A), E
n
(A)] E
n
(A); recprocamente, si T
ij
(a) E
n
(A), como
n 3, sea k ,= i, k ,= j entonces T
ij
(a) = T
ij
(a1) = [T
ik
(a), T
kj
(1)] [E
n
(A), E
n
(A)].
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 117
5.3. El grupo elemental sobre anillos conmuta-
tivos
Sea R un anillo conmutativo, vimos en (2.3.6) que E
n
(R) SL
n
(R) GL
n
(R).
Surgen entonces dos preguntas de manera natural: E
n
(R) GL
n
(R)? y E
n
(R) =
SL
n
(R)? En esta seccion vamos a estudiar estas dos preguntas.
5.3.1. Teorema de normalizaci on de Suslin
Para n 3 la primera pregunta planteada anteriormente tiene respuesta positiva y
el resultado fue demostrado por A. A. Suslin, el cual es conocido como el teorema
de normalizacion de Suslin (vease [12]). La prueba constructiva de este teorema
presentada a continuacion ha sido adaptada de [10], vease tambien [11].
Denici on 5.3.1. Sean R un anillo conmutativo y n 2. Una matriz de Cohn
es una matriz de la forma
E + av(v
j
e
i
v
i
e
j
),
donde i < j, i, j 1, . . . , n, a R y
v := [v
1
v
n
]
T
R
n
.
Proposici on 5.3.2 (Mennicke). Para n 3, cualquier matriz de Cohn se puede
factorizar en un producto nito de matrices elementales.
Demostracion. Primero consideremos el caso i = 1, j = 2, entonces
B = E + a
_

_
v
1
.
.
.
v
n
_

_
_
v
2
, v
1
, 0, . . . , 0

=
_

_
1 + av
1
v
2
av
2
1
0 0
av
2
2
1 av
1
v
2
0 0
av
3
v
2
av
3
v
1
.
.
.
.
.
. E
n2
av
n
v
2
av
n
v
1
_

_
=
_

_
1 + av
1
v
2
av
2
1
0 0
av
2
2
1 av
1
v
2
0 0
0 0
. .
. . E
n2
. .
0 0
_

_
n

l=3
T
l1
(av
l
v
2
)T
l2
(av
l
v
1
).
118 CAP

ITULO 5. GRUPOS DE MATRICES


Entonces, es suciente mostrar que
A :=
_
_
1 + av
1
v
2
av
2
1
0
av
2
2
1 av
1
v
2
0
0 0 1
_
_
se puede factorizar como un producto de matrices elementales, para cualesqueira
a, v
1
, v
2
R. Para esto aplicamos operaciones elementales sobre las y columnas:
A =
_
_
1 + av
1
v
2
av
2
1
0
av
2
2
1 av
1
v
2
0
0 0 1
_
_
F
1
F
1
+v
1
F
3
F
2
F
2
+v
2
F
3

_
_
1 + av
1
v
2
av
2
1
v
1
av
2
2
1 av
1
v
2
v
2
0 0 1
_
_
C
1
C
1
av
2
C
3

_
_
1 av
2
1
v
1
0 1 av
1
v
2
v
2
av
2
0 1
_
_
C
2
C
2
+av
1
C
3

_
_
1 0 v
1
0 1 v
2
av
2
av
1
1
_
_
F
3
F
3
+av
2
F
1

_
_
1 0 v
1
0 1 v
2
0 av
1
1 + av
1
v
2
_
_
C
3
C
3
v
1
C
1

_
_
1 0 0
0 1 v
2
0 av
1
1 + av
1
v
2
_
_
F
3
F
3
av
1
F
2

_
_
1 0 0
0 1 v
2
0 0 1
_
_
F
2
F
2
v
2
F
3

_
_
1 0 0
0 1 0
0 0 1
_
_
Escribiendo las operaciones elementales anteriores, tenemos
A = T
13
(v
1
)T
23
(v
2
)T
31
(av
2
)T
32
(av
1
)T
13
(v
1
)T
23
(v
2
)T
31
(av
2
)T
32
(av
1
).
En general, para i < j arbitrarios
B = E + a
_

_
v
1
.
.
.
v
n
_

_
_
0, . . . , v
j
, 0, . . . , v
i
, 0, . . . , 0

5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 119


donde v
j
ocurre en la i-esima posicion y v
i
en la j-esima posicion. Entonces,
B =
_

_
1 . . . av
1
v
j
. . . av
1
v
i
. . . 0
.
.
.
.
.
.
.
.
. 0
1 + av
i
v
j
av
2
i
.
.
.
.
.
.
av
2
j
1 av
i
v
j
.
.
.
.
.
.
av
n
v
j
av
n
v
i
1
_

_
=
_

_
1 . . . 0 . . . 0 . . . 0
.
.
.
.
.
.
.
.
. 0
1 + av
i
v
j
av
2
i
.
.
.
.
.
.
av
2
j
1 av
i
v
j
.
.
.
.
.
.
0 0 1
_

1ln
l=i,j
T
li
(av
l
v
j
)T
lj
(av
l
v
i
)
= T
it
(v
i
)T
jt
(v
j
)T
ti
(av
j
)T
tj
(av
i
)T
it
(v
i
)T
jt
(v
j
)T
ti
(av
j
)T
tj
(av
i
)

1ln
l=i,j
T
li
(av
l
v
j
)T
lj
(av
l
v
i
),
donde t es cualquier ndice que cumpla t 1, . . . , n i, j.
Denici on 5.3.3. Sean R un anillo conmutativo y n 1; v = [v
1
, , v
n
]
T
R
n
es un vector columna unimodular si sus componentes generan a R, es decir,
existen u
1
, . . . , u
n
tales que v
1
u
1
+ +v
n
u
n
= 1. Un vector la unimodular se
dene de manera similar.
Lema 5.3.4. Sean R un anillo conmutativo y A SL
n
(R), con n 3. Supongase
que A se puede escribir en la forma A = E+vw, con v un vector columna unimodular
y w un vector la sobre R tales que wv = 0. Entonces, A E
n
(R).
Demostracion. Sea v := [v
1
v
n
]
T
unimodular, existen g
1
, . . . , g
n
R tales que
v
1
g
1
+ +v
n
g
n
= 1; esto combinado con wv = w
1
v
1
+ +w
n
v
n
= 0 proporciona
una nueva expresion para w,
w =

i<j
a
ij
(v
j
e
i
v
i
e
j
),
120 CAP

ITULO 5. GRUPOS DE MATRICES


donde a
ij
:= w
i
g
j
w
j
g
i
. Luego,
A := E + vw = E + v(

i<j
a
ij
(v
j
e
i
v
i
e
j
))
= E +

i<j
va
ij
(v
j
e
i
v
i
e
j
)
=

i<j
(E + va
ij
(v
j
e
i
v
i
e
j
)).
Cada factor del lado derecho de la ultima ecuacion en una matriz de Cohn, luego se
pueden escribir como un producto de matrices elementales, con lo cual A tambien
es un producto de matrices elementales.
Lema 5.3.5. Sean R un anillo conmutativo y n 3. BT
ij
(a)B
1
E
n
(R), para
cada a R y B GL
n
(R).
Demostracion. Para una matriz A, denotemos por A
(i)
su la i y por A
(j)
su columna
j, entonces
BT
ij
(a)B
1
= E + B
(i)
a(B
1
)
(j)
.
Sea v := B
(i)
y w := a(B
1
)
(j)
, entonces (B
1
)
(i)
v = 1, luego v es unimodular,
ademas wv = 0 ya que i ,= j. Por lo tanto, BT
ij
(a)B
1
= E + vw satisface la
condicion del lema 5.3.4, as que se puede escribir como un producto de matrices
elementales.
Teorema 5.3.6 (Suslin). Sea R un anillo conmutativo. Para n 3, E
n
(R)
SL
n
(R).
Demostracion. Sea A SL
n
(R) y F E
n
(R). Entonces el lemma 5.3.5 da un
procedimiento para encontrar matrices propiamente elementales T
1
, . . . , T
t
tales que
AFA
1
= T
1
T
t
.
Observaci on 5.3.7. En [10] se prueba que si K un cuerpo, la matriz
A :=
_
1 + xy x
2
y
2
1 xy
_
SL
2
(K[x, y])
no se puede factorizar como un producto de matrices elementales (vease tambien
[11]).
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 121
5.3.2. Teorema de estabilidad de Suslin
Estudiaremos ahora la segunda pregunta planteada al inicio de la presente seccion.
Desafortunadamente existen anillos conmutativos en los que E
n
(R) ,= SL
n
(R). No
obstante, existen diversos anillos conmutativos en los que la igualdad se tiene, por
ejemplo: en el anillo de polinomios con m indeterminadas K[x
1
, . . . , x
m
] sobre el
cuerpo K; en el anillo de funciones reales continuas; en los dominios euclidianos
(por ejemplo Z y los polinomios K[x] sobre un cuerpo K); en los anillos con rango
estable uno (anillos locales y semilocales).
A continuacion se presenta detalladamente la demostracion de la igualdad en los
dos ultimos casos mencionados. Cabe anotar que dichas demostraciones son cons-
tructivas.
Proposici on 5.3.8. Sea A un anillo arbitrario y n 2.
(i) Si toda matriz de GL
n
(A) se puede expresar como producto de matrices ele-
mentales y diagonales, entonces GL
n
(A) = E
n
(A)GL
n1
(A).
(ii) Si ademas A = R es conmutativo, entonces E
n
(R) = SL
n
(R).
Observaci on 5.3.9. Aqu se considera GL
n1
(A) como un subgrupo de GL
n
(A)
mediante la inclusion natural M
_
1 0
0 M
_
.
Demostracion. (i) Claramente E
n
(A)GL
n1
(A) GL
n
(A). Sea pues M GL
n
(A);
por hipotesis M se puede expresar como producto de matrices elementales T
ij
(a),
i ,= j, a A, y diagonales D
i
(u), u A

. En virtud de 5.2.2 (v), las matrices


diagonales se pueden conmutar hacia la derecha obteniendo M = T
1
D, donde T
1
es
un producto de elementales y D de diagonales. Pero entonces D =
_

_
d
1
0
.
.
.
0 d
n
_

_
=
diag(d
1
, . . . , d
n
), donde cada d
i
A

, 1 i n. Sea u A

y consideremos las
siguientes operaciones sobre las y columnas:
_
u
1
0
0 u

T
21
(1)

_
u
1
0
u
1
u

T
12
(1)

_
0 u
u
1
u

T
21
(1)

_
0 u
u
1
0

T
12
(u)

_
1 u
u
1
0

T
12
(u)

_
1 0
u
1
1

.
As,
_
u
1
0
0 u

= T
21
(1)T
12
(1)T
21
(1)T
12
(u)T
21
(u
1
)T
12
(u) y, por lo tanto,
diag(d
1
1
, d
1
, 1, . . . , 1) = T
2
es producto de elementales. Pero diag(d
1
1
, d
1
, 1, . . . , 1)D = diag(1, d
1
d
2
, d
3
. . . , d
n
),
luego D = T
1
2
diag(1, d
1
d
2
, d
3
, . . . , d
n
); en consecuencia,
M = T
1
D = T
1
T
1
2
diag(1, d
1
d
2
, d
3
, . . . , d
n
) = T
3
diag(1, d
1
d
2
, . . . , d
n
)
122 CAP

ITULO 5. GRUPOS DE MATRICES


con T
3
= T
1
T
1
2
E
n
(A) y diag(1, d
1
d
2
, d
3
, . . . , d
n
) GL
n1
(A) (con inversa
diag(1, d
1
2
d
1
1
, d
1
3
, . . . , d
1
n
)). Tenemos entonces que GL
n
(A) E
n
(A)GL
n1
(A).
(ii) De (i) se sigue inmediatamente que GL
n
(A) = E
n
(A)GL
1
(A) (explcita-
mente, basta observar que diag(1, (d
1
d
2
)
1
, d
1
d
2
, 1, . . . , 1) es producto de elemen-
tales hasta obtener M = T

diag(1, 1, . . . , 1, d
1
d
2
d
n
)). Sean R un anillo conmu-
tativo y N SL
n
(R), entonces N GL
n
(R) = E
n
(R)GL
1
(R), es decir, N =
Tdiag(1, 1, . . . , 1, u) = TD
n
(u) con u R

y T E
n
(R). De este modo det(N) = u,
y como N SL
n
(R), necesariamente u = 1, D
n
(u) = E y N = T es producto de
elementales. Por lo tanto, E
n
(R) = SL
n
(R).
Lema 5.3.10. Sea R un dominio euclidiano con funcion euclidiana y sea n
2. Si :=
_
a
1
a
2
a
n

R
n
, entonces existe T E
n
(R) tal que T =
_
a 0 0

para cierto a R.
Demostracion. Si = 0, basta tomar a = 0 y T = E. Supongase ,= 0; entonces
(a
k
) [ a
k
,= 0 es un subconjunto no vaco de N. Sea m() := mn(a
k
) [ a
k
,= 0
y sea i el menor de los ndices tales que m() = (a
i
). Si j ,= i es tal que a
j
,= 0, exis-
ten q
j
, r
j
R tales que a
j
= a
i
q
j
+r
j
, donde r
j
= 0 o (r
j
) < (a
i
). As, T
ij
(q
j
) =
_
a
1
a
i
a
j
a
i
q
j
a
n

=
_
a
1
a
i
r
j
a
n

. Repitien-
do esta operacion para cada j ,= i con a
j
,= 0 se obtiene

:= T
1
=
_
a

1
a

donde a

i
= a
i
, y para j ,= i, a

j
= a
j
si a
j
= 0 y a

j
= r
j
si a
j
,= 0. Si a

j
= 0 para
cada j ,= i, hemos terminado: en efecto, si i = 1, T
1
=

=
_
a

1
0 0

; si
i ,= 1 tenemos

T
i1
(1)T
1i
(1) =
_
a

i
0 0

= T
1
T
i1
(1)T
1i
(1). Ahora, si para
alg un j ,= i se tiene a

j
,= 0, entonces m(

) (a

j
) = (r
j
) < (a
i
), de donde resulta
m(

) < m(). En consecuencia, si el proceso se repite con

, en un n umero nito
de pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultado
buscado.
Proposici on 5.3.11. Si R es un dominio euclidiano y n 2, toda matriz de
GL
n
(R) se puede expresar como producto de matrices elementales y diagonales.
Demostracion. (i) Sea M GL
n
(R), n 2. Por el lema 5.3.10, existe T E
n
(R)
tal que
MT =
_

_
m 0 0
m
2
.
.
.

M
m
n
_

_
,
donde

M M
n1
(R). Pero M es invertible, luego det(M) R

y como det(M) =
det(MT) = mdet(

M), se tiene que m, det(

M) R

y por tanto,

M GL
n1
(R).
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 123
As,
MTD
1
(m
1
) =
_

_
1 0 0
m
2
.
.
.

M
m
n
_

_
y,
T
n1
(m
n
) T
21
(m
2
)MTD
1
(m
1
) =
_

_
1 0 0
0
.
.
.

M
0
_

_
.
(ii) Probaremos ahora la armacion por induccion sobre n.
(a) Si n = 2, por (i) se tiene T
21
(m
2
)MTD
1
(m
1
) =
_
1 0
0 m
_
= D
2
( m), dado que
m = det(

M) R

, y entonces M = T
21
(m
2
)D
2
( m)D
1
(m)T
1
es un producto
de matrices elementales y diagonales.
(b) Supongase que la armacion es valida para n = k 1, k 3, y sea M
GL
k
(R). Nuevamente por (i),
M = T
21
(m
2
) T
k1,1
(m
k1
)
_
1 0
0

M
_
D
1
(m)T
1
,
con

M GL
k1
(R). Por hipotesis de induccion,

M se puede expresar como
producto de matrices elementales y diagonales de orden k 1; pero dichas
matrices pueden considerarse como elementales y diagonales de orden k y de
ello se sigue la armacion.
Corolario 5.3.12. Si R es un dominio euclidiano y n 2, entonces E
n
(R) =
SL
n
(R).
Denici on 5.3.13. Sea A un anillo. Se dice que A tiene rango estable uno si
para cada a, b A tales que a, b) = A existe c A tal que a + cb A

.
Proposici on 5.3.14. Si A es un anillo con rango estable uno, toda matriz de
GL
n
(A), n 2, se puede expresar como producto de matrices elementales y dia-
gonales.
124 CAP

ITULO 5. GRUPOS DE MATRICES


Demostracion. (i) Sea M := [m
ij
] GL
n
(A), n 2. Como M
1
M = E, existen
r
1
, . . . , r
n
A tales que r
1
m
11
+ + r
n
m
n1
= 1; as, para cada a A tenemos
a = (ar
1
)m
11
+ a(r
2
m
21
+ + r
n
m
n1
), es decir, A = m
11
, r
2
m
21
+ + r
n
m
n1
).
Dado que A tiene rango estable uno , existe c A tal que u := m
11
+ c(r
2
m
21
+
+ r
n
m
n1
) A

. Ahora,
M
1
:= T
12
(cr
2
)T
13
(cr
3
) T
1n
(cr
n
)M =
_

_
u m

12
m

1n
m
21
m
22
m
2n
.
.
.
.
.
.
.
.
.
m
n1
m
n2
m
nn
_

_
;
pero u A

, luego
M
2
:= T
n1
(m
n1
u
1
) T
31
(m
31
u
1
)T
21
(m
21
u
1
)M
1
=
_

_
u m

12
m

1n
0 m

22
m

2n
.
.
.
.
.
.
.
.
.
0 m

n2
m

nn
_

_
,
y,
M
3
: = M
2
T
12
(m

12
u
1
)T
13
(m

13
u
1
) T
1n
(m

1n
u
1
)M
=
_

_
u 0 0
0 m

22
m

2n
.
.
.
.
.
.
.
.
.
0 m

n2
m

nn
_

_
=
_
1 0
0

M
_
D
1
(u),
donde

M M
n1
(A). De este modo obtenemos M = T
1
_
1 0
0

M
_
D
1
(u)T
2
con
T
1
:= T
1n
(cr
n
) T
12
(cr
2
)T
21
(m
21
u
1
) T
n1
(m
n1
u
1
) E
n
(A)
y,
T
2
:= T
1n
(m

1n
u
1
) T
12
(m

12
u
1
) E
n
(A).
Como M, T
1
, D
1
(u) y T
2
son elementos de GL
n
(A), necesariamente
_
1 0
0

M
_
es in-
vertible y por lo tanto

M GL
n1
(A).
(ii) Demostraremos ahora la armacion haciendo induccion sobre n.
(a) Si n = 2, por (i) se tiene M = T
1
_
1 0
0 m

D
1
(u)T
2
= T
1
D
2
( m)D
1
(u)T
2
, dado que
m A

.
5.4. GRUPOS CL

ASICOS SOBRE ANILLOS 125


(b) Supongase el resultado valido para n = k 1, k 3, y sea M GL
k
(A).
Por (i), M = T
1
_
1 0
0

M
_
D
1
(u)T
2
, donde

M GL
k1
(A); por hipotesis de
induccion,

M es producto de matrices elementales y diagonales de orden k
1 que pueden considerarse de orden k; en consecuencia, M es producto de
matrices elementales y diagonales.
Corolario 5.3.15. Si R es un anillo conmutativo con rango estable uno y n 2,
entonces E
n
(R) = SL
n
(R).
5.4. Grupos clasicos sobre anillos
A continuacion se denen los anillos con involucion, insumo importante para intro-
ducir los grupos clasicos sobre anillos.
Denici on 5.4.1. Sea A un anillo. Una involucion en A es una funcion : A A
que satisface
(i) (a + b)

= a

+ b

(ii) (ab)

= b

(iii) (a

= a
para cada a, b A.
Los ejemplos mas conocidos de involuciones son la trasposicion en M
n
(A) y la
conjugacion en C.
Proposici on 5.4.2. La identidad es una involucion en A si, y solo si, A es un
anillo conmutativo.
Demostracion. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y solo si,
A es conmutativo.
Proposici on 5.4.3. Sea una involucion en el anillo A.
(i) 0

= 0 y 1

= 1.
(ii) Para cada a A, (a)

= a

; y si a A

, (a
1
)

= (a

)
1
.
(iii) Si a

= a, entonces (a)

= a; y si a A

, (a
1
)

= a
1
.
126 CAP

ITULO 5. GRUPOS DE MATRICES


(iv) Si a Z(A), tambien a

Z(A).
Demostracion. (i) 0

= (0 + 0)

= 0

+ 0

, luego 0

= 0. Por otro lado, 1

1 =
1

(1

= (1

1)

= (1

= 1 de donde 1

= 1.
(ii) (a)

+ a

= (a + a)

= 0

= 0, luego (a)

= a

. Analogamente,
(a
1
)

= (aa
1
)

= 1

= 1 y a

(a
1
)

= (a
1
a)

= 1

= 1, de manera que a

con inverso (a
1
)

.
(iii) Seg un (ii), (a)

= a

y (a
1
)

= (a

)
1
.
(iv) Sea b A; entonces a

b = a

(b

= (b

a)

= (ab

= (b

= ba

, luego
a

Z(A).
Denici on 5.4.4. Sean A un anillo y una involucion en A. Dada una matriz
F := [f
ij
] M
mn
(A), la matriz trasjugada de F respecto a es F

:= [f

ji
]
M
nm
(A).
Es decir, F

se obtiene de F trasponiendo la matriz de imagenes por . Notese


que si es la identidad (A conmutativo), se tiene F

= F
T
.
Proposici on 5.4.5. Sea una involucion en el anillo A. Si F := [f
ij
] M
lm
(A),
G := [g
ij
] M
np
(A) y a A, entonces
(i) (F + G)

= F

+ G

siempre que l = n y m = p.
(ii) (GF)

= G

siempre que m = n.
(iii) (F

= F.
(iv) (a F)

= F

.
(v) (F
1
)

= (F

)
1
siempre que l = m y F sea invertible
Demostracion. (i) Evidente.
(ii) Sea FG := [b
ij
], entonces b
ij
=

n
k=1
f
ik
g
kj
, y la entrada (i, j) de (FG)

es
(b
ji
)

= (

n
k=1
f
jk
g
ki
)

n
k=1
g

ki
f

jk
. Por otro lado, si G

= [c
ij
] y F

= d
ij
(de
manera que c
ij
= g

ji
y d
ij
= f

ji
), entonces la entrada (i, j) de G

es

n
k=1
c
ik
d
kj
=

n
k=1
g

ki
f

jk
y as (FG)

= G

.
(iii) Evidente.
(iv) La entrada (i, j) de (a F)

es (af
ji
)

= f

ji
a

que es la entrada (i, j) de


F

.
(v) F

(F
1
)

= (F
1
F)

= E

= E. Analogamente, (F
1
)

= (FF
1
)

=
E

= E, de modo que F

es invertible con inversa (F

)
1
= (F
1
)

.
Denici on 5.4.6. Sea A un anillo con unidad, una involucion en A y Z(A)
tal que

= 1.
(i) F M
n
(A) es alternada si existe F
1
M
n
(A) tal que F = F
1
F

1
5.4. GRUPOS CL

ASICOS SOBRE ANILLOS 127


(ii) F M
n
(A) es hermitiana si F = F

.
(iii) F M
n
(A) es antihermitiana si F = F

.
La alternancia depende de y de la involucion; notese que por lo menos = 1 y
= 1 satisfacen

= 1. Por otra parte, si es la identidad (A conmutativo), las


matrices hermitianas se denominan simetricas y las antihermitianas, antisimetricas.
Proposici on 5.4.7. Si F es alternada, entonces F es antihermitiana.
Demostracion. Como F alternada, sea F = F
1
F

1
; entonces F

= (F
1

1
)

= (F

1
F
1

) = (F

F
1
) = F

1
+

F
1
= F
1
F

1
= F.
As, F = F

y F es antihermitiana.
Proposici on 5.4.8. Sea A un anillo tal que 2A = A.
(i) F M
n
(A) es alternada si, y solo si, es antihermitiana.
(ii) Si F M
n
(A) es hermitiana y antihermitiana, entonces F = 0.
Demostracion. 2A = A signica que 1 + 1 A

, es decir, que si a A es tal que


a + a = 0 entonces a = 0.
(i) Si F es alternada, es antihermitiana por la proposicion anterior. Supongase
que F es antihermitiana, entonces (1 + 1) F = F + F = F F

. Si 2 = 1 + 1,
2

= (1 + 1)

= 1

+ 1

= 1 + 1 = 2; por hipotesis 2 A

, luego (2
1
)

= 2
1
y as F = 2
1
[(1 + 1) F] = 2
1
(F F

) = (2
1
F) (2
1
F

) =
(2
1
F) (F 2
1
)

= (2
1
F) (2
1
F)

ya que 2
1
Z(A). Como
F = (2
1
F) (2
1
F)

, entonces F es alternada.
(ii) Dado que F es antihermitiana, F

= F; pero tambien es hermitiana,


luego F

= F, de donde F = F, F +F = 0, y de 2A = A se sigue que F = 0.


Proposici on 5.4.9. Si es la identidad (A conmutativo) y = 1, F es alternada
si, y solo si, XFX
T
= 0 para cada matriz la X M
1n
(A).
Demostracion. ): sea F alternada con F = F
1
F
T
1
; entonces, XFX
T
= X(F
1

F
T
1
)X
T
= XF
1
X
T
XF
T
1
X
T
= XF
1
X
T
(XF
1
X
T
)
T
, pero XF
1
X
T
M
1
(A) es
igual a su traspuesta luego XFX
T
= 0.
): sea F := [f
ij
] M
n
(A) tal que XFX
T
= 0 para cada X M
1n
(A). Sea X
i
la matriz la con 1 en la entrada i-esima y 0 en las demas; entonces X
i
FX
T
i
= f
ii
= 0
para 1 i n. Para i ,= j, sea X
ij
la matriz la con 1 en las entradas i, j y 0
en las restantes; tenemos X
ij
FX
T
ij
= f
ij
+ f
ii
+ f
ji
+ f
jj
= f
ij
+ f
ji
y f
ji
= f
ij
(1 i ,= j n), de manera que F es antisimetrica. Finalmente, F
1
:= [b
ij
] se dene
de la siguiente forma: b
ij
:= 0 para i j y b
ij
:= f
ij
para i > j; as, F = F
1
F
T
1
ya que F
1
es la mitad inferior de F, y de esta manera F es alternada.
128 CAP

ITULO 5. GRUPOS DE MATRICES


Proposici on 5.4.10. Sean una involucion en A y F M
n
(A), entonces
(i) M GL
n
(A) [ M

FM = F es un subgrupo de GL
n
(A).
(ii) M GL
n
(A) [ r
M
Z(A)

, M

FM = r
M
F es un subgrupo de GL
n
(A).
Demostracion. (i) Como E

= E GL
n
(A) y E

FE = EFE = E, el conjunto no
es vaco. Si M, N satisfacen M

FM = F y N

FN = F entonces
(MN)

F(MN) = N

(M

FM)N = N

FN = F,
(M
1
)

FM
1
= (M
1
)

(M

FM)M
1
= (MM
1
)

F(MM
1
) = E

FE = F,
por lo tanto el conjunto resulta ser un subgrupo de GL
n
(A).
(ii) E pertenece al conjunto, considerando en este caso r
E
= 1. Si M, N son
tales que M

FM = r
M
F y N

FN = r
N
F con r
M
, r
N
elementos invertibles
del centro de A, entonces (MN)

F(MN) = N

(M

FM)N = N

(r
M
F)N =
r
M
N

FN = r
M
(r
N
F) = r
M
r
N
F con r
M
r
N
Z(A)

, y (M
1
)

FM
1
=
(M
1
)

[r
1
M
M

FM]M
1
= r
1
M
(M
1
)

FMM
1
= r
1
M
F con r
1
M
Z(A)

.
Denici on 5.4.11. Sean una involucion en A y F M
n
(A).
(i) El grupo unitario correspondiente a F es
U(F) := M GL
n
(A) [ M

FM = F.
(ii) El grupo de similitudes correspondiente a F es
GU(F) := M GL
n
(A) [ (r
M
Z(A)

, M

FM = r
M
F;
r
M
se denomina multiplicador de M GU(F).
Por consiguiente, U(F) es el subgrupo de GU(F) constituido por las matrices de
multiplicador 1.
Proposici on 5.4.12. Sea una involucion en A, Z(A) tal que

= 1 y
Q M
n
(A). Entonces X := M GL
n
(A) [ M

QM Q es alternada es un
subgrupo de GL
n
(A).
Demostracion. Como la matriz nula es alternada (0 = 0 0

) E X y X ,= .
Si M, N X, entonces M

QM Q = M
1
M

1
y N

QN Q = N
1
N

1
para ciertas M
1
, N
1
M
n
(A). Ahora, (MN)

Q(MN) Q = N

(M

QM)N Q =
N

(Q + M
1
M

1
)N Q = N

QN Q + N

(M
1
M

1
)N = N
1

N

1
+N

M
1
N N

1
N = (N
1
+N

M
1
N) (N
1
+N

M
1
N)

es alternada, de
modo que MN X. Por otro lado, QM (M
1
)

Q = (M
1
)

M
1
(M
1
)

1
,
luego Q(M
1
)

QM
1
= (M
1
)

M
1
M
1
(M
1
)

1
M
1
, y en consecuencia
(M
1
)

QM
1
Q = [(M
1
)

1
M
1
][(M
1
)

1
M
1
]

, luego M
1
X.
5.4. GRUPOS CL

ASICOS SOBRE ANILLOS 129


Denici on 5.4.13. Sea una involucion en A, Z(A) tal que

= 1. Si
Q M
n
(A), el grupo ortogonal correspondiente a Q es
O(Q) := M GL
n
(A) [ M

QM Q es alternada .
En el caso particular de los anillos conmutativos se tienen otros dos grupos
clasicos.
Denici on 5.4.14. Sean R un anillo conmutativo y una involucion en R.
(i) Sea F M
n
(R). El grupo unitario especial correspondiente a F es
SU(F) := U(F) SL
n
(R).
(ii) Sea Q M
n
(R). El grupo ortogonal especial correspondiente a Q es
SO(Q) := O(Q) SL
n
(R).
Proposici on 5.4.15. En las condiciones de la anterior denicion se tiene:
(i) SU(F) U(F).
(ii) SO(Q) O(Q).
Demostracion. Sean M SU(F) (respectivamente SO(Q)) y N U(F) (respecti-
vamente O(Q)); entonces det(N
1
MN) = det(M) = 1.
Para terminar veamos que los grupos clasicos introducidos en esta seccion corres-
ponden a aquellos que vimos para cuerpos en la subseccion 5.1.2. Sea K un cuerpo,
para los grupos ortogonales se toma la identidad como involucion y Q simetrica,
de manera que para cada matriz M se tiene que M

= M
T
y si M O(Q),
entonces (M
T
QM Q)
T
= M
T
Q
T
M Q
T
= M
T
QM Q, es decir, M
T
QM Q
es simetrica, pero por denicion de O(Q) esta matriz tambien es alternada, por
lo tanto antisimetrica. En consecuencia, si 1 + 1 ,= 0 en K, se tiene M
T
QM
Q = 0 (proposicion 5.4.8) luego O(Q) = M GL
n
(K)[M
T
QM = Q = U(Q),
y este grupo coincide con el grupo ortogonal denido en la subseccion 5.1.2. Si
ademas se toma Q invertible, det(M) = 1 y SU(Q) es el subgrupo de matrices
de determinante positivo, de ah que en algunas ocasiones se utilice la notacion
U
+
(Q). Si F es antihermitiana (antisimetrica), entonces el grupo U(F) es el grupo
grupo simplicial. El grupo de similitudes es entonces
GU(F) = M GL
n
(K) [ r
M
K, M

FM = r
M
F.
En el caso particular K = R, tomando la identidad como involucion, y dado que E
es simetrica, tenemos que O(E) = U(E) = M M
n
(R) [ M
T
M = E = O
n
(R)
que es el grupo ortogonal tradicional; el grupo unitario tradicional resulta al
tomar K = C, F = E y la conjugacion como involucion, pues entonces U(E) =
M M
n
(C)[M

M = E = U
n
(C).
130 CAP

ITULO 5. GRUPOS DE MATRICES


5.5. Ejercicios
1. Demuestre la propiedades (i)-(xx) de la seccion 5.1.
2. Sea dimV = n y sea K un cuerpo tal que char(K) ,= 2. Sea f una forma
bilineal simetrica sobre V . Demuestre que existe una base X en V tal que
m
X
(f) es diagonal.
3. Si dim
C
V = n y f es una forma bilineal simetrica sobre V con rank(f) = r,
entonces existe una base ordenada X = v
1
, . . . v
n
en V tal que
(a) m
X
(f) es diagonal.
(b) f(v
i
, v
i
) = 1 para 1 i r, f(v
i
, v
i
) = 0 para i > r.
4. Si dim
R
V = n y f una forma bilineal simetrica sobre V con rank(f) = r.
Entonces, existe una base ordenada X = v
1
, v
2
, ..., v
n
en V tal que
(a) m
X
(f) es diagonal.
(b) f(v
i
, v
i
) = 1 para 1 i r, y f(v
i
, v
i
) = 0 para i > r.
(c) El n umero de vectores de la base X para los cuales en (b) se da el signo
positivo es independiente de dicha base.
5. Sea dim
K
V = n y f una forma bilineal antisimetrica sobre el cuerpo K,
donde char(K) ,= 2. Demuestre que existe una base ordenada X en V tal que
la matriz de f es suma directa de la matriz nula de orden (n2k) y k matrices
22 de la forma
_
0 1
1 0
_
.
6. Formas sobre espacios no necesariamente libres. Sean A un anillo y
V un A-espacio (A-modulo, vease [6]); sea una involucion en A y Z(A)
es tal que

= 1.
a) Una forma sesquilineal en V es una funcion F : V V A que
satisface:
(i) F(u
1
+ u
2
, v) = F(u
1
, v) + F(u
2
, v), F(u a, v) = a

F(u, v);
(ii) F(u, v
1
+ v
2
) = F(u, v
1
) + F(u, v
2
), F(u, v a) = F(u, v)a,
para cada u, u
1
, u
2
, v, v
1
, v
2
V y cada a A.
Demuestre que si F y G son formas sesquilineales en V , la funcion F +G
denida por (F + G)(u, v) = F(u, v) + G(u, v), para todo u, v V , es
una forma sesquilineal en V .
b) Demuestre que el conjunto de las formas sesquilineales en V es un grupo
abeliano con la adicion denida como antes.
5.5. EJERCICIOS 131
c) Si A es conmutativo, el conjunto de las formas sesquilineales en V es una
A-espacio.
d) Sea es un subgrupo aditivo del anillo A que satisface:
(i) Para cada y a A, se tiene a

a .
(ii)

:= a a

[ a A esta contenido en :

.
(iii)

:= a A [ a = a

contiene a :

.
Demuestre que

son subgrupos aditivos de A que a su vez satisfacen


(i), (ii) y (iii).
e) Sea como antes. Demuestre que:
(i) Si = 0 entonces A es conmutativo, es la identidad y = 1.
(ii) Si 2A = A es conmutativo, es la identidad y = 1, entonces
=

= 0.
(iii) Si = A entonces A es conmutativo, es la identidad y = 1.
(iv) Si 2A = A entonces

= .
f ) Sea F una forma sesquilineal en V .
(i) F es hermitiana si F(u, v) = F

(v, u) para cada u, v V .


(ii) F es antihermitiana si F(u, v) = F

(v, u) para cada u, v V .


(iii) F es -alternada si satisface:
(i) F(v, v) para cada v V .
(ii) F es antihermitiana.
Si =

, demuestre que una forma sesquilineal es -alternada si, y


solo si, es antihermitiana. Ademas, pruebe que esto ocurre en particular
cuando 2A = A, pues en tal caso el unico subgrupo es

.
g) F una forma sesquilineal en V . Demuestre que:
(i) Si F se puede expresar como F(u, v) = F
1
(u, v) + F

1
(v, u), para
cada u, v V , siendo F
1
una forma sesquilineal en V , entonces F es
-alternada.
(ii) Cuando 2A = A, el recproco de (i) es cierto.
h) Demuestre que el conjunto F

de las formas -alternadas es un subgrupo


normal del grupo de formas sesquilineales.
7. Formas cuadraticas sobre espacios no necesariamente libres. Sean
A un anillo y V un A-espacio (A-modulo, vease [6]); sea una involucion en
A y Z(A) es tal que

= 1. Dada una forma sesquilineal F en V , la


forma cuadratica correspondiente a F es la clase q := F +F

. Es decir, si
Q es una forma sesquilineal, entonces Q q si, y solo si, QF es una forma
-alternada. Notese que q depende de A, , , y F.
132 CAP

ITULO 5. GRUPOS DE MATRICES


Sea q una forma cuadratica y Q q.
(i) La distancia seg un q es la funcion
[ [
q
: V A/
v [v[
q
:= Q(v, v) + .
(ii) El producto escalar seg un q es la funcion
(, )
q
: V V A
(u, v) (u, v)
q
:= Q(u, v) + Q

(v, u).
a) Demuestre que la distancia y el producto escalar no dependen de la forma
Q q elegida.
b) Sea q una forma cuadratica. Demuestre que:
(i) El producto escalar seg un q es una forma sesquilineal hermitiana.
(ii) Para cada v V , (v, v)
q
= a + a

con a [v[
q
arbitrario.
(iii) Para cada u, v V , [u + v[
q
= [u[
q
+[v[
q
+ (u, v)
q
.
(iv) Para cada b A, v V se tiene [v b[
q
= b

ab + , con a [v[
q
arbitrario.
c) Sea q una forma cuadratica. Demuestre que:
(i) La distancia y el producto escalar determinan unvocamente a q.
(ii) Si =

, el producto escalar determina unvocamente a q.


(iii) Si no contiene ideales bilateros no nulos de A, la distancia deter-
mina unvocamente a q.
( Siempre que se pueda tomar =

, y cuando 2A = A, esta es la unica


opcion que se tiene. Por otro lado, la condicion en (iii) signica que si I
es un ideal bilatero de A e I , entonces I = 0. Un ejemplo se tiene
cuando = 0).
8. Grupos clasicos sobre espacios no necesariamente libres. Sean A un
anillo y V un A-espacio (A-modulo, vease [6]); sea una involucion en A y
Z(A) es tal que

= 1.
a) Sea F una forma sesquilineal hermitiana o antihermitiana en V . De-
muestre que el conjunto
X := Aut
A
(V ) [ F((u), (v)) = F(u, v) para cada u, v V
es un subgrupo de Aut
A
(V ).
5.5. EJERCICIOS 133
b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupo
unitario correspondiente a F es
U(F) := Aut
A
(V ) [ F((u), (v)) = F(u, v) para cada u, v V .
Si Q es una forma sesquilineal en V y Aut
A
(V ), demuestre que la
funcion R
Q
denida como R
Q
(u, v) = Q((u), (v)), para cada u, v V ,
es una forma sesquilineal en V .
c) Sea q una forma cuadratica.
(i) Aut
A
(V ) preserva q, si para cada Q q, la forma sesquilineal
R
Q
Q es -alternada.
(ii) Aut
A
(V ) preserva la distancia [ [
q
si [(v)[
q
= [v[
q
para cada
v V .
(iii) Aut
A
(V ) preserva el producto escalar (, )
q
si ((u), (v))
q
=
(u, v)
q
para cada u, v V .
As pues, preserva q si la forma sesquilineal denida por Q((u), (v))
Q(u, v) es -alternada. Como la distancia y el producto escalar determi-
nan q y recprocamente, demuestre que: Aut
A
(V ) preserva q si, y solo
si, preserva la distancia [ [
q
y el prodcuto escalar (, )
q
.
d) Sea q una forma cuadratica. Demuestre que el conjunto O(q) :=
Aut
A
(V ) [ preserva q es un subgrupo de Aut
A
(V ) y se denomina el
grupo ortogonal correspondiente a q.
e) Sea q una forma cuadratica y F la forma sesquilineal hermitiana F = (, )
q
.
Demuestre que
(i) O(q) U(F).
(ii) Cuando =

, O(q) = U(F).
f ) Cuando = A, o cuando = 0 y 2A = A, demuestre qu O(q) = U(F).
Bibliografa
[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. vi, 19,
38, 39
[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17
[3] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, No. 3, 1985, 194-
220.
[4] Lezama, O., Cuadernos de

Algebra, No. 1: Grupos, Departamento
de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 10, 17, 22, 107
[5] Lezama, O., Cuadernos de

Algebra, No. 2: Anillos, SAC
2
, Departamen-
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 vi, 1, 3, 10, 14, 69
[6] Lezama, O., Cuadernos de

Algebra, No. 3: Modulos, SAC
2
, Departamen-
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 vi, 1, 4, 5, 7, 10, 12, 16, 50, 67, 75, 81,
86, 130, 131, 132
[7] Lezama, O & Villamarn G., Anillos, Modulos y Categoras, Universidad
Nacional de Colombia, 1994. v, 3, 5
[8] Lang S., Algebra, Springer, 2002. v, 3, 22
[9] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker, 1984.
vi
[10] Park, H. and Woodburn, C., An algorithmic proof of Suslins stability the-
orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 117, 120
[11] Pinto, M., Una Prueba Algortmica para el Teorema de Estabilidad de Suslin
sobre Dominios de Dedekind, Tesis de Maestra, Universidad Nacional de Colom-
bia, Bogota, 2009. 117, 120
134
BIBLIOGRAF

IA 135
[12] Suslin. A, On the structure of the special linear group over polynomial rings,
Math. USSR Izv., 11, 1977, 221 238. 33, 117

Вам также может понравиться