Вы находитесь на странице: 1из 155

CUADERNOS DE ALGEBRA

No. 4

Algebra lineal

Oswaldo Lezama

Departamento de Matematicas
Facultad de Ciencias
Universidad Nacional de Colombia
Sede de Bogota

30 de enero de 2017
ii

Cuaderno dedicado a To
nita, mi madre.
Contenido

Pr
ologo iv

1. Matrices 1
1.1. Estructuras algebraicas basicas . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 13
1.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 17
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2. Determinantes y sistemas de ecuaciones lineales 22


2.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Determinantes y funciones multilineales . . . . . . . . . . . . . . . . . 27
2.3. Menores y cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ideales, rango y sistemas de ecuaciones . . . . . . . . . . . . . . . . . 35
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3. Producto tensorial 50
3.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 50
3.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 54
3.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 58
3.4. Tensores simetricos, antisimetricos y alternados . . . . . . . . . . . . 63

3.5. Algebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 67
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4. Formas can onicas 77


4.1. Polinomios mnimo y caracterstico . . . . . . . . . . . . . . . . . . . 77
4.2. Forma canonica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3. Forma canonica racional . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 91
4.5. Forma canonica diagonal: valores y vectores propios . . . . . . . . . . 97
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

iii
iv CONTENIDO

5. Grupos de matrices 109


5.1. Grupos de matrices sobre cuerpos . . . . . . . . . . . . . . . . . . . . 109
5.2. Grupos de matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . 124
5.3. El grupo elemental sobre anillos conmutativos . . . . . . . . . . . . . 127
5.4. Grupos clasicos sobre anillos . . . . . . . . . . . . . . . . . . . . . . . 134
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

Bibliografa 144
Pr
ologo

La coleccion Cuadernos de algebra consta de 10 publicaciones sobre los principales


temas de esta rama de las matematicas, y pretende servir de material para preparar
los examenes de admision y de candidatura de los programas colombianos de doc-
torado en matematicas. Los primeros cinco cuadernos cubren el material basico de
los cursos de estructuras algebraicas y algebra lineal de los programas de maestra;
los cinco cuadernos siguientes contienen algunos de los principales temas de los
examenes de candidatura, a saber: anillos y modulos; categoras; algebra homologica;
algebra no conmutativa; algebra conmutativa y geometra algebraica. Cada cuaderno
es fruto de las clases dictadas por el autor en la Universidad Nacional de Colombia
en los u
ltimos 25 anos, y estan basados en las fuentes bibliograficas consignadas en
cada uno de ellos, como tambien en el libro Anillos, Modulos y Categoras, publicado
por la Facultad de Ciencias de la Universidad Nacional de Colombia, y cuya edicion
esta totalmente agotada (vease [7]). Un material similar, pero mucho mas completo
que el presentado en estas diez publicaciones, es el excelente libro de Serge Lang, Al-
gebra, cuya tercera edicion revisada ha sido publicada por Springer en el 2004 (vease
[8]). Posiblemente el valor de los Cuadernos de algebra sea su presentacion ordenada
y didactica, as como la inclusion de muchas pruebas omitidas en la literatura y
suficientes ejemplos que ilustran la teora. Los cuadernos son:
1. Grupos 6. Anillos y modulos
2. Anillos 7. Categoras
3. Modulos
8. Algebra homologica
4.
Algebra lineal
9. Algebra no conmutativa
5. Cuerpos 10. Geometra algebraica
Los cuadernos estan divididos en captulos, los cuales a su vez se dividen en
secciones. Para cada captulo se a
nade al final una lista de ejercicios que debera ser
complementada por los lectores con las amplias listas de problemas que incluyen las
principales monografas relacionadas con el respectivo tema.
Cuaderno de algebra lineal. El presente cuaderno esta dedicado al estudio
del algebra lineal generalizada, es decir, al estudio de los espacios vectoriales, los
operadores lineales, las matrices y las formas, pero consideradas sobre anillos di-
mensionales arbitratrarios, es decir, anillos para los cuales un espacio libre de bases

v
vi
PROLOGO

finitas tiene dimension. El algebra lineal sobre anillos ha sido tratada tambien por
otros autores, veanse por ejemplo las monografas [1] y [9] en las cuales se estudia
el algebra lineal sobre anillos conmutativos. Los tres captulos finales del presente
cuaderno corresponden a temas de algebra lineal avanzada, a saber: el producto
tensorial y exterior de espacios, las formas canonicas de operadores y matrices es-
tudiadas desde la perspectiva de la teora de modulos, y el estudio de los grupos de
matrices, incluidos los grupos clasicos.
Para aprovechar mejor el material del presente cuaderno es conveniente que el
lector haya estudiado previamente un curso elemental de algebra lineal clasica, es
decir, de algebra lineal sobre cuerpos, y un curso basico de anillos y modulos (veanse
por ejemplo [5] y [6]). A denotara un anillo no necesariamente conmutativo y con
unidad 1. A es el grupo multiplicativo de los elementos invertibles del anillo A. Si
f es un homomorfismo de anillos, entonces f (1) = 1.
El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, dis-
cpula y amiga, por la digitalizacion del material del presente cuaderno, y tambien
a Arnold Oostra por la revision juiciosa y sus aportes en el u ltimo captulo. Fi-
nalmente, el autor desea expresar su agradecimiento a Fabio Alejandro Calderon
Mateus por la lectura cuidadosa y las correcciones finales introducidas al presente
cuaderno.

Oswaldo Lezama
Departamento de Matematicas
Universidad Nacional de Colombia
Bogota, Colombia
jolezamas@unal.edu.co
Captulo 1

Matrices

El estudio de los espacios vectoriales sobre anillos, desde la perspectiva matricial,


tensorial y de las formas canonicas y sesquilineales que estudiaremos en el presente
cuaderno, constituye la denominada algebra lineal generalizada, o tambien llamada
algebra lineal sobre anillos. Esta area por supuesto se puede considerar como una

rama de la teora de modulos (vease [6]). La teora que desarrollaremos se hara sobre
anillos arbitrarios (principalmente conmutativos), sin embargo, los ejemplos estaran
centrados en los siguientes anillos particulares: un cuerpo cualquiera K, el anillo Z
de los numeros enteros, el anillo Zn de los enteros modulo n 2, y el anillo K[x] de
los polinomios en una indeterminada con coeficientes en el cuerpo K.

1.1. Estructuras algebraicas b


asicas
La primera seccion de este captulo es de caracter introductorio y permite repasar
algunos conceptos de anillos y modulos, sin embargo, invitamos al lector a recordar
la teora basica de los Cuadernos 2 y 3, la cual usaremos libremente durante todos
los desarrollos del presente cuaderno (veanse [5] y [6]).

Definici
on 1.1.1. Sea G un conjunto no vaco. Una operaci on binaria interna
en G es una funcion con dominio el producto cartesiano G G y codominio G

GG G
(a, b) 7 a b.

Si la operacion es asociativa en el sentido que

(a b) c = a (b c)

para cualesquiera elementos a, b, c G, entonces se dice que (G, ) es un semi-


grupo. Si en el conjunto G del semigrupo (G, ) existe un elemento e tal que

1
2 CAPITULO 1. MATRICES

ea=a=ae

para cada a G, se dice que (G, ) es un monoide con elemento neutro e. Si


(G, ) es un monoide y cada elemento a G tiene un inverso, es decir, existe a0 G
tal que

a a0 = e = a0 a

entonces se dice que (G, , e) es un grupo. Si adem on es conmutativa,


as la operaci
es decir,

ab=ba

para cualesquiera elementos a, b G, entonces se dice que el grupo (G, , e) es


conmutativo (tambien llamado abeliano).

Los semigrupos, monoides y grupos se acostumbran a denotar simplemente por


su conjunto de elementos, de tal manera que por ejemplo el grupo (G, , e) se deno-
tara por G.

Ejemplo 1.1.2. El conjunto N = {0, 1, 2, . . . } de los n umeros naturales es un


monoide conmutativo respecto de la adicion usual y tiene como elemento neutro al
natural 0. De igual manera, el conjunto Z = {. . . , 2, 1, 0, 1, 2, . . . } de los n
umeros
enteros es un grupo abeliano con la adicion usual.

Proposici
on 1.1.3. En cualquier grupo el elemento neutro y el inverso de un ele-
mento son u
nicos.

Demostracion. La prueba es una consecuencia directa de las definiciones.

Notemos que el conjunto Z posee dos operaciones, la adicion y el producto, de tal


forma que respecto de la primera es un grupo abeliano, mientras que con la segunda
es un monoide. Conjuntos con tal condicion conforman los llamados anillos.

Definicion 1.1.4. Un anillo es un conjunto A con dos operaciones + y llamadas


adici
on y producto, tal que

(i) A es un grupo conmutativo respecto de la adici


on.

(ii) A es un monoide respecto del producto.

(iii) El producto se distribuye sobre la adici


on, es decir,

a (b + c) = a b + a c,
(a + b) c = a c + b c.

1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 3

(iv) El anillo A es conmutativo si el producto es conmutativo.


(v) Un elemento a A es invertible si tiene inverso respecto del producto.
Observaci on 1.1.5. Todos los anillos tendran elemento neutro respecto del produc-
to, este elemento sera denotado por 1. El neutro respecto de la adicion sera denotado
por 0. Si a A, entonces el inverso de a respecto de la adicion se denominara en
adelante el opuesto de a, y se denotara por a. El producto a b sera simbolizado
simplemente como ab, es decir, omitiremos el punto para el producto de dos elemen-
tos del anillo A. Si a A es invertible, entonces el inverso de a es u
nico y se denota
por a1 .
Ejemplo 1.1.6. El conjunto Z de los n umeros enteros es un anillo conmutativo
respecto de las operaciones usuales de adicion y producto. El neutro aditivo es 0
y el neutro del producto es 1. De igual manera, si restringimos el conjunto de los
enteros a los 8 primeros enteros no negativos, es decir, Z8 = {0, 1, 2, 3, 4, 5, 6, 7}
y realizamos las operaciones tomando resduos respecto de 8 obtenemos el llamado
anillo de enteros modulo 8 (vease [8]). El neutro aditivo es nuevamente el 0 y el neutro
multiplicativo es 1. Este ejemplo por supuesto se puede generalizar a cualquier entero
positivo n 2 (veanse [5] y [7]). De otra parte, el conjunto de todos los polinomios en
la variable x y con coeficientes reales constituyen otro ejemplo de anillo conmutativo,
el cual se acostumbra denotar por R[x]. El neutro aditivo es el polinomio nulo y el
neutro multiplicativo es el polinomio constante 1 (veanse [5], [7] y [8]).
Ejemplo 1.1.7. Es posible que el lector este familiarizado con el conjunto de las
matrices cuadradas reales de tama no 2 2, M2 (R) (veanse [5], [7] y [8]). Estas
matrices conforman un anillo no conmutativo respecto de la adicion y multiplicacion
habituales, el neutro aditivo es la matriz nula y el neutro multiplicativo es la matriz
identica. Notemos que
     
1 0 0 1 0 1 1 0
6= .
0 0 0 0 0 0 0 0
En la definicion de anillo no se exige que cada elemento no nulo tenga inverso
respecto del producto. As por ejemplo, Z es un anillo en el cual no existe entero
x tal que 2x = 1. Sin embargo, existen anillos en los cuales este tipo de ecuaciones
tiene solucion, tal es el caso de anillo de los n
umeros racionales Q con las operaciones
habituales. Esta observacion permite definir el siguiente tipo de anillo.
Definici on 1.1.8. Un anillo A es de divisi on si cada elemento no nulo es in-
vertible. Si ademas A es conmutativo, entonces se dice que A es un cuerpo.
Proposici on 1.1.9. Sea A un anillo, el conjunto A conformado por los elemen-
tos invertibles de A es un grupo respecto del producto, y se denomina el grupo de
elementos invertibles de A.
4 CAPITULO 1. MATRICES

Demostracion. Ejercicio para el lector.


un la proposicion anterior, A es un anillo de division si, y solo si, A = A{0}.
Seg
Ejemplo 1.1.10. Los n umeros racionales Q, los n umeros reales R y los n
umeros
complejos C, con sus operaciones habituales, son cuerpos. Notemos adicionalmente
que Z = {1, 1} es decir, Z no es un cuerpo. De otra parte, M2 (R) consta de las
matrices invertibles, es decir, aquellas que tienen determinante no nulo. Este grupo
se denomina grupo lineal general de orden 2 sobre R y se denota por GL2 (R).
Sobre estos grupos de matrices invertibles volveremos mas adelante.
Un tipo de estructura mas compleja que las definidas anteriormente la consti-
tuyen los llamados espacios vectoriales, tambien denominados modulos, los cuales
conforman los objetos en se basa el algebra lineal generalizada.
Definici
on 1.1.11. Un espacio vectorial es una tripla conformada por
(a) Un grupo abeliano V cuyos elementos llamaremos vectores.
(b) Un anillo A cuyos elementos llamaremos escalares.
(c) Una operacion externa entre escalares y vectores
V AV
(v, a) 7 v a

que satisface las siguientes condiciones:


(i) (v + u) a = v a + u a
(ii) v (a + b) = v a + v b
(iii) v (ab) = (v a) b
(iv) v 1 = v
para cualesquiera elementos a, b A, v, u V .
Si no hay lugar a confusion, el espacio vectorial (V, A, ) sera denotado sim-
plemente por V y se dira que V es un espacio vectorial sobre A, o que V es un
A-espacio. Cuando los escalares operan al lado izquierdo se dice que V es un A-
espacio a izquierda, sin embargo, es necesario aclarar que la teora de algebra lineal
desarrollada a izquierda es completamente equivalente a la desarrollada a derecha. Si
no se advierte lo contrario, todos los espacios vectoriales del presente cuaderno son
espacios vectoriales a derecha. Los espacios vectoriales sobre anillos se les denomina
tambien m odulos (vease [6]). As pues, en teora de anillos y modulos se dira que
V es un A-modulo a derecha.

1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 5

Observaci on 1.1.12. Es importante se nalar que si A es un anillo no conmutativo


y V es un espacio vectorial izquierdo, entonces no basta con cambiar de lado los
escalares, pero manteniendo la asignacion del literal (c) de la defincion anterior,
para obtener un espacio vectorial a derecha. En efecto, si V es un A-espacio a
izquierda y definimos v a := a v, entonces notemos que (v a) b = b (a v) pero
v (ab) = (ab) v = a (b v) y los dos resultados anteriores pueden ser distintos
(veanse [6] y [7]). Claramente para anillos conmutativos los escalares pueden ser
dispuestos indistintamente a derecha o izquierda, seg un resulte mas conveniente.
En adelante, salvo que sea necesario algo distinto, los escalares para modulos sobre
anillos conmutativos seran dispuestos por el lado izquierdo.

Ejemplo 1.1.13. Sean A un anillo y n 1 un entero, el conjunto An conformado por


todos los vectores columna de n componentes (a1 , . . . , an )T , ai A, 1 i n, cons-
tituye un espacio vectorial sobre el anillo A respecto de las siguientes operaciones:

[a1 , . . . , an ]T + [b1 , . . . , bn ]T = [a1 + b1 , . . . , an + bn ]T


[a1 , . . . , an ]T c = [a1 c, . . . , an c]T ,

con c A. An se conoce como el n-espacio vectorial can onico sobre el anillo


A (para la notacion de la traspuesta de un vector vease mas adelante la definicion
1.2.1). Dos casos particulares destacados son el n-espacio vectorial canonico real Rn
y el n-espacio vectorial canonico entero Zn . Tomando n = 1, es decir, A1 = A, se
obtiene que el anillo A tiene estructura de espacio vectorial sobre si mismo: la suma
de vectores es la suma en el anillo A y el producto entre vectores y escalares es el
producto del anillo A.

Observaci on 1.1.14. El conjunto de vectores fila de n componentes se acostumbra


a denotar por A1n y usualmente se le da estructura de A-espacio a izquierda:
c (a1 , . . . , an ) := (ca1 , . . . , can ). Sin embargo, con el proposito de ahorrar espacio y
simplificar la notacion, en adelante, a menudo escribiremos los elementos del espacio
An como vectores fila, siempre y cuando esto no represente confusion.

Como anotamos al principio, toda la teora de espacios vectoriales y transfor-


maciones lineales sobre anillos desarrollada en [6] sera usada en adelante. No sobra
resaltar algunos resultados, definiciones y observaciones.

Teorema 1.1.15. Todo espacio vectorial sobre un anillo de divisi on es libre, es


decir, posee una base. En particular, todo espacio vectorial sobre un cuerpo es libre.

Demostracion. Sea V un espacio vectorial sobre un anillo de division A y sea L la


coleccion de subconjuntos de V que son linealmente independientes (l.i.); L es no
vaco y es ordenado respecto de la inclusion de conjuntos. Sea C un subconjunto no
vaco de L totalemente ordenado y sea C la reunion de los conjuntos que conforman
6 CAPITULO 1. MATRICES

a C. Vamos a demostrar que C L. Sea {x1 , . . . , xn } un subconjunto finito de


C, existen entonces C1 , . . . , Cn C tales que xi Ci , 1 i n. Como C es
totalmente ordenado podemos suponer que xi Cn para cada 1 i n, luego
{x1 , . . . , xn } es l.i. ya que Cn es l.i. Esto muestra que C es l.i. C es pues una cota
superior para C en L; aplicamos entonces el lema de Zorn y encontramos en L un
elemento maximal X. Basta entonces demostrar que hXi = V (recordemos que hXi
denota la envolvente lineal de X conformada por todas las combinaciones lineales
de elementos de X con coeficientes de A, vease [6]). Sea v V , si v X entonces
v hXi, sea v / X, entonces por la maximalidad de X se tiene que X {v} es l.d.
y existen escalares no todos nulos a, a1 , . . . , an A y vectores x1 , . . . , xn X tales
que v a + x1 a1 + + xn an = 0. No es posible que a = 0, de lo contrario X sera
l.d. Por lo tanto, v = (x1 a1 a1 + + xn an a1 ) hXi.
Definici on 1.1.16. Sean V y W dos espacios vectoriales sobre un anillo A. Una
transformaci on f : V W que satisfece
on lineal (t.l.) de V en W es una funci
las siguientes condiciones:
(i) f (u + v) = f (u) + f (v)

(ii) f (v a) = f (v) a
para cualesquiera vectores u, v V y cualquier escalar a A. Se dice tambien que
f es un operador lineal o un A-homomorfismo.
Ejemplo 1.1.17. La funcion

An Am
(a1 , . . . , an ) 7 (b1 a1 + c1 an , b2 a1 + c2 an , . . . , bm a1 + cm an )

donde b1 , c1 . . . bm , cm son escalares de A, es una transformacion lineal de An en Am .


Ejemplo 1.1.18. La transformacion lineal nula denotada por 0 se define por
0
V W
v 7 0.

De igual manera, la transformacion lineal identica de V se denota por iV y se define


por
Vi
V V
v 7 v.

En algebra lineal, como en cualquier rama del algebra, es de vital importancia


el concepto de isomorfismo.

1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 7

Definicion 1.1.19. Dos espacios vectoriales V y W se dicen isomorfos si existe


una transformacion lineal biyectiva entre ellos, denominada isomorfismo. En tal caso
se escribe V
= W . Una transformaci on lineal f : V W es invertible si existe una
on g : W V tal que f g = iW y gf = iV .
funci

Es facil verificar que la funcion g de la definicion anterior es tambien una t.l. y


que f es un isomorfismo si, y solo si, f es invertible.
Pasamos ahora a recordar la estructura algebraica del conjunto de todas las t.l.
de un espacio V en otro W .

Definici
on 1.1.20. Sean V y W dos A-espacios. Se definen

HomA (V, W ) := {f : V W |f es una t.l.},


EndA (V ) : = HomA (V, V ).

Proposici
on 1.1.21. Sea A un anillo y sean V, W dos A-espacios. Entonces,

(i) HomA (V, W ) es un grupo abeliano.

(ii) EndA (V ) es un anillo.

(iii) Si R es un anillo conmutativo, entonces HomR (V, W ) es un R-espacio.

Demostracion. Vease [6].

Notemos que en general el anillo EndA (V ) no es conmutativo, basta por ejemplo


tener en cuenta el caso particular EndR (R2 ). El grupo de elementos invertibles del
anillo EndA (V ) juega un papel muy importante en el algebra lineal generalizada, en
particular, cuando V es de dimension finita.

on 1.1.22. Sea V un A-espacio. AutA (V ) := EndA (V ) es el grupo lineal


Definici
general sobre A.

Notemos tambien que si R es conmutativo, EndR (V ) posee dos estructuras: es


un anillo y es un R-espacio. Este tipo de estructuras se conoce como R-algebras, en
el sentido de la siguiente definicion.

Definicion 1.1.23. Sea R un anillo conmutativo y sea A un conjunto no vaco. Se


dice que A es una R-
algebra si

(i) A es un anillo.

(ii) A es un R-espacio respecto de la adici


on definida en A.

(iii) (ab) r = a(b r) = (a r)b, para cualesquiera a, b A y cada r R.


8 CAPITULO 1. MATRICES

A es un
algebra conmutativa si A es un anillo conmutativo.
Ejemplo 1.1.24. Si R es un anillo conmutativo y V es un R-espacio, entonces
EndR (V ) es una R-algebra no necesariamente conmutativa.
Ejemplo 1.1.25. Si R es un anillo conmutativo entonces el conjunto R[x] de todos
los polinomios con coeficientes en R es una R-algebra conmutativa.

1.2. Matrices sobre anillos


Definici
on 1.2.1. Sea A un anillo y sean m, n enteros positivos; una matriz de
no m n es una tabla ordenada de m filas y n columnas conformada por
tama
elementos de A en la forma

b11 b1n
B = ... .. .

.
bm1 bmn
Los elementos b11 , . . . , bmn se denominan las componentes o entradas de B. La
entrada que esta en la intersecci on de la i-esima fila con la j-esima columna se
denota por bij , y la matriz B tambien se simboliza por B = [bij ]. La i-esima fila de
B se denota por Bi := [bi1 , . . . , bin ], la j-esima columna se denota por

b1j
(j) ..
B := . .
bmj
La matriz B T = [b0ij ] de tama
no n m definida por b0ij := bji , para cada i y cada j,
se denomina la traspuesta de B. La matriz B se dice cuadrada si m = n.
Proposici no m n
on 1.2.2. El conjunto Mmn (A) de todas las matrices de tama
con entradas en el anillo A es un A-espacio vectorial respecto de las siguientes
operaciones: si B = [bij ], C = [cij ] Mmn (A) y a A, entonces
B + C := [bij + cij ], B a := [bij a].
Mmn (A) es libre con base canonica {Eij }m,n
i=1,j=1 , donde
..
0 . 0
Eij := 1 , (1.2.1)

.
0 .. 0
es decir, en la matriz Eij la u nica entrada no nula corresponde a la intersecci
on de
la i-esima fila con la j-esima columna en donde est
a ubicado el elemento 1. Ademas,
estas matrices satisfacen la siguiente regla para el producto:
1.2. MATRICES SOBRE ANILLOS 9

(
Eiq , j = p
Eij Epq =
0, j 6= p.

Demostracion. Dejamos los detalles de la prueba al lector. Indiquemos solamente la


notacion para la matriz nula y la representacion de cualquier matriz B de Mmn (A)
en terminos de la base canonica:

0 0
0 = ... .. , B = P E b .

. i,j ij ij
0 0

on 1.2.3. Sean B = [bij ] Mmn (A), C = [cij ] Mnp (A), se define el


Definici
producto
n
X
BC := D = [dij ], dij := bik ckj , 1 i m, 1 j p.
i=1

Notemos que el producto de matrices se define con la siguiente condicion de


compatibilidad: el numero de columnas del primer factor coincide con el n
umero de
filas del segundo factor.
Proposicion 1.2.4. Sean B, C, D matrices compatibles para las operaciones indi-
cadas. Entonces
(i) (BC)D = B(CD).

(ii) B(C + D) = BC + BD; (B + C)D = BD + CD.

(iii) Si R es un anillo conmutativo y B, C son matrices con entradas en R, entonces


para cada r R se tiene que (B r)C = (BC) r = B(C r).

(iv) Sean B, C y D matrices como en la definici


on 1.2.3. Entonces,

BC = [BC (1) BC (p) ],

BC = [B1 C Bm C]T

(v) Para cada n 1 se define la matriz id


entica de tamano n n sobre el anillo
A por

1 0 (
.. 1, i = j
E = [eij ] := . , eij :=

0, i 6= j.
0 1
10 CAPITULO 1. MATRICES

Entonces, para cada matriz B Mmn (A) se tiene que

EB = B, BE = B,

no m m y en la
donde en la primera identidad E es la identica de tama
no n n.
segunda E es de tama

(vi) Para cada n 1, Mn (A) es un anillo. Si R es un anillo conmutativo, entonces


Mn (R) es una R-algebra.

Demostracion. Todas las afirmaciones de esta proposicion son consecuencia directa


de las definiciones; dejamos su prueba la lector.

Las matrices constituyen un lenguaje computacional para el algebra lineal tal


como lo ilustra el siguiente teorema en el cual mostraremos la representacion de
transformaciones lineales por medio de matrices. Para el teorema necesitamos las
siguientes nociones (veanse [4], [5] y [6]).

Definici on 1.2.5. Sean G, H dos grupos, se dice que G es isomorfo a H, lo


cual se denota por G = H, si existe una funci on biyectiva f : G H tal que
f (g g ) = f (g) f (g ) para cualesquiera elementos g, g 0 G. Sean A, B dos anillos,
0 0

se dice que A es isomorfo a B, lo cual se denota por A = B, si existe una funcion


biyectiva f : A B tal que f (a + a0 ) = f (a) + f (a0 ), f (aa0 ) = f (a)f (a0 ) para
cualesquiera elementos a, a0 A, y adem as f (1) = 1. Sea R un anillo conmutativo
y sean K, L dos R-algebras, se dice que K es isomorfa a L, lo cual se denota por
K = L, si existe una funcion biyectiva f : K L tal que f (k + k 0 ) = f (k) + f (k 0 ),
f (k r) = f (k) r, f (kk 0 ) = f (k)f (k 0 ) para cualesquiera elementos k, k 0 K, r R,
y ademas f (1) = 1.

Teorema 1.2.6. Sea A un anillo arbitrario.

(i) Si V es un A-espacio libre con una base de n 1 elementos y W es un


A-espacio libre con una base de m elementos, entonces

HomA (V, W )
= Mmn (A) (isomorfismo de grupos).

Si A = R es un anillo conmutativo entonces el isomorfismo anterior es de


espacios vectoriales.

(ii) EndA (V )
= Mn (A) (isomorfismo de anillos).

(iii) Si R es un anillo conmutativo, entonces EndR (V )


= Mn (R) (isomorfismo de
algebras).

1.2. MATRICES SOBRE ANILLOS 11

Demostracion. La idea central de la prueba del teorema es asignar a cada transfor-


macion lineal una matriz y, recprocamente, definir con cada matriz una transfor-
macion lineal.
Matriz asociada a una transformaci on lineal : sea X = {x1 , . . . , xn } una
base de V y sea Y = {y1 , . . . , ym } una base de W ; sea f : V W una t.l., entonces
f determina una u nica matriz mX,Y (f ) := F := [fij ] Mmn (A), llamada la matriz
de la tranformacion f en las bases X, Y , y definida por
m
X
f (xj ) := yi .fij , 1 j n. (1.2.2)
i=1

Transformaci on lineal definida por una matriz : cada matriz F = [fij ]


Mmn (A) determina una u nica t.l. f : V W definida como en (1.2.2). Si en
particular V = An y W = Am , entonces f se puede presentar matricialmente en la
siguiente forma:
f : An A m
a := [a1 , . . . , an ]T 7 F a = F [a1 , . . . , an ]T = F (1) a1 + + F (n) an . (1.2.3)
(i) Por lo anterior es claro que la funcion
mX,Y
HomA (V, W ) Mmn (A)
f 7 mX,Y (f )
es un isomorfismo de grupos. Si A = R es un anillo conmutativo, la funcion mX,Y
es un isomorfismo de espacios vectoriales.
(ii) Sea U un A-espacio libre con una base Z = {z1 , . . . , zp } de p elementos y sea
g : W U otra t.l., veamos entonces que
mX,Z (gf ) = mY,Z (g)mX,Y (f ). (1.2.4)
Sean F = mX,Y (f ), G = mY,Z (g) y H = mX,Z (gf ); se tiene que
p
X
(gf )(xj ) = zk hkj
k=1
Xm
= g(f (xj )) = g( yl flj )
l=1
m X p
X
= ( zk gkl ) flj
l=1 k=1
p m
X X
= zk ( gkl flj ),
k=1 l=1
12 CAPITULO 1. MATRICES

luego hkj = m
P
l=1 gkl flj , es decir, H = GF .
Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)
se obtiene que EndA (V ) y Mn (A) son anillos isomorfos. Notemos que mX,X (iV ) :=
mX (iV ) = E.
(iii) Esto es consecuencia directa de (i) y (ii).

Observaci on 1.2.7. (i) Al considerar espacios vectoriales a izquierda algunos au-


tores acostumbran a disponer por filas los coeficientes de la expansion a traves
de una base. En forma mas precisa, sea X = {x1 , . . . , xn } una base de V y sea
Y = {y1 , . . . , ym } una base de W ; sea f : V W una t.l., entonces f determina
una unica matriz mX,Y (f ) := [fij ] Mnm (A), denominada tambien la matriz de
la tranformacion f en las bases X, Y , y definida por
m
X
f (xi ) := fij yj , 1 i n. (1.2.5)
j=1

La identidad (1.2.4) se convierte en

mX,Z (gf ) = mX,Y (f )mY,Z (g). (1.2.6)

En efecto,
Ppusando la notacion de la demostracion del toerema 1.2.6 tenemos que
g(yj ) = k=1 gjk zk , 1 j m, mY,Z (g) := [gij ] Mmp (A), luego
m p
m X
X X
(gf )(xi ) = fij g(yj ) = fij gjk zk .
j=1 j=1 k=1

Si utilizaramos tambien notacion izquierda para funciones, es decir, en lugar de


f g
f (x) escribieramos xf , entonces la compuesta V W U debera denotarse f g,
en cuyo caso se tendra la relacion mX,Z (f g) = mX,Y (f )mY,Z (g). Con esta notacion
tendramos en particular el isomorfismo de anillos EndA (A V ) = Mn (A). Sin em-
bargo, la notacion a izquierda para funciones es muy poco usada, esto trae como
consecuencia que en el teorema 1.2.6 los anillos EndA (A V ) y Mn (A) sean anti-
isomorfos. Pero si consideramos el anillo opuesto de Mn (A) (vease [6]), entonces
tendremos el isomorfismo de anillos EndA (A V ) = Mn (A)op . Notemos adicionalmente
que una matriz F := [fij ] Mnm (A) define una t.l. dada por

f
A1n A1m
(a1 , . . . , an ) 7 (a1 , . . . , an )F (1.2.7)

y la matriz de f en las bases canonicas coincide con F .


1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 13

(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los
coeficientes de la expansion por columnas y mantener la notacion usual de funciones
a derecha, en tal caso resulta
m p
m X
X X
(gf )(xj ) = g( fij yi ) = fij gki zk ;
i=1 i=1 k=1

si cambiamos el anillo A por su anillo opuesto Aop , entonces tendramos mX,Z (gf ) =
mY,Z (g)mX,Y (f ), y en consecuencia el isomorfismo EndA (A V ) = Mn (Aop ). Otra
variante de esta alternativa es no usar el anillo opuesto, pero entonces la identidad
anterior dice que
mX,Z (gf ) = (mX,Y (f )T mY,Z (g)T )T . (1.2.8)
La matriz F Mrs (S) define un homomorfismo
f
Ss
Sr
a 7 (aT F T )T (1.2.9)

y su matriz en las bases canonicas coincide con F . As pues, f : S r S r es un


isomorfismo si, y solo si, F T GLr (S). Finalmente, sea C Mr (S); las columnas
de C constituyen una base de S r si, y solo si, C T GLr (S) (vease el corolario 1.3.5
mas adelante).
(iii) Notemos de todos modos que los valores asignados por la funcion f en
cada una de las dos opciones anteriores coinciden ya que la matriz F en (1.2.7) es
precisamente F T en (1.2.9).
(iv) Finalmente, si A es un anillo conmutativo entonces la relacion (1.2.8) coincide
con (1.2.4) y tambien se tiene que (aT F T )T = F a.

1.3. Inversa de una matriz y cambio de base


Definici on 1.3.1. Sea B Mnm (A) una matriz; se dice que B es semi-invertible
si existe otra matriz B 0 Mmn (A) tal que BB 0 = E y B 0 B = E. En tal caso se
dice que B 0 es la semi-inversa de B. Si n = m se dice que B es invertible y
B 1 := B 0 es la inversa de B. El grupo de elementos invertibles del anillo Mn (A)
se denota por GLn (A) y se denomina el grupo lineal general de orden n sobre el
anillo A.

Notemos que la semi-inversa de una matriz es u nica. Ademas, si C Mmp (A)


es semi-invertible, entonces BC es semi-invertible con semi-inversa C 0 B 0 .

Corolario 1.3.2. Sea V un A-espacio libre con una base de n 1 elementos.


Entonces,
14 CAPITULO 1. MATRICES

AutA (V )
= GLn (A) (isomorfismo de grupos).
Demostracion. Esto es consecuencia del teorema anterior y los detalles de la prueba
los dejamos al lector.
El grupo GLn (A) y varios de sus subgrupos mas destacados seran estudiados
en forma detallada en el ultimo captulo del presente cuaderno. Pasamos ahora a
estudiar los cambios de bases en los espacios libres y a entender su efecto en las
representaciones matriciales de las transformaciones lineales.
Proposici on 1.3.3. Sea V un espacio libre con base X = {x1 , . . . , xn } y sea B =
[bij ] Mnm (A). Entonces el conjunto
n
X
Y := {yj = xi bij |1 j m} (1.3.1)
i=1

es una base de V si, y solo si, B es semi-invertible.


Demostracion. Para simplificar la prueba utilizaremos notacion matricial de tal for-
ma que la igualdad (1.3.1) la escribiremos como
[Y ] = [X]B
con [Y ] := [y1 , . . . , ym ].
): Si Y es una base de V cada elemento de X es combinacion lineal de los
elementos de Y , resulta entonces una matriz B 0 Mmn (A) tal que [X] = [Y ]B 0 .
Por lo tanto, [Y ] = [X]B = [Y ]B 0 B, y por la independencia lineal de Y se tiene que
B 0 B = E. Por la simetra del problema, BB 0 = E.
): [X] = [X]E = [X]BB 0 = [Y ]B 0 , luego V = hXi hY i y entonces V = hY i.
Sean a1 , . . . , am A tales que y1 a1 + + ym am = 0; se tiene entonces que
[Y ]F = 0, donde F Mm (A) es una matriz en la cual cada columna es el vector
[a1 , . . . , am ]T . Resulta entonces [X]BF = 0, pero como X es l.i. entonces BF = 0,
luego B 0 BF = 0, es decir, F = 0, con lo cual a1 = = am = 0.
Definicion 1.3.4. La matriz B de la proposici
on 1.3.3 es la matriz de cambio
de la base X a la base Y .
La matriz B 0 es la matriz de cambio de Y a X; notemos que B 0 es semi-invertible.
Esta situacion se presenta solamente en los anillos no dimensionales (vease [5] y la
observacion 1.3.10 mas adelante). Para anillos dimensionales n = m y la matriz de
cambio B es invertible.
Corolario 1.3.5. Sea B Mnm (A); B es semi-invertible si, y s olo si, las columnas
m
de B constituyen una base de A . Si m = n, B es invertible si, y s
olo si, las columnas
de B constituyen una base de An .
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 15

Demostracion. Basta tomar V = An y X la base canonica de An en la prueba de la


proposicion 1.3.3.

Ejemplo 1.3.6. La sola independencia de las columnas de una matriz no garantiza


que sea semi-invertible. Consideremos por ejemplo la matriz cuadrada
 
1 2
B= M2 (Z),
3 4

notemos que B no es invertible como matriz entera ya que su inversa como matriz
real es
 
1 2 1
B = 3 M2 (Z);
2
12

notemos ademas que las columnas de B son l.i.

on 1.3.7. Dos matrices P Mpq (A) y Q Mmn (A) son semi-equi-


Definici
valentes si existen matrices semi-invertibles D Mpm (A) y C Mqn (A) tales
que

Q = D0 P C.

Si p = m y q = n se dice que P y Q son equivalentes si existen matrices invertibles


D GLm (A) y C GLn (A) tales que Q = D1 P C, lo cual denotaremos por P Q.
Si p = m = q = n se dice que P y Q son similares si existe una matriz invertible
C GLn (A) tal que Q = C 1 P C, lo cual se denota por P Q.

Todas las relaciones de la definicion anterior son de equivalencia.

Proposici on 1.3.8. Sea f : V W una t.l, donde V es libre con bases X =


{x1 , . . . , xn }, X 0 = {x01 , . . . , x0q } y W es libre con bases Y = {y1 , . . . , ym }, Y 0 =
{y10 , . . . , yp0 }. Sean P = mX,Y (f ), Q = mX 0 ,Y 0 (f ), C la matriz de cambio de X a X 0
y D la matriz de cambio de Y a Y 0 . Entonces,

Q = D0 P C.

Si q = n y p = m entonces Q = D1 P C. Si V = W , Y = X, Y 0 = X 0 , entonces
Q = C 1 P C.
16 CAPITULO 1. MATRICES

Demostracion. Tenemos que


m
X
f (xj ) = yk pkj , 1 j n
k=1
p
X
f (x0t ) = yr0 qrt , 1 t q
r=1
Xn
x0t = xj cjt
j=1
Xm
yr0 = yk dkr , 1 r p,
k=1

luego
Pn
f (xj ) cjt = nj=1 ( m
Pm Pn
f (x0t ) =
P P
j=1 k=1 yk pkj ) cjt = k=1 yk ( j=1 pkj cjt );

f (x0t ) = pr=1 ( m
P P Pm Pp
k=1 yk dkr ) qrt = k=1 yk ( r=1 dkr qrt ),

y puesto que Y es l.i., entonces P C = DQ, es decir, Q = D0 P C.


Proposici on 1.3.9. Dos matrices P Mpq (A) y Q Mmn (A) son semiequi-
valentes si, y solo si, representan la misma transformaci on lineal. Si q = n y p =
m, entonces P, Q Mmn (A) son equivalentes si, y s olo si, representan la misma
transformacion lineal. Si q = n = p = m, entonces P, Q Mn (A) son similares si,
y s
olo si, representan la misma transformaci on lineal.
Demostracion. ): Sea Q = D0 P C con D Mpm (A) y C Mqn (A) semi-
f
invertibles; P representa una t.l. Aq Ap en las bases canonicas X de Aq y Y
de A . Sea [Y ] := [Y ]D; como D es semi-invertible, entonces Y 0 es tambien una
p 0

base de Ap (notemos que Y 0 esta conformada por las m columnas de D, luego


Ap = Am ). De igual manera, sea [X 0 ] := [X]C, y X 0 es tambien una base de Aq (X 0
esta conformada por las n columnas de C, luego Aq = An ). De otra parte, Q tambien
g
representa una t.l. Aq Ap en las bases X 0 , Y 0 ; se tiene entonces que mX,Y (f ) = P
y mX 0 ,Y 0 (g) = Q, de donde mX 0 ,Y 0 (f ) = D0 mX,Y (f )C = D0 P C = Q = mX 0 ,Y 0 (g), y
por lo tanto, f = g.
): Esta parte corresponde a la proposicion 1.3.8.
Observaci on 1.3.10. (i) Un punto donde el algebra lineal sobre anillos se aparta del
algebra lineal clasica es en la existencia y tama
no de las bases. En [6] se demuestra
que el Z-espacio de los n umeros racionales Q no es libre. En cuanto a la unicidad
de las bases, en general, podemos afirmar que en un espacio vectorial libre existen
infinitas bases. Por ejemplo, en Rn el conjunto Xa = {e1 a, . . . , en }, con a R{0},
es una base. En Z2 se tienen las siguientes bases,
1.4. MATRICES Y OPERACIONES ELEMENTALES 17

{(1, 0), (0, 1)}, {(1, 0), (0, 1)}, {(1, 0), (0, 1)}, {(1, 0), (0, 1)}, {(1, 1), (1, 2)}.

En el siguiente captulo veremos que {(a, b), (c, d)} es una base de Z2 si, y solo si,
ad bc = 1. El problema de la unicidad entonces es mejor plantearlo en terminos
del tama no de las bases. En [6] se prueba que todo espacio vectorial libre finitamente
generado (f.g.) posee una base finita, y tambien que, en un espacio vectorial libre
todas las bases son finitas o bien todas son infinitas. Ademas, para espacios de bases
infinitas no hay problema con el tama no de las bases, todas tienen la misma cantidad
de elementos. Sin embargo, existen anillos A para los cuales se tiene la siguiente
propiedad: si V es un A-espacio de bases finitas, no necesariamente todas las bases
de V tienen el mismo n umero de elementos. Un ejemplo puede ser consultado en [6].
(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases de
V tienen el mismo n umero de elementos. Este n umero se denomina la dimensi on
de V y se denota por dimA (V ). Se dice que A es un anillo dimensional si todos
sus A-espacios libres son dimensionales (en ingles IBN , invariant basis number). La
mayora de los anillos estudiados en algebra son dimensionales (vease [2] y [4]). Por
ejemplo, los anillos de division son dimensionales: en efecto, sean X y X 0 dos bases de
tama nos n y n0 , respectivamente, de un espacio vectorial V sobre un anillo de division
A; si n > n0 , entonces, tal como se prueba en espacios vectoriales sobre cuerpos (sin
usar conmutatividad), n0 + 1 vectores de X son linealmente dependientes, lo cual es
falso ya que X es l.i. Los anillos conmutativos tambien son dimensionales (esto lo
probaremos mas adelante).
(iii) Notemos que un anillo A es dimensional si, y solo si, las u nicas matrices
semi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).
Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectoriales
libres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y solo
si, A es dimensional a izquierda (vease [4]). Ademas, en anillos dimensionales, semi-
invertible = invertible y semi-equivalente = equivalente.
(iv) En adelante en el presente cuaderno asumiremos que A es un
anillo dimensional .

1.4. Matrices y operaciones elementales


En el grupo GLn (A) se tienen tres tipos importantes de matrices que permiten
realizar cambios sobre las filas y/o columnas de una matriz. Definimos en esta seccion
estas matrices invertibles especiales.

on 1.4.1. Sea n 2. Se definen los siguientes tipos de matrices elemen-


Definici
tales.

(i) Matrices propiamente elementales:


18 CAPITULO 1. MATRICES


1
..
. a



Tij (a) := E + Eij a = ..
, a A, i 6= j.
.
..
.
1

(ii) Permutaciones:

Pij := E Eii Ejj + Eij + Eji .

(iii) Diagonales:

Di (a) := E + Eii (a 1), a A .

Proposici
on 1.4.2. Las matrices elementales son invertibles,
Tij (a)1 = Tij (a), Pij1 = Pij , Di (a)1 = Di (a1 ).
Demostracion. Ejercicio para el lector.
Definici
on 1.4.3. El subgrupo de GLn (A) generado por todas las matrices propia-
mente elementales se denomina grupo elemental, y se denota por En (A).
Las matrices elementales inducen las llamadas operaciones elementales sobre
las filas y columnas de una matriz F Mmn (A), m, n 2:
(i) El efecto de multiplicar F a la derecha por Tij (a) GLn (A) es sumar a la
j-esima columna de F la i-esima columna multiplicada a derecha por a. El
efecto de multiplicar F a la izquierda por Tij (a) GLm (A) es sumar a la
i-esima fila la j-esima fila multiplicada a izquierda por a.
(ii) El producto F Pij , con Pij GLn (A) intercambia las columnas i-esima y j-
esima de F . Pij F , con Pij GLm (A), efect
ua el correspondiente intercambio
de filas.
(iii) La matriz F Di (a), con Di (a) GLn (A), se obtiene de F multiplicando la
i-esima columna de F a la derecha por a. Di (a)F , con Di (a) GLm (A), se
obtiene de F multiplicando la i-esima fila de F por a a la izquierda.
Teniendo en cuenta que el producto de matrices invertibles es invertible, obtenemos
inmediatamente el siguiente resultado.
Corolario 1.4.4. Si la matriz G Mmn (A) se obtuvo de F Mmn (A) por
medio de operaciones elementales sobre las filas y/o columnas de F , entonces G es
equivalente a F .
1.5. EJERCICIOS 19

1.5. Ejercicios
1. Determine 10 bases diferentes en Z2 distintas de la base canonica.

2. Determine 10 conjuntos diferentes en Z2 cada uno de 2 elementos y l.d.

3. Sea K un cuerpo y sea V un K-espacio. Si x1 , . . . , xn son vectores l.i. de V ,


demuestre que cada conjunto de n + 1 vectores de hx1 , . . . , xn i es l.d.

4. Demuestre que todo cuerpo K es un anillo dimensional.

5. Sea n 1 entero y sea Rn [x] el conjunto de polinomios reales de grado menor


o igual a n. Demuestre que Rn [x] es un R-espacio de dimension n + 1.

6. Con la notacion del ejercicio anterior, sea X un subconjunto de Rn [x] que


contiene para cada k = 0, 1, . . . , n un u
nico polinomio de grado k. Demuestre
que X es una base de Rn [x].

7. Demuestre la afirmacion del ejemplo 1.1.17.

8. Sea f : V W una t.l. para la cual existe una funcion g : W V tal que
f g = iW y gf = iV . Demuestre que g es una t.l.

9. Compruebe que EndR (R2 ) no es un anillo conmutativo.

10. Demuestre que M2 (R) es una R-algebra no conmutativa.

11. Sea R un anillo conmutativo y R[x1 , . . . , xn ] el conjunto de polinomios en


n indeterminadas con coeficientes en R. Demuestre que R[x1 , . . . , xn ] es una
R-algebra conmutativa.

12. Demuestre el corolario 1.3.2.

13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.

14. Demuestre que las relaciones de la definicion 1.3.7 son de equivalencia.

15. (vease [1], pag. 17) Sea A un anillo; un subconjunto no vaco I de A es un


ideal derecho de A si x + y I y xa I para cada x I y cada a A.
De manera similar se definen los ideales izquierdos de A. Demuestre que para
cada 1 r n 1, el conjunto
 
0
I=
A
20 CAPITULO 1. MATRICES

conformado por todas las matrices en las cuales las primeras r filas son nulas
es un ideal derecho de Mn (A). De igual manera, demuestre que el conjunto
de matrices de Mn (A) conformado por todas las matrices en las cuales las
primeras r columnas son nulas es un ideal izquierdo de Mn (A).

16. Sea V un A-espacio y sea v V ; se define

AnnA (v) := {a A|v a = 0}.

Demuestre que AnnA (v) es un ideal derecho de A. Ademas, si

AnnA (V ) := {a A|v a = 0 para cada v V },

entonces AnnA (V ) es un ideal bil


atero de A, es decir, AnnA (V ) es un ideal
izquierdo y derecho de A que cumple
T
AnnA (V ) = vV AnnA (v).

17. Sean V1 , V2 dos subespacios de un A-espacio V . Demuestre que

V1 + V2 := {vi + v2 |v1 V1 , v2 V2 }

es un subespacio de V y que AnnA (V1 + V2 ) = AnnA (V1 ) AnnA (V2 ).

18. Sea V un A-espacio libre con una base de n elementos. Sea f : V V una
t.l. Muestre con un ejemplo que la sobreyectividad de f y la inyectividad no
son condiciones equivalentes.

19. Demuestre la proposicion 1.4.2.

20. Sea A un anillo y sea B Mn (A); se dice que B es sim etrica si B T = B,


T T
y antisimetrica si B = B. Demuestre que B + B es simetrica y que
B B es antisimetrica. Ademas, si 2 := 1 + 1 A , entonces demuestre que
T

B es suma de una matriz simetrica y una matriz antisimetrica.

21. Sean P, Q matrices rectangulares o cuadradas, seg


un corresponda, sobre un
anillo conmutativo R. Demuestre que (P + Q)T = P T + QT ; (P Q)T = QT P T ;
(P 1 )T = (P T )1 .

22. Sean A1 , . . . , An anillos; demuestre que el producto cartesiano

A1 An := {(a1 , . . . , an )|ai Ai , 1 i n}
1.5. EJERCICIOS 21

bajo las operaciones definidas por componentes tiene estructura de anillo. De-
muestre ademas los siguientes isomorfismos de anillo y grupo, respectivamente:

Mn (A1 An )
= Mn (A1 ) Mn (An ),
GLn (A1 An )
= GLn (A1 ) GLn (An ).

23. Sea R un anillo conmutativo y sea B = [bij ] Mn (R). Se define la traza de


B por T r(B) := b11 + + bnn . Demuestre las siguientes propiedades:

(i) T r(BC) = T r(CB).


(ii) T r(B + C) = T r(B) + T r(C).
(iii) T r(B r) = T r(B)r, r R.
(iv) La traza es una t.l. sobreyectiva de Mn (R) en R.
(v) ker(T r) = hXi, donde X = {Eij |i 6= j} {E11 Eii |i 6= 1}.
(vi) T r(B T ) = T r(B).
(vii) T r(P 1 BP ) = T r(B), para cada P GLn (R).
(viii) ker(T r) = hY i, con Y = {BC CB|B, C Mn (R)}.
Captulo 2

Determinantes y sistemas de
ecuaciones lineales

En este captulo presentaremos la teora de determinantes sobre anillos conmutativos


arbitrarios y la usaremos para estudiar sistemas de ecuaciones lineales sobre estos
anillos. Si no se advierte lo contrario R denotara un anillo conmutativo.

2.1. Determinantes
El enfoque que daremos a la funcion determinante utiliza el grupo de permutaciones
de un conjunto finito, el cual trataremos a continuacion.

Definici on 2.1.1. Para cada n 1 sea Sn el conjunto de todas las funciones biyec-
tivas del conjunto In := {1, 2, . . . , n}. Cada una de tales funciones se denomina
permutaci on del conjunto In . Bajo la operaci on de composici on de funciones, Sn
es claramente un grupo, y se le denomina grupo sim etrico de grado n. Una per-
mutaci on Sn se llama ciclo de longitud m, 1 m n, si existen m elementos
diferentes 1 , . . . , m In tales que (i ) = i+1 para 1 i m 1, (m ) = 1
y () = para cada In \ {1 , . . . , m }. Un ciclo de longitud 2 se denomina
trasposici on. Dos ciclos = (1 m ) y = (1 r ) se dicen disyuntos, si
{1 m } {1 r } = .

Enunciamos a continuacion algunas de las propiedades mas importantes del


grupo Sn y de sus ciclos. La demostracion de estas puede ser consultada en [8]
y [4].

(i) Los ciclos disjuntos conmutan.

(ii) Cada permutacion de Sn es el producto de ciclos disjuntos. La representacion


es u
nica salvo el orden.

22
2.1. DETERMINANTES 23

(iii) Cada permutacion en Sn es producto de trasposiciones.

(iv) Si una permutacion Sn tiene dos descomposiciones en productos de r y s


trasposiciones, entonces r es par si, y solo si, s es par.

(v) Una permutacion Sn se denomina par , si se descompone en un n umero


par de trasposiciones. El conjunto An de las trasposiciones pares de Sn tiene
las siguientes propiedades: el producto de permutaciones para es par; la per-
mutacion identica es par; la inversa de una permutacion par es par. En otras
palabras, An bajo la composicion es un grupo, llamado el grupo alternante
de grado n.
n!
(vi) Sn tiene n! elementos, mientras que An posee 2
.

on 2.1.2. Sea n 1. Para cada B = [bij ] Mn (R) se define su determi-


Definici
nante como el elemento de R dado por
X
det B := (1) b1(1) bn(n) , (2.1.1)
Sn

donde (1) es 1 o 1, dependiendo si es par


o impar, respectivamente.

A partir de (2.1.1) se pueden demostrar las principales propiedades de la funcion


determinante

det : Mn (R) R
B 7 det B.

on 2.1.3. Sea B = [bij ] Mn (R). Entonces


Proposici

det[B1 , . . . , aBi , . . . , Bn ]T = a det B, a R.

Demostracion. Sea C = [cij ] la matriz obtenida de B multiplicando la i-esima fila


por a R. Entonces
X
det C = (1) c1(1) ci(i) cn(n)
Sn
X
= (1) b1(1) abi(i) bn(n)
Sn

= a det B.

Notese la aplicacion de la propiedad conmutativa.


24 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

on 2.1.4. Sea B = [bij ] Mn (R) y (a1 . . . , an ) Rn . Entonces


Proposici

b11 b1n b11 b1n


det
b i1 + a 1 b in + a n
= det B + det a1 an .


bn1 bnn bn1 bnn
Demostracion. Sea C = [cij ] Mn con
(
brs , r 6= i
crs =
bis + as , r = i.
Entonces,
X
det C = (1) b1(1) (bi(i) + a(i) ) bn(n)
Sn

b11 b1n


= det B + det a1 an

.

bn1 bnn

Proposici
on 2.1.5. Si dos filas de una matriz son iguales entonces su determinante
es nulo.
Demostracion. Sea B = [bij ] Mn (R) tal que Br = Bs con r 6= s. Sea =
(rs) Sn y An el grupo de permutaciones pares. Sea An := { | An }.
Notese que |An | = n!2 y que cada permutacion de An es impar. Resulta entonces
Sn = An An , con lo cual podemos desarrollar el determinante de B de la siguiente
manera:
X X
det B = (1) b1(1) bn(n) + (1) b1 (1) bn (n)
An An
X
= [(1) b1(1) bn(n) + (1) b1 (1) bn (n) ].
An

Observemos con mayor detalle cada termino de la anterior suma:


(1) b1(1) br(r) bs(s) bn(n) + (1) b1 (1) br (r) bs (s) bn (n)
(2.1.2)
Para i 6= r, s, bi(i) = bi (i) ; br(r) = bs(r) = bs (s) ; bs(s) = br(s) = br (r) ; (1)
y (1) tienen signo diferente. Por lo tanto la suma de 2.1.2 es nula, y se obtiene
que det B = 0.
2.1. DETERMINANTES 25

Proposicion 2.1.6. Si en una matriz se intercambian dos filas el determinante


cambia de signo.

Demostracion. Sean B, C Mn (R), donde Cr = Bs , Cs = Br para r 6= s, y Ci = Bi


para i 6= r, s. Considerese la matriz D = [B1 , . . . , Br + Bs , . . . , Bs + Br , . . . , Bn ]T .
De acuerdo a 2.1.5 det D = 0, pero por 2.1.4 se tiene que

0 = det D = det[B1 , . . . , Br , . . . , Bs + Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs + Br , . . . , Bn ]T
= det[B1 , . . . , Br , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Br , . . . , Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Bs , . . . , Br , . . . , Bn ]T
= det B + det C.

Corolario 2.1.7. Si la matriz C Mn (R) se obtuvo de B Mn (R) mediante una


permutacion de filas, entonces det C = (1) det B.

Demostracion. Consecuencia directa de 2.1.6.

on 2.1.8. Sea B Mn (R). Entonces


Proposici

det[B1 , . . . , Br + aBs , . . . , Bs , . . . , Bn ]T = det B, con a R, r 6= s.

En consecuencia, si una fila es nula el determinante es nulo.

Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.5.

De la definicion y de las propiedades establecidas se obtienen los siguientes re-


sultados:

(i) det E = 1.

(ii) det Di (a) = a, a R.

(iii) det Pij = 1 para i 6= j.

(iv) det Tij (a) = 1, a R.

Teorema 2.1.9. Para B, C Mn (R) se cumple que

det(BC) = (det B)(det C). (2.1.3)


26 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Demostracion. Considerese la matriz D Mn (R) cuyas filas se definen por


Di := bi1 C1 + + bin Cn , 1 i n.
Aplicando 2.1.3 y 2.1.4 a la primera fila de D obtenemos
n
X
det D = bij det[Cj , b21 C1 + + b2n Cn , . . . , bn1 C1 + + bnn Cn ]T .
j=1

Procediendo de manera analoga con las demas filas resulta


X
det D = b1j1 b2j2 bnjn det[Cj1 , . . . , Cjn ]T , (2.1.4)
j1 ,...,jn

donde j1 , . . . , jn recorren independientemente los valores de 1 a n. Para valores


iguales de dos ndices el determinante det[Cj1 , . . . , Cjn ] es nulo. As pues, en (2.1.4)
podemos suponer que los subndices j1 , . . . , jn son diferentes. Esto hace que teng-
amos una correspondencia biyectiva entre Sn las n-tuplas (j1 , . . . , jn ) de entradas
diferentes entre s. Resulta entonces
X
det D = b1(1) bn(n) det[C(1) , . . . , C(n) ]T ,
Sn

aplicando el corolario 2.1.7 resulta


X
det D = (1) b1(1) bn(n) det[C1 , . . . , Cn ]T , es decir,
Sn

det D = (det B)(det C).

De este teorema se desprenden algunas conclusiones importantes.


Corolario 2.1.10. (i) Si B GLn (R), entonces det B R y adem
as det B 1 =
(det B)1 .
(ii) Matrices similares tienen el mismo determinante.
(iii) Los anillos conmutativos son dimensionales.
Demostracion. Las dos primeras afirmaciones son evidentes.
(iii) Sea V un R-espacio libre con bases X = {x1 , . . . , xn } y Y = {y1 , . . . , ym }.
Supongase que m 6= n; por ejemplo m > n. Sea B Mnm (R) la matriz de cambio
de X a Y . Por 1.3.3, existe B 0 Mmn (R) tal que B 0 B = E (identica de orden m).
Sean B,
e Bf0 Mm (R) las matrices obtenidas de B y B 0 adjuntando columnas y filas
nulas respectivamente. Entonces B f0 B
e = E, pero det E = 1 = det B f0 det B
e = 0 ya
que B tiene filas nulas.
e
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 27

El punto (ii) del corolario anterior induce la siguiente definicion.

Definicion 2.1.11. Si f : V V es una transformaci on lineal de un espacio de


dimension finita, entonces se define el determinante de f como el determinante
de la matriz de f en cualquier base.

La funcion determinante ha sido introducida a traves de las filas de las matrices.


Para mostrar que el tratamiento por columnas es analogo, basta probar que para
cada B Mn (R) se tiene que

det B = det B T . (2.1.5)

En efecto, sea B T = [b0ij ] con b0ij = bij . Notese que Sn es par s, y solo si,
1 Sn lo es; ademas, cuando recorre Sn , 1 tambien lo hace. Por tanto,
X
det B = (1) b1(1) bn(n)
Sn
X
= (1) b0(1)1 b0(n)n .
Sn

Sea (i1 ) = 1, (i2 ) = 2, . . . , (in ) = n, reordenando el producto b0(1)1 b0(n)n se


tiene que
X
det B = (1) b0(i1 )i1 b0(in )in
Sn
X
= (1) b011 (1) b0n1 (n)
Sn
X
= (1) b011 (1) b0n1 (n) .
1 Sn

En total,
X
det B = (1) b01(1) b0n(n)
Sn

= det B T

2.2. Determinantes y funciones multilineales


Consideramos en seguida la caracterizacion de los determinantes a traves de
cuatro propiedades basicas.
28 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

on 2.2.1. Sea V un R-espacio y n 1. Una funci


Definici on multilineal sobre
V de n argumentos es una aplicaci
on

D : V V R,

que es lineal en cada uno de sus argumentos, es decir,


(i) D(vi , . . . , vi + vi0 , . . . , vn ) = D(v1 , . . . , vi , . . . , vn ) + D(v1 , . . . , vi0 , . . . , vn ), para
cada 1 i n.

(ii) D(v1 , . . . , vi a, . . . , vn ) = D(v1 , . . . , vi , . . . , vn )a, a R, para cada 1 i n.

La funcion se dice alternada si

(iii) D(v1 , . . . , vi , vi+1 , . . . , vn ) = 0, para vi = vi+1 y cada 1 i n 1;

y antisim
etrica, si

(iv) D(v1 , . . . , vi , vi+1 , . . . , vn ) = D(v1 , . . . , vi+1 , vi , . . . , vn ), para cada 1 i n.


Proposici on 2.2.2. Toda funci on multilineal alternada es antisimetrica. Si 2 :=

1 + 1 R , entonces el recproco es v
alido.
Demostracion.

D(v1 , . . . , vi + vi+1 , vi + vi+1 , . . . , vn ) = 0


=D(v1 , . . . , vi , vi + vi+1 , . . . , vn ) + D(v1 , . . . , vi+1 , vi + vi+1 , . . . , vn )
=D(v1 , . . . , vi , vi , . . . , vn ) + D(v1 , . . . , vi , vi+1 , . . . , vn )+
D(v1 , . . . , vi+1 , vi , . . . , vn ) + D(v1 , . . . , vi+1 , vi+1 , . . . , vn ),

de donde
D(v1 , . . . , vi , vi+1 , . . . , vn ) = D(v1 , . . . , vi+1 , vi , . . . , vn ).
Para el recproco basta considerar

D(v1 , . . . , vi , vi , . . . , vn ) = D(v1 , . . . , vi , vi , . . . , vn ),

de donde 2D(v1 , . . . , vi , vi , . . . , vn ) = 0.
Proposici on 2.2.3. La funcion determinante definida en (2.1.1), es una funci
on
multilineal alternada de sus filas (y columnas).
Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.6.
Teorema 2.2.4. D : Mn (R) R es una funci on multilineal y alternada respecto
de las filas, tal que D(E) = 1. Entonces D = det.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 29

Demostracion. Sean B, C Mn (R), tales Cr = Bs , Cs = Br para r 6= s y Ci = Bi


para i 6= r, s. Entonces D(C) = D(B): en efecto, supongase por ejemplo que s > r.
La matriz C es el resultado de intercambiar la r-esima y s-esima filas de B. Notese
que este intercambio se logra aplicando 2(s r) 1 veces la propiedad (iv) de 2.2.1,
la cual podemos usar en virtud de 2.2.2. Puesto que toda permutacion Sn es
producto de transposiciones, entonces de lo demostrado hace un momento se obtiene:
si la matriz C Mn (R) se obtuvo de B Mn (R) mediante una permutacion de
sus filas, entonces D(C) = (1) D(B).
Antes de emprender la prueba propiamente, notese que si la matriz B tiene dos filas
iguales, entonces D(B) = 0: si las filas son consecutivas no hay algo por mostrar.
De no ser as, aplicamos una permutacion adecuada para que lo sean, y entonces
usamos lo probado hace un momento.
Sea B = [bij ] Mn (R) y ei = (0, . . . , 1, . . . , 0) para 1 i n. B Ppuede ser
n n n
considerado Pn como una elemento de R R notando que B = [ j=1 b1j
ej , . . . , j=1 bnj ej ]. De esto se sigue que
n
X n
X
D(B) =D[ b1j ej , . . . , bnj ej ]
j=1 j=1
n
X n
X
= b1j D[ej , . . . , bnj ej ]
j=1 j=1

= =
X
= b1j1 bnjn D[ej1 , . . . , ejn ],
j1 ,...,jn

donde j1 , . . . , jn recorren independientemente valores de 1 a n. El resto de la prueba


es similar a la demostracion del teorema 2.1.9.
La proposicion 2.2.3 y el teorema 2.2.4 garantizan la existencia y unicidad de
una funcion determinante.

Presentaremos a continuacion un resultado antiguo  relativo a determinantes pero


i , . . . , ik
con aplicaciones recientes. Sea A Mmn (R) y A 1 la submatriz de A de
j1 , . . . , j k
orden k k, conformada por las filas i1 , . . . , ik y las columnas j1 , . . . , jk . Se tiene
entonces la siguiente formula.
Proposici
on 2.2.5 (F ormula de Cauchy-Binet). Sean A Mmn (R), B
Mnp (R) matrices sobre R y C Mmp (R) su producto. Entonces,
  X    
i1 , . . . , i k i1 , . . . , i k r1 , . . . , r k
det C = det A det B ,
j1 , . . . , j k r1 , . . . , r k j1 , . . . , j k
30 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

donde la suma se extiende a todos los subconjuntos {r1 , . . . , rk } de In = {1, 2, . . . , n}


tales que 1 r1 < r2 < < rk n.

Demostracion. Ejercicio para el lector.

2.3. Menores y cofactores


La teora de determinantes puede ser emprendida por medio de los llamados menores
de las matrices. La construccion en este caso la efectuamos por induccion sobre el
tamano n de las matrices. Apoyandonos en el teorema 2.2.4, estableceremos que la
nueva definicion coincide con la dada en (2.1.1) de la seccion anterior.

Definici
on 2.3.1. Definimos inductivamente una funci
on

D : Mn (R) R

de la siguiente manera:

(i)

D1 : M1 (R) R
a 7 D1 (a) := a.

(ii)

D2 : M2 (R) R
 
b11 b12
7 b11 D1 (b22 ) b21 D1 (b12 ) = b11 b22 b21 b12 .
b21 b22

(iii) Se supone definida una funci


on

Dn1 : Mn1 (R) R


B 7 Dn1 (B)

(iv) Sea B = [bij ] Mn (R). Se denomina menor del elemento bij a la imagen
mediante Dn1 de la matriz obtenida eliminando la i-esima fila y la j-esima
columna de B. Dicho menor lo denotaremos por Mij . Definimos entonces

D : Mn (R) R
Xn
B 7 (1)i+1 bi1 Mi1 . (2.3.1)
i=1
2.3. MENORES Y COFACTORES 31

Se dice que la funcion D se ha definido por medio de los menores de la primera


columna.
Proposici on 2.3.2. La funcion D de la definici
on 2.3.1 es multilineal y alternada
de sus filas. Ademas, D(E) = 1.
Demostracion. La prueba de las cuatro propiedades requeridas se hace por induccion
sobre n. Los casos n = 1, 2 se demuestran directamente a partir de las definiciones
de D1 y D2 . Supongase entonces que Dn1 satisface las cuatro propiedades. Sea
E = (eij ) la identica de orden n. Puesto que eij = 0 para i 6= 1, de (2.3.1) resulta
D(E) = e11 M11 . Pero M11 = Dn1 (En1 ) donde En1 denota la identica de tama no
n 1. Por induccion D(E) = 1.
Sea B = [bij ] Mn (R), v = (a1P , . . . , an ) Rn y C = [cij ] = (B1 , . . . , Br +
n
T
v, . . . , Bn ) . Por (2.3.1), D(C) = i=1 (1)
i+1
ci1 Mi10 , donde Mi10 es el menor de
ci1 . Podemos escribir entonces
n
X
D(C) = (1)i+1 ci1 Mi10 + (1)r+1 (br1 + a1 )Mr1
i=1
i6=r
X n
= (1)i+1 bi1 [Mi1 + Dn1 (F )] + (1)r+1 (br1 + a1 )Mr1 ,
i=1
i6=r

donde F es la matriz obtenida de C suprimiendo la primera columna y la i-esima


fila. Resulta entonces
D(C) = D(B) + D[B1 , . . . , v, . . . , Bn ].
Sean ahora B = [bij ] Mn (R) y C = [cij ] = [B1 , . . . , aBr , . . . , Bn ]T , a R. Entonces
n
X
D(C) = (1)i+1 ci1 Mi10
i=1
n
X
= (1)i+1 bi1 aMi1 + (1)r+1 br1 aMr1
i=1
i6=r

=aD(B).
ltimo B = [bij ] Mn (R) tal que B = [B1 , . . . , Br , Br , . . . , Bn ]T . Entonces
Sean por u
n
X
D(B) = (1)i+1 bi1 Mi1 + (1)r+1 br1 Mr1 + (1)r+2 Mr+1,1
i=1
i6=r,r+1

=0 + (1)r+1 [br1 Mr1 br1 Mr1 ],


dado que Mr1 = Mr+1,r . De esta manera, D(B) = 0.
32 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Del teorema 2.2.4 se desprende inmediatamente que la funcion D en (2.3.1)


coincide con la funcion definida en (2.1.1).
Como habamos mencionado antes, la funcion D se definio mediante los menores
de la primera columna. Sin embargo, tambien podemos definir la funcion D a traves
de los menores de cualquier columna, y demostrar de manera analoga la proposicion
2.3.2. De esto, y teniendo en cuenta que det(B T ) = det(B), resulta que
n
X
det B = (1)i+j bij Mij , 1 j n, (2.3.2)
i=1
n
X
det B = (1)j+i bij Mij , 1 i n. (2.3.3)
j=1

on 2.3.3. Sea B = [bij ] Mn (R). El elemento Bij definido mediante


Definici

Bij := (1)i+j Mij ,

se denomina el complemento algebraico de bij . La matriz Cof (B) de los com-


plementos algebraicos
Cof (B) = [Bij ],
se denomina matriz cofactor de B. La transpuesta Cof (B)T de la matriz cofactor
de denomina la adjunta de B, y se denota por Adj(B).

Teorema 2.3.4. Sea B Mn (R). Entonces,

(i) B Adj(B) = Adj(B)B = det(B)E.

(ii) B GLn (R) si, y solo si, det(B) R . En tal caso

B 1 = (det B)1 Adj(B).

Demostracion. (i) Probaremos inicialmente las siguientes formulas:


(
0 i 6= j
bi1 Bj1 + + bin Bjn = (2.3.4)
det B i=j
(
0 i 6= j
b1j B1i + + bnj Bni = (2.3.5)
det B i = j.

Las pruebas en ambos casos son analogas, por ello solo analizaremos (2.3.4). El caso
i = j corresponde a (2.3.3). Sea pues i 6= j y considerese la matriz C = [cij ] obtenida
2.3. MENORES Y COFACTORES 33

de B reemplazando la j-esima fila de B por la i-esima. Entonces calculando det C


por la j-esima fila tenemos
n
X n
X
k+j
0 = det C = (1) bjk Mjk = bik Bjk .
k=1 k=1

Sea ahora C = [cij ] = B Adj(B). Entonces,


n
(
X 0 i 6= j
cij = bik Bjk
k=1
det B i = j,

de donde B Adj(B) = det(B)E. De (2.3.5) resulta tambien det(B)E = Adj(B)B.


(ii) Es consecuencia de (i) y del corolario 2.1.10.
Del teorema anterior se desprenden algunas consecuencias interesantes. Sean
B, C Mn (R) tales que BC = E, entonces det B R , con lo cual B GLn (R) y
CB = E. La funcion

det : GLn (R) R


B 7 det B

es un homomorfismo sobreyectivo de grupos.


Definicion 2.3.5. El conjunto de matrices de GLn (R) cuyo determinante es 1,
ucleo del homomorfismo det es un subgrupo normal de GLn (R), de-
es decir, el n
nominado el grupo especial lineal de dimensi on n sobre R, y se denota por
SLn (R).
SLn (R) constituye otro de los grupos de matrices que estudiaremos en el u
ltimo
captulo. Se tienen ademas las siguientes propiedades:

En (R) SLn (R)  GLn (R), GLn (R)/SLn (R)


= R , (2.3.6)

donde En (R) es el grupo elemental generado por todas las transvecciones (vease
la definicion 1.4.3). Se puede probar que para n 3, En (R)  SLn (R). Ademas,
existen clases importantes de anillos conmutativos para los cuales el grupo especial
y el elemental coinciden. Sobre esto volveremos en el u
ltimo captulo (vease tambien
[12]). Por ahora veamos las siguientes propiedades para cuerpos.
Proposici
on 2.3.6. Sea K un cuerpo. Entonces,
(i) GLn (K) = hTij (a), Dn (b), 1 i, j n, i 6= j, a K, b K i.

(ii) En (K) = SLn (K).


34 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Demostraci
 on. (i) Induccion sobre n. Para n = 1 no hay algo por demostrar. Sea
a b
n=2y GLn (K); no es posible que a = 0 = c; sea c 6= 0, entonces
c d
1 b0
 1a     
1 c a b
= , b0 = b + (1a)d
c
,
0 1 c d c d
1 0 1 b0 1 b0
    
= , d0 = b0 c + d,
c 1  c d  0 d0 
1 b0 1 b0

1 0
= ,
0 d0 0 1 0 d0
de donde,
a1
1 0 1 0 1 b0
      
a b 1 c
= ;
c d 0 1 c 1 0 d0 0 1
notese que d0 6= 0, pues de lo contrario d = b0 c = bc+dab
c
c y as bc ad = 0, esto
d d
u
ltimo implica que b = c a, y como d = c c tenemos que las columnas dela matriz son
d11 d1n
l.d. contradiciendo nuestra hipotesis inicial. Sea D = GLn (K);
dn1 dnn
existe 1 j n tal que dj1 6= 0; entonces

1 d012 d01n

1 d11 d021 d022 d02n
T1j ( )D = ,
dj1
0 0 0
dn1 dn2 dnn

mediante operaciones
  elementales del tipo Tij reducimos esta u ltima matriz a una
1 0
de la forma donde D0 GLn1 (K); mediante induccion y despejando como
0 D0
hicimos en el caso n = 2 completamos la prueba (notese que en la factorizacion de
D solo aparece una matriz diagonal). Por otra parte, si c = 0 pero a 6= 0, realizamos
la siguiente operacion elemental previamente:
    
1 0 a b a b
= , con a 6= 0.
1 1 0 d a b+d

(ii) Esto se obtiene de (i) y (2.3.6).


Otras consecuencias de la teora de determinantes son las siguientes.

on finita n 1. Tenemos,
Teorema 2.3.7. Sea V un R-espacio libre de dimensi

(i) Si X es un sistema de generadores de V con n elementos, entonces X es una


base de V .
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 35

(ii) Un conjunto X de generadores de V con r 1 elementos es minimal si V


no se puede generar con menos de R elementos. Si X es minimal, entonces X
es una base de V y |X| = n. En particular, V no se puede generar con menos
de n elementos, es decir, dim V = minimal de generadores de V .

Demostracion. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con |X| = n,
no necesariamente X resulta ser una base de V . Veremos ahora que si V = hXi y
|X| = n, entonces X es una base de V . En efecto, sean Y = {y1 , . . . , yn } un base
de V , y r1 , . . . , rn R tales que x1 r1 + + xn rn = 0, entonces [X][r]T = 0;
sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C Mn (R).
De esta forma, [Y ]B[r]T = 0 de donde B[r]T = 0; ademas, [Y ] = [Y ]BC y en
consecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) R y por
tanto B GLn (R); as, CB = E y CB[r]T = 0, de donde se concluye que [r]T = 0.
(ii) Como r es minimal necesariamente r n. Supongamos que r < n; como en (i),
sea Y = {y1 , . . . , yn } una base de V , entonces [X] = [Y ]B para alguna B Mnr (R)
y [Y ] = [X]C para cierta matriz C Mrn (R); as [Y ] = [Y ]BC, y por tanto,
BC = E. Sean B0 := [B | 0] Mn (R) y C0 := [ C0 ] Mn (R), entonces B0 C0 = E
y, en consecuencia, det(B0 ) det(C0 ) = 1; pero det(C0 ) = 0 lo que es claramente una
contradiccion, y as necesariamente r = n. De (i) se sigue que X es una base.

Teorema 2.3.8. Sea R un anillo conmutativo cualquiera y sea f : Rn Rn un


homomorfismo sobreyectivo. Entonces f es biyectivo.

Demostracion. Sea X = {e1 , . . . , en } la base canonica de Rn ; entonces existen


a1 , . . . , an Rn tales que f (ai ) = ei para 1 i n. Sea g : Rn Rn el homomorfis-
mo dado por g(ei ) = ai para 1 i n, entonces f g = iRn ; as mX (f g) = F G = E,
de modo que det(F ) R y, por tanto, F es invertible. En consecuencia, f es un
homomorfismo biyectivo.

Ejemplo 2.3.9. A un en DIP s inyectividad no implica sobreyectividad: basta con-


siderar la aplicacion f : Z Z dada por f (a) := 2a; claramente esta aplicacion es
un homomorfimo inyectivo pero no sobre.

2.4. Ideales, rango y sistemas de ecuaciones


Definici
on 2.4.1. Sea R un anillo conmutativo. Se denomina sistema lineal de
ecuaciones en n indeterminadas y m ecuaciones, al conjunto de ecuaciones

a11 x1 + + a1n xn = b1
.. .. .. .. (2.4.1)
. . . .
am1 x1 + + amn xn = bm
36 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

con a11 , . . . , amn , b1 , . . . , bm R. Los elementos aij se denominan coeficientes del


sistema, los bi se denominan los t erminos independientes del sistema, esto para
1 i m y 1 j n, y x1 , . . . , xn representan elementos de R por determinar. Si
A = [aij ] Mmn (R) es la matriz de coeficientes del sistema, X := [x1 , . . . , xn ]T y
B := [b1 , . . . , bm ]T , el sistema (2.4.1) puede escribirse matricialmente en la forma

AX = B. (2.4.2)

El sistema (2.4.2) se dice homog eneo si B = 0. Se denomina soluci on del sistema


0 0 0
(2.4.2) a un vector columna X0 = [x1 , . . . , xn ], xi R, tal que AX0 = B. (2.4.2)
se dice compatible (o soluble) si posee al menos una soluci on, de los contrario se
denomina incompatible. Un sistema compatible con m as de una solucion se llama
0 0
indeterminado. Sea A X = B otro sistema de orden m n sobre R; AX = B y
A0 X = B 0 se dicen equivalentes, si ambos son incompatibles, o bien siendo ambos
compatibles, tienen el mismo conjunto de soluciones. Es claro que esta relaci on es
de equivalencia. La matriz (A | B) de orden m (n + 1) obtenida de A adjuntando
B como u ltima columna, se denomina matriz ampliada del sistema (2.4.2).
El proposito de esta seccion es estudiar la compatibilidad y determinabilidad
de los sistemas lineales de ecuaciones con coeficientes en un anillo conmutativo
arbitrario. Supongamos inicialmente que el sistema (2.4.2) es cuadrado, es decir,
m = n. Multiplicando (2.4.2) por la adjunta de A resulta

Adj(A)AX = Adj(A)B,
Pn
k+1
k=1 (1) M k1 b k
det(A)[x1 , . . . , xn ]T = ..
.

Pn .
k+n
k=1 (1) Mkn bk
Entonces,
n
X
det(A)xj = (1)k+j Mkj bk ,
k=1
es decir,

a11 a1,j1 b1 a1,j+1 a1n
det(A)xj = det ... .. .. .. .. .. .. (2.4.3)

. . . . . .
an1 an,j1 bn an,j+1 ann

para cada 1 j n, es decir, det(A)xj = det[A1 Aj1 BAj+1 An ]. Notese que


si det(A) R , entonces el sistema cuadrado AX = B es determinado. En tal caso,
(2.4.3) se conoce como la regla de Cramer , con X = A1 B.
Pasamos ahora a considerar el caso general de un sistema rectangular como en
(2.4.2). Comencemos por recordar el concepto de ideal de un anillo conmutativo R.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 37

Definici
on 2.4.2. Un subconjunto no vaco I de R se denomina ideal de R si

(i) Para cualesquiera a, b I su suma a + b I.

(ii) Para cada a I y cada r R el producto ar I.

En otras palabras, los ideales de R son los subespacios del R-espacio canonico
1
R (vease [5] ). Podemos entonces hablar del ideal generado por un conjunto (finito
o infinito) X de elementos de R. Sea A = [aij ] Mnn (R). Para cada 1 k
mn{m, n}, sea Ik (A) el ideal generado por los determinantes de todas las submatri-
ces de orden k k de A. Se define ademas Ik (A) := R para k 0 e Ik (A) := 0 para
k > mn{m, n}. Ik (A) se denomina el k- esimo ideal determinante de la matriz
A.
Notese que se tiene la cadena

= I1 (A) = R = I0 (A) I1 (A) Imn{m,n} Imn{m,n}+1 = 0 = .

Presentamos enseguida el primer criterio de necesidad para la compatibilidad de un


sistema.

Proposicion 2.4.3. Si el sistema (2.4.2) tiene soluci


on, entonces los ideales de-
terminantes de A coiniciden con los ideales determinantes de la matriz ampliada
(A | B).
Demostracion. Podemos asumir que m n: en efecto, si m > n, agregando in-
determinadas xn+1 , . . . , xm con coeficientes nulos y columnas a la matriz A, ob-
tenemos un nuevo sistema A0 X 0 = Bcon A0 = (A | 0); notese que X es solu-
X
xn+1
cion de AX = B si, y solo si, X 0 = .. es solucion de A0 X 0 = B. Ademas,

.
xm
0 0
Ik (A) = Ik (A ) e Ik (A | B) = Ik (A | B), para todo k Z. Por lo tanto, dado
k Z, Ik (A0 ) = Ik (A0 | B) si, y solo si, Ik (A) = Ik (A | B). Supondremos entonces
que m n; para k 0 o k > mn{m, n} = m se tiene que Ik (A) = Ik (A | B).
Sea entonces 1 k mn{m, n} = m; es claro que Ik (A) Ik (A | B). Sea s el
determinante de una submatriz de (A | B) de tama no k k; si toda la submatriz
esta incluida en A se sigue de inmediato que s Ik (A). Supongamos entonces que
la submatriz incluye la columna B:

ai1 j1 ai1 jk1 bi1
ai j ai j bi2
21 2 k1
s = det .. .. .

.. ..
. . . .
aik j1 aik jk1 bik
38 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Sea X = [x1 , . . . , xn ] una solucion de AX = B, entonces

bi1 = ai1 1 x1 + + ai1 n xn


.. .. .. ..
. . . .
bik = aik 1 x1 + + aik n xn .

Aplicando las propiedades de la funcion determinante obtenemos



ai1 j1 ai1 jk1 ai1 1
s =x1 det ... .. .. .. + +

. . .
aik j1 aik jk1 aik 1

ai1 j1 ai1 jk1 ai1 n
xn det ... .. .. .. .

. . .
aik j1 aik jk1 aik n

De esta forma s resulta ser una combinacion lineal de subdeterminantes de A de


no k k (algunos de ellos pueden ser nulos). En consecuencia, s Ik (A).
tama

La condicion de la proposicion 2.4.3 no es suficiente para garantizar la solubilidad


del sistema AX = B. Es posible presentar un ejemplo donde los ideales determi-
nantes de A y (A | B) coincidan, sin que el sistema AX = B tenga solucion (vease
[1], pag. 59, ejemplo 5.24).

Definici on 2.4.4. Sea A Mmn (R), con m, n enteros positivos arbitrarios. El


rank(A) de la matriz A se define como el mayor entero no negativo k tal que
Ik (A) 6= 0. Notese que 0 rank(A) mn{m, n}. El rango de A seg
un McCoy,
denotado por Mrank(A), es el mayor entero no negativo tal que AnnR (Ik (A)) = 0,
donde
AnnR (Ik (A)) := {r R | Ik (A)r = 0},
es decir, AnnR (Ik (A)) es el conjunto de elementos r R que anulan a cada elemento
de Ik (A).

Se tienen las siguientes propiedades del rango.

on 2.4.5. Sea A Mmn (R). Entonces,


Proposici

(i) rank(A) = rank(AT ),


M rank(A) = M rank(AT ).

(ii) Para cada Q GLm (R) y P GLn (R),


rank(QAP ) = rank(A),
M rank(QAP ) = M rank(A).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 39

(iii) 0 M rank(A) rank(A) mn{m, n}.

Demostracion. (i) Veamos primero que Ik (A) = Ik (AT ), para todo k Z. Para
k 0 tenemos que Ik (A) = R e Ik (AT ) = R; para k > mn{m, n} tenemos que
Ik (A) = 0 = Ik (AT ). Supongamos ahora que 1 k mn{m, n} y sea s un
i 1 ik
.. .. .. de A tal que s =
generador de Ik (A), entonces existe una submatriz A . . .
j1 j k

i1 ik i1 ik
.. .
.. .
.. = det A ...
T .. .. ; de esto u
det A . ltimo se sigue que s Ik (AT ).

. .
j1 jk j1 jk
De manera analoga se muestra la otra contenencia, de modo que Ik (A) = Ik (AT );
as rank(A) coincide con el mayor entero positivo k tal que Ik (A) 6= 0, que es
precisamente el mayor entero positivo k para el que Ik (AT ) 6= 0, es decir, es igual al
rank(AT ). De la misma manera tenemos que M rank(A) = M rank(AT ).
(ii) Comenzamos probando la siguiente propiedad general (vease [1], pag. 43, lema
4.5): si B Mmp (R) y C Mpn (R) entonces

Ik (BC) Ik (B) Ik (C), para todo k Z. (2.4.4)

En efecto, para k 0 tenemos que Ik (BC) = R, Ik (B) = R = Ik (C); de forma


similar, si k > mn{m, n} entonces Ik (BC) = 0, pero en este caso k > m o k > n
lo cual implica que k > mn{m, p} o k > mn{p, n}, luego Ik (B) = 0 o Ik (C) = 0.
Por tanto, podemos asumir 1 k mn{m, n}. Para terminar la demostracion de
(2.4.4) probemos los siguientes preliminares:
(a) Ik (BC) Ik (C): Sea C = [C 1 C n ], entonces BC = [BC 1 BC n ].
Sea s un generador de Ik (BC), es decir, s es el determinante de una submatriz
de BC de orden k k tomando las filas i1 < < ik y las columnas j1 <
< jk de BC, entonces (BC)j1 = BC j1 , . . . , (BC)jk = BC jk , de modo que
s Ik ([(BC)j1 (BC)jk ]) = Ik ([BC j1 BC jk ]) = Ik (B[C j1 C jk ]). Claramente
Ik ([C j1 C jk ]) Ik (C), luego basta probar que Ik (B[C j1 C jk ]) Ik ([C j1 C jk ]).
As pues, estamos en la situacion inical pero con dos matrices B Mmp (R),
F Mpk (R) con 1 k mn{m, k}, esto es, k m. Tenemos


B1 F
BF = ... ,

Bm F
40 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

luego para cada 1 i m



f11 fik
(BF )i =Bi F = [bi1 bip ] ... .. ..

. .
fp1 fpk
=[bi1 f11 + + bip fp1 bi1 f1k + + bip fpk ]
=bi1 F1 + + bip Fp ,
Pp
de donde (BF )i = l=1 bil Fl .
Sea u un generador de Ik (BF ), entonces

i1 ik (BF )i1
u = det(BF ... .. .. ) = det ..

. . .
1 k (BF )ik

Pp F l
l=1 bi1 l Fl p Pp bi l Fl
= det .. X l=1 2
= bi1 l det

. ..
Pp .
l=1 bik l Fl
l=1 Pp
l=1 bik l Fl

Fl1
X ..
= = bi1 l1 bik lk det . ,
l1 ,...,lk Flk

Fl1 Fl1
.. ..
pero det . = 0 si hay filas repetidas, y en los demas casos det . Ik (F ).
Flk Flk
Por lo tanto, u Ik (F ).
(b) Ik (BC) Ik (B): Por (i) Ik (BC) = Ik ((BC)T ) = Ik (C T B T ) Ik (B T ) =
Ik (B). Con esto hemos completado la prueba de 2.4.4.
De (2.4.4) resulta Ik (P AQ) = Ik (A) para todo k Z, P GLm (R) y Q
GLn (R): en efecto, Ik (P A) Ik (A) = Ik (P 1 (P A)) Ik (P A), entonces Ik (P A) =
IA ; Ik (P AQ) = Ik (AQ) Ik (A) = Ik ((AQ)Q1 ) Ik (AQ) = Ik (P AQ), y as,
Ik (P AQ) = Ik (A). En consecuencia, rank(P AQ) = rank(A) y M rank(P AQ) =
M rank(A).
(iii) Es claro que rank(A) mn{m, n}, tambien por definicion M rank(A) 0; sea
l = M rank(A) y supongamos que l > rank(A), entonces Il (A) = 0 y en consecuencia
AnR (Il (A)) = R, lo que claramente es una contradiccion.
Sea ahora A Mmn (R) con m n y supongase que M rank(A) = m. Sea

Im (A| B) el ideal generado por los determinantes de todas las submatrices de orden
m m de (A | B) que no son completamente submatrices de A, es decir, la columna
B va incluida.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 41

Proposici on 2.4.6. Sea A Mmn con m n, y sea M rank(A) = m. Si existe


un ideal J de R y un elemento s R (que no sea divisor de cero), tales que

JIm (A | B) hsi JIm (A),

entonces AX = B es soluble.

Demostracion. Antes de probar la proposicion, recordemos algunos hechos elemen-


tales relacionados con divisores de cero e ideales. Un elemento s R se dice que no
es divisor de cero en R si s 6= 0 y para cada a R tal que sa = 0 se tiene que
a = 0. De otra parte, para I, J ideales de un anillo R se define su producto IJ como
el ideal generado por el conjunto de todos los productos de la forma ab, con a I y
b J. Notese entonces que cada elemento de IJ es una suma finita a1 b1 + + at bt ,
con ai I, bi J, 1 i t (vease [5]).
Como M rank(A) = 0, entonces AnnR (Im (A)) = 0 y por tanto, Im (A) 6= 0. Existe
entonces al menos una submatriz A0 de A de orden mm con determinante no nulo.
Reenumerando las columnas y las indeterminadas x1 , . . . , xn , podemos asumir sin
perdida de generalidad que

a11 a1m
A0 = ... .. .. , r := det(A0 ) 6= 0.

. . 1
am1 amm

Entonces,
det(A0 ) 0 b1 b1
. .. . 0 0 .
.. = A Adj(A ) .. ,


0 det(A0 ) bm bm
y por tanto,

r1 0 b1 (1)1+1 M11 (1)m+1 Mm1 b1
... .. 0 .. .. .. ..
. =A

. . . .
0 r1 bm (1)1+m M1m (1)m+m Mmm bm

(1)1+1 b1 M11 + + (1)m+1 bm Mm1
=A0
..
.
(1)1+m b1 M1m + + (1)m+m bm Mmm

x11
=A0 ... ,

x1m
42 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


Pm
con x1j Im (A | B), luego r1 bi = j=1 aij x1j para 1 i m. Tomando x1m+1 =
1
= xn = 0 obtenemos
n
X
r1 b i aij x1j , 1 i m.
j=1

Sean r1 , . . . , rk los generadores de Im (A). De manera analoga a como lo hicimos hace


un momento tenemos
n
X
rt b i = aij xtj , 1 i m, 1 t k,
j=1


donde xtj Im (A | B). Por hipotesis existen q1 , . . . , qk J tales que
k
X
s= qt r t .
t=1

Entonces
k
X k X
X n
sbi = qt r t b i = qt aij xtj
t=1 t=1 j=1
n
X Xk
= aij ( qt xtj ).
j=1 t=1

Pk t
Pero t=1 qt xj JIm (A | B) hsi. Por lo tanto,
n
X
sbi = aij sxej , xej R, 1 i m,
j=1

y como s no es divisor de cero tenemos que


n
X
bi = aij xej .
j=1

Corolario 2.4.7. Sea A Mmn (R) con m n. Si Im (A) = R, entonces AX = B


es soluble.
Demostracion. Im (A) = R implica que M rank(A) = m. Tomando J = R y s = 1
en la proposicion 2.4.6, el corolario se sigue de inmediato.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 43

Evidentemente el recproco no es siempre cierto, basta considerar el sistema


homogeneo sobre el anillo Z de enteros
    
1 0 x 0
= .
0 0 y 0

on 2.4.8. Sea A Mmn (R); se dice que A es unimodular si Imn{m,n} (A)


Definici
= R.
Corolario 2.4.9. Sea A Mmn (R).
(i) Sea m n. Entonces, A es unimodular si, y s
olo si, A tiene inversa a derecha.

(ii) Sea n m. Entonces, A es unimodular si, y s


olo si, A tiene inversa a izquier-
da.
Demostracion. (i)): Como m n entonces mn{m, n} = m,
as Im (A) = R y
1 0
0 0
por el corolario 2.4.9 tenemos que AX = .. , . . . , AX = .. son solubles, luego

. .
0 1

c11 c1m
.. ..
existen C = . , . . . , C = . Rn tales que A[C 1 C m ] = E, es decir,
1 m

cn1 cnm
1 m
si C = [C C ], entonces C es una inversa derecha de A.
): Si AC = E para alguna C Mnm (R), entonces Im (AC) = Im (E) = R
Im (A) Im (C), y por tanto, Im (A) = R, es decir, A es unimodular dado que
mn{m, n} = m.
(ii) Sea n m; como A Mmn (R) entonces AT Mnm (R); as, AT tiene in-
versa a derecha si, y solo si, In (AT ) = R, es decir, si existe D Mmn (R) tal que
AT D = E. Esto u ltimo se tiene si, y solo si In (A) = R dado que In (A) = In (AT ).
Por lo tanto, DT A = E si, y solo si, A es unimodular.
Observaci on 2.4.10. (i) Sea A Mmn (R) con m n. Entonces A no puede tener
inversa a izquierda: si existe C Mnm (R) tal que CA = E, entonces [C | 0][ A0 ] = E
y tomando determinantes obtenemos que 0 = 1.
(ii) Sea A Mmn (R) con n m. Entonces A no puede tener inversa a derecha:
si existe C Mmn (R) tal que CA = E, entonces [A | 0][ C0 ] = E y tomando
determinantes obtenemos que 0 = 1.
Estudiaremos ahora los sistemas homogeneos AX = 0 con A Mmn (R). Notese
en primer lugar que tales sistemas son solubles y que el conjunto de soluciones
conforman un subespacio de Mn1 (R) = Rn .
44 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Teorema 2.4.11. Sea A Mmn (R). AX = 0 tiene soluci on no trivial X =


T
[x1 , . . . , xn ] si, y solo si, M rank(A) < n. En particular si m < n, entonces el
sistema AX = 0 tiene solucion no trivial.
Demostracion. ): Sea X = [x1 . . . , xn ]T una solucion no trivial del sistema AX =
0, luego xj 6= 0 para alg un subndice j, 1 j n. Si m < n, tenemos que
M rank(A) m < n y no hay algo por probar. Sea entonces m n; de este modo

x1 a11 a1n
A0 ... = 0, con A0 = ... .. .. .

. .
xn an1 ann
Multiplicando por Adj(A0 ) obtenemos
det(A0 )xj = 0. (2.4.5)
Notese que si A0 es cualquier submatriz de A de tama no n n, entonces tambien se
tiene 2.4.5; en otras palabras, xj 6= 0 anula a todos los generadores de In (A). Por lo
tanto, AnnR (In (A)) 6= 0, y as M rank(A) < n.
): Supongamos ahora que t := M rank(A) < n; entonces AnnR (It+1 (A)) 6= 0,
sea y 6= 0 R tal que It+1 (A)y = 0; si t = 0 entonces X := [y, . . . , y] es una
solucion no trivial del sistema. Supongamos entonces que 1 t mn{m, n}; como
AnnR (It (A)) = 0, el producto de y con alg un generador de It (A) es no nulo. Este
generador es el determinante de una submatriz de A de orden tt. Permutando filas
y/o columnas de A y reindizando las indeterminadas, podemos asumir sin perdida
de generalidad que tal submatriz es

a11 a1t
A0 ... .. .. , y(det(A0 )) 6= 0.

. .
at1 att
Sea A00 la matriz
a11 a1,t+1
A00 := ... .. .. ,

. .
at+1,1 at+1,t+1
(si t = m, tomamos at+1,1 = = at+1,t+1 = 0). Sea dj el determinante de la
submatriz de A00 obtenida al suprimir la u
ltima fila y la j-esima columna, 1 j
t + 1; sean ademas
hj :=(1)j+(t+1) dj , 1 j t + 1
xej :=hj y, 1 j t + 1
xej :=0, t + 2 j n
Xe fn ]T .
:=[xe1 , . . . , x
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 45

0
Notese que X
e=6 0 dado que xg
t+1 = y det(A ) 6= 0; se tiene entonces que

Pt+1
j=1 a1j xej
AX
e = ..
.

.
Pt+1
j=1 amj x
ej

Pero para 1 i m,
t+1
X Xt+1
aij xej =( aij hj )y
j=1 j=1

Xt+1
=( aij (1)j+(t+1) dj )y
j=1

Xt+1
=( aij A00t+1,j )y.
j=1

Para i 6= t + 1 la suma en el u ltimo parentesis es nula; para i = t + 1 esta suma


corresponde al determinante de una submatriz de A de tama no (t + 1) (t + 1), es
decir, es un generador de It+1 (A). Como y AnnR (It+1 (A)) entonces AX e = 0 y el
sistema tiene una solucion no trivial.

Corolario 2.4.12. Sea A Mn (R). AX = 0 tiene soluci


on no trivial si, y s
olo si,
det(A) es un divisor de cero en R.

Demostracion. det(A) es un divisor de cero en R si, y solo si, AnnR (In (A)) 6= 0 si,
y solo si, M rank(A) < n.

on m 1. Entonces todo
Corolario 2.4.13. Sea V un R-espacio libre de dimensi
conjunto de n > m vectores de V es l.d.

Demostracion. Sean Y := {y1 , . . . , ym } una base de V , v1 , . . . , vn V y b1 , . . . , bn


R tales que v1 b1 + + vn bn = 0. Entonces, existen escalares aij R tales que
(a11 y1 + +am1 ym )b1 + +(a1n y1 + +amn ym )bn = 0. De la independencia
lineal de los vectores de Y resulta el sistema AB = 0, con A Mmn (R) y B :=
[b1 , . . . , bn ]T . Seg
un el teorema 2.4.11, alg
un bj es no nulo.

Ejemplo 2.4.14. Calculemos rank(A) y M rank(A) para


     
2 2 2 0 1 2
A= ,B= ,C= M2 (Z6 ).
0 2 0 3 3 5
46 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

rank(A): I0 (A) = Z6 , I1 (A) = h2i, I2 (A) = h2i; as rank(A) = 2.


M rank(A): Ann(I0 (A)) = 0, Ann(I1 (A)) = {0, 3} = h3i, Ann(I2 (A)) = h3i;
as M rank(A) = 0.
rank(B): I0 (B) = Z6 , I1 (B) = h2, 3i = Z6 dado que 3 2 = 1 I1 (B) e
I2 (B) = 0; entonces rank(B) = 1.
M rank(B): Ann(I0 (B)) = 0, Ann(I1 (B)) = 0, Ann(I2 (B)) = Z6 ; por lo tanto
M rank(B) = 1.
rank(C), M rank(C): I0 (C) = Z6 , I1 (C) = h1, 2, 3, 5i = Z6 , I2 (C) = h1i =
h1i = Z6 . Entonces rank(C) = 2 = M rank(C).

Ejemplo 2.4.15. Sea R = Z4 . Calculemos todas las soluciones de AX = B con



1 1 1 1
A = 2 1 2 y B = 2.

1 0 2 3
Tenemos,
   
1 1 1 1
det(A) =1 det + 2 det
1 2 2 1
=(2 1) + 2(1 2) = 1 = 3,

1 1 1
det 2 1 2 =3 + 2(1) = 1;

3 0 2

entonces 3x1 = 1 de modo que x1 = 3. Analogamente,



1 1 1
det 2 2 2 = 0,
1 3 2
as que 3x2 = 0 implica x2 = 0.
Finalmente,

1 1 1
det 2 1 2 = 1 + 3(1) = 2 = 2,
1 0 3

3
por tanto de 3x3 = 2 se sigue x3 = 2 y en consecuencia X = 2.

2
A continuacion haremos la comparacion de algunos de los resultados de esta
seccion con los correspondientes del algebra lineal clasica sobre cuerpos.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 47

Definicion 2.4.16. Sea K un cuerpo y sea X = {x1 , . . . , xn } un conjunto finito


de vectores de un K-espacio vectorial V . Se define el rango de X, denotado por
Rank(X), como la dimension de su envolvente lineal, es decir,
Rank(X) := dim(hXi).
Recordemos algunas propiedades destacadas del rango:
(i) Rank(X) coincide con el maximo n
umero de vectores l.i. que posea X. Notese
tambien que Rank(X) concuerda con el numero minimal de generadores de
hXi (vease el teorema 2.3.7).
(ii) Si V es un K-espacio de dimension n y X es un sistema de n vectores de V ,
entonces X es una base de V si, y solo si, Rank(X) = n.
(iii) El rango columna de una matriz F Mmn (K) se define como el rango
de sus vectores columna: cada columna de F se puede considerar como un
elemento de K m y de esta forma
rango columna de F := Rank{F (1) , . . . , F (n) }.

(iv) El rango columna de F coincide con la dimension del espacio imagen de la


transformacion f que F representa.
(v) De manera analoga se define el rango fila de la matriz F , el cual coincide
con el rango columna. Este rango comun se denomina rango de la matriz F
y se denota por Rank(F ). En particular se tiene que Rank(F ) = Rank(F T ).
(vi) F Mn (K) es invertible si, y solo si, Rank(F ) = n.
(vii) Sean F Mmn (K), Q GLm (K) y P GLn (K). Entonces,
Rank(QF P ) = Rank(F ).

(viii) Dos matrices son equivalentes si, y solo si, tienen el mismo rango.
on 2.4.17. Para cada A Mmn (K) se cumple
Proposici
0 M rank(A) = rank(A) = Rank(A).
Demostracion. Si k = rank(A), Ik (A) 6= 0, Ik+1 = 0, luego AnnK (Ik (A)) = 0 y
AnnK (Ik+1 (A)) = K, con lo cual M rank(A) = k. Sea ahora Rank(A) = r, entonces
A es equivalente a la matriz
 
E 0
B= , E = Identica de orden r r.
0 0
Por la proposicion 2.4.5, rank(A) = rank(B) = r; en consecuencia, r = k.
48 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

En relacion con los sistemas de ecuaciones lineales sobre cuerpos se tienen los si-
guientes resultados.
(a) Sea AX = 0 un sistema homogeneo de orden m n. Si Rank(A) = r entonces
la dimension del espacio solucion es n r, y recprocamente.
(b) Todo sistema lineal AX = B de orden m n, con A 6= 0, es equivalente a uno
con matriz escalonada y de la forma
a01j1 xj1 + a01j2 xj2 + a01j3 xj3 + + a01n xn = b01
a02j2 xj2 + a02j3 xj3 + + a02n xn = b02

a0rjr xjr + + a0rn xn = b0r (2.4.6)
0= b0r+1
..
.
0 = b0m ,
donde a01j1 , . . . , a0rjr 6= 0, 1 j1 < j2 < < jr . AX = B es soluble si, y solo
si, en el sistema escalonado anterior no se presentan ecuaciones de la forma
b0t = 0, t r, con b0t un elemento no nulo de K. En tal caso, dando valores ar-
bitrarios de K a las indeterminadas libres xjr +1 , . . . , xn obtenemos valores
determinados para las indeterminadas principales xj1 , . . . , xjr .
(c) Sea AX = B un sistema lineal de orden m n. En el corolario 2.4.7 se
demostro que si m n con Im (A) = K, entonces el sistema AX = B es
soluble. Pero la condicion Im (A) = K es equivalente a que M rank(A) = m =
Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.
(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A | B] se
tiene que la coincidencia de estos ultimos implica la solubilidad del sistema
AX = B: en efecto, si los ideales determinantes de A y [A | B] coinciden,
entonces sus rangos son iguales. De esta forma la envolvente lineal de las
columnas de [A | B] coincide con la envolvente lineal de las columnas de A, es
decir, B es una combinacion lineal de las columnas de A

b1 a11 a1n
.. .. .
. = . x1 + + .. xn ,
bm am1 amn

de donde B = AX y X = [x1 , . . . , xn ]T es solucion. En resumen tenemos que


AX = B es soluble si, y solo si, Rank(A) = Rank[A | B].
2.5. EJERCICIOS 49

(e) Si A Mmn (K), vimos en el teorema 2.4.11 que AX = 0 tiene solucion no


trivial si, y solo si, Rank(A) < n. En particular, si m < n entonces Rank(A)
m < n y el sistema AX = 0 tiene solucion no trivial. Para el caso cuadrado la
condicion det(A) es divisor de cero (vease el corolario 2.4.12) es equivalente a
que det(A) = 0.

2.5. Ejercicios
1. Sea A0 la coleccion de elementos de A que son divisores de cero. Si K es un
cuerpo demuestre que

Mn (K)0 = {B Mn (K)| det(B) = 0}.

2. Sean B Mmp (R) y C Mpn (R). Demuestre que

(i) M rank(BC) mn{M rank(B), M rank(C)}.


(ii) rank(BC) mn{rank(B), rank(C)}.

3. Sean A Mn (R) y B Rn . Sea X0 una solucion de AX = B. Demuestre que


X0 es la u
nica solucion si, y solo si, M rank(A) = n.
Captulo 3

Producto tensorial

En este captulo estudiamos el producto tensorial de espacios, transformaciones y


matrices sobre anillos conmutativos. Definiremos los tensores y estableceremos su
relacion con las funciones multilineales. El producto tensorial de tensores tambien
sera considerado. Salvo que se advierta lo contrario, R denotara un anillo conmuta-
tivo arbitrario. Para los espacios vectoriales utilizaremos la notacion por la izquierda
para los escalares de R.

3.1. Producto tensorial de espacios vectoriales


Sea V un R-espacio vectorial libre con base X, recordemos que cada funcion t :
X W , con W un R-espacio arbitrario, se puede extender de manera u nica a
una transformacion lineal T : V W de tal forma que T (x) = t(x), para cada
x X. De otra parte, si X es un conjunto no vaco cualquiera, entonces R(X)
denota el R-espacio libre con base canonica X 0 := {x (1)}xX , donde x : R R(X)
es la inyeccion canonica de la suma directa externa (vease [6]) de tal forma que
x (1) := (rz )zX y rz := 0 si z 6= x y rx := 1.
Podemos ya emprender la construccion del producto tensorial de dos espacios
vectoriales arbitrarios.
Sean U, V dos espacios vectoriales sobre R, sea X el producto cartesiano de los
conjuntos U y V , es decir, X := U V . Notemos que en el conjunto X hemos
olvidado las estructuras de R-espacio que tienen U y V , a estos u ltimos los estamos
tomando simplemente como conjuntos no vacos. Consideremos entonces el R-espacio
vectorial R(X) con base canonica X 0 = {x (1)}xX . Notemos que los elementos de
X son parejas, es decir, un elemento x X es de la forma x = (u, v). En otras
palabras, x (1) = (u,v) (1) denota el arreglo que tiene solamente una entrada no
nula, la ubicada en la posicion (u, v), en la cual colocamos el escalar 1 R. Un

50
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51

elemento de R(X) es una combinacion lineal finita en la forma

r1 (u1 ,v1 ) (1) + + rt (ut ,vt ) (1).

Observemos que el elemento anterior es un arreglo finito que tiene ubicados en la


posicion (u1 , v1 ) al escalar r1 , en la posicion (u2 , v2 ) al escalar r2 y, por u
ltimo, en
la posicion (ut , vt ) al escalar rt , en todas las demas posiciones al escalar cero. Esta
notacion puede ser simplificada de la siguiente manera: representemos el elemento
(u,v) (1) de la base canonica X simplemente por (u, v) de tal forma que veamos a
U V como la base canonica de R(X) y a las parejas (u, v) como los elementos de
esta base. As pues, podemos pensar en R(U V ) y considerar que la base canonica
es U V . Con esta notacion podemos decir que un elemento de R(U V ) es una
combinacion lineal finita en la forma

r1 (u1 , v1 ) + + rt (ut , vt ) ,

donde r1 , . . . , rt R.
Sea S el subespacio de R(U V ) generado por todos los elementos de la siguiente
forma

(u + u0 , v) (u, v) (u0 , v) , (3.1.1)


(u, v + v 0 ) (u, v) (u, v 0 ) , (3.1.2)
r (u, v) (r u, v) , (3.1.3)
r (u, v) (u, r v) , (3.1.4)

con r R. Sea U V el R-espacio vectorial cociente correspondiente, es decir,

U V := R(U V ) /S. (3.1.5)

Denotemos por uv la clase de equivalencia (u, v) en el cociente U V = R(U V ) /S.


Entonces en U V se tienen las siguientes propiedades fundamentales.

Proposici on 3.1.1. Para cualesquiera elementos u, u0 U, v, v 0 V y r R se


tiene que:

(i) (u + u0 ) v = u v + u0 v

(ii) u (v + v 0 ) = u v + u v 0

(iii) r (u v) = r u v

(iv) r (u v) = u r v.

Demostracion. Esto resulta en forma directa de las relaciones (3.1.1) - (3.1.4).


52 CAPITULO 3. PRODUCTO TENSORIAL

Corolario 3.1.2. La funcion can


onica

t:U V U V
(u, v) 7 u v

es bilineal, es decir, satisface las siguientes propiedades:

(i) t (u + u0 , v) = t(u, v) + t(u0 + v)

(ii) t(u, v + v 0 ) = t(u, v) + t(u, v 0 )

(iii) t(r u, v) = r t(u, v)

(iv) t(u, r v) = r t(u, v),

para cualesquiera u, u0 U, v, v 0 V y r R.

Demostracion. Consecuencia directa de la proposicion anterior.

on 3.1.3. El espacio vectorial U V se denomina producto tensorial de


Definici
U con V .

Sea z un elemento de U V , con z R(U V ) , entonces z es de la forma z =


r1 (u1 , v1 ) + + rt (ut , vt ), por tanto en el cociente U V = R(U V ) /S se tiene
que
z = (r1 u1 ) v1 + + (rt ut ) vt ,
pero como r1 u1 , . . . , rt ut U , entonces podemos siempre asumir que z es de la
forma
u1 v 1 + + ut v t .
El producto tensorial tiene la siguiente propiedad universal.

Teorema 3.1.4. Sea W un R-espacio y sea f : U V W una funcion bilineal.


Entonces, existe una u on lineal F : U V W tal que F t = f :
nica transformaci
t
U V - U V
p
pp
p pp
f
p ppF
pp
?+
W

La tranformacion lineal F se define por

F (u v) := f (u, v) .
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53

Demostracion. La funcion f definida sobre la base canonica U V de R(U V ) induce


una unica transformacion lineal F 0 : R(U V ) W dada por F 0 (u, v) := f (u, v).
Definimos entonces la funcion F (z) := F 0 (z), donde z R(U V ) . En particular, si
z = (u, v) es un basico, entonces F (u v) = F 0 (u, v) = f (u, v). Debemos ver que
F esta bien definida. Sean z1 , z2 R(U V ) tales que z1 = z2 , entonces z1 z2 S
y por tanto z1 z2 es una R-combinacion lineal de elementos como en (3.1.1) -
(3.1.4). Como F 0 es R-lineal, basta considerar cada una de las cuatro relaciones por
separado. Si z1 z2 = (u + u0 , v) (u, v) (u0 , v), entonces
F 0 (z1 z2 ) = F 0 [(u + u0 , v) (u, v) (u0 , v)]
= f (u + u0 , v) f (u, v) f (u0 , v)
= 0, ya que f es bilineal.
De igual manera se establecen los otros tres casos. Esto muestra que F 0 (z1 ) = F 0 (z2 ),
y F esta bien definida.
De otra parte, como F 0 es R-lineal, entonces F es una transformacion lineal.
Ademas, F t (u, v) = F (u v) = f (u, v), esto prueba que F t = f .
Para terminar la demostracion, sea G otra transformacion lineal G : U V W
tal que Gt = f ; para probar la igualdad G = F basta considerar el vector u v.
As pues, Gt (u, v) = f (u, v), es decir, G (u v) = f (u, v) = F (u v).
Algunas consecuencias del teorema anterior son las siguientes propiedades evi-
dentes del producto tensorial de espacios. Sean U, V R-espacios, entonces:
(i) (U V ) W = U (V W ). El producto tensorial de estos tres espacios
se puede entonces denotar como U V W . Mas adelante consideraremos el pro-
ducto tensorial de tres o mas espacios y su relacion con las funciones multilineales
introducidas en el captulo 2.
(ii) U V
= V U.
(iii)
RV = V, U R = U, R R = R.
Para probar (iii) basta considerar la funcion bilineal f : RV V , f (r, v) := rv. Se
induce entonces la transformacion lineal F : R V V dada por F (r v) := r.v.
De otra parte, la funcion G : V R V definida por G(v) := 1 v es una
transformacion lineal tal que F G = iV y GF = iRV . El segundo isomorfismo se
establece en forma similar, y el tercero es consecuencia de cualquiera de los dos
anteriores.
Consideremos el caso particular en que U y V son libres de dimension finita.
Teorema 3.1.5. Sean U y V dos espacios vectoriales libres de dimensi on finita n
y m con bases X = {x1 , . . . , xn } y Y = {y1 , . . . , ym }, respectivamente. Entonces,
X Y := {xi yj | 1 i n, 1 j m} es una base de U V , y en consecuencia,
dimR (U V ) = nm.
54 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion. Notemos en primer lugar que si U = 0 o V = 0, entonces el teorema


se tiene en forma trivial con bases vacas. Sean pues n, m 1. Consideremos el
R-espacio de matrices rectangulares Mnm (R) con componentes en R. Definimos
entonces la transformacion lineal
T : Mnm (R) U V
Eij 7 xi yj , 1 i n, 1 j m.
De otra parte, consideremos la funcion
f : U V Mnm (R)
f (u, v) = a1 b1 E11 + + a1 bm E1m + + an b1 En1 + + an bm Enm ,
donde u = a1 x1 + + an xn y v = b1 y1 + + bm ym . Es facil ver que f es bilineal.
Por el teorema 3.1.4 existe una transformacion lineal F : U V Mnm (R) definida
por F (u v) = f (u, v) = a1 b1 E11 + + a1 bm E1m + + an b1 En1 + + an bm Enm .
Pero notemos que F T = iMnm (R) y tambien T F = iU V . Esto demuestra que T es
un isomorfismo de espacios vectoriales, con lo cual X Y es una base de U V y
dimR (U V ) = nm.
Corolario 3.1.6. Sea R un dominio de integridad y sean U, V, X, Y como en el
teorema 3.1.5. Para cualesquiera elementos u U y v V se tiene que
uv =0u=0
o v = 0.
Demostracion. La condicion suficiente se tiene en forma trivial. Sean pues u =
a1 x1 + + an xn y v = b1 y1 + + bm P
ym no nulos, entonces existen i0 , j0
tales que ai0 6= 0 y bj0 6= 0; puesto que u v = n,m i=1,j=1 ai bj (xi yj ), entonces del
teorema 3.1.5 resulta u v 6= 0 ya que ai0 bj0 6= 0.

3.2. Producto tensorial de transformaciones y ma-


trices
Sean T : U U 0 y F : V V 0 dos transformaciones lineales, entonces la funcion
T F : U V U0 V 0
(u, v) 7 T (u) F (v)
es bilineal y por tanto induce una transformacion lineal
T F : U V U0 V 0
u v 7 T (u) F (v) .
La transformacion T F se conoce como el producto tensorial de T con F . Se
tiene entonces la siguiente propiedad.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 55

Teorema 3.2.1. Sean X = {x1 , . . . , xn } una base de U , X 0 = {x01 , . . . , x0p } una


base de U 0 , Y = {y1 , . . . , ym } una base de V y Y 0 = {y10 , . . . , yq0 } una base de V 0 .
Entonces,
a11 B a1n B
mXY,X 0 Y 0 (T F ) = ... .. .. ,

. .
ap1 B apn B
donde A = [aij ] := mX,X 0 (T ) y B = [bij ] := mY,Y 0 (F ). La matriz de T F se
conoce como el producto tensorial de las matrices A y B, y se denota por A B.
As pues,
a11 B a1n B
A B := ... .. .. .

. .
ap1 B apn B
A B es de orden pq nm.
Demostracion. Basta aplicar T F a los vectores de la base X Y y expresar los
resultados a traves de la base X 0 Y 0 .
Ejemplo 3.2.2. Sean T : R3 R2 y F : R2 R4 las transformaciones lineales
definidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y x) .
Determinemos la matriz de T F en las bases canonicas: Basta calcular las matrices
A y B de las transformaciones T y F en las bases canonicas:
 
2 3 0
A = m (T ) = ,
3 0 4

1 0
1 1
B = m (F ) = 0 1 ,

1 1
 
2B 3B 0B
m (T F ) = A B = ,
3B 0B 4B

2 0 3 0 0 0
2 2 3 3 0 0

0 2 0 3 0 0

2 2 3 3 0 0
m (T F ) =
.
3 0 0 0 4 0

3 3 0 0 4 4

0 3 0 0 0 4
3 3 0 0 4 4
56 CAPITULO 3. PRODUCTO TENSORIAL

Mostraremos a continuacion otras propiedades interesantes del producto tensorial


de transformaciones y matrices.
(i) Sean T : U U 0 y F : V V 0 transformaciones lineales sobreyectivas.
Entonces, T F es sobreyectiva. En efecto, si u0 v 0 U 0 V 0 , entonces existe
u U y v V tales que T (u) = u0 , F (v) = v 0 . Por lo tanto, (T F ) (u v) =
T (u) F (v) = u0 v 0 .
(ii) Sean T : U U 0 y F : V V 0 transformaciones lineales sobreyectivas,
entonces ker (T F ) = ker (T )V +U ker (F ). Veamos la demostracion: denotemos
por W := ker (T ) V + U ker (F ), este es un subespacio de U V . Es claro que
W ker (T F ), probemos entonces la otra inclusion. Consideremos el espacio
cociente (U V ) /W y la transformacion lineal canonica

J : U V (U V ) /W
z 7 z.

Para el producto tensorial U 0 V 0 consideremos el siguiente diagrama:


t
U0 V 0 - U0 V 0
pp
p pp
p p
h
pp
pp
? +
H

(U V ) /W

donde h (T (u) , F (v)) := J (u v). Veamos que h esta bien definida. Sean T (u1 ) =
T (u) y F (v1 ) = F (v), entonces u1 u := u2 ker (T ) y v1 v := v2 ker (F ),
luego

u1 v1 = (u + u2 ) (v + v2 )
= u v + u v 2 + u 2 v + u2 v 2
= u v + (u v2 + u2 v + u2 v2 ) ,

donde u v2 + u2 v + u2 v2 U ker (F ) + ker (T ) V = W , esto muestra que

u1 v1 u v W,

luego J (u v) = J (u1 v1 ). Notemos que h es bilineal, por tanto induce la trans-


formacion lineal H dada por

H (T (u) F (v)) := h (T (u) , F (v)) = J (u v) ,

de donde H (T F ) = J. Sea z ker (T F ), entonces H (T F ) (z) = H (0) =


0 = J (z) = z, lo cual indica que z W .
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 57

(iii) Sean T1 : U U 0 , T2 : U 0 U 00 y F1 : V V 0 , F2 : V 0 V 00 transforma-


ciones lineales, entonces

(T2 T1 ) (F2 F1 ) = (T2 F2 ) (T1 F1 ) .

En forma matricial,

A2 A1 B2 B1 = (A2 B2 ) (A1 B1 ) .

(iv) Si iU : U U es la identica de U e iV : V V , es la identica de V , entonces

iU iV = iU V .

En forma matricial,
En Em = Enm .
(v) Sean T : U U 0 y F : V V 0 transformaciones lineales biyectivas, entonces

(T F )1 = T 1 F 1 .

Matricialmente,
(A B)1 = A1 B 1 .
(vi) Sean T y F1 , F2 transformaciones lineales compatibles para las operaciones
indicadas, entonces
T (F1 + F2 ) = T F1 + T F2 .
En forma matricial,

A (B1 + B2 ) = A B1 + A B2 .

En forma similar se tienen las distributivas por el lado derecho.


(vii) Sean T : U U 0 y F : V V 0 transformaciones lineales y sea a R,
entonces
(a T ) F = T (a.F ) = a. (T F ) .
En forma matricial,

(a A) B = A (a B) = a (A B).

(viii) Sean A Mn (R) , B Mm (R), entonces

tr (A B) = tr (A) tr (B) ,
det (A B) = det (A)m det (B)n .

(ix) Sean A, A0 Mn (K) y B, B 0 Mm (K), entonces

A A0 , B B 0 A B A 0 B 0 ; A A 0 , B B 0 A B A 0 B 0 .
58 CAPITULO 3. PRODUCTO TENSORIAL

3.3. Funciones multilineales y tensores


En el captulo 2 consideramos funciones multilineales sobre un mismo espacio V
para establecer la teora de determinantes (vease la definicion 2.2.1). Estudiaremos
ahora la nocion general de funcion multilineal y su relacion con el producto tensorial
de tres o mas espacios vectoriales. Comezamos con el dual de un espacio vectorial.
Sea V un R-espacio, el conjunto de transformaciones lineales HomR (V, R) es un
R-espacio y se denomina el espacio dual de V , denotado V . Para cuando V es
libre de dimension finita se tiene la siguiente propiedad.

Proposici on 3.3.1. Sea V un R-espacio de dimensi on finita n 1 con base X :=


{x1 , . . . , xn }. Entonces, X := {x1 , . . . , xn } es una base de V , denominada la base
dual de X, con xi (xj ) := ij , donde ij es el Psmbolo de Kronecker. P Ademas, para
cada f V y cada v V se tiene que f = nk=1 f (xk ) xk y v = nk=1 xk (v) xk .

Demostracion. Este es un sencillo ejercicio para el lector.

Definicion 3.3.2. Sean V1 , . . . , Vn , W espacios vectoriales sobre el anillo conmuta-


tivo R; una funcion
f
V1 Vn
W

es multilineal si es lineal en cada argumento, es decir, para 1 i n y r R

f (x1 , . . . , xi + x0i , . . . , xn ) = f (x1 , . . . , xi , . . . , xn ) + f (x1 , . . . , x0i , . . . , xn ),


f (x1 , . . . , r xi , . . . , xn ) = r f (x1 , . . . , xi , . . . , xn ).

Proposici on 3.3.3. La colecci on M(V1 , . . . , Vn ; W ) de todas las funciones multi-


lineales de V1 Vn en W es un R-espacio vectorial respecto de las siguientes
operaciones:

(f + g)(x1 , . . . , xn ) := f (x1 , . . . , xn ) + g(x1 , . . . , xn ),


(r f )(x1 , . . . , xn ) := r f (x1 , . . . , xn ).

Demostracion. Ejercicio para el lector.

El producto tensorial de tres o mas espacios V1 , . . . , Vn se puede construir en forma


inductiva definiendo V1 Vn := (V1 Vn1 ) Vn , o tambien, mediante
las funciones multilineales, como veremos a continuacion: consideremos el cociente
del R-espacio libre R(V1 Vn ) por el subespacio S generado por todos los vectores
de la forma

(x1 , . . . , xi + x0i , . . . , xn ) (x1 , . . . , xi , . . . , xn ) (x1 , . . . , x0i , . . . , xn ),


r (x1 , . . . , xi , . . . , xn ) (x1 , . . . , r xi , . . . , xn ),
3.3. FUNCIONES MULTILINEALES Y TENSORES 59

con 1 i n y r R. Este espacio cociente se denota por V1 Vn y se


denomina producto tensorial de V1 , . . . , Vn . La clase del vector (x1 , . . . , xn ) se
denota por x1 xn , y cada elemento de V1 Vn es una suma finita de
elementos de esta forma. La funcion canonica definida por

t : V1 Vn V1 Vn
(x1 , . . . , xn ) 7 x1 xn

es multilineal. Esto en particular quiere decir que x1 (xi + x0i ) xn =


x1 xi xn +x1 x0i xn y r(x1 xi xn ) = x1 r
xi xn . El producto tensorial V1 Vn tiene la siguiente propiedad universal
(vease el teorema 3.1.4): sea W un R-espacio y sea f : V1 Vn W una funcion
multilineal. Entonces, existe una u nica transformacion lineal F : V1 Vn W
tal que F t = f :
t
V1 Vn - V V
1 n
p p ppp
pp
f p p ppp
ppp F
ppp
?
W

La tranformacion lineal F se define por

F (x1 xn ) := f (x1 , . . . , xn ) .

El teorema 3.1.5 tiene tambien lugar en este caso general, es decir, el producto
tensorial de espacios libres de dimension finita es libre y la dimension es el producto
de las dimensiones. De manera mas precisa, si Xj es una base de Vj entonces

X := X1 Xn := {xj1 xjn |xji Xi , 1 i n}

es una base de V1 Vn . Utilizando la notacion precedente tenemos el siguiente


resultado general valido para espacios arbitrarios.

Teorema 3.3.4. M(V1 , . . . , Vn ; W )


= HomR (V1 Vn , W ).

Demostracion. Seg un acabamos de ver, dada f M(V1 , . . . , Vn ; W ) existe una


nica F HomR (V1 Vn , W ) tal que F t = f , definimos entonces :
u
M(V1 , . . . , Vn ; W ) HomR (V1 Vn , W ) por (f ) := F . Observemos que
es una transformacion lineal inyectiva. Ademas, dada F HomR (V1 Vn , W )
definimos f M(V1 , . . . , Vn ; W ) por f (x1 , . . . , xn ) := F (x1 xn ); es claro
entonces que f M(V1 , . . . , Vn ; W ) y (f ) = F .
60 CAPITULO 3. PRODUCTO TENSORIAL

Corolario 3.3.5. M(V1 , . . . , Vn ; R) = HomR (V1 Vn , R) = (V1 Vn ) .


Si V1 , . . . , Vn son libres de dimensi
on finita, entonces

(V1 Vn )
= V1 Vn . (3.3.1)

Demostracion. La primera afirmacion es consecuencia directa del teorema anterior


tomando W := R.
Sea fi Vi , 1 i n. Definimos la funcion

f : V1 Vn R
f (v1 , . . . , vn ) := f1 (v1 ) fn (vn ) .

Notemos que f es multilineal, luego induce una u


nica transformacion lineal

F : V1 Vn R
F (v1 vn ) := f (v1 , . . . , vn ) = f1 (v1 ) fn (vn ) .

Esto indica que F (V1 Vn ) ; se define entonces la funcion

fe : V1 Vn (V1 V )
(f1 , . . . , fn ) 7 fe(f1 , . . . , fn ) := F.

Notemos que fe es multilineal, y por lo tanto, induce una transformacion lineal

Fe : V1 Vn (V1 Vn )
Fe (f1 fn ) := fe(f1 , . . . , fn ) = F
Fe (f1 fn ) (v1 vn ) = F (v1 vn ) = f1 (v1 ) fn (vn ) .

Sea Xi := {xi1 , . . . , xiki } un base de Vi y sea Xi = {xi1 , . . . , xiki } la base dual.


Entonces,

Fe x1j1 xnjn (x1r1 xnrn ) = x1j1 (x1r1 ) xnjn (xnrn )




= 1 si (j1 , . . . , jn ) = (r1 , . . . , rn )
= 0, en otro caso.

Sabemos que {x1j1 xnjn | 1 ji ki , 1 i n} es una base de V1


Vn y que (X1 Xn ) es una base de (V1 Vn ) ; por lo anterior,
Fe x1j1 xnjn = (x1j1 xnjn ) , 1 ji ki , 1 i n. Es decir, Fe es
una transformacion lineal que enva una base en una base, por tanto, Fe es biyectiva.
3.3. FUNCIONES MULTILINEALES Y TENSORES 61

Sea V un R-espacio arbitrario y denotemos por


Mn (V ; R) := M(V, . . . , V ; R) V})
| {z
= (V (3.3.2)
| {z }
n-veces n-veces

el R-espacio de funciones multilineales sobre V de n argumentos (vease la definicion


2.2.1). Para el caso particular en el cual V es de dimension finita se tiene la siguiente
nocion de tensor.
Definici
on 3.3.6. Sea V un R-espacio vectorial libre de dimensi on finita k 1.
Los elementos del R-espacio
Tn (V ) := Mn (V ; R) V})
| {z
= (V =V
V }
| {z
n-veces n-veces
se denominan n-tensores sobre V .
Notemos que V es el espacio de los 1-tensores y que las funciones bilineales sobre
V son los 2-tensores. Las funciones multilineales considerdas en el captulo 2 para
definir la funcion determinante son un ejemplo de n-tensores. Seg un la defincion
anterior, un n-tensor es una suma finita del producto tensorial de n 1-tensores.
Corolario 3.3.7. Sea V un R-espacio vectorial libre de dimensi on finita k 1.
Entonces, Tn (V ) es libre con dim(Tn (V )) = k n . Si X := {x1 , . . . , xk } es una base de
V , entonces {xj1 xjn | 1 ji k, 1 i n} es una base de Tn (V ). Adem as,
si f Tn (V ), entonces
k
X
f= f (xj1 , . . . , xjn ) (xj1 xjn ). (3.3.3)
j1 ,...,jn

Demostracion. Las primeras dos afirmaciones son consecuencia directa de la prueba


del corolario 3.3.5. Veamos la prueba de la tercera afirmacion: sea (v1 , . . . , vn )
V n = V V ; si vi = ai1 x1 + + aik xk , entonces
k
X
f (v1 , . . . , vn ) = a1j1 a2j2 anjn f (xj1 , . . . , xjn ),
j1 ,...,jn

y por otro lado


k
X
[ f (xj1 , . . . , xjn ) (xj1 xjn )](v1 , . . . , vn )
j1 ,...,jn
k
X
= f (xj1 , . . . , xjn )xj1 (v1 ) xjn (vn )
j1 ,...,jn
k
X
= f (xj1 , . . . , xjn )a1j1 a2j2 anjn .
j1 ,...,jn
62 CAPITULO 3. PRODUCTO TENSORIAL

Los escalares f (xj1 , . . . , xjn ) se denominan las coordenadas del tensor f en la


base X := {x1 , . . . , xk }. Veamos como cambian las coordenadas de f al cambiar
la base X: sea Y := {y1 , . . . , yk } otra base de V y Y = {y1 , . . . , yk } la base dual
correspondiente. Entonces,

k
X
f= f (yi1 , . . . , yin ) (yi1 yin ). (3.3.4)
i1 ,...,in

Puesto que {yi1 yin | 1 ji k} es una base de Tn (V ) y xj1 xjn Tn (V ),


entonces
k
X
xj1 xjn = (xj1 xjn )(yi1 , . . . , yin ) (yi1 yin )
i1 ,...,in
k
X
= xj1 (yi1 ) xjn (yin ) (yi1 yin )
i1 ,...,in
k
X Xk Xk
= xj1 ( cvi1 xv ) xjn ( cvin xv ) (yi1 yin )
i1 ,...,in v=1 v=1
k
X
= cj1 i1 cjn in (yi1 yin ).
i1 ,...,in

Reemplazando en (3.3.3) resulta

k
X k
X
f= cj1 i1 cjn in f (xj1 , . . . , xjn ) (yi1 yin ).
j1 ,...,jn i1 ,...,in

De (3.3.4) se obtiene entonces que

k
X
f (yi1 , . . . , yin ) = cj1 i1 cjn in f (xj1 , . . . , xjn ), (3.3.5)
j1 ,...,jn

donde C := [crs ] es la matriz de cambio de la base X a la base Y .


Concluimos esta seccion con la definicion del producto tensorial de tensores. Para
esto comencemos con una construccion un poco mas general. Existe una transfor-
macion lineal
F
Mn (V ; R) Mm (V ; R)
Mn+m (V ; R).

3.4. TENSORES SIMETRICOS,
ANTISIMETRICOS Y ALTERNADOS 63

En efecto, consideremos el siguiente diagrama


t
Mn (V ; R) Mm (V ; R) - Mn (V ; R) Mm (V ; R)
ppp
p p ppp
p
ppp
pp ppp
ppp F
f
p p p
ppp
? ppp

Mn+m (V ; R)

donde t(h, g) := h g y f (h, g) := fh,g , con

fh,g (v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ).

Observemos que efectivamente fh,g Mn+m (V ; R) y f es bilineal, luego F existe y


es una transformacion lineal definida por F (h g) := fh,g , es decir,

F (h g)(v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ). (3.3.6)

As pues, dadas dos funciones multilineales h Mn (V ; R) y g Mm (V ; R) se define


su producto tensorial por

(h g)(v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ). (3.3.7)

En particular, si V es de dimension finita, entonces h Tn (V ), g Tm (V ) y la


relacion anterior define el producto tensorial de tensores.

Proposici on finita k 1.
on 3.3.8. Sea V un R-espacio vectorial libre de dimensi

Entonces, Tn (V ) Tm (V ) = Tn+m (V ).

Demostracion. Basta observar que la transformacion lineal F definida en (3.3.6)


envia una base de Tn (V )Tm (V ) en una base de Tn+m (V ), luego F es un isomorfismo.

3.4. Tensores sim


etricos, antisim
etricos y alterna-
dos
En el captulo 2 definimos las funciones multilineales antisimetricas y alternadas
de n argumentos sobre un R-espacio arbitrario V . Demostramos que que si 2
R , entonces las funciones multilineales alternadas y las antisimetricas coinciden.
Retomamos ahora el tema para el caso particular de los tensores. En esta seccion,
salvo que advierta lo contrario, V es un R-espacio libre de dimension finita k 1.
64 CAPITULO 3. PRODUCTO TENSORIAL

on 3.4.1. Un tensor f Tn (V ) es sim


Definici etrico si para cada permutaci
on
Sn y cualquier elemento (v1 , . . . , vn ) V V se cumple

f (v(1) , . . . , v(n) ) = f (v1 , . . . , vn ).

Se dice que f es antisim


etrico si

f (v(1) , . . . , v(n) ) = (1) f (v1 , . . . , vn ).

f es alternado si f (v1 , . . . , vn ) = 0, cuando vi = vj con i 6= j.

De esta definicion se obtienen de manera directa los siguientes resultados.

Proposici on 3.4.2. Sean Sn (V ), An (V ) y ALn (V ) las colecciones de n-tensores


simetricos, antismetricos y alternados, respectivamente, sobre el espacio V . En-
tonces, Sn (V ), An (V ) y ALn (V ) son R-espacios. Adem as, ALn (V ) An (V ) y

si 2 R , entonces An (V ) = ALn (V ).

Demostracion. Ejercicio para el lector.


Para los tensores alternados se tienen ademas las siguientes propiedades.

Proposici on 3.4.3. Sean v1 , . . . , vn V vectores tales que para alg un i, vi


hv1 , . . . , vi1 , vi+1 , . . . , vn i. Entonces, para cada f ALn (V ), f (v1 , . . . , vn ) = 0.
Adem as, si R es un DI y v1 , . . . , vn V son linealmente dependientes, entonces
para cada f ALn (V ), f (v1 , . . . , vn ) = 0.

Demostracion. Sea vi = r1 v1 + + ri1 vi1 + ri+1 vi+1 + + rn vn , entonces


f (v1 , . . . , vi1 , r1 v1 + + ri1 vi1 + ri+1 vi+1 + + rn vn , vi+1 , . . . , vn ) =
r1 f (v1 , . . . , vi1 , v1 , vi+1 , . . . , vn ) + + ri1 f (v1 , . . . , vi1 , vi1 , vi+1 , . . . , vn ) +
ri+1 f (v1 , . . . , vi1 , vi+1 , vi+1 , . . . , vn ) + + rn f (v1 , . . . , vi1 , vn , vi+1 , . . . , vn ) = 0.
Para la segunda afirmacion, existen r1 , . . . , rn R no todos nulos, digamos ri 6= 0,
tales que r1 v1 + + ri vi + + rn vn = 0. Resulta,
0 = f (v1 , . . . , vi1 , 0, vi+1 , . . . , vn ) = ri f (v1 , . . . , vi1 , vi , vi+1 , . . . , vn ),
pero como R es un DI y ri 6= 0, entonces f (v1 , . . . , vn ) = 0.

Corolario 3.4.4. Sea R un DI y sea V un R-espacio libre de dimensi


on finita
k 1. Entonces, para cada n > k, ALn (V ) = 0.

Demostracion. Consecuencia directa del corolario 2.4.13 y de la proposicion anterior.

Si R = K es un cuerpo de caractersitica cero, a cada tensor f Tn (V ) se pueden


asociar un tensor simetrico y uno alternado ( = antisimetrico). En efecto, definimos

3.4. TENSORES SIMETRICOS,
ANTISIMETRICOS Y ALTERNADOS 65

1
P
Sf (v1 , . . . , vn ) := n! Sn f (v(1) , . . . , v(n) ),
1
P
Alf (v1 , . . . , vn ) := n! Sn (1) f (v(1) , . . . , v(n) ).

Sea Sn , entonces := recorre tambien el grupo Sn y se obtiene


1 X
Sf (v (1) , . . . , v (n) ) := f (v (1) , . . . , v (n) )
n! S
n

1 X
= f (v(1) , . . . , v(n) )
n! S
n

= Sf (v1 , . . . , vn ).
1
As pues, Sf Sn (V ). De manera similar, = 1 y (1) = (1) (1) , pero
1
(1) = (1) , luego
1 X
Alf ( (v1 ), . . . , (vn )) := (1) f (v (1) , . . . , v (n) )
n! S
n

1 X
= (1) (1) f (v(1) , . . . , v(n) )
n! S
n

= (1) Alf (v1 , . . . , vn ).

Proposici on 3.4.5. Sean K un cuerpo, con char(K) = 0, y V un K-espacio de


dimension k 1. Entonces, las funciones S : Tn (V ) Sn (V ) y Al : Tn (V )
ALn (V ) definidas por S(f ) := Sf y Al(f ) := Alf son transformaciones lineales.
Ademas, si f es simetrico (alternado), entonces Sf = f (Alf = f ).

Demostracion. Ejercicio para el lector.

Proposici on 3.4.6. Sea K un cuerpo, con char(K) = 0, y sea V un K-espacio de


dimension finita k 1. Entonces,

T2 (V ) = S2 (V ) AL2 (V ).

Demostracion. Considerando que un 2-tensor sobre V es una funcion bilineal sobre


V , entonces el resultado es inmediato si se tiene en cuenta que toda forma bili-
neal se puede expresar en forma unica como suma de una forma simetrica y una
antisimetrica:
f (u, v) = 12 [f (u, v) + f (v, u)] + 12 [f (u, v) f (v, u)].

Concluimos esta seccion definiendo el producto exterior entre tensores.


66 CAPITULO 3. PRODUCTO TENSORIAL

Definicion 3.4.7. Sea K un cuerpo, con char(K) = 0. Sea V un K-espacio de


dimension k 1 y sean f Tn (V ), g Tm (V ). El producto exterior de f y g se
define por
(n + m)!
f g := Alf g . (3.4.1)
n!m!
un la proposicion 3.3.8, f g Tn+m (V ), luego Alf g ALn+m (V ) y se tiene
Seg
que
(n + m)! 1 X
(f g)(v1 , . . . , vn+m ) = (1) (f g)(v(1) , . . . , v(n+m) )
n!m! (n + m)!
Sn+m
1 X
= (1) f (v(1) , . . . , v(n) )g(v(n+1) , . . . , v(n+m) ).
n!m!
Sn+m

Algunas propiedades del producto exterior se resumen en la siguiente proposicion.

Proposici
on 3.4.8. Sean, K, V , k, V , f y g como en la definci
on anterior. En-
tonces,

(i) Si f, g T1 (V ), entonces f g = f g g f .

(ii) f 0 = 0.

(iii) Si h Tm (V ), entonces f (g + h) = f g + f h. La distributiva por el lado


izquierdo tambien se cumple.

(iv) Si h Tp (V ), entonces (f g) h = f (g h).

(v) Si a K, entonces, (a f ) g = f (a g) = a (f g).

(vi) g f = (1)nm (f g).

(vii) f f = 0 si n es impar.
1
Demostracion. (i) (f g)(u, v) = 1!1! [f (u)g(v) f (v)g(u)] = f (u)g(v) g(u)f (v) =
(f g)(u, v) (g f )(u, v).
(ii) Evidente ya que f 0 = 0.
(iii) Tambien evidente ya que f (g + h) = f g + f h.
(iv) Esta propiedad asociativa se interpreta de la siguiente manera:

(n + m + p)!
(f g) h = Al(f g)h
n!m!p!

(n + m + p)!
f (g h) = Alf (gh)
n!m!p!

3.4. TENSORES SIMETRICOS,
ANTISIMETRICOS Y ALTERNADOS 67

pero
1 X
Al(f g)h = (1) ((f g) h)(v1 , . . . , vn+m+p )
(n + m + p)! S
n+m+p
1 X
= (1) (f (v1 , . . . , vn )g(vn+1 , . . . , vn+m ))h(vn+m+1 , . . . , vn+m+p )
(n + m + p)! S
n+m+p
1 X
= (1) f (v1 , . . . , vn )(g(vn+1 , . . . , vn+m )h(vn+m+1 , . . . , vn+m+p ))
(n + m + p)! S
n+m+p
1 X
= (1) (f (g h))(v1 , . . . , vn+m+p )
(n + m + p)! S
n+m+p

=Alf (gh) .

Esto completa la prueba de la identidad asociativa.


(v) Se obtiene de

(a f ) g = f (a g) = a (f g).

(vi) Sabemos que


1 X
(f g)(v1 , . . . , vn+m ) = (1) f (v(1) , . . . , v(n) )g(v(n+1) , . . . , v(n+m) );
n!m!
Sn+m

consideremos la permutacion Sn+m definida por

(1) := n + 1, . . . , (m) := n + m, (m + 1) := 1, . . . , (m + n) := n,

entonces
1 X
(g f )(v(1) , . . . , v(m+n) ) = (1) g(v(1) , . . . , v(m) )f (v(m+1) , . . . , v(m+n) )
m!n!
Sn+m

=(f g)(v1 , . . . , vn+m ).

Pero como g f es alternada, entonces es antisimetrica, luego

(g f )(v(1) , . . . , v(m+n) ) =(g f )(vn+1 , . . . , vn+m , v1 , . . . , vn )


=(1)m (g f )(v1 , vn+1 . . . , vn+m , v2 , . . . , vn )
=(1)m (1)m (g f )(v1 , v2 , vn+1 . . . , vn+m , v3 , . . . , vn )
..
.
=(1)nm (g f )(v1 , . . . , vn+m ).

As pues, (f g) = (1)nm (g f ), lo cual es equivalente a lo requerido.


(vii) El resultado se tiene de (vi) ya que char(K) = 0.
68 CAPITULO 3. PRODUCTO TENSORIAL

3.5.
Algebras y producto tensorial
En esta ultima seccion vamos a definir el producto tensorial de algebras, el algebra
tensorial y el algebra exterior de un R-espacio.
Sean A y B dos R-algebras, entonces podemos construir el producto tensorial
A B de los R-espacios A y B. Este espacio puede ser dotado de estructura de R-
algebra con el producto definido de la siguiente manera: consideremos el diagrama
t
ABAB - ABAB
ppp
p p ppp
ppp
f
p p ppp F
p
ppp
? 
AB

donde t es la funcion multilineal canonica, t(a, b, a0 , b0 ) := aba0 b0 y f es definida


por f (a, b, a0 , b0 ) := aa0 bb0 . Notese que f es multilineal, por tanto, f induce la
transformacion lineal F definida por F (aa0 bb0 ) := aa0 bb0 . Puesto que se tiene
el isomorfismo de R-espacios A B A B = (A B) (A B), entonces podemos
F
suponer que F es la transformacion lineal definida por (A B) (A B) A B,
F ((a b) (a0 b0 )) := aa0 bb0 . Por el teorema 3.3.4, F induce una funcion bilineal
fb
(A B) (A B)
A B,

la cual permite definir la multiplicacion en A B:

fb(a b, a0 b0 ) := F ((a b) (a0 b0 )) = aa0 bb0 ;

as pues, como fb es bilineal, entonces el producto queda bien definido por

(a b)(a0 b0 ) := fb(a b, a0 b0 ) = aa0 bb0 . (3.5.1)

La bilinealidad de fb garantiza que este produto es distributivo. La asociatividad


es consecuencia asociatividad en A y B. El uno de esta algebra es 1 1. A B se
conoce como el producto tensorial de A y B. Si A y B son algebras conmutativas,
entonces A B es conmutativa.
Consideremos ahora un R-espacio V , definimos
M
T (V ) := T i (V ), T 0 (V ) := R, T i (V ) := V
| {z
V}, i 1. (3.5.2)
i0 iveces

Notemos que cada elemento z T (V ) es de la forma z = (zi )i0 , con zi T i (V )


y zi = 0 para casi todo i. En otras palabras, si i : T i (V ) T (V ) es la inyeccion

3.5. ALGEBRAS Y PRODUCTO TENSORIAL 69

canonica dePla suma directa externa (vease [6]), entonces z se puede escribir en la
forma z = iCz i (zi ), donde Cz := {i|zi 6= 0} es el soporte de z (finito). T (V ) es
pues un R-espacio. Si identificamos a T i (V ) con su imagen a traves de la inyeccion
canonica i , es decir, si consideramos a T i (V ) como subespacio del R-espacio T (V ),
entonces T (V ) es suma directa interna de los subespacios T i (V ):
X
T (V ) = T i (V ) = R V (V V )
i0

As pues, cada elemento z T (V ) tiene una representacion u nica en la forma z =


j
z0 + z1 + + zi , con zj T (V ), 0 j i. T (V ) tiene estructura de R-algebra
con el producto definido mediante distributividad y el R-isomorfismo

T i (V ) T j (V )
= T i+j (V ). (3.5.3)

En T (V ) tenemos entonces que

(v1 vi )(vi+1 vi+j ) := v1 vi+j , (3.5.4)


r(v1 vi ) := r (v1 vi ) =: (v1 vi )r. (3.5.5)

El producto anterior esta bien definido si se tiene en cuenta (3.5.3) y que la repre-
sentacion de cada elemento de T (V ) a traves de la suma directa interna es u nica.
i
Como estamos considerando que T (V ) T (V ), entonces el isomorfismo (3.5.3) se
puede interpretar como

T i (V )T j (V ) T i+j (V ).

Notemos que el elemento v1 vi T i (V ) corresponde al producto v1 vi de


tal forma que la relacion (3.5.4) se puede escribir en el forma

(v1 vi )(vi+1 vi+j ) = (v1 vi )(vi+1 vi+j ) = v1 vi+j .

T (V ) se conoce como el
algebra tensorial del R-espacio V . Notemos que la in-
clusion

: V T (V )
v 7 v

es una transformacion lineal. El cero de T (V ) es el cero de R, lo mismo ocurre con


el uno. Observemos que T (V ) es un algebra no conmutativa: para v, v 0 V se tiene
que vv 0 = v v 0 6= v 0 v = v 0 v.
El algebra tensorial tiene la siguiente propiedad universal.
70 CAPITULO 3. PRODUCTO TENSORIAL

Teorema 3.5.1. Para cada R- algebra B y cada transformaci on lineal f : V B,


existe un u
nico homomorfismo de R-algebras F : T (V ) B tal que F = f :

V - T (V )
p pp
p
f
p pp
pp
F
?
B

F se define por

F (v) := f (v), v V, F (r) := r 1, r R. (3.5.6)

Demostracion. Para i 2, sea fi la transformacion lineal inducida por la funcion


multilineal
fi0 : V V B, fi0 (v1 , . . . , vi ) := f (v1 ) f (vi ),
fi (v1 vi ) = f (v1 ) f (vi );
ademas, sean f1 := f , f0 (r) = r 1. Definimos F por
F (z0 + z1 + + zi ) := f0 (z0 ) + f1 (z1 ) + + fi (zi ), con zj T j (V ), 0 j i.
As, F es una transformacion lineal bien definida y satisface F (v1 vi ) =
fi (v1 vi ) = f (v1 ) f (vi ) para i 2, F (v) = f1 (v) = f (v) para cada v V
y F (r) = f0 (r) = r 1 para cada r R. Notemos que F = f . Ademas, F es un
homomorfismo de R-algebras ya que
F (v1 vi )F (vi+1 vi+j ) = F (v1 vi )F (vi+1 vi+j ) =
f (v1 ) f (vi )f (vi+1 ) f (vi+j ) = F (v1 vi+j ) = F (v1 vi+j ) =
F ((v1 vi )(vi+1 vi+j )),
y F (1) = 1. Si G es otro homomorfismo de R-algebras tal que G = f , entonces para
cada v V , G(v) = G(v) = f (v) = F (v), ademas, G(r) = G(r 1) = r G(1) =
r 1 = F (r) para cada r R, es decir, G = F .

Pasamos ahora a construir el algebra exterior de V . En T (V ) consideremos el


ideal bilatero J (vease [5]) generado por los elementos de la forma v 2 , v V , es
decir,

J := hv 2 |v V i;

ademas, definimos

J0 := 0 =: J1 , Ji := J T i (V ) para i 2.

3.5. ALGEBRAS Y PRODUCTO TENSORIAL 71

Notese que Ji coincide con el R-subespacio Si de T i (V ) generado por los elementos


de la forma v1 vi , con vr = vs para alg un par de ndices 1 r 6= s i. En efecto,
es claro que Ji Si ; para la inclusion recproca basta observar que cada elemen-
to v1 vr vs vi , con vr = vs , pertenece a Ji . Ilustremos con dos situaciones
particulares la prueba inductiva requerida: consideremos v1 v2 v1 ,

(v1 + v2 )(v1 + v2 )v1 = v1 (v1 + v2 )v1 + v2 (v1 + v2 )v1 = v1 v1 v1 + v1 v2 v1 + v2 v1 v1 + v2 v2 v1 ,

luego v1 v2 v1 J3 . Consideremos tambien el caso v1 v2 v3 v1 :

(v1 + v2 )(v1 + v2 )v3 v1 = v1 v1 v3 v1 + v1 v2 v3 v1 + v2 v1 v3 v1 + v2 v2 v3 v1 ,

notemos que los sumandos v1 v2 v3 v1 , v2 v1 v3 v1 estan en J4 tal como vimos en el caso


particular anteriormente analizado. Por lo tanto, v1 v2 v3 v1 J4 . Los dos casos ante-
riores muestran que la prueba en el caso general v1 vr vs vi , con vr = vs , se
establece por induccion sobre s r.
Notemos que
X
J= Ji .
i0
P
En efecto, es claro que Ji J para cada i 0, luego i0 Ji J; adem as, la
suma es directa ya que Ji T i (V ). Veamos que J i0 Ji . Sea z J, entonces
P
existen zj , zj0 T (V ) y vj V , 1 j t, tales que z = z1 v12 z10 + P
+ zt vt2 zt0 , pero
0
si expresamos cada zj y cada zj a traves de su expansion en T (V ) = i0 T i (V ),
encontramos que cada uno de los sumandos de zj vj2 zj0 pertenece a alg un Ji , luego la
inclusion senalada es cierta.
Se define entonces el algebra cociente

(V ) := T (V )/J, (3.5.7)

y se conoce como el
algebra exterior de V .

Proposici
on 3.5.2. Sea V un R-espacio. Entonces, se tiene el R-isomorfismo de
espacios
(V )
M
= i (V ), (3.5.8)
i0

donde

0 (V ) := T 0 (V )/J0 = R, 1 (V ) := T 1 (V )/J1 = V , i (V ) := T i (V )/Ji , i 2.


72 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion. La propiedad universal de i0 i (V ) permite definir una transfor-


L
macion lineal F seg
un el siguiente diagrama:

(V )
pp
 pp
6
i pp
pp F
pp
pp
M
i
(V ) - i (V )
i
i0

donde i es la inyeccion canonica y i viene dada por


i
T i (V )/Ji = i (V )
(V ) = T (V )/J, i (zi ) := zei ,
con zi := zi + Ji , zi T i (V ), zei := zi + J. Notese que i es una transformacion lineal
bien definida: en efecto, si zi = ziP 0
, entonces zi P zi0 Ji J, luego zei = zei0 .
F se define por F ((zi )) := iC i (zi ) = ei , donde C es el soporte de
iC z
(zi ) 6= 0 y F (0) := 0. Notemos que existe k de tal forma que completando con
sumandos nulos podemos escribir
F ((zi )) = iC zei = ze0 + + zek , con zj T j (V ), 1 j k.
P

Por otro lado, sea G0 : T (V ) i 0


L
i0 (V ) definida por G (z0 + + zi ) :=
0 (z0 ) + + i (zi ), con zj T j (V ), 0 j i. G0 es L obviamente una transformacion
lineal bien definida. Hacemos entonces G : (V ) i0 i (V ), G(e z ) := G0 (z), con
z T (V ). G esta bien definida ya que si ze = ze0 , entonces z z 0 J = i0 Ji ,
P
de donde z z 0 = z0 + + zi , con zj Jj , luego G0 (z z 0 ) = 0. G es claramente
una transformacion lineal. Finalmente, GF ((zi )) = G(ze0 ) + + G(zek ) = G0 (z0 ) +
+ G0 (zk ) =LG0 (z0 + + zk ) = 0 (z0 ) + + i (zk ) = (zi ), es decir, GF es
la identica de i0 i (V ). Tambien, si z := z0 + + zi T (V ), con zi T j (V ),
1 j i, entonces F G(e z ) = F G0 (z) = F G0 (z0 + +zi ) = F 0 (z0 )+ +F i (zi ) =
0 (z0 ) + + i (zi ) = ze0 + + zei = ze. Esto muestra que F G = i(V ) .
Si identificamos a i (V ) con su imagen a traves de la inyeccion canonica i , es
decir, si consideramos a i (V ) como subespacio del R-espacio (V ), entonces (V )
es suma directa interna de los subespacios i (V ):
X
(V ) = i (V ) = R V 2 (V )
i0

Cada elemento z (V ) tiene una representacion u nica en la forma z = z0 + z1 +


+ zi , con zj (V ), 0 j i. Para los elementos de i (V ) se usa la siguiente
j

notacion:
v1 vi := v1 vi + Ji i (V ), (3.5.9)

3.5. ALGEBRAS Y PRODUCTO TENSORIAL 73

El isomorfismo (3.5.8) permite reinterpretar el producto en el anillo (V ) ya que


a traves del isomorfismo F se tiene que

(v1 vi )(vi+1 vi+j ) = v1 vi+j . (3.5.10)

Lo anterior demuestra que en (V ) se cumple la siguiente propiedad:

i (V )j (V ) i+j (V ). (3.5.11)

La transformacion lineal canonica de inclusion

: V (V )

satisface (v)2 = 0 para cada v V . En efecto, en (V ) tiene lugar la identidad

v v = v 2 + J2 = 0. (3.5.12)

El algebra exterior esta caracterizada con la siguiente propiedad universal.

Teorema 3.5.3. Para cada R- on lineal f : V B


algebra B y cada transformaci
tal que f (v)2 = 0, con v V , existe un u
nico homomorfismo de R- algebras F :
(M ) B tal que F = f :

- (V )
V
p
p pp
f
p pp
pp
F
?
B

F se define por

F (v) := f (v), v V, F (r) := r 1, r R. (3.5.13)

Demostracion. Seg un el teorema 3.5.1, existe un homomorfismo de R-algebras F 0 :


T (V ) B tal que F 0 = f . Definimos F (e z ) := F 0 (z), con z T (V ); F esta bien
definido ya que si ze = ze0 , entonces z z 0 J y existen zj , zj0 T (V ) y vj V , 1
j t, tales que z z 0 = z1 v12 z10 + +zt vt2 zt0 , luego F 0 (z z 0 ) = F 0 (z1 )F 0 (v1 )2 F 0 (z10 )+
+ F 0 (zt )F 0 (vt )2 F 0 (zt0 ) = F 0 (z1 )f (v1 )2 F 0 (z10 ) + + F 0 (zt )f (vt )2 F 0 (zt0 ) = 0. F es
un homomorfismo de R-algebras ya que F 0 los es; ademas, para cada v V se tiene
que F (v) = F (e v ) = F 0 (v) = F 0 (v) = f (v). Es claro que F (r) = r 1. Sea G otro
homomorfismo de R-algebras tal que G = f , entonces G (v) = G(v) = f (v) =
F (v) y G(r) = G(r 1) = r G(1) = r 1 = F (r), para cada r R.
74 CAPITULO 3. PRODUCTO TENSORIAL

Algunas propiedades interesantes realcionadas con el algebra exterior son las


siguientes:
(i) Para cada v V , v v = 0. En notacion multiplicativa usual, v 2 = 0.
(ii) Para u, v V , u v = (v v). En notacion multiplicativa, uv = vu. En
efecto, (u + v)(u + v) = 0 = u2 + uv + vu + v 2 = uv + vu.
(iii) Para cada z i (V ) y w j (V ), z w = (1)ij (w z). Mediante
notacion multiplicativa se tiene que zw = (1)ij wz. En efecto, si z = z1 zi y
w = w1 wj , entonces zw = (z1 zi )(w1 wj ) = (1)i w1 (z1 zi )(w2 wj )
= = (1)i (1)i (w1 wj )(z1 zi ) = (1)ij wz.
| {z }
jveces
(iv) Si V es generado por n elementos, entonces para i > n, i (V ) = 0. En
efecto, en cada sumando de la expansion de v1 vi := v1 vi + Ji i (V ) a
traves de los generadores de V hay elementos repetidos.
f
(v) Sea V U una transformacion lineal. Entonces f induce un u nico homo-
(f )
morfismo de R-algebras (V ) (U ) tal que (f )|V = f . Este homomorfismo
envia elementos de i (V ) en i (U ) para cada i 0. La restriccion de (f ) a i (V )
se denota por i (f ) y es tal que i (f )(v1 vi ) = f (v1 ) f (vi ). Ademas,
(f ) es sobreyectivo si, y solo si, para cada i 0, i (f L) esi sobreyectivo. En efecto,
basta aplicar el teorema 3.5.3 y observar que (f ) = (f ).
f
(vi) Sea R
T un homomorfismo de anillos. Entonces,

(V ) T
= (V T ) (isomorfismo de T -algebras).

(vii) Sea V = V1 V2 , entonces

(V )
= (V1 ) (V2 ) (isomorfismo de R-algebras),

donde el producto en (V1 )(V2 ) es definido mediante distributividad y la siguiente


regla:
(zi zj )(zp zq ) := (1)jp (zi zp ) (zj zq ), (3.5.14)
con zi i (V1 ), zj j (V2 ), zp p (V1 ), zq q (V2 ).
Veamos la demostracion: notemos inicialmente que el producto (3.5.14) dota al
R-espacio (V1 ) (V2 ) de una estructura de R-algebra, distinta de la que vimos
para el producto tensorial de algebras al principio de la presente seccion. Por ejemplo,
se puede verificar facilmente la propiedad asociativa de este producto y que 1 1 es
nuevamente el neutro multiplicativo.
La funcion definida por f : V (V1 ) (V2 ), f (v1 + v2 ) := v1 1 + 1 v2 , es
un R-homomorfismo. Ademas safistace la identidad f (v1 + v2 )2 = 0. En efecto,

(v1 1+1v2 )2 = (v1 1)(v1 1)+(v1 1)(1v2 )+(1v2 )(v1 1)+(1v2 )(1v2 ) =
(1)01 (v12 1) + (1)00 (v1 v2 ) + (1)11 (v1 v2 ) + (1)10 (1 v22 ) = 0.
3.6. EJERCICIOS 75

Se induce entonces un homomorfismo de R-algebras (f ) : (V ) (V1 ) (V2 )


definido por (f )(v1 + v2 ) := v1 1 + 1 v2 , (f )(r) = r (1 1).
De otra parte, seg un (v), las inclusiones canonicas i : Vi V1 V2 , i = 1, 2,
inducen homomorfismos de R-algebras (i ) : (Vi ) (V ) de tal forma que
(i )(vi ) = vi , (i )(r) = r 1(V ) . Definimos entonces f : (V1 ) (V2 ) (V )
por f (z1 , z2 ) := (1 )(z1 )(2 )(z2 ), con zi (Vi ). Notemos que f es bilineal, por lo
tanto, se induce un R-homomorfismo F : (V1 )(V2 ) (V ) para el cual se tiene
que F (z1 z2 ) = (1 )(z1 )(2 )(z2 ) (teorema 3.1.4). Notese que F (1 1) = 1(V ) .
Probemos que F (f ) = i(V ) y que (f )F = i(V1 )(V2 ) : sea v1 + v2 V , se
tiene entonces que F (f )(v1 + v2 ) = F (v1 1 + 1 v2 ) = v1 + v2 ; F (f )(r) =
F (r (1 1)) = r F (1 1) = r 1(V ) = r 1R = r1R = r. De otra parte,

(f )F (v1 v2 ) = (f )((1 )(v1 )(2 )(v2 )) = (f )(v1 v2 ) = (f )(v1 )(f )(v2 ) =


(v1 1)(1 v2 ) = (1)00 (v1 v2 ) = v1 v2 ;

ademas,

(f )F (r v2 ) = (f )((1 )(r)(2 )(v2 )) = (f )(r 1(V ) )(f )(v2 ) =


(r(f )(1(V ) ))(1v2 ) = (r(11))(1v2 ) = (r1)(1v2 ) = (1)00 (rv2 ) = rv2 .

De manera similar se prueba que (f )F (v1 r) = v1 r. Todo lo anterior demuestra


que (f ) es un isomorfismo de R-algebras.
(viii) Si V es libre con base X := {x1 , . . . , xn }, entonces para 1 i n, i (V )
es libre con base {xj1 xji |1 j1 < < ji n}. Ademas, dim i (V ) = ni
y dim (V ) = 2n .
(ix) Si V es un espacio proyectivo finitamente generado, es decir, V es sumando
directo de un espacio libre de dimension finita, entonces (V ) y i (V ) son espacios
proyectivos finitamente generados, para cada i 0.

3.6. Ejercicios
1. Demuestre la proposicion 3.3.3.

2. Sean U, V, W R-espacios. Demuestre que (U V ) W


= U (V W ) y

U V = V U.

3. Demuestre las propiedades (iii)-(ix) de la seccion 3.2.

4. Demuestre que el producto tensorial de dos matrices cuadradas simetricas es


una matriz simetrica.

5. Sean V1 , . . . , Vn R-espacios y sea Sn una permutacion. Demuestre que


V1 Vn = V(1) V(n) .
76 CAPITULO 3. PRODUCTO TENSORIAL

6. Determine en cada caso si f T2 (R2 ), donde


a) f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 + c2 d1 .
b) f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 c2 d1 .
c) f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 + d2 .
7. Para los tensores f del ejercicio anterior calcule Sf y Alf .
8. Sean T : R3 R2 y F : R2 R4 transformaciones lineales definidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y x) .
Entonces, dim(ker(T F )) = 2 ?.
9. Demuestre la proposicion 3.4.2.
10. Sean V un R-espacio de dimension finita k 1 y f Tn (V ). Demuestre que
f An (V ) si, y solo si, para cada trasposicion Sn y cada (v1 , . . . , vn )
V V , f ( (v1 ), . . . , (vn )) = f (v1 , . . . , vn ).
11. Demuestre la proposicion 3.4.5.
12. Demuestre la proposicion 3.4.8.
13. Determine si se tienen los siguientes isomorfismos de R-algebras:

Mn (R) Mm (R)
= Mnmnm (R),
R[x] R[y]
= R[x, y].

14. Demuestre el teorema 3.5.1.


15. Sea K un cuerpo y sean A Mn (K), B Mm (K) matrices diagonalizables,
entonces A B es diagonalizable?.
16. La funcion f definida por

f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 c2 d1

es un tensor?
17. Sean f, g AL2 (R2 ) dos tensores antisimetricos. Entonces, f g es anti-
simetrico?
18. Demuestre las propiedades (v)-(ix) de la seccion 3.5.
Captulo 4

Formas can
onicas

Aplicamos en este captulo la teora de los modulos finitamente generados sobre


dominios de ideales principales (vease [6]) para el estudio de las formas canonicas
clasica, racional y de Jordan de una transformacion lineal T : V V , con V un K-
espacio no nulo de dimension finita y K un cuerpo. En la u
ltima seccion estudiaremos
la forma canonica diagonal y la diagonalizacion de matrices mediante similaridad.

4.1. Polinomios mnimo y caracterstico


Sea EndK (V ) la K-algebra de transformaciones lineales de V , T : V V un elemen-
to que fijamos en EndK (V ), y sea K[x] la K-algebra de polinomios con coeficientes
en K.
Proposici
on 4.1.1. La funcion

f : K[x] EndK (V )
(4.1.1)
a(x) = a0 + a1 x + + an xn 7 a0 iV + a1 T + + an T n =: a(T )

es un homomorfismo de K-algebras, donde iV es la funci


on identica de V .
Demostracion. Sean a(x) = a0 + a1 x + + an xn , b(x) = b0 + b1 x + + bm xm
K[x], k K. Sin perdidad de generalidad podemos suponer que n = m. Entonces
f [a(x) + b(x)] = f [(a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn ] = (a0 + b0 ) iV + (a1 + b1 )
T + +(an +bn )T n = (a0 iV +a1 T + +an T n )+(b0 iV +b1 T + +bn T n ) =
f (a(x)) + f (b(x)).
f [a(x)b(x)] = f (c(x)) = c0 iV +c1 T + +c2n T 2n , donde ci = i=j+l aj bl , 1
P
i 2n, pero utilizando la distributividad del anillo EndK (V ) se verifica facilmente
que (a0 iV +a1 T + +an T n )(b0 iV +b1 T + +bn T n ) = c0 I +c1 T + +c2n T 2n ,
es decir, f (c(x)) = f (a(x))f (b(x)). Finalmente resulta evidente que f (k a(x)) =
k f (a(x)) y f (1) = iV .

77
78 CAPITULO 4. FORMAS CANONICAS

on 4.1.1 y v V . El producto
Corolario 4.1.2. Sea a(x) como en la proposici

a(x) v :=(a0 iV + a1 T + + an T n )(v)


=a0 v + a1 T (v) + + an T n (v) = a(T )(v)

dota a V una estructura de K[x]-espacio izquierdo. Esta estructura se denota por


VT .

Demostracion. Notese que V tiene estructura de EndK (V )-modulo izquierdo con el


producto H v := H(v), H EndK (V ), v V . La afirmacion es ahora evidente ya
que f en (4.1.1) es un homomorfismo de anillos.

Proposici
on 4.1.3. VT es un K[x]-espacio finitamente generado y de torsi
on.

Demostracion. Sea X = {x1 , . . . , xt } una base de VK . De la inclusion natural

l : K K[x]
k 7 k

concluimos que VT =K[x] hx1 , . . . , xt i. De otra parte se tiene el isomorfismo de K-


algebras EndK (V ) = Mt (K). Por lo tanto, dimK (EndK (V )) = t2 , esto u ltimo im-
plica que f en (4.1.1) no puede ser inyectiva ya que de lo contrario f (1), f (x),
f (x2 ), . . . sera un subconjunto infinito linealmente independiente de EndK (V ), en
contradiccion con lo ya establecido. As, ker(f ) 6= 0; dado que K[x] es un DIP se
tiene

ker(f ) = hqT (x)i, (4.1.2)

con 0 6= qT (x) K[x]. Sin perdida de generalidad podemos tomar qT (x) monico.
Resulta entonces que qT (x) v = 0 para cada v VT , con lo cual VT es de torsion.
Notese finalmente que
AnnK[x] (VT ) = hqT (x)i. (4.1.3)

De acuerdo con este resultado podemos aplicar a VT la teora de los espacios


finitamente generados de torsion sobre un DIP .

Definici
on 4.1.4. El polinomio qT (x) definido en (4.1.3) se denomina polinomio
mnimo de T .

Seg
un (4.1.3), qT (x) no depende de la base X elegida en V .

Proposici
on 4.1.5. Se tienen las siguientes propiedades para el polinomio mnimo
qT (x):
4.1. POLINOMIOS MINIMO Y CARACTERISTICO 79

(i) Si q(x) K[x] es tal que

q(x) v = 0 para cada v VT , (4.1.4)

es decir, si q(T ) = 0, entonces qT (x) | q(x).

(ii) qT (x) es el polinomio monico de menor grado tal que satisface (4.1.4) y es
u
nico para T .

Demostracion. (i) Sea q(x) K[x] como en (4.1.4). Entonces q(x) AnnK[x] (VT ) =
hqT (x)i, con lo que qT (x) | q(x).
(ii) Sea p(x) monico de K[x] que satisface (4.1.4). Por (i), gr(qT (x)) gr(p(x)).
Ahora, si p(x) es de grado mnimo entre los que cumplen (4.1.4), tenemos que
gr(qT (x)) = gr(p(x)), por (i) y como qT (x) y p(x) son monicos, necesariamente
qT (x) = p(x).

Sea A Mt (K) una matriz, A define una u nica transformacion lineal T : V V


en la base X. Notemos que qT (A) = 0. En efecto, qT (mX (T )) = mX (qT (T )) =
mX (0) = 0. Tenemos pues que existe al menos un polinomio monico que se anula en
A; consideremos la coleccion I de todos los polinomios de K[x] que se anulan en A,
este conjunto es claramente un ideal de K[x], luego I = hqA (x)i y el polinomio qA (x)
se puede tomar monico. Notese que qA (x) es el polinomio monico de menor grado tal
que qA (A) = 0. En efecto, sea p(x) un polinomio monico de grado mnimo tal que
p(A) = 0, entonces p(x) I, luego qA (x)|p(x), pero como p(x) es monico y de grado
mnimo, entonces p(x) = qA (x). Se define el polinomio mnimo de la matriz A
por qA (x). Notese que qA (x) = qT (x). En efecto, ya sabemos que qT (A) = 0, luego
qA (x)|qT (x); pero tambien qA (T ) = 0 ya que mX (qA (T )) = qA (mX (T )) = qA (A) = 0
y mX es inyectiva. Resulta, qT (x)|qA (x), con lo cual qT (x) = qA (x).

on 4.1.6. (i) Sea A = [aij ] Mt (K) una matriz cuadrada; se denomina


Definici
polinomio caracterstico de A al determinante de la matriz caracterstica

x a11 a12 a1t
a21 x a22 a2t
xE A := .. (4.1.5)

.. .. ..
. . . .
at1 at2 x att

y se denota por pA (x).


(ii) Sean K, V , T , X, t como en el corolario 4.1.3. Sea A = [aij ] = mX (T )
la matriz de T en la base X. Se define el polinomio caracterstico de T por
pT (x) := pA (x).
80 CAPITULO 4. FORMAS CANONICAS

Notese que gr(pT (x)) = t = dimK (V ); ademas, pT (x) es monico y no depende de


la base X elegida en V . En efecto, si Y es otra base de V y B := mY (T ), entonces
det(xE B) = det(xE C 1 AC) = det(C 1 (xE A)C) = det(xE A), donde C
es la matriz de cambio de la base X a la base Y .
Observemos que matrices similares tienen el mismo polinomio mnimo ya que
representan la misma transformacion lineal. Lo mismo se tiene para el polinomio
caracterstico. Las afirmaciones recprocas no son siempre ciertas, tal como lo ilustran
las matrices
   
1 1 1 0
y .
0 1 0 1

Proposici on 4.1.7. Sea V = V1 Vr una descomposici on de V en suma de


subespacios T -invariantes no triviales, es decir, T (Vj ) Vj . Sea Tj la restricci
on
de T a Vj , 1 j r. Entonces

(i) Existe una base X en V tal que la matriz de T en la base X es diagonal por
bloques.

(ii) det(T ) = det(T1 ) det(Tr ).

(iii) pT (x) = pT1 (x) pTr (x).

(iv) qT (x) = m.c.m.{qT1 (x), . . . , qTr (x)}

Demostracion. (i) Si juntamos las bases de V1 , . . . , Vr obtenemos una base de V y


en esta base la matriz de T es diagonal por bloques.
Teniendo en cuenta que el determinante, el polinomio caracterstico y el poli-
nomio mnimo de una transformacion lineal coinciden con los de su matriz en
cualquier base, entonces basta probar las afirmaciones en el caso matricial. Pero
el determinante de una matriz diagonal en bloques es el producto de los determi-
nantes de sus bloques, luego las partes (ii)-(iii) ya estan probadas.
Resta demostrar la parte (iv). Sea

A1 0
A := ... . . . ...

0 Ar

y qA (x) el polinomio mnimo de A. Hagamos m(x) := m.c.m{qA1 (x), . . . , qAr (x)}.


Existen polinomios mi (x), 1 i r, tales que m(x) = qAi (x)mi (x). Se debe entonces
demostrar que qA (x) = m(x). Teniendo en cuenta que tanto qA (x) como m(x) son
monicos, entonces basta demostrar que qA (x) | m(x) y m(x) | qA (x). Sea m(x) =
m0 + m1 x + + ml xl , entonces
4.1. POLINOMIOS MINIMO Y CARACTERISTICO 81

m(A) = m0 E + m1 A + + ml Al =
m0 E + m1 A1 + + ml Al1 0
.. .. ..
. . .
l
0 m 0 E + m 1 A r + + m l Ar

m(A1 ) 0 qA1 (A1 )m1 (A1 ) 0
= .. .. .. .. .. ..
= = 0.

. . . . . .
0 m(Ar ) 0 qAr (Ar )mr (Ar )
Esto garantiza que qA (x) | m(x).
Para demostrar la segunda parte basta mostrar que qA (x) es m ultiplo de cada
qAi (x). Sea qA (x) = q0 + q1 x + + qt xt , entonces qA (A) = 0 luego q0 E + q1 A + +
q t At = 0 y

q 1 A1 0 qt At1 0
q0 I + ... ... .. + + .. ... ..

. . .
0 q 1 Ar 0 qt Atr

qA (A1 ) 0
= .. .. ..
= 0,

. . .
0 qA (Ar )
luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es m
ultiplo de cada qAi (x).
Proposici on 4.1.8. Sea VT un K[x]-espacio cclico con generador v0 . Sean qT (x) =
q0 + q1 x + + qn1 xn1 + xn el polinomio mnimo de T y pT (x) su polinomio
caracterstico. Entonces,
(i) X := {v0 , T (v0 ), . . . , T n1 (v0 )} es una K-base de V .

0 0 0 q0
1 0 0 q1

0 1 0 q2
(ii) mX (T ) = ,
.. .. .. .. ..
. . . . .
0 0 1 qn1
denominada la matriz compa
nera del polinomio qT (x).
(iii) pT (x) = qT (x).
Demostracion. (i) Dado que VT es cclico, tenemos

VT
= K[x]/AnnK[x] (V ) (K[x]-isomorfismo).
De acuerdo con (4.1.3), AnnK[x] (VT ) = hqT (x)i (notese que qT (x) 6= 0 pues de lo
contrario V no sera de dimension finita sobre K). La inclusion natural K , K[x]
82 CAPITULO 4. FORMAS CANONICAS

convierte a K[x]/hqT (x)i en un K-espacio vectorial con base {1, x, . . . , xn1 }, xi =


xi + hqT (x)i.
Sea v VT , entonces v = q(x) v0 , q(x) K[x]; dado que K[x] es un dominio
euclideano, v = qT (x)t(x) v0 + r(x) v0 , con r(x) = 0 o gr(r(x)) < n; resulta
entonces v = r(x) v0 hv0 , T (v0 ), . . . , T n1 (v0 )i, es decir, V = hXi. Sean ahora
a0 , . . . , an1 K tales que

a0 v0 + a1 T (v0 ) + + an1 T n1 (v0 ) = 0,

entonces
(a0 + a1 x + + an1 xn1 ) v0 = 0,
y as
a0 + a1 x + + an1 xn1 AnnK[x] (V ) = hqT (x)i.
Por lo tanto, a0 + a1 x + + an1 xn1 = 0, de donde a0 = a1 = = an1 = 0.
(ii) La afirmacion de esta parte se sigue de (i) y del hecho que

qT (x) v0 = 0 = q0 v0 + q1 T (v0 ) + + qn1 T n1 (v0 ) + T n (v0 ).

(iii) Dado que al mutiplicar una matriz por una propiamente elemental su determi-
nante no vara, se tiene

x 0 0 q0 0 x2 0 q0 + q1 x
1 x 0 q1 1 x 0 q1

pT (x) = det 0 1 0 q2 = det 0 1 0 q2


.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 0 1 x + qn1 0 0 1 x + qn1

0 0 0 q0 + q1 x + q2 x 2
1 0 0 q1 + q2 x

= det 0 1 0 q2 = =

.. .. .. .. ..
. . . . .
0 0 1 x + qn1

0 0 0 q0 + q1 x + + qn1 xn1 + xn
1 0
0 q1 + q2 x + + xn1

0 1 0 q2 + q3 x + + nn2
= det ..

.. .. .. ..
. . . . .
2

0 0 0 qn2 + qn1 x + x
0 0 1 x + qn1
=qT (x).
4.1. POLINOMIOS MINIMO Y CARACTERISTICO 83

Regresamos al estudio de las componentes primarias de VT .

Proposicion 4.1.9. Sea p(x) un polinomio m onico irreducible de K[x]. La compo-


olo si, p(x) | qT (x).
nente p(x)-primaria de VT es no nula si, y s
(p(x)) (p(x))
Demostracion. ): Supongamos que VT 6= 0 y sea 0 6= v VT . Entonces,
AnnK[x] (v) = hp(x) i, l 1 (vease [6]). Puesto que qT (x) v = 0 entonces p(x)l |
l

qT (x), y por lo tanto p(x) | qT (x).


): Sea qT (x) = p(x)q(x) con q(x) K[x] monico. Notese que gr(q(x)) <
gr(qT (x)), as que por la proposicion 4.1.5, existe v 6= 0 en VT tal que q(x) v 6= 0,
(p(x))
pero entonces p(x) (q(x) v) = qT (x) v = 0, es decir , VT 6= 0.
De la afirmacion anterior resulta inmediatamente la siguiente descomposicion de
VT en suma directa de sus componentes primarias.

Corolario 4.1.10. Sea

qT (x) = q1 (x)k1 qr (x)kr (4.1.6)

la descomposicion del polinomio mnimo de T en producto de m


onicos irreducibles.
Entonces la descomposicion de VT en suma de sus componentes primarias esta dada
por

VT = (VT )(q1 (x)) (VT )(qr (x)) . (4.1.7)

Se puede ahora descomponer cada componente primaria en suma directa de


K[x]-espacios cclicos (vease [6]). Para simplificar un poco la notacion escribimos

(VT )(qj (x)) =: Vj , (4.1.8)

para 1 j r.

Lema 4.1.11. Con la notacion anterior se tiene que:

(i) Vj es un K-subespacio T -invariante de V y entonces Tj := T |Vj es un K-


endomorfismo de Vj .

(ii) Sea qTj (x) el polinomio mnimo de Tj . Entonces

qTj (x) = qj (x)kj y Vj = ker(qj (T )kj ).

(iii) Si sj1 sjlj 1 son los divisores elementales de Vj , escritos en orden


decreciente, entonces
sj1 = kj .
84 CAPITULO 4. FORMAS CANONICAS

(iv) Sea pTj (x) el polinomio caracterstico de Tj . Entonces,

pTj (x) = qj (x)sj1 ++sjlj .

(v) qTj (x)|pTj (x).

(vi) dimK (Vj ) = (sj1 + + sjlj )gr(qj (x)).


Demostracion. (i) Dado que Vj en un K[x]-subespacio de VT , este tambien resulta
ser K-subespacio de V . Ademas, Vj es T -invariante. En efecto, T (Vj ) = x Vj Vj .
(ii) Por (4.1.6), qT (x) = qj (x)kj zj (x), con
k k
zj (x) := q1k1 (x) qj1
j1 j+1
(x)qj+1 (x) qrkr (x).
Sea vj Vj , entonces existe n 1 tal que qjn (x) vj = 0. Como m.c.d.(qjn (x), zj (x))
= 1, existen w(x), l(x) K[x] tales que 1 = w(x)qjn (x) + l(x)zj (x), luego vj =
k
w(x)qjn (x) vj + l(x)zj (x) vj = l(x)zj (x) vj , de donde qj j (x) vj = l(x)qT (x) vj = 0.
k
Entonces, hemos demostrado que para cada j, qTj (x) | qj j (x).
Por otra parte, de acuerdo con (4.1.7), cada elemento v V se puede expresar
en la forma
v = v1 + + vj + + vr , vj Vj .
Entonces,
k k +1
qTj (x)zj (x) v = qTj (x)q1k1 (x) qj1
j1 j
(x)qj+1 (x) qrkr (x) v = 0.
k
Resulta qT (x) | qTj (x)zj (x), con lo que qj j (x) | qTj (x).
Notemos que si v Vj , entonces qj (Tj )kj (v) = 0, es decir, qj (T )kj (v) = 0, luego
v ker(qj (T )kj ). Recprocamente, si v ker(qj (T )kj ), entonces qj (T )kj (v) = 0, luego
qj (x)kj v = 0, es decir, v Vj .
(iii) Se tiene el K[x]-isomorfismo
sjl
Vj
s
= K[x]/hqj j1 (x)i K[x]/hqj j (x)i, (4.1.9)
s
y AnnK[x] (Vj ) = hqj j1 (x)i = hqTj (x)i, vease (4.1.3), de modo que segun (ii), sj1 = kj .
(iv) En (4.1.9) cada sumando es un K[x]-subespacio, luego tambien un K-
subespacio de Vj ; notemos que cada uno estos sumandos es Tj -invariante: en efecto,
sea Wi := K[x]/hqj ji (x)i, 1 i lj , entonces Vj
s
= W1 Wlj ; sea w Wi ,
luego x w Wi , es decir, T (w) Wi , luego Tj (Wi ) Wi .
Tenemos entonces que cada Wi es un K[x]- espacio cclico Tj -invariante, podemos
entonces aplicar las proposiciones 4.1.8 y 4.1.7 para obtener (iv).
(v) Consecuencia directa de (ii), (iii) y (iv).
(vi) Como el grado del polinomio caracterstico pTj (x) de Tj coincide con la
dimension de Vj , entonces (v) es consecuencia de (iv).

4.2. FORMA CANONICA
CLASICA 85

Definici
on 4.1.12. Sea VT descompuesto como en (4.1.7). Los divisores elementales
de VT se denominan divisores elementales de T .

De los resultados obtenidos podemos deducir uno de los teoremas basicos y mas
importantes del algebra lineal.

Teorema 4.1.13 (Hamilton-Cayley). Sea V un K-espacio de dimensi


on finita y
T : V V una transformacion lineal de V . Entonces

qT (x) | pT (x).

Demostracion. Por la parte (v) del lema 4.1.11, para cada 1 j r se tiene
que qTj (x) | pTj (x), pero de la proposicion 4.1.7 y la descomposicion (4.1.7) resulta
qT1 (x) qTr (x) = q1k1 (x) qrkr (x) = qT (x) | pT (x).

4.2. Forma can


onica cl
asica
Aplicamos ahora los resultados anteriores al estudio de las llamadas formas canonicas
de una transformacion lineal, o equivalentemente, de una matriz. Comenzamos con
la forma canonica clasica.
Sr Segun (4.1.7), podemos elegir en cada Vj una base Xj de tal manera que X :=
j=1 Xj es una base de V y la matriz de T en dicha base toma la forma


mX1 (T1 ) 0
mX (T ) = .. ... ..
. (4.2.1)

. .
0 mXr (Tr )

Pero de acuerdo con (4.1.9), podemos elegir la base Xj de Vj de tal manera que la
matriz de Tj en dicha base es diagonal en bloques:

Aj1 0
mXj (Tj ) = ... .. .. . (4.2.2)

. .
0 Ajlj

nera del polinomio qj (x)sji


Por la proposicion 4.1.8, el bloque Aji es la matriz compa
de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera que
aparezca la matriz compa nera de qj (x).

Proposici on 4.2.1. Sea V un K[x]-espacio cclico con generador v0 y sup


ongase
on 4.1.8) es de la forma q(x)s ,
que el polinomio mnimo de T (vease la proposici
86 CAPITULO 4. FORMAS CANONICAS

donde q(x) := q0 + q1 x + + qn1 xn1 + xn es irreducible, s 1. Entonces existe


una base X en V tal que la matriz T en dicha base es de la forma

C 0 0
1 C 0

mX (T ) = 0 1 0 , (4.2.3)

.. ..
. .
0 1 C

con s bloques C, donde C es la matriz compa nera de q(x) y los 1 van dispuestos en
las entradas (n + 1, n), (2n + 1, 2n) . . . , ((s 1)n + 1, (s 1)n).

Demostracion. Seg
un la proposicion 4.1.8, una K-base de V es
X 0 = {v0 , T v0 , T 2 v0 , . . . , T ns1 v0 }.
Notese que
X := {v0 , T v0 , . . . , T n1 v0 ;
q(T )v0 , T q(T )v0 , . . . , T n1 q(T )v0 ;
q(T )2 v0 , T q(T )2 v0 , . . . , T n1 q(T )2 v0 ;
. . . ; q(T )s1 v0 , T q(T )s1 v0 , . . . , T n1 q(T )s1 v0 }
tiene ns elementos y satisface hX 0 i = hXi = V : en efecto, basta mostrar que cada
elemento de X 0 esta en hXi. Es claro que v0 , T v0 , . . . , T n1 v0 hXi; como
q(T )v0 = q0 v0 + q1 T v0 + + qn1 T n1 v0 + T n v0 ,
entonces

T n v0 = q(T )v0 q0 v0 q1 T v0 qn1 T n1 v0 hXi


T n+1 v0 = T q(T )v0 q0 T v0 qn1 T n v0 hXi
..
.
n+n1
T v0 = T n1 q(T )v0 q0 T n1 v0 qn1 T 2n2 v0 hXi
T 2n v0 = T n q(T )v0 q0 T n v0 qn1 T 2n1 v0
= q(T )2 v0 q0 q(T )v0 q1 T q(T )v0 qn1 T n1 q(T )v0
q0 T n v0 qn1 T 2n1 v0 hXi,

continuando de esta manera, y por recurrencia, obtenemos lo anunciado.


As pues, X es una base de V y es facil ver que mX (T ) es como en (4.2.3).
Reemplazando (4.2.3) en (4.2.2), y luego en (4.2.1), obtenemos la denominada
matriz can onica cl asica de T . Notese que esta matriz canonica clasica consta
solamente de unos, ceros y los coeficientes de los factores irreducibles q1 (x), . . . , qr (x)

4.2. FORMA CANONICA
CLASICA 87

del polinomio mnimo qT (x). Para calcular la matriz canonica clasica de T es nece-
sario conocer el sistema de divisores elementales de T , es decir, de VT . Si A es una
matriz cuadrada, entonces A determina una u nica transformacion lineal T , y se de-
finen los divisores elementales de A como el sistema de divisores elementales de
T.
Corolario 4.2.2. (i) Sea T : V V una transformaci on lineal de un K-espacio
V de dimension finita. Entonces, existe una base X en V tal que la matriz de
T en la base X es una matriz can onica cl
asica.

(ii) Toda matriz A Mn (K) es similar a una u


nica matriz can
onica cl
asica.

(iii) Dos matrices cuadradas son similares si, y s


olo si, tienen el mismo sistema de
divisores elementales.
Demostracion. Las dos primeras afirmaciones fueron probadas en el desarrollo de
la presente seccion. La tercera se tiene ya que matrices similares representan la
misma transformacion lineal y, si dos matrices tienen el mismo sistema de divisores
elementales, entonces son similares a la misma matriz canonica clasica, y por lo
tanto son similares.
Ejemplo 4.2.3. Ilustramos a continuacion el calculo de las componentes primarias
del VT , donde T es una transformacion lineal definida por medio de una matriz.
Tambien calcularemos la base X que permite obtener la forma diagonal en bloques
dada en (4.2.1). Consideremos la transformacion lineal T : R4 R4 definida por la
matriz

1 1 0 1
0 3 1 0
A= .
2 1 2 1
3 2 0 4
Mediante calculo manual o usando alg
un paquete de computo (por ejemplo el SWP,
Scientific WorkPlace) encontramos que
pA (x) = qA (x) = 36 60x + 37x2 10x3 + x4 = (x 2)2 (x 3)2 ;
debemos entonces calcular las componentes primarias de V := R4 inducidas por A,
V1 = ker((A 2E)2 ), V2 = ker((A 3E)2 ). Tenemos

2 2 1 1 1 0 1 1
2 2 1 1 , (A 3E)2 = 2 1 1 1
(A 2E)2 =


1 1 1 0 3 1 2 2
3 3 2 1 3 1 2 2
y calculamos las bases de sus n
ucleos:
88 CAPITULO 4. FORMAS CANONICAS



1 1
1 1

0 1 1 1

ker(A 2E)2 = , , ker(A 3E)2 = , .


1 0


1 0

1 0 0 1

La base buscada X es la union de los cuatro vectores anteriores. Construimos la


matriz de cambio

1 1 1 1 0 1 1 1
0 1 1 1 , C 1 = 1
1 0 0
C= 1
,
0 1 0 1 1 1 0
1 0 0 1 1 1 0 1

y finalmente encontramos que



0 1 1 1 1 1 0 1 1 1 1 1
1
1 0 0
0
3 1 0
0
1 1 1
=
1 1 1 0 2 1 2 1 1 0 1 0
1 1 0 1 3 2 0 4 1 0 0 1

3 1 0 0
1 1 0 0
.
0 0 3 0
0 0 1 3

Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su forma
canonica clasica: tenemos pA (x) = qA (x) = q1 (x)2 q2 (x)2 , con q1 (x) = x 2 y q2 (x) =
x 3, luego la forma buscada es

2 0 0 0
1 2 0 0
.
0 0 3 0
0 0 1 3

4.3. Forma can


onica racional
La segunda forma canonica destacada es la racional, tambien denominada forma
can onica de Frobenius, en la cual intervienen los factores invariantes de VT . Del
corolario 4.1.10 y del teorema de estructura de los modulos f.g. sobre DIP s (vease
[6]) resulta

VT
= K[x]/hq1 (x)i K[x]/hqm (x)i, (4.3.1)

4.3. FORMA CANONICA RACIONAL 89

donde qi (x) | qj (x) para i j (cada qi (x) se puede tomar monico). Existe entonces
una base X en V tal que

C1 0
R := mX (T ) = ... . . . .. , (4.3.2)

.
0 Cm

donde Cj es la matriz compa


nera de qj (x). Notese que
pT (x) = q1 (x) qm (x),
(4.3.3)
hqm (x)i = AnnK[x] (VT ), qT (x) = qm (x),
resultando otra demostracion del teorema 4.1.13. Esta forma canonica consta de
ceros, unos y los coeficientes de los factores invariantes.
Definicion 4.3.1. La matriz R en (4.3.2) se denomina racional o de Frobenius.
Los polinomios q1 (x), . . . , qm (x) en (4.3.1) se denominan los factores invariantes
de la matriz R. Una transformaci on lineal T : V V es racionalizable si existe
una base X en V tal que mX (T ) es racional. Los factores invariantes de mX (T )
se denominan factores invariantes de T . Una matriz A Mn (K) es racio-
nalizable si A es similar a una matriz racional R, y los factores invariantes R se
conocen como los factores invariantes de A.
Corolario 4.3.2. Sea T : V V una transformaci on lineal sobre un K-espacio V
de dimension finita. Entonces, para cada base Y de V se cumple: T es racionalizable
si, y s
olo si, mY (T ) es racionalizable.
Demostracion. Esto es consecuencia del hecho que matrices similares representan la
misma transformacion lineal.
Corolario 4.3.3. (i) Toda transformaci on lineal T : V V de un K-espacio V de
dimension finita es racionalizable.
(ii) Toda matriz A Mn (K) es similar a una u nica matriz racional R.
(iii) Dos matrices cuadradas son similares si, y s
olo si, tienen los mismos factores
invariantes.
Demostracion. La primera afirmacion se tiene tal como vimos en (4.3.2); la segunda
en consecuencia de que una matriz representa una transformacion lineal, la unicidad
se obtiene de la unicidad de los factores invariantes de VT . La tercera resulta de
que matrices similares representan la misma transformacion lineal y, si dos matrices
tienen los mismos factores invariantes, entonces son similares a la misma matriz
racional, y por lo tanto son similares.
En la proposicion 4.1.8 vimos que si VT es un K[x]-espacio cclico, entonces
pT (x) = qT (x). Veamos ahora la afirmacion recproca.
90 CAPITULO 4. FORMAS CANONICAS

Corolario 4.3.4. Sea T : V V una transformaci on lineal de un K-espacio de


dimension finita. VT es cclico si, y s
olo si, pT (x) = qT (x).

Demostracion. La condicion necesaria la vimos en la proposicion 4.1.8. Supongamos


entonces que pT (x) = qT (x). Seg
un (4.3.3), VT tiene un solo factor invariante, luego
por (4.3.1) VT es cclico.

Ejemplo 4.3.5. En este ejemplo mostramos un procedimiento manual sencillo para


calcular los factores invariantes de una matriz, y en consecuencia, su forma canonica
racional. El metodo sin embargo no es eficiente para matrices de dimensiones supe-
riores. Calculemos entonces los factores invariantes de la matriz

3 4 4
A = 1 3 2 .
2 4 3

Notemos en primer lugar que si q(x) = q0 + q1 x + + qn1 xn1 + xn y A es la


matriz compa
nera de p(x) entonces

q(x) 0
1
(xE A) .

. ..
0 1

En efecto, vimos en la prueba de la proposicion 4.1.8 que



0 0 0 q0 + q1 x + + qn1 xn1 + xn
1 0 0
q1 + q2 x + + xn1

0 1 0 n2
q 2 + q 3 x + + n
(xE A) .. ,

.. .. .. ..
. . . . .
2

0 0 0 qn2 + qn1 x + x
0 0 1 x + qn1

luego

0 0 0 q(x) q(x) 0
1 0 0 0 1
(xE A) .. .. .

.. .. .. . .
. . . . . .
0 0 1 0 0 1

4.3. FORMA CANONICA RACIONAL 91

Por otra parte, si q1 (x), . . . , qm (x) son los factores invariantes de A, entonces


q1 (x) 0
...

qm (x)

(xE A) .

1

. ..

0 1

En efecto, dado que toda matriz es racionalizable, existe una matriz invertible C tal
que

A1 0
C 1 AC =
... ,

0 Am

nera de qi (x), 1 i m. Entonces,


donde Ai es la compa


xE A1 0
C 1 (xE A)C =
... ,

0 xE Am


qi (x) 0
1
pero por lo que acabamos de ver, (xE Ai ) , de modo que

. . .
0 1


q1 (x) 0
..

.

qm (x)

(xE A) .

1

. ..

0 1
92 CAPITULO 4. FORMAS CANONICAS

Con el soporte teorico anterior podemos resolver el ejercicio planteado:



x3 4 4 1 x 3 2
(xE A) = 1 x 3 2 x 3 4 4
2 4 x+3 2 4 x+3

1 x3 2 1 0 0
0 (x 5)(x 1) 2(x 1) 0 (x 5)(x 1) 2(x 1)
0 2(x 1) x1 0 2(x 1) x1

1 0 0 1 0 0
0 (x 1)2 0 0 (x 1)2 0
0 2(x 1) x 1 0 0 x1

x1 0 0
0 (x 1)2 0 ,
0 0 1

entonces pA (x) = (x 1)3 , qA (x) = (x 1)2 y los factores invariantes de A son


x 1,(x 1)2 . Finalmente podemos calcular la forma racional de A:

1 0 0
0 0 1.
0 1 2

4.4. Forma can


onica de Jordan
Presentamos en esta seccion otra forma canonica importante para transformaciones
lineales y matrices.
on 4.4.1. Sea a K, la matriz cuadrada
Definici de orden k 1

a 0 0 0
1 a 0 0
Ja,k := .. .. .. ..

..
. . . . .
0 0 1 a

se denomina bloque elemental de Jordan de orden k perteneciente a a. La


matriz diagonal de m 1 bloques

J1 0
Ja :=
.. ,

.
0 Jm

donde cada Jj es un bloque elemental de Jordan perteneciente a a y tal que



4.4. FORMA CANONICA DE JORDAN 93

orden J1 orden J2 orden Jm

se denomina bloque de Jordan perteneciente a a.


Sean a1 , . . . , ar elementos diferentes de K. La matriz diagonal de r bloques de Jor-
dan, r 1,

Ja1 0
J :=
... ,

0 Jar

con Jai perteneciente a ai se denomina matriz diagonal en bloques de Jordan


on lineal T : V V de un K-
pertenecientes a a1 , . . . , ar . Una transformaci
espacio de dimension finita se dice diagonalizable en bloques de Jordan si
existe una base X en V tal que mX (T ) es una matriz diagonal en bloques de Jordan.
Una matriz cuadrada se dice diagonalizable en bloques de Jordan si es similar
a una matriz diagonal en bloques de Jordan.

Corolario 4.4.2. Sea T : V V una transformaci on lineal sobre un K-espacio V


de dimension finita. Entonces, para cada base X de V se cumple: T es diagonalizable
en bloques de Jordan si, y solo si, mX (T ) es diagonalizable en bloques de Jordan.

Demostracion. Dado que matrices similares representan la misma transformacion


lineal se tiene entonces la afirmacion de la proposicion.

Ya se demostro que toda transformacion T de un espacio vectorial finito dimen-


sional es reducible a la forma canonica clasica, o equivalentemente, que toda matriz
cuadrada es similar a una matriz canonica clasica. Se probaron resultados analogos
para la forma canonica racional. Mostraremos en seguida que para cuerpos alge-
braicamente cerrados, toda transformacion lineal (= toda matriz cuadrada) sobre
un espacio finito dimensional es diagonalizable en bloques de Jordan.

Definici
on 4.4.3. Una transformaci on lineal T es nilpotente si existe s 1 tal
s
que T = 0. El menor natural s con esta propiedad se llama ndice de nilpotencia
de T .

Proposicion 4.4.4. Sea T : V V una transformaci on nilpotente de un K-espacio


V de dimension finita n 1 con ndice de nilpotencia s 1. Entonces existe una
base Y en V tal que

C1 0
mY (T ) =
.. ,

.
0 Cm
94 CAPITULO 4. FORMAS CANONICAS

con

0 0 0 0
1 0 0 0
Cj := .. .. .. .. .. , no sj sj ,
de tama (4.4.1)

. . . . .
0 0 1 0

s1 + + sm = n, 1 s1 s2 sm , sm = s, qT (x) = xs , m = n
umero de
factores invariantes de T y ademas m = dim(ker(T )).

Demostracion. Sean q1 (x), . . . , qm (x) los factores invariantes de T . Seg


un (4.3.3),
s
qT (x) = qm (x); sea s := ndice de nilpotencia de T , entonces qm (x) = x , de donde
qj (x) = xsj con 1 s1 s2 sm = s. Notese que la matriz compa nera
de qj (x) es efectivamente (4.4.1). Seg un (4.3.3), n = gr(pT (x)) = s1 + + sm .
Aplicamos entonces (4.3.2).
Veamos la prueba de la u ltima afirmacion de la proposicion, es decir,

m = dim(ker(T )).
Seg
un (4.3.1), VT tiene la descomposicion en suma de K[x]-subespacios cclicos

VT = hw1 i hwm i, con hwj i


= K[x]/hxsj i.
La idea es probar que {T s1 1 (w1 ), . . . , T sm 1 (wm )} es una base de ker(T ). Si w
ker(T ), entonces w = u1 + + um , donde uj es un elemento de hwj i, 1 j m.
Entonces,

w = g1 (T )(w1 ) + + gm (T )(wm ),
donde el grado de gj (x) se puede tomar inferior a sj . Se tiene que T (w) = 0, pero
como la suma es directa, se concluye que gj (T )T (wj ) = 0. Esto implica que xsj
divide a gj (x)x, pero por la escogencia del grado de gj (x) se tiene que gj (x)x =
bj xsj , bj K. Por lo tanto, gj (x) = bj xsj 1 , y en consecuencia,

w = b1 T s1 1 (w1 ) + + bt T st 1 (wm ).
La independencia lineal se obtiene de la suma directa y de que hxsj i = AnnK[x] (wj ).

Teorema 4.4.5. Sea T : V V una transformaci on lineal de un K-espacio de


dimension finita n 1. Supongase que pT (x) se descompone completamente en K[x]
en producto de factores lineales (esto ocurre por ejemplo si K es algebraicamente
cerrado). Entonces, T es diagonalizable en bloques de Jordan de manera unica, salvo
el orden de disposicion de los bloques.

4.4. FORMA CANONICA DE JORDAN 95

Demostracion. Sea
pT (x) := (x a1 )n1 (x ar )nr ,
con a1 , . . . , ar elementos diferentes de K, 1 nj n, 1 j r. Seg un (4.3.3),
pT (x) y qT (x) tienen los mismos factores irreducibles (aunque no necesariamente con
la misma multiplicidad). Entonces
qT (x) = (x a1 )k1 (x ar )kr , 1 kj n j .
Sean Vj y Tj como se definieron en (4.1.8) y en el lema 4.1.11. Para cada 1 j r
consideremos la transformacion lineal
Tj0 := Tj aj iVj : Vj Vj .
Por el lema 4.1.11, el polinomio mnimo de Tj es (x aj )kj , luego Tj0 es nilpotente
de ndice kj . De acuerdo con la proposicion 4.4.4, para cada 1 j r existe una
base Yj en Vj tal que
Cj1 0
mYj (Tj0 ) =
.. ,

.
0 Cjmj
con cada bloque como en (4.4.1) y de orden sji . Notese que sjmj = kj , mj = n
umero
0
de factores invariantes de Tj , y tal como vimos en la la proposicion 4.4.4,
mj = dim(ker(Tj0 )) = dim(ker(Tj aj iVj )) = dim(ker(T aj iV )). (4.4.2)
ltima igualdad se tiene ya que ker(Tj aj iVj ) = ker(T aj iV ) (vease
En efecto, la u
S Ademas, 1 sj1 sj2 sjmj , sj1 + + sjmj = nj .
el lema 4.1.11, parte (ii)).
Segun (4.1.7), si Y := Yj entonces

mY1 (T1 ) 0
mY (T ) =
.. .

.
0 mYr (Tr )

Pero mYj (Tj ) = mYj (Tj0 ) + mYj (aj iVj ) y as mYj (Tj ) es un bloque de Jordan perte-
neciente a aj :

aj
1 . . . bloque elemental de orden sj1




1 aj

mYj (Tj ) =
. . .

.


aj

bloque elemental de orden sjmj 1
. .
.


1 aj
96 CAPITULO 4. FORMAS CANONICAS

Notese que en la forma canonica de Jordan aparecen solo ceros, unos y las races del
polinomio caracterstico. La unicidad de estas ultimas, la unicidad de las compo-
nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan la
unicidad de la estructura de los bloques de Jordan, salvo el orden de disposicion.
Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-
das son similares si, y solo si, tienen la misma forma can
onica de Jordan.
Demostracion. Sean A, B Mn (K) similares, A J1 y B J2 con J1 y J2
matrices diagonales en bloques de Jordan. Por transitividad J1 J2 . Puesto que
matrices similares representan la misma transformacion lineal, se sigue, por la uni-
cidad expuesta en el teorema 4.4.5 que J1 = J2 (salvo el orden de los bloques).
Recprocamente, si A J B entonces A B.
Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C 1 AC
es una matriz de Jordan, con

4 1 1 1
1 2 1 1
A= .
6 1 1 1
6 1 4 2

Consideramos a la matriz A como una transformacion lineal de R4 en R4 en la


base canonica. Determinemos en primer lugar el polinomio caracterstico y el poli-
nomio mnimo de A : pA (x) = (x + 2)(x 3)3 , qA (x) = (x + 2)(x 3)2 . De
acuerdo con la prueba del teorema 4.4.5, el n umero de bloques de Jordan es 2,
uno correspondiente al valor 2 y otro correspondiente a 3. Ademas se tiene que
R4 = V1 V2 , con V1 = ker(A + 2E) = h(0, 0, 1, 1)i y V2 = ker[(A 3E)2 ] =
h(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)i. Seg
un la proposicion 4.4.4, el n
umero de bloques
elementales de Jordan correspondiente a 2 viene dado por dim(ker(A + 2E)) y el
umero correspondiente a 3 es dim(ker(A3E)). Pero ker(A+2E) = h(0, 0, 1, 1)i y
n
ker(A3E) = h(0, 1, 0, 1) , (1, 2, 1, 0)i, luego dim(ker(A+2E)) = 1 y dim(ker(A
3E)) = 2. Para el valor 3 se tiene que el tama no del segundo bloque elemental de
Jordan viene dado por la multiplicidad de 3 en el polinomio mnimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:

2 0 0 0
0 3 0 0
J = 0 0 3 0 .

0 0 1 3
Para calcular la matriz C debemos encontrar bases X1 en V1 y X2 en V2 de tal
forma que C es la matriz de cambio de la base canonica de R4 a la base X =
X1 X2 . Consideremos las transformaciones A01 := A + 2E : V1 V1 y A02 :=

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 97

A 3E : V2 V2 . Notese que A01 es nilpotente de ndice 1 y A02 es nilpotente


de ndice 2. Segun la prueba de la proposicion 4.4.4, debemos descomponer V1 y
V2 en suma directa de subespacios cclicos. Tal como vimos arriba, el n umero de
sumandos cclicos de V1 es 1 = dim(ker(A + 2E)) y coincide con el n umero de
factores invariantes de A01 ; de igual manera, el n umero de sumandos cclicos de V2 es
2 = dim(ker(A 3E)) y coincide con el n umero de factores invariantes de A02 . Pero
V1 = h(0, 0, 1, 1)i, entonces la descomposicion cclica de V1 es trivial: V1 = hv1 i
con v1 := (0, 0, 1, 1), y en consecuencia, X1 = {(0, 0, 1, 1)}. Para V2 los factores
invariantes de A02 son x y x2 . Necesitamos dos vectores v2 , v3 V2 de tal forma que
V2 = hv2 i hv3 i, donde el polinomio anulador de v2 es x y el polinomio anulador
de v2 sea x2 . La base buscada en V2 es pues X2 = {v2 , v3 , A02 v3 }. Resulta entonces
que x v2 = 0, es decir, A02 v2 = 0, con lo cual v2 ker(A02 ) = ker(A 3E), luego
podemos tomar por ejemplo v2 = (0, 1, 0, 1). Notese que en calidad de v3 podemos
tomar a (0, 0, 0, 1) de tal forma que A02 (v3 ) = (1, 1, 1, 1). Se tiene entonces que
X2 := {(0, 1, 0, 1) , (0, 0, 0, 1) , (1, 1, 1, 1)} es una base de V2 . La matriz C es
pues

0 0 0 1 1 0 1 0
0 1 0 1 1 1 1 0 0
C=
1
,C = ,
0 0 1 1 1 1 1
1 1 1 1 1 0 0 0

2 0 0 0
0 3 0 0
C 1 AC =
0
.
0 3 0
0 0 1 3

4.5. Forma can


onica diagonal: valores y vectores
propios
Estudiaremos ahora la forma canonica mas sencilla, pero a su vez muy exigente,
para una transformacion lineal o matriz: la forma diagonal. Al igual que en la for-
ma canonica de Jordan, la diagonalizacion requiere que el polinomio mnimo tenga
un aspecto especial, razon por la cual no todo operador lineal (matriz) ha de ser
diagonalizable.

Definicion 4.5.1. Sea T : V V una transformaci on lineal de un espacio V de


dimension finita n 1. Se dice que T es diagonalizable si existe una base X en
V tal que mX (T ) es una matriz diagonal. Una matriz A de orden n 1 se dice que
es diagonalizable si A es similar a una matriz diagonal.
98 CAPITULO 4. FORMAS CANONICAS

Corolario 4.5.2. Sea T : V V una transformaci on lineal de un espacio V de


dimension finita n 1 y sea X una base cualquiera de V . Entonces, T es diagona-
lizable si, y solo si, mX (T ) es diagonalizable.
Demostracion. Teniendo en cuenta que matrices que representen la misma transfor-
macion lineal son similares, se tiene el resultado.
Teorema 4.5.3. Sea T : V V una transformaci on lineal de un espacio V de
dimension finita n 1. T es diagonalizable si, y s
olo si, el polinomio mnimo de T
es de la forma
qT (x) = (x a1 ) (x ar ), aj K, 1 j r. (4.5.1)
Demostracion. ): Sea X una base de V tal que la matriz de T es diagonal, digamos,

a1 0
mX (T ) = ... . . . ... .

0 an
Notese que mX (T ) es la forma canonica de Jordan de T ; ademas, el polinomio
caracterstico de T es pT (x) = (x a1 )n1 (x ar )nr , con a1 , . . . , ar los diferentes
escalares en la diagonal de mX (T ) y nj la multiplicidad de aj , 1 j r. Luego el
polinomio mnimo de T es de la forma qT (x) = (xa1 )k1 (xar )kr , con kj 1. Si
para algun j, kj 2, entonces en la forma de Jordan de T apareceran unos debajo
de la diagonal, por lo tanto kj = 1 para cada j.
): Si qT (x) es como en (4.5.1), entonces la notacion y demostracion del teorema
4.4.5 indican que cada sjmj = 1, pero esto significa que la matriz de Jordan de T es
diagonal, es decir, T es diagonalizable.
En la seccion anterior nos encontramos con el calculo del nucleo de operadores
de la forma T a iV , con T : V V una transformacion lineal y a K un escalar,
as pues, los elementos de este n ucleo son vectores v V tales que T (v) = a v.
Tales vectores ocupan un lugar destacado en algebra lineal clasica y los definiremos a
continuacion. A traves de los valores y vectores propios podemos tambien presentar
otros criterios de diagonalizacion de operadores lineales.
Definicion 4.5.4. Sea T : V V una transformaci on de un K-espacio V ; un
escalar a K se dice que es un valor propio de T si existe un vector no nulo
v V tal que T (v) = a v. En tal caso se dice que v es un vector propio de T
perteneciente al valor propio a.
Notese que un vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 4.5.5. Para la transformacion lineal T : R2 R2 definida por T [x, y]T :=
[2x, 3y]T , a = 2 es un valor propio con vector propio [6, 0]T ; a = 3 es tambien un
valor propio de T con vector propio [0, 2]T .

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 99

Sea a K, el conjunto

E(a) := {v V |T (v) = a v}

es un subespacio de V ; notese que E(a) 6= 0 si, y solo si, a es un valor propio de T .

Definicion 4.5.6. E(a) se denomina el espacio propio de T correspondiente al


valor propio a.

Las definiciones de vector propio, valor propio y espacio propio aplican para
espacios vectoriales arbitrarios, no necesariamente de dimension finita.

Ejemplo 4.5.7. Sea D el operador derivacion definido sobre el espacio de funciones


reales cuyas derivadas de cualquier orden existen, y sea a R, entonces E(a) =
{ceax |c R}.

Ejemplo 4.5.8. Existen transformaciones lineales sin valores propios, es decir,


E(a) = 0, para cada a K. En efecto, la transformacion T : R2 R2 definida
por

T [x, y]T = [y, x]T

no tiene valores propios.

Proposici on 4.5.9. Sea T : V V una transformaci on lineal de un espacio V .


Sean a1 , . . . , ar valores propios diferentes con vectores propios v1 , . . . , vr , respectiva-
mente. Entonces v1 , . . . , vr son l.i. En particular, si V es de dimensi on finita n 1,
entonces T tiene a lo sumo n valores propios diferentes. Si T tiene exactamente n
valores propios diferentes, entonces {v1 , . . . , vn } es una base de V .

Demostracion. La prueba de la primera afirmacion se realiza por induccion. Las


otras dos afirmaciones son consecuencia directa de la primera.
n = 1: Si a es un valor propio y v 6= 0 es un vector propio asociado al valor a,
entonces {v} es l.i. Supongase que la afirmacion ha sido probada para n 1 valores
propios diferentes. Sean a1 , . . . , an valores propios diferentes para T con vectores
propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que b1 v1 + + bn vn = 0.
Aplicando T y multiplicando por an se pueden restar las dos relaciones y obtener
que
(b1 a1 b1 an ) v1 + + (bn1 an1 bn1 an ) vn1 = 0
Aplicando induccion resulta entonces que b1 = = bn1 = 0, de donde bn = 0.
Esto prueba que los vectores v1 , . . . , vn son l.i.
El recproco de la proposicion anterior no es siempre cierto, por ejemplo, si T = iV
cualquier base de V pertenece a 1 que es el u nico valor propio de iV .
100 CAPITULO 4. FORMAS CANONICAS

Ejemplo 4.5.10. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpo


K, y sea T : V V una transformacion lineal. Entonces para cada polinomio p(x)
K[x] se tiene que si a K es un valor propio de T con vector propio v, entonces
p(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) ker(p(T ))
si a es raz de p(x), y E(a) Im(p(T )) si a no es raz de p(x).
El polinomio caracterstico es un instrumento para determinar los valores propios
de una transformacion lineal.
Proposici on 4.5.11. Sea T : V V una transformaci on lineal de un espacio V
de dimension finita n 1 y sea a K. Entonces, a es un valor propio de T si, y
s
olo si, pT (a) = 0.
Demostracion. ): Sea v un vector propio de a, entonces, T (v) = a v, luego
(T a iV )(v) = 0, es decir, T a iV no es una transformacion inyectiva. Esto
implica que si X es una base cualquiera que fijamos en V , entonces mX (T a iV )
tiene determinante igual a cero, es decir, det(AaE) = 0, donde A es la matriz de T
en la base X. Por lo tanto, pA (a) = 0, es decir, a es raz del polinomio caracterstico
de A, o sea del polinomio caracterstico de T .
): Si a es raz de pT (x), entonces a es raz de pA (x). Por lo tanto, det(A
aE) = 0, luego mX (T a iV ) no es invertible. Esto garantiza que T a iV no es
invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T a iV )(v) = 0, es decir, T (v) = a v. Esto quiere decir que v es vector propio
con valor propia a.
Este resultado es valido para valores a K, podra ocurrir que las races del
polinomio caracterstico no pertenezcan al cuerpo K, por ejemplo, en el caso en
que K sea el cuerpo de n umeros reales y todas las races de pT (x) sean complejas,
entonces no tendramos valores propios. Esta situacion no se presenta por supuesto
en cuerpos algebraicamente cerrados.
Corolario 4.5.12. Sea K un cuerpo algebraicamente cerrado y sea T : V V
on finita n 1, Entonces,
una transformacion lineal de un K-espacio V de dimensi
T tiene n valores propios (no necesariamente diferentes) correspondientes a las n
races de su polinomio caracterstico.
No sobra reformular las nociones de valores y vectores propios para matrices. Sea
A una matriz cuadrada de orden n 1, un elemento a K se dice que es un valor
propio de A si existe una matriz columna no nula u = (u1 , . . . , un )T K n tal que
Au = a u . La teora de valores y vectores propios para matrices esta relacionada
de manera obvia con la correspondiente teora para transformaciones lineales.
on 4.5.13. Sea A Mn (K) una matriz cuadrada de orden n 1, un
Definici
elemento a K se dice que es un valor propio de A si existe vector no nulo

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 101

u := [u1 , . . . , un ]T K n tal que Au = a u. Se dice u es un vector propio de A


correspondiente al valor propio a.
La teora de valores y vectores propios para matrices esta relacionada de manera
obvia con la correspondiente teora para transformaciones lineales.
Corolario 4.5.14. Sea T : V V una transformaci on lineal de un K-espacio V
de dimension finita n 1. Sean X := {v1 , . . . , vn } una base de V , A := mX (T ) y
a K. Entonces, a es un valor propio de T si, y s olo si, a es un valor propio de A.
Mas exactamente, v = u1 v1 + + un vn es un vector propio de T perteneciente
al valor propio a si, y solo si, [u1 , . . . , un ]T es un vector propio de A perteneciente
al valor propio a.
Teorema 4.5.15. Sea T : V V una transformaci on lineal de un espacio V de
dimension finita n 1. T es diagonalizable si, y s
olo si, V tiene una base constituida
por vectores propios.
Demostracion. ): Existe una base X := {x1 , . . . , xn } en V tal que mX (T ) es
diagonal, digamos

d1 0
mX (T ) =
..
.
0 dn
Esto indica que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Puesto que los vectores x1 , . . . , xn
son no nulos, entonces estos vectores son propios.
): Sea X = {x1 , . . . , xn } una base de vectores propios. Entonces, existen es-
calares d1 , . . . , dn en K tales que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Notese que
entonces la matriz de T es la base X es diagonal, y sus elementos diagonales son
precisamente d1 , . . . , dn .
Sea A Mn (K) una matriz diagonalizable. Entonces existe una matriz invertible
C tal que C 1 AC = D, donde D es una matriz diagonal. La demostracion del
teorema anterior nos da una manera de encontrar la matriz diagonalizante C. En
efecto, sea Y la base canonica de K n , entonces sabemos que A es la matriz de una
transformacion T : K n K n , A = mY (T ). Como A es diagonalizable entonces
T es diagonalizable. Seg un la demostracion del teorema anterior, existe una base
X = {x1 , . . . , xn } en K n de vectores propios de T de tal forma que mX (T ) = D,
donde D es una matriz diagonal. Entonces, D = mX (T ) = C 1 mY (T )C, donde C
es la matriz de cambio de la base Y a la base X. Es decir, la i-esima columna de C
son los coeficientes de la expansion del i-esimo vector xi a traves de la base canonica
Y , es decir, las coordenadas del vector columna xi . En otras palabras, las columnas
de C son los vectores columna x1 , . . . , xn (notese que seg
un el corolario 4.5.14, cada
vector columna xi es un vector propio de A).
102 CAPITULO 4. FORMAS CANONICAS

Corolario 4.5.16. Sea A una matriz cuadrada de orden n 1. Entonces,


(i) A es diagonalizable si y s
olo si, A tiene n vectores propios l.i.

(ii) Si A tiene n valores propios diferentes, entonces A es diagonalizable.


Demostracion. Consecuencia inmediata de los resultados precedentes.
Proposicion 4.5.17. Sea T : V V una transformaci on lineal de un espacio V
de dimension finita n 1. Sean a1 , . . . , ar los valores propios diferentes para T ,
1 r n, y E(a1 ), . . . , E(ar ) los subespacios propios correspondientes. Entonces,
la suma E(a1 ) + + E(ar ) es directa. En consecuencia,
dim(E(a1 ) E(ar )) = dim(E(a1 )) + + dim(E(ar )).
Demostracion. Sean u1 E(a1 ), . . . , ur E(ar ) tales que u1 + + ur = 0,
supongase que alguno de estos sumandos es no nulo, y entre ellos sean u1 , . . . , us , 1
s r los no nulos. Como u1 , . . . , us son vectores propios correspondientes a valores
propios diferentes, entonces son l.i., pero esto contradice la condicion u1 + +us = 0.
Por lo tanto, ui = 0, para cada 1 i r.
Podemos probar ahora un criterio de diagonalizacion en terminos del polinomio
caracterstico y de los espacios propios.
Teorema 4.5.18. Sea T : V V una transformaci on lineal de un espacio V
de dimension finita n 1. Sean a1 , . . . , ar los valores propios diferentes para T ,
1 r n, y E(a1 ), . . . , E(ar ) los subespacios propios correspondientes. Entonces,
las siguientes condiciones son equivalentes:
(i) T es diagonalizable.

(ii) El polinomio caracterstico de T es de la forma

pT (x) = (x a1 )n1 . . . (x ar )nr ,

donde ni = dim(E(ai )), 1 i r.

(iii) dim(V ) = dim(E(a1 )) + . . . + dim(E(ar )).

(iv) V = E(a1 ) . . . E(ar ).


Demostracion. (i) (ii): por el teorema 4.5.15, V tiene una base X = {v1 , . . . , vn }
constituida por vectores propios. Se ordena esta base de tal manera que los primeros
n1 vectores correspondan al valor propio a1 , los siguientes n2 vectores correspondan
al valor a2 y as sucesivamente. Entonces claramente la matriz de T en esta base
toma la forma

4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 103


a1 E 0
mX (T ) = ... .. .. ,

. .
0 ar E
donde ai E es una matriz diagonal de orden ni ,

ai 0
.. . . .. ,
ai E = . . .
0 ai
1 i r. El polinomio caracterstico de T es pT (x) = (x a1 )n1 (x ar )nr .
Se vera ahora que ni = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n =
n1 + + nr . Por la forma como se ha organizado la base X, se tiene que V = hXi
E(a1 ) + + E(ar ), es decir, V = E(a1 ) + + E(ar ), luego por la proposicion
4.5.17, n = dim(E(a1 )) + + dim(E(ar )). Se sabe que ni dim(E(ai )), para cada
1 i r, supongase que existe i tal que ni < dim(E(ai )), entonces
n = n1 + + nr < dim(E(a1 )) + + dim(E(ar )) = n.
Esto indica que ni = dim(E(ai )) para cada 1 i r.
(ii) (iii): dim(V ) = n = n1 + + nr = dim(E(a1 )) + + dim(E(ar )).
(iii) (iv): dim(V ) = dim(E(a1 ))+ +dim(E(ar )) = dim(E(a1 )+ +E(ar )),
de donde , V = E(a1 ) + + (E(ar ), ademas, por la proposicion 4.5.17, la suma es
directa, es decir, V = E(a1 ) E(ar ).
(iv) (i): Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V
constituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantiza
que T es diagonalizable.

Ejemplo 4.5.19. (i) Sea K un cuerpo y sean T : U U , F : V V transforma-


ciones lineales de espacios vectoriales no nulos de dimension finita. Sea a un valor
propio de T con vector propio u y sea b un valor propio de F con vector propio
v. Entonces, ab es un valor propio de T F con vector propio u v. En efecto,
(T F )(u v) = T (u) F (v) = (a u) (b v) = ab (u v). Seg
un el corolario
3.1.6, u v es no nulo.
En forma matricial, sean A Mn (K), B Mm (K) matrices, a un valor propio
de A con vector columna propio u y b un valor propio de B con vector columna
propio v. Entonces, u v es un vector propio de A B con valor propio ab.
(ii) Sean A Mn (K), B Mm (K) matrices diagonalizables, entonces A B es
diagonalizable.

Ejemplo 4.5.20. En este ejemplo mostraremos una aplicacion del producto tenso-
rial de matrices y de la forma canonica de Jordan. Sean A, B y C matrices complejas
de tama nos n n, m m y n m respectivamente. Supongase que para cada valor
104 CAPITULO 4. FORMAS CANONICAS

propio de A y cada valor propio de B se cumple que + 6= 0. Demostremos


entonces que la ecuacion matricial AX + XB = C tiene solucion u
nica.
Solucion. Consideremos el C-espacio de matrices rectangulares Mnm (C), defi-
namos la funcion T por

T : Mnm (C) Mnm (C)


X 7 AX + XB.

Notemos que T es una transformacion lineal. Para resolver el problema mostraremos


que T es biyectiva, con esto, dada C Mnm (C) existe una u nica X Mnm (C)
tal que AX + XB = C.
La prueba de la biyectividad de T la haremos a traves de su matriz en la base
canonica X := {E11 , . . . , E1m ; . . . ; En1 , . . . , Enm } de Mnm (C), es decir, probaremos
que mX (T ) es invertible. Notemos entonces que

a11 Em a1n Em BT 0
mX (T ) = .. .. .. .. .. .. ,
+ .

. . . . .
an1 Em ann Em 0 BT

donde Em es la identica de orden m y B T es la transpuesta de B. Pero,


a11 Em a1n Em
.. .. ..
= A Em ,

. . .
an1 Em ann Em

BT 0
.. .. .. = E B T .
. . . n
T
0 B

De esta forma
mX (T ) = A Em + En B T .
Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G de
tamanos n n y m m, respectivamente, tales que F 1 AF = J1 y G1 B T G = J2
son matrices de Jordan. Notemos que en la diagonal de J1 y J2 estan localizados
los valores propios de A y de B T , respectivamente (observemos que los valores
propios de B T son los mismos de B). Tenemos

J1 Em = F 1 AF Em = F 1 Em (A Em ) (F Em ) ,
 

En J2 = En G1 B T G = En G1 En B T (En G) ,
  
4.6. EJERCICIOS 105

donde ademas

F 1 Em = (F Em )1


En G1 = (En G)1 .


De esta forma se tiene que

J1 Em = (F Em )1 (A Em ) (F Em ) ,
En J2 = (En G)1 En B T (En G) .


Resulta entonces que


(F Em )1 mX (T ) (F  Em ) = (F Em )1 (A Em ) (F Em )
+ (F Em )1 En B T (F Em )=
(J1 Em ) + (F 1 Em ) En B T (F Em ) =
(J1 Em ) + En B T .
Ahora, (En G)1 (F Em )1 mX (T ) (F Em ) (En G) =
1 1 T
(En G) (J1 Em ) (En G) + (En G) En B (En G) =
(J1 Em ) + (En J2 ). En total,

(En G)1 (F Em )1 mX (T ) (F Em ) (En G) = (J1 Em ) + (En J2 ) ,

es decir,
(F G)1 mX (T ) (F G) = (J1 Em ) + (En J2 ) .
Notemos que la matriz (J1 Em ) + (En J2 ) es triangular inferior y en su diagonal
estan las sumas de la forma + , las cuales por hipotesis son no nulas, es decir,
esta matriz es invertible, o sea que, mX (T ) es tambien invertible, y la prueba ha
terminado.

4.6. Ejercicios
1. Sea T : V V una transformacion lineal de un espacio K-espacio V de
dimension finita n 1. Demuestre que T es invertible si, y solo si, el termino
independiente q0 del polinomio mnimo qT (x) es no nulo.

2. Determine la forma canonica de Jordan de la matriz:



0 0 1 0
0
0 0 1 .
1 0 0 0
0 1 0 0

3. Calcule la forma de Jordan de la matriz


106 CAPITULO 4. FORMAS CANONICAS


5 10 10 5 1

1 0 0 0 0


0 1 0 0 0
.
0 0 1 0 0
0 0 0 1 0

4. Sean T1 , T2 : V V transformaciones diagonalizables de un espacio V de


dimension finita n 1 tales que T1 T2 = T2 T1 . Demuestre que existe una base
X en V tal que mX (T1 ) y mX (T2 ) son diagonales.

5. Sea T : V V una transformacion lineal de un espacio K-espacio V de


dimension finita n 1 tal que T tiene n valores propios diferentes. Calcule el
n
umero de subespacios invariantes de T .

6. Sea A = [aij ] una matriz cuadrada de orden n 1 tal que su n umero de


2
entradas nulas es superior a n n. Demuestre que el determinante de A es
igual a cero.

7. Sea A = [aij ] una matriz cuadrada invertible de orden n 1. Demuestre que

pA1 (x) = (x)n (det(A))1 pA (x1 ),

donde pA (x) denota el polinomio caracterstico de la matriz A.

8. Sea T : V V una transformacion lineal de un K-espacio de dimension


finita n. Suponga que T es diagonalizable y que 1 , . . . k son los distintos
valores propios de T , 1 k n. Demuestre que existen transformaciones
lineales T1 , . . . , Tk de V tales que:

(i) T = 1 T1 + + k Tk
(ii) IV = T1 + + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
(v) Ti (V ) = E(i ), 1 i k.

Demuestre tambien el recproco de esta afirmacion, es decir, si existen k es-


calares distintos 1 , . . . k y k transformaciones lineales T1 , . . . , Tk de V , con
k n, que satisfacen (i)-(iii), entonces T es diagonalizable, 1 , . . . k son los
valores propios distintos de T y (iv)-(v) tambien se cumplen.

9. Demuestre que cada matriz cuadrada compleja A es similar a su transpuesta


AT .
4.6. EJERCICIOS 107

10. Sea A una matriz cuadrada compleja de orden n 1 tal que existe un n
umero
m
natural m para el cual se tiene que A = E. Demuestre que A es diagonalizable
(E denota la matriz identica de tama no n).

11. Sean S, T : V V transformaciones tales que ST = T S. Demuestre que


ker(S) e Im(S) son subespacios T -invariantes.

12. Sea T : V V una transformacion lineal de un espacio V de dimension finita.


Demuestre que existe un entero k tal que:
(a) Para j k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y ademas V = Im(T k )
N (T k ).

13. Calcule, usando los resultados del presente captulo, una matriz invertible C
tal que C 1 BC sea una matriz de Jordan, donde

7 1 2 2
1 4 1 1
.
2 1 5 1
1 1 2 8

14. Sea T : C2 C2 una transformacion lineal con un solo valor propio . De-
muestre que T I es nilpotente.

15. Sea T : V V una transformacion lineal invertible en un espacio V complejo


de dimension finita. Demuestre que existe una transformacion S : V V tal
que S 2 = T (sugerencia: use la forma canonica de Jordan). Se dice que S es la
raz cuadrada de T .

16. Encuentre la raz cuadrada de la siguiente matriz


2 1 1
1 2 1 .
1 1 2

17. Calcule la forma canonica racional de la transformacion T : R3 R3 definida


por T (x, y, z) = (4z, y x + 2z, 3x z).

18. Para la matriz real


1 1 0 8
1 1 0 4
A=
0 1 0 5
0 0 1 4
108 CAPITULO 4. FORMAS CANONICAS

determine:
(a) A es diagonalizable?. En caso afirmativo, calcule una matriz diagonalizante.
(b) A es diagonalizable en bloques?. En caso afirmativo calcule una matriz
que la convierta en matriz diagonal en bloques.
(c) La forma racional de A y una matriz racionalizante.
(d) A es diagonalizable en bloques de Jordan?. En caso afirmativo calcule
una matriz que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.

19. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que la forma racional de A es la compa nera del polinomio mnimo
de A (en consecuencia, la forma racional de A tiene un solo bloque racional).

20. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que A no es diagonalizable en bloques.

21. Determine si las siguientes matrices son diagonalizables. En caso afirmativo


calcule una matriz que diagonalice:

1 1 2 3
0 1 0 0 2 2 4
A= 0 0 1 , B= .
0 0 1 2
1 3 3
0 0 0 2

22. Determine los valores y vectores propios del operador derivacion sobre el es-
pacio Rn [x]. Es este operador diagonalizable?

23. Sea A una matriz de orden n 1 y p(x) un polinomio cualquiera. Demuestre


que si A es diagonalizable, entonces p(A) es diagonalizable.

24. Sea A = [aij ] una matriz de orden n 1 tal que nj=1 aij = 1 para cada
P
1 i n. Demuestre que 1 es un valor propio de A.
Captulo 5

Grupos de matrices

Este captulo esta dedicado a estudiar grupos de matrices sobre anillos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas so-
bre cuerpos ya que aqu construiremos los llamados grupos clasicos sobre anillos,
generalizando dichas formas para anillos no conmutativos con involucion. Ademas,
estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-
mutativos.

5.1. Grupos de matrices sobre cuerpos


En esta seccion se enuncian las definiciones y algunas propiedades relativas a grupos
de matrices sobre cuerpos. Aunque algunos de estos grupos y resultados ya haban
sido presentados en captulos anteriores los repertiremos para darle completez al
tema (vease tambien [4]).
Si V es un espacio vectorial sobre un cuerpo K, el conjunto de transformaciones
lineales biyectivas de V es un grupo con la composicion de funciones, denominado
grupo lineal general , y se denota por GL(V ) (vease tambien la definicion 1.1.22).
Cuando la dimension del espacio es finita, dim(V ) = n 2, V se puede identificar
con K n y el grupo lineal depende u nicamente del cuerpo y la dimension; en este

caso GL(V ) = GLn (K). As pues, GLn (K) := Mn (K) es el grupo de elementos
invertibles del anillo Mn (K) y se conoce como el grupo lineal general de orden
n sobre K
Una matriz F es invertible si, y solo si, det(F ) 6= 0. Por lo tanto, el homomorfismo
de grupos det : GLn (K) K es sobreyectivo y K es isomorfo al grupo cociente de
GLn (K) con n ucleo constituido por las matrices de determinante uno. Este subgrupo
se denota SLn (K) y se denomina grupo especial lineal de orden n sobre K. En
general, podemos destacar en GLn (K) los siguientes subgrupos:

(i) SLn (K) es el subconjunto de GLn (K) constituido por las matrices de deter-

109
110 CAPITULO 5. GRUPOS DE MATRICES

minante 1, es decir,

SLn (K) := {F GLn (K) | det(F ) = 1},

y ademas SLn (K)  GLn (K).

(ii) Sea


d 1 0

Dn (K) := D(d1 , . . . , dn ) :=
. .. Mn (K) | d1 dn 6= 0 .


0 dn

Entonces, Dn (K) GLn (K) y se conoce como el grupo de matrices dia-


gonales de orden n sobre K.

(iii) Sea

f11 f1n


. . .
.
Tn (K) := . Mn (K) | f11 fnn 6= 0, fij = 0 si i > j .

.

0 fnn

Entonces, Tn (K) GLn (K) y se denomina el grupo de matrices triangu-


lares superiores de orden n sobre K. Ademas, Dn (K) Tn (K).

(iv) Sea

U Tn (K) := {F Tn (K) | fii = 1, 1 i n}.

Entonces, U Tn (K) Tn (K) SLn (K) y se denomina el grupo de matrices


unitriangulares superiores de orden n sobre K.

(iv) Para 1 m n sea U Tnm (K) el conjunto de matrices unitriangulares F =


[fij ] U Tn (K) tales que fij = 0 para i < j < i + m, es decir, las primeras
m 1 diagonales consecutivas por encima de la diagonal principal de F son
nulas. Entonces, U Tnm (K) U Tn (K), y ademas

U Tn (K) = U Tn1 (K) U Tn2 (K) U Tnn (K) = U Tnn+1 (K) =


U Tnn+2 (K) = = {E}.

Usando la notacion de la seccion 1.4 se tienen las siguientes propiedades, donde


En (K) representa el grupo elemental de orden n sobre K definido como el sub-
grupo de GLn (K) generado por todas las matrices propiamente elementales, es decir,
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 111

En (K) := hTij (a)|1 i, j n, i 6= j, a Ki.

Proposici
on 5.1.1. Sea K un cuerpo. Entonces,

(i) GLn (K) se puede generar por matrices propiamente elementales y matrices
diagonales. En forma mas precisa,

GLn (K) = hTij (a), Di (d)|1 i, j n, i 6= j, a K, 0 6= d Ki,


GLn (K) = SLn (K)Dn (K).

(ii) SLn (K) = En (K).

(iii) Dn (K) = hDi (di )|0 6= di K, 1 i ni.

(iv) Tn (K) = hTij (a), Di (d)|j > i, a K, 0 6= di K, 1 i, j ni.

(v) U Tn (K) = hTij (a)|j > i, a K, 1 i, j ni.

(vi) U Tnm (K) = hTij (a)|j i m, a K, 1 i, j ni.

(vii)

Z(GLn (K)) = {a E | a K },
Z(SLn (K)) = {a E | a K, an = 1},
Z(Dn (K)) = Dn (K).

(viii)

Z(GLn (K)), si |K| 3,
Z(Tn (K)) = CGLn (K) (Tn (K)) =
{E, T1n (1)}
= Z2 , si |K| = 2.

(ix) Si K es finito con |K| := q, entonces


Qn1 n 1
Qn1
|GLn (K)| = j=0 (q q j ), |SLn (K)| = q1 j=0 (q
n
q j ).

(x)

[GLn (K), GLn (K)] = SLn (K) si n 3


o n = 2 y |K| 3,
[GL2 (Z2 ), GL2 (Z2 )]
= Z3 .
112 CAPITULO 5. GRUPOS DE MATRICES

[SLn (K), SLn (K)] = SLn (K) si n 3


o n = 2 y |K| 4,
[SL2 (Z3 ), SL2 (Z3 )]
= Q8 , [SL2 (Z2 ), SL2 (Z2 )]
= Z3 .

(xi) Para 1 m n, U Tnm (K)  Tn (K) y adem


as,

{E} = U Tnn (K)  U Tnn1 (K)  U Tn1 (K) = U Tn (K)  Tn (K).

(xii) Si |K| 3, Dn (K) 5 GLn (K) y Dn (K) 5 Tn (K).

(xiii) Tn (K), U Tn (K) 5 GLn (K); U Tn (K) 5 SLn (K).

(xiv) Para 1 m n 1, U Tnm (K) 5 GLn (K).

(xv)

[Dn (K), Dn (K)] = {E},


[Tn (K), Tn (K)] = U Tn (K) si |K| 3,
[Tn (Z2 ), Tn (Z2 )] = U Tn2 (Z2 ),
[U Tnr (K), U Tns (K)] = U Tnr+s (K), 1 r, s n.

(xvi) Tn (K)/U Tn (K)


= Dn (K)
=K
K} .
| {z
n-veces

(xvii) U T m (K)/U T m+1 (K)


= |K {z
K}, 1 m n 1.
n m-veces

(xviii) Para n 3, SLn (K) y GLn (K) no son solubles. Para n = 2 y |K| 4,
SL2 (K) y GL2 (K) no son solubles.

(xix) SL2 (Z3 ), SL2 (Z2 ), GL2 (Z3 ) y GL2 (Z2 ) son solubles.

(xx) Dn (K), Tn (K) y U Tnm (K) son solubles, 1 m n.

Demostracion. (i) (a) La prueba acerca del sistema de generadores de GLn (K) se
puede realizar por induccion sobre n.
n = 2: sea
 
a11 a12
A=
a21 a22
una matriz invertible. a11 y a12 no pueden ser simultaneamente nulos debido a que
el rango de A es dos. Considerense pues dos casos. Si a11 6= 0, entonces
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 113

 
1 b12
AD1 (a1
11 ) = = B,
b21 b22
y
 
1 c12
T21 (b21 )B = = C.
0 c22
Tambien,
 
1 0
CT12 (c12 ) = = F.
0 f22
En total, F = T21 (b21 )AD1 (a1
11 )T12 (c12 ), y A se puede despejar como un producto
de matrices elementales y diagonales. Notese que F = D2 (f22 ) es invertible ya que
es producto de invertibles. Si a12 6= 0 entonces se puede reducir esta situacion a la
anterior multiplicando la matriz A a la derecha por la permutacion P12 , y entonces A
nuevamente se puede expresar como un producto de propiamente elementales y dia-
gonales. Para completar la prueba del caso n = 2 veremos al final de la demostracion
de esta parte (a) que cada permutacion Pij se pueden expresar como producto de
propiamente elementales y diagonales.
Supongase que el teorema ha sido probado para matrices de tama no n n y sea
A una matriz de tama no (n + 1) (n + 1). No es posible que todos los elementos de
la primera fila de A sean nulos; al igual que en el caso n = 2, multiplicando por una
matriz de permutacion, se puede asumir que a11 6= 0. La matriz

B = AD1 (a1
11 )

es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por matrices propia-
mente elementales adecuadas hasta obtener una matriz invertible C de la forma
 
1 0
C= ,
0 A0

donde A0 es una matriz de orden n. Puesto que C es invertible, entonces el rango


de A0 es n, es decir, A0 es invertible. Por induccion, A0 se puede factorizar en
un producto de matrices propiamente elementales y diagonales de orden n: A0 =
F1 Ft . La matriz C se puede entonces escribir en la forma:
     
1 0 1 0 1 0
C= = .
0 F1 Ft 0 F1 0 Ft

C queda entonces factorizada en un producto de matrices propiamente elementales


y diagonales de orden n + 1, de donde, A se expresa como un producto finito de
matrices propiamente elementales y diagonales de orden n + 1.
114 CAPITULO 5. GRUPOS DE MATRICES

Para concluir la demostracion veamos que cada permutacion Pij se puede facto-
rizar como producto de propiamente elementales y diagonales. Es suficiente consi-
derar el caso i < j ya que Pji = Pij :
Pij = Tij (1)Di (1)Tji (1)Tij (1).
(b) Es claro que SLn (K)Dn (K) GLn (K); para la otra inclusion, sabemos por
(a) que cada elemento de GLn (K) es producto de matrices propiamente elementales,
es decir, matrices de SLn (K), y matrices diagonales, pero como SLn (K)  GL( K),
entonces podemos disponer a la izquierda todas las propiamente elementales y a la
derecha las diagonales: en efecto, en un grupo arbitrario G, si tenemos dos subgrupos
S y D tales que S  G, entonces DS = SD: ds = dsd1 d = s0 d, con d D, s, s0 S.
(ii) Veamos que el sistema de generadores de GLn (K) encontrado en (i) se puede
simplificar y considerar solo matrices diagonales de la forma Dn (c), con c K . En
efecto, sea i 6= n y c K , entonces
Di (c) = Pin Dn (c)Pin = Tin (1)Di (1)Tni (1)Tin (1)Dn (c)Tin (1)Di (1)Tni (1)Tin (1)
pero como vimos en la parte (b) de (i), podemos permutar Di (1) con las matrices
propiamente elementales, y ademas con Dn (c), de tal forma que Di (1)Di (1) = E,
y as, en la factorizacion de Di (c) solo hay propiamente elementales y la matriz Dn (c).
De lo anterior se obtiene que SLn (K) = En (K): en efecto, es claro que En (K)
SLn (K); si F SLn (K) GLn (K), entonces F es producto de matrices propia-
mente elementales y una matriz de la forma Dn (c), c K , pero como det(F ) = 1,
entonces c = 1 y de esta manera F En (K).
(iii) Evidente.
(iv) Sea F Tn (K); con los elementos diagonales de F podemos eliminar, por
medio de matrices propiamente elementales, todos los elementos no diagonales su-
periores de F .
(v) Consecuencia directa de (iv).
(vi) La prueba es como en (iv).
(vii) Sea F Z(GLn (K)), entonces F conmuta con cualquier matriz propiamente
elemental. Veamos que esto implica que A conmuta con cualquier matriz del anillo
Pnn(K). Puesto que cada matriz G Mn (K) se puede escribir en la forma G =
M
i,j gij Eij , basta probar que F conmuta con cualquier matriz gij Eij . Si i 6= j,
entonces gij Eij = Tij (gij ) E; si i = j, entonces gii Eii = Tir (gii )Tri (1) Tri (1)
Tir (gii ), con i 6= r. As pues, F Z(Mn (K)) y F es invertible, pero el centro del
anillo Mn (K) consta de las matrices diagonales para las cuales todas las entradas
diagonales son iguales (vease [5]). Esto completa la demostracion del calculo del
centro del grupo GLn (K).
Veamos ahora la prueba para SLn (K). Sea F Z(SLn (K)), entonces F conmuta
con cada matriz propiamente elemental, luego por lo probado anteriomente, F
Z(Mn (K)) SLn (K), es decir, F es de la forma F = a E, con an = 1.
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 115

La ultima identidad se tiene ya que Dn (K) es abeliano.


(viii) (a) En primer lugar notemos que Z(Tn (K)) = CGLn (K) (Tn (K)): en efecto,
para cualquier grupo G y H G, se tiene que Z(G), Z(H) CG (H), donde CG (H)
es el centralizador de H en G definido por CG (H) := {g G|gh = hg, para cada h
H} (vease [4]). As pues, Z(Tn (K)) CGLn (K) (Tn (K)). SeaP ahora F CGLn (K) (Tn (K));
entonces paraP cada j 2, F Tij (1) P = Tij (1)F , luegoP ( r,s frs Ers )(E + E1j ) =
(E + E1j )( r,s frs Ers ), y resulta F + r fr1 Erj = F + s fjs E1s , es decir,

0 0 f11 0 0 fj1 fj,j1 fjj fj,j+1 fjn
.. ..
= .

. .
0 0 fn1 0 0 0 0 0 0 0
Para j 2 y cada t 6= j se tiene que fjt = 0 y fjj = f11 . Por lo tanto

f11 f12 f1n
0 f11 0
F = Tn (K), (5.1.1)

..
.
0 0 f11

luego F Z(Tn (K)).


(b) Veamos ahora que para |K| 3 se tiene que CGLn (K) (Tn (K)) = Z(GLn (K)):
ya vimos que Z(GLn (K)) CGLn (K) (Tn (K)); sea F CGLn (K) (Tn (K)), entonces
F es como en (5.1.1); F debe conmutar con cada matriz de Dn (K), luego F
CGLn (K) (Dn (K)), pero veamos que para |K| 3, CGLn (K) (Dn (K)) = Dn (K). En
efecto, como Dn (K) es abeliano, entonces Dn (K) CGLn (K) (Dn (K)); sea G
CGLn (K) (Dn (K)), entonces GD(1, . . . , z, . . . , 1) = D(1, . . . , z, . . . , 1)G, con z en la
posicion j y z 6= 0, 1. Resulta gij z = gij para cada i 6= j, de donde gij (z 1) = 0,
es decir, gij = 0 para cada i 6= j. Esto dice que G Dn (K), y en consecuencia,
F Dn (K), es decir, F = D(f11 , . . . , f11 ), con f11 6= 0. Seg
un (vii), F Z(GLn (K)).
(c) Supongamos ahora que |K| = 2. Sea F F CGLn (K) (Tn (K)); tal como
vimos en (a),

1 f12 f1n
0 1 0
F = ,

...
0 0 1
ademas para cada 2 k n 1 se tiene que F Tk,k+1 (1) = Tk,k+1 (1)F , con lo cual
(E + f12 E12 + + f1k E1k + + f1n E1n )(E + Ek,k+1 ) =
| {z }
S
(E + Ek,k+1 )(E + f12 E12 + + f1k E1k + + f1n E1n ),
| {z }
S
116 CAPITULO 5. GRUPOS DE MATRICES

E + Ek,k+1 + S + f1k E1,k+1 = E + S + Ek,k+1 ,


de donde f1k = 0 para 2Q k n 1. Esto dice que F = E o F = T1n (1).
(ix) (a) |GLn (K)| = n1 n j
j=0 (q q ): Sea F GLn (K), entonces la primera fila de
F es no nula y el numero de posibilidades para esta primera fila son q n 1 = q n q 0 ;
una vez definida la primera fila, la segunda no puede ser m ultiplo de la primera, por
lo tanto, el numero de opciones para la segunda fila son q n q; una vez definidas
la primera y segunda filas, la tercera no puede ser combinacion lineal de las dos
primeras, por lo tanto, el n umero de posiblidades para la tercera fila son q n q 2 .
Continuando de esta manera encontramos que el n umero de posiblidades para la
n n1
ltima fila son q q Q
u . Esto completa la demostracion.
1 n1 n
(b) |SLn (K)| = q1 j=0 (q q j ): Tal como vimos al principio de esta seccion,
GLn (K)/SLn (K) |GLn (K)| Qn1 n
= K , luego |SLn (K)| =
|K |
= 1 q1
(q q j ).
j=0
(x) Comencemos probando las afirmaciones relativas al grupo SLn (K).
(a) Sea n 3. Para cualquier grupo G se tiene que [G, G] G; sea Tij (a) un
generador de SLn (K), se tiene la siguiente identidad

Tij (ab) = [Tik (a), Tkj (b)], con i, j, k diferentes y a, b K. (5.1.2)

Tomando b = 1 obtenemos que SLn (K) [SLn (K), SLn (K)].


(b) Sea n = 2 y |K| 4. Como vimos en (a), la inclusion [SL2 (K), SL2 (K)]
SL2 (K) se tiene trivialmente; para la otra inclusion se tiene la identidad general

[Tij (a), D(b1 , . . . , bn )] = Tij (a(b1


i bj 1)). (5.1.3)

Existe a0 K tal que a20 1 6= 0, de lo contrario a20 = 1, de donde a0 = 1


y entonces K = {0, 1, 1}. En la identidad anterior tomemos entonces b1 := a1 0 ,
b2 := a0 , con lo cual b1
1 b 2 1 = a 2
0 1 := c 6
= 0. As
pues, dado a K se tiene

[T12 (a), D(a1 1 1


0 , a0 )] = T12 (ac), luego [T12 (ac ), D(a0 , a0 )] = T12 (a),

lo cual demuestra que T12 (a) [SL2 (K), SL2 (K)]. De manera similar se prueba que
T21 (a) [SL2 (K), SL2 (K)]. En consecuencia, SL2 (K) [SL2 (K), SL2 (K)].
(c) Sea n = 2 y |K| = 3. Probemos que en este caso

[SL2 (Z3 ), SL2 (Z3 )]


= Q8 := ha, b|a4 = 1, b2 = a2 , ba = a1 bi.

Q8 se conoce como el grupo de cuaterniones (vease [4]). Seg un (ix), |SL2 (Z3 )| =
1 2 0 2 1
31
(3 3 )(3 3 ) = 24, y como [SL2 (Z3 ), SL2 (Z3 )] SL2 (Z3 ), entonces
|[SL2 (Z3 ), SL2 (Z3 )]| = 1, 2, 3, 4, 6, 8, 12 o 24.
Notese que las siguiente matrices estan en SL2 (Z3 ):
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 117

           
0 1 2 2 1 1 1 0 2 1 2 2
A := , B := , C := , D := , F := , G :=
2 0 2 1 0 1 1 1 1 1 1 0

ademas, A = [C, D], B = [F, G], es decir, A, B [SL2 (Z3 ), SL2 (Z3 )], y estas matri-
ces cumplen
A4 = E, B 2 = A2 , BA = A1 B,
por lo tanto, Q8 = hA, Bi [SL2 (Z3 ), SL2 (Z3 )], luego [SL2 (Z3 ), SL2 (Z3 )] = 8 o 24.
Pero existe una matriz propiamente elemental que no pertenece a [SL2 (Z3 ), SL2 (Z3 )]
(vease la seccion de ejercicios al final del captulo), por lo tanto [SL2 (Z3 ), SL2 (Z3 )] =
8 y [SL2 (Z3 ), SL2 (Z3 )] = Q8 .
(d) Sea n = 2 y |K| = 2. Veamos que [SL2 (Z2 ), SL2 (Z2 )] = Z3 : notemos que
|SL2 (Z2 )| = |GL2 (Z2 )| = 21 (2 2 )(2 2 ) = 6, de donde SL2 (Z2 ) = GL2 (Z2 )
1 2 0 2 1
=
S3 = D3 (los grupos de orden 6 son dos: Z6 y S3 = D3 , vease [4]; pero GL2 (Z2 ) no es
abeliano: T12 (1)T21 (1) 6= T21 (1)T12 (1)). Se tiene entonces que [SL2 (Z2 ), SL2 (Z2 )] =
[D3 , D3 ] [S
= 3 3 , S ] = A
3 = 3
Z (A 3 es el grupo alternante de orden 3).
Pasamos ahora a considerar el grupo GLn (K). Tenemos entonces tres casos.
(e) Sea n 3. Seg un (a), SLn (K) = [SLn (K), SLn (K)] [GLn (K), GLn (K)];
ademas, como SLn (K)  GLn (K) y GLn (K)/SLn (K) = K es abeliano, entonces
[GLn (K), GLn (K)] SLn (K) (vease [4]). Otra forma de justificar esta u ltima afir-
macion es: det[F, G] = 1 para cualesquiera F, G GLn (K) (esta afirmacion es valida
tambien para n = 2).
(f) Sea n = 2 y |K| 3. Tal como acabamos de ver en (e), [GL2 (K), GL2 (K)]
SL2 (K). Para la otra inclusion, sea a0 6= 0, 1; se tienen las siguientes identidades:
T12 (a) = [T12 (ab), D(1, a0 )], b := (a0 1)1 , a K,
T21 (a) = [T21 (ab), D(a1 1
0 , 1)], b := (a0 1) , a K.

(g) [GL2 (Z2 ), GL2 (Z2 )]


= Z3 : este isomorfismo es consecuencia directa de (d) ya
que GL2 (Z2 ) = SL2 (Z2 ).
(xi) Basta probar la primera afirmacion, U Tnm (K)Tn (K): sean F U Tnm K), G
Tn (K), entonces F = T10 Ts0 , con cada T 0 una matriz propiamente elemental de la
forma Tij (a), j i m, y G = D(b1 , . . . , bn )T1 Tr , donde cada T es una matriz
propiamente elemental de la forma Tij (a), j > i (esta u ltima afirmacion resulta de
la identidad general (5.1.3)). Entonces,
G1 F G = Tr1 T11 D(b1 1 0 0
1 , . . . , bn )T1 Ts D(b1 , . . . , bn )T1 Tr ,

pero se tiene la identidad general

D(b1 , . . . , bn )Tij (a) = Tij (bi ab1


j )D(b1 , . . . , bn ),

luego
G1 F G = Tr1 T21 (T11 T100 Ts00 T1 )T2 Tr ,
118 CAPITULO 5. GRUPOS DE MATRICES

donde cada T 00 es nuevamente una matriz de la forma Tij (a), con j i m. Note-
mos que T11 T100 Ts00 T1 = (T11 T100 T1 )T11 T200 T1 (T11 Ts00 T1 ). Para concluir la de-
mostracion basta probar que cada factor T11 Tl00 T1 U Tnm (K), 1 l s, y luego
repetir el procedimiento para T21 , T2 ; . . . ; Tr1 , Tr .
Consideremos pues un producto de la forma P := Tij (a)1 Trs (b)Tij (a), con j > i,
s r m, a, b K. Expandiendo y simplificando, encontramos que
P = E + bErs + baErs Eij abEij Ers a2 bEij Ers Eij .
Se presentan las siguientes posiblilidades: (a) j 6= r, s 6= i, entonces P = E + bErs
U Tnm (K); (b) j 6= r, i = s, entonces P = E + bErs + baErj , pero como j > i y
s r m, entonces j > s y s r + m, luego j > r + m, es decir, j r > m, de
donde P U Tnm (K); (c) j = r, i 6= s, entonces P = E + bErs abEis , pero como
j > i y sr m, entonces r > i y s r +m, de donde s > i+m, es decir, si > m
y nuevamente P U Tnm (K); (d) j = r, i = s, pero esta situacion es imposible ya
que j > i, s r m, de donde r > i, i r m, es decir, r i > 0 y i r m > 0,
contradiccion.
(xii) Notemos en primer lugar que si |K| = 2, entonces Dn (K) = {E}GLn (K).
Sea |K| 3, entonces existen al menos dos elementos no nulos diferentes 1 , 2
K. Sea cualquier elemento no nulo de K, entonces (1 2 ) 6= 0 y se tiene la
siguiente identidad:
 1        
1 1 0 1 1 1 1 1 1 2
= =
/ D2 (K).
0 1 0 2 0 1 0 1 0 2 0 2

Esta prueba para el caso n = 2 se extiende al caso general n agregando bloques


nulos y la matriz identica En2 en la identidad anterior. Este mismo razonamiento
tambien establece que Dn (K) 5 Tn (K).
(xiii) Notemos que T1n (1) U Tn (K) Tn (K) y Tn1 (a) SLn (K) GLn (K)
pero Tn1 (a)1 T1n (1)Tn1 (a)
/ Tn (K) si a 6= 0. En efecto,
Tn1 (a)1 T1n (1)Tn1 (a) = (E aEn1)(E + E1n )(E + aEn1 ) =
1 + a 0 0 1
0
1 0 0
2
E + aE11 + E1n aEnn a En1 =
. . . .


1 0
a2 0 0 1 a
(xiv) El mismo ejemplo del numeral anterior.
(xv) (a) La primera identidad es evidente ya que Dn (K) es abeliano.
(b) El producto de dos elementos de Tn (K) tiene como elementos en la diago-
nal principal el producto de los elementos de las diagonales principales de los dos
factores, ademas, los elementos diagonales de la inversa de una matriz F de Tn (K)
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 119

son los inversos de los elementos diagonales de F , por lo tanto, [Tn (K), Tn (K)]
U Tn (K). Para la otra inclusion notemos que si |K| 3, entonces existe a0 6= 0, 1 en
K y para cada generador Tij (a) de U Tn (K) se tiene la siguiente identidad general,
la cual generaliza las identidades que vimos en (f) de (x):

Tij (a) = [Tij (ab), D(1, . . . , a0 , . . . , 1)], con b := (a0 1)1 y a0 en la posicion j.

(c) Si |K| = 2, entonces Tn (Z2 ) = U Tn (Z2 ), con lo cual [Tn (Z2 ), Tn (Z2 )] =
[U Tn (Z2 ), U Tn (Z2 )] = U Tn2 (Z2 ) (vease la parte (d) a continuacion).
(d) Consideremos primero el caso trivial n = 2: U T2 (K) = {T12 (a)|a K}
y U T22 (K) = {E}, pero como estos dos grupos son abelianos, entonces la afirma-
cion en este caso se cumple trivialmente: [U T2 (K), U T2 (K)] = {E} = U T22 (K);
[U T2 (K), U T22 (K)] = {E} = U T23 (K) = [U T22 (K), U T2 (K]; [U T22 (K), U T22 (K)] =
{E} = U T24 (K).
Sea n 3. Veamos primero que [U Tnr (K), U Tns (K)] U Tnr+s (K): basta probar
que si T es un generador de U Tnr (K) y T 0 es un generador de U Tns (K), entonces
[T, T 0 ] U Tnr+s (K). En efecto, cada generador de [U Tnr (K), U Tns (K)] es de la forma
[F, G] con F U Tnr (K) y G U Tns (K); F es producto de generadores e inversos de
generadores de U Tnr (K), lo mismo ocurre para U Tns (K); pero si T es un generador
de U Tnr (K), entonces T 1 es tambien un generador; lo mismo ocurre para U Tns (K);
as pues, cada generador de [U Tnr (K), U Tns (K)] es de la forma [T1 Tp , T1 Tq0 ]; se
tiene la siguiente identidad en cualquier grupo, [ab, c] = b1 [a, c]b[b, c]; pero seg un
(xi), U Tn (K)  U Tn (K), U Tn (K), por lo tanto, basta probar lo anunciado arriba.
r+s r s

Sean Tik (a) U Tnr (K), Tje (b) U Tns (K) y consideremos el conmutador

C := [Tik (a), Tje (b)];

segun (5.1.2), si k = j, entonces C = Tie (ab), pero como k i r y e j s,


entonces ei r +s, es decir, C U Tnr+s (K); si k 6= j, entonces C = E abEje Eik ,
si e 6= i encontramos que C = E U Tnr+s (K), pero si e = i, entonces C = Tjk (ab),
donde k i r, i j s, luego k j r + s, y nuevamente C U Tnr+s (K). Esto
completa la prueba de la primera inclusion.
Veamos ahora la otra inclusion, U Tnr+s (K) [U Tnr (K), U Tns (K)]: basta probar
que cada generador Tij (a) de U Tnr+s (K) pertenece a [U Tnr (K), U Tns (K)]; puesto que
j i r + s > s, entonces j s > i > 0; sea k := j s, entonces k i = j i s
r + s s = r; j k = s, con lo cual Tij (a) = [Tik (a), Tkj (1)] [U Tnr (K), U Tns (K)].
(xvi) Es suficiente considerar el homomorfismo sobreyectivo de grupos
: Tn (K) Dn (K)
=K
K} , F := [fij ] 7 D(f11 , . . . , fnn ),
| {z
n-veces

cuyo n
ucleo es U Tn (K).
(xvii) Notese que la funcion
120 CAPITULO 5. GRUPOS DE MATRICES

: U Tnm (K) |K {z
K}, F := [fij ] 7 (f1,m+1 , f2,m+2 . . . , fnm,n ),
n m-veces

es un homomorfismo sobreyectivo de grupos cuyo n ucleo es U Tnm+1 (K). En efecto,


es claro que es sobreyectiva con el n ucleo indicado. Veamos que es un ho-
momorfismo de grupos: sean F, G U Tnm (K) y sea H := F G, entonces (H) =
(h1,m+1 , h2,m+2 . . . , hnm,n ), pero para cada 1 k n m, hk,m+k = ni=1 fki gi,m+k .
P
Si 1 i < k, entonces fki = 0; si i = k, entonces fki gi,m+k = gk,m+k ; si k < i < m+k,
entonces 0 < i k < m, con lo cual fki = 0; si i = m + k, entonces fki gi,m+k =
fk,m+k gm+k,m+k = fk,m+k ; si m + k < i n, entonces gi,m+k=0 . De todo lo anterior
se tiene que hk,m+k = fk,m+k + gk,m+k , luego (F G) = (F ) + (G).
(xviii) (a) Seg un (x), para n 3, GLn (K) y SLn (K) son no solubles.
(b) Para n = 2 y |K| 4, tambien seg un (x), GLn (K) y SLn (K) son no solubles.
(xix) (a) Seg un (x), SL2 (Z3 ) es soluble ya que Q8 es soluble: [Q8 , Q8 ] = Z2 ,
[Z2 , Z2 ] = {0}.
(b) SL2 (Z2 ) = GL2 (Z2 ) es soluble ya que Z3 es abeliano (vease (x)).
(c) GL2 (Z3 ) es soluble ya que seg un (x), [GL2 (Z3 ), GL2 (Z3 )] = SL2 (Z3 ), y como
vimos en (a), este u ltimo es soluble.
(xx) Consecuencia directa de (xi).

Los llamados grupos clasicos surgen al estudiar formas bilineales y sesquilineales


sobre un espacio vectorial. Nos ocuparemos ahora de estos grupos. Se asume que
el lector conoce la teora clasica de formas bilineales y formas cuadraticas sobre
cuerpos, sin embargo, algunas definiciones y resultados basicos seran recordados.
Si V es un espacio vectorial sobre un cuerpo K, una forma bilineal sobre
V es una funcion f : V V K lineal en ambos argumentos, es decir, f (u1 +
u2 , v) = f (u1 , v) + f (u2 , v), f (a u, v) = af (u, v), f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a v) = af (u, v), para cualesquiera u1 , u2 , u, v1 , v2 , v V , a K. Una forma
bilineal f permite definir la ortogonalidad: si u, v V , u es ortogonal a v (u
v) si, y solo si, f (u, v) = 0. La forma f es sim etrica si f (u, v) = f (v, u) para
cualesquiera vectores u, v V ; f se dice antisim etrica si f (u, v) = f (v, u), y f
es alternada si f (u, u) = 0 para cada u V . Notemos que toda forma alternada
es antisimetrica y si char(K) 6= 2, entonces toda forma antisimetrica es alternada.
Si dim(V ) = n y X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma
f en la base X es la matriz B := [bij ], donde bij := f (xi , xj ); si u y v se expresan
como u = u1 x1 + + un xn y v = v1 x1 + + vn xn , entonces

f (u, v) = [u1 un ]B[v1 vn ]T .

Una forma bilineal f es no degenerada si para 0 6= u V , existe v V tal


que f (u, v) 6= 0, es decir, ning
un vector no nulo es ortogonal a todo el espacio.
Equivalentemente, f es no degenarada si, y solo si, det(B) 6= 0, con B la matriz de
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 121

f en cualquier base. Una transformacion T de V preserva f si para cada u, v V ,


f (T (u), T (v)) = f (u, v).
Proposicion 5.1.2. Si dim(V ) = n y f es no degenerada, el conjunto de las trans-
formaciones lineales que preservan f es un grupo con la composici
on.
Demostracion. Si S, T preservan f , para cada u, v V se tiene f (ST (u), ST (v)) =
f (T (u), T (v)) = f (u, v) y ST preserva f ; obviamente el producto es asociativo y
la transformacion identica preserva cualquier forma. Finalmente, si T preserva f y
u V es tal que T (u) = 0, entonces para cada v V f (u, v) = f (T (u), T (v)) =
f (0, T (v)) = 0 y en consecuencia u = 0 por ser f no degenerada. Por lo tanto, T es
inyectiva, y como la dimension de V es finita, T es invertible y f (T 1 (u), T 1 (v)) =
f (T T 1 (u), T T 1 (v)) = f (u, v), es decir, T 1 tambien preserva f .
La afirmacion anterior se puede traducir tambien en terminos de matrices, pues
si F es la matriz de T en la base de X, entonces
[u1 un ]B[v1 vn ]T = f (u, v) = f (T (u), T (v)) = [u1 un ]F T BF [v1 vn ]T ;
consecuentemente T preserva f si, y solo si, B = F T BF , donde F := mX (T ).
Si f es no degenerada, det(B) 6= 0 de manera que det(F ) = 1 y as, F (y T )
es invertible. De este modo, asociado a cada forma bilineal no degenerada f hay
un subgrupo de GLn (K) a saber, el grupo de matrices F correspondientes a las
transformaciones T que preservan f . Los llamados grupos cl asicos sobre K son
algunos de los subgrupos de GLn (K) definidos por medio de estas formas bilineales
no degeneradas. Por cada forma no degenerada f , o lo que es equivalente, por cada
matriz invertible B tendramos uno de tales grupos.
Observaci on 5.1.3. (i) Notemos sin embargo que si B Mn (K) es una matriz
cualquiera, no necesariamente invertible, entonces tambien se pueden definir sub-
grupos de GLn (K) de la siguiente manera:
O(B) := {F GLn (K)|F T BF = B}.
(ii) De todos los posibles grupos clasicos que se pudieran definir con formas no
degeneradas se destacan aquellos para los cuales la relacion de ortogonalidad entre
vectores es simetrica, es decir, u v si, y solo si, v u.
Proposici on 5.1.4. Sea dim(V ) = n y f una forma bilineal sobre V . La relaci on
ser ortogonal a es simetrica si, y s
olo si, f es simetrica o f es alternada.
Demostracion. ): Sean u, v, w V y u e := f (u, v) w f (u, w) v. Entonces
e) = f (u, f (u, v) w f (u, w) v) = f (u, v)f (u, w) f (u, w)f (u, v) = 0, es
f (u, u
decir, u u
e; por hipotesis ue u, esto es,
u, u) = f (u, v)f (w, u) f (u, w)f (v, u),
0 = f (e (5.1.4)
122 CAPITULO 5. GRUPOS DE MATRICES

y haciendo w = u resulta

f (u, u)[f (u, v) f (v, u)] = 0 (5.1.5)

para cada u, v V . Supongase ahora que existen x, y V tales que f (x, y) 6= f (y, x)
y que existe z V tal que f (z, z) 6= 0. Por (5.1.5),

f (x, x) = f (y, y) = 0 y f (z, x) = f (x, z), f (z, y) = f (y, z),


y por (5.1.4), 0 = f (x, z)[f (y, x) f (x, y)], 0 = f (y, z)[f (x, y) f (y, x)], luego

f (x, z) = 0 = f (z, x) y f (y, z) = 0 = f (z, y).


Ahora f (x, y+z) = f (x, y) y f (y+z, x) = f (y, x), luego f (x, y+z) 6= f (y+z, x) y por
(5.1.5) f (y + z, y + z) = 0. Pero f (y + z, y + z) = f (y, y) + f (y, z) + f (z, y) + f (z, z) =
f (z, z) lo que contradice la hipotesis f (z, z) 6= 0. As, f (x, y) = f (y, x) para cada
x, y V , es decir, f simetrica, o bien f (z, z) = 0 para cada z V es decir, f
alternada.
): Si f es simetrica y u v, entonces f (v, u) = f (u, v) = 0, de manera que
tambien v u. Si f es alternada, tambien es antisimetrica, por lo tanto, si u v,
entonces f (v, u) = f (u, v) = 0 y v u.

De este modo, el estudio de los grupos clasicos se reduce a dos casos: grupos
obtenidos de formas simetricas y grupos obtenidos de formas alternadas.
Sea f una forma bilineal simetrica no degenerada sobre V ; una transformacion
T que preserva f se denomina transformaci on ortogonal , y el grupo clasico
correspondiente se denomina grupo ortogonal denotado O(V, f ). Esta notacion
resulta adecuada pues el grupo ortogonal definido de esta manera depende de V (y
por lo tanto de K y de n) y de f , o de manera equivalente, de la matriz B. Segun
vimos atras, el grupo ortogonal se puede caracterizar en lenguaje matricial de la
siguiente manera:

O(V, f ) = {F GLn (K)|F T BF = B},

donde B es la matriz de f en una base X de V que se fija (recordemos que B es


simetrica e invertible). Como se anoto antes, si F O(V, f ) entonces det(F ) =
1; las transformaciones ortogonales de determinante 1 se denominan rotaciones
y constituyen un subgrupo normal de O(V, f ), notado O+ (V, f ), de manera que
O+ (V, f )  SLn (K).
Si en particular B = E, entonces se tiene el grupo ortogonal de orden n sobre
K, denotado On (K), conformado por las matrices ortogonales, es decir,

On (K) := {F GLn (K)|F T F = E}.


5.1. GRUPOS DE MATRICES SOBRE CUERPOS 123

Observaci on 5.1.5. El centro de On (K) es {E, E} y, salvo algunos casos parti-


culares, el cociente del grupo conmutante de On (K) y su centro es un grupo simple;
estos resultados fueron probados por Dickson y Dieudonne, pero la prueba no esta en
el contexto del presente cuaderno.

Sea f una forma bilineal alternada no degenerada sobre V . Una transformacion lineal
que preserva f se denomina transformaci on simplicial , el grupo correspondiente
se denomina grupo simplicial y se nota Spn (K). Se puede probar que si char(K) 6=
2, entonces se puede encontrar una base de V tal que la matriz Be de f en dicha base
tenga la siguiente presentacion
 
0 1
1 0 0
 
0 1
1 0

B :=
e .
..

.
 
0 1
0
1 0

Notese que la dimension n de V es entonces siempre par. Se tiene pues que

Spn (K) := {F GLn (K)|F T BF


e = B}.
e

Observaci on 5.1.6. El grupo simplectico tiene las siguientes propiedades: Spn (K)
SLn (K), el centro de Spn (K) es {E, E}, y si K posee mas de tres elementos en-
tonces el grupo simplicial es igual a su grupo conmutante. El cociente del grupo
conmutante de Spn (K) con su centro es un grupo simple. Finalmente, si K es un
cuerpo finito con q elementos (q 3), entonces el orden del grupo simplicial es

|Spn (K)| = (q n 1)q n1 (q n2 1)q n3 q 3 (q 2 1)q.

La prueba de estas afirmaciones esta fuera del alcance del presente cuaderno.

A partir de formas sesquilineales que se definen en cuerpos que presenten una in-
volucion analoga a la conjugacion en C aparece otro tipo de grupo clasico de ma-
trices, tal como veremos a continuacion. Una forma sesquilineal en un espa-
cio vectorial sobre C es una funcion f : V V C lineal en un argumento
y semilineal en el otro; mas precisamente: f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a v) = af (u, v), f (u1 + u2 , v) = f (u1 , v) + f (u2 , v) y f (a u, v) = af (u, v)
para todo u, v, u1 , u2 , v1 , v2 V y a C. Habitualmente la semilinealidad se es-
tablece para el segundo argumento, pero para definir los grupos clasicos el cambio
al primer argumento resulta conveniente. Se tiene entonces que si dim(V ) = n y
X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma sesquilineal f en
124 CAPITULO 5. GRUPOS DE MATRICES

la base X es la matriz B := [bij ], donde bij := f (xi , xj ); si u y v se expresan como


u = u1 x1 + + un xn y v = v1 x1 + + vn xn , entonces
f (u, v) = [u1 un ]B[v1 vn ]T .
Notemos que si f es una forma sesquilineal no degenerada, entonces el conjunto
de transformaciones lineales del espacio V que preservan f es un grupo, es decir, la
proposicion 5.1.2 tambien se tiene en este caso. El estudio de los grupos clasicos aso-
ciados a formas no degeneradas sesquilineales complejas generalmente se limita a las
formas hermitianas, es decir, tales que f (u, v) = f (v, u). Observemos que la matriz
B := [bij ] de f satisface B = B, con B := (B)T := [bij ]T , denominada la trasju-
gada de B (la trasjugada de una matriz tambien se conoce en la literatura como
la adjunta, pero ya utilizamos esta denominacion de manera difente en el contexto
de la teora de determinates del captulo 2). Las matrices complejas que coinciden
con su trasjugada se denominan hermitianas. El grupo de transformaciones que
preservan f se denomina grupo unitario y se denota por U (V, f ). Al igual que en
el caso ortogonal, este grupos se pueden tambien describir matricialmente: si F es
la matriz de T U (V, f ) en la base de X, entonces
[u1 un ]B[v1 vn ]T = f (u, v) = f (T (u), T (v)) = [u1 un ]F BF [v1 vn ]T ;
consecuentemente T preserva f si, y solo si, B = F BF . As pues,
U (V, f ) = {F GLn (K)|F BF = B}.
Adicionalmente, notemos que como f es no degenerada, det(B) 6= 0 de manera que
det(F ) = 1, i.
Si en particular B = E, entonces se tiene el grupo unitario de orden n sobre
C, denotado Un (C), y conformado por las matrices unitarias, es decir,
Un (C) := {F GLn (C)|F F = E}.
Observemos que On (R) = Un (R).
Observaci on 5.1.7. Notemos que si B Mn (C) es una matriz cualquiera, no
necesariamente invertible, entonces tambien se pueden definir subgrupos de GLn (C)
de la siguiente manera:
U (B) := {F GLn (C)|F BF = B}.

5.2. Grupos de matrices sobre anillos


Sea A un anillo arbitrario, el grupo lineal general de orden n sobre A fue presentado
en la definicion 1.3.1 y esta constituido por las matrices invertibles del anillo Mn (A),
es decir, recordemos que
5.2. GRUPOS DE MATRICES SOBRE ANILLOS 125

GLn (A) := {F Mn (A)|A es invertible} = Mn (A) .

Los subgrupos En (A), Dn (A), Tn (A), U Tn (A) y U Tnm (A) se definen en forma analoga
a como vimos antes para cuerpos; en los casos de Dn (A) y Tn (A) se debe asumir
que d1 , . . . , dn , f11 , . . . , fnn A . El grupo especial lineal sobre anilllos arbitrarios
en general carece de sentido ya que la teora de determinantes para anillos no con-
mutativos no esta siempre definida; por supuesto que si R es un anillo conmutativo
entonces SLn (R) esta definido y consta de las matrices con determinante 1.
Las propiedades estructurales de GLn (A) y sus subgrupos fueron objeto de in-
tenso estudio en las decadas de los 70 y 80. Mostraremos a continuacion solo un par
de estas propiedades.

Proposici
on 5.2.1.

Z(GLn (A)) = {a E | a Z(A) } = Z(A) E.

Demostracion. Es evidente que aE con a Z(A) es invertible (con inversa a1 E)


y que conmuta con cualquier matriz de Mn (A), luego a E Z(GLn (A)). Sea ahora
F Z(GLn (A)), entonces para r, s, con 1 r 6= s n, F (E + Ers ) = (E + Ers )F ,
luego F Ers = Ers F . Ahora bien, F Ers tiene la r-esima columna de F en la columna
s, y cero en las demas entradas, y Ers F tiene la s-esima fila de F en la fila r y
cero en las demas entradas. Por lo tanto, F Ers = Ers F implica que si F := [fij ]
entonces frr = fss , fir = 0 para i 6= r y fsj = 0 para j 6= s. Pero F Z(GLn (A))
conmuta con todas las matrices Ers (r 6= s), luego todas las entradas de la diagonal
son iguales y las demas entradas son cero, es decir, F = a E para alg
un a A. Pero
F GLn (A), luego necesariamente a es invertible, y como F conmuta con todas las
matrices de GLn (A), a Z(A).

on 5.2.2. Para cada a, b A y cualesquiera u, v A :


Proposici

(i) Tij (a)Tij (b) = Tij (a + b).

(ii) Para i 6= l y k 6= j, Tij (a)Tkl (b) = Tkl (b)Tij (a).

as, si i 6= l y k 6= j, [Tij (a), Tkl (b)] = E.


(iii) [Tik (a), Tkj (b)] = Tij (ab). Adem

(iv) Di (u)Dj (v) = Dj (v)Di (u) si i 6= j, y Di (u)Di (v) = Di (uv).

(v) Di (u)Tij (a) = Tij (ua)Di (u), Di (u)Tji (a) = Tji (au1 )Di (u). Adem
as, para j 6=
i y k 6= i, Di (u)Tjk (a) = Tjk (a)Di (u).

Demostracion. (i) Tij (a)Tij (b) = (E + a Eij )(E + b Eij ) = E + a Eij + b Eij =
E + (a + b) Eij = Tij (a + b).
(ii) Tij (a)Tkl (b) = (E + a Eij )(E + b Ekl ) = E + a Eij + b Ekl y Tkl (b)Tij (a) =
(E + b Ekl )(E + a Eij ) = E + b Ekl + a Eij .
126 CAPITULO 5. GRUPOS DE MATRICES

(iii) [Tik (a), Tkj (b)] = (E + a Eik )(E + b Ekj )(E a Eik )(E b Ekj ) =
(E + a Eik + b Ekj + ab Eij )(E a Eik b Ekj + ab Eij ) = E a Eik b
Ekj + ab Eij + a Eik ab Eij + b Ekj + ab Eij = E + ab Eij = Tij (ab).
Usando (ii) y (i) se tiene que

[Tij (a), Tkl (b)] = Tij (a)Tkl (b)Tij (a)Tkl (b) = Tkl (b)Tij (a)Tij (a)Tkl (b) =
Tkl (b)Tkl (b) = E.

(iv) Di (u)Dj (v) = (E + (u 1) Eii )(E + (v 1) Ejj ) = E + (u 1) Eii + (v 1) Ejj


y Dj (v)Di (u) = (E + (v 1) Ejj )(E + (u 1) Eii ) = E + (v 1) Ejj + (u 1) Eii .

Di (u)Di (v) = (E + (u 1) Eii )(E + (v 1) Eii ) =


E + (u 1 + v 1 + uv v u + 1) Eii = E + (uv 1) Eii = Di (uv).

(v) Di (u)Tij (a) = (E + (u 1) Eii )(E + a Eij ) = E + a Eij + (u 1) Eii +


(u 1)a Eij = E + (u 1) Eii + ua Eij y

Tij (ua)Di (u) = (E + ua Eij )(E + (u 1) Eii ) = E + (u 1) Eii + ua Eij .

Di (u)Tji (a) = (E + (u 1) Eii )(E + a Eji ) = E + (u 1) Eii + a Eji y


Tji (au1 )Di (u) = (E + au1 Eji )(E + (u 1) Eii ) = E + (u 1) Eii + au1 Eji +
(a au1 ) Eji = E + (u 1) Eii + a Eji .
Di (u)Tjk (a) = (E + (u 1) Eii )(E + a Ejk ) = E + (u 1) Eii + a Ejk , y

Tjk (a)Di (u) = (E + a Ejk )(E + (u 1) Eii ) = E + (u 1) Eii + a Ejk .

Corolario 5.2.3. Si n 3,

[En (A), En (A)] = En (A).

Demostracion. [En (A), En (A)] En (A); recprocamente, si Tij (a) En (A), como
n 3, sea k 6= i, k 6= j entonces Tij (a) = Tij (a1) = [Tik (a), Tkj (1)] [En (A), En (A)].

Corolario 5.2.4. Si n 3, En (A) no es soluble.

Demostracion. Consecuencia directa del corolario anterior.


5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 127

5.3. El grupo elemental sobre anillos conmuta-


tivos
Sea R un anillo conmutativo, vimos en (2.3.6) que En (R) SLn (R)  GLn (R).
Surgen entonces dos preguntas de manera natural: En (R)  GLn (R)? y En (R) =
SLn (R)? En esta seccion vamos a estudiar estas dos preguntas.
Para n 3 la primera pregunta planteada anteriormente tiene respuesta positiva
y el resultado fue demostrado por A. A. Suslin, el cual es conocido como el teorema
de normalizacion de Suslin (vease [12]). La prueba constructiva de este teorema
presentada a continuacion ha sido adaptada de [10], vease tambien [11].
on 5.3.1. Sean R un anillo conmutativo y n 2. Una matriz de Cohn
Definici
es una matriz de la forma
E + av(vj ei vi ej ),
donde i < j, i, j {1, . . . , n}, a R y
v := [v1 vn ]T Rn .
Proposici on 5.3.2 (Mennicke). Para n 3, cualquier matriz de Cohn se puede
factorizar en un producto finito de matrices elementales.
Demostracion. Primero consideremos el caso i = 1, j = 2, entonces

v1
..  
B = E + a . v2 , v1 , 0, . . . , 0
vn

1 + av1 v2 av12 0 0
av 2 1 av1 v2 0 0
2
=
av3 v2 av3 v1

.. ..
. . En2
avn v2 avn v1
av12

1 + av1 v2 0 0
av22 1 av1 v2 0 0


0 0 n
Y
= . .
Tl1 (avl v2 )Tl2 (avl v1 ).

. . En2

l=3
. .
0 0
Entonces, es suficiente mostrar que

1 + av1 v2 av12 0
A := av22 1 av1 v2 0
0 0 1
128 CAPITULO 5. GRUPOS DE MATRICES

se puede factorizar como un producto de matrices elementales, para cualesquiera


a, v1 , v2 R. Para esto aplicamos operaciones elementales sobre filas y columnas:


1 + av1 v2 av12 0 F1 F1 +v1 F3 1 + av1 v2 av12 v1
F2 F2 +v2 F3
A = av22 1 av1 v2 0 av22 1 av1 v2 v2
0 0 1 0 0 1


1 av12 v1 1 0 v1
C1 C1 av2 C3 C2 C2 +av1 C3
0 1 av1 v2 v2 0 1 v2
av2 0 1 av2 av1 1


1 0 v1 1 0 0
F3 F3 +av2 F1 C3 C3 v1 C1
0 1 v2 0 1 v2
0 av1 1 + av1 v2 0 av1 1 + av1 v2


1 0 0 1 0 0
F3 F3 av1 F2 F2 F2 v2 F3
0 1 v2 0 1 0
0 0 1 0 0 1

Escribiendo las operaciones elementales anteriores, tenemos

A = T13 (v1 )T23 (v2 )T31 (av2 )T32 (av1 )T13 (v1 )T23 (v2 )T31 (av2 )T32 (av1 ).

En general, para i < j arbitrarios


v1
..  
B = E + a . 0, . . . , vj , 0, . . . , vi , 0, . . . , 0
vn
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 129

donde vj ocurre en la i-esima posicion y vi en la j-esima posicion. Entonces,



1 ... av1 vj . . . av1 vi . . . 0
.. .. ..
. . . 0


1 + avi vj avi2


B=
.
. .
.

. .


avj2 1 avi vj


.
.. .
..


avn vj avn vi 1

1 ... 0 ... 0 ... 0
.. .. ..
. . . 0


1 + avi vj avi2



= .
. .
.
Y
Tli (avl vj )Tlj (avl vi )
. .

2

avj 1 avi vj 1ln
l6=i,j

.
.. .
..


0 0 1
= Tit (vi )Tjt (vj )Tti (avj )Ttj (avi )Tit (vi )Tjt (vj )Tti (avj )Ttj (avi )
Y
Tli (avl vj )Tlj (avl vi ),
1ln
l6=i,j

donde t es cualquier ndice que cumpla t {1, . . . , n} {i, j}.

Definicion 5.3.3. Sean R un anillo conmutativo y n 1; v = [v1 , , vn ]T Rn


es un vector columna unimodular si sus componentes generan a R, es decir,
existen u1 , . . . , un tales que v1 u1 + + vn un = 1. Un vector fila unimodular se
define de manera similar.

Lema 5.3.4. Sean R un anillo conmutativo y A GLn (R), con n 3. Sup ongase
que A se puede escribir en la forma A = E+vw, con v un vector columna unimodular
y w un vector fila sobre R tales que wv = 0. Entonces, A En (R).

Demostracion. Sea v := [v1 vn ]T unimodular, existen g1 , . . . , gn R tales que


v1 g1 + + vn gn = 1; esto combinado con wv = w1 v1 + + wn vn = 0 proporciona
una nueva expresion para w,
X
w= aij (vj ei vi ej ),
i<j
130 CAPITULO 5. GRUPOS DE MATRICES

donde aij := wi gj wj gi . Luego,


X
A := E + vw = E + v( aij (vj ei vi ej ))
i<j
X
=E+ vaij (vj ei vi ej )
i<j
Y
= (E + vaij (vj ei vi ej )).
i<j

Cada factor del lado derecho de la u


ltima ecuacion en una matriz de Cohn, luego se
pueden escribir como un producto de matrices elementales, con lo cual A tambien
es un producto de matrices elementales.
Lema 5.3.5. Sean R un anillo conmutativo y n 3. BTij (a)B 1 En (R), para
cada a R y B GLn (R).
Demostracion. Para una matriz A, denotemos por A(i) su fila i y por A(j) su columna
j, entonces

BTij (a)B 1 = E + B (i) a(B 1 )(j) .

Sea v := B (i) y w := a(B 1 )(j) , entonces (B 1 )(i) v = 1, luego v es unimodular,


ademas wv = 0 ya que i 6= j. Por lo tanto, BTij (a)B 1 = E + vw satisface la
condicion del lema 5.3.4, as que se puede escribir como un producto de matrices
elementales.
Teorema 5.3.6 (Teorema de normalizaci on de Suslin). Sea R un anillo con-
mutativo. Para n 3, En (R)  GLn (R). En particular, En (R)  SLn (R).
Demostracion. Sea A GLn (R) y F En (R). Entonces el lemma 5.3.5 da un
procedimiento para encontrar matrices propiamente elementales T1 , . . . , Tt tales que
AF A1 = T1 Tt .
Estudiaremos ahora la segunda pregunta planteada al inicio de la presente sec-
cion. Desafortunadamente existen anillos conmutativos en los que En (R) 6= SLn (R).
En [10] se prueba que si K un cuerpo, la matriz
 
1 + xy x2
A := SL2 (K[x, y])
y 2 1 xy

no se puede factorizar como un producto de matrices elementales (vease tambien


[11]). No obstante, existen diversos anillos conmutativos en los que la igualdad se
tiene, por ejemplo en el anillo de funciones reales continuas; en los dominios eucli-
dianos (por ejemplo Z y los polinomios K[x] sobre un cuerpo K); en los anillos con
rango estable uno (anillos locales y semilocales).
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 131

A continuacion se presenta detalladamente la demostracion de la igualdad en los


dos u
ltimos casos mencionados. Cabe anotar que dichas demostraciones son cons-
tructivas. Iniciamos con la siguiente proposicion de caracter general.
Proposicion 5.3.7. Sea A un anillo arbitrario y n 2. Si toda matriz de GLn (A)
se puede expresar como producto de matrices elementales y diagonales, entonces
GLn (A) = En (A)GLn1 (A). Si adem as A = R es conmutativo, entonces En (R) =
SLn (R).
Observaci on 5.3.8. Aqu se considera
 GL
 n1 (A) como un subgrupo de GLn (A)
1 0
mediante la inclusion natural M 7 .
0 M
Demostracion. (i) Claramente En (A)GLn1 (A) GLn (A). Sea pues M GLn (A);
por hipotesis M se puede expresar como producto de matrices elementales Tij (a),
i 6= j, a A, y diagonales Di (u), u A . En virtud de 5.2.2 (v), las matrices
diagonales se pueden conmutar hacia la derecha obteniendo M = T 1 D, donde T1 es
d1 0
un producto de elementales y D de diagonales. Pero entonces D =
. .. =

0 dn

diag(d1 , . . . , dn ), donde cada di A , 1 i n. Sea u A y consideremos las
siguientes operaciones sobre filas y columnas:
 1  T21 (1)  u1 0  T12 (1)  0 u  T21 (1)  0 u 
0 u u1 u u1 u u1 0
u 0

T12 (u)  1 u
1 0T12 (u)  
u1 0

u1 1 .
u1 0 T21 (1)T12 (1)T21 (1)T12 (u)T21 (u1 )T12 (u)
 
As, 0 u = y, por lo tanto,
diag(d1
1 , d1 , 1, . . . , 1) = T2

es producto de elementales. Pero diag(d1 1 , d1 , 1, . . . , 1)D = diag(1, d1 d2 , d3 . . . , dn ),


luego D = T21 diag(1, d1 d2 , d3 , . . . , dn ); en consecuencia,
M = T1 D = T1 T21 diag(1, d1 d2 , d3 , . . . , dn ) = T3 diag(1, d1 d2 , . . . , dn )
con T3 = T1 T21 En (A) y diag(1, d1 d2 , d3 , . . . , dn ) GLn1 (A) (con inversa
diag(1, d1 1 1 1
2 d1 , d3 , . . . , dn )). Tenemos entonces que GLn (A) En (A)GLn1 (A).
(ii) Sea ahora R un anillo conmutativo; tenemos que GLn (R) = En (R)GLn1 (R)
(explcitamente, notemos que diag(1, (d1 d2 )1 , d1 d2 , 1, . . . , 1) es producto de elemen-
tales hasta obtener M = T 0 diag(1, 1, . . . , 1, d1 d2 dn )). Sea N SLn (R), entonces
N GLn (R) = En (R)GLn1 (R), es decir, N = T diag(1, 1, . . . , 1, u) = T Dn (u) con
u R y T En (R). De este modo det(N ) = u, y como N SLn (R), necesari-
amente u = 1, Dn (u) = E y N = T es producto de elementales. Por lo tanto,
En (R) = SLn (R).
132 CAPITULO 5. GRUPOS DE MATRICES

Lema 5.3.9. Sea R un dominio


 on euclidiana y sea n
euclidiano con funci
n
2. Si := a1 a2 an R , entonces existe T En (R) tal que T =
a 0 0 para cierto a R.
Demostracion. Si = 0, basta tomar a = 0 y T = E. Supongase 6= 0; entonces
{(ak ) | ak 6= 0} es un subconjunto no vaco de N. Sea m() := mn{(ak ) | ak 6= 0}
y sea i el menor de los ndices tales que m() = (ai ). Si j 6= i es tal que aj 6= 0, exis-
ten qj , rj R tales que aj = ai qj +rj ,donde
 rj = 0 o (rj ) < (ai ). As, T
 ij (qj ) =
a1 ai aj ai qj an = a1 ai rj an . Repitien-
do esta operacion para cada j 6= i con aj 6= 0 se obtiene 0 := T1 = a01 a0n
donde a0i = ai , y para j 6= i, a0j = aj si aj = 0 y a0j = rj si aj 6= 0. Si a0j = 0 para
0
 0 
cada j 6= i, hemos terminado: en efecto, si i = 1, T 1 = = a 1 0 0 ; si
i 6= 1 tenemos 0 Ti1 (1)T1i (1) = a0i 0 0 = T1 Ti1 (1)T1i (1). Ahora, si para


algun j 6= i se tiene a0j 6= 0, entonces m(0 ) (a0j ) = (rj ) < (ai ), de donde resulta
m(0 ) < m(). En consecuencia, si el proceso se repite con 0 , en un n umero finito
de pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultado
buscado.
Proposicion 5.3.10. Si R es un dominio euclidiano y n 2, toda matriz de
GLn (R) se puede expresar como producto de matrices elementales y diagonales.
Demostracion. (i) Sea M GLn (R), n 2. Por el lema 5.3.9, existe T En (R) tal
que
m 0 0
m2
M T = .. ,

. M
f
mn
f Mn1 (R). Pero M es invertible, luego det(M ) R y como det(M ) =
donde M
det(M T ) = m det(Mf), se tiene que m, det(M f) R y por tanto, M
f GLn1 (R).
As,
1 0 0
m2
1
M T D1 (m ) = ..


. Mf
mn
y,
1 0 0
0
1
Tn1 (mn ) T21 (m2 )M T D1 (m ) = .. .

. M
f
0
(ii) Probaremos ahora la afirmacion por induccion sobre n.
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 133

 
1 1 0
(a) Si n = 2, por (i) se tiene T21 (m2 )M T D1 (m ) = = D2 (m),
e dado que
0 me
m
e = det(M f) R , y entonces M = T21 (m2 )D2 (m)D
e 1 (m)T 1 es un producto
de matrices elementales y diagonales.
(b) Supongase que la afirmacion es valida para n = k 1, k 3, y sea M
GLk (R). Nuevamente por (i),
 
1 0 1
M = T21 (m2 ) Tk1,1 (mk1 ) f D1 (m)T ,
0 M

con Mf GLk1 (R). Por hipotesis de induccion, M


f se puede expresar como
producto de matrices elementales y diagonales de orden k 1; pero dichas
matrices pueden considerarse como elementales y diagonales de orden k y de
ello se sigue la afirmacion.

Corolario 5.3.11. Si R es un dominio euclidiano y n 2, entonces En (R) =


SLn (R).
Demostracion. Consecuencia directa de las proposiciones 5.3.10 y 5.3.7.
Definici
on 5.3.12. Sea A un anillo. Se dice que A tiene rango estable uno si
para cada a, b A tales que ha, bi = A existe c A tal que a + cb A .
Proposicion 5.3.13. Si A es un anillo con rango estable uno, toda matriz de
GLn (A), n 2, se puede expresar como producto de matrices elementales y dia-
gonales.
Demostracion. (i) Sea M := [mij ] GLn (A), n 2. Como M 1 M = E, existen
r1 , . . . , rn A tales que r1 m11 + + rn mn1 = 1; as, para cada a A tenemos a =
(ar1 )m11 +a(r2 m21 + +rn mn1 ), es decir, A = hm11 , r2 m21 + +rn mn1 i. Dado que
A tiene rango estable uno, existe c A tal que u := m11 +c(r2 m21 + +rn mn1 ) A .
Ahora,

u m012 m01n
m21 m22 m2n
M1 := T12 (cr2 )T13 (cr3 ) T1n (crn )M = .. .. ;

.. ..
. . . .
mn1 mn2 mnn
pero u A , luego

u m012 m01n
0 m0 m0
1 1 1 22 2n
M2 := Tn1 (mn1 u ) T31 (m31 u )T21 (m21 u )M1 = .. .. ,

.. ..
. . . .
0 mn2 m0nn
0
134 CAPITULO 5. GRUPOS DE MATRICES

y,

M3 : = M2 T12 (m012 u1 )T13 (m013 u1 ) T1n (m01n u1 )M



u 0 0
0 m0 m0 1 0 
22 2n
= .. .. = f D1 (u),

.. ..
. . . . 0 M
0 m0n2 m0nn
 
f Mn1 (A). De este modo obtenemos M = T1 1 0
donde M f D1 (u)T2 con
0 M

T1 := T1n (crn ) T12 (cr2 )T21 (m21 u1 ) Tn1 (mn1 u1 ) En (A)

y,
T2 := T1n (m01n u1 ) T12 (m012 u1 ) En (A).
 
1 0
Como M, T1 , D1 (u) y T2 son elementos de GLn (A), necesariamente f es in-
0 M
vertible y por lo tanto Mf GLn1 (A).
(ii) Demostraremos ahora la afirmacion haciendo induccion sobre n.
 0
(a) Si n = 2, por (i) se tiene M = T1 10 m
e D1 (u)T2 = T1 D2 (m)D
e 1 (u)T2 , dado que

me A .

(b) Supongase el resultado


 alido para n = k 1, k 3, y sea M GLk (A).
v
1 0
Por (i), M = T1 f D1 (u)T2 , donde M GLk1 (A); por hipotesis de
f
0 M
f es producto de matrices elementales y diagonales de orden k
induccion, M
1 que pueden considerarse de orden k; en consecuencia, M es producto de
matrices elementales y diagonales.

Corolario 5.3.14 (Teorema de estabilidad de Suslin). Si R es un anillo con-


mutativo con rango estable uno y n 2, entonces En (R) = SLn (R).

Demostracion. Consecuencia directa de las proposiciones 5.3.13 y 5.3.7.

5.4. Grupos cl
asicos sobre anillos
A continuacion se definen los anillos con involucion, insumo importante para intro-
ducir los grupos clasicos sobre anillos.

5.4. GRUPOS CLASICOS SOBRE ANILLOS 135

Definicion 5.4.1. Sea A un anillo. Una involuci on : A A


on en A es una funci
que satisface

(i) (a + b) = a + b

(ii) (ab) = b a

(iii) (a ) = a

para cada a, b A.

Los ejemplos mas conocidos de involuciones son la trasposicion en Mn (A) y la


conjugacion en C.

Proposici on 5.4.2. La funcion identidad es una involuci


on en A si, y s
olo si, A
es un anillo conmutativo.

Demostracion. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y solo si,
A es conmutativo.

on 5.4.3. Sea una involuci


Proposici on en el anillo A.

(i) 0 = 0 y 1 = 1.

(ii) Para cada a A, (a) = a ; y si a A , (a1 ) = (a )1 .

(iii) Si a = a, entonces (a) = a; y si a A , (a1 ) = a1 .

(iv) Si a Z(A), tambien a Z(A).

Demostracion. (i) 0 = (0 + 0) = 0 + 0 , luego 0 = 0. Por otro lado, 1 1 =


1 (1 ) = (1 1) = (1 ) = 1 de donde 1 = 1.
(ii) (a) + a = (a + a) = 0 = 0, luego (a) = a . Analogamente,
(a1 ) a = (aa1 ) = 1 = 1 y a (a1 ) = (a1 a) = 1 = 1, de manera que a A
con inverso (a1 ) .
un (ii), (a) = a y (a1 ) = (a )1 .
(iii) Seg
(iv) Sea b A; entonces a b = a (b ) = (b a) = (ab ) = (b ) a = ba , luego

a Z(A).

Definicion 5.4.4. Sean A un anillo y una involuci


on en A. Dada una matriz
F := [fij ] Mmn (A), la matriz trasjugada de F respecto a es F := [fji ]
Mnm (A).

Es decir, F se obtiene de F trasponiendo la matriz de imagenes por . Notese


que si es la identidad (A conmutativo), se tiene F = F T .
136 CAPITULO 5. GRUPOS DE MATRICES

Proposici on 5.4.5. Sea una involucion en el anillo A. Si F := [fij ] Mlm (A),


G := [gij ] Mnp (A) y a A, entonces

(i) (F + G) = F + G siempre que l = n y m = p.

(ii) (GF ) = G F siempre que m = n.

(iii) (F ) = F .

(iv) (a F ) = F a .

(v) (F 1 ) = (F )1 siempre que l = m y F sea invertible.

Demostracion. (i) Evidente. Pn


(ii) Sea FP G := [bij ], entonces bij = k=1 fik gkj , y la entrada (i, j) de (F G) es
n
P n
(bji ) = ( k=1 fjk gki ) = k=1 gki fjk . Por otro lado, si G = [cij ] yP F = dij (de
n
manera
Pn que c ij = gji y d ij = f ji ), entonces la entrada (i, j) de G F es k=1 cik dkj =

k=1 gki fjk y as (F G) = G F .
(iii) Evidente.
(iv) La entrada (i, j) de (a F ) es (afji ) = fji a que es la entrada (i, j) de
F a .
(v) F (F 1 ) = (F 1 F ) = E = E. Analogamente, (F 1 ) F = (F F 1 ) =
E = E, de modo que F es invertible con inversa (F )1 = (F 1 ) .

Definicion 5.4.6. Sea A un anillo con unidad, una involuci


on en A y Z(A)

tal que = 1.

(i) F Mn (A) es alternada si existe F1 Mn (A) tal que F = F1 F1

(ii) F Mn (A) es hermitiana si F = F .

(iii) F Mn (A) es antihermitiana si F = F .

La alternancia depende de y de la involucion; notese que por lo menos = 1 y


= 1 satisfacen = 1. Por otra parte, si es la identidad (A conmutativo), las
matrices hermitianas se denominan simetricas y las antihermitianas, antisimetricas.

Proposici
on 5.4.7. Si F es alternada, entonces F es antihermitiana.

Demostracion. Como F alternada, sea F = F1 F1 ; entonces F = (F1


F1 ) = (F1 F1 ) = (F1 F1 ) = F1 + F1 = F1 F1 = F .
As, F = F y F es antihermitiana.

Proposici
on 5.4.8. Sea A un anillo tal que 2A = A.

(i) F Mn (A) es alternada si, y s


olo si, es antihermitiana.

5.4. GRUPOS CLASICOS SOBRE ANILLOS 137

(ii) Si F Mn (A) es hermitiana y antihermitiana, entonces F = 0.


Demostracion. 2A = A significa que 1 + 1 A , es decir, que si a A es tal que
a + a = 0 entonces a = 0.
(i) Si F es alternada, es antihermitiana por la proposicion anterior. Supongase
que F es antihermitiana, entonces (1 + 1) F = F + F = F F . Si 2 = 1 + 1,
2 = (1 + 1) = 1 + 1 = 1 + 1 = 2; por hipotesis 2 A , luego (21 ) = 21
y as F = 21 [(1 + 1) F ] = 21 (F F ) = (21 F ) (21 F ) =
(21 F ) (F 21 ) = (21 F ) (21 F ) ya que 21 Z(A). Como
F = (21 F ) (21 F ) , entonces F es alternada.
(ii) Dado que F es antihermitiana, F = F ; pero tambien es hermitiana,
luego F = F , de donde F = F , F +F = 0, y de 2A = A se sigue que F = 0.
Proposici on 5.4.9. Si es la identidad (A conmutativo) y = 1, F es alternada
olo si, XF X T = 0 para cada matriz fila X M1n (A).
si, y s
Demostracion. ): Sea F alternada con F = F1 F1T ; entonces, XF X T = X(F1
F1T )X T = XF1 X T XF1T X T = XF1 X T (XF1 X T )T , pero XF1 X T M1 (A) es
igual a su traspuesta luego XF X T = 0.
): Sea F := [fij ] Mn (A) tal que XF X T = 0 para cada X M1n (A). Sea Xi
la matriz fila con 1 en la entrada i-esima y 0 en las demas; entonces Xi F XiT = fii = 0
para 1 i n. Para i 6= j, sea Xij la matriz fila con 1 en las entradas i, j y 0
en las restantes; tenemos Xij F XijT = fij + fii + fji + fjj = fij + fji y fji = fij
(1 i 6= j n), de manera que F es antisimetrica. Finalmente, F1 := [bij ] se define
de la siguiente forma: bij := 0 para i j y bij := fij para i > j; as, F = F1 F1T
ya que F1 es la mitad inferior de F , y de esta manera F es alternada.
on 5.4.10. Sean una involuci
Proposici on en A y F Mn (A), entonces
(i) {M GLn (A) | M F M = F } es un subgrupo de GLn (A).

(ii) {M GLn (A) | rM Z(A) , M F M = rM F } es un subgrupo de GLn (A).


Demostracion. (i) Como E = E GLn (A) y E F E = EF E = E, el conjunto no
es vaco. Si M, N satisfacen M F M = F y N F N = F entonces
(M N ) F (M N ) = N (M F M )N = N F N = F ,
(M 1 ) F M 1 = (M 1 ) (M F M )M 1 = (M M 1 ) F (M M 1 ) = E F E = F ,
por lo tanto el conjunto resulta ser un subgrupo de GLn (A).
(ii) E pertenece al conjunto, considerando en este caso rE = 1. Si M, N son
tales que M F M = rM F y N F N = rN F con rM , rN elementos invertibles
del centro de A, entonces (M N ) F (M N ) = N (M F M )N = N (rM F )N =
rM N F N = rM (rN F ) = rM rN F con rM rN Z(A) , y (M 1 ) F M 1 =
1 1 1 1
(M 1 ) [rM M F M ]M 1 = rM (M 1 ) M F M M 1 = rM F con rM Z(A) .
138 CAPITULO 5. GRUPOS DE MATRICES

on 5.4.11. Sean una involuci


Definici on en A y F Mn (A).
(i) El grupo unitario correspondiente a F es

U (F ) := {M GLn (A) | M F M = F }.

(ii) El grupo de similitudes correspondiente a F es

GU (F ) := {M GLn (A) | (rM Z(A) , M F M = rM F };

rM se denomina multiplicador de M GU (F ).
Por consiguiente, U (F ) es el subgrupo de GU (F ) constituido por las matrices de
multiplicador 1.
Proposici on en A, Z(A) tal que = 1 y
on 5.4.12. Sea una involuci
Q Mn (A). Entonces X := {M GLn (A) | M QM Q es alternada } es un
subgrupo de GLn (A).
Demostracion. Como la matriz nula es alternada (0 = 0 0 ) E X y X 6= .
Si M, N X, entonces M QM Q = M1 M1 y N QN Q = N1 N1
para ciertas M1 , N1 Mn (A). Ahora, (M N ) Q(M N ) Q = N (M QM )N Q =
N (Q + M1 M1 )N Q = N QN Q + N (M1 M1 )N = N1
N1 + N M1 N N M1 N = (N1 + N M1 N ) (N1 + N M1 N ) es alternada, de
modo que M N X. Por otro lado, QM (M 1 ) Q = (M 1 ) M1 (M 1 ) M1 ,
luego Q (M 1 ) QM 1 = (M 1 ) M1 M 1 (M 1 ) M1 M 1 , y en consecuencia
(M 1 ) QM 1 Q = [(M 1 ) M1 M 1 ][(M 1 ) M1 M 1 ] , luego M 1 X.
on en A, Z(A) tal que = 1. Si
on 5.4.13. Sea una involuci
Definici
Q Mn (A), el grupo ortogonal correspondiente a Q es
O(Q) := {M GLn (A) | M QM Q es alternada }.
En el caso particular de los anillos conmutativos se tienen otros dos grupos
clasicos.
on 5.4.14. Sean R un anillo conmutativo y una involuci
Definici on en R.
(i) Sea F Mn (R). El grupo unitario especial correspondiente a F es

SU (F ) := U (F ) SLn (R).

(ii) Sea Q Mn (R). El grupo ortogonal especial correspondiente a Q es

SO(Q) := O(Q) SLn (R).


5.5. EJERCICIOS 139

Proposici
on 5.4.15. En las condiciones de la anterior definici
on se tiene:

(i) SU (F )  U (F ).

(ii) SO(Q)  O(Q).

Demostracion. Sean M SU (F ) (respectivamente SO(Q)) y N U (F ) (respecti-


vamente O(Q)); entonces det(N 1 M N ) = det(M ) = 1.

Para terminar veamos que los grupos clasicos introducidos en esta seccion corres-
ponden a aquellos que vimos para cuerpos al principio del captulo. Sea K un cuerpo,
para los grupos ortogonales se toma la identidad como involucion y Q simetrica,
de manera que para cada matriz M se tiene que M = M T y si M O(Q),
entonces (M T QM Q)T = M T QT M QT = M T QM Q, es decir, M T QM Q
es simetrica, pero por definicion de O(Q) esta matriz tambien es alternada, por lo
tanto antisimetrica. En consecuencia, si 1 + 1 6= 0 en K, se tiene M T QM Q = 0
(proposicion 5.4.8) luego O(Q) = {M GLn (K)|M T QM = Q} = U (Q), y este
grupo coincide con el grupo ortogonal definido para cuerpos. Si ademas se toma
Q invertible, det(M ) = 1 y SU (Q) es el subgrupo de matrices de determinante
positivo, de ah que en algunas ocasiones se utilice la notacion U + (Q). Si F es
antihermitiana (antisimetrica), entonces el grupo U (F ) es el grupo grupo simplicial.
El grupo de similitudes es entonces

GU (F ) = {M GLn (K) | rM K, M F M = rM F }.

En el caso particular K = R, tomando la identidad como involucion, y dado que E


es simetrica, tenemos que O(E) = U (E) = {M Mn (R) | M T M = E} = On (R)
que es el grupo ortogonal tradicional; el grupo unitario tradicional resulta al
tomar K = C, F = E y la conjugacion como involucion, pues entonces U (E) =
{M Mn (C)|M M = E} = Un (C).

5.5. Ejercicios
1. Demuestre que existe al menos una matriz propiamente elemental de SL2 (Z3 )
que no pertenece a [SL2 (Z3 ), SL2 (Z3 )].

2. Calcule el numero de formas bilineales simetricas no degeneradas sobre el


espacio vectorial Z22 .

3. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma
bilineal simetrica sobre V . Demuestre que existe una base X en V tal que
mX (f ) es diagonal.
140 CAPITULO 5. GRUPOS DE MATRICES

4. Si dimC V = n y f es una forma bilineal simetrica sobre V con rank(f ) = r,


entonces existe una base ordenada X = {v1 , . . . vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 i r, f (vi , vi ) = 0 para i > r.

5. Si dimR V = n y f una forma bilineal simetrica sobre V con rank(f ) = r.


Entonces, existe una base ordenada X = {v1 , v2 , ..., vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 i r, y f (vi , vi ) = 0 para i > r.
(c) El n
umero de vectores de la base X para los cuales en (b) se da el signo
positivo es independiente de dicha base.

6. Sea dimK V = n y f una forma bilineal antisimetrica sobre el cuerpo K,


donde char(K) 6= 2. Demuestre que existe una base ordenada X en V tal que
la matriz de f es suma directa de la matriz nula de orden (n 2k) y k matrices
22 de la forma  
0 1
.
1 0

7. Formas sobre espacios no necesariamente libres. Sean A un anillo y


V un A-espacio (A-modulo, vease [6]); sea una involucion en A y Z(A)
es tal que = 1.

a) Una forma sesquilineal en V es una funcion F : V V A que


satisface:
(i) F (u1 + u2 , v) = F (u1 , v) + F (u2 , v), F (u a, v) = a F (u, v);
(ii) F (u, v1 + v2 ) = F (u, v1 ) + F (u, v2 ), F (u, v a) = F (u, v)a,
para cada u, u1 , u2 , v, v1 , v2 V y cada a A.
Demuestre que si F y G son formas sesquilineales en V , la funcion F + G
definida por (F + G)(u, v) = F (u, v) + G(u, v), para todo u, v V , es
una forma sesquilineal en V .
b) Demuestre que el conjunto de las formas sesquilineales en V es un grupo
abeliano con la adicion definida como antes.
c) Si A es conmutativo, el conjunto de las formas sesquilineales en V es una
A-espacio.
d ) Sea es un subgrupo aditivo del anillo A que satisface:
(i) Para cada y a A, se tiene a a .
(ii) := {a a | a A} esta contenido en : .
5.5. EJERCICIOS 141

(iii) := {a A | a = a } contiene a : .
Demuestre que y son subgrupos aditivos de A que a su vez satisfacen
(i), (ii) y (iii).
e) Sea como antes. Demuestre que:
(i) Si = 0 entonces A es conmutativo, es la identidad y = 1.
(ii) Si 2A = A es conmutativo, es la identidad y = 1, entonces
= = 0.
(iii) Si = A entonces A es conmutativo, es la identidad y = 1.
(iv) Si 2A = A entonces = = .
f ) Sea F una forma sesquilineal en V .
(i) F es hermitiana si F (u, v) = F (v, u) para cada u, v V .
(ii) F es antihermitiana si F (u, v) = F (v, u) para cada u, v V .
(iii) F es -alternada si satisface:
(i) F (v, v) para cada v V .
(ii) F es antihermitiana.
Si = , demuestre que una forma sesquilineal es -alternada si, y
solo si, es antihermitiana. Ademas, pruebe que esto ocurre en particular
cuando 2A = A, pues en tal caso el u nico subgrupo es = .
g) F una forma sesquilineal en V . Demuestre que:
(i) Si F se puede expresar como F (u, v) = F1 (u, v) + F1 (v, u), para
cada u, v V , siendo F1 una forma sesquilineal en V , entonces F es
-alternada.
(ii) Cuando 2A = A, el recproco de (i) es cierto.
h) Demuestre que el conjunto F de las formas -alternadas es un subgrupo
normal del grupo de formas sesquilineales.
8. Formas cuadr aticas sobre espacios no necesariamente libres. Sean
A un anillo y V un A-espacio (A-modulo, vease [6]); sea una involucion en
A y Z(A) es tal que = 1. Dada una forma sesquilineal F en V , la
forma cuadr atica correspondiente a F es la clase q := F + F . Es decir, si
Q es una forma sesquilineal, entonces Q q si, y solo si, Q F es una forma
-alternada. Notese que q depende de A, , , y F .
Sea q una forma cuadratica y Q q.
(i) La distancia seg
un q es la funcion
| |q : V A/
v 7 |v|q := Q(v, v) + .
142 CAPITULO 5. GRUPOS DE MATRICES

(ii) El producto escalar seg


un q es la funcion

(, )q : V V A
(u, v) 7 (u, v)q := Q(u, v) + Q (v, u).

a) Demuestre que la distancia y el producto escalar no dependen de la forma


Q q elegida.
b) Sea q una forma cuadratica. Demuestre que:
(i) El producto escalar segun q es una forma sesquilineal hermitiana.
(ii) Para cada v V , (v, v)q = a + a con a |v|q arbitrario.
(iii) Para cada u, v V , |u + v|q = |u|q + |v|q + (u, v)q .
(iv) Para cada b A, v V se tiene |v b|q = b ab + , con a |v|q
arbitrario.
c) Sea q una forma cuadratica. Demuestre que:
(i) La distancia y el producto escalar determinan unvocamente a q.
(ii) Si = , el producto escalar determina unvocamente a q.
(iii) Si no contiene ideales bilateros no nulos de A, la distancia deter-
mina unvocamente a q.
( Siempre que se pueda tomar = , y cuando 2A = A, esta es la u nica
opcion que se tiene. Por otro lado, la condicion en (iii) significa que si I
es un ideal bilatero de A e I , entonces I = 0. Un ejemplo se tiene
cuando = 0).

9. Grupos cl asicos sobre espacios no necesariamente libres. Sean A un


anillo y V un A-espacio (A-modulo, vease [6]); sea una involucion en A y
Z(A) es tal que = 1.
a) Sea F una forma sesquilineal hermitiana o antihermitiana en V . De-
muestre que el conjunto

X := { AutA (V ) | F ((u), (v)) = F (u, v) para cada u, v V }

es un subgrupo de AutA (V ).
b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupo
unitario correspondiente a F es

U (F ) := { AutA (V ) | F ((u), (v)) = F (u, v) para cada u, v V }.

Si Q es una forma sesquilineal en V y AutA (V ), demuestre que la


funcion RQ definida como RQ (u, v) = Q((u), (v)), para cada u, v V ,
es una forma sesquilineal en V .
5.5. EJERCICIOS 143

c) Sea q una forma cuadratica.


(i) AutA (V ) preserva q, si para cada Q q, la forma sesquilineal
RQ Q es -alternada.
(ii) AutA (V ) preserva la distancia | |q si |(v)|q = |v|q para cada
v V.
(iii) AutA (V ) preserva el producto escalar (, )q si ((u), (v))q =
(u, v)q para cada u, v V .
As pues, preserva q si la forma sesquilineal definida por Q((u), (v))
Q(u, v) es -alternada. Como la distancia y el producto escalar determi-
nan q y recprocamente, demuestre que: AutA (V ) preserva q si, y solo
si, preserva la distancia | |q y el producto escalar (, )q .
d ) Sea q una forma cuadratica. Demuestre que el conjunto O(q) := {
AutA (V ) | preserva q} es un subgrupo de AutA (V ) y se denomina el
grupo ortogonal correspondiente a q.
e) Sea q una forma cuadratica y F la forma sesquilineal hermitiana F = (, )q .
Demuestre que
(i) O(q) U (F ).
(ii) Cuando = , O(q) = U (F ).
f ) Cuando = A, o cuando = 0 y 2A = A, demuestre qu O(q) = U (F ).
Bibliografa

[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. v, 19,
38, 39

[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17

[3] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, 1985, 194-220.

[4] Lezama, O., Cuadernos de Algebra, No. 1: Grupos, SAC2 , Departamen-
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
sites.google.com/a/unal.edu.co/sac2 10, 17, 22, 109, 115, 116, 117

[5] Lezama, O., Cuadernos de Algebra, No. 2: Anillos, SAC2 , Departamen-
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
sites.google.com/a/unal.edu.co/sac2 v, 1, 3, 10, 14, 37, 41, 70, 114

[6] Lezama, O., Cuadernos de Algebra, odulos, SAC2 , Departamen-
No. 3: M
to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
sites.google.com/a/unal.edu.co/sac2 v, 1, 4, 5, 6, 7, 10, 12, 16, 17, 50,
68, 77, 83, 88, 140, 141, 142

[7] Lezama, O & Villamarn G., Anillos, M


odulos y Categoras, Universidad
Nacional de Colombia, 1994. iv, 3, 5

[8] Lang S., Algebra, Springer, 2002. iv, 3, 22

[9] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker, 1984.
v

[10] Park, H. and Woodburn, C., An algorithmic proof of Suslins stability the-
orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 127, 130

[11] Pinto, M., Una Prueba Algortmica para el Teorema de Estabilidad de Suslin
sobre Dominios de Dedekind, Tesis de Maestra, Universidad Nacional de Colom-
bia, Bogota, 2009. 127, 130

144
BIBLIOGRAFIA 145

[12] Suslin. A, On the structure of the special linear group over polynomial rings,
Math. USSR Izv., 11, 1977, 221 238. 33, 127
Indice alfab
etico

A conjunto minimal de generadores, 35


algebra(s) coordenadas de un tensor, 61
exterior, 71 cuerpo, 3
isomorfas, 10
sobre un anillo, 7 D
conmutativa, 8 determinante
tensorial, 69 de una matriz, 23
anillo(s), 2 de una transformacion lineal, 27
anti-isomorfos, 12 dimension de un espacio vectorial, 17
de division, 3 divisor de cero, 41
de rango estable uno, 132 divisores elementales
dimensional, 17 de una matriz, 87
isomorfos, 10 de una transformacion lineal, 85
automorfismo que preserva
una forma cuadratica, 142 E
la distancia, 142 elemento(s)
el producto escalar, 142 neutro, 2
ortogonales, 120
B entradas de una matriz, 8
base dual, 58 espacio
bloque dual, 58
elemental de Jordan de orden k propio correspondiente a un valor
1 perteneciente a un elemento, propio, 99
92 espacio(s) vectorial(es), 4
de Jordan perteneciente a un ele- dimensional, 17
mento, 93 isomorfos, 7
n-espacio vectorial canonico sobre
C un anillo, 5
ciclo(s), 22 proyectivo, 75
disyuntos, 22
trasposicion, 22 F
coeficientes de un sistema, 36 factores invariantes
complemento algebraico, 32 de una matriz, 89
componentes de una matriz, 8 de una transformacion lineal, 89

146
INDICE ALFABETICO
147

forma elemental
bilineal, 120 de orden n 1 sobre un anillo,
simetrica, 120 18
antisimetrica, 120 de orden n 1 sobre un cuerpo,
alternada, 120 110
no degenerada, 120 especial lineal
canonica de Frobenius, 88 de dimension n 1 sobre R, 33
hermitiana, 124 de orden n 1 sobre un cuerpo,
sesquilineal, 123 109
formas cuadraticas sobre espacios no lineal general
necesariamente libres, 141 de orden 2 sobre R, 4
distancia, 141 de orden n 1 sobre un anillo,
forma cuadratica, 141 13
producto escalar, 141 de orden n 1 sobre un cuerpo,
formas sobre espacios no necesariamente 109
libres, 139 sobre un anillo, 7
antihermitiana, 140 sobre un cuerpo, 109
hermitiana, 140 ortogonal, 122
-alternada, 140 correspondiente a una matriz, 138
sesquilineal, 139 de orden n 1 sobre un cuerpo,
formula de Cauchy-Binet, 29 122
funcion especial correspondiente a una ma-
alternada, 28 triz, 138
antisimetrica, 28 subgrupo de rotaciones, 122
bilineal, 52 simetrico de grado n 1, 22
multilineal, 28, 58 simplicial, 122
unitario, 124
G correspondiente a una matriz, 137
grupo, 2 de orden n 1 sobre C, 124
abeliano, 2 especial correspondiente a una ma-
alterante de grado n 1, 23 triz, 138
de cuaterniones, 116 grupos clasicos, 121
de matrices sobre espacios no necesariamente
diagonales de orden n 1 sobre libres, 141
un cuerpo, 110 grupo ortogonal, 142
triangulares superiores de orden grupo unitario, 142
n 1 sobre un cuerpo, 110 grupos isomorfos, 10
unitriangulares superiores de or-
den n 1 sobre un cuerpo, 110 H
de similitudes correspondiente a una homomorfismo de espacios vectoriales,
matriz, 137 6
148 INDICE ALFABETICO

I semi-invertible, 13
ideal, 37 simetrica, 20
bilatero, 20 transpuesta, 8
derecho, 19 trasjugada, 124
k-esimo ideal determinante de una respecto a una involucion, 135
matriz, 37 unimodular, 43
indeterminadas matrices
libres, 48 elementales
principales, 48 propiamente elementales, 17
ndice de nilpotencia de una transfor- permutaciones, 18
macion lineal, 93 diagonales, 18
involucion, 134 equivalentes, 15
hermitianas, 124
M ortogonales, 122
matriz, 8 semi-equivalentes, 15
adjunta, 32 similares, 15
alternada, 135 unitarias, 124
ampliada, 36 menor de un elemento, 30
antihermitiana, 136 modulo, 4
antisimetrica, 20 monoide, 2
asociada a una transformacion lin- multiplicador de una matriz del grupo
eal, 11 de similitudes, 137
canonica clasica de una transfor-
O
macion lineal, 86
operacion binaria interna, 1
caracterstica, 79
operaciones elementales, 18
cofactor, 32
operador lineal, 6
compa nera, 81
cuadrada, 8 P
de cambio de base, 14 permutacion, 22
de Cohn, 127 par, 23
diagonal en bloques de Jordan, 93 producto
diagonalizable, 97 de matrices, 9
diagonalizable en bloques de Jor- exterior, 66
dan, 93 tensorial
hermitiana, 136 de algebras, 68
identica, 9 de espacios vectoriales, 52, 59
inversa, 13 de funciones multilineales, 63
invertible, 13 de matrices, 55
racional o de Frobenius, 89 de tensores, 63
racionalizable, 89 de transformaciones lineales, 54
semi-inversa, 13 polinomio
INDICE ALFABETICO
149

caracterstico transformacion lineal, 6


de una matriz, 79 definida por una matriz, 11
de una transformacion lineal, 79 diagonalizable, 97
mnimo diagonalizable en bloques de Jor-
de una matriz, 79 dan, 93
de una transformacion lineal, 78 nilpotente, 93
ortogonal, 122
R que preserva una forma bilineal, 120
raz cuadrada de una transformacion racionalizable, 89
lineal, 107 simplicial, 122
rango traza de una matriz, 21
de un conjunto finito de vectores,
47 V
de una matriz, 38, 47 valores propios
columna, 47 de una matriz, 100
fila, 47 de una transformacion lineal, 98
segun McCoy, 38 vector
regla de Cramer, 36 columna unimodular, 129
fila unimodular, 129
S vectores propios
semigrupo, 1 de una matriz, 101
sistema lineal de ecuaciones, 35 de una transformacion lineal, 98
compatible, 36
homogeneo, 36
incompatible, 36
indeterminado, 36
sistemas equivalentes, 36
solucion de un sistema lineal de ecua-
ciones, 36
subespacios T -invariantes, 80

T
tensor
alternado, 64
antisimetrico, 64
n-tensores, 61
simetrico, 64
teorema
de estabilidad de Suslin, 134
de Mennicke, 127
de normalizacion de Suslin, 129
termino independiente, 36