Вы находитесь на странице: 1из 137

República Bolivariana de Venezuela

Universidad Nacional Experimental Politécnica


“Antonio José de Sucre”
Vice-Rectorado Barquisimeto
Departamento de Estudios Generales y Básicos
Sección de Matemáticas

Apuntes de Álgebra Lineal

Autor: MSc. Campos S. Jorge F.


Barquisimeto, Diciembre 2017
Agradecimientos

Al Dios que habita en cada uno de nosotros y que es la fuente de todo conocimiento.
A mis padres, quienes me inculcaron los valores que me guı́an dı́a a dı́a, les agradezco las
profundas enseñanzas que me dieron y el rol tan importante que jugaron para mı́ en esta
vida.
A mi hermana Juanita, siempre tan consecuente y bondadosa conmigo.
A mi hermana Belkis, por su manera tan particular de demostrarme su amor.
A mis hermanos y hermanas, quienes siempre han estado presentes en mi vida, nombrarlos
a todos uno por uno me llevarı́a buena parte de los agradecimientos, sin embargo, todos ellos
son pilares en mi vida.
Al Supremo Creador A mis amigas, colegas y compañeras de trabajo, Marirosa Morello y Carolina Cárdenas,
Y A mis Padres quienes con su insistencia y paciencia fueron de gran ayuda para culminar este trabajo.
A mi amiga, colega y compañera de trabajo Blanca Peña quien, con sus conocimientos en
el área de Planificación, me ayudó de gran manera.
A mi amigo, colega y compañero de trabajo Ramón Vivas, por su apoyo en la elaboración
de este material.
A mi amiga y compañera de trabajo Yaritza Canelón, por siempre estar dispuesta a ayudar
en lo que pueda.
A todos mis amigos, compañeros de trabajo y colegas que de una u otra forma han sido
de ayuda.
A la UNEXPO, donde laboro, me he formado y me sigo formando profesionalmente.
A todos aquellos a quienes no nombro pero que han sido de gran ayuda, les pido disculpas
por la omisión.
A todos mis más sinceras gracias.

ii
Índice general

6. Transformaciones Lineales y Algunas Aplicaciones 172


6.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
6.2. Representación Matricial de una Transformación Lineal . . . . . . . . . . . . . 184
6.3. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . 190
6.4. Núcleo e Imagen de una Transformación Lineal . . . . . . . . . . . . . . . . . 198
Índice general 6.5. Algunas Aplicaciones de las Transformaciones Lineales . . . . . . . . . . . . . 203

Apéndices 209

A. Campos y Números Complejos 210


A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
Introducción 1
A.2. El Campo de los Números Complejos . . . . . . . . . . . . . . . . . . . . . . . 219
1. Matrices y Sistemas de Ecuaciones Lineales 3
B. Algo más sobre Espacios Vectoriales 226
1.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
1.1.1. Suma de Matrices y Multiplicación por Escalar . . . . . . . . . . . . . 8
B.2. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
1.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 B.3. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
1.1.3. Transposición o Trasposición de Matrices . . . . . . . . . . . . . . . . . 21 B.4. Bases para Espacios Vectoriales de Dimensión Infinita . . . . . . . . . . . . . . 232
1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 32 C. Algo más sobre Transformaciones Lineales 236
1.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . 41 C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . 236
C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . 241
2. Determinantes. Regla de Cramer 54
2.1. Determinantes y sus Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 54 D. Demostraciones de Algunos Teoremas 244
2.2. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.3. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . 76 Bibliografı́a 267

3. Espacios Vectoriales. Bases y Dimensión 83


3.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3. Combinación Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . 93
3.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . 100
3.5. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.6. Matriz de Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt 122


4.1. Espacios Reales con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . 122
4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt . . . . 126
4.3. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan 146


5.1. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . 146
5.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan . . . . 159

iii iv Jorge Campos


Introducción

interno, que a su vez nos permitirá el estudio de los espacios normados, junto con las impli-
caciones que esto conlleva, como son, entre otras cosas, las bases ortormales y el proceso de
ortonormalización de Gram-Schmidt.
Capı́tulo 5: es el estudio de la diagonalización de matrices, el cual, necesariamente, requiere
del estudio de los autovalores, autovectores y autoespacios de una matriz, también se hará
Introducción un pequeño y rápido estudio de la forma canónica de Jordan de una matriz.
Capı́tulo 6: al igual que el capı́tulo 5, es bastante corto desde el punto de vista teórico, sin
embargo, en este último capı́tulo del trabajo se manejan, prácticamente, todos los conceptos
y herramientas teorico-prácticas de los cinco primeros capı́tulos, por lo tanto, desde cierto
En diversas áreas de estudio, en los distintos niveles educativos, ocurre que nos encontramos punto de vista, es un repaso del curso en sı́, la idea principal de este capı́tulo es el estudio de
con problemas en los cuáles, para su resolución, necesariamente se ve involucrada el Álgebra las transformaciones lineales que no son sino una clase particular de funciones entre espacios
Lineal, en particular en el área de ingenierı́a. La mayorı́a de estos problemas pueden ser vectoriales, acá también se estudiarán algunos problemas de aplicación que involucran las
modelados por medio de las matrices, las cuales juegan un papel prepodenrante para su tansformaciones lineales.
resolución, o bien algún método de resolución numérica basado en métodos netamente del Finalmente, al final del presente trabajo, se presentan algunos apéndices, la intención de
Álgebra Lineal. estos es profundizar sólo un poco más sobre algunos de los temas acá planteados entre los
capı́tulos 1 al 6, pero no forman parte esencial del objetivo principal del material.
A pesar de la variedad de textos existentes en el mercado que cubren el contenido teórico
del programa que se dicta en las carreras de ingenierı́a del Vicerrectorado Barquisimeto de
la UNEXPO, no se tiene un material totalmente adaptado al contenido programático que
se tiene en el Vicerrectorado, además de que pocos textos contienen las aplicaciones de las
transformaciones lineales, que son de mucha utilidad en las áreas de ingenierı́a eléctrica y
electrónica, entre otras.
El objetivo principal del presente trabajo es presentar un material que permita el estudio
del Álgebra Lineal con un enfoque hacia las carreras de ingenierı́a o bien áreas conexas, más
particularmente, dirigido a estudiantes de la UNEXPO. Para ello se hará un pasaje por la
teorı́a que nos permita tener las herramientas necesarias para resolver los problemas antes
mencionados.
A continuación haremos un resumen breve de cada uno de los capı́tulos del presente ma-
terial.
Capı́tulo 1: se darán las principales herramientas para resolver problemas en los cuales
esté involucrada la resolución de sistemas de ecuaciones lineales, para ello se estudiarán las
propiedades de las operaciones con matrices, se establecerá el vı́nculo entre las matrices
y los sistemas de ecuaciones lineales para luego presentar problemas que involucran estas
herramientas como son, entre otros, la búsqueda de la inversa de una matriz y problemas de
aplicación de los sistemas de ecuaciones lineales.
Capı́tulo 2: continúa con el esquema matricial y en esta ocasión corresponde al estudio de
los determinantes, los cuales, desde el punto de vista histórico, surgieron antes que el estudio
formal de las matrices, esta herramienta, más que todo calculista, nos permite decidir, entre
otras cosas, cuando una matriz tiene o no inversa.
Capı́tulo 3: se presentan los espacios vectoriales, que son el basamento principal del Álgebra
Lineal, pasando por los conceptos primordiales de subespacio vectorial, base y dimensión de
un espacio vectorial.
Capı́tulo 4: se estudian un tipo especı́fico de espacios vectoriales, los espacios con producto

1 2 Jorge Campos
Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Para cada j ∈ {1, . . . , n} la j-ésima columna de A la denotaremos por A(j) y está dada
por  
a1j
 a2j 
 
A(j) =  .. 
 . 
Capı́tulo 1 amj
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a1,1 , a2,2 , . . . , ann , forman lo que llamaremos diagonal principal de A.
Matrices y Sistemas de Ecuaciones Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
Lineales La notación A = (aij )m×n , significa que A es la matriz de orden m × n cuya ij-ésima
componente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden m × n lo denotaremos por
Mm×n (R).
Como sabemos, cada vez es más común el uso del Álgebra Lineal en el planteamiento y
resolución de variados problemas que surgen en áreas relacionadas con la ingenierı́a, es por Observación 1.1. Podemos considerar matrices sobre un campo2 K, por ejemplo
ello que ésta juega un papel preponderante en el estudio y comprensión de los mismos. En la K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
resolución de la mayorı́a de estos problemas, las matrices sugen de manera natural, estas elementos de K. La notación para el conjunto de todas las matrices de orden m × n sobre K,
pueden aparecer de forma directa o bien como una consecuencia del estudio, planteamiento análogo al caso real, es Mm×n (K).
y modelaje de un problema especı́fico. Una de las principales causas de la aparición de las Observación 1.2. Se debe tener cuidado cuando se usa la notación (aij )m×n , el cambio de
matrices en la resolución de dichos problemas, son los sistemas de ecuaciones lineales ı́ndices no significa que se trata de otra matriz, los ı́ndices son “mudos”, esto es
y, para poder resolverlos, se necesita el uso y manejo de las operaciones elemnetales
por filas. En el presente capı́tulo estudiaremos con detalle cada uno de los conceptos antes (aij )m×n = (akr )m×n = (apq )m×n = (aji )m×n
mencionados ası́ como otros más.
A continuación
 ilustraremos algunos
 de los conceptos dados en la definición 1.1
a1,1 · · · a1j · · · a1n
1.1. Operaciones con Matrices  .. .. .. 
 . . . 
 
Definición 1.1. Sean m, n ∈ Z+ . Una matriz real A de orden m por n (m × n) es un A =  ai1 · · · aij · · · ain  ← i-ésima fila de A
 . 
arreglo bidimensional de números reales dispuestos en m filas y n columnas como sigue  .. ... ... 
    am1 · · · amj · · · amn
a1,1 a1,2 · · · a1n a1,1 a1,2 · · · a1n ↑
 a2,1 a2,2 · · · a2n   a2,1 a2,2 · · · a2n 
 
  j-ésima columna de A
A = (aij )m×n =  .. .. ..  =  .. .. .. 
 . . .   . . .   
am1 am2 · · · amn am1 am2 · · · amn a1,1 a1,2 ··· a1n
 a a2,2 ··· ain 
donde aij ∈ R para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, el cual es llamado compo-  i1 
 
nente ij-ésima1 de A.
A= . .. ... ..  ← matriz cuadrada (de orden n)
 .. . . 
Para cada i ∈ {1, . . . , m} la i-ésima fila de A la denotaremos por A(i) y está dada por an1 an2 · · · ann
� �
A(i) = ai1 ai2 · · · ain �
1
diagonal principal de A
Cuando pueda haber error a confusión, usaremos una coma entre los subı́ndices, por ejemplo a2,5 en lugar
2
de a25 Para mayores detalles sobre el concepto de campo se recomienda ir al Apéndice B.

3 4 Jorge Campos
1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Ejemplo 1.1. Definición 1.2. Sea A ∈ Mn×n (R). Diremos que A = (aij )n×n es
� √ �
−2 0 5 1. Triangular superior si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i > j.
1. A = 2 es una matriz real de orden 2 × 3, la componente 2, 1 de A es
4 1
3 � √ � 2. Triangular inferior si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i < j.
� � 5
a2,1 = 23 , la fila 2 de A es A(2) = 23 4 1 , la columna 3 de A es A(3) =
1 3. Diagonal si aij = 0 para cualesquiera i, j ∈ {1, . . . , n} con i �= j, es decir, A es
  triangular superior e inferior simultáneamente.
−1 4 0
2. B =  5 12 −3  es una matriz cuadrada real de orden 3, las componentes de la 4. Escalar si es diagonal y además existe λ ∈ R tal que aii = λ para cada i ∈ {1, . . . , n}.
0 2 −8
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8. Observación 1.3. Cualquier matriz que sea triangular superior o inferior es llamada ma-
triz triangular.
3. La matriz In = (δij )n×n , donde, para cada i, j ∈ {1, . . . , n},
Observación 1.4. Una matriz cuadrada es triangular superior (respectivamente inferior) si
� y sólo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales
1 si i = j
δij = a cero.
0 si i �= j
Observación 1.5. Cuando A ∈ Mn×n (R) es diagonal y las componentes en la diagonal
es llamada matriz identidad de orden n, esto es,
principal son λ1 , λ2 , . . . , λn ∈ R, escribiremos A = diag(λ1 , λ2 , . . . , λn ).
 
1 0 ··· 0 Ejemplo 1.2.
 . . .. 
0 1 . .
In =  . .  1. Para cada n ∈ Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y conse-
 .. . . . . . 0
cuentemente triangulares superior e inferior.
0 · · · 0 1 n×n  
−5 4 0 −7
La función δij , que define la componente ij de la matriz identidad, es llamada función  0 3 12 5 
2. A = 
 0 0 2
 es triangular superior.
delta de Kronecker3 . 1 
0 0 0 0
4. La matriz 0/m×n = (ξij )m×n , donde ξij = 0 para cada i ∈ {1, . . . , m} y para cada  
j ∈ {1, . . . , n}, es llamada matriz nula de orden m × n, es decir, −5 0 0 0
   0 4 0 0 
3. A = 
 0 −1
 es triangular inferior.
0 ··· 0 0 0 
 .. 
0/m×n =  ... . 9 13 −3 8
0 ··· 0  
m×n 6 0 0 0
 0 −3 0 0 
Cuando m = n, sólo escribiremos 0/n en lugar de 0/n×n , es decir, 4. A = 
 0
 es diagonal y podemos escribir A = diag(6, −3, −5, 0).
0 −5 0 
  0 0 0 0
0 ··· 0
 ..   
0/n =  ... . . . . 8 0 0 0
0 ··· 0  0 8 0 0 
n×n 5. A =  
 0 0 8 0  es escalar, ası́ que podemos escribir A = diag(8, 8, 8, 8).
� 0 0 0 8
3
Es llamada ası́ en honor al matemático alemán Leopold Kronecker. �

Jorge Campos 5 6 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Definición 1.3. Sean A, B ∈ Mm×n (R). Diremos que A y B son matrices iguales, lo cual son submatrices de la matriz
denotaremos por A = B, si la componente ij-ésima de A es igual a la componente ij-ésima de  
2 −1 0 3 4 −5
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij )m×n y B = (bij )m×n ,  0 3 −1 2 7 6 
diremos que A y B son iguales si aij = bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}. A=
 −4

8 2 −11 5 2 
7 −5 12 9 −3 0
Observación 1.6. Nótese que para que dos matrices sean iguales, en primer lugar, de-
ben ser del mismo orden. En algunos textos, cuando dos matrices no son del mismo orden, para obtener A1 se eliminaron la fila 3 y las columnas 3 y 6; para obtener A2 se eliminaron la
simplemente se dice que no son comparables. fila 1 y la columna 2; para A3 se eliminaron las dos últimas filas y las tres primeras columnas;
    para A4 ser eliminaron las columnas 3 y 4 y para la obtención de A5 se eliminó la fila 3.
� � 5 7 x 7 �
5 −1 0
Ejemplo 1.3. Si A = ; B =  0 y  y C =  0 −3 , entonces Luego veremos la utilidad de éstas matrices.
−6 8 3
−2 4 −2 4
A �= B pues ni siquiera son del mismo orden4 ; B = C si y sólo si x = 5 e y = −3.
� 1.1.1. Suma de Matrices y Multiplicación por Escalar
En este apartado definiremos dos operaciones con matrices que dotarán al conjunto
El siguiente teorema es una consecuencia directa de la definición de igualdad de matrices, Mm×n (R) de una estructura algebraica conocida como espacio vectorial , dicha estruc-
su demostración la dejamos como ejercicio. tura será tratada con detalle en el capı́tulo 3, en cierto modo, las definiciones de dichas
operaciones son “naturales” como veremos a continuación.
Teorema 1.1. Sean A, B ∈ Mm×n (R). Entonces las siguientes proposiciones son equivalentes
Definición 1.5. Sean A, B ∈ Mm×n (R), con A = (aij )m×n y B = (bij )m×n . Definiremos
1. A = B. la matriz suma de A con B como la matriz A + B ∈ Mm×n (R) cuya ij-ésima componen-
te viene dada por aij + bij para cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n}, esto es, si
2. A(i) = B(i) para cada i ∈ {1, . . . , m}. A + B = (cij )m×n , entonces cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Observación 1.7. Para poder sumar dos matrices éstas deben ser del mismo orden.
3. A(j) = B (j) para cada j ∈ {1, . . . , n}.    
4 −9 0 8 −3 9 5 −4
Demostración. ¡Ejercicio! Ejemplo 1.5. Si A =  −7 3 5 −12  y B =  1 −13 3 9 , entonces
1 0 −6 2 10 4 7 11
   
4 −9 0 8 −3 9 5 −4
Definición 1.4. Dada una matriz A ∈ Mm×n (R), cualquier matriz que se obtiene al eliminar
A + B =  −7 3 5 −12  +  1 −13 3 9 
ciertas filas o columnas de A, pero no todas, es llamada submatriz de A.
1 0 −6 2 10 4 7 11
   
Ejemplo 1.4. Las matrices 4 + (−3) −9 + 9 0 + 5 8 + (−4) 1 0 5 4
    =  −7 + 1 3 + (−13) 5 + 3 −12 + 9  =  −6 −10 8 −3 
2 −1 3 4 0 −1 2 7 6 � � 1 + 10 0 + 4 −6 + 7 2 + 11 11 4 1 13
 3 4 −5
A1 = 0 3 2 7 ; 
A2 = −4 2 −11 5 2 ; A3 = ; �
2 7 6
7 −5 9 −3 7 12 9 −3 0
Definición 1.6. Sean A ∈ Mm×n (R) y α ∈ R (α es llamado escalar5 ), con A = (aij )m×n .
  Definiremos la multiplicación de α por A ( multiplicación por escalar) como la matriz
2 −1 4 −5  
 0  2 −1 0 3 4 −5 α · A o simplemente αA cuya ij-ésima componente es αaij para cada i ∈ {1, . . . , m} y cada
3 7 6
A4 = 
 −4
 y A5 =  0 3 −1 2 7 6  j ∈ {1, . . . , n}, esto es, si αA = (bij )m×n , entonces bij = αaij para cada i ∈ {1, . . . , m} y
8 5 2 
7 −5 12 9 −3 0 cada j ∈ {1, . . . , n}.
7 −5 −3 0
5
A los elementos de un campo o cuerpo (e incluso en algunos casos también a los elementos de un anillo)
4
A partir de la observación 1.6, podrı́amos decir, simplemente, que las matrices A y B no son comparables. se les llama escalares.

Jorge Campos 7 8 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Observación 1.8. La notación de multiplicación por escalar es α · A o αA y no A · α ni 2. Hagamos A + B = E = (eij )m×n , (A + B) + C = E + C = F = (fij )m×n ,
Aα, se debe colocar primero el escalar luego la matriz. B + C = G = (gij )m×n y A + (B + C) = A + G = H = (hij )m×n . Ası́ que, para
cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n} se tiene que
Observación 1.9. Toda matriz escalar de orden n, es un múltiplo escalar de In , más aún,
se puede probar que A ∈ Mn×n (R) es una matriz escalar si y sólo si existe λ ∈ R tal que fij = eij + cij (definición de suna de matrices)
A = λIn .
= (aij + bij ) + cij (definición de suna de matrices)
Ejemplo 1.6. Sea A la matriz del ejemplo 1.5, entonces = aij + (bij + cij )
   
4 −9 0 8 2 · 4 2(−9) 2·0 2·8 = aij + gij (definición de suna de matrices)
2 · A = 2 ·  −7 3 5 −12  =  2(−7) 2·3 2 · 5 2(−12)  = hij (definición de suma de matrices)
1 0 −6 2 2·1 2 · 0 2(−6) 2·2
  De donde (A + B) + C = F = H = A + (B + C) (definición de igualdad de matrices).
8 −18 0 16
=  −14 6 10 −24  3. Recordemos que 0/m×n = (ξij )m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada
2 0 −12 4 j ∈ {1, . . . , n}. Ası́ que si A + 0/m×n = E = (eij )m×n , entonces, para cada i ∈ {1, . . . , m}
� y cada j ∈ {1, . . . , n}, tenemos que

Teorema 1.2. Sean A, B, C ∈ Mm×n (R) y α, β ∈ R cualesquiera. Entonces eij = aij + ξij (definición de suna de matrices)
= aij + 0 (definición de la matriz nula)
1. A + B = B + A (conmutatividad de la suma).
= aij
2. (A + B) + C = A + (B + C) (asociatividad de la suma).
Por lo tanto, usando la definición de igualdad de matrices, se tiene que
3. A + 0/m×n = A = 0/m×n +A (neutro aditivo).
4. Existe una matriz D ∈ Mm×n (R) tal que A + D = 0/m×n = D + A (opuesto aditivo). A + 0/m×n = E = A

5. α(A + B) = αA + αB (distributividad de la multiplicación por escalar respecto a la y por conmutatividad


suma matricial). A + 0/m×n = A = 0/m×n +A.

6. (α + β)A = αA + βA (distributividad de la multiplicación por escalar respecto a la suma 4. Definamos D = (dij )m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada
escalar). j ∈ {1, . . . , n}. Hagamos A + D = E = (eij )m×n . Entonces, para cada i ∈ {1, . . . , m} y
cada j ∈ {1, . . . , n}, tenemos que
7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicación por escalar).
8. 1 · A = A (neutro de la multiplicación por escalar). eij = aij + dij (definición de suna de matrices)
= aij + (−aij ) (definición de la matriz D)
Demostración. Sean A = (aij )m×n , B = (bij )m×n y C = (cij )m×n .
= 0
1. Hagamos A + B = E = (eij )m×n y B + A = F = (fij )m×n . Ası́ que, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} se tiene que Por lo tanto, usando la definición de igualdad de matrices y la definición de la matriz
nula, se tiene que A + D = E = 0/m×n , y por conmutatividad
eij = aij + bij (definición de suna de matrices)
= bij + aij A + D = 0/m×n = D + A.
= fij (definición de suma de matrices)
5. Hagamos A + B = E = (eij )m×n , α(A + B) = αE = F = (fij )m×n , αA = G = (gij )m×n ,
Luego A + B = E = F = B + A (definición de igualdad de matrices). αB = H = (hij )m×n y αA + αB = G + H = P = (pij )m×n . Entonces, para cada

Jorge Campos 9 10 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, tenemos que 8. Hagamos 1 · A = E = (eij )m×n . Ası́ que al usar la definición de multiplicación por
escalar, se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
fij = αeij (definición de multiplicación por escalar)
= α(aij + bij ) (definición de suma de matrices) eij = 1 · aij = aij
= αaij + αbij En consecuencia, por igualdad de matrices
= gij + hij (definición de multiplicación por escalar) 1 · A = E = A.
= pij (definición de suma de matrices)

Luego, usando la definición de igualdad de matrices, se tiene que


Las propiedades 3 y 4, en el teorema 1.2, garantizan la existencia de elementos neutro
α(A + B) = F = P = αA + αB. y opuesto, respectivamente, para la suma matricial, el teorema a continuación garantiza la
unicidad de tales elementos.
6. Hagamos (α + β)A = E = (eij )m×n , αA = F = (fij )m×n , βA = G = (gij )m×n y Teorema 1.3.
αA + βA = F + G = H = (hij )m×n . En consecuencia, para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n}, se tiene que 1. La matriz nula 0/m×n es la única matriz en Mm×n (R) tal que para cada A ∈ Mm×n (R)
se cumple que A + 0/m×n = A = 0/m×n +A.
eij = (α + β)aij (definición de multiplicación por escalar)
= αaij + βaij 2. Para cada matriz A ∈ Mm×n (R), existe una única matriz D ∈ Mm×n (R) tal que
A + D = 0/m×n = D + A, tal matriz D es llamada matriz opuesta de A y se de-
= fij + gij (definición de multiplicación por escalar) nota por −A.
= hij (definición de suma de matrices)
Demostración. Como ya hemos comentado antes, la parte 3 del teorema 1.2 garantiza que
De donde, al usar la definición de igualdad de matrices, obtenemos para cada A ∈ Mm×n (R) se cumple que A + 0/m×n = A = 0/m×n +A. Además, la existencia de
la matriz D, satisfaciendo la propiedad 2 en el enunciado, es garantizada por la parte 4 del
(α + β)A = E = H = αA + βA. mismo teorema. Sólo faltarı́a probar la unicidad en ambos casos.

7. Definamos las matrices βA = E = (eij )m×n , α(βA) = αE = F = (fij )m×n y 1. Supongamos que P ∈ Mm×n (R) es tal que A + P = A = P + A para cada matriz
(αβ)A = G = (gij )m×n . Ası́ que, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, A ∈ Mm×n (R), luego
obtenemos P = P + 0/m×n (por la parte 3 del teorema 1.2 con A = P )
fij = αeij (definición de multiplicación por escalar) = 0/m×n (por hipótesis con A = 0/m×n )
= α(βaij ) (definición de multiplicación por escalar)
2. Sea A ∈ Mm×n (R) cualquiera. Supongamos que existen D, E ∈ Mm×n (R) tales que
= (αβ)aij
= gij (definición de multiplicación por escalar) A + D = 0/m×n = D + A (1.1)
A + E = 0/m×n = E + A (1.2)
Luego, nuevamente por igualdad de matrices, se tiene que
En consecuencia
α(βA) = F = G = (αβ)A D = D + 0/m×n (por teorema 1.2 parte 3)
y en consecuencia = D + (A + E) (por la ecuación 1.2)
β(αA) = (βα)A = (αβ)A. = (D + A) + E (por teorema 1.2 parte 2)
Por lo tanto = 0/m×n +E (por la ecuación 1.1)
α(βA) = (αβ)A = β(αA). = E (por teorema 1.2 parte 3)

Jorge Campos 11 12 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

4. Supongamos que αA = 0/m×n . Si α = 0, no hay nada que probar, supongamos entonces


que α �= 0, ası́ que
Teorema 1.4. (Ley de Cancelación)
Sean A, B, C ∈ Mm×n (R) tales que A + B = A + C. Entonces B = C. A = 1 · A (por teorema 1.2 parte 8)
Demostración. ¡Ejercicio! = (α−1 α)A
= α−1 (αA) (por teorema 1.2 parte 7)
Teorema 1.5. Sean A ∈ Mm×n (R) y α ∈ R cualesquiera. Entonces = α−1 0/m×n (por hipótesis)
= 0/m×n (por la parte 2)
1. 0 · A = 0/m×n .
2. α 0/m×n = 0/m×n . Lo cual concluye la prueba.

3. (−1)A = −A.
4. Si αA = 0/m×n , entonces α = 0 o A = 0/m×n . La unicidad de la matriz opuesta permite la siguiente definición.

Demostración. Definición 1.7. Sean A, B ∈ Mm×n (R). Definiremos A − B = A + (−B).


   
1. Sabemos que 4 −12 0 5 −10 −6
0 · A + 0/m×n = 0 · A (¿por qué?)  −6 5 −3    6 −1 11 
Ejemplo 1.7. Si A = 
 6 −1 yB= , entonces
2   4 0 5 
además
7 0 1 −2 −6 −1
0 · A = (0 + 0)A = 0 · A + 0 · A (¿por qué?)
    
ası́ que 4 −12 0 5 −10 −6
0 · A + 0 · A = 0 · A + 0/m×n  −6 5 −3    
A − B = A + (−B) =   + −  6 −1 11 
 6 −1 2    4 0 5 
y por el teorema 1.4, se tiene que 0 · A = 0/m×n .
7 0 1 −2 −6 −1
2. Por un lado      
4 −12 0 −5 10 6 −1 −2 6
α · 0/m×n = α · 0/m×n + 0/m×n (¿por qué?)  −6 5 −3     
=   +  −6 1 −11  =  −12 6 −14 
por otro lado  6 −1 2   −4 0 −5   2 −1 −3 
7 0 1 2 6 1 9 6 2
α · 0/m×n = α(0/m×n + 0/m×n ) = α · 0/m×n +α · 0/m×n (¿por qué?)
luego �
α · 0/m×n +α · 0/m×n = α · 0/m×n + 0/m×n
y nuevamente, usando el teorema 1.4, tenemos que α 0/m×n = 0/m×n . 1.1.2. Producto de Matrices
3. Basta probar que A + (−1)A = 0/m×n y, por unicidad del opuesto aditivo, obtendrı́amos A diferencia de las operaciones de suma matricial y multiplicación por escalar, el producto
el resultado. Veamos de matrices no se define de manera tan “natural”, como veremos luego, pero no por ello
deja de ser importante dicha operación.
A + (−1)A = 1 · A + (−1)A (por teorema 1.2 parte 8)
Antes de definir el concepto de producto de matrices, vamos a considerar el siguiente
= (1 + (−1))A (por teorema 1.2 parte 6) problema que nos permitirá comprender un poco el concepto que nos atañe por ahora.
= 0·A
Ejemplo 1.8. Supongamos que tres empresas, E1, E2 y E3, que compiten entre sı́, fabri-
= 0/m×n (por la parte 1)
can cinco tipos de productos, digamos P 1, P 2, P 3, P 4 y P 5. El siguiente cuadro refleja la
Luego, por unicidad de la matriz opuesta, (−1)A = −A. producción mensual de cada una de las empresas.

Jorge Campos 13 14 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Cantidad de unidades producidas de: del producto P1. Continuando de esta manera tenemos que 1150 · 1, 5 representa la cantidad
P1 P2 P3 P4 P5 de unidades de la materia prima M2 necesarias para producir 1150 unidades del producto P2
E1 1250 800 200 1100 750 (cantidad mensual del producto P2 que fabrica la empresa E3), 1000 · 2 representa la cantidad
Producido
E2 1500 650 940 980 500 de unidades de la materia prima M2 necesarias para producir 1000 unidades del producto P3
por:
E3 400 1150 1000 850 1200 (cantidad mensual del producto P3 que fabrica la empresa E3), 850·1, 5 representa la cantidad
de unidades de la materia prima M2 necesarias para producir 850 unidades del producto P4
Cuadro 1.1: Producción Mensual de cada Empresa
(cantidad mensual del producto P4 que fabrica la empresa E3) y 1200·3 representa la cantidad
de unidades de la materia prima M2 necesarias para producir 1200 unidades del producto P5
(cantidad mensual del producto P5 que fabrica la empresa E3).
Si queremos saber, por ejemplo, cuál es la producción mensual de la empresa E2, basta Ası́ que 400·3, 5+1150·1, 5+1000·2+850·1, 5+1200·3 representa la cantidad (mı́nima) de
mirar, en el cuadro 1.1, la fila correspondiente a dicha empresa, de lo cual resulta que la unidades de la materia prima M2 necesarias para que la empresa E3 mantenga la produccción
produción mensual de ésta es 1500 unidades del producto P1, 650 unidades del producto P2, mensual dada por el cuadro 1.1, es decir, la empresa E3 necesita un mı́nimo mensual de 10000
940 unidades del producto P3, 980 unidades del producto P4 y 500 unidades del producto P5. unidades de la materia prima M2 si quiere mantener su producción mensual acorde al cuadro
¿Cómo podrı́an interpretarse las columnas de esta tabla? 1.1.
Además, para la fabricación de cada uno de los cinco productos, se necesitan cuatro mate- Nótese que para el cálculo anterior fue necesario conocer la producción mensual de la
rias primas distintas, M 1, M 2, M 3 y M 4. El cuadro siguiente permite saber las cantidades empresa E3, información que encontramos en la fila del cuadro 1.1 correspondiente a tal
de materia prima necesarias para producir una unidad de cada uno de estos productos. empresa, y la cantidad de materia prima M2 necesaria para producir una unidad de cada uno
de los productos que fabrica dicha empresa, tal información la obtuvimos de la columna en
Cantidad de unidades de:
el cuadro 1.2 correspondiente a la materia prima M2. Al aplicar este procedimiento a cada
M1 M2 M3 M4
una de las empresas y a cada una de las materias primas, entonces obtenemos el siguiente
P1 2 3,5 1 3,5
cuadro.
P2 3 1,5 3 2,5
Producto
P3 1,5 2 2,5 4 Cantidad de unidades de:
final:
P4 0,5 1,5 5 3 M1 M2 M3 M4
P5 4 3 1,5 1,5 E1 8750 9875 10775 11600
Necesidad
Cuadro 1.2: Materia Prima Necesaria para Producir una Unidad de cada Producto E2 8850 11075 11450 14325
de:
E3 10975 10000 12400 12625

Cuadro 1.3: Materia Prima Necesaria para la Producción Mensual de cada Empresa
En este caso, si queremos producir una unidad del producto P3, por ejemplo, el cuadro 1.2,
más especı́ficamente la fila 3 de dicho cuadro, nos dice que vamos a necesitar 1, 5 unidades
de la materia prima M1, 2 unidades de la materia prima M2, 2, 5 unidades de la materia
prima M3 y 4 unidades de la materia prima M4. En este caso ¿cuál serı́a el significado de Por ejemplo, a partir del cuadro 1.3 se deduce que la empresa E1 necesita, mensualmente,
las columnas de esta tabla? un mı́nimo de 8750 unidades de la materia prima M1, 9875 unidades de la materia prima
Ahora bien, si una empresa, digamos la empresa E3, quiere saber cuál es cantidad mı́nima M2, 10775 unidades de la materia prima M3 y 11600 unidades de la materia prima M4 para
mensual necesaria de una de las materias primas, digamos materia prima M2, para mantener poder mantener la producción mensual correspondiente al cuadro 1.1. �
la producción según el cuadro 1.1, entonces es necesario hacer el siguiente cálculo
En referencia al ejemplo 1.8, si definimos las matrices
400 · 3, 5 + 1150 · 1, 5 + 1000 · 2 + 850 · 1, 5 + 1200 · 3  
  2 3,5 1 3,5
El significado de este cálculo es el siguiente, dado que mensualmente la empresa E3 produce 1250 800 200 1100 750  3 1,5 3 2,5
 
400 unidades del producto P1, según el cuadro 1.1, y a su vez, según el cuadro 1.2, cada unidad A = 1500 650 940 980 500  y B=
1,5 2 2,5 4 

del producto P1 necesita 3, 5 unidades de la materia prima M2, entonces 400·3, 5 representa la 400 1150 1000 850 1200 0,5 1,5 5 3
cantidad de unidades de materia prima M2 que se necesitan para la produción de 400 unidades 4 3 1,5 1,5

Jorge Campos 15 16 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

entonces estas matrices representan, respectivamente, los cuadros 1.1 y 1.2, es decir, la matriz Observación 1.11. Nótese que en el ejemplo anterior, el producto BA no está definido,
A representa la producción mensual de las empresas y la matriz B representa la cantidad esto nos dice que el producto de matrices no es conmutativo, más aún, a pesar de que ambos
de materias primas necesarias para la elaboración de una unidad de cada producto. Nótese productos estén definidos, AB y BA, no necesariamente son ambos del mismo orden, además,
que la matriz A tiene tantas columnas como filas tiene la matriz B, esto se debe a que las siendo ambos productos del mismo orden, en cuyo caso necesariamente A y B deben ser
columnas, en la matriz A, representan los productos elaborados por las empresas, que es lo cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando
mismo que representan las filas en la matriz B. Ahora bien, si definimos la matriz esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan.
 
8750 9875 10775 11600 A continuación enunciaremos un teorema que expone las principales propiedades del pro-

C = 8850 11075 11450 14325 ducto de matrices
10975 10000 12400 12625
Teorema 1.6. Sean A ∈ Mm×n (R); B, C ∈ Mn×p (R); D ∈ Mp×q (R) y α ∈ R. Entonces
entonces C representa las necesidades mensuales de materias primas para cada una de las
empresas. 1. (AB)D = A(BD) (asociatividad del producto de matrices).
Es necesario hacer notar que la cantidad de filas de C es la misma cantidad de filas de A
y la cantidad de columnas de C es la misma cantidad de columnas de B, esto se debe a que 2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).
las filas de A y C representan las empresas y las columnas de B y C representan las materias
primas. 3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).
Cabe la siguiente pregunta, en términos matemáticos ¿es posible darle un significado a la
matriz C? la respuesta es sı́, esta matriz es el producto de las matrices A y B, como 4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicación
veremos a continuación. por escalar).

Definición 1.8. Sean A = (aij )m×n ∈ Mm×n (R) y B = (bjk )n×p ∈ Mn×p (R). Definiremos 5. Im A = A = AIn (neutros del producto de matrices).
el producto matricial de A por B como la matriz C = (cik )m×p ∈ Mm×p (R), denotada por
AB o A · B, tal que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que 6. B 0/p×q = 0/n×q y 0/m×n B = 0/m×p .

n
� Demostración. Sean A = (aij )m×n ; B = (bjk )n×p ; C = (cjk )n×p y D = (dkl )p×q .
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1
1. Definamos AB = E = (eik )m×p ; (AB)D = ED = F = (fil )m×q ; BD = G = (gjl )n×q y
Observación 1.10. Al igual que lo observado en los comentarios hechos luego del ejemplo A(BD) = AG = H = (hil )m×q . Entonces, usando la definición de producto matricial,
1.8, es de hacer notar que, para poder definir el producto AB, la cantidad de columnas de A tenemos que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
debe coincidir con la cantidad de filas de B, además, la matriz resultante AB, tiene tantas n
filas como filas tiene la matriz A y tantas columnas como columnas tiene B. �
eik = aij bjk
 
� � 3 1 0 j=1
2 −1 0 
Ejemplo 1.9. Sean A = yB= 2 −1 −2 . Entonces
0 3 1 para cada j ∈ {1, . . . , n} y cada l ∈ {1, . . . , q}
−4 −2 3
p

A·B
AB = � � gjl = bjk dkl
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3 k=1
=
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
� � � � y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q}
6−2+0 2+1+0 0+2+0 4 3 2
= =
0+6−4 0−3−2 0−6+3 2 −5 −3 p
� n

fil = eik dkl ; hil = aij gjl
� k=1 j=1

Jorge Campos 17 18 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Luego para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q} se tiene que De donde, por la definición de igualdad de matrices, obtenemos
p p
� n � p n p
n �
� � � � � � α(AB) = F = H = (αA)B.
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
De manera análoga se prueba que α(AB) = A(αB), ası́ que
� �
n
� p
� n
� α(AB) = (αA)B = A(αB).
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1 5. Recordemos que In = (δjk )n×n , donde

Por lo tanto, usando la definición de igualdad de matrices 1 si j = k
δjk = (1.3)
(AB)D = F = H = A(BD). 0 si j �= k
para cada j, k ∈ {1, . . . , n}.
2. Hagamos B +C = E = (ejk )n×p ; A(B +C) = AE = F = (fik )m×p ; AB = G = (gik )m×p ;
Si definimos AIn = E = (eik )m×n , entonces, para cualesquiera i ∈ {1, . . . , m} y
AC = H = (hik )m×p y AB + AC = G + H = R = (rik )m×p . Entonces, para cada
k ∈ {1, . . . , n}, obtenemos
i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
�n
�n
eik = aij δjk (definición de producto de matrices)
fik = aij ejk (definición de producto de matrices)
j=1
j=1
n = ai1 δ1k + · · · + ai(k−1) δ(k−1)k + aik δkk + ai(k+1) δ(k+1)k + · · · + ain δnk

= aij (bjk + cjk ) (definición de suma de matrices) = ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
j=1 = aik
�n n
� n

= (aij bjk + aij cjk ) = aij bjk + aij cjk Por lo tanto AIn = E = A, análogamente puede probarse que Im A = A, en consecuencia
j=1 j=1 j=1 AIn = A = Im A.
= gik + hik (definición de producto de matrices)
6. ¡Ejercicio!
= rik (definición de suma de matrices)
En consecuencia, en virtud de la definición de igualdad de matrices, se tiene que
Ejercicio 1.1.1. Pruebe que si A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces
A(B + C) = F = R = AB + AC. � �
1. AB = AB (1) AB (2) · · · AB (p) (desarrollo por columnas del producto AB), es
3. Análogo a la demostración de la parte 2. decir, la k-ésima columna de AB, que es (AB)(k) , es igual a A por la k-ésima columna
4. Sean AB = E = (eik )m×p ; α(AB) = αE = F = (fik )m×p ; αA = G = (gij )m×n de B, que es AB (k) , para cada k ∈ {1, . . . , p}.
 
y (αA)B = GB = H = (hik )m×p . Entonces, para cualesquiera i ∈ {1, . . . , m} y A(1) B
k ∈ {1, . . . , p} se tiene que  A(2) B 
 
fik = αeik (definición de multiplicación por escalar) 2. AB =  ..  (desarrollo por filas del producto AB), es decir, la i-ésima fila de
 . 
�n
A(m) B
= α aij bjk (definición de producto de matrices)
AB, que es (AB)(i) , es igual a la i-ésima fila de A por B, que es A(i) B, para cada
j=1
n n i ∈ {1, . . . , m}.
� �
= α(aij bjk ) = (αaij )bjk Ejercicio 1.1.2. Dada una matriz A ∈ Mn×n (R), para k ∈ N definamos
j=1 j=1 
n
 0/n si A = 0/n y k ≥ 1

= gij bjk (definición de multiplicación por escalar) Ak = In si A �= 0/n y k = 0
 k−1
j=1
A A si A �= 0/n y k ≥ 1
= hik (definición de producto de matrices) Pruebe que Ak Ar = Ak+r para cualesquiera A ∈ Mn×n (R) y k, r ∈ Z+ .

Jorge Campos 19 20 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

1.1.3. Transposición o Trasposición de Matrices 2. Sean A + B = D = (dij )m×n ; (A + B)T = DT = E = (eji )n×m ; AT = F = (fji )n×m ;
B T = G = (gji )n×m y AT + B T = F + G = H = (hji )n×m . Entonces, para cada
Definición 1.9. Sea A = (aij )m×n ∈ Mm×n (R). Definiremos la transpuesta o traspuesta
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
de A como la matriz AT = (bji )n×m ∈ Mn×m (R) tal que
eji = dij (definición de transpuesta)
bji = aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
= aij + bij (definición de suma de matrices)
Ejemplo 1.10. Sea   = fji + gji (definición de transpuesta)
−2 5 0 7
= hji (definición de suma de matrices)
A= 3 0 1 −6 
−5 12 −2 9 Por lo tanto
Entonces   (A + B)T = E = H = AT + B T .
−2 3 −5
 5 0 12  3. Hagamos αA = D = (dij )m×n ; (αA)T = DT = E = (eji )n×m ; AT = F = (fji )n×m ; y
AT = 
 0

αAT = αF = G = (gji )n×m . Entonces, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
1 −2 
7 −6 9
eji = dij (definición de transpuesta)

= αaij (definición de multiplicación por escalar)
Observación 1.12. Nótese que las filas de A “pasan” a ser las columnas de AT y las = αfji (definición de transpuesta)
columnas de A “pasan” a ser las filas de AT , más propiamente = gji (definición de multiplicación por escalar)
� �T � �(i)
A(i) = AT para cada i ∈ {1, . . . , m} Ası́ que
� � � � (αA)T = E = G = αAT .
(j) T T
A = A (j)
para cada j ∈ {1, . . . , n}
4. Sean AC = D = (dik )m×p ; (AC)T = DT = E = (eki )p×m ; C T = F = (fkj )p×n ;
Teorema 1.7. Sean A, B ∈ Mm×n (R), C ∈ Mn×p (R) y α ∈ R. Entonces AT = G = (gji )n×m y C T AT = F G = H = (hki )p×m . Entonces, para cada
� �T i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
1. AT = A (propiedad de involución de la transposición de matrices).
eki = dik (definición de transpuesta)
2. (A + B)T = AT + B T (transpuesta de la suma). �n
= aij cjk (definición de producto)
3. (αA)T = αAT (transpuesta de la multiplicación por escalar). j=1
n

4. (AC)T = C T AT (transpuesta del producto matricial).
= gji fkj (definición de transpuesta)
5. (In )T = In y (0/m×n )T = 0/n×m . j=1
�n

Demostración. Sean A = (aij )m×n ; B = (bij )m×n y C = (cjk )n×p . = fkj gji = hki (definición de producto)
j=1
��T
1. Hagamos AT = D = (dji )n×m y AT = DT = E = (eij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, por definición de transpuesta De donde
(AC)T = E = H = C T AT .
eij = dji = aij
5. ¡Ejercicio!
Luego
� �
T T
A = E = A.

Jorge Campos 21 22 Jorge Campos


1.1. Operaciones con Matrices Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Definición 1.10. Sea A ∈ Mn×n (R). Diremos que 2. A es antisimétrica si y sólo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}.

1. A es simétrica si AT = A. 3. Si A es antisimétrica, entonces aii = 0 para cualquiera i ∈ {1, . . . , n}.


T
2. A es antisimétrica si A = −A. Demostración. ¡Ejercicio!

Ejemplo 1.11.
A continuación definiremos una operación escalar6 sobre matrices, es bastante sencilla y se
1. In es simétrica para todo n ∈ Z+ . � usa, entre otras cosas, para conocer sobre el “buen comportamiento” computacional de una
matriz y para definir un producto interno (ver capı́tulo 4) entre matrices.
2. 0/n es simétrica y antisimétrica para todo n ∈ Z+ ¿existe alguna otra matriz que sea
simétrica y antisimétrica simultáneamente? � Definición 1.11. Dada una matriz cuadrada A ∈ Mn×n (R), se define la traza de A como
n

3. Toda matriz diagonal es una matriz simétrica. � el número real tr(A) = aii .
i=1
4. La matriz  
0 5 7 −6 El siguiente teorema resume las principales propiedades de la traza.
 −5 0 −4 8 
A=  Teorema 1.9. Sean A, B ∈ Mn×n (R), C ∈ Mm×n (R) y D ∈ Mn×m (R). Entonces
 −7 4 0 12 
6 −8 −12 0 1. tr(A + B) = tr(A) + tr(B) para cualesquiera A, B ∈ Mn×n (R).
es antisimétrica pues
2. tr(αA) = α tr(A) para cualesquiera α ∈ R y A ∈ Mn×n (R).
 
0 −5 −7 6 m �
n
  �
5 0 4 −8 3. tr(CD) = aij bji = tr(DC).
AT = 
 7 −4
 = −A
0 −12  i=1 j=1
−6 8 12 0 � �
4. tr AT = tr(A).

Demostración. ¡Ejercicio!
5. La matriz  
5 −9 3 0
 −9 2 −1 13 
A=
 3 −1

0 7 
0 13 7 −3
1.2. Operaciones Elementales por Filas
es simétrica ya que   Las operaciones elementales por filas son herramientas usadas con mucha frecuencia
5 −9 3 0 en la resolución de los sistemas de ecuaciones lineales al igual que en cálculo de la
 −9 2 −1 13  inversa de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el
AT = 
 3 −1
=A
0 7  curso, por ello deben ser manejadas con la mayor perfección posible por parte del estudiante
0 13 7 −3 que desee aprender la materia. Comencemos por definir dichas operaciones.
Denotemos por MFm (R) el conjunto formado por todas las matrices reales con m filas.

Definición 1.12. Una función f : MFm (R) → MFm (R) es llamada una operación ele-
Teorema 1.8. Sea A ∈ Mn×n (R). Entonces mental por filas (OEF) si es de uno de los siguientes tipos:
1. A es simétrica si y sólo si aij = aji para cualesquiera i, j ∈ {1, . . . , n}. 6
Se le llama operación escalar pues el resultado es un escalar.

Jorge Campos 23 24 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

OEF Tipo 1. Si f (A) = B, entonces existen s ∈ {1, . . . , m} y α �= 0 tales que    


B(i) = A(i) para cada i ∈ {1, . . . , m}, con i �= s, y además B(s) = αA(s) , esto A(1) A(1)
 ..   .. 
es, una de las filas de A es multiplicada por un escalar no nulo y el resto de las  .   . 
filas permanecen iguales.    
 A(s−1)   A(s−1) 
   
 A(s)   A(t) 
   
 A(s+1)   A(s+1) 
 ..   .. 
    f (A) = f    =  =B
A(1) A(1)  .   . 
.. ..  A(t−1)    A(t−1) 
       
 .   .  
     A(t)   
  A(s) 
 A(s−1)   A(s−1)  
     A(t+1)   
  A(t+1) 

f (A) = f  A(s)  =  αA(s) =B  ..   .. 
     .    . 
 A(s+1)   A(s+1) 
   
 ...   ...  A(m) A(m)
A(m) A(m) Fs ↔ Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A → B.

Observación 1.13. Nótese que si A ∈ Mm×n (R) y f : MFm (R) → MFm (R) es una OEF,
Por comodidad, en lugar de escribir B = f (A), escribiremos A
Fs → αFs
→ B. entonces f (A) ∈ Mm×n (R).

Ejercicio 1.2.1. Pruebe que toda OEF f : MFm (R) → MFm (R) es una función invertible
y que su inversa f −1 : MFm (R) → MFm (R) es también una OEF del mismo tipo que f .
OEF Tipo 2. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m}, con s �= t, y α ∈ R tales
que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i �= s, y además B(s) = A(s) + αA(t) , Ejemplo 1.12. Sea  
es decir, a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, −2 4 −5
distinta de la primera, dejando el resto de las filas intactas.  6 3 4 
A=


2 −1 8 
−6 21 −15
   
A(1) A(1) Entonces
 ..   ..     
 .   . 
    −2 4 −5 2 −1 8
 A(s−1)   A(s−1)   4   6 4 

f (A) = f  A(s)
 
 =  A(s) + αA(t)

=B A=
6 3  F1 ↔ F3→  3 
     2 −1 8  (OEF 3)  −2 4 −5 
 A(s+1)   A(s+1) 
    −6 21 −15 −6 21 −15
 ...   ...     
2 −1 8 2 −1 8
1
A(m) A(m) F4 → 3 F4  6 3 4  F3 → F3 + F1  
→   →  6 3 4 =B
(OEF 1)  −2 4 −5  (OEF 2)  0 3 3 
−2 7 −5 −2 7 −5
Fs → Fs + αFt
Al igual que antes, escribiremos A → B, en lugar de escribir B = f (A). �

Observación 1.14. Se pueden aplicar más de dos operaciones por filas en un solo paso,
OEF Tipo 3. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) lo único que debemos cuidar es no transformar, en el mismo paso, una fila más de
para cada i ∈ {1, . . . , m}, con i �= s e i �= t y además B(s) = A(t) y B(t) = A(s) , una vez y no transformar, en el mismo paso, una fila que va ser usada para
dicho de otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar. transformar a otra(s).

Jorge Campos 25 26 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

 
Observación 1.15. De manera análoga a como se definieron las operaciones elementales 1 0 0 7
por filas, pueden definirse operaciones elementales por columnas (OEC) sobre el con-  0 0 0 0 
 
junto MCn (R) formado por todas las matrices reales con n columnas, sin embargo, estas 3. R = 
 0 0 1 −9  es reducida por filas pero no es escalonada. �
últimas sólo se usarán para el cálculo de determinantes y no para la resolución de sistemas  0 0 0 0 
de ecuaciones lineales ni para calcular la inversa de una matriz cuadrada, en estos últimos 0 1 0 1
dos problemas sólo usaremos las operaciones elementales por filas. Al igual que las operacio-  
nes elementales por filas, las operaciones elemnetales por columnas también son invertibles y 1 0 −5 0 8
 0 1 3 0 −1 
sus inversas son también OEC del mismo tipo que la original.  
4. F = 
 0 0 0 1 −2   es escalonada reducida por filas. �
Definición 1.13. Sea A = (aij )m×n ∈ Mm×n (R). Diremos que A es una matriz  0 0 0 0 0 
0 0 0 0 0
Escalonada
Ejercicio 1.2.2. Sea A ∈ Mm×n (R). Pruebe que:
1. Si todas las filas nulas de A, si las hay, están ubicadas en las últimas posiciones,
esto es, si A(i) es una fila no nula de A, entonces A(s) también es no nula para 1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo
cada 1 ≤ s < i. sumo, el mı́nimo entre m y n.

2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mı́nimo
nula de A(i) (contada de izquierda a derecha) está mas a la izquierda de la primera entre m y n.
componente no nula de A(i+1) , es decir, si j, k ∈ {1, . . . , n} son tales que aij �= 0;
a(i+1)k �= 0 y ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces Ejercicio 1.2.3. Pruebe que si A ∈ Mn×n (R) es una matriz escalonada, entonces A es
j < k. triangular superior.
Definición 1.14. Sean A, B ∈ Mm×n (R). Diremos que B es equivalente por filas a A si
Reducida por Filas (RF) existen OEF f1 , f2 , . . . , fr : MFm (R) → MFm (R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr )(A).
1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es Ejemplo 1.14. Consideremos las matrices A y B del ejemplo 1.12. Entonces B es equiva-
igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . . , n} lente por filas a A (¿por qué?). �
es tal que aij �= 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1.
Teorema 1.10. Sean A, B, C ∈ Mm×n (R). Tenemos que
2. Si A(j) es una columna de A que tiene un pivote, la cual es llamada columna
pivote, entonces el resto de las componentes de A(j) son iguales a 0 (cero), esto 1. A es equivalente por filas a A.
es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 ≤ s < j, entonces
akj = 0 para cada k ∈ {1, . . . , m} con k �= i. 2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.

3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es


Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas si-
equivalente por filas a A.
multáneamente.
Demostración. ¡Ejercicio!
Ejemplo 1.13.

1. Para cualesquiera m, n ∈ Z+ , In y 0/m×n son escalonadas reducidas por filas. � Observación 1.16. La parte 2 del teorema 1.10, nos permite decir A y B son equivalentes
  por filas en lugar de B es equivalente por filas a A o A es equivalente por filas a B.
2 −1 3 8 3
 0 5 1 6 −4  Teorema 1.11. Toda matriz A ∈ Mm×n (R) es equivalente por filas a:

2. E =   es escalonada pero no es reducida por filas. �
0 0 0 8 −7 
0 0 0 0 0 1. Una matriz escalonada.

Jorge Campos 27 28 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

2. Una matriz reducida por filas.  


1 0 −2 0 1
3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalo-  0 1 3 0 −3 
C=
 0

nada reducida por filas (FERF) de A. 0 0 1 2 
0 0 0 0 0
Demostración. Ver apéndice D

Observación 1.17. Observe que A ∈ Mn×n (R) es equivalente por filas a In si y sólo si In Definición 1.15. Una matriz E ∈ Mn×n (R) es llamada matriz elemental si existe una
es la FERF de A. OEF f : MFn (R) → MFn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de
una única OEF.
Observación 1.18. Dada una matriz no nula A ∈ Mm×n (R), la cantidad de matrices es-
calonadas, que son equivalentes por filas a A, son infinitas, pero la cantidad de matrices Ejemplo 1.16.
reducidas por filas, que son equivalentes por filas a A, son, a lo sumo m!.  
1 0 0 0
El siguiente ejemplo ilustra el procedimiento a seguir para calcular la FERF de una matriz,  0 1 0 0 

1. E1 =   es elemental, pues
los pasos pueden variar en cantidad y en el orden, sin embargo, el resultado final debe ser el −5 0 1 0 
mismo sin importar los pasos previos. 0 0 0 1
   
Ejemplo 1.15. Calcular la FERF de 1 0 0 0 1 0 0 0
 0 1 0 0   0 

6 −1 −15 2 13

I4 =   F3 → F3 − 5F1  0 1 0  = E1
 0 0 1 0  →  −5 0 1 0 
 −1 0 2 −1 −3 
A=
 0 −3 −9
 0 0 0 1 0 0 0 1
0 9 

7 1 −11 3 10
 
1 0 0
Solución. 2. E2 = 0 4 0  es elemental, ya que

    0 0 1
6 −1 −15 2 13 −1 0 2 −1 −3    
 −1 0 2 −1 −3    6 −1 −15 2 13  1 0 0 1 0 0
A=  0 −3 −9 F ↔ F2  
0 9  1 →  0 −3 −9 0 9  I3 =  0 1 0  F2 → 4F2  0 4 0  = E2

7 1 −11 3 10 7 1 −11 3 10 0 0 1 0 0 1
   
1 0 −2 1 3 1 0 −2 1 3 �
 6 −1 −15 2 13  F2 → F2 − 6F1  0 −1 −3 −4 −5   
F1 → −F1   →  
1 0 0 0 0
→  0 −3 −9 0 9  F4 → F4 − 7F1  0 −3 −9 0 9 
 0 0 0 0 1 
7 1 −11 3 10 0 1 3 −4 −11  
    3. E3 =  0 0 1 0 0  es elemental, dado que
1 0 −2 1 3 1 0 −2 1 3  
 0  F3 → F3 + 3F2  0 1   0 0 0 1 0 
1 3 4 5 3 4 5
F2 → −F2   →   0 1 0 0 0
→  0 −3 −9 0 9  F 4 → F4 − F 2  0 0 0 12 24 
   
0 1 3 −4 −11 0 0 0 −8 −16 1 0 0 0 0 1 0 0 0 0
   
1 0 −2 1 3 1 0 −2 0 1  0 1 0 0 0   0 0 0 0 1 
F 1 → F 1 − F 3    
 0 1 3 4 5   0 1 3 0 −3  I5 =   F 2 ↔ F5  0 0 1  = E3
1
F3 → 12 F3   F2 → F2 − 4F3    0 0 1 0 0  →
0 0 
→ 0 0 0 1 2  →  0 0 0 1 2   0 0 0 1 0   0 0 0 1 0 
F4 → F4 + 8F3
0 0 0 −8 −16 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0
Ası́ que la FERF de A es �

Jorge Campos 29 30 Jorge Campos


1.2. Operaciones Elementales por Filas Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Teorema 1.12. Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y f : MFm (R) → MFm (R) una OEF. 1.3. Sistemas de Ecuaciones Lineales
Entonces
La presente sección está muy relacionada con las OEF y las matrices, y es, quizás, junto
1. f (AB) = f (A)B. con la sección anterior, el más importante del presente capı́tulo.
� � Definición 1.16. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas,
2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
donde m, n ∈ Z+ , es un conjunto de m ecuaciones de la forma
� � � � � � �� 
f (A) = f A(1) f A(2) · · · f A(n)  a1,1 x1 + a1,2 x2 + · · · + a1n xn = b1


 a2,1 x1 + a2,2 x2 + · · · + a2n xn = b2
es decir, la fila j-ésima de f (A) es igual a f aplicada a la j-ésima fila de A. .. .. .. .. .. (1.4)

 . . . . .

 a x + a x + ··· + a x = b
Demostración. Ver apéndice D. m,1 1 m,2 2 mn n m

donde x1 , x2 , . . . , xn son las incógnitas del sistema (1.4) y toman valores en R; aij ∈ R son
Como una consecuencia directa de este teorema tenemos el siguiente resultado. números fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes
del sistema (1.4) y b1 , b2 , . . . , bm ∈ R son fijos y son los términos independientes del
Corolario 1.13. Si f, f1 , f2 , . . . , fr : MFm (R) → MFm (R) son OEF, y si consideramos sistema (1.4).
A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces Si b1 = b2 = · · · = bm = 0, diremos que el sistema (1.4) es homogéneo, en caso contrario
diremos que es no homogéneo.
1. f (A) = f (Im )A = EA donde E = f (Im ) es una matriz elemental. Cuando m = n, se dice que el sistema (1.4) es un sistema cuadrado.
Si hacemos
2. (f1 ◦ f2 ◦ · · · ◦ fr )(AB) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)B.      
� � a1,1 a1,2 · · · a1n b1 x1
3. ((f1 ◦ f2 ◦ · · · ◦ fr )(A))(j) = (f1 ◦ f2 ◦ · · · ◦ fr ) A(j) para cada j ∈ {1, . . . , m}.  a2,1 a2,2 · · · a2n   b2   x2 
     
A = (aij )m×n =  .. .. ..  ; b =  ..  y x =  ..  ,
 . . .  . .
Demostración. ¡Ejercicio! am1 am2 · · · amn bm xn

el sistema (1.4) equivale a la ecuación matricial Ax = b (¡verifı́quelo!), que llamaremos re-


Otra consecuencia del mismo teorema, en conjunción con el corolario anterior, es la si- presentación matricial del sistema (1.4). La matriz A es llamada matriz de coeficientes
guiente. o matriz del sistema (1.4), la matriz
 
Corolario 1.14. Sean A, B ∈ Mm×n (R) dos matrices equivalentes por filas. Entonces existen a1,1 a1,2 · · · a1n b1
matrices elementales E1 , E2 , . . . , Er ∈ Mm×m (R) tales que B = E1 E2 · · · Er A.  a2,1 a2,2 · · · a2n b2 
 
[A|b] =  .. .. .. .. 
Demostración. ¡Ejercicio!  . . . . 
am1 am2 · · · amn bm

Observación 1.19. Para las OEC, existen resultados y definiciones equivalentes a las dadas es llamada matriz ampliada del sistema (1.4), x se conoce con el nombre de matriz
para las OEF, entre estas tenemos: matrices equivalentes por columnas, matrices ele- incógnita o matriz de incógnitas del sistema (1.4) y b es conocida como matriz de
mentales (por columnas), estás últimas no difieren de las matrices elementales (por filas) términos independientes del sistema (1.4).
pues se puede probar que toda matriz elemental (por filas) es también una matriz elemental El sistema 
(por columnas) y viceversa, de allı́ la razón por la cual simplemente se les llama matrices 
 a1,1 x1 + a1,2 x2 + · · · + a1n xn = 0

 a2,1 x1 + a2,2 x2 + · · · + a2n xn = 0
elementales. Otro resultado es que si f : MCp (R) → MCp�(R) es � una OEC, A ∈ Mm×n (R) (1.5)
.. .. .. .. ..
y B ∈ Mn×p (R), entonces f (AB) = Af (B), (f (B))(j) = f B(j) para cada j ∈ {1, . . . , n} y 
 . . . . .

 a x + a x + ··· + a x = 0
f (B) = Bf (Ip ) = BE. m,1 1 m,2 2 mn n

Jorge Campos 31 32 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

es llamado sistema homogéneo asociado al sistema (1.4). las matrices incógnitas y de términos independientes del sistema son, respectivamente
Diremos que s1 , s2 , . . . , sn es una solución del sistema (1.4) si al sustituir x1 = s1 ,
 
x2 = s2 , . . . , xn =
 sn en (1.4), las igualdades son satisfechas, más propiamente hablando, x1 � �
 x2  0
s1 y
 s2  4
  x3
diremos que s =  ..  es solución del sistema (1.4) si As = b.
. 
 6x −2y +9z = 1
sn
2. −5x +12y −3z = −2
Se dice que el sistema (1.4) es 
x 6z = 6
Inconsistente si no tiene solución alguna. es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incógnitas, es
no homogéneo y su representación matricial es
Consistente si tiene al menos una solución, cuando tiene una única solución, se di-
    
ce que es consistente determinado, si tiene más de una solución, se dice que es 6 −2 9 x 1
consistente indeterminado.  −5 12 −3   y  =  −2 
1 0 6 z 6
Observación 1.20. En general, no haremos diferencia al referirnos al sistema y a su re-
presentación matricial. El sistema homogéneo asociado a este sistema es

Observación 1.21. Todo sistema homogéneo Ax = 0m×1 es consistente, x = 0n×1 es solu-
/ /
 6x −2y +9z = 0
−5x +12y −3z = 0
ción de éste, la cual es llamada solución trivial. 
x 6z = 0
 
x1
 x2  �
 
Observación 1.22. Es claro si A ∈ Mm×n (R) y x =  ..  ∈ Mn×1 (R), entonces
. Una pregunta que surge de manera inmediata es ¿cómo garantizar si un sistema de ecua-
xn ciones lineales es consistente o inconsistente? y en caso de que sea consistente ¿cómo resolver
dicho sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero
Ax = x1 A(1) + x2 A(2) + · · · + xn A(n) antes daremos las bases teóricas que nos permitan usar dichas herramientas.

Ejemplo 1.17. Teorema 1.15. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas
de ecuaciones lineales con m ecuaciones y n incógnitas. Supongamos que las matrices [A|b]

3x1 +2x2 −6x3 = 0 y [C|d] son equivalentes por filas. Entonces ambos sistemas tienen exáctamente las mismas
1. soluciones o ninguno tiene solución.
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incógnitas, es no ho- Demostración. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces
mogéneo, su representación matricial es existen OEF f1 , f2 , . . . , fr : MFm (R) → MFm (R) tales que
  (f1 ◦ f2 ◦ · · · ◦ fr )([A|b]) = [C|d]
� � x1 � �
3 2 −6  x2  = 0
−1 5 −7 4 por la parte 3 del corolario 1.13
x3
(f1 ◦ f2 ◦ · · · ◦ fr )(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d
La matriz y la matriz ampliada del sistema son, respectivamente
� � � � y por la parte 2 del mismo corolario, tenemos que
3 2 −6 3 2 −6 0
y (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x
−1 5 −7 −1 5 −7 4

Jorge Campos 33 34 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales


Ası́ que, si Ax = b, entonces  x +y −2z +w = 1
4. 4x +2y +2z = −2
Cx = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x = (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d 
2y −10z +4w = 3
Además, en virtud del ejercicio 1.2.1, sabemos que f1 , f2 , . . . , fr son invertibles y que sus Solución.
inversas f1−1 , f2−1 , . . . , fr−1 son también OEF sobre MFm (R), luego, si Cx = d, entonces
1. La matriz ampliada del sistema es
 
Ax = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (C)x (pues (f1 ◦ f2 ◦ · · · ◦ fr )(A) = C) 2 1 −1 1
 2 −1 5 5 
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(C)x (pues (f1 ◦ f2 ◦ · · · ◦ fr )−1 = f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )
0 −1 3 2
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(Cx) (por la parte 2 del corolario 1.13)
= (f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )(d) (por hipótesis) Calculemos su FERF
= (f1 ◦ f2 ◦ · · · ◦ fr )−1 (d) (pues (f1 ◦ f2 ◦ · · · ◦ fr )−1 = f1−1 ◦ f2−1 ◦ · · · ◦ fr−1 )
   1

= b (pues (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d) 2 1 −1 1 1 2
− 12 12
 2 −1 5 5  F1 → 12 F1  2 −1 5 5 
Por lo tanto Ax = b si y sólo si Cx = d, en consecuencia, o ambos sistemas son inconsis- 0 −1 3 2 → 0 −1 3 2
tentes o ambos tienen la(s) misma(s) solución(es).  1 1 1
  1

1 2
− 2 2
1 2
− 12 1
2
F2 → F2 − 2F1  0 −2 
6 4 F1 → − 2 F1 1  0 1 −3 −2 
Observación 1.23. Cuando la matriz del sistema es una matriz ERF, es fácil decidir si el → → 0 −1
0 −1 3 2 3 2
sistema es o no consistente, y en caso de serlo, es sencillo calcular la(s) solución(es) de éste.  3

1
F 1 → F1 − 2 F 2 1 0 1
La idea es calcular la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.15, 2
→  0 1 −3 −2 
resolver, de manera sencilla, el sistema dado. F 3 → F3 + F2 0 0 0 0
Corolario 1.16. Sean A, C ∈ Mm×n (R) y b, d ∈ Mm×1 (R) tales que [C|d] es la FERF de La última fila de esta última matriz equivale a la ecuación 0 · x + 0 · y + 0 · z = 0, que
[A|b]. El sistema Ax = b tiene solución si y sólo si el número de filas no nulas de [C|d] es no aporta nada a la solución. Ası́ que el sistema dado es equivalente al sistema
igual al número de filas no nulas de C. � 3
x +z = 2
Demostración. ¡Ejercicio! y −3z = −2
que a su vez equivale a �
Ejemplo 1.18. Decidir cuál(es) de los siguientes sistemas son consistentes y cuál(es) no, x = −z + 32
en caso de serlo, mostrar su(s) solución(es). y = 3z − 2

 2x +y −z = 1 Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obte-
1. 2x −y +5z = 5 nemos
 3
−y +3z = 2 x = −α + ; y = 3α − 2
 2

 2x +y −z = 2 En consecuencia la solución del sistema dado viene dada por

x −2y +4z = −3
2. 3

 5x −4y +8z = −9 x = −α + ; y = 3α − 2; z = α; con α ∈ R
 2
−y +3z = 2
 o bien        3 
 x +y −2z +w = 1 x −α + 32 −1 2
3. 4x +2y +2z = −2  y  =  3α −2  = α  3  +  −2  ; con α ∈ R

2y −10z +3w = 3 z α 1 0

Jorge Campos 35 36 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

   
2. En este caso la matriz ampliada del sistema es 1 1 −2 1 1 1 1 −2 1 1
   4 2 2 0 −2  F2 → F2 − 4F1  0 −2 10 −4 −6 
2 1 −1 2 →
 1 −2  0 2 −10 3 3 0 2 −10 3 3
 4 −3     
 5 −4 8 −9  1 1 −2 1 1 1 0 3 −1 −2
  F 1 → F1 − F 2 
0 −1 3 2 1
F2 → − 2 F2 0 1 −5 2 3 → 0 1 −5 2 3 
→ 0 2 −10 3 3 F3 → F3 − 2F2
0 0 0 −1 −3
Vamos a calcular su FERF    
1 0 3 −1 −2 1 0 3 0 1
    F 1 → F1 + F3
2 1 −1 2 1 −2 4 −3 F3 → −F3  0 1 −5 2 3  →  0 1 −5 0 −3 
→ F2 → F2 − 2F3
 1 −2 4 −3   2 1 −1 2  0 0 0 1 3 0 0 0 1 3
  F ↔ F2  
 5 −4 8 −9  1 →  5 −4 8 −9  En consecuencia el sistema dado es equivalente al sistema
0 −1 3 2 0 −1 3 2
    
1 −2 4 −3 1 −2 4 −3  x +3z = 1
F2 → F2 − 2F1  0 5 −9 
8   0 −1 3 2  y −5z = −3
→  F ↔ F4    
F3 → F3 − 5F1  0 6 −12 6  2 → 0 6 −12 6  w = 3
0 −1 3 2 0 5 −9 8
    o equivalentemente 
1 −2 4 −3 1 0 −2 −7  x = −3z + 1
 0 F1 → F1 + 2F2
1 −3 −2  → 
 F3 → F3 − 6F2  0 1 −3 −2  y = 5z − 3
F2 → −F2  

→ 0 6 −12 6   0 0 6 18  w = 3
F4 → F4 − 5F2
0 5 −9 8 0 0 6 18
   
1 0 −2 −7 1 0 0 −1 Por lo tanto el sistema original es consistente indeterminado. Si hacemos z = α, con
 0 1 −3 −2  F1 → F1 + 2F3→  0 1 0 7  α ∈ R, tenemos que la solución del sistema es
F3 → 16 F3   F2 → F2 + 3F3  
→ 0 0 1 3   0 0 1 3         
F4 → F4 − 6F3 x −3α +1 −3 1
0 0 6 18 0 0 0 0
 y   5α −3     −3 
Luego, el sistema dado, es equivalente al sistema  =  = α 5 +  con α ∈ R
 z   α   1   0 ;
 w 3 0 3
 x = −1
y = 7
 4. Calculemos la FERF de la matriz
z = 3
 
Por lo tanto el sistema es consistente determinado y su solución es 1 1 −2 1 1
 4 2 2 0 −2 
x = −1; y = 7; z=3
0 2 −10 4 3
o bien    
x −1 que es la matriz ampliada del sistema
 y = 7     
1 1 −2 1 1 1 1 −2 1 1
z 3  4 2 2 0 −2  F2 → F2 − 4F1  0 −2 10 −4 −6 

3. Calculemos la FERF de la matriz ampliada del sistema que es 0 2 −10 4 3 0 2 −10 4 3
   
1 1 −2 1 1 1 1 −2 1 1
 4 2 2 0 −2  F3 → F3 + F2  0 −2 10 −4 −6 

0 2 −10 3 3 0 0 0 0 −3

Jorge Campos 37 38 Jorge Campos


1.3. Sistemas de Ecuaciones Lineales Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Sin necesidad de llegar a la FERF de la matriz, vemos que la última fila de esta última Es claro que, en general, en virtud del teorema 1.19, el sistema homogéneo asociado tiene
matriz equivale a la ecuación como única solución la trivial si y sólo si el sistema dado tiene solución única.
Finalmente, para el sistema de la parte 3 del ejemplo en cuestión
0 · x + 0 · y + 0 · z + 0 · w = −3    
1 −3
la cual es contradictoria, en consecuencia, el sistema original es inconsistente.  −3   5 
xp =    
 0  ; xh = α  1  ; con α ∈ R
3 0
Teorema 1.17. El sistema homogéneo Ax = 0/m×1 , con A ∈ Mm×n (R), tiene infinitas so-
luciones si m < n, esto es, si el sistema homogéneo Ax = 0/m×1 tiene más incógnitas que �
ecuaciones, entonces es consistente indeterminado. Ejercicio 1.3.1. Sea A ∈ Mm×n (R). Pruebe que si el sistema Ax = b tiene solución para
Demostración. ¡Ejercicio! cada b ∈ Mm×1 (R), entonces m ≤ n.

En el ejemplo que daremos a continuación, se trata de una aplicación de los sistemas de


Teorema 1.18. Sea A ∈ Mm×n (R). Supongamos que x1 , x2 ∈ Mn×1 (R) son soluciones del ecuaciones lineales en la vida real.
sistema homogéneo Ax = 0/m×1 . Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son
también soluciones del sistema. Ejemplo 1.20. Se quiere construir una urbanización residencial, el arquitecto de la obra
debe escoger combinaciones entre tres diseños de manzanas para la obra. En el primer diseño
Demostración. ¡Ejercicio! cada manzana consta de 18 casas tipo estudio, 15 casas familiares y 3 casas de lujo. Para el
segundo diseño la distribución de las casas es de 12 tipo estudio, 24 familiares y 2 de lujo.
El tercer diseño de manzana consta de 12 casas tipo estudio, 31 casas familiares y 2 de lujo.
Teorema 1.19. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Supongamos que xp es una solución Elabore un cuadro donde indique la cantidad de casas tipo estudio, casas familiares y casas de
del sistema Ax = b. Entonces, para cada solución xg del sistema Ax = b, existe una solución lujo por cada uno de los diseños de manzana. ¿Es posible diseñar una urbanización residencial
xh de Ax = 0/m×1 tal que xg = xh + xp . que tenga exactamente 84 casas tipo estudio, 210 casas familiares y 14 casas de lujo? Elabore
Demostración. Dado que xp es solución del sistema Ax = b, tenemos que Axp = b. Sea xg y resuelva un sistema de ecuaciones lineales, el cual represente el problema planteado, para
una solución cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg − xp . Ası́ que sustentar su respuesta. Si la respuesta es afirmativa, ¿hay más de una manera de hacerlo?
¿cuántas?.
Axh = A(xg − xp ) = Axg − Axp = b − b = 0/m×1
Solución.
es decir, xp es solución del sistema homogéneo Ax = 0/m×1 y además xg = xh + xp .
Tipo de manzana:
Diseño 1 Diseño 2 Diseño 3
Ejemplo 1.19. Para el sistema de la parte 1 del ejemplo 1.18 tenemos que Cantidad estudio 18 12 12
 3    de casas familiar 15 24 31
2
−1 tipo: de lujo 3 2 2
 
xp = −2 ; xh = α  3  ; con α ∈ R
0 1 Cuadro 1.4: Cantidad de departamentos por cada diseño de piso.

Para el sistema de la parte 2 del mismo ejemplo, se tiene que


    Veamos si es posible construir una urbanización con 84 casas tipo estudio, 210 casas fami-
−1 0 liares y 14 casas de lujo, para ello lo primero que debemos hacer es definir las incógnitas del
x p =  7  ; xh =  0  problema. Sean
3 0 x: la cantidad de manzanas en la urbanización con el diseño 1.
Nótese que en este caso xg = xp . y: la cantidad de manzanas en la urbanización con el diseño 2.

Jorge Campos 39 40 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

z: la cantidad de manzanas en la urbanización con el diseño 3. Demostración. Sea A ∈ Mn×n (R) una matriz invertible y supongamos que B, C ∈ Mn×n (R)
Ası́ que la cantidad total de casas tipo estudio está dada por 18x + 12y + 12z, la cantidad son inversas de A. Entonces
total de casas familiares viene dada por 15x + 24y + 31z y la cantidad total de casas de lujo
AB = In = BA (1.6)
es 3x + 2y + 2z. Dado que la urbanización debe tener exactamente 84 casas tipo estudio, 168
casas AC = In = CA (1.7)
 familiares y 14 casas de lujo, entonces obtenemos el sistema
 18x +12y +12z = 84 Luego
15x +24y +31z = 210
 C = CIn (por la parte 5 del teorema 1.6)
3x +2y +2z = 14
Aparte de las ecuaciones anteriores, debemos notar que x, y, z ∈ N (¿por qué?). Al resolver = C(AB) (por la ecuación 1.6)
el sistema obtenemos como solución x = 13 z − 2,y = − 32 z + 10 y dado que x, y, z ∈ N, se tiene, = (CA)B (por la parte 1 del teorema 1.6)
en primer lugar, que z = 6k con k ∈ N, de donde x = 2k − 2 ≥ 0, y = −9k + 10 ≥ 0, ası́ que = In B (por la ecuación 1.7)
k = 1 (¿por qué?) y en consecuencia el sistema obtenido tiene una única solución, a saber
= B (por la parte 5 del teorema 1.6)
x = 0, y = 1 y z = 6, es decir, la urbanización debe tener en total 7 manzanas, 1 manzana
del diseño 2 y 6 manzanas del diseño 3.
Teorema 1.21. Sean A, B ∈ Mn×n (R) dos matrices invertibles y α ∈ R con α �= 0. Entonces
−1
1. A−1 es invertible y (A−1 ) = A (propiedad involutiva de la inversa).
1.4. Inversa de una Matriz Cuadrada 2. AB es invertible y (AB) −1
= B −1 A−1 (inversa del producto matricial).
En la presente sección presentaremos un breve estudio sobre las matrices invertibles y 3. αA es invertible y (αA)−1 = α−1 A−1 (inversa del múltiplo escalar).
sus aplicaciones en la resolución de los sistemas de ecuaciones, cabe destacar que se pueden � �−1 T
definir inversas laterales de matrices no cuadradas, sin embargo, sólo estudiaremos el caso 4. AT es invertible y AT = (A−1 ) (inversa de la transpuesta).
de matrices cuadradas. Demostración.
Definición 1.17. Sea A ∈ Mn×n (R). Diremos que A es invertible o inversible si existe 1. Se deduce directamente de la definición de matriz invertible.
una matriz B ∈ Mn×n (R) tal que
2. En primer lugar
AB = In = BA
(AB)(B −1 A−1 ) = ABB −1 A−1 (teorema 1.6 parte 1)
Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.
= A(BB −1 )A−1 (teorema 1.6 parte 1)
� � � �
2 −2 2 1 = AIn A−1 (definición de matriz inversa)
Ejemplo 1.21. Si A = , entonces B = 3 es una inversa de A ya que
−3 4 2
1 = (AIn )A−1 (teorema 1.6 parte 1)
� �� � � � � � = AA−1 (teorema 1.6 parte 5)
2 −2 2 1 4−3 2−2 1 0
AB = 3 = = = I2 = In (definición de matriz inversa)
−3 4 2
1 −6 + 6 −3 + 4 0 1
Además
� �� � � � � �
2 1 2 −2 4 − 3 −4 + 4 1 0 (B −1 A−1 )(AB) = B −1 A−1 AB (teorema 1.6 parte 1)
BA = 3 = = = I2
1 −3 4 3 − 3 −3 + 4 0 1
2 = B −1 (A−1 A)B (teorema 1.6 parte 1)
� = B −1 In B (definición de matriz inversa)
= (B −1 In )B (teorema 1.6 parte 1)
Teorema 1.20. Si A ∈ Mn×n (R) es invertible, entonces A tiene sólo una inversa, es decir,
existe una única matriz B ∈ Mn×n (R) tal que AB = In = BA, tal matriz es denotada por = B −1 B (teorema 1.6 parte 5)
A−1 . = In (definición de matriz inversa)

Jorge Campos 41 42 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

Luego, por la definición 1.17, se tiene que AB es invertible, y por el teorema 1.20, y
tenemos que (AB)−1 = B −1 A−1 .
F E = f −1 (In )f (In )
3. Veamos = f −1 (f (In )) (corolario 1.13 parte 1)
= In
(αA)(α−1 A−1 ) = (α−1 (αA))A−1 (teorema 1.6 parte 4)
= ((α−1 α)A)A−1 (teorema 1.2 parte 7) Luego, E es invertible y E −1 = F , es decir, (f (In ))−1 = f −1 (In ).
= (1 · A)A−1
= AA−1 (teorema 1.2 parte 8) Ahora bien ¿cómo saber si una matriz cuadrada A es o no invertible? y en caso de que lo sea
= In (definición de matriz inversa) ¿cómo calcular A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
único. Daremos un ejemplo sencillo que ilustrará tal procedimiento, sin embargo, antes que
Análogamente, se prueba que (α−1 A−1 )(αA) = In . Nuevamente, usando la definición nada, enunciaremos un par de resultados que nos permitirán garantizar que el procedimiento
1.17 y el teorema 1.20, se tiene que αA es invertible y (αA)−1 = α−1 A−1 . empleado es válido.
El siguiente teorema nos será muy útil a la hora de saber si una matriz es o no invertible.
4. Por un lado
Teorema 1.23. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
AT (A−1 )T = (A−1 A)T (teorema 1.7 parte 4) 1. A es invertible.
= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5) 2. El sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).
3. El sistema homogéneo Ax = 0/n×1 tiene como única solución la trivial.
Por otro lado
4. A es equivalente por filas a In .
(A−1 )T AT = (AA−1 )T (teorema 1.7 parte 4)
5. Existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) tales que A = E1 E2 · · · Er .
= (In )T (definición de matriz inversa)
= In (teorema 1.7 parte 5) Demostración.

Por lo tanto,� haciendo T


uso de la definición 1.17 y del teorema 1.20, se tiene que A es (1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definición de matriz inversa, existe
�−1
invertible y AT
T
= (A−1 ) . A−1 ∈ Mn×n (R) tal que AA−1 = In = A−1 A.
Sean b ∈ Mn×1 (R) cualquiera y x0 ∈ Mn×1 (R) una solución del sistema Ax = b.
Entonces

Teorema 1.22. Toda matriz elemental es invertible y su inversa es también una matriz x0 = In x0 (teorema 1.6 parte 5)
elemental. = (A−1 A)x0 (por definición de inversa)
= A−1 (Ax0 ) (teorema 1.6 parte 1)
Demostración. Sea E ∈ Mn×n (R) una matriz elemental. Entonces existe una OEF
f : MFn (R) → MFn (R) tal que E = f (In ). El ejercicio 1.2.1 garantiza que f es inverti- = A−1 b (pues x0 es solución del sistema Ax = b)
ble y su inversa f −1 es también una OEF sobre MFn (R), ası́ que F = f −1 (In ) es una matriz
elemental, además Ası́ que el sistema Ax = b tiene como única solución x0 = A−1 b.
(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una única solución para cada
EF = f (In )f −1 (In )
b ∈ Mn×1 (R). Entonces el sistema homogéneo Ax = 0/n×1 tiene una única solución,
= f (f −1 (In )) (corolario 1.13 parte 1) pero sabemos que x = 0/n×1 es solución de este sistema (observación 1.21), ası́ que la
= In única solución de dicho sistema es la solución trivial.

Jorge Campos 43 44 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

(3. ⇒ 4.) Supongamos que el sistema homogóneo Ax = 0/n×1 tiene como única solución la Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del
trivial. teorema 1.23, B es invertible. Además
Procederemos por reducción al absurdo. Supongamos que A no es equivalente por filas
A = AIn (teorema 1.6 parte 5)
a In . Por lo tanto, usando la observación 1.17, si CA es la FERF de A, entonces CA
debe tener alguna fila nula (¿por qué?), la cual debe estar ubicada en la última posición = A(BB −1 ) (definición de matriz inversa)
pues CA es escalonada reducida por filas, esta fila equivale a la ecuación = (AB)B −1 (teorema 1.6 parte 1)
= In B −1 (por hipótesis)
0 · x 1 + 0 · x2 + · · · + 0 · x n = 0
= B −1 (teorema 1.6 parte 5)
donde  
x1 Por lo tanto BA = In (definición de inversa) y como consecuencia de la parte 1 del teorema
 x2  1.21 A−1 = (B −1 )−1 = B.
 
x =  .. 
.
xn Observación 1.24. El teorema 1.24 nos permite garantizar que A−1 = B sólo con probar
y en consecuencia no aporta ninguna información a la solución del sistema Ax = 0/n×1 . que AB = In o BA = In .
Definamos DA ∈ M(n−1)×n (R) la matriz que se obtiene al eliminar la última fila de Ejemplo 1.22. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
CA . Luego el sistema homogéneo Ax = 0/n×1 es equivalente al sistema homogéneo afirmativo, calcular A−1 .
DA x = 0/(n−1)×1 el cual, en virtud del teorema 1.17, tiene infinitas soluciones, de donde, � �
el sistema Ax = 0/n×1 tiene infinitas soluciones, lo cual contradice la hipótesis, por lo 2 −2
1. A =
tanto A es equivalente por filas a In . −3 4
� �
(4. ⇒ 5.) Es consecuencia directa del corolario 1.14. 2 −8
2. A =
−3 12
(5. ⇒ 1.) Supongamos que A = E1 E2 · · · Er donde E1 , E2 , . . . , Er ∈ Mn×n (R) son matrices
elementales. Dado que toda matriz elemental es invertible (teorema 1.22), y usando Solución.
recursivamente la parte 2 del teorema 1.21, se tiene que A es invertible.
1. Supongamos que A es invertible y sea
Lo cual concluye la prueba. � �
x y
B=
z w
Teorema 1.24. Sean A, B ∈ Mn×n (R). Si AB = In , entonces BA = In ; y en consecuencia
A−1 = B. tal que AB = I2 , ası́ que
Demostración. Supongamos que AB = In . Sea xh una solución del sistema homogéneo � � � � � � � �
x 1 y 0
Bx = 0/n×1 . Entonces A = y A =
z 0 w 1
Bxh = 0/n×1 . (1.8)
Luego como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de
manera simultánea considerando la siguiente matriz (dos veces) ampliada
xh = In xh (teorema 1.6 parte 5)
� �
= (AB)xh (por hipótesis) 2 −2 1 0
[A|I2 ] =
= A(Bxh ) (teorema 1.6 parte 1) −3 4 0 1
= A 0/n×1 (por ecuación 1.8) Al calcular la FERF de esta matriz, las tercera y cuarta columnas nos darán, respecti-
= 0/n×1 (teorema 1.6 parte 6) vamente, las soluciones del primer y segundo sistema, si existen, que a su vez nos darán,

Jorge Campos 45 46 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

respectivamente, las primera y segunda columnas de B, si existe. Calculemos entonces Solución.


la FERF de esta matriz.    
� � � � 2 0 3 1 1 0 0 0 1 −1 2 −2 0 0 1 0
2 −2 1 0 1 −1 12 0
[A|I2 ] = F1 → 12 F1  −1   0 
−3 4 0 1 → −3 4 0 1  1 1 3 0 1 0 0  F1 ↔ F3  −1 1 1 3 0 1 0 
� � � �  1 −1 2 −2 0 0 1 0  → 2 0 3 1 1 0 0 0 
1 −1 12 0 1 0 2 1 0 1 −1 2 0 0 0 1 0 1 −1 2 0 0 0 1
F2 → F2 + 3F1 3 F 1 → F1 + F2 3  
→ 0 1 2 1 → 0 1 2 1
1 −1 2 −2 0 0 1 0
Por lo tanto � � F 2 → F2 + F1  1 0 
2 1 →  0 0 3 1 0 1 
B= 3 F3 → F3 − 2F1  0 2 −1 5 1 0 −2 0 
2
1 0 1 −1 2 0 0 0 1
 
En consecuencia, en virtud del teorema 1.24, A es invertible y 1 −1 2 −2 0 0 1 0
� �  0 1 −1 2 0 0 0 1 
A−1 = B = 3
2 1 F 2 ↔ F4  
1 → 0 2 −1 5 1 0 −2 0 
2
0 0 3 1 0 1 1 0
 
Comparar este resultado con la matriz del ejemplo 1.22. 1 0 1 0 0 0 1 1
F 1 → F1 + F2  0 1 −1 2 0 0 0 1 
2. Como en el caso anterior, supongamos que existe →  
� � F3 → F3 + 2F2  0 0 1 1 1 0 −2 −2 
x y 0 0 3 1 0 1 1 0
B=  
z w 1 0 0 −1 −1 0 3 3
F 1 → F1 − F 3
→  0 1 0 3 1 0 −2 −1 
tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ]. F 2 → F2 + F3   0 0 1

� � � � 1 1 0 −2 −2 
2 −8 1 0 1 −4 12 0 F4 → F4 − 3F3
0 0 0 −2 −3 1 7 6
[A|I2 ] = F1 → 12 F1  
−3 12 0 1 → −3 12 0 1 1 0 0 −1 −1 0 3 3
� �
1 −1 12 0  0 1 0 3 1 0 −2 −1 
F2 → F2 + 3F1 F4 → − 12 F4  
→ 0 0 32 1 → 0 0 1 1 1 0 −2 −2 
3 1 7
La última fila de esta última matriz equivale a las ecuaciones 0 0 0 1 − 2 − 2 −3
 2
1

1 0 0 0 − 12 − 12 0
3 F 1 → F1 + F4 2
0·x+0·z = 0·y+0·w =1 →  0 1 0 0 −2 7 3 17
8 
2 F2 → F2 − 3F4   0 0 1 0 −1
2 2 
2
1
2
3
2
1 
Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible. F 3 → F3 − F 4 3 1 7
0 0 0 1 2
− 2
− 2
−3
Luego A es invertible y
   
Estos dos ejemplos, como dijimos antes, junto con los dos resultados previos, ilustran el 1
− 12 − 12 0 1 −1 −1 0
2
procedimiento general para decidir si una matriz cuadrada A es o no invertible, además, en  −7 3 17
8  1  
A−1 = 2 2 2  =  −7 3 17 16 
caso afirmativo, nos permite calcular A−1 .  −1 1 3
1  2  −1 1 3 2 
2 2 2
3
Ejemplo 1.23. Decidir si la matriz 2
− 12 − 72 −3 3 −1 −7 −6
 
2 0 3 1
 −1 1 1 3 
A=
 1 −1
 Cabe destacar que, el procedimiento empleado en el ejemplo previo, adolece de un pequeño
2 −2 
0 1 −1 2 problema que por ahora no puede ser zanjado, el hecho es que, los cálculos que se hacen sobre
la matriz identidad, son irrelevantes para decidir si A es o no invertible, pero cuando A es
es invertible o no, en caso afirmativo, calcular A−1 . invertible, estos mismos cálculos, nos permiten decir cual es la inversa de A. Lo ideal serı́a

Jorge Campos 47 48 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

saber de antemano si A es o no invertible. Más adelante haremos uso de los determinantes Solución. Según lo comentado antes del ejercicio, basta conseguir la FERF de la matriz
para garantizar este hecho, por lo momentos no tenemos alternativa alguna.  
3 1 1 2 −2 0
Teorema 1.25. Sean A, B ∈ Mn×n (R). Si AB es invertible, entonces A y B también son A =  −3 −7 −2 0 1 3 
invertibles. 2 2 1 1 4 −1

Demostración. ¡Ejercicio! que en este caso es  


1
1 0 0 − 27 1
Sugerencia: Proceder de manera análoga como en la demostración del teorema 1.24 para 2 2
A =  0 1 0 − 12 − 15 0 
probar, en primer lugar, que B es invertible. Luego usar las partes 1 y 2 del teorema 1.21 2
0 0 1 1 46 −3
para probar que A es invertible.
Como vemos, la solución existe pero no es única, si X = (xij )4×2 , entonces
 
El problema de buscar la inversa de una matriz cuadrada obedece a un problema mucho 
 x1,1 = − 12 x4,1 − 272 
 x1,2 = − 12 x4,2 +1
 
más general. Supongamos que A ∈ Mm×n (R) y B ∈ Mm×p (R) ¿es posible hallar una matriz x2,1 = 1
x
2 4,1
−215
x2,2 = 1
x
2 4,2
y
X ∈ Mn×p (R) tal que AX = B? tal problema genera p sistemas de ecuaciones lineales con m  x3,1
 = −x4,1 +46 
 x3,2 = −x4,2 −3
 
ecuaciones y n incógnitas, como los estudiados en la sección 1.3, a saber, AX (k) = B (k) con x4,1 ∈ R x4,2 ∈ R
k ∈ {1, . . . , p}, los cuales tienen en común la matriz del sistema que es A. Como sabemos, para
poder decidir sobre la consistencia o no� de cada De donde, si hacemos x4,1 = α y x4,2 = β, se tiene que
� uno de estos sistemas, basta con calcular
la FERF de cada una de las matrices A|B (k) para cada k ∈ {1, . . . , p}, por lo cual, si    1 
x1,1 x1,2 − 2 α − 27 − 12 β + 1
queremos ahorrar cálculos, basta con calcular la FERF de la matriz [A|B] y ası́ estarı́amos  x2,1   1 α − 15
2
1 
x2,2  β
resolviendo, de manera simultánea, los p sistemas o bien obtendrı́amos que la respuesta a la X =   x3,1 =   2 2 2 
x3,2  −α + 46 −β − 3 
pregunta inicial es no, es decir, al menos uno de los sistemas relacionados es inconsistente.
x4,1 x4,2 α β
Cuando el problema inicial tiene solución, ésta podrı́a ser única o bien podrı́amos concluir
que el problema tiene más de una solución para X. Nótese que en el caso de que m = n = p
     27 
y de que B = In , entonces estamos en presencia del problema de búsqueda de la inversa de − 12 0 0 − 12 −2 1
la matriz A, el cual ya fue estudiado antes, pero si m = p y B = Im , estamos en presencia del  1 
0   1   − 15 
X = α 2 + β  0 2 + 2
0 , con α, β ∈ R
problema de búsqueda de una inversa a derecha 7 de la matriz A, se puede probar que en  −1 0   0 −1   46 −3 
éste caso, necesariamente m ≤ n, además, cuando m < n, el problema es inconsistente o es 1 0 0 1 0 0
consistente indeterminado, es decir, si una matriz no cuadrada tiene inversa a derecha, dicha
matriz debe tener menos filas que columnas y tal inversa no es única. Finalmente, si m = n
y A es invertible, entonces la única solución del problema es X = A−1 B, es decir, podemos
En este ejemplo, puede comprobarse que las matrices
calcular A−1 B sin necesidad de calcular A−1 . Veamos algunos ejemplos los cuales ilustran lo
 1   
que hemos discutido previamente. −2 0 0 − 12
 1 0   0 1 
Ejemplo 1.24. Dadas las matrices X1 =  2 
 −1 0  y X2 = 
 2 
0 −1 
    1 0 0 1
3 1 1 2 −2 0
A =  −3 −7 −2 0  y B= 1 3  son soluciones de la ecuación matricial homogénea AX = 0/3×2 , más aún, toda solución de la
2 2 1 1 4 −1 ecuación homogénea AX = 0/3×2 es de la forma
Decida si existe una matriz X ∈ M4×3 (R) tal que AX = B, en caso afirmativo calcule X ¿es  1   
−2 0 0 − 12
X única?  1 0   0 1 
XH = αX1 + βX2 = α  2 +β 2 
7
Una matriz B ∈ Mn×m (R) se dice que es una inversa a derecha de A ∈ Mm×n (R) si ocurre que −1 0   0 −1 
AB = Im , en tal caso A es llamada una inversa a izquierda de B. 1 0 0 1

Jorge Campos 49 50 Jorge Campos


1.4. Inversa de una Matriz Cuadrada Capı́tulo 1. Matrices y Sistemas de Ecuaciones Lineales

 
con α, β ∈ R. 1 0 0 0 −1 −8 12
F1 → F1 − 2F4
Además, la matriz →  0 1 0 0 −1 −18 28 
  F2 → F2 − 3F4   0

− 27
2
1 0 1 0 4 21 −34 
 − 15  F3 → F3 + 5F4
0 0 0 0 1 1 3 −5
XP =  2
 46 −3 

Por lo tanto, sı́ existe X tal que AX = B y ésta es
0 0  
−1 −8 12
es solución (particular) de la ecuación matricial AX = B.  −1 −18 28 
Por lo tanto, la solución de la ecuación matricial dada viene dada por XG = XH + XP . X=  4


21 −34
En general, dadas matrices A ∈ Mm×n (R) y B ∈ Mm×p (R), al igual que en el caso de una 1 3 −5
ecuación matricial Ax = b, donde x y b son matrices columna de órdenes adecuados, se puede
probar que si XP es una solución particular de la ecuación AX = B, entonces, para cualquier además, se concluye que A es invertible y que X = A−1 B, es decir, el problema tiene solución
solución XG de tal ecuación, existe una solución XH , de la ecuación matricial homogénea única.
asociada AX = 0/m×p , tal que XG = XH + XP .
Ejemplo 1.25. Idem para las matrices En relación
 al ejemplo
 precedente, sean las matrices 
    1 0 0 0 1 0 0 0
1 −1 −1 4 0 1 −2  0 1 0 0   −2 1 0 0 
 2 −1 −1   1 −1 
I4 =   F → F2 − 2F1    = E1
6 0  0 0 1 0  2 → 0 0 1 0 
A=  2

 y B= 
 2 −1 −1 
1 2 −3 0 0 0 1 0 0 0 1
−4 3 3 −13 0 2 −1    
1 0 0 0 1 0 0 0
Solución. Al igual que en el ejercicio precedente, calculemos la FERF de la matriz  0 1 0 0   0 1 0 0 
I4 =   
 0 0 1 0  F3 → F3 − 2F1→  −2 0 1 0  = E2

 
1 −1 −1 4 0 1 −2 0 0 0 1 0 0 0 1
 2 −1 −1    
6 1 −1 0  1 0 0 0 1 0 0 0
[A|B] =   2

1 2 −3 2 −1 −1   0 1 0 0   0 1 0 0 
−4 3 3 −13 0 2 −1 I4 =   
 0 0 1 0  F4 → F4 + 4F1→  0 0 1 0  = E3

Hagamos los 0 0 0 1 4 0 0 1
 cálculos necesarios     
1 −1 −1 4 0 1 −2 1 0 0 0 1 1 0 0
 2 −1 −1 6 1 −1 0   0 1 0 0   0 1 0 0 
[A|B] =  2
 I4 =   
 0 0 1 0  F1 → F1 + F2→  0 0 1 0  = E4

1 2 −3 2 −1 −1 
−4 3 3 −13 0 2 −1 0 0 0 1 0 0 0 1
     
1 −1 −1 4 0 1 −2 1 0 0 0 1 0 0 0
F2 → F2 − 2F1
→  0 1 1 −2 1 −3 4   0 1 0 0   0 1 0 0 
F3 → F3 − 2F1   0

 I4 =   
 0 0 1 0  F3 → F3 − 3F2→  0 −3 1 0  = E5

3 4 −11 2 −3 3
F4 → F4 + 4F1
0 −1 −1 3 0 6 −9 0 0 0 1 0 0 0 1
     
1 0 0 2 1 −2 2 1 0 0 0 1 0 0 0
F 1 → F1 + F2
→  0 1 1 −2 1 −3 4   0 1 0 0   0 1 0 0 
  I4 =    
F3 → F3 − 3F2 
0 0 1 −5 −1 6 −9   0 0 1 0  F4 → F4 + F2→  0 0 1 0  = E6
F 4 → F4 + F2
0 0 0 1 1 3 −5 0 0 0 1 0 1 0 1
     
1 0 0 2 1 −2 2 1 0 0 0 1 0 0 0
 0 1 0 3 2 −9 13   0 1 0 0   0 1 −1 0 
F 2 → F2 − F 3   I4 =  
 0 0 1 0  F2 → F2 − F3→  0 0
  = E7
→  0 0 1 −5 −1 6 −9  1 0 
0 0 0 1 1 3 −5 0 0 0 1 0 0 0 1

Jorge Campos 51 52 Jorge Campos


1.4. Inversa de una Matriz Cuadrada

   
1 0 0 0 1 0 0 −2
 0 1 0 0   0 1 0 0 
I4 =  
 0 0 1 0  F1 → F1 − 2F4→  0 0 1
  = E8
0 
0 0 0 1 0 0 0 1
   
1 0 0 0 1 0 0 0
 0 1 0 0   0 1 0 −3 
I4 =  
 0 0 1 0  F2 → F2 − 3F4→  0 0 1
  = E9
0 
Capı́tulo 2
0 0 0 1 0 0 0 1
   
1 0 0 0 1 0 0 0
 0 1 0 0 
I4 =  
 0 1 0 0 
  Determinantes. Regla de Cramer
 0 0 1 0  F3 → F3 + 5F4→  0 0 1 5  = E10
0 0 0 1 0 0 0 1
Entonces I4 = E10 E9 E8 E7 E6 E5 E4 E3 E2 E1 A (ver el corolario 1.14), de donde se obtiene que
A−1 = E10 E9 E8 E7 E6 E5 E4 E3 E2 E1 (¡verifı́quelo!). Los determinantes, cronológicamente, aparecen antes que las matrices, de allı́ el nombre
El lector puede notar que estas matrices (elementales) surgen de las OEF que le fueron que se les dió a éstas últimas, tratando de indicar que son de donde “nacen” los primeros.
aplicadas a la matriz A para obtener I4 , además, también puede verificar que E1 , E2 y E3
conmutan entre sı́ y surgen de las tres primeras OEF que le fueron aplicadas a A; E4 , E5 y E6
conmutan entre sı́ y surgen de las tres siguientes OEF que le fueron aplicadas a A; E7 surge
2.1. Determinantes y sus Propiedades
de la siguiente OEF que le fue aplicada a A y finalmente E8 , E9 y E10 conmutan entre sı́ y En esta sección trataremos los determinantes y algunas de sus propiedades, en primer lu-
surgen de las últimas tres OEF que le fueron aplicadas a A. Este procedimiento nos da una gar definiremos los determinantes de orden 2, continuando luego con los determinantes
alternativa para calcular la inversa de una matriz. Aplique este procedimiento para obterner de orden 3, para finalmente definir los determinantes de orden n.
A−1 en el caso de la matriz A del ejemplo 1.23. � �
a1,1 a1,2
Definición 2.1. Sea A = ∈ M2×2 (R). Definiremos el determinante de A,
a2,1 a2,2
como el número real
� �
� a a �
det(A) = |A| = �� 1,1 1,2 �� = a1,1 a2,2 − a1,2 a2,1
a2,1 a2,2
este tipo de determinante se suele llamar determinante de orden 2.
Observación 2.1. Vamos a convenir en que si A = [a] es una matriz real de orden 1,
entonces det(A) = |A| = a.
� �
−6 5
Ejemplo 2.1. Calcular det(A) para A =
−7 6
� �
� −6 5 �
Solución. det(A) = �� � = (−6)6 − 5(−7) = −36 + 35 = −1
−7 6 �
� �
a1,1 a1,2
Ejercicio 2.1.1. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si
a2,1 a2,2
det(A) �= 0. � �
1 a2,2 −a1,2
Además, si A es invertible, entonces A−1 = .
det(A) −a2,1 a1,1

Jorge Campos 53 54
2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Definición 2.2. Dada la matriz Los productos generados por las flechas rojas (�) se colocan con signo positivo, los que
  son generados por las flechas azules (�) se colocan con signo negativo.
a1,1 a1,2 a1,3 Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en
A =  a2,1 a2,2 a2,3  ∈ M3×3 (R) lugar de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte
a3,1 a3,2 a3,3 superior, las dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de
Definiremos el determinante de A, denotado por det(A) o |A|, como
orden 3 y sólo es aplicable a determinantes de orden 3.
� �
� a1,1 a1,2 a1,3 � Ejemplo 2.3. Calculemos el determinante del ejemplo 2.2 usando este método.
� �
det(A) = |A| = �� a2,1 a2,2 a2,3 ��
� a3,1 a3,2 a3,3 � Solución.
� � � � � � � �
� a a � � a a � � a a � � 2 −3 −1 �
= a1,1 �� 2,2 2,3 �� − a1,2 �� 2,1 2,3 �� + a1,3 �� 2,1 2,2 � � �
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2 � � −6 1 5 � = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5
� �
� −7 0 6 �
este tipo de determinante es llamado determinante de orden 3.
2 −3 −1
−((−1)1(−7) + 5 · 0 · 2 + 6(−3)(−6))
Observación 2.2. Nótese que estamos definiendo el determinante de orden 3 en función de −6 1 5
determinantes de orden 2. � �
� 2 −3 −1 �
  � �
2 −3 −1 � −6 1 5 �� = 12 + 0 + 105 − (7 + 0 + 108) = 2

Ejemplo 2.2. Calcular det(A) para A =  −6 1 5  � −7 0 6 �
−7 0 6
Compare este resultado con el obtenido en el ejemplo 2.2.
Solución.
� �
� 2 −3 −1 � � � � � � � Antes de definir determinantes de orden n, daremos una definición previa.
� � � 1 5 � � � � �

det(A) = |A| = � −6 1 5 �� = 2 �� � − (−3) � −6 5 � + (−1) � −6 1 �
0 6 � � −7 6 � � −7 0 � Definición 2.3. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} se define la matriz
� −7 0 6 �
MijA ∈ M(n−1)×(n−1) (R) como la submatriz de A que se obtiene al eliminar la i-ésima fila
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2 y la j-ésima columna. El determinate de dicha� matriz
� es
� llamado
� el ij-ésimo menor de A
y lo denotaremos por mA A A � A�
ij , es decir, mij = det Mij = Mij .

Observación 2.4. Si en lugar de eliminar una fila y una columna de A, eliminamos r filas
Observación 2.3. Una forma muy sencilla de recordar la fórmula de determinantes de y r columnas de A, con 1 ≤ r < n, digamos las filas i1 , i2 , . . . , ir y las columnas j1 , j2 , . . . , jr ,
orden 3 es la siguiente: donde 1 ≤ i1 < i2 < · · · < ir ≤ n y 1 ≤ j1 < j2 < · · · < jr ≤ n, la submatriz de A
A
que se obtiene, la denotaremos por MIJ , donde I = {i1 , i2 , . . . , ir } y J = {j1 , j2 , . . . , jr }. El
� �
� a1,1 a1,2 a1,3 � determinante de dicha submatriz
� � �se denomina
� IJ-ésimo menor de A y es denotado por
� � � A�
� � � � mA A A
IJ , esto es, mIJ = det MIJ = MIJ .
� �
� a2,1 a2,2 a2,3 � = a1,1 a2,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3
� � Ejemplo 2.4. Consideremos la matriz
� �
� �
� �
� � − a1,3 a2,2 a3,1 − a2,3 a3,2 a1,1 − a3,3 a1,2 a2,1  
� a3,1 a3,2 a3,3 � −9 2 −1 4
  0 8 −5 7 

� �
� 
 A=



 � 1 6 3 −6 
a1,1 a1,2 a1,3 no es parte del determinante, es sólo para −4 1 0 3

� � 
 ayudar a recordar la fórmula


a2,1 a2,2 a2,3 A
Calcular M2,3 A
; M4,2 A
y M2,2 .

Jorge Campos 55 56 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Solución. Ejemplo 2.6. Calcular el determinante de la matriz


       
−9 2 4 −9 −1 4 −9 −1 4 2 0 0 0 0
A
M2,3 =  1 6 −6  ; A
M4,2 =  0 −5 7  y A
M2,2 = 1 3 −6   12 1 0 0 0 
 
−4 1 3 1 3 −6 −4 0 3 
A =  −3 0 −3 0 0 

 5 −8 7 −1 0 
−9 6 −7 0 −6

Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la Solución. Notemos primero que A es triangular inferior.
fórmula dada en la definición 2.2 puede ser escrita como
� �
� 2 0 0 0 0 �
det(A) = |A| = a1,1 mA A A � �
1,1 − a1,2 m1,2 + a1,3 m1,3 � 12 1 0 0 0 �
� �
= a1,1 (−1)1+1 mA
1,1 + a1,2 (−1)
1+2 A
m1,2 + a1,3 (−1)1+3 mA
1,3 det(A) = |A| = �� −3 0 −3 0 0 �

� A� � A� � A� � 5 −8 �
= a1,1 (−1) det M1,1 + a1,2 (−1)1+2 det M1,2
1+1
+ a1,3 (−1)1+3 det M1,3 � 7 −1 0 �
� −9 6 −7 0 −6 �
La idea es generalizar esta fórmula para una matriz A de orden n. = 2(−1)1+1 mA 1,1 + 0(−1)
1+2 A
m1,2 + 0(−1)1+3 mA 1,3 + 0(−1)
1+4 A
m14 + 0(−1)1+5 mA
15
� �
� 1 0 0 0 �
Definición 2.4. Sea A ∈ Mn×n (R). Definiremos el determinante de A, determinante �
� 0 −3

� A� 0 0 ��
de orden n, como� el número real � = 2(−1)1+1 det M1,1 = 2 ��
�a1,1 a1,2 · · · a1n � � −8 7 −1 0 ��
� � � 6 −7 0 −6 �
�a2,1 a2,2 · · · a2n � � � A � �n
� � n 1+j 1+j A  � � � �
det(A) = |A| = � .. .. . . .. � = j=1 a1j (−1) det M1j = j=1 a1j (−1) m1j . � −3 0 0 �� � 0 0 0 ��
� . . . . � 1+1 �
� �
� � 
= 2 1(−1) � 7 −1 � 1+2 �
0 � + 0(−1) � −8 −1 0 ��
� an1 an2 · · · ann �
� −7 0 −6 � � 6 0 −6 �
� � � �
Ejemplo 2.5. Calcular el determinante de la matriz del ejemplo 2.4 � 0 −3 0 �� � 0 −3 0 ��
1+3 �
� �
+0(−1) � −8 7 � 1+4 �
0 � + 0(−1) � −8 7 −1 ��
Solución. � 6 −7 −6 � � 6 −7 0 �
� � � �
� −9 2 −1 � −3 0 0 ��
� 4 �� �
� 0 8 −5 7 � = 2 · 1 �� 7 −1 0 ��
det(A) = |A| = �� � � −7 0 −6 �
� 1 6 3 −6 �� � � � � �
� −4 1 0 3 � � −1 0 �� � 7 0 ��
� A� � A� � A� = 2 · 1 (−3)(−1)1+1 �� + 0(−1) 1+2 �

= (−9)(−1) det M1,1 + 2(−1)1+2 det M1,2


1+1
+ (−1)(−1)1+3 det M1,3 0 −6 � � −7 −6 �
� � � ��
� 7 −1 �
+4(−1)1+4 det M1,4 A
+0(−1) � 1+3 � �

� 8 −5



� 0 −5
� � � � � −7 0 �
� 7 � � 7 �� �� 0 8 7 �� � 0 8 −5


� � �
� −1 �
0 �
= −9 �� 6 3 −6 �� − 2 �� 1 3 −6 �� − �� 1 6 −6 �� − 4 �� 1 6 3 �
� = 2 · 1(−3) �� = 2 · 1(−3)((−1)(−6) − 0 · 0)
� 1 0 3 � � −4 0 3 � � −4 1 3 � � −4 1 0 � 0 −6 �
= −9(72 + 0 + 30 − 21 − 0 + 90) − 2(0 + 0 − 120 + 84 − 0 + 15) = 2 · 1(−3)(−1)(−6) = −36
−(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0) ¡El determinante de A es el producto de las componentes de la diagonal principal! este re-
= −1539 + 42 − 343 + 884 = −956 sultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos
luego.

Jorge Campos 57 58 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Definición 2.5. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo Demostración. Ver apéndice D.
cofactor de A como el número real CijA dado por
� �
CijA = (−1)i+j det MijA = (−1)i+j mA
ij Ejemplo 2.8. Calcular el determinante de la matriz A del ejemplo 2.2 al desarrollar el
determinante mediante la tercera fila y mediante la segunda columna.
Ejemplo 2.7. Para la matriz del ejemplo 2.4 se tiene que
Solución. En primer lugar hallemos el determinante de A desarrollándolo mediante la ter-
� � cera fila.
� −9 2 4 ��
� A� � � �
A
C2,3 = (−1) m2,3 = − det M2,3 = − �� 1 6 −6 ��
2+3 A
� 2 −3 −1 �
� −4 1 � �
3 � det(A) = |A| = � −6� 1 5 ��
= −(−162 + 4 + 48 + 96 − 54 − 6) = 74 � −7 0 6 �
� � � � � �
� −3 −1 � � � 2 −1 � � �
= −7(−1)3+1 �� + 0(−1)3+2 �� � + 6(−1)3+3 � 2 −3 �
� � 1 5 � −6 5 � � −6 1 �
� −9 −1 4 �
� A� � � = −7(−15 + 1) + 0 + 6(2 − 18) = 2
A
C4,2 = (−1)4+2 mA = det M = � 0 −5 7 �
4,2 4,2 � �
� 1 3 −6 �
Ahora desarrollemos el determinante de A mediante la segunda columna.
= −270 + 0 − 7 + 20 + 189 − 0 = −68 � �
� 2 −3 −1 �
� �
� � det(A) = |A| = �� −6 1 5 ��
� −9 −1 4 �� � −7 0 6 �
� � � � � � � � �
A
C2,2 = (−1) 2+2
= det mA �
= � 1 3 −6 �� A
M2,2 � −6 5 � � � � �
2,2
� −4 = −3(−1)1+2 �� � + 1(−1)2+2 � 2 −1 � + 0(−1)3+2 � 2 −1 �
0 3 � −7 6 � � −7 6 � � −6 5 �
= −81 + 0 − 24 + 48 − 0 + 3 = −54 = 3(−36 + 35) + (12 − 7) + 0 = 2

Haciendo uso de los cofactores, podemos escribir � �
Teorema 2.2. Si A ∈ Mn×n (R), entonces det AT = det(A).
n
� n
� n

� A�
det(A) = a1j (−1)1+j det M1j = a1j (−1)1+j mA
1j =
A
a1j C1j Demostración. ¡Ejercicio!
j=1 j=1 j=1 Sugerencia: proceder por inducción sobre n y usar el teorema 2.1
La demostración del teorema que enunciaremos a continuación escapa al objetivo del curso,
sin embargo, de él se derivan el resto de las propiedades que serán enunciadas más adelante,
Teorema 2.3. Si A = (aij )n×n ∈ Mn×n (R) es una matriz triangular (superior o inferior),
en el apéndice D se puede encontrar una demostración de éste.
entonces det(A) = a1,1 a2,2 · · · ann .
Teorema 2.1. Si A = (aij )n×n ∈ Mn×n (R), entonces
Demostración. Procedamos por inducción sobre n. Supongamos, sin perder generalidad,
n
� n
� n

i+j
� � que A es una matriz triangular superior.
1. det(A) = aij (−1) det MijA = aij (−1) i+j
mA
ij = aij CijA para cualesquiera Verifiquemos que se cumple para n = 2. Sea
j=1 j=1 j=1
� �
i ∈ {1, . . . , n} (Desarrollo del determinante de A mediante la fila i-ésima). a1,1 a1,2
A=
n
� � � n
� n
� 0 a2,2
2. det(A) = aij (−1)i+j det MijA = aij (−1)i+j mA
ij = aij CijA para cualesquiera
i=1 i=1 i=1 Entonces
j ∈ {1, . . . , n} (Desarrollo del determinante de A mediante la columna j-ésima). det(A) = a1,1 a2,2 − a1,2 · 0 = a1,1 a2,2

Jorge Campos 59 60 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Supongamos ahora que se cumple para n−1, esto es, supongamos que para cualquier matriz Teorema 2.5. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s)
triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que y B(i) = A(i) para i �= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
det(A) = a1,1 a2,2 · · · a(n−1)(n−1) (Hipótesis Inductiva). por un escalar α, entonces el determinante de la matriz resultante es igual al determinante
Probemos ahora que se cumple para n. Sea de A multiplicado por α.
 
a1,1 a1,2 · · · a1n Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para
 0 a2,2 · · · a2n  i �= s, entonces bsj = αasj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al
 
A =  .. . . . . . . ..  eliminar la fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego
 . .  A B
0 · · · 0 ann Msj = Msj para cada j ∈ {1, . . . , n} (¿por qué?).
Por lo tanto
B
Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos Csj = (−1)s+j det(Msj B
) = (−1)s+j det(Msj
A A
) = Csj
para cada j ∈ {1, . . . , n}.
� A�
A
det(A) = 0 · Cn1 A
+ · · · + 0 · Cn(n−1) A
+ ann Cnn = ann (−1)n+n det(Mnn
A
) = ann det Mnn Ası́, al desarrollar el determinante de B por medio de la fila s, obtenemos
n
� n
� n

Pero B A A
det(B) = bsj Csj = αasj Csj =α asj Csj = α det(A)
  j=1 j=1 j=1
a1,1 a1,2 · · · a1(n−1)
 0 a2,2 · · · a2(n−1) 
A  
Mnn =  .. .. .. .. 
 . . . . 
0 · · · 0 a(n−1)(n−1) Ejemplo 2.9. Sea  
2 −1 2
A
es decir, Mnn es una matriz triangular
� Asuperior
� de orden (n − 1), por lo tanto, usando la A=  12 −16 4 
Hipótesis Inductiva, se tiene que det Mnn = a1,1 a2,2 · · · a(n−1)(n−1) . Luego −2 0 3
det(A) = ann a1,1 a2,2 · · · a(n−1)(n−1) = a1,1 a2,2 · · · a(n−1)(n−1) ann Entonces
� � � � � �
Lo cual concluye la prueba. � 2 −1 2 � � 2 −1 2 �� � 2 −1 2 �
� � � � �

det(A) = � 12 −16 4 � � 4 · 3 4(−4) 4 · 1 � � 3 −4 1 �
� = � � = 4� �
� −2 0 3 � � −2 0 3 � � −2 0 3 �
Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del = 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
determinante, estas propiedades nos permitirán calcular el determinante de una matriz sin
hacer demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin = 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116
embargo, en virtud del teorema 2.2, se pueden enunciar propiedades análogas para columnas.

Teorema 2.4. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero. Teorema 2.6. Sean A, B, C ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i �= s, entonces det(C) = det(A) + det(B), dicho de otra manera,
Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada si tenemos tres matrices A, B, C cuyas filas son idénticas excepto la fila s, y que la fila s de
j ∈ {1, . . . , n}. C es igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que igual a la suma del determinante de A con el determinante de B.
n
� n

A A Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
det(A) = asj Csj = 0 · Csj =0
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i �= s, entonces csj = asj + bsj para cada
j=1 j=1
j ∈ {1, . . . , n} y además, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, ası́ que Msj = Msj = Msj para cada j ∈ {1, . . . , n}.

Jorge Campos 61 62 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Por lo tanto Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y la columna 2 de B


C
Csj B
= Csj A
= Csj es igual a la columna 2 de A. Además
� �
para cada j ∈ {1, . . . , n} (¿por qué?). � 2 −1 2 ��

En consecuencia det(B) = �� 4 −16 12 ��
� 3 0 −2 �
n
� n
� n
� n

det(C) = C
csj Csj = C
(asj + bsj )Csj = C
asj Csj + C
bsj Csj = 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4
j=1 j=1 j=1 j=1 = 64 + 0 − 36 + 96 − 0 − 8 = 116
�n n
� = − det(A)
A B
= asj Csj + bsj Csj = det(A) + det(B)
j=1 j=1 �

Teorema 2.8. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s �= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.
Ejemplo 2.10. Sea A la matriz del ejemplo 2.9. Entonces
Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t
� � � � de A. Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
� 2 −1 2 �� � 4 + (−2) −1 2 �
� � � Por otro lado, dado que s �= t y según el teorema 2.7, det(B) = − det(A).
det(A) = �� �
12 −16 4 � = � � 6 + 6 −16 4 ��
� −2 0 3 � � 1 + (−3) 0 3 � Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.
� � � �
� 4 −1 2 �� �� −2 −1 2 ��

= �� 6 −16 4 �� + �� 6 −16 4 �� Ejemplo 2.12. Sea  
� 1 0 3 � � −3 0 3 � 2 −1 −2
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] A = 4 −16 12 

2 −1 −2
+[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18] Entonces A(1) = A(3) y
= −146 + 30 = −116 � �
� 2 −1 −2 �
� �
det(A) = �� 4 −16 12 ��
� � 2 −1 −2 �
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
Teorema 2.7. Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s �= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i �= s e i �= t, entonces det(B) = − det(A), en otras palabras, = 64 + 8 − 24 − 64 + 24 − 8 = 0
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al

determinante de A multiplicado por −1.
Teorema 2.9. Sean A ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s �= t y
Demostración. Ver Apéndice D. A(s) = αA(t) , entonces det(A) = 0, esto es, si una fila de A es un múltiplo escalar de alguna
otra fila de A, su determinante es igual a cero.

Ejemplo 2.11. Sea A la matriz del ejemplo 2.9 y sea Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i �= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.8, se tiene que det(B) = 0.
 
2 −1 2 Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 2.5, se
B =  4 −16 12  tiene que det(A) = α det(B) = α0 = 0.
3 0 −2

Jorge Campos 63 64 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

Ejemplo 2.13. Sea   El siguiente ejemplo nos da un método para calcular el determinante de una matriz A
2 8 2 haciendo uso de las propiedades dadas en los siete teoremas precedentes, más propiamente
A =  −4 −16 1  usaremos los teoremas 2.5, 2.7 y 2.10. Como veremos, el cálculo resulta mucho más sencillo
3 12 −2 que al usar la definición.
Como se dijo en la observación 1.15, usaremos tanto OEF como operaciones elementales por
Entonces A(2) = 4A(1) , además
columnas (OEC) para el cálculo de determinantes, éstas últimas operaciones las indicaremos
� � de manera análoga a las OEF, salvo que en lugar de usar F usaremos C.
� 2 8 2 ��

det(A) = �� −4 −16 1 �� Ejemplo 2.15. Calcular el determinante de la matriz
� 3 12 −2 �  
6 −1 2 13 2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4)  −1 0 −1 −3 −1 
 
= 64 − 96 + 24 + 96 − 24 − 64 = 0 A=  0 −3 0 9 0 

 7 1 3 12 3 
� 0 −2 4 1 −3

Teorema 2.10. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s �= t, Solución.
� �
B(s) = A(s) + αA(t) y B(i) = A(i) para i �= s, entonces det(B) = det(A), dicho de otra forma, � 6 −1 2 13 2 ��

si a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, el determinante � −1 0 −1 −3 −1 �
� �
de la matriz resultante es igual al determinante de A. det(A) = �� 0 −3 0 9 0 ��
� 7 1 3 12 3 ��

Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i �= s y C(s) = αA(t) . Por � 0 −2 4 1 −3 �
lo tanto, dado que s �= t y en virtud del teorema 2.9, det(C) = 0. � �
� 6 −1 2 10 2 ��
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 2.6 �
� −1 0 −1 −3 −1 �� � �
� C4 → C4 + 3C2
= �� 0 −3 0 0 0 ��
det(B) = det(A) + det(C) = det(A) + 0 = det(A) � 7 por teorema 2.10
� 1 3 15 3 ��
� 0 −2 4 −5 −3 �
� �
� 6 2 10 2 �� �
� �
Ejemplo 2.14. Sea A la matriz del ejemplo 2.9 y sea � −1 −1 −3 −1 � desarrollando el determinante
= −3(−1)3+2 �� �
� mediante la tercera fila
  � 7 3 15 3 �
2 −1 2 � 0 4 −5 −3 �
B =  −2 −9 −10  �
� 0 −4 −8 −4 � 


−2 0 3 � � F1 → F1 + 6F2
� −1 −1 −3 −1 �
= 3 �� �  F3 → F3 + 7F2 

Ası́ que B(2) = A(2) − 7A(1) (¡verifı́quelo!). Además � 0 −4 −6 −4 � por teorema 2.10
� 0 4 −5 −3 �
� � � �
� 2 −1 2 �� � −4 −8 −4 � � �
� � � desarrollando el determinante
det(B) = � � −2 −9 −10 � = 3(−1)(−1) � −4 −6 −4 ��
2+1 �

� −2 0 3 � � 4 −5 −3 � mediante la primera columna
� � 
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2) � 0 −13 −7 � F 1 → F1 + F3
� �
= −54 + 0 − 20 − 36 − 0 − 6 = −116 �
= 3 � 0 −11 −7 � �  F 2 → F2 + F3 
� 4 −5 −3 � por teorema 2.10
= det(A) � �� �
� −13 −7 � desarrollando el determinante
� = 3 · 4(−1)3+1 �� �

−11 −7 mediante la primera columna

Jorge Campos 65 66 Jorge Campos


2.1. Determinantes y sus Propiedades Capı́tulo 2. Determinantes. Regla de Cramer

det(A) = 12(−13(−7) − (−7)(−11)) = 12 · 14 = 168 Usando el teorema 2.10, tenemos que

Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos métodos ¿cuál de los det(E) = det(In ) = 1
dos le parece más sencillo?
y
Teorema 2.11. Sea A = (aij )n×n ∈ Mn×n (R). Entonces para cualesquiera s, t ∈ {1, . . . , n} det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)
con s �= t se tiene que
� n n
� Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . . , n} tales que
A A
ask Ctk =0 y aks Ckt =0 E(s) = (In )(t) , E(t) = (In )(s) y E(i) = (In )(i) para i �= s e i �= t. De donde
k=1 k=1 (f (A))(s) = A(t) , (f (A))(t) = A(s) y (f (A))(i) = A(i) para i �= s e i �= t.
Demostración. Sea s, t ∈ {1, . . . , n} con s �= t. Definamos B = (bij )n×n tal que B(i) = A(i) Si s = t, entonces E = In y f (A) = A, ası́ que
para cada i ∈ {1, . . . , n} con i �= t y B(t) = A(s) . Ası́ que, usando el teorema 2.8, det(B) = 0.
det(E) = det(In ) = 1
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son
B A B A
iguales, por lo tanto Mtk = Mtk para cada k ∈ {1, . . . , n}, de donde Ctk = Ctk . Luego, al y
desarrollar el determinante de B mediante la fila t, se tiene que det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)
n
� n

B A Si s �= t, podemos usar el teorema 2.7 y obtenemos
det(B) = btk Ctk = ask Ctk
k=1 k=1 det(E) = − det(In ) = −1
n
� n

A A y
En consecuencia ask Ctk = 0, análogamente se prueba que aks Ckt = 0.
det(EA) = det(f (A)) = − det(A) = (−1) det(A) = det(E) det(A.)
k=1 k=1

En cada caso se obtuvo que det(E) �= 0.


Teorema 2.12. Si E ∈ Mn×n (R) es una matriz elemental, entonces para cada A ∈ Mn×n (R)
se tiene que det(EA) = det(E) det(A). Además, det(E) �= 0. Corolario 2.13. Sean E1 , E2 , . . . , Er ∈ Mn×n (R) matrices elementales. Entonces, para cada
Demostración. Como E ∈ Mn×n (R) es una matriz elemental, existe una OEF A ∈ Mn×n (R), se tiene que
f : MFn (R) → MFn (R) tal que E = f (In ). Luego, usando la parte 1 del corolario 1.13, det(E1 E2 · · · Er A) = det(E1 ) det(E2 ) · · · det(Er ) det(A).
se tiene que EA = f (In )A = f (A).
Debemos proceder por casos sobre el tipo de OEF. Demostración. ¡Ejercicio!

Caso 1. f es una OEF tipo 1. Ası́ que existen s ∈ {1, . . . , n} y α �= 0 tales que
E(s) = α(In )(s) (donde (In )(s) es la fila s de In ) y para i �= s se tiene que Teorema 2.14. Si A ∈ Mn×n (R) es una matriz ERF, entonces det(A) �= 0 si y sólo si
E(i) = (In )(i) . Luego (f (A))(s) = αA(s) y para i �= s tenemos (f (A))(i) = A(i) . A = In .

Por lo tanto, según el teorema 2.5, Demostración. Sea A = (aij )n×n . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.2.3), ası́ que aij = 0 para i > j y además, en virtud del teorema 2.3, se tiene que
det(E) = α det(In ) = α · 1 = α det(A) = a1,1 a2,2 · · · ann .
Supongamos que det(A) �= 0. Luego aii �= 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para
y i > j, entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-ésima fila es
det(EA) = det(f (A)) = α det(A) = det(E) det(A). aii , y por ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii
es un pivote y por lo tanto aij = 0 para i �= j (¿por qué?). En resumen
Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s �= t, y α ∈ R tales

que E(s) = (In )(s) + α(In )(t) y E(i) = (In )(i) para i �= s. Ası́ que 1 si i = j
(f (A))(s) = A(s) + αA(t) y (f (A))(i) = A(i) para i �= s. aij =
0 si i �= j

Jorge Campos 67 68 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

Es decir, A = In . Definición 2.6. Sea A ∈ Mn×n (R). Se define la matriz adjunta de A como la matriz
Recı́procamente, si A = In , entonces det(A) = 1 �= 0. adj(A) ∈ Mn×n (R) cuya ij-ésima componente es el ji-ésimo cofactor de A para cualesquie-
ra i, j ∈ {1, . . . , n}, es decir, si adj(A) = (bij )n×n , entonces bij = CjiA para cualesquiera
i, j ∈ {1, . . . , n}.
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada y nos va a permitir conocer, a priori, si una matriz es o no invertible antes de usar Observación 2.5. Si C = (CijA )n×n , es decir, si C es la matriz real cuadrada cuya
el procedimiento, ya antes expuesto, del cálculo de la inversa de una matriz. ij-ésima componente es el ij-ésimo cofactor de A para cualesquiera i, j ∈ {1, . . . , n}, en-
tonces adj(A) = C T .
Teorema 2.15. Sea A ∈ Mn×n (R). Entonces A es invertible si y sólo si det(A) �= 0.
Ejemplo 2.16. Calcular la adjunta de
Demostración. Sea B ∈ Mn×n (R) la FERF A. Entonces existen matrices elementales
E1 , E2 , . . . , Er ∈ Mn×n (R) tales que B = E1 E2 · · · Er A. Sabemos, en virtud del teorema  
2 −1 3
2.12, que det(Ei ) �= 0 para cada i ∈ {1, . . . , r}, entonces det(A) �= 0 si y sólo si det(B) �= 0; 
A= 1 0 2 
y usando el teorema 2.14 se tiene que B = In . Por lo tanto det(A) �= 0 si y sólo si la FERF 4 −1 7
de A es In , lo cual concluye la prueba.
Solución. Necesitamos calcular cada uno de los cofactores de A. Veamos
� � � �
Teorema 2.16. Sean A, B ∈ Mn×n (R). Entonces det(AB) = det(A) det(B). � 0 2 � � 1 2 �
A
C1,1 = (−1)1+1 �� � = 2; C1,2

A
= (−1)1+2 �� � = 1;
−1 7 4 7 �
Demostración. � � � �
� 1 0 �� � −1 3 �
A
C1,3 = (−1)1+3 �� = −1; C2,1 A
= (−1)2+1 �� � = 4;
Caso 1. det(A) = 0. Ası́ que, en virtud del teorema 2.15, A no es invertible. Luego, 4 −1 � −1 7 �
usando el teorema 1.25, se tiene que AB no es invertible, y nuevamente por el � � � �
� 2 3 � � 2 −1 �
teorema 2.15 se tiene que det(AB) = 0. Por lo tanto A
C2,2 = (−1)2+2 �� � = 2; C2,3 A
= (−1)2+3 �� � = −2;
4 7 � 4 −1 �
det(AB) = 0 = 0 det(B) = det(A) det(B) � � � �
� −1 3 � � 2 3 �
A
C3,1 = (−1)3+1 �� � = −2; C3,2 A
= (−1)3+2 �� � = −1;
0 2 � 1 2 �
Caso 2. det(A) �= 0. Luego A es invertible, en virtud del teorema 2.15. Ası́ que, al usar el � �
teorema 1.23, tenemos que existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) � 2 −1 �
A
C3,3 = (−1)3+3 �� � = 1;
tales que A = E1 E2 · · · Er . Luego, por el corolario 2.13 1 0 �
Ası́ que  A   
det(A) = det(E1 E2 · · · Er ) = det(E1 ) det(E2 ) · · · det(Er ) y A A
C1,1 C2,1 C3,1 2 4 −2
adj(A) =  C1,2
A A
C2,2 A 
C3,2 = 1 2 −1 
A A A
det(AB) = det(E1 E2 · · · Er B) C1,3 C2,3 C3,3 −1 −2 1
= det(E1 ) det(E2 ) · · · det(Er ) det(B) = det(A) det(B)

Teorema 2.17. Sea A ∈ Mn×n (R). Entonces A adj(A) = det(A)In = adj(A)A.

Demostración. Hagamos adj(A) = (bjk )n×n . Ası́ que para cada j, k ∈ {1, . . . , n}, se tiene
A
2.2. Matriz Adjunta. Regla de Cramer que bjk = Ckj .
Si hacemos A adj(A) = D = (dik )n×n , entonces, para cada i, k ∈ {1, . . . , n}, tenemos que
En esta sección definiremos la adjunta de una matriz y enunciaremos la regla de Cra- n n
� �
mer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante dik = aij bjk = A
aij Ckj .
aplicación de los determinantes. j=1 j=1

Jorge Campos 69 70 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

Pero n
Consideremos la ecuación matricial Ax = b, donde A ∈ Mn×n (R). Si A es invertible,
� entonces la única solución de dicha ecuación está dada por x = A−1 b, ası́ que, una forma de
aij CijA = det(A)
j=1
hallar la solución de la ecuación en cuestión, es calcular la inversa de A y multiplicarla por b,
pero quizás esto es mucho más complicado y costoso (en términos de cálculos) que calcular
y según el teorema 2.11, si i �= k, entonces la FERF de la matriz [A|b].
n
� En el siguiente teorema presentaremos una herramienta que permite resolver la ecuación
A
aij Ckj =0 anterior usando determinantes, sin necesidad de calcular la inversa de A ni la FERF de [A|b],
j=1 dicha herramienta se conoce con el nombre de la regla de Cramer .
Por lo tanto Teorema  (Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R).
 2.19
� x1
det(A) si i = k  x2 
dik =  
0 si i �= k Si x =  ..  es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n},
� .
1 si i = k x
= det(A) � n�
0 si i �= k
det Abj
= det(A)δik xj = , donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j)
det(A)
donde In = (δik )n×n . En consecuencia A adj(A) = det(A)In . De manera análoga se prueba por b, esto es, � �
que adj(A)A = det(A)In , lo cual concluye la prueba. Abj = A(1) · · · A(j−1) b A(j+1) · · · A(n)
Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema
1 1
−1 1 Ax = b es x = A−1 b, pero A−1 = adj(A), ası́ que x = adj(A)b, por lo tanto, si
Teorema 2.18. Si A ∈ Mn×n (R) es invertible, entonces det(A ) = y det(A) det(A)
det(A)  
1 b1
A−1 = adj(A).  b2  1 � A
n
det(A)  
b =  .. , entonces xj = C bi para cada j ∈ {1, . . . , n}.
. det(A) i=1 ij
Demostración. Como A es invertible, entonces existe A−1 ∈ Mn×n (R) tal que
bn
AA−1 = In = A−1 A, y por el teorema 2.16
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
 
det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1. a1,1 · · · a1(j−1) b1 a1(j+1) ··· a1n
 . . . . . 
Luego  .. .. .. .. .. 
 
1  a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n 
det(A−1 ) = . b 
Aj =  ai1 ··· ai(j−1) bi ai(j+1) ··· ain 

det(A)  
Por otro lado, usando el teorema 2.17, se tiene que  a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n 
 
� �  ... ... ... ... ... 
1 1 1 an1 · · · an(j−1) bn an(j+1) · · · ann
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A) Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
De donde � Ab �
1 Ab � �
A−1 = adj(A). Cij j = (−1)i+j det Mij j = (−1)i+j det MijA = CijA
det(A)
Luego, al desarrollar el determinante de Abj por medio de la j-ésima columna, obtenemos
n
� n

Ejercicio 2.2.1. Sea A ∈ Mn×n (R) una matriz invertible. Pruebe que adj(A) también es det(Abj ) =
Ab
Cij j bi = CijA bi
invertible y además (adj(A))−1 = adj(A−1 ). i=1 i=1

Jorge Campos 71 72 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

� � � �
En consecuencia, para cada j ∈ {1, . . . , n}, tenemos que � 1 2 −1 ��
3 � 1 3 2 −1 � � �
� � � � −1 0 2 �
� � � b� � 1 22 1 �� � 0 −1 0 2 � � �
det Abj det A2 = �� = � � = � −11 −6 1 �
xj = � 4 2 −3 ��
1 � 0 −11 −6
� 1 �





� 1 1 4
det(A) 0 11 4 � � 0 1 1 4 �
� �
� −1 0 0 �� � �
� � −6 −21 �
= �� −11 −6 −21 �� = − �� � = −(−36 + 21) = 15.
Ejemplo 2.17. Verificar que la matriz del sistema � 1 6 �
 1 1 6 �

 x +2z −w = 3

x +y +2z +w = 2 � � � �
4x +2y +2z −3w = 1 � 1 03 −1 �� � 1 0 2 −1 �� � �

 � � � 1 −1 2 �
 � � � 1 12 1 �� � 0 1 −1 2 �� � �
2y +z +4w = 1 det A3 b
= �� = �� = �� 2 −11 1 �
4 21 −3 �� 2 −11 � �
� � 0 1 � � 2 1 4 �
es invertible y usar la regla de Cramer para hallar la solución del sistema. � 0 21 4 � � 0 2 1 4 �
� �
Solución. La matriz del sistema es � 1 −1 �
2 � � �
  � � −9 −3 ��
1 0 2 −1 = �� 0 −9 −3 �� = �� = 9.
� 3 0 �
 1 1 2 1  0 3 0 �

A= 
4 2 2 −3 
0 2 1 4 � � � �
� 1 0 �2 3� 1 0 2 3 �� � �
� � � � 1 0 −1 �
� � � 1 1 �2 2� 0 −1 �� � �
hallemos su determinante
� � � � det Ab4 = �� � = � 0 1 = � 2 −6 −11 �
� 1 0 2 −1 � � 1 0 4 2 �2 1� 0 2 −6 −11 � � �
� � � 2 −1 �� �
� 1



� 1
� � � � � � 2 1 1 �
� 1 1 2 � � 0 1 � � 0 2 � � 0 0 �� � 0 2 �1 1� 0 2 1 1 �
1 0 2 � �
det(A) = �� � = �
� � 0 2 −6
� = � 2 −6 1
� �
� = � 2 −6 −3 �
� � � � 1 0 0 �� � �
� 4 2 2 −3 � � 1 � � 2 � � 2 � � −6 −9 �
1 4 1 0 �
� 0 2 1 4 � � 0 2 1 4 � = �� 2 −6 −9 �� = �� � = −18 + 9 = −9.

� � � 1 3
� −6 −3 � 2 1 3 �
= �� � = 3 �= 0.
1 0 � � � � � � �
det Ab1 −18 det Ab2 15 det Ab3 9
Por lo tanto la matriz del sistema es invertible, ası́ que podemos aplicar la regla de Cramer En consecuencia x = = = −6; y = = = 5; z = = = 3;
� b� det(A) 3 det(A) 3 det(A) 3
para resolverlo. En este caso la matriz de términos independientes es det A4 −9
  w= = = −3, es decir, la solución del sistema dado es:
3 det(A) 3
 2     
b= 
 1  x −6
 y   5 
1    
 z = 3 
Luego w −3
� � � �

3 0 2 −1 �� � 0 −6 −1 −13 �� � �
� � � −6 −1 −13 �
� � �
2 1 2 1 �� � 0 −3 0 −7 �� � �
det A1 b
= �� � = �
� 0 = − � −3 0 −7 �
1
� 2 2 −3 � � 0 1 −7 �� �
� 0
� Ejemplo 2.18. Una fábrica produce tres tipos de productos, mezclando para ello tres materias
� � � 1 � 1 −7 �
1 2 1 4 2 1 4 primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
� �
� −6 0 −20 �� � � materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3;
� � −6 −20 ��
= − �� −3 0 −7 �� = �� = 42 − 60 = −18. para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y
� � −3 −7 � tres de la materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan,
0 1 −7

Jorge Campos 73 74 Jorge Campos


2.2. Matriz Adjunta. Regla de Cramer Capı́tulo 2. Determinantes. Regla de Cramer

tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima −24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
3. Si este mes la fábrica cuenta con seis millones de unidades de la materia prima 1, doce −12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
millones de unidades de la materia prima 2 y seis millones de la materia prima 3 ¿cuántas
unidades de cada uno de los productos 2 y 3.
unidades de cada producto puede producir la fábrica usando el total de las materias primas?
Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es: 2.3. Determinantes de Matrices Triangulares por Blo-
x1 + x2 + 3x3 de la materia 1 ques
3x1 + 3x2 + 3x3 de la materia 2 En esta última sección estamos interesados en estudiar un poco las matrices expresadas
por bloques, las cuales nos servirán para el estudio de la forma canónica de Jordan
2x1 + 2x3 de la materia 3 (ver la sección 5.3 del capı́tulo 5), no haremos un estudio muy extenso, sólo lo necesario.
Como se quiere usar el total de las materias primas, entonces
 Definición 2.7. Sean m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ , m = m1 + m2 + · · · + mr y
 x1 +x2 +3x3 = 6 n = n1 + n2 + · · · + ns . Para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} consideremos una
3x1 +3x2 +3x3 = 12 matriz Aij ∈ Mmi ×nj (R). La matriz A ∈ Mm×n (R) dada por

2x1 +2x3 = 6  
A1,1 A1,2 · · · A1s
En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos inde-  A2,1 A2,2 · · · A2s 
pendientes son, respectivamente:  
A =  .. .. .. 
       . . . 
1 1 3 x1 6 Ar1 Ar2 · · · Ars
 
A = 3 3 3 ; x = x2   y b = 12 

2 0 2 x3 6 se dice que está expresada por bloques y para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s},
la matriz Aij es llamada submatriz o matriz bloque de A.
Veamos si podemos aplicar la regla de Cramer. Para ello calculemos el determinante de la
matriz del sistema. Ejemplo 2.19. Si definimos
� � � �
� 1 1 3 � � 1 1 3 � � �    
� � � � � � 2 −1 0 3 5 � � � �
det(A) = �� 3 3 3 �� = �� 0 0 −6 � = − � 0 −6 � = −12 �= 0. 3 −1 3 0 4
� 2 0 2 � � 2 0


� 2 2 � A1,1 =  4 2 1  ; A1,2 =  −5 2  ; A2,1 = y A2,2 = ,
2 7 −1 2 1 3
6 7 −2 9 −1
Como la matriz del sistema es invertible, podemos usar la regla de Cramer.
entonces
� � � �
� � � 3 �� � �    
� b� � 6 1 3 � � 6 1 � −6 −6 � 2 −1 0 3 5 2 −1 0 3 5
� � �
det A1 = � 12 3 3 � = � −6 0 −6 �� = − �� � = −(−12 + 36) = −24.
� 6 0 2 � � 6 0 6 2 � � �  4 2 1 −5 2   4 2 1 −5 2 
2 � A1,1 A1,2    
A= =
 6 7 −2 9 −1  
= 6 7 −2 9 −1 

� � � � A2,1 A2,2 
� � � � � � 3 −1 3 0 4   3 −1 3 0 4 
� b� � 1 6 3 � � 1 6 3 � � −6 −6 �
7 −1 2 1 3 7 −1 2 1 3
det A2 = �� 3 12 3 �� = �� 0 −6 −6 �=�
� � −6 −4
� = 24 − 36 = −12.

� 2 6 2 � � 0 −6 −4 �
� � � � �
� � � 6 �� � �
� b� � 1 1 6 � � 1 1 � 0 −6 ��

det A3 = � 3 3 12 �� = �� 0 0 −6 �� = − �� = −12. Sean A, B ∈ Mm×n (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ son como en la definición
� 2 0 6 � � 2 � 2 6 � 2.7 y si para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} definimos Aij , Bij ∈ Mmi ×nj (R) de tal
0 6

Jorge Campos 75 76 Jorge Campos


2.3. Determinantes de Matrices Triangulares por Bloques Capı́tulo 2. Determinantes. Regla de Cramer

manera que donde para cada i ∈ {1, . . . , r} y cada k ∈ {1, . . . , t} se tiene que Cik ∈ Mmi ×pk (R) está dada
    por
�s
A1,1 A1,2 · · · A1s B1,1 B1,2 · · · B1s
 A2,1 A2,2 · · · A2s   B2,1 B2,2 · · · B2s  Cik = Ai1 B1k + Ai2 B2k + · · · + Ais Bsk = Aij Bjk .
   
A =  .. .. ..  y B =  .. .. ..  j=1
 . . .   . . . 
A continuación daremos el resultado en el cual estamos más interesados.
Ar1 Ar2 · · · Ars Br1 Br2 · · · Brs
Teorema 2.20. Sean B ∈ Mm×m (R), C ∈ Mm×n (R) y D ∈ Mn×n (R) tales que
entonces es claro que
� �
  B C
αA1,1 αA1,2 · · · αA1s A= /
0n×m D
 αA2,1 αA2,2 · · · αA2s 
 
1. αA =  .. .. ..  Entonces det(A) = det(B) det(D).
 . . . 
αAr1 αAr2 · · · αArs Demostración. Fijemos n y procedamos por inducción sobre m.
  Verifiquemos que se cumple para m = 1. En este caso, B = [b] con b ∈ R y
A1,1 + B1,1 A1,2 + B1,2 · · · A1s + B1s
 A2,1 + B2,1  � �
 A2,2 + B2,2 · · · A2s + B2s  b C
2. A + B =  .. .. ..  A= /
 . . .  0n×1 D
Ar1 + Br1 Ar2 + Br2 · · · Ars + Brs
Al desarrollar el determinante de A mediante la primera columna se obtiene
  � A�
AT1,1 AT2,1 · · · ATr1 A
det(A) = bC1,1 = b(−1)1+1 det M1,1 = b det(D) = det(B) det(D)
 AT1,2 AT2,2 · · · ATr2 
 
3. AT =  .. .. .. 
 . . .  (Hipótesis Inductiva) Supongamos que se cumple para m−1, es decir, si B ∈ M(m−1)×(m−1) (R),
AT1s AT2s · · · ATrs C ∈ M(m−1)×n (R) y D ∈ Mn×n (R) son tales que
� �
B C
Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el A= /
siguiente. 0n×(m−1) D
Sean A ∈ Mm×n (R) y B ∈ Mn×p (R). Si m1 , m2 , . . . , mr , n1 , n2 , . . . , ns ∈ Z+ son como entonces det(A) = det(B) det(D).
en la definición 2.7 y p1 , p2 , . . . , pt ∈ Z+ son tales que p = p1 + p2 + · · · + pt y si para Probemos que se cumple para m. Sean B ∈ Mm×m (R), C ∈ Mm×n (R) y D ∈ Mn×n (R)
cada i ∈ {1, . . . , r}, cada j ∈ {1, . . . , s} y cada k ∈ {1, . . . , t} definimos Aij ∈ Mmi ×nj (R), tales que
Bjk ∈ Mnj ×pk (R) de tal manera que � �
B C
A= /
    0n×m D
A1,1 A1,2 · · · A1s B1,1 B1,2 · · · B1t
 A2,1 A2,2 · · · A2s   B2,1 B2,2 · · · B2t  Luego, al desarrolar el determinante de A, por medio de la primera columna, obtenemos
   
A =  .. .. ..  y B =  .. .. .. 
 . . .   . . .  m
� � �
Ar1 Ar2 · · · Ars Bs1 Bs2 · · · Bst det(A) = bi1 (−1)i+1 det Mi1A
i=1

entonces  
C1,1 C1,2 · · · C1t donde B = (bij )m×m .
 C2,1 C2,2 · · · C2t  Pero para cada i ∈ {1, . . . , m} tenemos que
 
AB =  .. .. ..  � �
 . . .  MB Ci
Mi1A = / i1
Cr1 Cr2 · · · Crt 0n×(m−1) D

Jorge Campos 77 78 Jorge Campos


2.3. Determinantes de Matrices Triangulares por Bloques Capı́tulo 2. Determinantes. Regla de Cramer

donde la matriz Ci ∈ M(m−1)×n (R) se obtiene al eliminar la i-ésima fila de C. Demostración. ¡Ejercicio!
Y usando la hipótesis inductiva, tenemos que
� � � �
det Mi1A = det Mi1B det(D) Observación 2.6. Las matrices dadas en el teorema 2.20 y el corolario 2.21 se conocen con
el nombre de matrices triangulares superior por bloques, de manera análoga se definen
Por lo tanto las matrices triangulares inferior por bloques.
m
� m
� Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz
� � � � � �
det(A) = bi1 (−1)i+1 det Mi1B det(D) = bi1 (−1)i+1 det Mi1B det(D) triangular inferior por bloques (y viceversa), en consecuencia, el teorema 2.20 y el corolario
i=1 i=1 2.21, siguen siendo válidos para matrices triangulares inferior por bloques.
= det(B) det(D) Una matriz que sea triangular superior e inferior por bloques, simultáneamente, es llamada
matriz diagonal por bloques.
lo cual concluye la prueba.
Ejemplo 2.21. Si
 
Ejemplo 2.20. Si   4 5 −3 0 −1 0 0 0 0
2 −1 3 10 1  2 3 −1 1 2 0 0 0 0 
 −1  
 0 4 2 12 
  0 0 3 1 4 0 0 0 0 
  
A =  −4 1 2 4 6   0 0 1 2 −1 0 0 0 0 
 0  
0 0 3 5  A= 0 0 2 4 −1 0 0 0 0 
 
0 0 0 1 2  1 5 −3 4 1 7 −2 4 1 
 
entonces A puede expresarse por bloques como sigue  0 −2 8 6 −5 1 0 5 7 
 
   4 9 5 12 3 0 0 −3 6 
2 −1 3 10 1 1 −2 3 8 −6 0 0 2 −5
 −1 0 4 2 12 
 
A=  −4 1 2 4 6 
entonces
 0 0 0 3 5  � �
� 4 5 −3 0 −1 0 0 0 0 �
0 0 0 1 2 � �
� 2 3 −1 1 2 0 0 0 0 �
� �
� 0 0 3 1 4 0 0 0 0 �
Ası́ que al usar el teorema 2.20 tenemos que � �
� 0 0 1 2 −1 0 0 0 0 �
� � � �
� 2 −1 3 � � � det(A) = �� 0 0 2 4 −1 0 0 0 0 �
� �� 3 5 � �
det(A) = �� −1 0 4 �� �� �=3·1=3


� 1 5 −3 4 1 7 −2 4 1 �

� −4 1 2
1 2 � �
� 0 −2 8 6 −5 1 0 5 7 �

� 4 9 5 12 3 0 0 −3 6 �
� � �
� 1 −2 3 8 −6 0 0 2 −5 �
� �
Corolario 2.21. Sean n1 , n2 , . . . , ns ∈ Z+ , A ∈ Mn×n (R) y Aij ∈ Mni ×nj (R) para � 4 5 −3 0 −1 0 0 0 0 �
� �
i, j ∈ {1, . . . , s} con i ≤ j tales que n1 + n2 + · · · + ns = n y � 2 3 −1 1 2 0 0 0 0 �
� �
  � 0 0 3 1 4 0 0 0 0 �
A1,1 A1,2 ··· A1s � �
� 0 0 1 2 −1 0 0 0 0 �
 0/n ×n A2,2 � �
 2 1 ··· A2s 
 = �� 0 0 2 4 −1 0 0 0 0 �
A= .. .. .. ..  �
 . . . .  � 1 5 −3 4 1 7 −2 4 1 �
� �
0/ns ×n1 ··· 0/ns ×ns−1 Ass � 0 −2 8 6 −5 1 0 5 7 �
� �
� 4 9 5 12 3 0 0 −3 6 �
� �
Entonces det(A) = det(A1,1 ) det(A2,2 ) · · · det(Ass ). � 1 −2 3 8 −6 0 0 2 −5 �

Jorge Campos 79 80 Jorge Campos


2.3. Determinantes de Matrices Triangulares por Bloques Capı́tulo 2. Determinantes. Regla de Cramer

� � � �
� 4 5 −3 0 −1 �� � � −2 1 3 0 0 0 0 0 �
� �� 7 −2 4 1 � � �
� 2 3 −1 1 2 �� � � −1 2 4 0 0 0 0 0 �
� �� 1 0 5 7 � � �
det(A) = �� 0 0 3 1 4 ��
��



� −5 0 3 0 0 0 0 0 �

� �� 0 0 −3 6 � � �
� 0 0 1 2 −1 �� � 4 7 2 6 −3 0 0 0
� � 0 0 2 −5 det(A) = �� �

0 0 2 4 −1 � −2 −6 11 5 −2 0 0 0 �
� � � �
� 45 −3 0 −1 �� � � −2 4 1 −1 3 4 1 0 �
� ��
7 −2 4 1 �� � �
� 23 −1 1 2 �� � 1 8 −6 3 7 2 −4 5 �
� ��
1 0 5 7 �� � �
= �� 00 3 1 4 �� −1 0 3 5 4 3 −1 2
��
0 0 −3 6 �� � � � �
� 00 1 2 −1 �� � −2 1 3 �� �� �� 4 1 0 ��
� ��
0 0 2 −5 � � 6 −3 ��
� 00 2 4 −1 � = �� −1 2 4 �� �� � � 2 −4 5 �
� � � 5 −2 � �� �
� �� �� �� � −5 0 3 � 3 −1 2 �
� 4 5 �� 3 1 4
7 −2 �� �� −3
�� 6 ��
= �� � � 1 2 −1 �� = (−12 − 20 + 0 + 30 − 0 + 3)(−12 + 15)(−32 + 15 + 0 − 0 + 20 − 4)
2 3 � �� ��
�1 0 � � 2 −5 �
2 4 −1 = 1 · 3(−1) = −3
= (12 − 10)(−6 + 16 − 2 − 16 + 12 + 1)(0 + 2)(15 − 12) = 2 · 5 · 2 · 3 = 60

Ejemplo 2.22. Calcular el determinante de la matriz

 
−2 1 3 0 0 0 0 0
 −1 2 4 0 0 0 0 0 
 
 −5 0 3 0 0 0 0 0 
 
 4 7 2 6 −3 0 0 0 
A=



 −2 −6 11 5 −2 0 0 0 
 −2 4 1 −1 3 4 1 0 
 
 1 8 −6 3 7 2 −4 5 
−1 0 3 5 4 3 −1 2

Solución.

� �
� −2 1 3 0 0 0 0 0 �
� �
� −1 2 4 0 0 0 0 0 �
� �
� −5 0 3 0 0 0 0 0 �
� �
� 4 7 2 6 −3 0 0 0 �
det(A) = �� �

� −2 −6 11 5 −2 0 0 0 �
� −2 4 1 −1 3 4 1 0 �
� �
� 1 8 −6 3 7 2 −4 5 �
� �
� −1 0 3 5 4 3 −1 2 �

Jorge Campos 81 82 Jorge Campos


Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ R y u, v ∈ V (distributividad


de la multiplicación por escalar respecto a la adición vectorial).

M3. (αβ) · v = α · (β ·v) = β ·(α · v) para cualesquiera α, β ∈ R y v ∈ V (asociatividad


de la multiplicación escalar y la multiplicación por escalar).

Capı́tulo 3 M4. 1 · v = v para cada v ∈ V (existencia de un elemento neutro para la


multiplicación por escalar).

Espacios Vectoriales. Bases y Observación 3.1. Es de hacer notar que las expresiones a la derecha de las igualdades en
M1 y M2 no son ambiguas pues, a pesar de no haberlo dicho, la operación + tiene mayor
Dimensión jerarquı́a que la operación ·, esto es, (α · u) + v puede ser escrito como α · u + v, pero en la
expresión α · (u + v) no pueden suprimirse los paréntesis.

Observación 3.2. La definición 3.1 se puede extender considerando un campo cualquiera K


Esta es, quizás, el capı́tulo más importante de todo el curso, por lo cual pedimos sea leı́da (ver apéndices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial
con mucho detenimiento, la mayor parte de las definiciones y teoremas tratados acá se usarán y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en
con bastante frecuencia en el resto del curso. este caso V es llamado espacio vectorial complejo.
En lo que resta del capı́tulo, sólo consideraremos espacios vectoriales reales, salvo que se
diga lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de
3.1. Espacios Vectoriales espacios vectoriales reales, a menos que haya error a confusión.

Definición 3.1. Un espacio vectorial real es una terna (V, +, ·) formada por un conjunto Observación 3.3. En adelante, siempre que no haya error a confusión, en lugar de escribir
no vacı́o V, cuyos elementos llamaremos vectores, y dos operaciones binarias α · v escribiremos αv.
+ : V × V −→ V, llamada adición vectorial, y · : R × V −→ V, llamada multiplica-
ción por escalar, satisfaciendo las siguientes condiciones Observación 3.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no
se tienda a confusión, en lugar de la terna (V, +, ·), sobrentendiendo las operaciones + y ·.
A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial).
Ejemplo 3.1.
A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición
vectorial).
1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las
A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la operaciones + y · dadas como sigue
adición vectorial).
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
neutro para la adición vectorial). α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )
A4. Para cada v ∈ V existe v � ∈ V tal que v + v � = 0/V (existencia de un elemento donde α ∈ R y (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Rn , es un espacio vectorial (¡verifı́que-
opuesto para la adición vectorial). lo!).
M0. α · v ∈ V para cualesquiera α ∈ R y v ∈ V (cerradura de la multiplicación �
por escalar).
2. El conjunto Mm×n (R) junto con las operaciones + y ·, dadas en las definiciones 1.5
M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ R y v ∈ V (distributividad y 1.6 respectivamente del capı́tulo 1, es un espacio vectorial (ver el teorema 1.2 en el
de la multiplicación por escalar respecto a la adición escalar). capı́tulo 1). �

83 84 Jorge Campos
3.1. Espacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

3. Consideremos una matriz A ∈ Mm×n (R). Los conjuntos pues 4 �= 3 = 2 + 1, es decir, la adición no es cerrada en V o V no es cerrado bajo la
adición.
S = {x ∈ Mn×1 (R) : Ax = 0/m×1 }
Sin embargo, si definimos sobre V las operaciones
R = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}
(x, y) + (z, w) = (x + z, y + w − 1)
junto con las operaciones + y · definidas en el capı́tulo 1, son espacios vectoriales
(¡pruébelo!). α · (x, y) = (αx, α(y − 1) + 1)
El espacio S es llamado espacio solución del sistema homogéneo Ax = 0m×1 / entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ R
o espacio nulo de A, y el espacio R es llamado el espacio imagen de A. Estos cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.
espacios serán tratados formalmente y en detalle en la sección 6.3. � De donde
y + w − 1 = x + 1 + z + 1 − 1 = (x + z) + 1
4. Sea n ∈ N. Definamos
y por lo tanto
Pn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R} (x, y) + (z, w) = (x + z, y + w − 1) ∈ V

Es decir, Pn [x] está formado por todos los polinomios con coeficientes reales en la varia- cumpliéndose A0.
ble x de grado menor o igual a n incluyendo al polinomio nulo. Sobre Pn [x] consideremos (x, y) + (z, w) = (x + z, y + w − 1) = (z + x, w + y − 1) = (z, w) + (x, y)
las operaciones usuales de adición de polinomios y multiplicación de un número real
por un polinomio. Entonces Pn [x], junto con estas operaciones, es un espacio vectorial por lo que A1 es satisfecha.
(¡pruébelo!).
((x, y) + (z, w)) + (a, b) = (x + z, y + w − 1) + (a, b)
En general, si definimos el conjunto
= ((x + z) + a, (y + w − 1) + b − 1)
P[x] = {p(x) : p(x) es un polinomio en la variable x} = (x + (z + a), y + (w + b − 1) − 1)
= (x, y) + (z + a, w + b − 1)
entonces P[x], junto con las operaciones antes mencionadas, es un espacio vectorial
(¡pruébelo!). = (x, y) + ((z, w) + (a, b))

Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado!1 (¿por qué?). ası́ que A2 se cumple.
Además, para cada n ∈ N se tiene que Pn [x] �= ∅ (¿por qué?) y Pn [x] ⊂ Pn+1 [x] ⊂ P[x] Definamos 0/V = (0, 1). Entonces 0/V ∈ V (¿por qué?) y además
(¿por qué?).
� (x, y) + (0, 1) = (x + 0, y + 1 − 1) = (x, y)
luego se satisface A3.
5. Sean a, b ∈ R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales
definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adición Si (x, y) ∈ V, entonces (−x, −y + 2) ∈ V ya que
de funciones y multiplicación de una función por un número real. Entonces F [ a , b ],
−y + 2 = −(x + 1) + 2 (¿por qué?)
junto con estas operaciones, es un espacio vectorial (¡pruébelo!). �
= −x − 1 + 2 = −x + 1
6. El conjunto
V = {(x, y) ∈ R2 : y = x + 1} Además

junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio (x, y) + (−x, −y + 2) = (x + (−x), y + (−y + 2) − 1) = (0, 1) = 0/V
vectorial ya que (2, 3), (0, 1) ∈ V (¿por qué?) pero
en consecuencia se cumple A4.
/V
(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) ∈ Verifique que se cumple el resto de la propiedades en la definición 3.1.
1
En algunos textos, por razones de convención, el polinimio nulo tiene grado -1. ¿Qué podrı́a concluir a partir de este ejemplo? �

Jorge Campos 85 86 Jorge Campos


3.1. Espacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

7. Dado un espacio vectorial V. Es fácil probar que el conjunto {0/V }, junto con las opera- Definición 3.2. Sean V un espacio vectorial y u, v ∈ V cualesquiera. Definiremos el vector
ciones + y · definidas sobre V, es un espacio vectorial. � u − v, vector diferencia de u con v, como u − v = u + (−v).

Teorema 3.1. Los elementos 0/V y v � dados en A3 y A4, respectivamente, son los únicos Ejercicio 3.1.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v ∈ V y α1 , α2 , . . . , αn , α ∈ R
elementos de V que satisfacen dichas propiedades. cualesquiera. Pruebe que

Demostración. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, 1. (α1 + α2 + · · · + αn )v = α1 v + α2 v + · · · + αn v.
para v = 0/V ∈ V, se tiene que 2. α(v1 + v2 + · · · + vn ) = αv1 + αv2 + · · · + αvn .
0/V +x = 0/V . (3.1)
Teorema 3.2 (Ley de Cancelación). Sean V un espacio vectorial y u, v, w ∈ V tales que
Por lo tanto
u + v = u + w. Entonces v = w.
x = x + 0/V (por A3) Teorema 3.3. Sea V un espacio vectorial. Entonces
= 0/V +x (por A1)
1. α 0/V = 0/V para cada α ∈ R.
= 0/V (por 3.1)
2. 0v = 0/V para cada v ∈ V.
Lo que prueba la unicidad de 0/V .
Supongamos ahora que para algún v ∈ V existen v � , v� ∈ V tales que 3. Si αv = 0/V , entonces α = 0 o v = 0/V .
v + v � = 0/V (3.2) 4. (−α)v = α(−v) = −(αv) para cualesquiera α ∈ R y v ∈ V y, en consecuencia,
v + v� = 0/V (3.3) (−1)v = −v.

Luego Demostración.
1. Sea α ∈ R cualquiera. Entonces
v� = v� + 0/V (por A3)
= v� + (v + v � ) (por 3.2) α 0/V +α 0/V = α(0/V + 0/V ) (por M2)
= (�v + v) + v � (por A2) = α 0/V (por A3)
= (v + v�) + v � (por A1) = α 0/V + 0/V (por A3)
= 0/V +v � (por 3.3) y por la ley de cancelación (teorema 3.2) se tiene que α 0/V = 0/V .
= v � + 0/V (por A1)
2. ¡Ejercicio!
= v � (por A3)
3. Supongamos que αv = 0/V .
con lo cual se obtiene la unicidad del opuesto aditivo.
Si α = 0, no hay nada que probar, supongamos entonces que α �= 0 y probemos que
v = 0/V .
Observación 3.5. Al vector 0/V se le denomina vector nulo de V y el vector v � es llamado
Por ser α �= 0, existe α−1 ∈ R tal que α−1 α = 1 = αα−1 . Por lo tanto
opuesto (aditivo) de v y es denotado por −v.
Debido al teorema 3.1, las propiedades A3 y A4 pueden reescribirse, respectivamente, como v = 1v (por M4)
sigue = (α−1 α)v
A’3. Existe un único 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y = α−1 (αv) (por M3)
unicidad del elemento neutro para la adición vectorial). = α−1 0/V (por hipótesis)
= 0/V (por la parte 1)
A’4. Para cada v ∈ V existe un único −v ∈ V tal que v + (−v) = 0/V (existencia y
unicidad del elemento opuesto para la adición vectorial). Con lo que culmina la prueba de la parte 3.

Jorge Campos 87 88 Jorge Campos


3.2. Subespacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

4. Sean α ∈ R y v ∈ V cualesquiera. Entonces 5. El conjunto C 0 [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].
αv + (−α)v = (α + (−α))v (por M1)
En efecto, es claro que C 0 [ a , b ] ⊂ F [ a , b ] (¿por qué?) y además, la función nula está
= 0v
en C 0 [ a , b ] (¿por qué?), por lo tanto C 0 [ a , b ] es un subconjunto no vacı́o de F [ a , b ].
= 0/V (por la parte 2)
Si f, g ∈ C 0 [ a , b ] y α ∈ R, entonces, por un conocido resultado del Cálculo, se tiene
Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De que f + g, αf ∈ C 0 [ a , b ], cumpliéndose A0 y M0.
manera análoga se prueba que α(−v) = −(αv). Finalmente, haciendo α = 1 y por
Finalmente, no es difı́cil probar que el resto de las propiedades en la definición 3.1 son
M4., obtenemos
satisfechas, con lo cual se obtiene que C 0 [ a , b ] es un subespacio de F [ a , b ]. �
(−1)v = −(1v) = −v.
Antes de dar algún otro ejemplo de subespacio vectorial, debemos hacer notar que en
realidad, para probar que un subconjunto no vacı́o de un espacio vectorial es un subespacio
Observación 3.6. En virtud de las igualdades en la parte 4 del teorema 3.3, podemos escribir de este último, sólo es necesario probar que satisface las propiedades A0 y M0, como veremos
−αv en lugar de −(αv) sin error a confusión. en el siguiente teorema.

Teorema 3.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial


3.2. Subespacios Vectoriales de V si y sólo si

Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consi- 1. W �= ∅.


derando sobre ellos las operaciones + y · de V. En esta sección nos ocuparemos de dichos
espacios vectoriales, los cuales son llamados subespacios vectoriales de V. 2. u + v ∈ W para cualesquiera u, v ∈ W, es decir, W es cerrado bajo la adición vectorial
(definida sobre V).
Definición 3.3. Sea W un subconjunto no vacı́o de un espacio vectorial V. Diremos que W
es un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones 3. αv ∈ W para cualesquiera α ∈ R y v ∈ V, es decir, W es cerrado bajo la multiplicación
+ y · de V es un espacio vectorial. por escalar (definida sobre V).
Ejemplo 3.2.
Demostración. Sean V un espacio vectorial y W ⊂ V.
1. Dado un espacio vectorial V, entonces W = {0/V } es un subespacio de V, el cual es Supongamos que W es un subespacio de V. Entonces por definición 3.3 tenemos que W �= ∅
llamado espacio vectorial nulo, ası́ como también V (ver ejemplo 3.1 parte 7). Estos y además W es un espacio vectorial con las operaciones + y · definidas sobre V, por lo tanto
subespacios son llamados subespacios triviales de V. Cualquier otro subespacio de u + v, αv ∈ W para cualesquiera α ∈ R y u, v ∈ W.
V, distinto de estos dos, es llamado subespacio no trivial de V. Un subespacio de V Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
distinto de V es llamado subespacio propio de V. � Debemos probar que W, junto con las operaciones + y ·, definidas sobre V, es un espacio
vectorial. Según las hipótesis las condiciones A0 y M0 se satisfacen. Por otro lado, debido
2. Dada una matriz real A ∈ Mm×n (R). Los espacios S y R, dados en la parte 3 del a que W ⊂ V y las condiciones A1, A2, M1, M2, M3 y M4 se satisfacen para cualesquiera
ejemplo 3.1, son subespacios de Mn×1 (R) y Mm×1 (R) respectivamente. � u, v, w ∈ V y α, β ∈ R, entonces dichas condiciones se cumplen para cualesquiera u, v, w ∈ W
3. De la parte 4 del ejemplo 3.1 podemos garantizar que para cada n ∈ N se tiene que y α, β ∈ R. Ası́ que sólo resta probar que 0/V ∈ W y que −v ∈ W para cada v ∈ W.
Pn [x] es un subespacio de Pn+1 [x] y de P[x]. � Como W �= ∅, existe v0 ∈ W. Entonces, en virtud de la condición 3, 0v0 ∈ W, pero por
la parte 2 del teorema 3.3 se tiene que 0v0 = 0/V , ası́ que 0/V ∈ W y en consecuencia existe
4. Si definimos Hn [x] y Ln [x] como los subconjuntos de Pn [x], formados por todos los 0/V ∈ W tal que para cada v ∈ W se tiene que v + 0/V = v, es decir, la condición A3 se satisface
polinomios en la variable x de grado par, para el primero de estos, y de grado impar, para si sustituimos V por W. Esto último significa que 0/W = 0/V , es decir, el vector nulo en todos
el segundo de estos, ambos incluyendo al polinomio nulo, se puede probar que estos son los subespacios de V es el mismo.
subepsacios de Pn [x]. Más aún, si H[x] y L[x] son los subconjuntos de P[x], formados Finalmente, sea v ∈ W cualquiera. Entonces, por la condición 3, tenemos que (−1)v ∈ W y
por todos los polinomios en la variable x de grado par e impar, respectivamente, que dado que (−1)v = −v (por la parte 4 del teorema 3.3), se tiene que −v ∈ W y en consecuencia,
incluyen el polinomio nulo, entonces H[x] y L[x] son ambos subespacios de P[x]. � para cada v ∈ W existe −v ∈ W tal que v + (−v) = 0/V , es decir, la condición A4 se satisface

Jorge Campos 89 90 Jorge Campos


3.2. Subespacios Vectoriales Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

si sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector Ejercicio 3.2.1. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de
opuesto aditivo, de cualquier vector en un subespacio de V, es también un vector de dicho V y V es un subespacio de U, entonces W es un subespacio de U.
subespacio.
Veamos cómo se aplica el teorema 3.4 o bien su corolario (coroloario 3.5) en el siguiente
ejemplo.
Observación 3.7. Según la demostración del teorema 3.4, si W es un subespacio vectorial
de un espacio vectorial V, entonces 0/V ∈ W. Ejemplo 3.3. Pruebe que
Ası́ que para probar que un subconjunto W de un espacio vectorial V es un subespacio de W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}
éste último, lo primero que debemos probar es que 0/V ∈ W, esto, a su vez, garantiza que
W �= ∅. Si 0/V ∈ / W, entonces W no es un subespacio de V. es un subespacio de P3 [x].
El teorema 3.4 permite probar que un subconjunto de un espacio vectorial V es un subes- Solución. Es claro que W ⊂ P3 [x].
pacio de éste sólo con probar tres condiciones, sin embargo, el corolario siguiente nos permite Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x])
hacer la misma prueba con sólo verificar dos condiciones. pertenece a W ya que �
Corolario 3.5. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V 2 · 0 −0 +3 · 0 −0 = 0
si y sólo si 0 +0 −4 · 0 −2 · 0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera
1. W �= ∅.
en W y α ∈ R cualquiera. Entonces
2. u + αv ∈ W para cualesquiera α ∈ R y u, v ∈ W. � �
2a1 −b1 +3c1 −d1 = 0 2a2 −b2 +3c2 −d2 = 0
Demostración. Supongamos primero que W es un subespacio vectorial de V y probemos y
a1 +b1 −4c1 −2d1 = 0 a2 +b2 −4c2 −2d2 = 0
que las condiciones 1 y 2 se cumplen. En primer lugar W �= ∅, por definición 3.3. Sean α ∈ R
En virtud del corolario 3.5, y según la observación 3.8, sólo falta probar que
y u, v ∈ W cualesquiera. Entonces, por la parte 3 del teorema 3.4, tenemos que αv ∈ W,
p(x) + αq(x) ∈ W. Pero
luego, por la parte 2 del mismo teorema, se tiene que u + αv ∈ W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio p(x) + αq(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + α(a2 + b2 x + c2 x2 + d2 x3 )
vectorial de V. Como W �= ∅, sólo debemos probar que se satisfacen las condiciones 2 y 3 del = (a1 + αa2 ) + (b1 + αb2 )x + (c1 + αc2 )x2 + (d1 + αd2 )x3
teorema 3.4.
Sean u, v ∈ W cualesquiera. Entonces u + v = u + 1v ∈ W (tomando α = 1 en la condición Además
2 de la hipótesis).
Por otro lado, sean α ∈ R y v ∈ W cualesquiera. Entonces 0/V = v + (−v) = v + (−1)v ∈ W 2(a1 + αa2 ) − (b1 + αb2 ) + 3(c1 + αc2 ) − (d1 + αd2 )
(tomando α = −1 y u = v en la condición 2 de la hipótesis) ası́ que αv = 0/V +αv ∈ W = 2a1 + 2αa2 − b1 − αb2 + 3c1 + 3αc2 − d1 − αd2
(tomando u = 0/V en la condición 2 de la hipótesis). Lo cual concluye la prueba. = (2a1 − b1 + 3c1 − d1 ) + α(2a2 − b2 + 3c2 − d2 ) = 0 (¿por qué?)

y
Observación 3.8. Según la observación 3.7, la condición 1 en el teorema 3.4 y la condición
1 en el corolario 3.5, pueden ser sustituidas por la siguiente condición:
(a1 + αa2 ) + (b1 + αb2 ) − 4(c1 + αc2 ) − 2(d1 + αd2 )
1. 0/V ∈ W. = a1 + αa2 + b1 + αb2 − 4c1 − 4αc2 − 2d1 − 2αd2
Observación 3.9. Recordemos que para probar que los conjuntos S y R, definidos en la = (a1 + b1 − 4c1 − 2d1 ) + α(a2 + b2 − 4c2 − 2d2 ) = 0 (¿por qué?)
parte 3 del ejemplo 3.1, son subespacios de Mn×1 (R) y Mm×1 (R), respectivamente (ver la
Por lo tanto p(x) + αq(x) ∈ W y en consecuencia, W es un subespacio de P3 [x].
parte 2 del ejemplo 3.2), fue necesario probar que son espacios vectoriales (en realidad se
dejó como ejercicio), sin embargo, al usar el teorema 3.4 o el corolario 3.5, vemos que no es
necesario. En la sección 6.3 del capı́tulo 6 se dará una demostración de este hecho usando el Teorema 3.6. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 ∩ W2 es
corolario 3.5. un subespacio de V.

Jorge Campos 91 92 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Demostración. Dado que W1 , W2 ⊂ V (ya que W1 y W2 son subespacios de V), entonces Entonces � � � � � � � � � �
W1 ∩ W2 ⊂ V, además, debido a la observación 3.7, se tiene que 0/V ∈ W1 y 0/V ∈ W2 y por a b 1 0 0 1 0 0 0 0
=a +b +c +d
lo tanto 0/V ∈ W1 ∩ W2 . c d 0 0 0 0 1 0 0 1
Sean α ∈ R y u, v ∈ W1 ∩ W2 cualesquiera. Entonces u, v ∈ W1 y u, v ∈ W2 y dado que Esta expresión es llamada combinación lineal , definamos formalmente este concepto.
W1 y W2 son subespacios de V, tenemos que u + αv ∈ W1 y u + αv ∈ W2 , por lo tanto
u + αv ∈ W1 ∩ W2 . Definición 3.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v ∈ V. Diremos que el vector v
Luego, en virtud del corolario 3.5 y la observación 3.8, tenemos que W1 ∩ W2 es un subes- es combinación lineal de los vectores v1 , v2 , . . . , vn si existen escalares α1 , α2 , . . . , αn ∈ R
pacio de V. tales que
v = α 1 v 1 + α 2 v 2 + · · · + αn v n .

Ejercicio 3.2.2. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el Observación 3.11. En la definición 3.4 se define lo que es una combinación lineal de una
conjunto cantidad finita de vectores en V, sin embargo, podemos definir combinación lineal de una
A + B = {a + b : a ∈ A y b ∈ B} cantidad infinita de vectores en V (ver apéndice B), pero nuestro interés no va más allá del
concepto dado en la definición 3.4.
Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.
Ejemplo 3.4.
Ejercicio 3.2.3. Sean W1 y W2 dos subespacios de un espacio vectorial V. Supongamos
que W1 ∩ W2 = {0/V } y V = W1 + W2 . Pruebe que para cada v ∈ V existen únicos vectores
1. El ejemplo hecho al comienzo de la sección nos dice que cualquier matriz real cuadrada
w1 ∈ W1 y w2 ∈ W2 tales que v = w1 + w2 .
de orden 2 es combinación lineal de las matrices
Ejercicio 3.2.4. Sean W1 , W2 , . . . , Wn subespacios de un espacio vectorial V. Demuestre � � � � � � � �
1 0 0 1 0 0 0 0
que , , ,
0 0 0 0 1 0 0 1
1. W1 ∩ W2 ∩ · · · ∩ Wn es un subespacio de V.
En general, si para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} definimos Eij ∈ Mm×n (R)
2. W1 + W2 + · · · + Wn es un subespacio de V. como aquella matriz cuya ij-ésima componente es igual a 1 y el resto es 0, entonces
toda matriz A ∈ Mm×n (R) es combinación lineal de las matrices
3. Si Wi ∩ Wj = {0/V } para cualesquiera i, j ∈ {1, . . . , n}, con i �= j, y además
V = W1 + W2 + · · · + Wn , entonces, para cada v ∈ V y para cada i ∈ {1, . . . , n}, E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn
existen únicos vectores wi ∈ Wi tales que v = w1 + w2 + · · · + wn .
(¡verifı́quelo!). �
Sugerencia: En cada caso proceda por inducción matemática sobre n, luego use el teorema
3.6 para la parte 1, el ejercicio 3.2.2 para la parte 2 y el ejercicio 3.2.3 para la parte 3. 2. Cualquier vector p(x) ∈ Pn [x] es combinación lineal de 1, x, . . . , x (¿por qué?). n

Observación 3.10. Cuando dos subespacios W1 y W2 de un espacio vectorial V cumplen 3. Cualquier vector (x1 , x2 , . . . , xn ) ∈ R es combinación lineal de los vectores de R
n n

las dos condiciones en el ejercicio 3.2.3, se dice que V es la suma directa de W1 y W2 , lo


cual se denota por V = W1 ⊕ W2 . En general, si n subespacios W1 , W2 , . . . , Wn de un espacio e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)
vectorial V satisfacen las condiciones en la parte 3 del ejercicio 3.2.4, diremos que V es la
suma directa de W1 , W2 , . . . , Wn y es denotado por V = W1 ⊕ W2 ⊕ · · · ⊕ Wn . (¡verifı́quelo!). �

Ejemplo 3.5. Determine si el vector v = (9, 5, 6) es combinación lineal o no de los vectores


3.3. Combinación Lineal y Espacio Generado v1 = (3, −2, 6) y v2 = (−1, −3, 2).

Solución. Supongamos que el vector v es combinación lineal de los vectores v1 y v2 . Entonces


Consideremos una matriz real cuadrada de orden 2
� � existen α1 , α2 ∈ R tales que v = α1 v1 + α2 v2 , es decir,
a b
c d (9, 5, 6) = α1 (3, −2, 6) + α2 (−1, −3, 2) = (3α1 − α2 , −2α1 − 3α2 , 6α1 + 2α2 )

Jorge Campos 93 94 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

de donde  Observación 3.12. En términos generales, el problema de decidir si un vector v, perte-


 3α1 −α2 = 9 neciente a un espacio vectorial V, es combinación lineal de los vectores v1 , v2 , . . . , vn ∈ V,
−2α1 −3α2 = 5 está relacionado con la resolución de un sistema de ecuaciones adecuado, como vimos en los

6α1 +2α2 = 6 ejemplos 3.5 y 3.6.
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
  Ejercicio 3.3.1. Pruebe que si A, B ∈ Mm×n (R) son equivalentes por filas, entonces cada
3 −1 9 fila de B es combinación lineal de las filas de A y viceversa.
 −2 −3 5 
6 2 6 Definición 3.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. El conjunto
Calculemos la FERF de esta matriz
      gen({v1 , v2 , . . . , vn }) =
3 −1 9 1 −4 14 1 −4 14 {w ∈ V : w = α1 v1 + α2 v2 + · · · + αn vn para algunos escalares α1 , α2 , . . . , αn ∈ R}
 −2 −3 F2 → F2 + 2F1
5  F1 → F1 + F2  −2 −3 5  →  0 −11 33 
→ F3 → F3 − 6F1
6 2 6   6 2 6   0 26 −78 es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, el conjunto
1 −4 14 1 0 2 gen({v1 , v2 , . . . , vn }) está formado por todas las combinaciones lineales de v1 , v2 , . . . , vn .
F 1 → F1 + 4F2
F2 → − 11 F2  0
1
1 −3  →  0 1 −3 
→ 0 26 −78 F3 → F3 − 26F2 Ejemplo 3.7.
0 0 0
Obteniedo α1 = 2 y α2 = −3, por lo tanto v = 2v1 − 3v2 , es decir, v es combinación lineal
1. Según la parte 1 del ejemplo 3.4 se tiene que
de v1 y v2 .
Mm×n (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })
Ejemplo 3.6. Consideremos los polinomios p(x) = −5 − 4x + 9x2 , p1 (x) = 2 − x + 2x2 ,
p2 (x) = 2 − 2x + 6x2 y p3 (x) = x − 4x2 ¿Es p combinación lineal de p1 , p2 y p3 ? y según las partes 2 y 3 del mismo ejemplo, tenemos que
Solución. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pre-
Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en }).
gunta es sı́, entonces existen α1 , α2 , α3 ∈ R tales que p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x),
para cada x ∈ R, esto es, para cada x ∈ R se tiene que �
−5 − 4x + 9x2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )
2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, −2, 6), (−1, −3, 2)}) (ver ejemplo
obteniendo el sistema de ecuaciones 3.5). �

 2α1 +2α2 = −5
−α1 −2α2 +α3 = −4 3. Del ejemplo 3.6 podemos garantizar que

2α1 +6α2 −4α3 = 9
−5 − 4x + 9x2 ∈
/ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }).
La matriz ampliada de este sistema es equivalente por filas a la matriz
  �
1 0 1 −9
 0 1 −1 1 
(¡verifı́quelo!)
2
0 0 0 −12 Ejemplo 3.8. Calcular gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }).

por lo tanto, el sistema original no tiene solución (¿por qué?), en consecuencia, p no es Solución. Nótese primero que a + bx + cx2 ∈ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) si y
combinación lineal de p1 , p2 y p3 . sólo si existen escalares α1 , α2 , α3 ∈ R tales que, para cada x ∈ R,
Si consideramos el polinomio p4 (x) = 1 − 2x + 3x2 ¿Es p combinación lineal de p1 , p2 , p3
y p4 ? a + bx + cx2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )
= (2α1 + 2α2 ) + (−α1 − 2α2 + α3 )x + (2α1 + 6α2 − 4α3 )x2

Jorge Campos 95 96 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Lo que equivale a decir que el sistema de ecuaciones Por lo tanto



 2α1 +2α2 = a u + αv = (α1 v1 + α2 v2 + · · · + αn vn ) + α(β1 v1 + β2 v2 + · · · + βn vn )
−α1 −2α2 +α3 = b
 = (α1 + αβ1 )v1 + (α2 + αβ2 )v2 + · · · + (αn + αβn )vn .
2α1 +6α2 −4α3 = c
tiene al menos una solución. Ası́ que u + αv ∈ gen(S) y en consecuencia gen(S) es un subespacio de V.
Resolvamos este sistema. La matriz ampliada del sistema es
 
2 2 0 a Definición 3.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos que los vectores
 −1 −2 1 b  v1 , v2 , . . . , vn generan a V o que el conjunto S = {v1 , v2 , . . . , vn } genera a V o que S es un
2 6 −4 c conjunto generador de V si V = gen(S) = gen({v1 , v2 , . . . , vn }).
Calculemos la FERF de esta matriz Ejemplo 3.9. Por la parte 1 del ejemplo 3.7 podemos decir que:
   
2 2 0 a 1 0 1 a+b 1. Los vectores E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan al es-
 −1 −2 1 b  F1 → F1 + F2  −1 −2 1 b 
→ pacio Mm×n (R). �
2 6 −4 c 2 6 −4 c
1 0 1 a+b 2. El conjunto {1, x, . . . , xn } genera a Pn [x]. �
F 2 → F2 + F1
→  0 −2 2 a + 2b 
F3 → F3 − 2F1 3. {e1 , e2 , . . . , en } es un conjunto generador de R . n

 0 6 −6 −2a − 2b
 + c  
1 0 1 a+b 1 0 1 a+b Ejemplo 3.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo
F2 → − 12 F2  0 1 −1 − 12 a − b  F3 → F3 − 6F2  0 1 −1 − 12 a − b  3.3.
→ 0 6 −6 −2a − 2b + c →
0 0 0 a + 4b + c
Sin necesidad de calcular la FERF de la matriz, obtenemos que el sistema original tiene Solución. Sabemos que
solución si y sólo si a + 4b + c = 0.
W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}
En consecuencia
gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) = {a + bx + cx2 ∈ P2 [x] : a + 4b + c = 0}. Ası́ que a + bx + cx2 + dx3 ∈ W si y sólo si

2a −b +3c −d = 0
a +b −4c −2d = 0
Es de hacer notar que el conjunto W, hallado en el ejemplo 3.8, es un subespacio de P2 [x]
(¡pruébelo!). Este resultado no es casual, como veremos en el siguiente teorema. resolvamos este sistema homogéneo. La matriz del sistema es
Teorema 3.7. Sean V un espacio vectorial y vectores v1 , v2 , . . . , vn ∈ V. Entonces � �
2 −1 3 −1
gen({v1 , v2 , . . . , vn }) es un subespacio de V. 1 1 −4 −2
Demostración. En primer lugar hagamos S = {v1 , v2 , . . . , vn }. Por definición
gen(S) = gen({v1 , v2 , . . . , vn }) es un subconjunto de V. Además, por la parte 2 del teore- La FERF de esta matriz es
ma 3.3 y la parte 2 del ejercicio 3.1.1, � �
1 0 − 13 −1
(¡verifı́quelo!).
0/V = 0(v1 + v2 + · · · + vn ) = 0 · v1 + 0 · v2 + · · · + 0 · vn ∈ gen(S). 0 1 − 11
3
−1

Finalmente, sean α ∈ R y u, v ∈ gen(S) cualesquiera. Entonces, por definición de gen(S), Por lo tanto, a + bx + cx2 + dx3 ∈ W si y sólo si
existen β1 , β2 , . . . , βn , α1 , α2 , . . . , αn ∈ R tales que �
a − 13 c −d = 0
u = α1 v 1 + α 2 v 2 + · · · + α n v n y v = β1 v1 + β2 v2 + · · · + βn vn . b − 113
c −d = 0

Jorge Campos 97 98 Jorge Campos


3.3. Combinación Lineal y Espacio Generado Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

o equivalentemente � 3.4. Independencia y Dependencia Lineal


1
a = 3
c +d
11 Uno de los conceptos más importantes en espacios vectoriales, y en el álgebra lineal en
b = 3
c +d
general, es el de independencia lineal , por lo que pedimos se estudie con mucho dete-
Haciendo c = 3α y d = β, con α, β ∈ R, obtenemos
nimiento y cuidado la presente sección. Daremos una variedad de ejemplos para tratar de
a + bx + cx2 + dx3 = (α + β) + (11α + β)x + 3αx2 + βx3 = α(1 + 11x + 3x2 ) + β(1 + x + x3 ) explicar lo mejor posible dicho concepto.
Dados un espacio vectorial V y cualesquiera vectores v1 , v2 , . . . , vn ∈ V, sabemos que el
para cada x ∈ R. Luego vector nulo 0/V = 0v1 + 0v2 + · · · + 0vn , es decir, siempre podemos escribir el vector nulo 0/V
como combinación lineal de cualquier cantidad finita de vectores en V.
W = gen({1 + 11x + 3x2 , 1 + x + x3 })
Ahora bien, en M2×3 (R), escojamos los vectores
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W. � � � � � �
1 0 −2 2 −3 −4 −4 9 8
A1 = , A2 = y A3 = .
−2 5 −3 −1 1 0 −1 7 −6
Teorema 3.8. Sean V un espacio vectorial, v1 , v2 , . . . , vn ∈ V y u ∈ gen({v1 , v2 , . . . , vn }).
Entonces
Entonces � �
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }). 0 0 0
= 2 · A1 − 3 · A2 − A3
0 0 0
Demostración. Escojamos un vector v ∈ gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces exis- � � � � � �
ten α1 , α2 , . . . , αn , α ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn + αu. 1 0 −2 2 −3 −4 −4 9 8
= 2· −3· −
Pero por hipótesis u ∈ gen({v1 , v2 , . . . , vn }), entonces existen β1 , β2 , . . . , βn ∈ R tales que −2 5 −3 −1 1 0 −1 7 −6
u = β1 v1 + β2 v2 + · · · + βn vn . En conclusión, la forma de escribir al vector nulo como combinación lineal de una cantidad
Luego finita de vectores, no necesariamente es única, cuando es ası́, estamos en presencia de vectores
v = α1 v1 + α2 v2 + · · · + αn vn + α(β1 v1 + β2 v2 + · · · + βn vn ) linealmente independientes. Tal concepto lo definiremos, formalmente, a continuación.
= (α1 + αβ1 )v1 + · · · + (αn + αβn )vn Definición 3.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos v1 , v2 , . . . , vn son
linealmente independientes (l.i.) o que {v1 , v2 , . . . , vn } es un conjunto linealmente
en consecuencia independiente (c.l.i.) si la única manera de escribir el vector nulo 0/V , como combinación
v ∈ gen({v1 , v2 , . . . , vn }) lineal de los vectores v1 , v2 , . . . , vn , es aquella en la cual todos los escalares son iguales a cero
por lo tanto (0), esto es, si α1 v1 + α2 v2 + · · · + αn vn = 0/V , entonces α1 = α2 = · · · = αn = 0.
gen({v1 , v2 , . . . , vn , u}) ⊂ gen({v1 , v2 , . . . , vn }). (3.4) Diremos que v1 , v2 , . . . , vn son linealmente dependientes (l.d.) o que {v1 , v2 , . . . , vn }
es un conjunto linealmente dependiente (c.l.d.) si v1 , v2 , . . . , vn no son linealmen-
Por otro lado, sea v ∈ gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen escalares
te independientes, es decir, existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que
α1 , α2 , . . . , αn ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn . Ası́ que
α1 v1 + α2 v2 + · · · + αn vn = 0/V .
v = α1 v1 + α2 v2 + · · · + αn vn = α1 v1 + α2 v2 + · · · + αn vn + 0/V
Ejemplo 3.11.
= α1 v1 + α2 v2 + · · · + αn vn + 0u
1. Según el ejemplo dado previamente a la definición 3.7, se tiene que A1 , A2 , A3 son
es decir, v ∈ gen({v1 , v2 , . . . , vn , u}), de donde linealmente dependientes. �
gen({v1 , v2 , . . . , vn }) ⊂ gen({v1 , v2 , . . . , vn , u}). (3.5) 2. No es difı́cil probar que los conjuntos
De (3.4) y (3.5) obtenemos que {1, x, . . . , xn }, {e1 , e2 , . . . , en } y
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }). {E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }
son linealmente independientes (en sus correspondientes espacios). �

Jorge Campos 99 100 Jorge Campos


3.4. Independencia y Dependencia Lineal Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

3. Dados un espacio vectorial V y v1 , v2 , . . . , vn ∈ V, entonces {v1 , v2 , . . . , vn , 0/V } es lineal- Ejemplo 3.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior ¿son
mente dependiente pues linealmente independientes?

0/V = 0v1 + 0v2 + · · · + 0vn + 1 0/V Solución. Como en el ejemplo anterior, debemos plantearnos la ecuación

es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = 0 (para todo x ∈ R) (3.6)
vector nulo, es linealmente dependiente. �
Obteniendo el sistema 
4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es lineal-  2α1 +2α2 +α4 = 0
mente independiente ya que si αv = 0/V y dado que v �= 0/V , entonces α = 0 (en virtud −α1 −2α2 −2α4 = 0

de la parte 3 del teorema 3.3). � 2α1 +6α2 +3α4 = 0
La matriz de este sistema es  
Antes de dar algún otro ejemplo, debemos hacer notar que para determinar si un conjunto 2 2 1
de vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o depen-  −1 −2 −2 
diente, debemos plantearnos la ecuación α1 v1 + α2 v2 + · · · + αn vn = 0/V , la cual conduce, en 2 6 3
general, a un sistema de ecuaciones homogéneo con n incógnitas, a saber, α1 , α2 , . . . , αn . Si
la solución de este sistema es única, y en consecuencia α1 = α2 = · · · = αn = 0, entonces Calculemos su FERF.
{v1 , v2 , . . . , vn } es un conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn }      
2 2 1 1 0 −1 1 0 −1
es un conjunto linealmente dependiente.  −1 −2 −2  F1 → F1 + F2  −1 −2 −2  F2 → F2 + F1→  0 −2 −3 
→ F3 → F3 − 2F1
Ejemplo 3.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) ∈ P2 [x] dados en el ejem- 2 6 3 2 6 3 0 6 5
     
plo 3.6. Decidir si estos vectores son o no linealmente independientes. 1 0 −1 1 0 −1 1 0 −1
F2 → − 12 F2  0 1 3 
F3 → F3 − 6F2  0 1 3 
F3 → − 14 F3  0 1 3 
→ 0 6 2 → 2
→ 0 2
Solución. Como se comentó antes del ejemplo, debemos estudiar la ecuación 5 0 0 −4 0 1
 
1 0 0
α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = 0 (para todo x ∈ R) F 1 → F1 + F3
→  0 1 0 
F2 → F2 − 32 F3
0 0 1
Pero
De donde
α1 p1 (x) + α2 p2 (x) + α3 p3 (x) + α4 p4 (x) = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) α1 = α2 = α4 = 0.
+α3 (x − 4x2 ) + α4 (1 − 2x + 3x2 ) En consecuencia la ecuación 3.6 tiene como única solución la trivial y por lo tanto p1 (x),
= (2α1 + 2α2 + α4 ) p2 (x) y p4 (x) son linealmente independientes.
+(−α1 − 2α2 + α3 − 2α4 )x
+(2α1 + 6α2 − 4α3 + 3α4 )x2 Ejemplo 3.14. Consideremos las matrices
Obteniendo el siguiente sistema de ecuaciones homogéneo � � � � � �
5 4 3 −1 1 −1
 A1 = , A2 = y A3 = .
2 −1 1 3 −4 5
 2α1 +2α2 +α4 = 0
−α1 −2α2 +α3 −2α4 = 0 ¿Es {A1 , A2 , A3 } un conjunto linealmente independiente?

2α1 +6α2 −4α3 +3α4 = 0
Solución. Sean α1 , α2 , α3 ∈ R tales que α1 A1 + α2 A2 + α3 A3 = 0/2 . Entonces
El cual sabemos tiene infinitas soluciones (¿por qué?) y en consecuencia los polinomios p1 (x),
� � � �
p2 (x), p3 (x) y p4 (x) son linealmente dependientes. 5α1 + 3α2 + α3 4α1 − α2 − α3 0 0
=
2α1 + α2 − 4α3 −α1 + 3α2 + 5α3 0 0

Jorge Campos 101 102 Jorge Campos


3.4. Independencia y Dependencia Lineal Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

De donde 

 5α1 +3α2 +α3 = 0
 Teorema 3.10. Sea A ∈ Mm×n (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
4α1 −α2 −α3 = 0
 2α1 +α2 −4α3 = 0 dependientes en Mm×1 (R) si y sólo si el sistema Ax = 0/m×1 tiene soluciones no triviales.


−α1 +3α2 +5α3 = 0
Demostración. Sea A ∈ Mm×n (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente depen-
Resolvamos este sistema. La matriz del sistema es dientes si y sólo si existen escalares α1 , α2 , . . . , αn ∈ R, no todos nulos, tales que
 
5 3 1
 4 −1 −1  α1 A(1) + α2 A(2) + · · · + αn A(n) = 0/m×1
 .
 2 1 −4  Por la observación 1.22
−1 3 5  
α1
Calculemos su FERF.  α2 
 
      α1 A(1) + α2 A(2) + · · · + αn A(n) = A  .. 
5 3 1 1 4 2 1 4 2  . 
 4 −1 −1   4 −1 −1  F2 → F2 − 4F1→  0 −17 −9  αn
  F → F1 − F 2   F3 → F3 − 2F1  
 2 1 −4  1 → 2 1 −4   0 −7 −8 
F 4 → F4 + F1 Ası́ que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y sólo si el sistema Ax = 0/m×1
−1 3 5 −1 3 5 0 7 7
   
1 4 2 1 4 2 tiene soluciones no triviales.
 0 7 
7   0 1 1 
F 2 ↔ F4  F → 17 F2  
→  0 −7 −8  2 →  0 −7 −8  Como consecuencia del teorema 3.10 obtenemos el siguiente corolario.
0 −17 −9 0 −17 −9
   
1 0 −2 1 0 −2 Corolario 3.11. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.
F1 → F1 − 4F2
→  0 1 1   0 1 1 
F3 → F3 + 7F2   
 0 0 −1  F3 → −F3→  0 0

1. det(A) �= 0.
1 
F4 → F4 + 17F2
0 0 8 0 0 8
  2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.
1 0 0
F1 → F1 + 2F3
→  0 1 0  3. Las filas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.
F 2 → F2 − F 3   0 0 1 

F4 → F4 − 8F3 Demostración. ¡Ejercicio!
0 0 0
Por lo tanto α1 = α2 = α3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente.
Recordemos que det(A) �= 0 equivale a que A es invertible (ver teorema 2.15), por lo tanto,
Teorema 3.9. Sean V un espacio vectorial y u, v ∈ V. Los vectores u y v son linealmente el corolario 3.11 nos da dos nuevas equivalencias acerca de la inversibilidad de una matriz A.
dependientes si y sólo si existe α ∈ R tal que u = αv o v = αu. Teorema 3.12. Sean A, F ∈ Mm×n (R) tales que F es la FERF de A. Supongamos que
Demostración. Supongamos que u, v son linealmente dependientes. Entonces existen j1 , j2 , . . . , jr ∈ {1, . . . , n} son tales que F (j1 ) , F (j2 ) , . . . , F (jr ) son las distintas columnas pivo-
λ, β ∈ R, no ambos nulos, tales que λu + βv = 0/V . tes de F . Entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son linealmente independientes. Además, para cada
β β j ∈ {1, . . . , n}, se tiene que
Si λ �= 0, entonces u = − v. Haciendo α = − , obtenemos que u = αv.
λ λ r
Si λ = 0, entonces βv = 0/V y además, por hipótesis, β �= 0 y en consecuencia v = 0/V = 0u. �
A(j) = f1j A(j1 ) + f2j A(j2 ) + · · · + frj A(jr ) = fij A(ji ) .
Haciendo α = 0, obtenemos v = αu.
i=1
Supongamos ahora que existe α ∈ R tal que u = αv o v = αu. En consecuencia
1u + (−α)v = 0/V o αu + (−1)v = 0/V , en cualquier caso, concluimos que u y v son linealmente Demostración. Ver Apéndice D.
dependientes.

Jorge Campos 103 104 Jorge Campos


3.5. Bases y Dimensión Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Teorema 3.13. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un es- 2. {e1 , e2 , . . . , en } es una base de Rn . �
pacio vectorial V y u ∈ V tal que u ∈ / gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es
linealmente independiente. 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mm×n (R).

Demostración. Sean α1 , α2 , . . . , αn , α ∈ R tales que
Cada una de estas bases es llamada base canónica o estándar del correspondiente es-
α1 v1 + α2 v2 + · · · + αn vn + αu = 0/V pacio.
Si α �= 0, entonces � α � � α � � α � Ejemplo 3.16. Ningún conjunto finito de polinomios en x es una base de P[x], en efecto, con-
u= −
1
v1 + −
2
v2 + · · · + −
n
vn sideremos un conjunto finito cualquiera de polinomios, digamos P = {p1 (x), p2 (x), . . . , pn (x)}.
α α α Entonces para cualesquiera α1 , α2 , . . . , αn ∈ R tenemos que α1 p1 (x) + α2 p2 (x) + · · · + αn pn (x)
lo que contradice la hipótesis de que u ∈
/ gen({v1 , v2 , . . . , vn }). Por lo tanto α = 0, de donde es un polinomio, a lo sumo, de grado k, donde k es el máximo entre los grados de los poli-
nomios p1 , p2 , . . . , pn , es decir, cualquier combinación lineal de los polinomios p1 , p2 , . . . , pn
α1 v1 + α2 v2 + · · · + αn vn = 0/V es un polinomio a lo sumo de grado k. En consecuencia, el polinimio p(x) = xk+1 es tal que
p(x) ∈/ gen(P ) pero p(x) ∈ P[x], de donde gen(P ) �= P[x]. Lo cual prueba que P[x] no posee
y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que α1 = α2 = · · · = αn = 0.
una base finita, por lo tanto concluimos lo afirmado al principio.
En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.

Observación 3.14. Aunque en este capı́tulo no trataremos las bases infinitas (ver apéndice
B), afirmamos que una base2 para P[x] es
3.5. Bases y Dimensión
{1, x, x2 , . . . , xn , . . .}.
Según el ejemplo 3.9 y la parte 2 del ejemplo 3.11 tenemos que:
Ejemplo 3.17. Hallar una base del subespacio
1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y además es linealmente independiente. �� � �
a b
W= : −5a + 6b + 4c − 2d = 0
2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn . c d
� �
3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador a b
Solución. Notemos primero que ∈ W si y sólo si −5a + 6b + 4c − 2d = 0 o bien,
de Mm×n (R) y es linealmente independiente. c d
5
si y sólo si d = − a + 3b + 2c. Ası́ que
Conjuntos con estas caracterı́sticas nos son de mucha utilidad en el estudio de los espacios � � 2
vectoriales y dan pie a la siguiente definición. a b
∈ W si y sólo si
c d
Definición 3.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } ⊂ V es una base � � � � � � � � � �
de V si a b
=
a b
=a
1 0
+b
0 1
+c
0 0
5 5
c d c − 2 a + 3b + 2c 0 −2 0 3 1 2
1. gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.
Por lo tanto ��� � � � � ���
2. {v1 , v2 , . . . , vn } es linealmente independiente. 1 0 0 1 0 0
W = gen , ,
0 − 52 0 3 1 2
Observación 3.13. Si V = {0/V } es el espacio nulo, entonces una base de V, de hecho la No es difı́cil probar que �� � � � � ��
única base de V, es el conjunto vacı́o ∅ = {} 1 0 0 1 0 0
, ,
0 − 52 0 3 1 2
Ejemplo 3.15.
2
Este tipo de base se conoce con el nombre de bases de Hamel . Todo espacio vectorial no nulo posee
1. {1, x, . . . , xn } es una base de Pn [x]. � una base de Hamel, en el apéndice B tratamos un poco sobre éste tipo de bases.

Jorge Campos 105 106 Jorge Campos


3.5. Bases y Dimensión Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

es linealmente independiente y, en consecuencia, es una base de W. Como β = {v1 , v2 , . . . , vn } es una base, entonces β es linealmente independiente, por lo tanto

α 1 − λ1 = α 2 − λ2 = · · · = α n − λn = 0
Ejemplo 3.18. Considere los polinomios p1 (x), p2 (x), p4 (x) ∈ P2 [x] del ejemplo 3.13. Pruebe
que β = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x]. es decir,
Solución. Sabemos que el conjunto β = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, α 1 = λ1 , α 2 = λ2 , . . . , α n = λn
en virtud del ejemplo 3.13, ası́ que sólo falta probar que dicho conjunto genera a P2 [x]. Sea con lo cual obtenemos la unicidad de los escalares.
p(x) = a + bx + cx2 ∈ P2 [x] cualquiera, queremos probar que, para todo x ∈ R, la ecuación
α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = p(x) tiene solución para α1 , α2 , α4 ∈ R. Pero dicha ecuación
es equivalente al sistema de ecuaciones Nótese que hemos hallado dos bases de P2 [x], a saber la base canónica βc = {1, x, x2 }
 y la base β = {p1 (x), p2 (x), p4 (x)} del ejemplo 3.18, y ambas tienen la misma cantidad de
 2α1 +2α2 +α4 = a
−α1 −2α2 −2α4 = b (¡verifı́quelo!) vectores, en este caso tres (3), esta situación no es para nada casual, como veremos en el
 siguiente teorema.
2α1 +6α2 +3α4 = c
La matriz de este sistema es   Teorema 3.15. 4 Sean β1 = {u1 , u2 , . . . , un } y β2 = {v1 , v2 , . . . , vm } dos bases de un espacio
2 2 1 vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base finita, entonces
 −1 −2 −2  todas sus bases tienen la misma cantidad de elementos.
2 6 3
y por el ejemplo 3.13, sabemos que es equivalente por filas a I3 , en consecuencia, el sistema Demostración. Supongamos que m < n. Dado que β2 es una base de V, entonces, para
en cuestión, tiene solución (única), lo cual concluye la prueba. cada j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que

uj = α1,j v1 + α2,j v2 + · · · + αmj vm


Ejemplo 3.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 3.12. En-
tonces {p1 (x), p2 (x), p3 (x), p4 (x)} no es una base de P2 [x], por ser linealmente dependiente, Sean λ1 , λ2 , . . . , λn ∈ R tales que
sin embargo es un conjunto generador de P2 [x]. El conjunto {p1 (x), p2 (x)} tampoco es una
base de P2 [x], por no ser un conjunto generador de P2 [x], pero es linealmente independiente. λ1 u1 + λ2 u2 + · · · + λn un = 0/V

Luego
La unicidad de los escalares en el ejemplo 3.18 es una regla la cual enunciaremos en el
siguiente teorema. 0/V = λ1 (α1,1 v1 + α2,1 v2 + · · · + αm1 vm ) + λ2 (α1,2 v1 + α2,2 v2 + · · · + αm2 vm )
Teorema 3.14. 3 Sea β = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para + · · · + λn (α1,n v1 + α2,n v2 + · · · + αmn vm )
cada v ∈ V existen únicos escalares α1 , α2 , . . . , αn ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn . = (α11 λ1 + α12 λ2 + · · · + α1n λn )v1 + (α21 λ1 + α22 λ2 + · · · + α2n λn )v2
Demostración. Sea v ∈ V un vector cualquiera. Dado que β = {v1 , v2 , . . . , vn } es una base + · · · + (αm1 λ1 + αm2 λ2 + · · · + αmn λn )vm
de V, entonces β genera a V, ası́ que la existencia de los escalares en el enunciado del teorema
está garantizada. Supongamos que existe v ∈ V y existen α1 , α2 , . . . , αn , λ1 , λ2 , . . . , λn ∈ R Pero β2 = {v1 , v2 , . . . , vm } es linealmente independiente, por ser una base de V, ası́ que
tales que 
v = α1 v1 + α2 v2 + · · · + αn vn y v = λ1 v1 + λ2 v2 + · · · + λn vn 
 α11 λ1 + α12 λ2 + · · · + α1n λn = 0

 α21 λ1 + α22 λ2 + · · · + α2n λn = 0
Luego .. .. .. .. ..

 . . . . .

 α λ + α λ + ··· + α λ = 0
0/V = v − v = (α1 v1 + α2 v2 + · · · + αn vn ) − (λ1 v1 + λ2 v2 + · · · + λn vn ) m1 1 m2 2 mn n
= (α1 − λ1 )v1 + (α2 − λ2 )v2 + · · · + (αn − λn )vn . 4
En realidad, éste resultado sigue siendo válido en el caso de bases infinitas, más propiamente, dos bases
3
Existe una versión para el caso de bases infinitas. cualesquiera, infinitas o no, de un espacio vectorial, tienen el mismo cardinal.

Jorge Campos 107 108 Jorge Campos


3.5. Bases y Dimensión Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Este es un sistema homogéneo de ecuaciones lineales con m ecuaciones y n incógnitas que


son λ1 , λ2 , . . . , λn . Como m < n, al usar el teorema 1.17, concluimos que el sistema anterior
tiene soluciones no triviales, es decir, existen λ1 , λ2 , . . . , λn ∈ R, no todos nulos, tales que Como consecuencia del teorema 3.16 se tiene el siguiente teorema.

λ1 u1 + λ2 u2 + · · · + λn un = 0/V Teorema 3.17. Sean V un espacio vectorial de dimensión n y S = {v1 , v2 , . . . , vn } ⊂ V.

es decir, β1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que 1. Si S genera a V, entonces S es una base de V.
β1 es una base de V. Análogamente se obtiene una contradicción si se supone que m > n. En
2. Si S es linealmente independiente, entonces S es una base de V.
consecuencia m = n.
Demostración. ¡Ejercicio!
El teorema 3.15 da pie a la siguiente definición. Sugerencia: En ambos casos suponga que S no es una base, luego, para la parte 1, use el
teorema 3.8 y, para la parte 2, use el teorema 3.13.
Definición 3.9. Sea V un espacio vectorial. Diremos que V tiene dimensión cero o di-
mensión nula si V = {0/V }, diremos que la dimensión de V es n si V tiene una base con n
elementos, en ambos casos diremos que V tiene dimensión finita. Si V no posee una base Teorema 3.18. 5 Sea W un subespacio de un espacio vectorial de dimensión finita V. En-
finita, diremos que V tiene dimensión infinita. En todos los casos la dimensión de V se tonces dim(W) ≤ dim(V). Además, si dim(W) = dim(V), entonces W = V.
denota por dim(V).
Demostración. Sean dim(V) = n y βW una base de W. Entonces βW es linealmente inde-
Ejemplo 3.20. pendiente en W, luego βW es linealmente independiente en V (¿por qué?). Por lo tanto, por
la parte 1 el teorema 3.16, βW tiene a lo sumo n elementos, esto es, dim(W) ≤ n = dim(V).
1. Del ejemplo 3.15 podemos garantizar que Además, si dim(W) = dim(V), entonces βW es un conjunto linealmente independiente con n
elementos. Por lo tanto βW es una base de V (¿por qué?). En consecuencia W = gen(βW ) = V.
dim(Pn [x]) = n + 1, dim(Mm×n (R)) = mn y dim(Rn ) = n.


Observación 3.16. Todo espacio vectorial que contenga un subespacio de dimensión infini-
2. Si W es el subespacio de M2×2 (R) del ejemplo 3.17, entonces dim(W) = 3. Nótese que ta, es también de dimensión infinita.
en éste caso dim(W) < dim(M2×2 (R)). �
Ejemplo 3.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio
3. El espacio vectorial P[x] es un espacio de dimensión infinita (ver ejemplo 3.16). � de C 0 [ a , b ] (¿por qué?) y como P[x] tiene dimensión infinita (ver parte 3 de ejemplo 3.20),
entonces, por la observación 3.16, C 0 [ a , b ] es de dimensión infinita. Además, en este caso6
Observación 3.15. El problema de encontrar la dimensión de un espacio vectorial está dim(P[x]) < dim(C 0 [ a , b ]). �
relacionado con la búsqueda de una base de dicho espacio, como vimos en el ejemplo 3.20.
Teorema 3.19. 7 Sea S = {v1 , v2 , . . . , vm } un subconjunto de un espacio vectorial V de
Teorema 3.16. Sean v1 , v2 , . . . , vm ∈ V vectores en un espacio vectorial V de dimensión n. dimensión n.

1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m ≤ n. 1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.
2. Si {v1 , v2 , . . . , vm } genera a V, entonces m ≥ n. 2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.
Demostración. Sea β = {u1 , u2 , . . . , un } una base de V. 5
En el caso de dimensión infinita, la desigualdad sigue siendo válida, en contraste, se pueden encontrar un
espacio vectorial de dimensión infinita y un subespacio propio de éste los cuales tienen la misma dimensión
1. Suponga que m > n y haga una prueba análoga a la del teorema 3.15. (ver el ejemplo B.13).
6
La dimensión de P[x] es el cardinal de N y la dimensión de C 0 [ a , b ] es el cardinal del continuo, el cardinal
2. ¡Ejercicio! de R.
7
Existe una versión de éste teorema para el caso de dimensión infinita, tal versión se puede encontrar en
Sugerencia: Use el ejercicio 1.3.1. el apéndice B.

Jorge Campos 109 110 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Demostración. 2. En el mismo orden de ideas, en Rn , las bases ordenadas

1. Dado que S es linealmente independiente, entonces m ≤ n, según la parte 1 del teorema βc = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)}
3.16.
y
Si S genera a V, entonces S es una base de V, ası́ que β = S es una base de V que contie- β = {(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0)}
ne a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 ∈ / gen({v1 , v2 , . . . , vm }).
Luego {v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 3.13. son distintas, pero como bases son iguales. Al igual que en el caso de R2 , βc es llamada
base canónica ordenada o simplemente base canónica de Rn . �
Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces β = {v1 , v2 , . . . , vm , vm+1 } es una base de
V tal que S ⊂ β, por el contrario, podemos escoger vm+2 ∈ V tal que 3. En Pn [x] las siguientes bases βc = {1, x, . . . , xn } y β = {xn , . . . , x, 1} son bases orde-
vm+2 ∈ / gen({v1 , v2 , . . . , vm , vm+1 }) y, al igual que antes, se tiene que el conjunto nadas distintas, pero como bases iguales. βc es llamada base canónica ordenada o
{v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente. simplemente base canónica de Pn [x]. �
Continuamos con este proceso hasta completar un conjunto linealmente independiente 4. En el espacio de las matrices Mm×n (R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m},
β = {v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y además consideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales
S ⊂ β. a 0 (cero). La base
2. ¡Ejercicio! βc = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }
Sugerencia: Si S es linealmente independiente, entonces β = S es la base buscada,
de lo contrario, existe k ∈ {1, . . . , m} tal que vk ∈ gen({v1 , v2 , . . . , vk−1 , vk+1 , . . . , vm }). es llamada la base canónica ordenada o simplemente base canónica de Mm×n (R).
Continuar este proceso hasta obtener la base β buscada. Las siguientes son bases ordenadas de Mm×n (R), distintas entre sı́ y distintas de βc :

a) β1 = {E11 , E21 , . . . , Em1 , E12 , E22 , . . . , Em2 , . . . , E1n , E2n , . . . , Emn }


b) β2 = {Emn , . . . , Em2 , Em1 , . . . , E2n , . . . , E22 , E21 , E1n , . . . , E12 , E11 }
c) β3 = {Emn , . . . , E2n , E1n , . . . , Em2 , . . . , E22 , E12 , Em1 , . . . , E21 , E11 }
3.6. Matriz de Cambio de Base
d) β4 = {E1n , . . . , E12 , E11 , E2n , . . . , E22 , E21 , . . . , Emn , . . . , Em2 , Em1 }
Sea V un espacio vectorial de dimensión n. Dada una base β = {v1 , v2 , . . . , vn } de V,
existen muchas formas de ordenar los vectores en β, a saber n! formas distintas, haremos una Todas estas bases son iguales como bases (no ordenadas). �
diferencia entre unas y otras definiendo lo que llamaremos base ordenada.
Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v ∈ V existen únicos escalares
Definición 3.10. Sea V un espacio vectorial de dimensión n. Una base ordenada de V α1 , α2 , . . . , αn R tales que
es una n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V. v = α 1 v 1 + α 2 v 2 + · · · + αn v n .
Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares α1 , α2 , . . . , αn son únicos y
Observación 3.17. Para no recargar mucho la notación, en lugar de escribir (v1 , v2 , . . . , vn ),
están ordenados de forma única, lo que da pie a la siguiente definición.
escribiremos {v1 , v2 , . . . , vn } y ,para no caer en confusión, diremos {v1 , v2 , . . . , vn } es una base
ordenada de V. Definición 3.11. Sea β = {v1 , v2 , . . . , vn } una base ordenada de V y sea v ∈ V. Definiremos
la matriz de coordenadas de v respecto a la base β como la única matriz
Ejemplo 3.22.
 
α1
1. En R2 , βc = {(1, 0), (0, 1)} y β = {(0, 1), (1, 0)}, son dos bases ordenadas distintas,  α2 
 
la primera se denomina la base canónica ordenada o simplemente base canónica [v]β =  .. 
.
de R2 . Nótese que βc y β son iguales como bases de R2 , pero distintas como bases
ordenadas. αn

� tal que v = α1 v1 + α2 v2 + · · · + αn vn .

Jorge Campos 111 112 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Ejemplo 3.23. El conjunto β = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (¡pruébelo!). 2. [αu]β = α[u]β .


Para cualquier p(x) ∈ P2 [x], encuentre [p(x)]β .
Demostración. ¡Ejercicio!
Solución. Sea p(x) = a0 + a1 x + a2 x2 , con a0 , a1 , a2 ∈ R, y sea
 
α1 Teorema 3.21. Sean β1 = {v1 , v2 , . . . , vn } y β2 = {u1 , u2 , . . . , un } bases ordenadas de un
[p(x)]β = α2  espacio vectorial V. Entonces existe una única matriz A ∈ Mn×n (R) tal que
α3
[v]β2 = A[v]β1 para cada v ∈ V (3.7)
Entonces, para cada x ∈ R, tenemos
Demostración. Para cada j ∈ {1, . . . , n} hagamos
p(x) = α1 (1 + x) + α2 (x + x2 ) + α3 (1 + x2 ) = (α1 + α3 ) + (α1 + α2 )x + (α2 + α3 )x2  
α1j
De donde se obtiene el sistema  α2j 
 
 [vj ]β2 =  .. 
 . 
 α1 +α3 = a0
α1 +α2 = a1 αnj

α2 +α3 = a2
Entonces
Resolvamos el sistema vj = α1,j u1 + α2,j u2 + · · · + αnj un
   
1 0 1 a0 1 0 1 a0 Sea v ∈ V cualquiera. Hagamos
 1 1 0 a1  F2 → F2 − F1  0 1 −1 −a0 + a1     
→ λ1 α1
0 1 1 a2 0 1 1 a2  λ2   α2 
       
1 0 1 a0 1 0 1 a0 [v]β1 =  ..  y [v]β2 =  .. 
F3 → F3 − F2  0 1 −1 −a0 + a1  F3 → 12 F3  0 1 −1 −a0 + a1  .  . 
→ → 0 0 λn αn
0 0 2 a0 − a1 + a2 1 12 a0 − 12 a1 + 12 a2
 
1 0 0 12 a0 + 12 a1 − 12 a2
F 1 → F1 − F 3 Entonces
→  0 1 0 − 12 a0 + 12 a1 + 12 a2 
F 2 → F2 + F3
0 0 1 12 a0 − 12 a1 + 12 a2
α1 u1 + α2 u2 + · · · + αn un = v = λ1 v1 + λ2 v2 + · · · + λn vn
Luego
= λ1 (α1,1 u1 + α2,1 u2 + · · · + αn1 un )
 1   
a + 12 a1 − 12 a2
2 0
a + a1 − a2 +λ2 (α1,2 u1 + α2,2 u2 + · · · + αn2 un )
1 0
p(x)]β = [a0 + a1 x + a2 x2 ]β = − 12 a0 + 12 a1 + 12 a2  = −a0 + a1 + a2  + · · · + λn (α1,n u1 + α2,n u2 + · · · + αnn un )
1 2
a0 − 12 a1 + 12 a2 a0 − a1 + a2
   2   = (α1,1 λ1 + α1,2 λ2 + · · · + α1n λn )u1
1 1 −1 a0 1 1 −1
1 1 +(α2,1 λ1 + α2,2 λ2 + · · · + α2n λn )u2
= −1 1 1   a1  = −1 1 1  [p(x)]βc
2 2 + · · · + (αn,1 λ1 + αn,2 λ2 + · · · + αnn λn )un
1 −1 1 a2 1 −1 1
Por lo tanto
      
Teorema 3.20. Sea β una base ordenada de un espacio vectorial V de dimensión n. Para α1 α1,1 λ1 + α1,2 λ2 + · · · + α1n λn α1,1 α1,2 · · · α1n λ1
 α2   α2,1 λ1 + α2,2 λ2 + · · · + α2n λn  α2,1 α2,2 · · · α2n   λ2 
cualesquiera u, v ∈ V y α ∈ R se cumple que   
 ..  = 
 
 =  ..
 
.. .. .. ..   .. 
 .   . .   . . .  . 
1. [u + v]β = [u]β + [v]β . αn αn,1 λ1 + αn,2 λ2 + · · · + αnn λn αn1 αn2 · · · αnn λn

Jorge Campos 113 114 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

De donde   Como su nombre lo indica, la matriz Mβ1 ,β2 permite calcular la matriz de coordenadas de
α1,1 α1,2 · · · α1n un vector v ∈ V, respecto a la base β2 , conociendo la matriz de coordenadas de v respecto
α2,1 α2,2 · · · α2n 
  a la base β1 . Nótese además que por su definición, la columna j-ésima de Mβ1 ,β2 , repre-
[v]β2 =  .. ... ..  [v]β1
 . .  senta la matriz de coordenadas del j-ésimo vector de β1 respecto a la base β2 , esto es, si
αn1 αn2 · · · αnn β1 = {v1 , v2 , . . . , vn }, entonces
� �
Haciendo Mβ1 ,β2 = [v1 ]β2 [v2 ]β2 · · · [vn ]β2
 
α1,1 α1,2 · · · α1n Ejemplo 3.24. Sea β la base ordenada de P2 [x] dada en el ejemplo 3.23. Entonces, según
α2,1 α2,2 · · · α2n  � �
  el ejemplo en cuestión, tenemos que
A = [αij ]n×n =  .. .. ..  = [v1 ]β2 [v2 ]β2 · · · [vn ]β2
 . . .   
1 1 −1
αn1 αn2 · · · αnn 1
Mβc ,β = −1 1 1  (¿por qué?)
2
obtenemos la existencia de la matriz A que satisface (3.7). 1 −1 1
Para probar la unicidad de A, notemos primero que la j-ésima columna de A está dada
donde βc es la base canónica ordenada de P2 [x]. �
por  
α1j Antes de dar algún otro ejemplo, enunciaremos un primer resultado que involucra matrices
 α2j  de transición.
(j)  
A =  ..  = [vj ]β2
 .  Teorema 3.22. Si V es un espacio vectorial de dimensión n y β1 y β2 son dos bases orde-
αnj nadas de V, entonces la matriz Mβ1 ,β2 es invertible y su inversa es Mβ2 ,β1 .
Supongamos que B ∈ Mn×n (R) es tal que
Demostración. Sea v ∈ V cualquiera. Entonces
[v]β2 = B[v]β1 para cada v ∈ V [v]β2 = Mβ1 ,β2 [v]β1 y [v]β1 = Mβ2 ,β1 [v]β2
Ası́ que, para cada j ∈ {1, . . . , n}, tenemos que Por lo tanto, si β2 = {v1 , v2 , . . . , vn } y C = Mβ1 ,β2 Mβ2 ,β1 , entonces, para cada j ∈ {1, . . . , n},
[vj ]β2 = B[vj ]β1 se tiene que

Pero In(j) = [vj ]β2 = Mβ1 ,β2 [vj ]β1 = Mβ1 ,β2 Mβ2 ,β1 [vj ]β2 = CIn(j) = C (j)
 
0
 ..  En consecuencia Mβ1 ,β2 Mβ2 ,β1 = In y por lo tanto (Mβ1 ,β2 )−1 = Mβ2 ,β1 .
.
 
0
  Ejemplo 3.25. Consideremos las siguientes bases ordenadas de R3
[vj ]β1 = In(j) = 1 −→ j-ésima fila
 
0
. β1 = {(1, −2, 0), (3, −1, 1), (0, 1, 3)}; β2 = {(0, 2, 1), (−1, 0, 1), (3, −1, 2)}
 .. 
0 y βc la base canónica.
Luego Calcular Mβ1 ,β2 , Mβc ,β2 y Mβ2 ,β1 .
A(j) = [vj ]β2 = B[vj ]β1 = BIn(j) = B (j)
Solución. Para calcular Mβ1 ,β2 debemos calcular las matrices de coordenadas de cada uno
Por lo tanto B = A. de los vectores de β1 respecto a la base β2 . Sean
     
α1,1 α1,2 α1,3
Definición 3.12. La matriz A en el teorema anterior es llamada matriz de transición o   
[(1, −2, 0)]β2 = α2,1 , [(3, −1, 1)]β2 = α2,2  
y [(0, 1, 3)]β2 = α2,3 
matriz de cambio de base de β1 a β2 y se denota por Mβ1 ,β2 . α3,1 α3,2 α3,3

Jorge Campos 115 116 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

   
Entonces 1 1 2 0 1 3 1 1 2 0 1 3
F2 ↔ F3  0 −1 3 1 3 0  F2 → −F2  0 1 −3 −1 −3 0 
(1, −2, 0) = α1,1 (0, 2, 1) + α2,1 (−1, 0, 1) + α3,1 (3, −1, 2) → →
0 −2 −5 −2 −3 −5 0 −2 −5 −2 −3 −5
 
= (−α2,1 + 3α3,1 , 2α1,1 − α3,1 , α1,1 + α2,1 + 2α3,1 ) 1 0 5 1 4 3
F 1 → F1 − F 2
→  0 1 −3 −1 −3 0 
F3 → F3 + 2F2
0 0 −11 −4 −9 −5
(3, −1, 1) = α1,2 (0, 2, 1) + α2,2 (−1, 0, 1) + α3,2 (3, −1, 2)    9 1 8

1 0 5 1 4 3 1 0 0 − 11 − 11
= (−α2,2 + 3α3,2 , 2α1,2 − α3,2 , α1,2 + α2,2 + 2α3,2 ) F1 → F1 − 5F3 11
F3 → − 111
F3  0 1 −3 −1 −3 0  →  0 1 0 1
11
6
− 11 15
11

→ 0 0 4 9 5 F2 → F2 + 3F3 4 9 5
1 11 11 11
0 0 1 11 11 11
(0, 1, 3) = α1,3 (0, 2, 1) + α2,3 (−1, 0, 1) + α3,3 (3, −1, 2) Ası́ que  9   
1 8
= (−α2,3 + 3α3,3 , 2α1,3 − α3,3 , α1,3 + α2,3 + 2α3,3 ) − 11 − 11 11 −9 −1 8
1 
Mβ1 ,β2 =  11 1 6
− 11 15 
11
= 1 −6 15 
4 9 5 11
De donde 11 11 11
4 9 5
 
 −α2,1 +3α3,1 = 1  −α2,2 +3α3,2 = 3 Calculemos ahora Mβc ,β2 . En este caso la matriz aumentada que obtenemos es
2α1,1 −α3,1 = −2 , 2α1,2 −α3,2 = −1  
  0 −1 3 1 0 0
α1,1 +α2,1 +2α3,1 = 0 α1,2 +α2,2 +2α3,2 = 1
 
[Mβ2 ,βc |Mβc ,βc ] = 2 0 −1 0 1 0 
 −α2,3 +3α3,3 = 0 1 1 2 0 0 1
y 2α1,3 −α3,3 = 1
 Vemos que para obtener Mβc ,β2 necesitamos aplicar, en el mismo orden, las mismas OEF
α1,3 +α2,3 +2α3,3 = 3
que aplicamos anteriormente (¿por qué?), y obtenemos
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
 
manera simultánea considerando la siguiente matriz tres veces ampliada 1 0 0 1 5 1
11 11 11
   0 1 0 −5 −3 6 
11 11 11
0 −1 3 1 3 0 0 0 1 2 1
− 11 2
 2 0 −1 −2 −1 1  11 11

1 1 2 0 1 3 Por lo tanto
Nótese que las tres primeras columnas de ésta matriz, son las matrices de coordenadas de  1 5 1
  
1 5 1
 = 1  −5 −3 6 
cada uno de los vectores de la base β2 respecto a la base canónica, y las tres últimas columnas, 11 11 11
Mβc ,β2 =  − 11
5 3
− 11 6
11
son las matrices de coordenadas de cada uno de los vectores de la base β1 respecto a la base 2 1 2 11
11
− 11 11
2 −1 2
canónica, es decir,
  Nótese que la matriz obtenida no es mas que la inversa de
0 −1 3 1 3 0
 
[Mβ2 ,βc |Mβ1 ,βc ] =  2 0 −1 −2 −1 1  0 −1 3
1 1 2 0 1 3 Mβ2 ,βc =  2 0 −1 
Este procedimiento es estándar cada vez que busquemos una matriz de cambio de base. 1 1 2
    Finalmente (¡verifı́quelo!)
0 −1 3 1 3 0 1 1 2 0 1 3
 2 0 −1 −2 −1 1  F1 ↔ F3  2 0 −1 −2 −1 1     
→ − 15 1 3
−15 7 3
= 1 
1 1 2 0 1 3 0 −1 3 1 3 0 14 2 14
 Mβ2 ,β1 = (Mβ1 ,β2 )−1 =  5
14
− 12 13
14
5 −7 13 
1 1 2 0 1 3 3 1 5 14
3 7 5
F2 → F2 − 2F1  0 −2 −5 −2 −3 −5  14 2 14

0 −1 3 1 3 0

Jorge Campos 117 118 Jorge Campos


3.6. Matriz de Cambio de Base Capı́tulo 3. Espacios Vectoriales. Bases y Dimensión

Ejemplo 3.26. Sean β1 , β2 y βc como en el ejemplo 3.25. Dado cualquier (x, y, z) ∈ R3 , En el capı́tulo 1, se explicó la resolución del problema de hallar una solución a la ecuación
calcular [(x, y, z)]β2 y [(x, y, z)]β1 . matricial AX = B, donde A ∈ Mm×n (R) y B ∈ Mm×p (R) son matrices conocidas, en
  particular, cuando A es invertible, tal resolución nos permite obtener la única solución posible
x
que es X = A−1 B.
Solución. Sabemos que [(x, y, z)]βc = y  por lo tanto
Por otro lado, si consideramos tres bases ordenadas de un espacio vectorial V de dimensión
z
finita, digamos β1 , β2 y β3 , al resolver la ecuación matricial Mβ3 ,β2 X = Mβ1 ,β2 , según lo co-
    
1 5 1 x x + 5y + z mentado anteriormente, y en virtud de los teoremas 3.22 y 3.23, obtenemos que la solución a
1     1  esta ecuación está dada por X = (Mβ3 ,β2 )−1 Mβ1 ,β2 = Mβ2 ,β3 Mβ1 ,β2 = Mβ1 ,β3 , por lo tanto, sa-
[(x, y, z)]β2 = Mβc ,β2 [(x, y, z)]βc = −5 −3 6 y = −5x − 3y + 6z 
11 11 biendo que tal ecuación se resuelve al calcular la FERF de la matriz [Mβ3 ,β2 |Mβ1 ,β2 ], entonces,
2 −1 2 z 2x − y + 2z
cuando las matrices Mβ3 ,β2 y Mβ1 ,β2 son conocidas o bien fáciles de calcular, el problema se
    reduce al cálculo antes mencionado. En relación a esto último, si β2 es la base canónica de V,
−15 7 3 x + 5y + z siendo V uno de los espacios Rn , Mm×n (R) o Pn [x], entonces las matrices Mβ3 ,β2 y Mβ1 ,β2 se
1  1
[(x, y, z)]β1 = Mβ2 ,β1 [(x, y, z)]β2 = 5 −7 13   −5x − 3y + 6z  pueden calcular fácilmente, en consecuencia, dadas dos bases ordenadas β1 y β3 cualesquiera
14 11
3 7 5 2x − y + 2z de alguno de estos espacios vectoriales, el cálculo de la matriz de transición entre estas bases,
  se reduce a calcular la FERF de una matriz adecuada, a saber la matriz [Mβ3 ,β2 |Mβ1 ,β2 ].
−4x − 9y + 3z
1 
[(x, y, z)]β1 = 6x + 3y − z  Teorema 3.24. Sea β una base ordenada de un espacio vectorial V de dimensión n. Entonces
14
−2x − y + 5z {v1 , v2 , . . . , vn } es una base de V si y sólo si la matriz cuadrada de orden n, cuya j-ésima
columna es [vj ]β , tiene determinante distinto de cero.
En este último ejemplo se verifica que Demostración. Sea A ∈ Mn×n (R) la matriz cuya j-ésima columna es [vj ]β . Sean, además,
    α1 , α2 , . . . , αn ∈ R tales que
−15 7 3 1 5 1
1  1
Mβc ,β1 = Mβ2 ,β1 Mβc ,β2 = 5 −7 13    −5 −3 6  α1 v1 + α2 v2 + · · · + αn vn = 0/V .
14 11
3 7 5 2 −1 2
  Ası́ que
−4 −9 3
1 
Mβc ,β1 = 6 3 −1 
14 0/n×1 = [0/V ]β = [α1 v1 + α2 v2 + · · · + αn vn ]β = α1 [v1 ]β + α2 [v2 ]β + · · · + αn [vn ]β
−2 −1 5    
Este resultado no es casual, como se puede ver en elsiguiente teorema. α1 α1
 α2   α2 
   
Teorema 3.23. Sean β1 , β2 y β3 bases ordenadas de un espacio vectorial V de dimensión = [[v1 ]β [v2 ]β · · · [vn ]β ]  ..  = A  ..  .
 .   . 
n. Entonces
αn αn
Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2 .
 
Demostración. Sea v ∈ V cualquiera. Entonces α1
 α2 
  /
[v]β3 = Mβ2 ,β3 [v]β2 y [v]β2 = Mβ1 ,β2 [v]β1 . Pero det(A) �= 0 si y sólo si el sistema A  ..  = 0n×1 tiene como única solución la trivial,
 . 
Luego αn
[v]β3 = Mβ2 ,β3 [v]β2 = Mβ2 ,β3 Mβ1 ,β2 [v]β1 . es decir, si y sólo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que
Por unicidad de la matriz Mβ1 ,β3 , concluimos que dim(V) = n, equivale a que {v1 , v2 , . . . , vn } es una base de V.

Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2 .


El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimensión n, es una base para dicho espacio.

Jorge Campos 119 120 Jorge Campos


3.6. Matriz de Cambio de Base

Teorema 3.25. Sean V un espacio vectorial de dimensión n, β una base ordenada de V


{v1 , v2 , . . . , vk } ⊂ V, A ∈ Mn×k (R) la matriz cuya j-ésima columna es [vj ]β y F ∈ Mn×k (R) la
FERF de A. Si j1 , j2 , . . . , jr ∈ {1, . . . , k} son tales que F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas
de F con pivotes, entonces vj1 , vj2 , . . . , vjr son linealmente independientes. Además, para cada
j ∈ {1, . . . , k}, se tiene que
r
� Capı́tulo 4
vj = f1j vj1 + f2j vj2 + · · · + frj vjr = fij vji .
i=1

Demostración. ¡Ejercicio! Espacios Reales con Producto Interno.


Sugerencia: Use el teorema 3.12.
Proceso de Gram-Schmidt

En este capı́tulo y en el siguiente, los espacios vectoriales considerados, son espacios vec-
toriales reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones
y teoremas expuestos en ellos, pueden generalizarse para el caso en que no se consideren
espacios vectoriales reales.1

4.1. Espacios Reales con Producto Interno


Definición 4.1. Sea V un espacio vectorial real. Un producto interno sobre V, es una
función que asocia, a cada par de vectores u, v ∈ V, un único número real denotado por
�u , v�, u · v o uv satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w ∈ V y
cada α ∈ R.

1. �u , v� = �v , u�.

2. �u + v , w� = �u , w� + �v , w�.

3. �αu , v� = α �u , v�.

4. �v , v� ≥ 0 y además �v , v� = 0 si y sólo si v = 0/V .

Un espacio vectorial real, en el cual se define un producto interno, es llamado espacio


(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a los
productos internos son producto interior, producto escalar y producto punto.

Ejemplo 4.1. Las siguientes funciones son productos internos sobre Rn


1
Para profundizar un poco más sobre espacios vectoriales que no sean reales, puede remitirse al apéndice
B.

Jorge Campos 121 122


4.1. Espacios Reales con Producto Interno Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

n
� Ejemplo 4.3. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C 0 [ a , b ],
1. �u , v� = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
la función �
i=1 b
En efecto, sean u, v, w ∈ Rn y α ∈ R con u = (u1 , u2 , . . . , un ); v = (v1 , v2 , . . . , vn ) y �f , g� = f (x)g(x)dx
a
w = (w1 , w2 , . . . , wn ). Entonces
es un producto interno (mientras no se diga lo contrario, éste es el producto interno usual
n
� n
� en C 0 [ a , b ]), en efecto, sean f, g, h ∈ C 0 [ a , b ] y α ∈ R. Entonces
�u , v� = ui v i = vi ui = �v , u� .
� b � b
i=1 i=1
�f , g� = f (x)g(x)dx = g(x)f (x)dx = �g , f � .
a a
u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), ası́ que
n
� n
� n
� n
� � b � b
�u + v , w� = (ui + vi )wi = (ui wi + vi wi ) = ui w i + vi w i �f + g , h� = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
i=1 i=1 i=1 i=1 a a
� b � b
= �u , w� + �v , w� .
= f (x)h(x)dx + g(x)h(x)dx = �f , h� + �g , h� .
a a
αu = α(u1 , u2 , . . . , un ) = (αu1 , αu2 , . . . , αun ), luego � �
b b
n
� n
� �αf , g� = αf (x)g(x)dx = α f (x)g(x)dx = α �f , g� .
�αu , v� = αui vi = α ui vi = α �u , v� . a a
i=1 i=1 � b � b
�f , f � = f (x)f (x)dx = [f (x)]2 dx ≥ 0.
Finalmente n n
a a
� � Además �f , f � = 0 si y sólo si f (x) = 0 para cada x ∈ [ a , b ] (¿por qué?), es decir,
�u , u� = u i ui = u2i ≥ 0.
si y sólo si f = O, donde O es la función nula sobre [ a , b ], esto es, O(x) = 0 para todo
i=1 i=1
x ∈ [ a , b ].
Además, �u , u� = 0 si y sólo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por qué?), esto es, si Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
y sólo si u = 0/Rn . C 0 [ a , b ]. �
Este producto interno es llamado producto interno euclidiano, usual o estándar
Ejemplo 4.4. En Pn [x] las siguientes funciones son productos internos.
de Rn , salvo que se indique lo contrario, este es el producto interno que usualmente
consideraremos sobre Rn . � 1. Como Pn [x] es un subespacio de C 0 [ a , b ], entonces el producto interno definido en el
n
� ejemplo anterior, es un producto interno sobre Pn [x]. Éste producto es el producto
2. �u , v� = pi ui vi donde p1 , p2 , . . . , pn ∈ R+ son números fijos, u y v son como antes. interno usual en Pn [x] cuando a = −1 y b = 1. �
i=1
n

Este producto interno es lo que se denomina producto interno euclidiano ponde-
rado, si p1 = · · · = pn = 1, este producto interno coincide con el producto interno 2. �p , q� = p(i)q(i). En Efecto, sean p, q, r ∈ Pn [x] y α ∈ R. Entonces
i=0
euclidiano. Pruebe que esta función es un producto interno. �
n
� n

Ejemplo 4.2. En Mm×n (R) la siguiente función define un producto interno (¡pruébelo!), el �p , q� = p(i)q(i) = q(i)p(i) = �q , p� .
cual se conoce como producto interno euclidiano, usual o estándar, al igual que en el i=0 i=0
caso de Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos
n
� n

sobre Mm×n (R).
m � n �p + q , r� = [p(i) + q(i)]r(i) = [p(i)r(i) + q(i)r(i)]
� � �
�A , B� = tr AB T = aij bij i=0 i=0
�n n

i=1 j=1
= p(i)r(i) + q(i)r(i) = �p , r� + �q , r� .
donde A = (aij )m×n y B = (bij )m×n (ver definición 1.11). � i=0 i=0

Jorge Campos 123 124 Jorge Campos


4.1. Espacios Reales con Producto Interno Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

n
� n
� 5. Sea v ∈ V cualquiera. Entonces
�p , p� = p(i)p(i) = [p(i)]2 ≥ 0.
i=0 i=0
�v , 0/V � = �v , 0/V + 0/V � = �v , 0/V � + �v , 0/V � .
Además, �p , p� = 0 si y sólo si p(i) = 0 para cada i ∈ {0, . . . , n}.
Pero el único polinomio en Pn [x], que tiene más de n raı́ces, es el polinomio nulo (¿por Ası́ que �v , 0/V � = 0 y además �0/V , v� = �v , 0/V � = 0.
qué?), es decir, �p , p� = 0 si y sólo si p es el polinomio nulo. �
6. Como �u , v� = 0 para cada v ∈ V, entonces �u , u� = 0 (tomando v = u), luego u = 0/V
n
� (¿por qué?).
3. �p , q� = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn
i=0
(¡pruébelo!). �

Teorema 4.1. Sea V un espacio con producto interno � , �. Entonces


4.2. Bases Ortonormales y Proceso de Ortonormaliza-
1. �u , v + w� = �u , v� + �u , w� para cualesquiera u, v, w ∈ V. ción de Gram-Schmidt
2. �u , αv� = α �u , v� para cualesquiera u, v ∈ V y α ∈ R. Definición 4.2. Sea � , � un producto interno sobre un espacio vectorial V y sean u, v ∈ V.
Diremos que u es ortogonal a v si �u , v� = 0, en cuyo caso escribiremos u ⊥ v.
3. �u − v , w� = �u , w� − �v , w� para cualesquiera u, v, w ∈ V.

4. �u , v − w� = �u , v� − �u , w� para cualesquiera u, v, w ∈ V. Observación 4.1. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia,


podemos escribir u y v son ortogonales en lugar de u es ortogonal a v.
5. �v , 0/V � = 0 = �0/V , v� para todo v ∈ V.
Observación 4.2. Cuando en Rn consideramos el producto interno euclidiano, entonces la
6. Si �u , v� = 0 para cada v ∈ V, entonces u = 0/V . ortogonalidad entre vectores equivale a la perpendicularidad entre vectores.

Demostración. Ejemplo 4.5.

1. Sean u, v, w ∈ V cualesquiera. Entonces 1. Sean x = (2, −1, −3) e y = (3, 3, 1). Entonces

�u , v + w� = �v + w , u� = �v , u� + �w , u� = �u , v� + �u , w� . �x , y� = (2)(3) + (−1)(3) + (−3)(1) = 6 − 3 − 3 = 0

2. Sean u, v ∈ V y α ∈ R cualesquiera. Ası́ que ası́ que x ⊥ y. �

�u , αv� = �αv , u� = α �v , u� = α �u , v� . 2. La parte 5 del teorema 4.1 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, además, la parte 6 de
este mismo teorema, nos dice que el único vector que es ortogonal a todo vector v ∈ V,
3. Sean u, v, w ∈ V cualesquiera. Luego
es el vector nulo. �
�u − v , w� = �u + (−v) , w� = �u , w� + �−v , w� = �u , w� + �(−1)v , w�
3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C 0 [ −π , π ], son ortogonales. �
= �u , w� + (−1) �v , w� = �u , w� − �v , w� .
4. En P2 [x], los polinomios p(x) = 1 + 2x y q(x) = −2 + x son ortogonales si consi-
2 2

4. Sean u, v, w ∈ V cualesquiera. Ası́ que deramos el producto interno definido en la parte 3 del ejemplo 4.4 (¡verifı́quelo!), pero
si consideramos el producto interno definido en la parte 2 del mismo ejemplo, estos
�u , v − w� = �v − w , u� = �v , u� − �w , u� = �u , v� − �u , w� . polinomios no son ortogonales (¡verifı́quelo!). �

Jorge Campos 125 126 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Definición 4.3. Sea � , � un producto interno sobre el espacio vectorial V. Definiremos la Teorema 4.2. Sea V un EPI. Entonces, para cada α ∈ R y cualesquiera u, v ∈ V, se cumple
norma, magnitud, módulo o longitud de v ∈ V (inducida por el producto interno2 ), que:
como el número real �v� dado por
� 1. �u� ≥ 0 y �u� = 0 si y sólo si u = 0/V .
�v� = �v , v�
2. �αu� = |α| · �u�.
Diremos que v ∈ V es unitario si �v� = 1.
3. �u ± v�2 = �u�2 ± 2 �u , v� + �v�2 .
Observación 4.3. Dado que �v , v� ≥ 0 para cada v ∈ V, entonces la definición anterior
está bien fundada. Demostración. ¡Ejercicio!

Observación 4.4. Cuando en Rn consideramos el producto interno euclidiano, entonces la


norma de un vector v ∈ Rn , inducida por éste, en realidad nos da la longitud del segmento Teorema 4.3. Sean u y v dos vectores unitarios en un EPI. Entonces
de recta que va desde el origen hasta el punto v.
| �u , v� | ≤ 1.
Ejemplo 4.6. Consideremos sobre R4 el producto interno euclidiano. Entonces
� � √ Demostración. Usando la parte 3 del teorema 4.2, tenemos que
�(1, 0, −3, 2)� = �(1, 0, −3, 2) , (1, 0, −3, 2)� = 12 + 02 + (−3)2 + 22 = 14.
0 ≤ �u + v�2 = �u�2 + 2 �u , v� + �v�2 = 1 + 2 �u , v� + 1 = 2[1 + �u , v�].

Ejemplo 4.7. En P2 [x] consideremos el polinomio p(x) = 3−x2 . Calcular �p� considerando: Ası́ que
�u , v� ≥ −1.
1. El producto interno definido en la parte 1 del ejemplo 4.4 con a = −1 y b = 1. Nuevamente, por la parte 3 del teorema 4.2, obtenemos
2. El producto interno definido en la parte 2 del ejemplo 4.4. 0 ≤ �u − v�2 = �u�2 − 2 �u , v� + �v�2 = 1 − 2 �u , v� + 1 = 2[1 − �u , v�]
3. El producto interno definido en la parte 3 del ejemplo 4.4.
luego
Solución. �u , v� ≤ 1.
�� �� �� ��1 En consecuencia
1 1
x5 �� | �u , v� | ≤ 1.
1. �p� = (3 − x2 )2 dx = (9 − 6x2 + x4 )dx = 9x − 2x3 +
−1 −1 5 �−1
� � �
� �
361 2
= 2 9−2+ =6 =. 2 En el teorema que enunciaremos a continuación, se dan dos propiedades muy importantes
55 5
de la norma. Haremos uso del teorema precedente para poder probar la primera de éstas.
� � √
2. �p� = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (−1)2 = 14.
Teorema 4.4. Sean u y v dos vectores en un EPI. Entonces
� √
3. �p� = 32 + 02 + (−1)2 = 10.
1. | �u , v� | ≤ �u� · �v� (Desigualdad de Cauchy-Schwarz).

2. �u + v� ≤ �u� + �v� (Desigualdad Triangular).


A continuación enunciaremos un teorema donde se dan a conocer algunas propiedades
de la norma, y que son consecuencia directa de las propiedades del producto interno, su Las igualdades se cumplen si y sólo si uno de los vectores es múltiplo escalar del otro,esto
demostración se deja como ejercicio. es, si y sólo si existe α ∈ R tal que u = αv o v = αu.
2
No toda norma es inducida o proviene de un producto interno, como puede verse en el apéndice B. Demostración.

Jorge Campos 127 128 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

1. Si u = 0/V o v = 0/V , entonces | �u , v� | = 0 = �u� · �v�. Definición 4.5. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V. Diremos que S es un con-
u v junto ortogonal si vi ⊥ vj para cualesquiera i, j ∈ {1, . . . , k} con i �= j. Si adicionalmente
En caso contrario, u �= 0/V �= v y por lo tanto los vectores u
�= y v� = son
�u� �v� vi es unitario para cada i ∈ {1, . . . , k}, diremos que S es un conjunto ortonormal.
unitarios, y por el teorema 4.3
| ��
u , v�� | ≤ 1. Ejemplo 4.9. Consideremos las siguientes matrices en M2×2 (R)
� � � � � �
Pero � � 1 0 0 2 0 1
u v 1 A1 = ; A2 = y A3 =
��
u , v�� = , = �u , v� . 0 0 −2 0 1 3
�u� �v� �u� · �v�
¿Es S = {A1 , A2 , A3 } un conjunto ortogonal? ¿Es S ortonormal?
1
Por lo tanto �u , v� ≤ 1, es decir, �u , v� ≤ �u� · �v�.
�u� · �v� Solución.
�A1 , A2 � = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0.
2. Por la parte 3 del teorema 4.2 tenemos que
2 2 2 �A1 , A3 � = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0.
�u + v� = �u� + 2 �u , v� + �v�
�A2 , A3 � = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0.
y por la parte 1 (desigualdad de Cauchy-Schwarz)
Ası́ que S es ortogonal. Pero
�u , v� ≤ | �u , v� | ≤ �u� · �v�. � √
�A2 � = 02 + 22 + (−2)2 + 02 = 2 2 �= 1.
Ası́ que
�u + v�2 ≤ �u�2 + 2�u� · �v� + �v�2 = (�u� + �v�)2 . Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde
Luego �u + v� ≤ �u� + �v�.
1 1 1 1 1
B1 = A1 = A1 , B2 = A2 = √ A2 y B3 = A3 = √ A3
Se deja como ejercicio probar la última parte del teorema. �A1 � �A2 � 2 2 �A3 � 11
sı́ es un conjunto ortonormal (¡verifı́quelo!).
Definición 4.4. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el ángulo
entre u y v como el número real �(u, v) ∈ [ 0 , π ] tal que
�u , v� Teorema 4.5. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente
cos(�(u, v)) = independiente.
�u� · �v�
es decir � � Demostración. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V un conjunto ortogonal de
�u , v� vectores no nulos.
�(u, v) = arc cos .
�u� · �v� Sean α1 , α2 , . . . , αk ∈ R tales que
Ejemplo 4.8. Calcular el ángulo entre los vectores u = (0, −3, 3) y v = (2, 2, −1). α1 v1 + α2 v2 + · · · + αk vk = 0/V .
Solución.
�u , v� = 0 · 2 + (−3)2 + 3(−1) = −9; Entonces, para cada j ∈ {1, . . . , k}, se tiene que
� √ √ � √
�u� = 02 + (−3)2 + 32 = 18 = 3 2 y �v� 22 + 22 + (−1)2 = 9 = 3. k
� k

Ası́ que 0 = �vj , 0/V � = �vj , α1 v1 + α2 v2 + · · · + αk vk � = �vj , αi vi � = αi �vj , vi �
� √ � i=1 i=1
� � � �
�u , v� −9 − 2 3π = αj �vj , vj � = αj �vj �2
�(u, v) = arc cos = arc cos √ = arc cos = .
�u� · �v� 3 2·3 2 4
y dado que vj es no nulo, entonces αj = 0. Por lo tanto S es linealmente independiente.

Jorge Campos 129 130 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Definición 4.6. Sean V un EPI y β = {v1 , v2 , . . . , vn } una base de V. Diremos que β es y


una base ortogonal (respectivamente ortonormal) si β es un conjunto ortogonal (respec- �� √ � � √ √ � 1
tivamente ortonormal). 3 5 � 2
� 3 5 � � 15 � �
x, √ −1 + 3x = √ x , −1 + 3x2 = x −1 + 3x2 dx = 0.
2 2 2 22 2 4 −1
Ejemplo 4.10.
1. Las bases canónicas de Rn y Mm×n (R) son bases ortonormales. � �

2. Una base ortogonal de M2×2 (R) es: Para finalizar esta sección, nos plantearemos y solucionaremos el probleorema de hallar
�� � � � � � � �� una base ortonormal para un EPI de dimensión finita3 o para un subespacio de dimensión
1 0 0 2 0 1 0 3
β= ; ; ; finita de un EPI, comenzaremos con un ejemplo el cual ilustrará un procedimiento, conocido
0 0 −2 0 1 3 3 −2
como proceso de ortonormalización de Gram-Schmidt, que nos permite encontrar
pero no es ortonormal. � tal base.
3. Una base ortonormal de P2 [x], considerando el producto interno usual (ver la parte 1 Ejemplo 4.11. En P2 [x] consideremos el producto interno usual y consideremos la base de
del ejemplo 4.4), es: P2 [x] β = {1 , x , x2 }. Calcular una base ortonormal de P2 [x] partiendo de la base β.
� � √ �
1 3 5 � � Solución. Hagamos
β= √ , x , √ −1 + 3x2 .
2 2 2 2 v1 = 1 , v2 = x y v3 = x2 .

En efecto, Entonces ��
� � � �2 � 1 √
� 1 �2 1 1
� √ � = √1 �1�2 = dx =
1
2 = 1; �v1 � = dx = 2.
� 2� 2 2 −1 2 −1
�� �2 �� �2 � �1 Sea
� 3 � 3 3 1 2 3 x3 ��
� � 1 1
� x� = �x�2 = x dx = =1 u1 = v1 = √ .
� 2 � 2 2 −1 2 3 �−1 �v1 � 2
y Ası́ que �u1 � = 1.
�√ �2 � √ �2 � 1 Ahora hagamos
� 5 � �� 5 � � � �2
� �
� √ −1 + 3x2 � = √ �−1 + 3x2 �2 = 5 −1 + 3x2 dx w2 = v2 − �v2 , u1 � u1 .
�2 2 � 2 2 8 −1
� Pero � � � 1
5 1� � 1 1 1
= 1 − 6x2 + 9x4 dx �v2 , u1 � = x, √ = √ �x , 1� = √ xdx = 0.
8 −1 2 2 2 −1
� ��1
5 9 � Luego w2 = v2 = x, además
= x − 2x3 + x5 �� dx = 1
8 5 −1 �� � �1 �
1
x3 �� 2
�w2 � = x2 dx = = .
Además � � � � √ � 1 −1 3 �−1 3
1 3 1 3 3
√ , x =√ �1 , x� = xdx = 0;
2 2 2 2 2 −1 Si hacemos �
1 3
� √ � √ √ � 1 u2 = w2 = x
1 5 � � 1 5 � � 5 � � �w2 � 2
√ , √ −1 + 3x2 = √ √ 1 , −1 + 3x2 = −1 + 3x2 dx
2 2 2 22 2 4 −1 entonces �u2 � = 1 y u1 ⊥ u2 (ver ejemplo 4.10).

5� ��1 3
También es posible hallar una base ortonormal para un EPI de dimensión infinita, tales bases son llamadas
= −x + x3 �0 = 0 bases de Hilbert.
2
Jorge Campos 131 132 Jorge Campos
4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Consideremos Paso 2. Sea w2 = v2 − �v2 , u1 � u1 . Entonces w2 �= 0/V , pues de lo contrario


w3 = v3 − �v3 , u1 � u1 − �v3 , u2 � u2 .
�v2 , u1 �
Pero � � � 1 �1 v2 = �v2 , u1 � u1 = v1
1 1 � � 1 1 x3 �� 2 �v1 �
�v3 , u1 � = x2 , √ = √ x2 , 1 = √ x2 dx = √ = √
2 2 2 −1 2 3 �−1 3 2 lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente.
� � � � � � 1
3 3� 2 � 3 Además
�v3 , u2 � = x2 , x = x ,x = x3 dx = 0.
2 2 2 −1
De donde �w2 , u1 � = �v2 − �v2 , u1 � u1 , u1 � = �v2 , u1 � − ��v2 , u1 � u1 , u1 �
2 1 1 = �v2 , u1 � − �v2 , u1 � �u1 , u1 � = �v2 , u1 � − �v2 , u1 � = 0.
w 3 = x 2 − √ √ = − + x2
3 2 2 3
y Con lo que w2 ⊥ u1 .
� � �2 ��� �
� 1 1
1 1 2 2 1 w2
�w3 � = − + x2
dx = − x + x4 dx Paso 3. Sea u2 = w2 = . Entonces �u2 � = 1 y u1 ⊥ u2 . Ası́ que {u1 , u2 } es
−1 3 −1 9 3 �w2 � �w2 �
�� ��1 � √ un conjunto ortonormal.
1 2 3 x5 �� 8 2 2
= x− x + � = = √ . Además gen({u1 , u2 }) = gen({v1 , v2 }). En efecto, sea v ∈ gen({u1 , u2 } cualquiera.
9 9 5 −1 45 3 5 Entonces existen α1 , α2 ∈ R tales que v = α1 u1 + α2 u2 .
Finalmente, hagamos Luego
√ � � √
1 3 5 1 5 � �
u3 = w3 = √ − + x2 = √ −1 + 3x2 . 1 1
�w3 � 2 2 3 2 2 v = α1 u1 + α 2 u 2 = α 1 v1 + α 2 w2
�v1 � �w2 �
Entonces �u3 � = 1 , u3 ⊥ u1 y u3 ⊥ u2 (ver ejemplo 4.10). α1 α2
= v1 + (v2 − �v2 , u1 � u1 )
Por lo tanto � � √ � �v1 � �w2 �
� �
1 3 5 � � α1 α2 1
{u1 , u2 , u3 } = √ , x , √ −1 + 3x2 = v1 + v2 − �v2 , u1 � v1
2 2 2 2 �v1 � �w2 � �v1 �
es una base ortonormal de P2 [x], la cual se obtuvo de β.
� �
α1 α2 �v2 , u1 � α2
v = − v1 + v2 .
El teorema siguiente generaliza el procedimiento que se usó en ejemplo previo. �v1 � �w2 ��v1 � �w2 �
Teorema 4.6 (Proceso de Ortonormalización de Gram-Schmidt). Sea V un EPI. Si W es un
subespacio de dimensión finita de V, entonces W posee una base ortonormal. En Particular, De donde v ∈ gen({v1 , v2 }) y por lo tanto gen({u1 , u2 }) ⊂ gen({v1 , v2 }), ası́
si V tiene dimensión finita, entonces V posee una base ortonormal. gen({u1 , u2 }) es un subespacio de gen({v1 , v2 }), como {u1 , u2 } es un conjunto
ortonormal, y en consecuencia linealmente independiente (¿por qué?), entonces
Demostración. Sea βW = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base
dim(gen({u1 , u2 })) = 2 = dim(gen({v1 , v2 })), ası́ que
ortonormal de W a partir de βW .
En primer lugar, notemos que �vi � �= 0 para cada i ∈ {1, . . . , m}.
gen({u1 , u2 }) = gen({v1 , v2 }) (¿por qué?).
1 v1
Paso 1. Sea u1 = v1 = . Entonces gen({u1 }) = gen({v1 }) (¿por qué?) y
�v1 � �v1 � De manera recursiva, para k < m, obtenemos un conjunto {u1 , u2 , . . . , uk } el cual es orto-
� �
� v1 � 1 normal y tal que
�u1 � = � �
� �v1 � � = �v1 � �v1 � = 1. gen({u1 , u2 , . . . , uk }) = gen({v1 , v2 , . . . , vk }).

Jorge Campos 133 134 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Paso 4. Sea producto4 A = QR, donde la primera de estas matrices, Q ∈ Mm×n (R), tiene columnas or-
tonormales5 , y la segunda matriz, R ∈ Mn×n (R), es una matriz tirangular superior. Veamos
wk+1 = vk+1 − �vk+1 , u1 � u1 − �vk+1 , u2 � u2 − · · · − �vk+1 , uk � uk cómo hacerlo, pero primero enunciaremos un lema en el que presentamos dos resultados que
�k necesitaremos más adelante y que se derivan directamente de la demostración del teorema
= vk+1 − �vk+1 , ui � ui . 4.6.
i=1
Lema 4.7. Sean {v1 , v2 , . . . , vn }, {u1 , u2 , . . . , un } y {w1 , w2 , . . . , wn } como en la demostra-
Entonces wk+1 ∈ W, wk+1 �= 0/V y para cada j ∈ {1, . . . , k} tenemos que ción del teorema 4.6, con w1 = v1 . Entonces
� k
� 1. �uj , vj � uj = wj para todo j ∈ {1, . . . , n}.

�wk+1 , uj � = vk+1 − �vk+1 , ui � ui , uj
2. �ui , vj � = 0 para cualesquiera i, j ∈ {1, . . . , n} con i > j.
i=1
� k

� Demostración.
= �vk+1 , uj � − �vk+1 , ui � ui , uj (¿por qué?)
i=1 1. En primer lugar
k
� 1
= �vk+1 , uj � − ��vk+1 , ui � ui , uj � (¿por qué?) �u1 , v1 � u1 = �v1 , v1 � v1 (¿por qué?)
i=1
�v1 �2
�k = v1 (¿por qué?)
= �vk+1 , uj � − �vk+1 , ui � �ui , uj � (¿por qué?) = w1 (por definición de w1 )
i=1
= �vk+1 , uj � − �vk+1 , uj � �uj , uj � (¿por qué?) es decir, hemos comprobado la primera parte para j = 1.
= �vk+1 , uj � − �vk+1 , uj � �uj �2 (¿por qué?) Por otro lado, sea j ∈ {2, . . . , n} cualquiera. Recordemos que en este caso
= �vk+1 , uj � − �vk+1 , uj � (¿por qué?) j−1
� j−1

= 0 wj = vj − �vj , ui � ui = vj − �ui , vj � ui
i=1 i=1

es decir, wk+1 ⊥ uj para cada j ∈ {1, . . . , k}. Teniendo en cuenta este hecho, se tiene que
� j−1

1 wk+1 �
Paso 5. Hagamos uk+1 = wk+1 = . Entonces �uj , vj � = uj , w j + �ui , vj � ui (¿por qué?)
�wk+1 � �wk+1 �
i=1
� j−1

{u1 , u2 , . . . , uk , uk+1 } �
= �uj , wj � + uj , �ui , vj � ui (¿por qué?)
es un conjunto ortonormal y i=1
j−1

gen({u1 , u2 , . . . , uk , uk+1 }) = gen({v1 , v2 , . . . , vk , vk+1 }) = �uj , wj � + �ui , vj � �uj , ui � (¿por qué?)
i=1
(¿por qué?). = �uj , wj � (¿por qué?)
1
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos = �wj , wj � (¿por qué?)
�wj �
{u1 , u2 , . . . , um } en W, y por lo tanto, una base ortonormal de W.
= �wj � (¿por qué?)
4
Una expresión como ésta es llamada factorización QR de A.
Una de las consecuencias directas del teorema de ortonormalización de G-S es que per- 5
Una matriz cuadrada Q ∈ Mn×n (R) es llamada matriz ortogonal si Q−1 = QT , en éste caso, se puede
mite escribir una matriz A ∈ Mm×n (R), con columnas linealmente independientes, como un probar que, las columnas de Q son ortonormales.

Jorge Campos 135 136 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Ası́ que y para j ∈ {2, . . . , n} nos queda


�uj , vj � uj = �wj �uj = wj (¿por qué?).
j−1

Lo cual demuestra la primera parte. (QR)(j) = �ui , vj � ui + �uj , vj � uj
i=1
2. En la demostración del teorema 4.6 se concluyó que para todo j ∈ {1, . . . , n} se tiene j−1

que = �ui , vj � ui + wj (por la parte 1 del lema 4.7)
gen({v1 , v2 , . . . , vj }) = gen({w1 , w2 , . . . , wj }) = gen({u1 , u2 , . . . , uj }). i=1
= vj (¿por qué?)
Por lo tanto vj ∈ gen({u1 , u2 , . . . , uj }).
= A(j) .
Ahora bien, si i ∈ {1, . . . , n} es tal que i > j, entonces, para todo k ∈ {1, . . . , j}, se
tiene que ui ⊥ uk . En consecuencia QR = A, es decir, hemos probado el siguiente resultado.
Ası́ que ui ⊥ vj , es decir, �ui , vj � = 0. Con lo cual queda probada la segunda parte. Teorema 4.8 (Factorización QR). Sea A ∈ Mm×n (R) cuyas columnas son linealmente inde-
pendientes. Entonces existen una matriz Q ∈ Mm×n (R), cuyas columnas son ortonormales, y
una matriz triangular superior invertible R ∈ Mn×n (R), cuya diagonal está conformada por
números positivos, tales que A = QR.
Consideremos ahora una matriz A ∈ Mm×n (R) cuyas columnas son linealmente inde-
pendientes. Si definimos vj = A(j) , para cada j ∈ {1, . . . , n}, al aplicar el proceso de A continuación daremos un ejemplo para ilustrar la factorización QR de una matriz.
ortonormalización de G-S al conjunto {v1 , v2 , . . . , vn }, obtenemos un conjunto ortonormal
{u1 , u2 , . . . , un }. Para i, j ∈ {1, . . . , n}, definamos rij = �ui , vj �. Hagamos R = (rij )n×n . Ejemplo 4.12. Comprobar que la matriz
Entonces, en virtud de la parte 2 del lema 4.7, se tiene que R es una matriz triangular su-  
−1 −2 2
perior, además, por la demostración de parte 1 del mismo lema, se tiene que rii = �wi � > 0  1 1 2 
para todo i ∈ {1, . . . , n}, por lo tanto, R es una matriz triangular superior invertible tal A=


1 0 2 
que su� diagonal principal � está conformada por números positivos. Finalmente, definamos 1 1 2
Q = u1 u2 · · · un . Afirmamos que A = QR. Veamos que es cierto.
Sea j ∈ {1, . . . , n} cualquiera. Entonces tiene columnas invertibles y calcular una factorización QR para ésta.

(QR) (j)
= QR (j)
(¿por qué?) Solución. Dado que
�n � � � �
� −1 −2 2 � � −2 −2 2 �
= rij Q(i) (¿por qué?) �
� 1
� �
�=� 0

� = −4 �= 0,
i=1 � 1 2 � � 1 2 �
n � 1 0 2 � � 0 0 2 �

= �ui , vj � ui (por definición de las matrices R y Q)
i=1
entonces las columnas de A son linealmente independientes y por lo tanto, según el teorema
j 4.8, existen matrices Q, con columnas ortonormales, y R, triangular superior e invertible,

= �ui , vj � ui (por la parte 2 del lema 4.7) tales que A = QR. Calculemos tales matrices. Definamos v1 = A(1) , v2 = A(2) , v3 = A(3) y
i=1 apliquemos el proceso de ortonormalización de G-S para calcular los vectores ortonormales
u1 , u2 y u3 a partir de las columnas de A.
Para j = 1 obtenemos

w1 = v1 , �w1 � = �v1 � = 1 + 1 + 1 + 1 = 2,
(QR)(1) = �u1 , v1 � u1    
−1 −1/2
= w1 (por la parte 1 del lema 4.7)
1 1 1 1   1/2 
= v1 (¿por qué?) u1 = w 1 = v1 =  = 
�w1 � 2 2  1   1/2 
= A(1) . 1 1/2

Jorge Campos 137 138 Jorge Campos


4.2. Bases Ortonormales y Proceso de Ortonormalización de Gram-Schmidt Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

   
−1 −1 4.3. Complemento Ortogonal
1 1 1   
 =  1  = v1
�v2 , u1 � = (2 + 1 + 0 + 1) = 2, �v2 , u1 � u1 = 2 
2 2 1   1  Finalizaremos este capı́tulo estudiando el complemento ortogonal de un subespacio
1 1 vectorial de un EPI.
     
−2 −1 −1 Teorema 4.9. Sea {v1 , v2 , . . . , vn } una base ortonormal de un EPI V. Entonces para cada
 1   1   0  v ∈ V se tiene que
w2 = v2 − �v2 , u1 � u1 = v2 − v1 =     
 0  −  1  =  −1 

n

1 1 0 v = �v , v1 � v1 + �v , v2 � v2 + · · · + �v , vn � vn = �v , vi � vi .
   √ 
−1 −1/ 2 i=1
√ √ 1 1  
0    
�w2 � = 1 + 0 + 1 + 0 = 2, u2 = w2 = √  = √0  Demostración. ¡Ejercicio!
�w2 � 2  −1   −1/ 2 
0 0
Teorema 4.10. Sean W un subespacio de un EPI de dimensión finita V y {w1 , w2 , . . . , wm }
1 1 4
�v3 , u1 � = (−2 + 2 + 2 + 2) = 2, �v3 , u2 � = √ (−2 + 0 − 2 + 0) = − √ y {w
�1 , w �m } bases ortonormales de W. Entonces para cada v ∈ V se tiene que
�2 , . . . , w
2 2 2
          m
� m

−1 −1 −1 2 1 �v , wi � wi = �v , w
�i � w
�i .
1 1    
 − √4 √1  0  =  1  +  0  =  1
    
�v3 , u1 � u1 + �v3 , u2 � u2 = 2   i=1 i=1
2 1  2 2  −1   1   2   3 
1 0 1 0 1 Demostración. Por teorema, podemos escoger vectores um+1 , . . . , un tales que
     
2 1 1 β1 = {w1 , w2 , . . . , wm , um+1 , . . . , un }
 2   1   1 
w3 = v3 − (�v3 , u1 � u1 + �v3 , u2 � u2 ) =     
 2  −  3  =  −1 
 es una base de V. El proceso de ortonormalización de Gram-Schmidt nos permite suponer,
sin perder generalidad, que β1 es una base ortonormal de V.
2 1 1
    Para cada j ∈ {m + 1, . . . , n},
1 1/2
√ 1 1  1   1/2 
  / gen ({w1 , w2 , . . . , wm }) = W = gen ({w
uj ∈ �1 , w �m })
�2 , . . . , w
�w3 � = 1 + 1 + 1 + 1 = 2, u3 = w3 =  = 
�w3 � 2  −1   −1/2  por lo tanto β2 = {w
�1 , w �m , um+1 , . . . , un } también es una base ortonormal de V.
�2 , . . . , w
1 1/2 Entonces, por el teorema 4.9, tenemos que
Por lo tanto
 √   √  v = �v , w1 � w1 + · · · + �v , wm � wm + �v , um+1 � um+1 + · · · + �v , un � un
−1/2 −1/ 2 1/2 −1 − 2 1 m n
� �  1/2  1 1  � �
0 1/2 0 1
Q = u1 u 2 u3 =  √ 
 1/2 −1/ 2 −1/2  = 2  1 − 2 −1  y
 √  = �v , wi � wi + �v , ui � ui
i=1 i=m+1
1/2 0 1/2 1 0 1
y
   
�u1 , v1 � �u1 , v2 � �u1 , v3 � �w1 � �u1 , v2 � �u1 , v3 � v = �v , w�1 � w
�1 + · · · + �v , w
�m � w
�m + �v , um+1 � um+1 + · · · + �v , un � un
R =  0 �u2 , v2 � �u2 , v3 �  =  0 �w2 � �u2 , v3 �  m n
� �
0 0 �u3 , v3 � 0 0 �w3 � = �v , w�i � w
�i + �v , ui � ui .
    i=1 i=m+1
2 √2 2 2 √2 2

=  0 2 − √42  =  0 2 −2 2  En consecuencia m m
0 0 2 � �
0 0 2 �v , wi � wi = �v , w
�i � w
�i .
son tales que A = QR (¡verifı́quelo!). i=1 i=1

Jorge Campos 139 140 Jorge Campos


4.3. Complemento Ortogonal Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

El teorema 4.10 da pie a la siguiente definición. Ası́ que


� �� �� √ � √
Definición 4.7. Sean W un subespacio de un EPI de dimensión finita V y {w1 , w2 , . . . , wm } 3 3 5 � � 5 � �
una base ortonormal de W. Si v ∈ V, definiremos la proyección ortogonal de v sobre proyW p(x) = xp(x) , x + p(x) , √ −1 + 3x2 √ −1 + 3x2
2 2 2 2 2 2
W, como el vector √ � � √ �
4 3 3 4 5 1� � 1
m
� = √ x+ − √ = 2x − −1 + 3x2 = + 2x − x2 .
proyW v = �v , w1 � w1 + �v , w2 � w2 + · · · + �v , wm � wm = �v , wi � wi . 3 2 2 15 2 3 3
i=1

Claramente proyW v ∈ W.
Definición 4.8. Sea W un subespacio de un EPI V. Definiremos el complemento orto-
Ejemplo 4.13. Consideremos el EPI P2 [x], con el producto interno usual. Calcular la pro- gonal de W como el conjunto
yección ortogonal de p(x) = 3 + 2x − x2 sobre el subespacio de P2 [x]
W⊥ = {v ∈ V : v ⊥ w para cada w ∈ W} = {v ∈ V : �v , w� = 0 para cada w ∈ W}.
W = {a + bx + cx2 : c = −3a}.
Antes de dar algún ejemplo, enunciaremos un teorema que nos permitirá calcular con mayor
Solución. Una base ortonormal de W es facilidad el complemento ortogonal.
�� √ �
3 5 � � Teorema 4.11. Sea W un subespacio vectorial de un EPI V. Sea βW = {w1 , w2 , . . . , wn }
x , √ −1 + 3x2 (¡verifı́quelo!).
2 2 2 una base de W. Entonces v ∈ W⊥ si y sólo si v ⊥ wi para cada i ∈ {1, . . . , n}.

Entonces Demostración. Supongamos primero que v ∈ W⊥ . Entonces v ⊥ w para cada w ∈ W, ası́


� � � � � � 1 que v ⊥ wi para cada i ∈ {1, . . . , n}.
3 3� � 3 � � Supongamos ahora que v ⊥ wi para cada i ∈ {1, . . . , n}, es decir, �v , wi � = 0 para cada
p(x) , x = 3 + 2x − x2 , x = 3 + 2x − x2 xdx
2 2 2 −1 i ∈ {1, . . . , n}.
� � 1 � � 1 � �1 Sea w ∈ W cualquiera. Entonces existen escalares α1 , α2 , . . . , αn ∈ R tales que
3 � � 3 3 x3 ��
= 3x + 2x2 − x3 dx = 2 x2 dx = 2
2 −1 2 −1 2 3 �−1 n

√ w = α 1 w 1 + α 2 w 2 + · · · + αn w n = αi wi .
4 3
= √ . i=1
3 2
Por lo tanto
� √ � √ � n
� n n n
5 � � 5 � � � � � �
p(x) , √ −1 + 3x2 = √ 3 + 2x − x2 , −1 + 3x2 �v , w� = v, αi wi = �v , αi wi � = αi �v , wi � = αi · 0 = 0.
2 2 2 2 i=1 i=1 i=1 i=1
√ � 1
5 � �� �
= √ 3 + 2x − x2 −1 + 3x2 dx Es decir, v ⊥ w para cada w ∈ W. En consecuencia, v ∈ W⊥ .
2 2 −1
√ � 1
5 � �
= √ −3 − 2x + 10x2 + 6x3 − 3x4 dx Ejemplo 4.14. Sea W el subespacio de P2 [x] dado en el ejemplo 4.13. Calcular W⊥ .
2 2 −1
√ � 1
5 � � Solución. Recordemos que
= √ −3 + 10x2 − 3x4 dx
2 2 −1 ��� √ ��
√ � ��1 √
5 10 3 � 4 5 3 5 � � �� ��
= √ −3x + x3 − x5 �� = − √ . W = gen x , √ −1 + 3x2 = gen x , −1 + 3x2
2 2 3 5 −1 15 2 2 2 2

Jorge Campos 141 142 Jorge Campos


4.3. Complemento Ortogonal Capı́tulo 4. Espacios Reales con Producto Interno. Proceso de Gram-Schmidt

Por lo tanto, en virtud del teorema 4.11, se tiene que a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si 2. Por definición, W⊥ ⊂ V. Además, por la parte 5 del teorema 4.1, se tiene que 0/V ∈ W⊥ .
Sean u, v ∈ W⊥ y α ∈ R. entonces, para cada w ∈ W, �u , w� = 0 = �v , w�, ası́ que
(a0 + a1 x + a2 x2 ) ⊥ x y (a0 + a1 x + a2 x2 ) ⊥ (−1 + 3x2 )
�u + αv , w� = �u , w� + �αv , w� = �u , w� + α �v , w� = 0
es decir, si y sólo si �a0 + a1 x + a2 x2 , x� = 0 y �a0 + a1 x + a2 x2 , −1 + 3x2 � = 0, pero
� � 1 es decir, u + αv ∈ W⊥ , y por lo tanto W⊥ es un subespacio de V.
� � 1
a0 + a1 x + a2 x2 , x = (a0 + a1 x + a2 x2 )xdx = (a0 x + a1 x2 + a2 x3 )dx 3. Sea v ∈ W ∩ W⊥ cualquiera. Entonces v ∈ W y v ∈ W⊥ , es decir, v ∈ W y �v , w� = 0
−1 −1
� 1 � 1 para cada w ∈ W. Por lo tanto �v�2 = �v , v� = 0, y por la parte 1 del teorema 4.2, se
x3 � 2
= a1 x2 dx = a1 �� = a1 tiene que v = 0/V . En consecuencia W ∩ W⊥ = {0/V }.
−1 3 −1 3
4. Si W = V, entonces dim V = n y W⊥ = V⊥ = {0/V } (por la parte 1). Por lo tanto
Ası́ que �a0 + a1 x + a2 x2 , x� = 0 si y sólo si a1 = 0. Luego dim(W) + dim(W⊥ ) = n + 0 = n = dim(V).
� 1 Supongamos que W �= V. Sea {w1 , w2 , . . . , wm } una base ortonormal de W y conside-
� � � �
a0 + a1 x + a2 x2 , −1 + 3x2 = a0 + a2 x2 , −1 + 3x2 = (a0 + a2 x2 )(−1 + 3x2 )dx remos vectores wm+1 , . . . , wn ∈ V tales que
−1
� 1
β = {w1 , w2 , . . . , wm , wm+1 , . . . , wn }
= (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx
−1
� 1 sea una base de V, sin perdida de generalidad, podemos suponer que β es ortonormal
= 2 (−a0 − a2 x2 + 3a0 x2 + 3a2 x4 )dx (¿por qué?).
0
� ��1 Probaremos que {wm+1 , . . . , wn } es una base de W⊥ . Dado que {wm+1 , . . . , wn } es
x3 x5 �� ortonormal (¿por qué?), entonces es linealmente independiente, ası́ que sólo es necesario
= 2 −a0 x − a2 + a0 x3 + 3a2
3 5 �0 probar que {wm+1 , . . . , wn } genera a W⊥ .
� �
1 3 8 Sea w ∈ W⊥ cualquiera. Entonces, por el teorema 4.9
= 2 −a0 − a2 + a0 + a2 = a2 .
3 5 15
w = �w , w1 � w1 + · · · + �w , wm � wm + �w , wm+1 � wm+1 + · · · + �w , wn � wn
En consecuencia, a0 + a1 x + a2 x2 ∈ W⊥ si y sólo si a1 = 0 = a2 . Por lo tanto
Pero, por el teorema 4.11, �w , wi � = 0 para cada i ∈ {1, . . . , m}. Luego
W⊥ = gen({1}).
w = �w , wm+1 � wm+1 + · · · + �w , wn � wn

Ası́ que {wm+1 , . . . , wn } es una base de W⊥ . De donde


Teorema 4.12. Si W es un subespacio de un EPI V, entonces � �
dim W⊥ = n − (m + 1) + 1 = n − m = dim(V) − dim(W)
1. V⊥ = {0/V } y {0/V }⊥ = V. � �
En consecuencia dim W⊥ + dim(W) = dim(V).
2. W⊥ es un subespacio de V.

3. W ∩ W⊥ = {0/V }. Teorema 4.13. Sean W un subespacio de dimensión finita de un EPI V y v ∈ V. Entonces


� � existe un único par de vectores w1 ∈ W y w2 ∈ W⊥ tales que
4. Si V es de dimensión finita, entonces dim W⊥ + dim(W) = dim(V).
v = w 1 + w2
Demostración.
donde w1 = proyW v.
1. Son consecuencias directa de las partes 6 y 5 del teorema 4.1. Además, si V es de dimensión finita, entonces w2 = proyW⊥ v.

Jorge Campos 143 144 Jorge Campos


4.3. Complemento Ortogonal

Demostración. Sean w1 = proyW v y w2 = v − w1 . Claramente v = w1 + w2 , además, por


la definición 4.7, w1 ∈ W. Sólo falta probar que w2 ∈ W⊥ .
Sea {v1 , v2 , . . . , vm } una base ortonormal de W. Entonces, por la definición 4.7, tenemos
que
m

w1 = �v , v1 � v1 + �v , v2 � v2 + · · · + �v , vm � vm = �v , vi � vi
i=1 Capı́tulo 5
Ası́ que para cada j ∈ {1, . . . , m}

�w2 , vj � = �v − w1 , vj � = �v , vj � − �w1 , vj � (¿por qué?)


� m

� m

Autovalores y Autovectores de una
= �v , vj � − �v , vi � vi , vj
i=1
= �v , vj � − ��v , vi � vi , vj �
i=1
(¿por qué?)
Matriz. Forma Canónica de Jordan
m

= �v , vj � − �v , vi � �vi , vj � (¿por qué?)
i=1
= �v , vj � − �v , vj � �vj , vj � (¿por qué?) En este capı́tulo estudiaremos una herramianta que es usada en todas las ramas de las
matemáticas puras y aplicadas como las ecuaciones diferenciales, los sistemas dinámicos dis-
= �v , vj � − �v , vj � �vj �2 (¿por qué?)
cretos y continuos, ası́ como también diversos campos de estudios como la ingenierı́a, la fı́sica
= �v , vj � − �v , vj � (¿por qué?) e incluso la quı́mica, dicha herramienta tiene que ver con el estudio de la ecuación matricial
= 0 Ax = λx, siendo A una matriz cuadrada de orden n, x una matriz columna con n filas y λ
un número real.
y por el teorema 4.11, tenemos que w2 ∈ W⊥ .
�1 ∈ W y w
Probemos ahora la unicidad de w1 y w2 . Supongamos que existen w �2 ∈ W⊥ tales
que v = w�1 + w
�2 . Por lo tanto 5.1. Autovalores y Autovectores de una Matriz
�1 + w
w 1 + w2 = v = w �2 Definición 5.1. Sea A ∈ Mn×n (R). Diremos que λ ∈ R es un autovalor (valor propio o
valor caracterı́stico) de A si existe un vector no nulo x ∈ Mn×1 (R) tal que
de donde Ax = λx. Cualquier vector no nulo x ∈ Mn×1 (R), satisfaciendo la igualdad anterior, es
w1 − w �2 − w2
�1 = w llamado autovector (vector propio o vector caracterı́stico) de A asociado a λ.
� �
�1 ∈ W y w
Pero w1 − w �2 − w2 ∈ W⊥ . 2 −3
Ejemplo 5.1. Si A = , entonces λ = 5 es un autovalor de A y
Luego 1 6
w1 − w �2 − w2 ∈ W ∩ W⊥ = {0/V }.
�1 , w � � � �
x 1
�1 = w1 y w
En consecuencia w �2 = w2 . =
y −1
Se deja como ejercicio probar que si V es de dimensión finita, entonces
es un autovector de A asociado a λ = 5, en efecto,
w2 = proyW⊥ v. � �� � � � � �
2 −3 1 5 1
= =5
1 6 −1 −5 −1
λ = 3 también es un autovalor de A y un autovector de A asociado a λ = 3 es
Observación 4.5. En términos de suma directa (ver observación 3.10), el teorema 4.13 nos � � � �
dice que si W es un subespacio de dimensión finita de un EPI V, entonces V = W ⊕ W⊥ . x −3
=
y 1
(¡verifı́quelo!). �

Jorge Campos 145 146


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

� �
Teorema 5.1. Sea A ∈ Mn×n (R). Entonces λ ∈ R es un autovalor de A si y sólo si 2 −3
Ejemplo 5.2. Calcular el autoespacio de A = correspondiente a los autovalores
pA (λ) = det(A − λIn ) = 0. 1 6
λ = 5 y λ = 3.
Demostración. Notemos primero que Ax = λx es equivalente a (A − λIn )x = 0/n×1 ya que
Solución. Sabemos que E5 es el espacio solución del sistema
(A − λIn )x = Ax − λIn x = Ax − λx. � � � �
x 0
(A − 5I2 ) =
y 0
Por definición, λ es un autovalor de A si y sólo si existe x �= 0/n×1 tal que Ax = λx, es
decir, según el comentario inicial, si y sólo si existe x �= 0/n×1 tal que (A − λIn )x = 0/n×1 , lo Calculemos la FERF de A − 5I2
cual a su vez es equivalente a decir que la matriz A − λIn no es invertible, que sabemos es � � � � � �
equivalente a det(A − λIn ) = 0. −3 −3 1 1 1 1
A − 5I2 = F1 → − 13 F1 F 2 → F2 − F 1
1 1 → 1 1 → 0 0

Corolario 5.2. Si D ∈ Mn×n (R) es triangular (superior o inferior), entonces sus autovalores Ası́ que x + y = 0, o bien y = −x, por lo tanto
� � � � � �
son precisamente las componentes de su diagonal principal. En particular se cumple si D es x x 1
diagonal. = =x
y −x −1
��� ���
Demostración. ¡Ejercicio! 1
En consecuencia E5 = gen
−1
Para hallar E3 , debemos proceder de manera análoga, obteniendo
Observación 5.1. Se puede probar que pA (t) = det(A − tIn ) es un polinomio grado n con ��� ���
término dominante (−1)n tn . 3
E3 = gen
Según el teorema precedente, λ es un autovalor de A si y sólo si es raı́z del polinomio pA (t), −1
en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.

Definición 5.2. El polinomio pA (t) = det(A − tIn ) es llamado polinomio caracterı́stico


¿Cómo calcular los autovalores y autovectores de A? La respuesta a esta pregunta la
de A y la ecuación pA (t) = det(A − tIn ) = 0 recibe el nombre de ecuación caracterı́stica
podemos encontrar en el procedimiento que se usó en el ejemplo precedente.
de A.
Observación 5.2. Se dice que x0 es una raı́z del polinomio p(x) de multiplicidad k ∈ Z+
Teorema 5.3. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). El conjunto si existe un polinomio q(x) tal que p(x) = (x − x0 )k q(x) y q(x0 ) �= 0.
Eλ = {x ∈ Mn×1 (R) : Ax = λx} Definición 5.4. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). Definiremos la multiplicidad
geométrica de λ como la dimensión del autoespacio Eλ .
es un subespacio vectorial de Mn×1 (R).
Observación 5.3. Para diferenciar la multiplicidad geométrica de un autovalor λ de A de
Demostración. Sabemos que Ax = λx es equivalente a (A − λIn )x = 0/n×1 , por lo tanto su multiplicidad, como raı́z del polinomio caracterı́stico pA (t), a esta última la llamaremos
multiplicidad algebraica de λ.
Eλ = {x ∈ Mn×1 (R) : (A − λIn )x = 0/n×1 }
Ejemplo 5.3. Para la matriz A del ejemplo 5.2, tenemos que cada uno de sus autovalores
es decir, Eλ es el conjunto solución del sistema (A − λIn )x = 0/n×1 , el cual sabemos es un tiene multiplicidad algebraica y geométrica igual a 1. �
subespacio de Mn×n (R). Ejemplo 5.4. Calcular los autovalores y los autovectores de
 
1 1 1
Definición 5.3. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). El subespacio Eλ es llamado A= 1  1 −1 
autoespacio (espacio propio o espacio caracterı́stico) de A correspondiente a λ. 1 −1 1

Jorge Campos 147 148 Jorge Campos


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Solución. por lo tanto, la solución del segundo de los sistemas es


� �      
� 1−t 1 1 � x −z −1
� �
pA (t) = det(A − tI3 ) = �� 1 1 − t −1 � = −(t − 2)2 (t + 1)  y  =  z  = z 1 

� 1 −1 1 − t � z z 1

Por lo tanto Luego


   
pA (t) = 0 si y sólo si t = 2 ó t = −1.  −1 
Vemos que λ1 = 2 es un autovalor de A de multiplicidad algebraica 2 y λ2 = −1 es un E−1 = gen   1  
 
autovalor de A de multiplicidad algebraica 1. 1
Calculemos los autoespacios E2 y E−1 , para ello debemos resolver los correspondientes Cualquier vector no nulo perteneciente a E−1 es un autovector de A asociado a λ2 = −1.
sistemas Además, se tiene que λ1 = 2 tiene multiplicidad geométrica 2 y λ2 = −1 tiene multiplicidad
        geométrica 1.
x 0 x 0
(A − 2I3 )  y  =  0  y (A + I3 )  y  =  0 
Ejemplo 5.5. Idem para  
z 0 z 0
−1 0 −1
Resolvamoscada uno de estos
 sistemas.   B= 1 −1 1 
−1 1 1 −1 1 1 0 0 −2
  F 2 → F2 + F1 
A − 2I3 = 1 −1 −1 → 0 0 0 
F 3 → F3 + F1 Solución.
1 −1 −1 0 0 0 � �
� −1 − t 0 −1 �
De donde, −x + y + z = 0, o bien x = y + z, por lo tanto, la solución del primero de los � �
sistemas es pB (t) = det(B − tI3 ) = �� 1 −1 − t 1 � = −(t + 1)2 (t + 2).

        � �
x y+z 1 1 0 0 −2 − t
 y = y  = y 1 +z 0  Luego
z z 0 1 pB (t) = 0 si y sólo si t = −1 ó t = −2.
Ası́ que Por lo que λ1 = −1 es un autovalor de B de multiplicidad algebraica 2 y λ2 = −2 es un
    autovalor de B de multiplicidad algebraica 1.    
 1 1  x 0
E2 = gen   1  ,  0   Calculemos E−1 , esto es, resolvamos el sistema (B + I3 )  y  =  0 
 
0 1 z  0
    
Cualquier vector no nulo perteneciente a E2 es un autovector de A asociado a λ1 = 2. 0 0 −1 1 0 1 1 0 1
      B + I3 =  1 0 1  F1 ↔ F2  0 0 −1  F2 → −F2  0 0 1 
→ →
2 1 1 1 2 −1 1 2 −1 0 0  −1  0 0 −1 0 0 −1
    F2 → F2 − 2F1 
A + I3 = 1 2 −1 F1 ↔ F2 2 1 1 → 0 −3 3  1 0 0
→ F 3 → F3 − F 1 F 1 → F1 − F 2
1 −1 2 1 −1 2 0 −3 3 →  0 0 1 
    F 3 → F3 + F2
1 2 −1 1 0 1 0 0 0
F 1 → F 1 − 2F 2
F2 → − 13 F2  0 1 −1  →  0 1 −1  Con lo que x = z = 0, ası́ que
→ 0 −3 F3 → F3 + 3F2
3 0 0 0      
De donde � � x 0 0
x +z = 0 x = −z  y  =  y  = y 1 
o bien
y −z = 0 y = z z 0 0

Jorge Campos 149 150 Jorge Campos


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

   
y 1 −5 −7 1 −5 −7
     F2 → F2 + 2F1  0 3 9  F 2 ↔ F3  0 1 3 
→ →
 0 
0 1 3 0 3 9
E−1 = gen   1   1 0 8
  F1 → F1 + 5F2
0 →  0 1 3 
F3 → F3 − 3F2
Cualquier vector no nulo perteneciente a E−1 es un autovector de B   a λ1 = −1.
 asociado 0 0 0
x 0 De donde �
Ahora hallemos E−2 , esto es, resolvamos el sistema (B + 2I3 )  y  =  0  x = −8z
z 0 y = −3z
   
1 0 −1 1 0 −1 Ası́ que      
B + 2I3 =  1 1 1  F 2 → F2 − F 1  0 1 2  x −8z −8
→  y  =  −3z  = z  −3 
0 0 0 0 0 0
z z 1
Luego x = z y y = −2z, es decir
      En consecuencia    
x z 1  −8 
 y  =  −2z  = z  −2  E1 = gen   −3  
 
z z 1 1
y y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a λ = 1.
    Las multiplicidades algebraica y geométrica de λ = 1 son iguales a 1, coinciden.
 1 
E−2 = gen   −2  
 
1 Teorema 5.4. Sean λ1 , λ2 , . . . , λm ∈ R distintos autovalores de A ∈ Mn×n (R) y x1 , x2 , . . . , xm
Cualquier vector no nulo perteneciente a E−2 es un autovector de B asociado a λ2 = −2. autovectores de A asociados a λ1 , λ2 , . . . , λm , respectivamente. Entonces x1 , x2 , . . . , xm son li-
Vemos que la multiplicidad geométrica de cada uno de los autovalores de B es 1. nealmente independientes.
Demostración. Para cada i ∈ {1, . . . , m}, dado que xi es un autovector de A asociado a
Ejemplo 5.6. Idem para   λi , tenemos que Axi = λi xi y xi �= 0/n×1 .
−1 13 23 Sean α1 , α2 , . . . , αm ∈ R tales que
C =  −1 6 7 
0 −1 −2 α1 x1 + α2 x2 + · · · + αm xm = 0/n×1 (5.1)
� �
� −1 − t 13 23 �� Para probar que αi = 0 para cada i ∈ {1, . . . , m}, procederemos por inducción sobre m.


Solución. pC (t) = det(C − tI3 ) = � −1 6 − t 7 �� = −(t − 1)(t2 − 2t + 2). Verifiquemos que se cumple para m = 2. En este caso la ecuación (5.1) se convierte en
� 0 −1 −2 − t �
α1 x1 + α2 x2 = 0/n×1 . (5.2)
Como t2 −2t+2 �= 0 para todo t ∈ R, entonces el único autovalor de C es λ = 1. Calculemos
el autoespacio E1 de C asociado a λ = 1. Como en el ejemplo precedente, debemos resolver Luego
el sistema     A(α1 x1 + α2 x2 ) = A 0/n×1 = 0/n×1 .
x 0
(C − I3 )  y  =  0  Pero
z 0 A(α1 x1 + α2 x2 ) = α1 Ax1 + α2 Ax2 = α1 λ1 x1 + α2 λ2 x2 .
     
−2 13 23 −2 13 23 1 −5 −7 De donde

C − I3 = −1 5 
7 F2 → −F2  
1 −5 −7 F1 ↔ F2  −2 13 23 
→ →
0 −1 −3 0 −1 −3 0 −1 −3 α1 λ1 x1 + α2 λ2 x2 = 0/n×1 . (5.3)

Jorge Campos 151 152 Jorge Campos


5.1. Autovalores y Autovectores de una Matriz Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

� � � �
Al multiplicar a ambos lados de (5.2) por λ2 , obtenemos 1 3
Ejemplo 5.7. Los vectores y , son linealmente independientes, ya que son
−1 −1
α1 λ2 x1 + α2 λ2 x2 = 0/n×1 . (5.4) autovectores de la matriz
  A delejemplo 5.3, correspondientes a distintos autovalores.
1 −1
Restando (5.3) de (5.4) nos queda Los vectores  1  y  1 , son linealmente independientes, pues son autovectores de
0 1
α1 (λ2 − λ1 )x1 = α1 λ2 x1 − α1 λ1 x1 = 0/n×1 . la matriz A del ejemplo 5.4, correspondientes a distintos autovalores.
   
0 1
Como λ1 �= λ2 y x1 �= 0/n×1 , entonces α1 = 0. Sustituyendo este valor en la ecuación (5.2), Un razonamiento análogo, nos garantiza que los vectores 1 y −2 , los cuales son
  
se tiene α2 x2 = 0/n×1 , pero x2 �= 0/n×1 , ası́ que α2 = 0, por lo tanto x1 y x2 son linealmente 0 1
independientes. autovectores de la matriz B del ejemplo 5.5, son linealmente independientes. �
Supongamos que x1 , x2 , . . . , xm−1 son linealmente independientes (hipótesis inductiva).
Teorema 5.5. A ∈ Mn×n (R) es invertible si y sólo si 0 (cero) no es un autovalor de A.
Probemos que x1 , x2 , . . . , xm−1 , xm son linealmente independientes. De (5.1) obtenemos
Demostración. A es invertible si y sólo si det(A) �= 0. Pero
A(α1 x1 + α2 x2 + · · · + αm−1 xm−1 + αm xm ) = A 0/n×1 = 0/n×1 .
pA (0) = det(A − 0In ) = det(A)
Pero Ası́ que A es invertible si y sólo si 0 no es raı́z del polinomio pA (λ), es decir, A es invertible
si y sólo si 0 no es un autovalor de A.
A(α1 x1 + α2 x2 + · · · +αm−1 xm−1 + αm xm )
= α1 Ax1 + α2 Ax2 + · · · + αm−1 Axm−1 + αm Axm
= α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm .
5.2. Diagonalización
De donde
En esta sección estudiaremos las matrices similares y las matrices diagonalizables y hare-
α1 λ1 x1 + α2 λ2 x2 + · · · + αm−1 λm−1 xm−1 + αm λm xm = 0/n×1 . (5.5)
mos uso de los teoremas de la sección anterior para el estudio de las últimas.
Multiplicando (5.1) por λm obtenemos Definición 5.5. Sean A, B ∈ Mn×n (R), Diremos que B es similar a A si existe una matriz
invertible P ∈ Mn×n (R) tal que B = P −1 AP .
α1 λm x1 + α2 λm x2 + · · · + αm−1 λm xm−1 + αm λm xm = 0/n×1 . (5.6)
Observación 5.5. Nótese que si B = P −1 AP , entonces A = P BP −1 = (P −1 )−1 BP −1 . Por
Restando (5.5) de (5.6) nos queda lo tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir
B es similar a A o A es similar a B, diremos simplemente que A y B son similares.
α1 (λm − λ1 )x1 + α2 (λm − λ2 )x2 + · · · + αm−1 (λm − λm−1 )xm−1 = 0/n×1 .
Teorema 5.6. Sean A, B ∈ Mn×n (R) dos matrices similares. Entonces pA (t) = pB (t), es
Como x1 , x2 , . . . , xm−1 son linealmente independientes (por hipótesis inductiva), entonces, decir, A y B tienen los mismos polinomios caracterı́sticos, y en consecuencia, los mismos
para cada i ∈ {1, . . . , m − 1} autovalores.
αi (λm − λi ) = 0. Demostración. Como A y B son similares, existe una matriz invertible P ∈ Mn×n (R) tal
que A = P −1 BP . De donde
Pero λm �= λi para i ∈ {1, . . . , m − 1} (por hipótesis), luego αi = 0 para cada
i ∈ {1, . . . , m − 1}. Por lo tanto, (5.1) queda expresado por αm xm = 0/n×1 , y dado que pA (t) = det(A − tIn ) = det(P −1 BP − P −1 (tIn )P ) = det(P −1 (B − tIn )P )
xm �= 0/n×1 , obtenemos αm = 0. En consecuencia x1 , x2 , . . . , xm son linealmente independien- 1
tes. = det(P −1 ) det(B − tIn ) det(P ) = det(B − tIn ) det(P ) = det(B − tIn )
det(P )
= pB (t)
Observación 5.4. Según el teorema 5.4, �
se puede garantizar que si λ1 y λ2 son distintos En consecuencia, A y B tienen los mismos autovalores.
autovalores de A ∈ Mn×n (R), entonces Eλ1 Eλ2 = {0/n×1 }

Jorge Campos 153 154 Jorge Campos


5.2. Diagonalización Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Ejemplo 5.8. Las matrices Además


    � �
� −1 − t 0 0 �
−6 0 −6 −6 2 −10 � �
A =  6 −6 6  y B =  −9 −9 −15  pD (t) = det(D − tI3 ) = �� 0 2−t 0 � = (−1 − t)(2 − t)2

� 0 0 2−t �
0 0 −12 3 1 7
= −(t + 1)(t − 2)2 = pA (t)
son similares, en efecto, la matriz
  lo que verifica el teorema 5.6. �
1 1 1
P =  1 −1 1  Teorema 5.7. Sea λ ∈ R un autovalor de multiplicidad geométrica r de una matriz
1 0 2 A ∈ Mn×n (R). Entonces existe una matriz escalar E ∈ Mr×r (R) y matrices B ∈ Mr×(n−r) (R)
y C ∈ M(n−r)×(n−r) (R) tales que la matriz
es invertible, basta ver que   � �
2 2 2 E B
1 D= /
P −1
= 3 −3 0  0(n−r)×r C
6
1 1 −2
es similar a A.
y además B = P −1 AP (¡verifı́quelo!). �
Demostración. Ver apéndice D.
Ejemplo 5.9. Los autovalores de
 
−2 0 0 Observación 5.6. En la prueba del teorema 5.7 se obtiene que E = λIr .
D= 0 −4 0 
0 0 4 Teorema 5.8. Sea λ ∈ R un autovalor de A ∈ Mn×n (R). Entonces la multiplicidad geométri-
ca de λ es menor o igual a su multiplicidad algebraica.
son λ1 = −2, λ2 = −4 y λ3 = 4, pues D es diagonal, además,
Demostración. Sea r la multiplicidad geométrica de λ. Entonces, en virtud del teorema
  5.7 y usando la observación 5.6, se tiene que A es similar a una matriz
−2 2 −2
A =  2 −2 −2  � �
E B
−2 −2 2 D= /
0(n−r)×r C
es similar a D, basta escoger la matriz P como en el ejercicio anterior y verificar que donde E = λIr , B ∈ Mr×(n−r) (R) y C ∈ M(n−r)×(n−r) (R). Luego, usando el teorema 5.6
D = P −1 AP , por lo tanto los autovalores de A son λ1 = −2, λ2 = −4 y λ3 = 4. �
� �
E − tIr B
Ejemplo 5.10. Las matrices pA (t) = pD (t) = det(D − tIn ) = det /
0(n−r)×r C − tIn−r
    � �
1 1 1 −1 0 0 (λ − t)Ir B
 = det
A= 1 1 −1  y D= 0 2 0  0/(n−r)×r C − tIn−r
1 −1 1 0 0 2
y por el teorema 2.20
son similares, pues  
−1 1 1 pA (t) = det((λ − t)Ir ) det(C − tIn−r ) = (λ − t)r pC (t)
P = 1 1 0 
Ası́ que λ es una raı́z de pA (t) de multiplicidad algebraica al menos r, es decir, la multipli-
1 0 1
cidad geométrica de λ es menor o igual a su multiplicidad algebraica.
es invertible y D = P −1 AP (¡verifı́quelo!).

Jorge Campos 155 156 Jorge Campos


5.2. Diagonalización Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Teorema 5.9. A ∈ Mn×n (R) tiene n autovectores linealmente independientes si y sólo si que son autovectores de A asociados a λ1 = 2, el cual está ubicado, como ya comentamos, en
pA (t) tiene sólo raı́ces reales y la multiplicidad algebraica, de cada uno de los autovalores de la segunda y la tercera componente de la diagonal principal de D.
A, es igual a su multiplicidad geométrica. En particular, si A tiene n autovalores distintos, Esta situación no es nada casual, como veremos en el siguiente teorema, más precisamente
entonces A tiene n autovectores linealmente independientes. en su demostración.
Demostración. Ver Apéndice D. Teorema 5.10. Una matriz A ∈ Mn×n (R) es diagonalizable si y sólo si tiene n autovectores
linealmente independientes.
Ejemplo 5.11. El polinomio caracterı́stico de la matriz A del ejemplo 5.4, tiene sólo raı́ces Demostración. Supongamos primero que A tiene n autovectores linealmente independien-
reales, además, cada uno de los autovalores de A tiene multiplicidades algebraica y geométrica tes, digamos x1 , x2 , . . . , xn , correspondientes a los autovalores λ1 , λ2 , . . . , λn (no necesaria-
iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber mente distintos) respectivamente, es decir, Axi = λi xi para cada i ∈ {1, . . . , n}.
      Sea P ∈ Mn×n (R) la matriz cuya i-ésima columna es xi , para cada i ∈ {1, . . . , n}, es decir
1 1 −1 � �
 1 , 0 , 1  P = x1 x2 · · · xn
0 1 1
Dado que x1 , x2 , . . . , xn son linealmente independientes, entonces P es invertible, además,
Nótese que los dos primeros autovectores corresponden al autovalor λ1 = 2 y el último para cada i ∈ {1, . . . , n}, la i-ésima columna de AP es Axi (ver ejercicio 1.1.1 parte 1), pero
corresponde al autovalor λ2 = −1. Axi = λi xi , por lo tanto, la i-ésima columna de AP es λi xi , eso es (AP )(i) = λi xi .
Por el contrario, para la matriz B del ejemplo 5.5, sabemos que el polinomio caracterı́stico Por otro lado, sea D = diag(λ1 , λ2 , . . . , λn ) ∈ Mn×n (R). Ası́ que, para cada i ∈ {1, . . . , n},
de B tiene sólo raı́ces reales, pero el autovalor λ1 = −1 tiene multiplicidad algebraica 2 y la i-ésima columna de P D es
multiplicidad geométrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.
La matriz C del ejemplo 5.6 tiene sólo un autovalor, a saber λ = 1, y las multiplicidades  
0
algebraica y geométrica de éste son iguales, sin embargo pC (λ) no tiene sólo raı́ces reales, por  .. 
lo tanto C no tiene tres autovectores linealmente independientes. � .
 
0
Definición 5.6. Una matriz A ∈ Mn×n (R) es diagonalizable si existe una matriz diagonal  
(P D)(i) = P D(i) = P λi  −→ i-ésima fila
D ∈ Mn×n (R) la cual es similar a A.  
0
.
Ejemplo 5.12. La matriz A del ejemplo 5.9 es diagonalizable, ası́ como la matriz A del  .. 
ejemplo 5.10. � 0
 
En el ejemplo 5.10, nótese que la primera componente de la diagonal principal de D es 0
−1, que es un autovalor de A con multiplicidad geométrica 1, las veces que aparece en D, la  .. 
.
segunda y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro  
0
autovalor de A y tiene multiplicidad geométrica 2, las veces que aparece en D.  
= λi P 1 −→ i-ésima fila
Además, nótese que la primera columna de P es  
0
  .
−1  .. 
 1  0
1 = λi P In(i) = λi P (i) = λi xi
el cual es un autovector de A asociado a λ2 = −1, que está ubicado, como dijimos antes, en En resumen (AP )(i) = λi xi = (P D)(i) para cada i ∈ {1, . . . , n}. Por lo tanto AP = P D,
la primera componente de la diagonal principal de D. Las segunda y tercera columnas de P de donde D = P −1 AP , es decir, A es diagonalizable.
son, respectivamente     Supongamos ahora que A es diagonalizable. Entonces existen una matriz diagonal
1 1 D ∈ Mn×n (R) y una matriz invertible P ∈ Mn×n (R) tales que
 1  y  0 
0 1 D = P −1 AP (5.7)

Jorge Campos 157 158 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Para cada i ∈ {1, . . . , n} sea xi = P (i) . Entonces x1 , x2 , . . . , xn son linealmente indepen- Pasemos ahora a definir las matrices de Jordan y las cajas o bloques elementales
dientes, pues P es invertible. Para cada i ∈ {1, . . . , n}, sea λi la i-ésima componente de la de Jordan. Sea Nk ∈ Mk×k (R) dada por
diagonal principal de D. De (5.7) obtenemos AP = P D, pero para cada i ∈ {1, . . . , n}, la  
i-ésima columna de AP es Axi (usando nuevamente la parte 1 del ejercicio 1.1.1) y la i-ésima 0 1 0 ··· 0
columna de P D es λi xi (usando el razonamiento anterior), ası́ que Axi = λi xi .  . . . .. 
 0 0 1 . 
En consecuencia, x1 , x2 , . . . , xn son autovectores de A linealmente independientes.  .. .. . . .. 
Nk =  . . . . 0 
 
 0 0 ··· 0 1 
Corolario 5.11. A ∈ Mn×n (R) es diagonalizable si y sólo si pA (t) tiene sólo raices reales y 0 0 0··· 0 0
la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad
geométrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable. Note que Nk es una matriz nilpotente con orden de nilpotencia k (máximo orden de nilpo-
tencia posible para una matriz de orden k).
Demostración. ¡Ejercicio!
Definición 5.8. Una caja o bloque elemental de Jordan es una matriz Jk,λ ∈ Mk×k (R)
dada por  
Ejemplo 5.13. La matriz B del ejemplo 5.5 no es diagonalizable, pues λ1 = −1 es un λ 1 0 ··· 0
autovalor de B de multiplicidad algebraica 2 y multiplicidad geométrica 1.  . . .. 
La matriz C del ejemplo 5.6 no es diagonalizable, ya que el polinomio pC (t) tiene raı́ces  0 λ 1 . . 
 
complejas que no son reales. � Jk,λ = λIk + Nk =  ... . . . ... ...
0 
 
 0 ··· 0 λ 1 
Ejercicio 5.2.1. Pruebe que si A ∈ Mn×n (R) es diagonalizable y λ1 , λ2 , . . . , λp ∈ R son los
0 0 ··· 0 λ
distintos autovalores de A, entonces Mn×1 (R) = Eλ1 ⊕ Eλ2 ⊕ · · · ⊕ Eλp (ver observación 3.10).
donde λ ∈ R.

5.3. Autovectores y Autoespacios Generalizados. For- Ejemplo 5.15. Las siguientes son bloques elementales de Jordan
 
ma Canónica de Jordan   −2 1 0 0 0
3 1 0 0  0 −2 
 0 3 1 0   1 0 0 
Las demostraciones de los teoremas dados en la presente sección escapan al objetivo del J4,3 =    0 −2 
curso, en consecuencia sólo los enunciaremos, para una demostración de estos puede verse el  0 0 3 1  ; J5,−2 =  0 1 0 
 0 0 0 −2 1 
apéndice D, no obstante, las aplicaciones de dichos teoremas nos interesan de manera especial. 0 0 0 3
0 0 0 0 −2
Comenzaremos por definir un tipo de matrices conocidas como matrices nilpotentes.

Definición 5.7. Una matriz N ∈ Mn×n (R) es llamada nilpotente si existe p ∈ N tal que
N p = 0/n , además, si p es tal que N p−1 �= 0/n , diremos que N tiene orden de nilpotencia p Definición 5.9. Una matriz de Jordan es una matriz J ∈ Mn×n (R) la cual es una matriz
o que es nilpotente de orden p. diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.
Observación 5.7. La matriz nula de orden n es nilpotente y conveninos en que tiene orden Ejemplo 5.16. Las siguientes son matrices de Jordan
de nilpotencia 1.  
  1 1 0 0 0 0
Ejemplo 5.14. Las siguientes matrices son nilpotentes −2 1 0 0 0  0 
 0 −2   1 1 0 0 0 
     0 0 0   0 
0 1 0 0 0
−1 1 0 0 0 1 0 0 J1 = 
 0 0 −2 0 0  
 ; J2 =  0


 −1 0 1 0 0 8 0 0
0   0 0 1 0   0 0 0 5 1   
N1 =  −1 0 1
 ; N2 =    0 0 0 0 −3 1 
0   0 0 0 1  0 0 0 0 5
−1 0 1 0 0 0 0 0 0 0 0 0 0 −3

N1 tiene orden de nilpotencia 3 y N2 tiene orden de nilpotencia 4 (¡verifı́quelo!). � �

Jorge Campos 159 160 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Es claro que toda matriz diagonal es una matriz de Jordan. Teorema 5.12. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz
Seguidamente daremos un ejemplo en el cual se ilustra un poco el objetivo de la presente A ∈ Mn×n (R). Entonces existe p ∈ {1, . . . , k} tal que2
sección, calcular la forma canónica de Jordan de una matriz.
{0/n×1 } � Eλ = N(A − λIn ) � · · · � N ((A − λIn )p ) = N ((A − λIn )m )
Ejemplo 5.17. Consideremos la matriz
  para todo m ≥ p. � �
5 −1 3 En particular N ((A − λIn )p ) = N (A − λIn )k y en consecuencia
A=  9 −4 0  � � ��
−3 1 −1 dim N (A − λIn )k ≤ k.

Entonces el polinomio caracterı́stico de A es Demostración. Ver apéndice D.

pA (t) = −(t + 1)2 (t − 2)


Definición 5.10. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz
Ası́ que los autovalores de A son λ1 = −1 con multiplicidad algebraica 2 y λ2 = 2 con A ∈ Mn×n (R). El espacio � �
multiplicidad algebraica 1. Además, al calcular los autoespacios asociados a cada uno de Kλ = N (A − λIn )k
estos autovalores, se obtiene es llamado autoespacio (espacio propio o espacio caracterı́stico) generalizado de
        A correspondiente a λ, cualquier matriz no nula x ∈ Kλ es llamada autovector (vector
 1   2 
propio o vector caracterı́stico) generalizado de A asociado a λ.
E−1 = gen   3   y E2 = gen   3  
    En la demostración del teorema 5.12 se obtiene que A es similar a una matriz
−1 −1
� �
Con lo cual la multiplicidad geométrica de ambos autovalores de A es 1. En consecuencia A Jλ B
J= /
no es diagonalizable. 0(n−m)×m C
Ahora consideremos la matriz � �
     donde m = dim(Kλ ) = N (A − λIn ) , B ∈ Mm×(n−m) (R), C ∈ M(n−m)×(n−m) (R) y
k

6 −1 3 6 −1 3 18 0 18 Jλ ∈ Mm×m (R) es una matriz de Jordan con λ en la diagonal principal.


(A − (−1)I3 ) =  9 −3
2
0   
9 −3 0 =  27 0 27 
Ejemplo 5.18. Por ejemplo, la matriz
−3 1 0 −3 1 0 −9 0 −9  
5 −1 3
El núcleo de esta matriz es el espacio
A= 9 −4 0 
     
 1 0  −3 1 −1
N((A − (−1)I3 ) ) = gen  
2
0 , 1   considerada en el ejemplo 5.17, es similar a la matriz
 
−1 0  
−1 1 0
No es difı́cil probar que N((A − (−1)I3 )) ⊂ N ((A − (−1)I3 )2 ), por lo tanto J =  0 −1 0 
� � 0 0 2
E−1 = N((A − (−1)I3 )) ⊂ N (A − (−1)I3 )2
para garantizar esto considere la matriz invertible
Si hacemos lo propio a la matriz (A − (−1)I3 )3 , encontramos que    
� � � � −1 0 2 3 1 2
E−1 = N((A − (−1)I3 )) ⊂ N (A − (−1)I3 )2 = N (A − (−1)I3 )3 P =  −3 1 3  o P = 9 0 3 
1 0 −1 −3 −1 −1
El Espacio N ((A − (−1)I3 )2 ) es llamado autoespacio (espacio propio o espacio carac-
terı́stico) generalizado de A correspondiente a λ = −1 y es denotado por K−1 , antes de y verifique que P J = AP . �
formalizar este concepto enunciaremos un resultado previo, el cual no demostraremos1 . � 2
Dados dos conjuntos A y B, la notación A � B significa que A ⊂ B pero A �= B, es decir, A es un
1
Una demostración de este teorema se puede encontrar en el apéndice D subconjunto propio de B.

Jorge Campos 161 162 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Una pregunta que surge de manera inmediata es ¿cómo calcular las matrices P y J? en son las formas canónicas de la matriz A del ejemplo 5.17, basta considerar las matrices
primer lugar, note que la matriz J es una matriz de Jordan y invertibles    
      −1 0 2 2 −1 0
2 0 1 P1 =  −3 1 3  y P2 =  3 −3 1 
 3  ∈ E2 ; v1 =  1  ∈ E−1 y v2 =  0  ∈ E−1 1 0 −1 −1 1 0
−1 0 −1
y verificar que P1 J1 = AP1 y P2 J2 = AP2 .
además En la demostración del teorema 5.14 se obtienen las formas que deben tener la matriz de
   
−1 3 Jordan J y la matriz invertible P de tal manera que J = P −1 AP . Daremos cuatro ejemplos
(A + I3 )v1 =  −3  ∈ K−1 y (A + I3 )v2 =  9  ∈ K−1 que ilustran este hecho.
1 −3
Ejemplo 5.19. Dada la matriz
es decir, la matriz P obedece a cierto comportamiento, ası́ como la matriz J (¿cuál es el  
comportamiento de esta última?). Antes de responder de manera más general la primera de 2 1 1 2
estas preguntas, daremos algunos resultados que nos lo permitirán.  2 1 −1 0 
A=
 1

0 0 −1 
Teorema 5.13. Sea A ∈ Mn×n (R). Supongamos que pA (t) tiene sólo raı́ces reales, digamos 1 −2 0 1
que λ1 , λ2 , . . . , λp ∈ R son las distintas raı́ces de pA (t), es decir, λ1 , λ2 , . . . , λp son los dis-
tintos autovalores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de λ1 , λ2 , . . . , λp , Decidir si existe una matriz de Jordan J que sea similar a ésta, en caso afirmativo halle una
respectivamente. Entonces k1 + k2 + · · · + kp = n y además matriz de Jordan J y una matriz invertible P tal que J = P −1 AP .

dim(Kλi ) = ki Solución. pA (t) = (t − 2)3 (t + 2), ası́ que, usando el teorema 5.14, existe una matriz de
Jordan J la cual es similar a A.
para cada i ∈ {1, . . . , p}. Veamos como calcular la matriz J y la matriz invertible P tal que J = P −1 AP . Los pasos
que seguiremos a continuación son estándares a la hora de encontrar dichas matrices.
Demostración. Ver apéndice D. Los autovalores de A son λ1 = 2, con multiplicidad algebraica 3, y λ2 = −2, con multipli-
cidad algebraica 1. Además
   
Teorema 5.14. A ∈ Mn×n (R) es similar a una matriz de Jordan si y sólo si pA (t) sólo tiene 0 1 1 2 4 1 1 2
raı́ces reales.  2 −1 −1 0   2 3 −1 0 
A − 2I4 =  1 y A + 2I4 =  
0 −2 −1   1 0 2 −1 
Demostración. Ver apéndice D. 1 −2 0 −1 1 −2 0 3

Luego
El teorema 5.14 da paso a la siguiente definición.        

 −1  
 −1 
Definición 5.11. Cualquier matriz de Jordan J, que sea similar a A, es llamada forma   −1 
   1  

E2 = N(A−2I4 ) = gen    
 −1  y E−2 = K−2 = N(A+2I4 ) = gen    
  1   
canónica de Jordan de A y cada una de estas matrices de Jordan sólo difieren en la    
   
posición de los bloques elementales de Jordan en la diagonal. 1 1

Por ejemplo, las matrices Ahora bien  


    5 −5 −3 −3
−1 1 0 2 0 0  −3 3 5 5 
(A − 2I4 )2 =  
J1 =  0 −1 0  y J2 =  0 −1 1   −3 3 5 5 
0 0 2 0 0 −1 −5 5 3 3

Jorge Campos 163 164 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

y ası́       Finalmente, definamos


 1
 0 
    
� �   1   0   2 1 1 −1 2 1 0 0
2   
N (A − 2I4 ) = gen    ;     
 0 −1   � � 2 1 0 1   0 2 1 0 

 
 P = x3 x2 x1 x4 =

 
y J = 
0 1 2 −1 1 1  0 0 2 0 
−2 1 0 1 0 0 0 −2
Por otro lado  
−16 16 16 16
 Por lo tanto P es invertible y J = P −1 AP (¡verifı́quelo!).
16 −16 −16 −16 
(A − 2I4 )3 = 


16 −16 −16 −16 
16 −16 −16 −16
Las matrices P y J, encontradas en el ejemplo precedente, no son únicas, por ejemplo, si
de donde         escojemos    
 1
 1 1  −1 2 1 1 −2 0 0 0
� �   1   0   0 
  
 1 2 1 0   0 2 1 0 
K2 = N (A − 2I4 )3 = gen    
  0  ;  ;   P =  y J = 
 1   0  
  1 2 −1 1   0 0 2 1 
 
0 0 1 1 −2 1 0 0 0 0 2
Para calcular P , comencemos por notar que la conclusión sigue siendo válida.
� � �� � � �� � � �� También pudimos haber escogido  
dim(K2 ) − dim N (A − 2I4 )2 = dim N (A − 2I4 )3 − dim N (A − 2I4 )2 = 3 − 2 = 1 1
 0 
ası́ que debemos escoger un vector en K2 que no esté en N ((A − 2I4 )2 ), digamos x1 =  
 0 
  1
1
 0  obteniendo
x1 =      
 1  2 2 1 −1 2 1 0 0
0  2 2 0 1   0 2 1 0 
P =

 y J = 
2 0 0 1   0 0 2 0 
Hagamos 
 −2 0 1 1 0 0 0 −2
1
 1  � � o bien    
x2 = (A − 2I4 )x1 =  
 −1  ∈ N (A − 2I4 )
2
−1 2 2 1 −2 0 0 0
 1 2 2 0   0 2 1 0 
1 P =

 y J = 
1 2 0 0   0 0 2 1 
y   1 −2 0 1 0 0 0 2
2
 2  El siguiente ejemplo varı́a un poco del anterior y nos muestra otro caso en la busqueda de
x3 = (A − 2I4 )2 x1 = (A − 2I4 )x2 = 

 ∈ E2 = N(A − 2I4 )
la forma canónica de Jordan de una matriz A.
2 
−2
Ejemplo 5.20. Idem para la matriz
y escojamos    
−1 3 −1 0 1
 1   9 −5 0 9 
x4 = 

 ∈ E−2 = N(A + 2I4 ) A= 
1   −3 2 1 −3 
1 4 −3 0 6

Jorge Campos 165 166 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

Solución. En este caso pA (t) = (t − 2)(t − 1)3 , y como en el ejemplo anterior, en virtud del finalmente escojamos  
teorema 5.14, podemos asegurar que existe una matriz de Jordan J la cual es similar a A. −1
Los autovalores de A son λ1 = 2 y λ2 = 1, con multiplicidad algebraica 1 y 3 respectiva-  0 
x4 = 

 ∈ E2 = N(A − 2I4 )
mente. Además: 0 
    1
−1 −1 0 1 2 −1 0 1
 9 −7 0 
9   9 −6 0 9  y definamos las matrices
A − 2I4 = 
 −3 ; A − I4 =  ;
2 −1 −3   −3 2 0 −3     
4 −3 0 4 4 −3 0 5 1 1 0 −1 1 1 0 0
� �  3 1 0 0   0 1 0 0 
        P = x2 x1 x3 x4 
=  
y J = 
−1 0 1 0  0 0 1 0 
 −1 
   0
 1 

  0     0   3  1 0 0 1 0 0 0 2
E2 = K2 = N(A−2I4 ) = gen    
  0    ;
  
E1 = N(A−I4 ) = gen    ;   ;

  
 1 0 
    En consecuencia J = P −1 AP (¡verifı́quelo!).
1 0 1
Al igual que en anterior ejemplo, las matrices P y J no son únicas ¿podrı́a hallar algunos
          otros ejemplos de estas matrices?
−1 1 0 −2  1
 0 −2 
 0 0 0 0  � �   1   0    
(A − I4 )2 =   y N (A − I4 )2 = gen     ; 0  
 0 0 0 0    0  ;  1   0  

 
 Daremos dos ejemplos más para afianzar el método empleado en los dos ejemplos prece-
1 −1 0 2 0 0 1 dentes, esperamos que con estos últimos ejemplos se comprenda en su totalidad el método
Como dim (N ((A − I4 )2 )) = 3 y la multiplicidad algebraica de λ2 = 1 es 3, entonces empleado para la búsqueda de las matrices P y J.
K1 = N ((A − I4 )3 ) = N ((A − I4 )2 ).
Como en el ejemplo anterior, dado que Ejemplo 5.21. Idem para la matriz
� � �� � � ��  
dim(K1 ) − dim(E1 ) = dim N (A − I4 )3 − dim N (A − I4 )2 = 3 − 2 = 1 3 3 3 0
 −3 9 3 0 
comencemos con escoger un vector en K1 = N ((A − I4 )2 ) que no pertenezca a E1 = N(A−I4 ), A=
 0 0

6 0 
digamos   −6 6 9 6
1
 1 
x1 =  
 0  Solución. Se puede verificar que pA (t) = (t − 6)4 , ası́ que al usar el teorema 5.14, existe una
matriz de Jordan J la cual es similar a A. El único autovalor de A es λ = 6 con multiplicidad
0
algebraica 4.
Hagamos  
1        
 3  −3 3 3 0
x2 = (A − I4 )x1 =    1
 0  
 −1  ∈ E1 = N(A − I4 )  −3 3 3 0    1   0 

A − 6I4 = 
 0 0
 y E6 = N(A − 6I4 ) = gen    
  0  ; 
 
1 0 0   0 

 
pero a diferencia del caso anterior, debido a que dim(E1 ) = dim (N(A − I4 )) = 2 debemos −6 6 9 0 0 1
escoger un vector en E1 no sea combinación lineal de x2 , digamos
  Además  
0 0 0 0 0
 0   0 0 0 0 
x3 =  
 2 
(A − 6I4 ) = 04 = 
/ 
1  0 0 0 0 
0 0 0 0 0

Jorge Campos 167 168 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan Capı́tulo 5. Autovalores y Autovectores de una Matriz. Forma Canónica de Jordan

luego Ejemplo 5.22. Idem para la matriz


� � � �  
K6 = N (A − 6I4 ) 4
= N (A − 6I4 ) 2
= M4×1 (R) 4 2 −1 −2
           −1 1 1 2 

 1 0 0 0 
 A=
 1

  0   1   0   0   2 2 −2 
= gen   ;
  0   0
; ;
  1   0
 
  −1 −2 1 5

 

0 0 0 1 Solución. pA (t) = (t − 3)4 , por lo tanto existe una matriz de Jordan J la cual es similar a
A. El único autovalor de A es λ = 3 y en este caso
Como dim(K6 ) − dim(E6 ) = 4 − 2 = 2, debemos escoger dos vectores x1 , x2 ∈ K6 linealmente
 
independientes tales que x1 , x2 ∈/ E6 y además (A − 6I4 )x1 y (A − 6I4 )x2 sean linealmente 1 2 −1 −2
independientes. Si escogemos  −1 −2 1 2 
A − 3I4 =  1

    2 −1 −2 
1 0 −1 −2 1 2
 0   
x1 =   y x2 =  1 
 0   0  y ası́       
0 0  −2
 1 2 
  1   0   0 
E3 = N(A − 3I4 ) = gen   ;
  0   1
;  
  0 
entonces      
−3 3  
0 0 1
 −3   3 
x3 = (A − 6I4 )x1 =   
 0  = −
 = −(A − 6I4 )x2 Por otro lado  
0  0 0 0 0
−6 6  0 0 0 0 
(A − 3I4 )2 = 0/4 = 
 0

cambiemos entonces la escogencia de x2 , digamos 0 0 0 
0 0 0 0
 
0 luego
 0 
x2 = 
 1


� � � �
K3 = N (A − 3I4 )4 = N (A − 3I4 )2 = M4×1 (R)
0          
 1
 0 0 0 

  0   1   0   0  
y ası́  = gen   ;
  0   0
; ;  
  1   0  
3 
 

 3  0 0 0 1
x4 = (A − 6I4 )x2 =  
 0  Dado que dim(K3 ) − dim(E3 ) = 4 − 3 = 1, debemos escoger un vector x1 ∈ K3 tal que
9 x1 ∈
/ E3 . Si escogemos  
Por lo tanto 1
 0 
    x1 =  

−3 1 3 0 6 1 0 0 0 
� �  −3 0 3 0   0 6 0 0  0
P = x3 x1 x4 x2 =
 0 0
 y J = 
0 1   0 0 6 1  entonces  
−6 0 9 0 0 0 0 6 1
 −1 
son tales que J = P −1 AP . Note que x3 , x4 ∈ E6 . x2 = (A − 3I4 )x1 =  
 1  ∈ E3
−1

Jorge Campos 169 170 Jorge Campos


5.3. Autovectores y Autoespacios Generalizados. Forma Canónica de Jordan

Ahora bien, como dim(E3 ) = dim(N(A − 3I4 )) = 3, debemos escoger dos vectores linealmente
independientes x3 , x4 ∈ E3 tales que x2 , x3 y x4 sean linealmente independientes, digamos
   
−2 1
 1   
x3 =   y x4 =  0 
 0   1 
0 0 Capı́tulo 6
En consecuencia

1 1 −2 1
 
3 1 0 0

Transformaciones Lineales y Algunas
� �  −1 0 1 0   0 3 0 0 
P = x2 x1 x3 x4 =
 1 0

0 1 
y J =
 0 0 3

0  Aplicaciones
−1 0 0 0 0 0 0 3

son tales que J = P −1 AP .


En el presente capı́tulo se usarán, sino todos, la gran mayorı́a de los resultados, conceptos
y teoremas previos, sobre todo los conceptos referentes a espacios vectoriales. Ya al final
Esperamos que estos cuatro ejemplos ilustren el método general para la busqueda de una daremos algunas aplicaciones de las transformaciones lineales que sirven en varias ramas de
forma canónica de Jordan de una matriz A. la ingenierı́a y otras ciencias aplicadas como la arquitectura.
Ejercicio 5.3.1. Pruebe que si A ∈ Mn×n (R) tiene una forma canónica de Jordan, entonces
Mn×1 (R) = Kλ1 ⊕ Kλ2 ⊕ · · · ⊕ Kλp (ver observación 3.10), donde λ1 , λ2 , . . . , λp ∈ R son los 6.1. Transformaciones Lineales
distintos autovalores de A.
Definición 6.1. Sean V y W dos espacios vectoriales y T : V −→ W una función. Diremos
que T es una transformación lineal si para cualesquiera u, v ∈ V y α ∈ R se cumple que

1. T (u + v) = T (u) + T (v).
2. T (αu) = αT (u).

Observación 6.1. Básicamente podemos decir que una transformación lineal es una función
entre espacios vectoriales la cual preserva las operaciones.
Ejemplo 6.1.

1. Sean V y W dos espacios vectoriales. La transformación OV,W : V −→ W, dada por


OV,W (v) = 0/W para cada v ∈ V, es una transformación lineal (¡pruébelo!), llamada
transformación nula de V en W. �
2. Sea V un espacio vectorial. Definamos IV : V −→ V como sigue, IV (v) = v para
cada v ∈ V. Entonces IV es una transformación lineal (¡pruébelo!), la cual es llamada
transformación identidad sobre V. �
3. Sean V un espacio vectorial de dimensión n y β una base ordenada de V. Entonces
T : V −→ Mn×1 (R) dada por T (v) = [v]β es una transformación lineal (ver teorema
3.20 en el capı́tulo 3). �

Jorge Campos 171 172


6.1. Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

4. T : R3 −→ R2 , dada por T (x, y, z) = (2x + y, x − z), es una transformación lineal, en 8. T : R3 −→ P3 [x] dada por
efecto, dados (x, y, z), (a, b, c) ∈ R3 y α ∈ R, se tiene que
T (a, b, c) = b + (2a + c)x + (b − 3c)x3
T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c)
es lineal. En efecto, sean u, v ∈ R3 y α ∈ R cualesquiera, con u = (a1 , b1 , c1 ) y
= (2(x + a) + (y + b), (x + a) − (z + c)) v = (a2 , b2 , c2 ). Entonces
= (2x + 2a + y + b, x + a − z − c)
T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 )) = T (a1 + a2 , b1 + b2 , c1 + c2 )
= (2x + y, x − z) + (2a + b, a − c)
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) − 3(c1 + c2 )]x3
= T (x, y, z) + T (a, b, c)
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 − 3c1 − 3c2 )x3
y = [b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 − 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
T (α(x, y, z)) = T (αx, αy, αz) = (2(αx) + (αy), (αx) − (αz))
= T (u) + T (v)
= (α(2x + y), α(x − z)) = α(2x + y, x − z)
= αT (x, y, z) y además

� T (αu) = T (α(a1 , b1 , c1 )) = T (αa1 , αb1 , αc1 )


= αb1 + (2αa1 + αc1 )x + (αb1 − 3αc1 )x3
5. La función T : R2 −→ R3 dada por
= αb1 + α(2a1 + c1 )x + α(b1 − 3c1 )x3
T (x, y) = (x2 , x + y, xy) = α[b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ]
= αT (a1 , b1 , c1 ) = αT (u)
no es una transformación lineal, en efecto,

T (1, 0) = (12 , 1 + 0, 1 · 0) = (1, 1, 0)
9. La función traza es una transformación lineal de Mn×n (R) en Mn×n (R) (ver definición
T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 · 0) = (4, 2, 0) 1.11). �
2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) �= (4, 2, 0) = T (2(1, 0)) 10. Sea A ∈ Mm×n (R). Definamos T : Mn×1 (R) −→ Mm×1 (R) como T (x) = Ax. No es
� difı́cil probar que T es una transformación lineal (¡pruébelo!). �

6. T : P2 [x] −→ R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b − c) no es una transformación Este último ejemplo nos dice que toda matriz define una transformación lineal, más adelante
lineal, en efecto, veremos que toda transformación lineal, entre espacios vectoriales de dimensión finita, está
T (0) = (2 · 0 + 0 + 3, 0 − 0) = (3, 0) asociada con una matriz.
El siguiente teorema nos será de gran utilidad a la hora de decidir si una función T es una
T (0) + T (0) = (3, 0) + (3, 0) = (6, 0) transformación lineal.
T (0 + 0) = T (0) = (3, 0) �= (6, 0) = T (0) + T (0) Teorema 6.1. Sean V y W dos espacios vectoriales y T : V −→ W una función. T es
� una transformación lineal si y sólo si para cualesquiera u, v ∈ V y α ∈ R se cumple que
T (u + αv) = T (u) + αT (v).
7. Consideremos T : M2×2 (R) −→ P3 [x] dada por
�� �� Demostración. Supongamos que T : V −→ W es una transformación lineal. Sean u, v ∈ V
a b y α ∈ R cualesquiera. Entonces
T = a + bx + cx2 + dx3
c d
T (u + αv) = T (u) + T (αv) (por la condición 1 de la definición 6.1)
Entonces T es lineal (¡pruébelo!). � = T (u) + αT (v) (por la condición 2 de la definición 6.1)

Jorge Campos 173 174 Jorge Campos


6.1. Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Supongamos ahora que T : V −→ W es tal que para cualesquiera u, v ∈ V y α ∈ R se c) Probemos que se cumple para n.
cumple que
T (u + αv) = T (u) + αT (v)
T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 + αn vn )
Sean u, v ∈ V y α ∈ R cualesquiera. Entonces = T ((α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + αn vn )
T (u + v) = T (u + 1 · v) = T (u) + 1 · T (v) = T (u) + T (v) (por asociatividad)
= T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + T (αn vn )
y además
(por linealidad)
T (0/V ) = T (u + (−1)u) = T (u) + (−1)T (u) = 0/W
= α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 ) + αn T (vn )
luego
(por Hipótesis Inductiva y linealidad)
T (αv) = T (0/V +αv) = T (0/V ) + αT (v) = 0/W +αT (v) = αT (v)
Por lo tanto T es lineal.

De ahora en adelante, gracias a este último teorema, cuando queramos probar que una
Teorema 6.3. Sean U, V y W espacios vectoriales y L : U −→ V y T : V −→ W dos
función T, entre espacios vectoriales, es una transformación lineal, no será necesario probar
transformaciones lineales. Entonces T ◦ L : U −→ W es también una transformación lineal.
las dos condiciones en la definición 6.1, sólo bastará probar la condición en el teorema anterior.
Teorema 6.2. Sean V y W dos espacios vectoriales y T : V −→ W una transformación Demostración. Sean u1 , u2 ∈ U y α ∈ R cualesquiera. Entonces
lineal. Entonces, para cualesquiera α1 , α2 , . . . , αn ∈ R y u, v, v1 , v2 , . . . , vn ∈ V, se cumple que

1. T (0/V ) = 0/W . (T ◦ L)(u1 + αu2 ) = T (L(u1 + αu2 )) (definición de composición de funciones)


= T (L(u1 ) + αL(u2 )) (ya que L es lineal)
2. T (u − v) = T (u) − T (v).
= T (L(u1 )) + αT (L(u2 )) (ya que T es lineal)
3. T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = (T ◦ L)(u1 ) + α(T ◦ L)(u2 ) (def. de comp. de funciones)

Demostración.
Por lo tanto T ◦ L es lineal.
1. Sea v0 ∈ V cualquiera pero fijo. Entonces

T (0/V ) = T (0 · v0 ) = 0 · T (v0 ) = 0/W


Definición 6.2. Dadas dos espacios vectoriales V y W; λ ∈ R y dos transformaciones linea-
2. En virtud del teorema 6.1 les L, T : V −→ W, definiremos las funciones T + L : V −→ W ( suma de transformacio-
nes lineales) y λT : V −→ W ( multiplicación de un escalar por una transformación
T (u − v) = T (u + (−1)v) = T (u) + (−1)T (v) = T (u) − T (v) lineal) como sigue

3. Procederemos por inducción.


1. (T + L)(v) = T (v) + L(v) para cada v ∈ V.
a) Veamos que se cumple para n = 2. Por linealidad de T se tiene que
T (α1 v1 + α2 v2 ) = T (α1 v1 ) + T (α2 v2 ) = α1 T (v1 ) + α2 T (v2 ) 2. (λT )(v) = λT (v) para cada v ∈ V.
b) (Hipótesis Inductiva) Supongamos que se cumple para n − 1, esto es, supongamos
que
Teorema 6.4. Sean V y W dos espacios vectoriales, T, L : V −→ W dos transformaciones
T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 ) lineales y λ ∈ R. Entonces T + λL : V −→ W es también una transformación lineal.

Jorge Campos 175 176 Jorge Campos


6.1. Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Demostración. Sean v1 , v2 ∈ V y α ∈ R cualesquiera. Entonces Corolario 6.6. Sean V, W, T y L como en el teorema 6.5 y consideremos una base
β = {v1 , v2 , . . . , vn } de V tal que T (vi ) = L(vi ) para cada i ∈ {1, . . . , n}. Entonces T = L.
(T + λL)(v1 + αv2 ) = T (v1 + αv2 ) + (λL)(v1 + αv2 ) (por la definición 6.2)
= T (v1 + αv2 ) + λL(v1 + αv2 ) (por la definición 6.2) Demostración. ¡Ejercicio!
= T (v1 ) + αT (v2 ) + λ(L(v1 ) + αL(v2 )) (linealidad de T y L)
= T (v1 ) + αT (v2 ) + λL(v1 ) + λαL(v2 ) Ejemplo 6.2. Hallar la transformación lineal T de P2 [x] en R2 tal que
= T (v1 ) + λL(v1 ) + αT (v2 ) + λαL(v2 )
T (1) = (2, −1); T (x) = (3, 4); T (x2 ) = (−1, 5)
= T (v1 ) + λL(v1 ) + α(T (v2 ) + λL(v2 ))
= T (v1 ) + (λL)(v1 ) + α(T (v2 ) + (λL)(v2 )) (definición 6.2) Solución.
= (T + λL)(v1 ) + α(T + λL)(v2 ) (definición 6.2)
T (a0 + a1 x + a2 x2 ) = T (a0 · 1 + a1 x + a2 x2 ) = a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, −1) + a1 (3, 4) + a2 (−1, 5)
En consecuencia T + λL es lineal. = (2a0 + 3a1 − a2 , −a0 + 4a1 + 5a2 )

Dado dos espacios vectoriales V y W, este último teorema nos dice que el conjunto L (V, W),
formado por todas las transformaciones lineales de V en W, es cerrado bajo las operaciones Teorema 6.7 (Existencia y Unicidad de una Transformación Lineal). Sean V y W dos
dadas en la definición 6.2, se puede probar que L (V, W), junto con éstas operaciones, es un espacios vectoriales, β = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn ∈ W. Entonces existe
espacio vectorial. una única transformación lineal T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , n}.
Teorema 6.5. Sean V y W dos espacios vectoriales y G = {v1 , v2 , . . . , vk } un conjunto
Demostración. Dado v ∈ V cualquiera, existen únicos escalares, α1 , α2 , . . . , αn ∈ R, tales
generador de V. Supongamos que T y L son dos transformaciones lineales de V en W tales
que
que T (vi ) = L(vi ) para cada i ∈ {1, . . . , k}. Entonces T = L, esto es, T (v) = L(v) para cada n

v ∈ V. v = α 1 v 1 + α 2 v2 + · · · + αn vn = α i vi
i=1
Demostración. Sea v ∈ V cualquiera. Como G genera a V, existen α1 , α2 , . . . , αk ∈ R tales
que Definamos n

v = α 1 v 1 + α 2 v 2 + · · · + αk v k T (v) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1
ası́ que
La unicidad de los escalares α1 , α2 , . . . , αn ∈ R, garantiza que T es una función, además,
T (v) = T (α1 v1 + α2 v2 + · · · + αk vk ) dado que w1 , w2 , . . . , wn ∈ W y W es un espacio vectorial, se tiene que T (v) ∈ W, por lo
= α1 T (v1 ) + α2 T (v2 ) + · · · + αk T (vk ) (teorema 6.2 parte 3) tanto T es una función de V en W. n

= α1 L(v1 ) + α2 L(v2 ) + · · · + αk L(vk ) (hipótesis) Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que vj = λi vi , donde λi = 0 si i �= j y
= L(α1 v1 + α2 v2 + · · · + αk vk ) (teorema 6.2 parte 3) i=1
λj = 1, ası́ que
= L(v) n

T (vj ) = λi w i = λ j w j = w j
Luego T = L. i=1

Probemos ahora que T es lineal. Sean u, v ∈ V y λ ∈ R cualesquiera, entonces existen


El teorema anterior nos dice que si T : V −→ W es una transformación lineal y V tiene únicos escalares α1 , α2 , . . . , αn , β1 , β2 , . . . , βn ∈ R tales que
dimensión finita, basta con conocer cómo actúa T sobre algún conjunto generador de V y n n
con eso podemos saber cómo actúa T sobre V, en particular, si sabemos cómo actúa T en � �
u = α1 v 1 + α 2 v 2 + · · · + αn v n = α i vi y v = β1 v1 + β2 v2 + · · · + βn vn = βi vi
una base cualquiera de V, podemos saber cómo actúa T en cualquier v ∈ V. i=1 i=1

Jorge Campos 177 178 Jorge Campos


6.1. Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

   
Ası́ que −2 0 −2 1 −1 −3 2 0
n
� n
�  2 1 1 −1  F1 ↔ F3  2 1 1 −1 
T (u) = αi wi y T (v) = βi wi →
−1 −3 2 0 −2 0 −2 1
i=1 i=1    
1 3 −2 0 1 3 −2 0
Además   F 2 → F 2 − 2F 1

n
� n
� n
� F1 → −F1 2 1 1 −1 → 0 −5 5 −1 
→ F3 → F3 + 2F1
u + λv = α i vi + λ βi vi = (αi + λβi )vi −2 0 −2 1 0 6 −6 1
   
i=1 i=1 i=1 1 3 −2 0 1 0 1 0
F 1 → F1 − 3F2
Por lo tanto F2 → F2 + F3  0 1 −1 0  →  0 1 −1 0 
→ F3 → F3 − 6F2
0 6 −6 1 0 0 0 1
n
� n
� n
� Dado que los pivotes se encuentran en las columnas 1, 2 y 4, y en virtud del teorema 3.25,
T (u + λv) = (αi + λβi )wi = αi wi + λ βi wi = T (u) + λT (v)
los vectores v1 , v2 y v4 son linealmente independientes, y en consecuencia, forman una base
i=1 i=1 i=1
para R3 y por el teorema 6.7, concluimos que existe una única transformación lineal tal que
En consecuencia T es lineal. � � � � � �
Finalmente, probemos que T es única. Supongamos que existe otra transformación lineal 2 0 0 −1 4 −2
T (−2, 2, −1) = ; T (0, 1, −3) = y T (1, −1, 0) =
L : V −→ W tal que L(vi ) = wi para cada i ∈ {1, . . . , n}. 1 −2 4 3 1 0
Luego, por el corolario 6.6, se tiene que L = T .
La matriz anterior también nos garantiza, en virtud del teorema 3.25, que
v3 = 1 · v1 + (−1) · v2 + 0 · v3 = v1 − v2 . Ası́ que T debe satisfacer:
Como consecuencia del teorema 6.7 tenemos el siguiente resultado cuya demostración se � � � �
deja como ejercicio. 2 0 0 −1
T (−2, 1, 2) = T (v3 ) = T (v1 − v2 ) = T (v1 ) − T (v2 ) = −
1 −2 4 3
Corolario 6.8. Sean V y W dos espacios vectoriales, L = {v1 , v2 , . . . , vk } ⊂ V un conjunto � �
2 1
linealmente independiente y w1 , w2 , . . . , wk ∈ W. Entonces existe una transformación lineal = .
−3 −5
T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , k}.
Por lo tanto existe una transformación lineal T : R3 −→ M2×2 (R) satisfaciendo las con-
Demostración. ¡Ejercicio!
diciones requeridas. Vamos a hallar dicha transformación. Sea (x, y, z) ∈ R3 cualquiera.
Hagamos
Ejemplo 6.3. Hallar una transformación lineal T : R3 −→ M2×2 (R) (si existe) tal que β = {(−2, 2, −1), (0, 1, −3), (1, −1, 0)}
� � � � debemos calcular [(x, y, z)]β , para ello hallemos la matriz Mβc ,β .
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;    
1 −2 4 3 −2 0 1 1 0 0 −1 −3 0 0 0 1
� � � �  2 1 −1 0 1 0  F1 ↔ F3  2 1 −1 0 1 0 
2 1 4 −2 →
T (−2, 1, 2) = ; T (1, −1, 0) = −1 −3 0 0 0 1 −2 0 1 1 0 0
−3 −5 1 0    
1 3 0 0 0 −1 1 3 0 0 0 −1
  F2 → F2 − 2F1
Solución. Veamos cuales de los vectores v1 = (−2, 2, −1), v2 = (0, 1, −3), v3 = (−2, 1, 2), F1 → −F1 2 1 −1 0 1 0 →  0 −5 −1 0 1 2 
→ F3 → F3 + 2F1
v4 = (1, −1, 0) son linealmente independientes, para ello, consideremos la matriz −2 0 1 1 0 0 0 6 1 1 0 −2
   
  1 3 0 0 0 −1 1 0 0 −3 −3 −1
F 1 → F1 − 3F2
� � −2 0 −2 1 F 2 → F2 + F3  0 1 0 1 1 0  →  0 1 0 1 1 0 
[v1 ]βc [v2 ]βc [v3 ]βc [v4 ]βc =  2 1 1 −1  → F3 → F3 − 6F2
0 6 1 1 0 −2 0 0 1 −5 −6 −2
−1 −3 2 0 Por lo tanto  
−3 −3 −1
y hallemos su FERF. Mβc ,β =  1 1 0 
−5 −6 −2

Jorge Campos 179 180 Jorge Campos


6.1. Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

En consecuencia Por lo tanto, dado que los pivotes están ubicados en las columnas 1 y 2, al usar el teo-
     rema 3.25, sabemos que los dos primeros vectores de S son linealmente independientes,
−3 −3 −1 x −(3x + 3y + z)
y como consecuencia del corolario 6.8, garantizamos que existe una transformación lineal
[(x, y, z)]β = Mβc ,β [(x, y, z)]βc = 1 1 0  y  =  x+y 
T : R4 −→ P2 [x] satisfaciendo las dos primeras igualdades en el enunciado del ejercicio.
−5 −6 −2 z −(5x + 6y + 2z)
Por otro lado, de nuevo usando el teorema 3.25, esta matriz nos garantiza también que
Es decir
(0, 5, 9, 3) = −2 · (1, −2, −3, −1) + 1 · (2, 1, 3, 1)
(x, y, z) = −(3x + 3y + z)(−2, 2, −1) + (x + y)(0, 1, −3) − (5x + 6y + 2z)(1, −1, 0)
y
De donde
(1, −7, −12, −4) = 3 · (1, −2, −3, −1) + (−1) · (2, 1, 3, 1)
T (x, y, z) = −(3x + 3y + z)T (−2, 2, −1) + (x + y)T (0, 1, −3) − (5x + 6y + 2z)T (1, −1, 0) ası́ que cualquier transformación lineal T , satisfaciendo las dos primeras igualdades en el
� � � � � �
2 0 0 −1 4 −2 enunciado del ejemplo, satisface que:
= −(3x + 3y + z) + (x + y) − (5x + 6y + 2z)
1 −2 4 3 1 0
� � T (0, 5, 9, 3) = −2 · T (1, −2, −3, −1) + 1 · T (2, 1, 3, 1) = −2(1 + 2x − 3x2 ) + (−x + 2x2 )
−26x − 30y − 10z 9x + 11y + 4z
=
−4x − 5y − 3z 9x + 9y + 2z = −2 − 5x + 8x2

es la transformación lineal requerida (además, es única). y

T (1, −7, −12, −4) = 3 · T (1, −2, −3, −1) + (−1) · T (2, 1, 3, 1)
Ejemplo 6.4. Hallar una transformación lineal (si existe) T : R4 −→ P2 [x] tal que
= 3(1 + 2x − 3x2 ) − (−x + 2x2 ) = 3 + 7x − 11x2
T (1, −2, −3, −1) = 1 + 2x − 3x2 ; T (2, 1, 3, 1) = −x + 2x2 ;
es decir, toda transformación lineal T , satisfaciendo lo dos primeras igualdades en el enunciado
T (0, 5, 9, 3) = −2 − 5x + 8x2 ; T (1, −7, −12, −4) = 3 + 7x − 11x2 del ejemplo, también satisface las dos últimas igualdades.
Solución. Veamos si el conjunto No podemos proceder como en el ejemplo anterior, sin embargo, podemos completar una
base de R4 partiendo de los dos primeros vectores linealmente independientes en S (el teorema
S = {(1, −2, −3, −1); (2, 1, 3, 1); (0, 5, 9, 3); (1, −7, −12, −4)} de completación de bases nos lo permite) ¿cómo hacerlo?, existen varias maneras de hacer
esta escogencia, veamos una de ellas.
es linealmente independiente, para ello consideremos la matriz
Escojamos los vectores entre los canónicos, para saber cuál de ellos escoger, consideremos
 
1 2 0 1 la siguiente matriz  
 −2 1 5 −7  1 2
   −2 1 
 −3 3 9 −12   
−1 1 3 −4  −3 3 
−1 1
y hallemos su FERF
y eliminemos dos de sus filas, por ejemplo, eliminemos las primeras dos filas, obteniendo la
     
1 2 0 1 1 2 0 1 1 2 0 1 matriz cuadrada de orden 2 × 2 � �
 −2 1 5 −7  F2 → F2 + 2F1    −3 3
   0 5 5 −5  1  0 1 1 −1 

F3 → F3 + 3F1
 −3 3 9 −12  →  0 9 9 −9  F2 → 5 F2→  0 9 9 −9  −1 1
F 4 → F4 + F1
−1 1 3 −4 0 3 3 −3 0 3 3 −3 cuyo determinante es cero, por tanto no es posible agregar los dos primeros vectores canónicos
 
1 0 −2 3 para completar la base (¿por qué?), pero si eliminamos las dos últimas filas, nos queda la
F1 → F1 − 2F2 
 0 1 1 −1   matriz � �
F3 → F3 − 9F2
→  0 0 0 0  1 2
F4 → F4 − 3F2
0 0 0 0 −2 1

Jorge Campos 181 182 Jorge Campos


6.1. Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

cuyo determinante es no nulo, ası́ que podemos completar la base de R4 con los dos últimos Debemos hacer notar que, a diferencia del ejemplo previo, existen una infinidad de trans-
vectores canónicos, ya que formaciones lineales T satisfaciendo las condiciones requeridas en el enunciado del presente
� � � � ejemplo, dependiendo éstas de la escogencia de los vectores que completan la base de R4
� 1 2 0 0 � � 1 2 0 0 �
� � � � � � � � (espacio de partida) y de la escogencia de las imágenes de estos vectores.
� −2 1 0 0 � � −2 1 0 0 � � 1 2 � � 1 0 �
� � � �=� � � � = 5 · 1 = 5 �= 0
� −3 3 1 0 � = � −3 3 1 0 � � −2 1 � · � 0 1 �
� � � �
� −1 1 0 1 � � −1 1 0 1 �

esto es, una base para R4 es (¿por qué?)


6.2. Representación Matricial de una Transformación
β = {(1, −2, −3, −1); (2, 1, 3, 1); (0, 0, 1, 0); (0, 0, 0, 1)}.
Lineal
Haciendo En la sección anterior, vimos que toda matriz A ∈ Mm×n (R), define una transformación
T (0, 0, 1, 0) = T (0, 0, 0, 1) = 0 lineal de Mn×1 (R) en Mm×1 (R), además, se comentó que toda transformación lineal, entre
espacios vectoriales de dimensión finita, está asociada con una matriz, a continuación enun-
garantizamos, según el teorema 6.7, que existe una única transformación lineal
ciaremos y demostraremos un teorema que garantiza esta última afirmación.
T : R4 −→ M1×3 (R) Teorema 6.9. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordenada
de V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación
que satisface las dos primeras igualdades en el enunciado del ejemplo y las igualdades
lineal. Entonces existe un única matriz A ∈ Mm×n (R) tal que para cada v ∈ V
T (0, 0, 1, 0) = T (0, 0, 0, 1) = 0 [T (v)]βW = A[v]βV
Calculemos dicha transformación lineal. Al calcular la matriz de coordenadas de Demostración. Para cada j ∈ {1, . . . , n}, existen escalares α1j , α2j , . . . , αmj ∈ R tales que
(a, b, c, d) ∈ R4 cualquiera, respecto a la base β, obtenemos (¡verificarlo!)
  T (vj ) = α1,j w1 + α2,j w2 + · · · + αmj wm
1
a − 25 b es decir
� � 
5
2 1   
a + 5b α1j
(a, b, c, d) β =  5
 −3a − 9b + c 

 α2j 
5 5  
1 3
−5a − 5b + d [T (vj )]βW =  .. 
 . 
Por lo tanto αmj
�� � � �
1 2 2 1 Dado v ∈ V cualquiera, hagamos
T (a, b, c, d) = T a − b (1, −2, −3, −1) + a + b (2, 1, 3, 1)  
5 5 5 5 λ1
� � � � �  λ2 
3 9 1 3  
+ − a − b + c (0, 0, 1, 0) + − a − b + d (0, 0, 0, 1) [v]βV =  .. 
5 5 5 5 .
� � � �
1 2 2 1 λn
= a − b T (1, −2, −3, −1) + a + b T (2, 1, 3, 1)
5 5 5 5 es decir
� � � �
3 9 1 3 v = λ1 v1 + λ2 v2 + · · · + λn vn
+ − a − b + c T (0, 0, 1, 0) + − a − b + d T (0, 0, 0, 1)
5 5 5 5 De donde
� � � �
1 2 2 1
= a − b (1 + 2x − 3x2 ) + a + b (−x + 2x2 ) T (v) = T (λ1 v1 + λ2 v2 + · · · + λn vn ) = λ1 T (v1 ) + λ2 T (v2 ) + · · · + λn T (vn )
5 5 5 5
� � � � = λ1 (α1,1 w1 + α2,1 w2 + · · · + αm1 wm ) + λ2 (α1,2 w1 + α2,2 w2 + · · · + αm2 wm ) + · · · +
3 9 1 3
+ − a− b+c ·0+ − a− b+d ·0 λn (α1,n w1 + α2,n w2 + · · · + αmn wm )
5 5 5 5
� � � � = (α1,1 λ1 + α1,2 λ2 + · · · + α1n λn )w1 + (α2,1 λ1 + α2,2 λ2 + · · · + α2n λn )w2 + · · · +
1 2 1 8 2
= a − b − bx + a+ b x . (αm,1 λ1 + αm,2 λ2 + · · · + αmn λn )wm
5 5 5 5

Jorge Campos 183 184 Jorge Campos


6.2. Representación Matricial de una Transformación Lineal Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Por lo tanto 2. Si V es un espacio vectorial de dimensión n y β es una base ordenada de V, entonces


     [IV ]β = In , donde IV es la transformación identidad sobre V. �
α1,1 λ1 + α1,2 λ2 + · · · + α1n λn α1,1 α1,2 · · · α1n λ1
 α2,1 λ1 + α2,2 λ2 + · · · + α2n λn   α2,1 α2,2 · · · α2n   λ2 
     3. Si V es un espacio vectorial de dimensión n y β1 y β2 son bases ordenada de V, entonces
[T (v)]βW =  ..  =  .. .. ..   ..  = A[v]βV
 .   . . .  .  [IV ]β1 ,β2 = Mβ1 ,β2 . �
αm,1 λ1 + αm,2 λ2 + · · · + αmn λn αm1 αm2 · · · αmn λn
Ejemplo 6.6. Definamos T : M2×2 (R) −→ R3 como sigue
donde   � �
α1,1 α1,2 · · · α1n x y
 α2,1 α2,2 · · · α2n  � T = (2y − z, x − y + w, 3x − y − z + w)
  � z w
A =  .. .. ..  = [T (v1 )]βW · · · [T (vn )]βW
 . . .  no es difı́cil probar que T es lineal (¡pruébelo!). Consideremos las bases canónicas ordenadas
αm1 αm2 · · · αmn βV de M2×2 (R) y βW de R3 . Calcular [T ]βV ,βW .
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B ∈ Mm×n (R) es tal que para cada v ∈ V Solución. En primer lugar
� � � �
[T (v)]βW = B[v]βV 1 0 0 1
T (E1,1 ) = T = (0, 1, 3); T (E1,2 ) = T = (2, −1, −1);
0 0 0 0
Luego, para cada j ∈ {1, . . . , n}, tenemos que � � � �
0 0 0 0
[T (vj )]βW = B[vj ]βV T (E2,1 ) = T = (−1, 0, −1) y T (E2,2 ) = T = (0, 1, 1)
1 0 0 1
Pero   y ası́, por definición de la matriz [T ]βV ,βW
0 � �
 ..  [T ]βV ,βW = [T (E1,1 )]βW [T (E1,2 )]βW [T (E2,1 )]βW [T (E2,2 )]βW
.
  � �
0
  = [(0, 1, 3)]βW [(2, −1, −1)]βW [(−1, 0, −1)]βW [(0, 1, 1)]βW
[vj ]βV = 1 −→ j-ésima fila  
 
0 0 2 −1 0
.
 ..  =  1 −1 0 1 
0 3 −1 −1 1
Luego
A(j) = [T (vj )]βW = B[vj ]βV = BIn(j) = B (j)
Ejemplo 6.7. Consideremos la transformación lineal T : M2×2 (R) −→ P2 [x] dada por
Por lo tanto B = A.
� �
a b
T = (a + b − c) + (a + 2b + c + d)x + (−a − 3b − 3c − 2d)x2
Definición 6.3. La matriz A en el teorema anterior, se denomina representación ma- c d
tricial de T respecto a las bases βV y βW , y la denotaremos por [T ]βV ,βW . Sean βV la base canónica ordenada de M2×2 (R), βW la base canónica ordenada de P2 [x] y
Observación 6.2. Cuando W = V y βW = βV = β, escribiremos [T ]β en lugar de [T ]β,β . �� � � � � � � ��
1 2 −1 0 2 3 −2 1
β�V = ; ; ;
Ejemplo 6.5. −1 0 1 1 1 −1 3 2

1. Si Ves un espacio vectorial de dimensión n, W es un espacio vectorial de dimensión m, � �


β�W = 1 + x; x + x2 ; 1 − 2x2
βV y βW son bases ordenadas de V y W respectivamente, entonces [OV,W ]βV ,βW = 0/m×n ,
donde OV,W es la transformación nula de V en W. � bases ordenadas de M2×2 (R) y P2 [x], respectivamente. Calcular [T ]βV ,βW y [T ]β�V ,β�W .

Jorge Campos 185 186 Jorge Campos


6.2. Representación Matricial de una Transformación Lineal Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Solución. En primer lugar, calcularemos las imágenes, a través de T , de cada uno de los
vectores de la base canónica βV .
� � � � El ejemplo 6.7 nos da un procedimiento estándar para calcular la matriz de una transfor-
1 0 0 1 mación lineal respecto a unas bases dadas.
T (E1,1 ) = T = 1 + x − x2 ; T (E1,2 ) = T = 1 + 2x − 3x2 ;
0 0 0 0
� � � � Teorema 6.10. Sean U, V y W espacios vectoriales, L : U −→ V y T : V −→ W dos
0 0 0 0
T (E2,1 ) = T = −1 + x − 3x2 y T (E2,2 ) = T = x − 2x2 transformaciones lineales y βU , βV y βW bases ordenadas de U, V y W respectivamente.
1 0 0 1
Entonces
Al igual que en ejemplo 6.6, por definición de la matriz [T ]βV ,βW
[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV
� �
[T ]βV ,βW = [T (E1,1 )]βW [T (E1,2 )]βW [T (E2,1 )]βW [T (E2,2 )]βW
�� Demostración. Sea u ∈ U cualquiera. Entonces
� � � � � � � �
= 1 + x − x2 β 1 + 2x − 3x2 β −1 + x − 3x2 β x − 2x2 β
W W W W
  ([T ]βV ,βW [L]βU ,βV ) [u]βU = [T ]βV ,βW ([L]βU ,βV [u]βU ) = [T ]βV ,βW [L(u)]βV = [T (L(u))]βW
1 1 −1 0 = [(T ◦ L)(u)]βW .
=  1 2 1 1 
−1 −3 −3 −2 Luego, por unicidad de la matriz [T ◦ L]βU ,βW , se tiene que
Análogamente, para calcular [T ]β�V ,β�W , hallemos primero las imágenes, a través de T , de
[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV
cada uno de los vectores de la base β�V .
� � � �
1 2 −1 0
T = 4 + 4x − 4x2 ; T = −2 + x − 4x2 ;
−1 0 1 1
� � � � Teorema 6.11. Sean V y W dos espacios vectoriales de dimensión finita; βV y β�V bases
T
2 3
= 4 + 8x − 12x2 y T
−2 1
= −4 + 5x − 14x2 ordenadas de V; βW y β�W bases ordenadas de W y T : V −→ W una transformación lineal.
1 −1 3 2 Entonces
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la [T ]β�V ,β�W = MβW ,β�W [T ]βV ,βW Mβ�V ,βV
base β�W . Para ello consideremos la siguiente matriz cuatro veces ampliada (¿por qué?).
  Demostración. Sea v ∈ V cualquiera. Entonces
1 0 1 4 −2 4 −4
 1 1 0 4 1 8 5  [T (v)]βW = [T ]βV ,βW [v]βV
0 1 −2 −4 −4 −12 −14
[v]βV = Mβ�V ,βV [v]β�V
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base β�W ,
respecto a la base canónica βW , el resto de las columnas, son las coordenadas de los vectores, Luego
hallados previamente, respecto a la base canónica βW , esto es, las tres primeras columnas de
esta matriz representan la matriz Mβ�W ,βW y las últimas 4 columnas reperesentan la matriz [T (v)]β�W = MβW ,β�W [T (v)]βW = MβW ,β�W [T ]βV ,βW [v]βV = MβW ,β�W [T ]βV ,βW Mβ�V ,βV [v]β�V
[T ]β�V ,βW . La FERF de esta matriz es
  Por unicidad de la matriz [T ]β�V ,β�W , se tiene que
1 0 0 0 −9 −12 −27
 0 1 0 4 10 20 32  [T ]β�V ,β�W = MβW ,β�W [T ]βV ,βW Mβ�V ,βV
0 0 1 4 7 16 23
Por lo tanto  
0 −9 −12 −27
[T ]β�V ,β�W 
= 4 10 20 32  Ejemplo 6.8. Consideremos T , βV , βW , β�V y β�W como en el ejemplo 6.7. Verificar el teorema
4 7 16 23 6.11.

Jorge Campos 187 188 Jorge Campos


6.2. Representación Matricial de una Transformación Lineal Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Solución. Sabemos que Rn , Pn [x] o Mm×n (R) y β�W es la base canónica de W, estas matrices A y B son fáciles de
    calcular), entonces, en virtud del corolario 6.13, el problema se reduce a resolver la ecuación
0 −9 −12 −27 1 1 −1 0 matricial �AX = B, � el cual � ya sabemos que se resuelve calculando la FERF de la matriz
[T ]β�V ,β�W =  4 10 20 32  y [T ]βV ,βW =  1 2 1 1  �
[A|B] = MβW ,β�W � [T ]βV ,β�W . Dado que en este caso A = MβW ,β�W es invertible, entonces la
4 7 16 23 −1 −3 −3 −2
solución a dicha ecuación está dada por:
Por otro lado, fácilmente obtenemos que
[T ]βV ,βW = X = A−1 B = Mβ�W ,βW [T ]βV ,β�W
 
1 −1 2 −2
 2 0 3 1 
Mβ�V ,βV =
 −1
 6.3. Rango, Nulidad, Espacio Fila y Espacio Columna
1 1 3 
0 1 −1 2 de una Matriz
y haciendo algunos cálculos (no muchos ni muy complicados) obtenemos En la observación 3.9 se afirmó que en la presente sección se probarı́a formalmente, usando
  el corolario 3.5, que los conjuntos S y R, definidos en la parte 3 del ejemplo 3.1, son subespa-
2 −1 1 cios de Mn×1 (R) y Mm×1 (R), respectivamente. Antes que nada definiremos más formalmente
MβW ,β�W , =  −2 2 −1  dichos conjuntos.
−1 1 −1
Definición 6.4. Consideremos una matriz A ∈ Mm×n (R). El conjunto
Al sustituir, se obtiene que
N(A) = Ker(A) = {x ∈ Mn×1 (R) : Ax = 0/m×1 }
[T ]β�V ,β�W = MβW ,β�W [T ]βV ,βW Mβ�V ,βV
es llamado espacio nulo, núcleo o kernel de A; y el conjunto

Im(A) = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}


Corolario 6.12. Sean V un espacio vectorial de dimensión finita; βV y β�V dos bases orde-
nadas de V y T : V −→ V una transformación lineal. Entonces se conoce como imagen o recorrido de A.

[T ]β�V = MβV ,β�V [T ]βV Mβ�V ,βV Observación 6.3. Notemos que por definición y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R)
tal que Ax = y.
Demostración. ¡Ejercicio!
Antes de dar algún ejemplo enunciaremos el teorema que permite garantizar que N(A) e
Im(A) son subespacios.
Corolario 6.13. Sean V y W dos espacios vectoriales de dimensión finita; βV una base
ordenada de V; βW y β�W dos bases ordenadas de W y T : V −→ W una transformación Teorema 6.14. Sea A ∈ Mm×n (R) cualquiera. Entonces N(A) es un subespacio de Mn×1 (R)
lineal. Entonces e Im(A) es un subespacio de Mm×1 (R).
[T ]βV ,β�W = MβW ,β�W [T ]βV ,βW
Demostración. Sólo probaremos que Im(A) es un subespacio de Mm×1 (R), se deja como
Demostración. ¡Ejercicio! ejercicio probar que N(A) es un subespacio de Mn×1 (R).
Notemos primero que por definición Im(A) ⊂ Mm×1 (R). Por otro lado, como A 0/n×1 = 0/m×1 ,
entonces 0/m×1 ∈ Im(A).
Nuevamente, el problema de hallar la matriz de transición de una transformación lineal Finalmente, sean α ∈ R y y1 , y2 ∈ Im(A) cualesquiera. Entonces existen x1 , x2 ∈ Mn×1 (R)
T : V −→ W, respecto a ciertas bases ordenadas βV y βW de V y W, respectivamente, tales que Ax1 = y1 y Ax2 = y2 . Queremos probar que y1 + αy2 ∈ Im(A).
obedece a la resolución de una ecuación matricial de la forma AX = B. En efecto, sean V, Escojamos x = x1 + αx2 . Entonces x ∈ Mn×1 (R) (¿por qué?) y además
W, T , βV , βW y β�W como en el corolario 6.13. Si conocemos, o bien si podemos calcular de
manera sencilla, las matrices A = MβW ,β�W y B = [T ]βV ,β�W (cuando W es uno de los espacios Ax = A(x1 + αx2 ) = Ax1 + αAx2 = y1 + αy2

Jorge Campos 189 190 Jorge Campos


6.3. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

En consecuencia y1 + αy2 ∈ Im(A) Por lo tanto      


Por lo tanto, en virtud del corolario 3.5 y de la observación 3.8, Im(A) es un subespacio 
 −2 3 

  1   −4 
de Mm×1 (R). N(A) = gen   ,  
  1   0   

 

0 1
Definición 6.5. Dada una matriz A ∈ Mm×n (R). Definiremos la nulidad de A como el No es difı́cil probar que el conjunto
número natural n(A) = dim(N(A)) y el rango de A como el número natural    
r(A) = dim(Im(A)). 
 −2 3  
   
 1  ,  −4 
Ejemplo 6.9. Calcular el núcleo, la nulidad, la imagen y el rango de la matriz   1   0 

 

  0 1
2 −3 7 −18
A =  −2 0 −4 6  es linealmente independiente (¡pruébelo!) y por lo tanto es una base para N(A). Ası́ que
2 −9 13 −42 n(A) = 2.  
y1
Solución. Para hallar el núcleo de A, N(A), necesitamos resolver el sistema Ax = 0/m×1 . Por otro lado, sea y =  y2  ∈ M3×1 (R). Entonces y ∈ Im(A) si y sólo si existe
Para ello debemos calcular la FERF de A. y3
 
    x1
2 −3 7 −18 0 −3 3 −12  x2 
F 1 → F1 + F2 x= 
A =  −2 0 −4 6  →  −2 0 −4 6   x3  ∈ M4×1 (R) tal que Ax = y, es decir, y ∈ Im(A) si y sólo si el sistema Ax = y
F 3 → F3 + F2
2 −9 13 −42 0 −9 9 −36 x4
   
F2 → − 12 F2 0 −3 3 −12 0 1 −1 4 tiene solución.
→  1 
0 2 −3 F1 → − 3 F1 1  1 0 2 −3  Resolvamos entonces este sistema, la matriz ampliada de este sistema es
F3 → F3 − 3F1 0 0 0 0 → 0 0 0 0
   
1 0 2 −3 2 −3 7 −18 y1

[A|y] = −2 0 −4 6 y2 
F1 ↔ F2  0 1 −1 4 
→ 2 −9 13 −42 y3
0 0 0 0
 
x1 La cual es equivalente por filas a la matriz (¡verifı́quelo!)
 x2 
Ası́ que    
 x3  ∈ N(A) si y sólo si 1 0 2 −3 − 12 y2
x4  0 1 −1 4 − 13 y1 − 13 y2 
� 0 0 0 0 −3y1 − 2y2 + y3
x1 +2x3 −3x4 = 0
x2 −x3 +4x4 = 0 Por lo tanto y ∈ Im(A) si y sólo si

−3y1 − 2y2 + y3 = 0 (¿por qué?)


o bien �
x1 = −2x3 + 3x4
o equivalentemente
x2 = x3 − 4x4
y3 = 3y1 + 2y2
De donde         En consecuencia
x1 −2x3 + 3x4 −2 3        
 x2   x3 − 4x4     
 =  = x3  1  + x4  −4  y1 y1 1 0
 x3   x3   1   0  
y = y2 =  y2  = y 1 0 + y1  1 
 
x4 x4 0 1 y3 3y1 + 2y2 3 2

Jorge Campos 191 192 Jorge Campos


6.3. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

y por lo tanto        es una base para Im(A).


 1 0  Este procedimiento es válido al momento de hallar una base para Im(A) y es una manera
Im(A) = gen   0  ,  1   más sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A),
 
3 2 no es necesario saber para que valores de y el sistema Ax = y tiene solución, basta con saber
Al igual que antes, no es difı́cil probar que la posición de las columnas pivotes en la FERF de A y, en consecuencia, las correspondientes
     columnas de A forman una base para Im(A), es decir, si las columnas pivotes de la FERF de
 1 0  A son las columnas j1 , j2 , . . . , jr , entonces las columnas j1 , j2 , . . . , jr de A forman una base
 0 , 1  para Im(A).
 
3 2 Antes de dar un ejemplo referente a la búsqueda de bases para el espacio nulo y el espacio
imagen de una matriz A, daremos algunos resultados.
es linealmente independiente y en consecuencia una base para Im(A). Luego r(A) = 2.
Consideremos una matriz A ∈ Mm×n (R). Denotaremos por C(A) al espacio generado por
las columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al
Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A están en las espacio generado por las filas de A, el cual es llamado espacio fila de A, esto es
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,
    C(A) = gen({A(1) , A(2) , . . . , A(n) })
2 −3
 −2  ,  0  y
2 −9 R(A) = gen({A(1) , A(2) , . . . , A(m) })
son linealmente independientes (use el teorema 3.12) y además Teorema 6.15. Si A, B ∈ Mm×n (R) son tales que A y B son equivalentes por filas, entonces
   
1   1  
2 −3 7 −18   2 1. C(A) = Im(A).
 0  0  
 
A   = −2  0 −4 
6   = −2 

0 0 2. R(A) = R(B).
2 −9 13 −42 2
0 0
3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).
y    
0  0    4. r(A) = r(B) y n(A) = n(B).
 1  2 −3 7 −18   −3
A  =  −2 0 −4 6  1  =  0 
 0   0  5. r(A) + n(A) = n.
2 −9 13 −42 −9
0 0
Demostración.
es decir    
2 −3
 −2  ,  0  ∈ Im(A) 1. Por definición de Im(A) sabemos que y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal que
Ax = y.
2 −9  
x1
y por lo tanto      x2 
 2 −3   
Si hacemos x =  .. , entonces
 −2  ,  0  .
 
2 −9 xn
es un subconjunto linealmente independiente de Im(A). Al usar la parte 2 del teorema 3.17
tenemos que y = Ax = x1 A(1) + x2 A(2) + · · · + xn A(n) (ver observación 1.22)
   
 2 −3 
 −2  ,  0  es decir, y ∈ Im(A) si y sólo si y ∈ gen({A , A , . . . , A(n) }) = C(A).
(1) (2)

  En consecuencia C(A) = Im(A).


2 −9

Jorge Campos 193 194 Jorge Campos


6.3. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

2. Como A y B son equivalentes por filas, entonces cada fila de B es combinación lineal Solución. Sólo hace falta calcular la FERF de A.
de las filas de A y viceversa (ver ejercicio 3.3.1), es decir, para cada i ∈ {1, . . . , m}    
se tiene que B(i) ∈ gen({A(1) , A(2) , . . . , A(m) }) y A(i) ∈ gen({B(1) , B(2) , . . . , B(m) }). En 2 2 −6 1 8 1 1 −3 1 6
consecuencia  −4 −1 −3 −2 −19   −4 −1 −3 −2 −19 
A=  1
 F ↔ F3  
R(A) = R(B) 1 −3 1 6  1 → 2 2 −6 1 8 
2 4 −16 3 14 2 4 −16 3 14
3. Sea F ∈ Mm×n (R) la FERF de A. Entonces las filas no nulas de F son linealmente    
1 1 −3 1 6 1 1 −3 1 6
independientes (¿por qué?) y en consecuencia forman una base para R(F ), por lo tanto, F2 → F2 + 4F1
→  0 3 −15 5   3 
si k es el número de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 F3 → F3 − 2F1 
2  F ↔ F2 − F4  0 1 −5 1 
 0 0 0 −1 −4  2 → 0 0 0 −1 −4 
R(A) = R(F ), ası́ que dim(R(A)) = dim(R(F )) = k. F4 → F4 − 2F1
0 2 −10 1 2 0 2 −10 1 2
Por otro lado, las columnas pivotes de F representan las columnas de A que son    
1 0 2 0 3 1 0 2 0 3
linealmente independientes (en virtud del teorema 3.12) y que en consecuencia for- F 1 → F1 − F 2  0 1 −5 1 3  F2 → F2 + F3  0 1 −5 0 −1 
man una base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto →   →  
F4 → F4 − 2F2  0 0 0 −1 −4  F4 → F4 − F3  0 0 0 −1 −4 
dim(C(A)) = k = dim(R(A)) y, por la parte 1, tenemos que 0 0 0 −1 −4 0 0 0 0 0
 
dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A) 1 0 2 0 3
 0 1 −5 0 −1 
F3 → −F3  
→ 0 0 0 1 4 
4. ¡Ejercicio! 0 0 0 0 0
 
5. ¡Ejercicio! x1
 x2 
 
Ası́ que  
 x3  ∈ N(A) si y sólo si
 x4 
Corolario 6.16. A ∈ Mn×n (R) es invertible si y sólo si r(A) = n. x5
Demostración. ¡Ejercicio! 
 x1 +2x3 +3x5 = 0
x2 −5x3 −x5 = 0
Corolario 6.17. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Entonces el sistema Ax = b tiene al 
x4 +4x5 = 0
menos una solución si y sólo si r([A|b]) = r(A).

Demostración. ¡Ejercicio! o equivalentemente



 x1 = −2x3 − 3x5
El ejemplo siguiente nos da un procedimiento genérico para calcular bases para los espacios x2 = 5x3 + x5

N(A), R(A) e Im(A) = C(A) dada una matriz A ∈ Mm×n (R). x4 = −4x5

Ejemplo 6.10. Calcular el espacio fila, el espacio columna, el espacio nulo, la imagen, y Luego
una base para cada uno de estos espacios; y la nulidad y el rango de la matriz        
  x1 −2x3 − 3x5 −2 −3
2 2 −6 1 8  x2   5x3 + x5   5   1 
       
 −4 −1 −3 −2 −19   x3  =  x3  = x3  1  + x5  0 
A=         
 1 1 −3 1 6   x4   −4x5   0   −4 
2 4 −16 3 14 x5 x5 0 1

Jorge Campos 195 196 Jorge Campos


6.3. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Por lo tanto, una base para el espacio nulo de A es: 6.4. Núcleo e Imagen de una Transformación Lineal
   

 −2 −3   Definición 6.6. Sean V y W dos espacios vectoriales y T : V −→ W una transformación

 
 5   1 
 


lineal. Definiremos
 1 , 0 
    

  0   −4  


 
 1. El núcleo o kernel de T como el conjunto
0 1
y ası́ N(T ) = Ker(T ) = {v ∈ V : T (v) = 0/W }
     
 −2
 −3 

  5   1 
 2. La imagen o recorrido de T como el conjunto
     
N(A) = gen    
  1  ,  0
 
 
  0   −4 
  Im(T ) = T (V) = {w ∈ W : T (v) = w para algún v ∈ V}

 

0 1
Además, una base para el espacio fila de A es: Observación 6.4. w ∈ Im(T ) si y sólo si existe v ∈ V tal que T (v) = w.
�� � � � � ��
1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4 Teorema 6.18. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
lineal. Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de
luego W.
��� � � � � ���
R(A) = gen 1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4
Demostración. Es claro que N(T ) ⊂ V e Im(T ) ⊂ W.
Como los pivotes de la FERF de A están en las columnas 1,2 y 4, entonces las columnas Por la parte 1 del teorema 6.2, se tiene que T (0/V ) = 0/W , ası́ que 0/V ∈ N(T ) y 0/W ∈ Im(T ),
1,2 y 4 de A forman una base para el espacio imagen o espacio columna de A, es decir, de donde, N(T ) �= ∅ e Im(T ) �= ∅.
      Por otro lado, sean v1 , v2 ∈ N(T ) y α ∈ R cualesquiera. Entonces

 2 2 1  
     
 −4  ,  −1  ,  −2  T (v1 ) = 0/W = T (v2 )
  1   1   
1 

 

2 4 3 Ası́ que
es una base para C(A) = Im(A) y en consecuencia T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = 0/W +α 0/W = 0/W
        Por lo tanto v1 + αv2 ∈ N(T ), en consecuencia, N(T ) es un subespacio de V.
 2 2 1 

 −4   −1   −2 
 Finalmente, sean w1 , w2 ∈ Im(T ) y α ∈ R cualesquiera. Entonces, existen v1 , v2 ∈ V tales
C(A) = Im(A) = gen        
  1  ,  1  ,  1    que T (v1 ) = w1 y T (v2 ) = w2 .

 
 Consideremos v = v1 + αv2 . Ası́ que v ∈ V y
2 4 3
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y T (v) = T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = w1 + αw2
r(A) = dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.
De donde w1 + αw2 ∈ Im(T ), luego Im(T ) es un subespacio de W.
Ejercicio 6.3.1. Pruebe que si A ∈ Mn×n (R), entonces existe k ≤ n tal que para cada r ≥ k
se cumple Definición 6.7. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
� � � � lineal. Definiremos
1. N (Ar ) = N Ak y {0/n×1 } ⊂ N(A) ⊂ N(A2 ) ⊂ · · · ⊂ N Ak .
� � � �
2. Im (Ar ) = Im Ak e Im Ak ⊂ · · · ⊂ Im(A2 ) ⊂ Im(A) ⊂ Mn×1 (R). 1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )).

Además, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias. 2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )).

Jorge Campos 197 198 Jorge Campos


6.4. Núcleo e Imagen de una Transformación Lineal Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Ejemplo 6.11. y la nulidad de T es:


n(T ) = dim(N(T )) = 1
1. Consideremos la transformación nula O : V −→ W, es decir, O(v) = 0W para todo /

v ∈ V. Entonces N(O) = V e Im(O) = {0/W } (¡pruébelo!). � Por otro lado, la imagen de T es:
� � � � � �
2. Para la transformación identidad sobre V, esto es, la transformación IV : V −→ V x y x y
Im(T ) = (a, b, c) ∈ R3 : T = (a, b, c) para algún ∈ M2×2 (R)
dada por IV (v) = v para todo v ∈ V, se puede probar que Im(IV ) = V y N(IV ) = {0/V } z w z w
(¡pruébelo!). � � �
x y
Pero T = (a, b, c) si y sólo si
Ejemplo 6.12. Sea T la transformación dada en el ejemplo 6.6. Calcular n(T ) y r(T ). z w

 2y −z = a
Solución. Por definición
�� � � � � x −y +w = b (6.2)
x y x y 
3x −y −z +w = c
N(T ) = ∈ M2×2 (R) : T = (0, 0, 0)
z w z w
En consecuencia (a, b, c) ∈ Im(T ) si y sólo si el sistema (6.2) tiene solución. Al resolver
� � este sistema, obtenemos
x y
Pero T = (0, 0, 0) si y sólo si  
z w
  x − 12 z = − 12 b + 12 c  x = 1
2
z − 12 b + 12 c
 2y −z = 0 y − 12 z = 1
a ; o bien y = 1
z + 12 a
 2  2
x −y +w = 0 (6.1) w = 1
a + 3
b − 1
c w = 1
a + 3
b − 12 c
 2 2 2 2 2
3x −y −z +w = 0
� � Por lo tanto, el sistema (6.2) tiene solución para cada (a, b, c) ∈ R3 , en consecuencia
x y Im(T ) = R3 y el rango de T es r(T ) = 3.
Es decir ∈ N(T ) si y sólo si se satisface el sistema (6.1). Resolvamos este sistema.
 z w     
0 2 −1 0 1 −1 0 1 1 −1 0 1
 1 −1 0 1  F 1 ↔ F2  0 2 −1 0  F3 → F3 − 3F1  0 2 −1 0  Observación 6.5. Nótese que la matriz de los sistemas (6.2) y (6.1) no es otra que la matriz
→ → [T ]βV ,βW , donde βV y βW son las bases canónicas de los espacios M2×2 (R) y R3 , respectivamente
3 −1 −1  1 3 −1 −1 1  0
 2 −1 −2
1 (verifı́quelo).
1 −1 0 1 1 0 −2 1
F 1 → F1 + F2 Al igual que en el caso matricial, no hace falta resolver el sistema (6.2), la FERF de la
F2 → 2 F2  0
1
1 −2 1
0  →  0 1 −2 1
0 
→ 0 F3 → F3 − 2F2 matriz de este sistema nos da toda la información, pero a diferencia del caso matricial, los
 2 −1 −2  0 0 0 −2
pivotes de esta matriz nos dan las coordenadas, respecto a la base canónica de R3 , de los
1 0 − 12 1 1 0 − 12 0
vectores que forman una base para Im(T ). Para entender bien este comentario, consideremos
F3 → − 12 F3  0 1 − 12 0  F1 → F1 − F3  0 1 − 12 0 
→ 0 0 → el siguiente ejemplo.
0 1 0 0 0 1
De donde Ejemplo 6.13. Calcular el núcleo, la nulidad, la imagen y el rango de la transformación
  lineal T dada en el ejemplo 6.7.
 x − 12 z = 0  x = 12 z � �
y −2z 1
= 0 ; o bien y = 12 z a b
  Solución. ∈ N(T ) si y sólo si
w = 0 w = 0 c d

Haciendo z = 2α, con α ∈ R, obtenemos  a +b −c = 0
� � � � � � a +2b +c +d = 0 (6.3)

x y α α 1 1 −a −3b −3c −2d = 0
= =α
z w 2α 0 2 0 La matriz de este sistema es
Por lo tanto el núcleo de T es:  
��� ��� 1 1 −1 0
1 1 [T ]βV ,βW = 1 2 1 1 
N(T ) = gen
2 0 −1 −3 −3 −2

Jorge Campos 199 200 Jorge Campos


6.4. Núcleo e Imagen de una Transformación Lineal Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

donde βV y βW son las bases canónicas de M2×2 (R) y P2 [x] respectivamente. Su FERF es Demostración. Ver Apéndice D.
 
1 0 −3 −1
 0 1 2 1  Corolario 6.20. Sean V, W, βV , βW y T como en el teorema 6.19. Entonces
0 0 0 0 1. n(T ) = n ([T ]βV ,βW )
Por lo tanto
2. r(T ) = r ([T ]βV ,βW )
� �
a −3c −d = 0 a = 3c + d 3. n(T ) + r(T ) = n = dim(V)
; o bien
b +2c +d = 0 b = −2c − d
Demostración. ¡Ejercicio!
Ası́ que
� � � � � � � �
a b 3c + d −2c − d 3 −2 1 −1 El siguiente ejemplo ilustra estos resultados.
= =c +d
c d c d 1 0 0 1
Ejemplo 6.14. Sean T , β�V y β�W como en el ejemplo 6.7. Usar la matriz [T ]β�V ,β�W para hallar
En consecuencia ��� � � ��� el núcleo, la nulidad, la imagen y el rango de la transformación lineal T .
3 −2 1 −1
N(T ) = gen ; Solución. En primer lugar, recordemos que
1 0 0 1
�� � � � � � � ��
y una base para N(T ) es 1 2 −1 0 2 3 −2 1
�� � � �� β�V = ; ; ;
3 −2 1 −1 −1 0 1 1 1 −1 3 2
;
1 0 0 1 � �
β�W = 1 + x; x + x2 ; 1 − 2x2
luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, están en
las columnas 1 y 2, ası́ que las columnas 1 y 2 de la matriz original, son las matrices de Sabemos que  
coordenadas, respecto a βW , de dos vectores que forman una base para Im(T ), por lo tanto 0 −9 −12 −27
[T ]β�V ,β�W 
= 4 10 20 32 
r(T ) = dim(Im(T )) = 2, además
4 7 16 23
�� ��
Im(T ) = gen 1 + x − x2 ; 1 + 2x − 3x2 Sin mucha dificultad, obtenemos que la FERF de esta matriz es
 
y una base para Im(T ) es 1 0 53 21
� �  0 1 4 3 
1 + x − x2 ; 1 + 2x − 3x2 3
0 0 0 0
� �
Luego una base para N [T ]β�V ,β�W es
La observación 6.5 puede ser generalizada de la siguiente manera.
   
Teorema 6.19. Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } una base ordena-  −5


−1  
 −4   −6 
da de V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación    
  3  ;  0 
lineal. Entonces 
 

0 2
1. {u1 , u2 , . . . , uk } es una base para N(T ) si y sólo si {[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } es una base y usando el teorema 6.19, tenemos que estas dos matrices son las matrices de coordenadas
para N([T ]βV ,βW ) respecto a la base β�V de dos vectores que forman una base para N(T ), hallemos estos vectores.
� � � � � � � � � �
2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y sólo si {[z1 ]βW , [z2 ]βW , . . . , [zr ]βW } es una base 1 2 −1 0 2 3 −2 1 5 −1
para Im([T ]βV ,βW ) (−5) + (−4) +3 +0 =
−1 0 1 1 1 −1 3 2 4 −7

Jorge Campos 201 202 Jorge Campos


6.5. Algunas Aplicaciones de las Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

� � � � � � � � � �
1 2 −1 0 2 3 −2 1 1 0 Ejemplo 6.15 (Reflexiones en R2 ). En R2 consideremos una recta L que pasa por el origen.
(−1) + (−6) +0 +2 =
−1 0 1 1 1 −1 3 2 1 −2 Nuestra intención es definir una transformación lineal TL : R2 −→ R2 de tal manera que
Luego, una base para N(T ) es todo punto sobre el plano sea reflejado respecto a la recta L.
�� � � �� Solución. En primer lugar, sean a, b ∈ R tales que L = {(x, y) ∈ R2 : ax+by = 0}. Dado que
5 −1 1 0
; L es una recta, debe ser a2 + b2 �= 0. Sea (u, v) ∈ R2 cualquiera y hagamos TL (u, v) = (z, w).
4 −7 1 −2
Como queremos que TL sea una reflexión respecto a la recta L, debe ocurrir que (u, v) y
y ası́ (z, w) deben estar ambos sobre una misma recta L� la cual es perpendicular a L. Siendo
��� � � ���
5 −1 1 0 L� perpendicular a L, existe c ∈ R tal que L� = {(x, y) ∈ R2 : bx − ay = c}. Dado que
N(T ) = gen ; (u, v), (z, w) ∈ L� , entonces bz − aw = c = bu − av o bien
4 −7 1 −2
y n(T ) = 2. bz − aw = bu − av (6.4)
Por otro lado, dado que los pivotes en la FERF de la matriz [T ]β�V ,β�W se encuentran en las
� �
Por otro lado, el punto medio entre (u, v) y (z, w), que es 12 (u + z, v + w), debe estar sobre
columnas 1 y 2, entonces una base para Im [T ]β�V ,β�W es
la recta L (también sobre la recta L� ), de donde a2 (u + z) + 2b (v + w) = 0 o bien
   
 0 −9  az + bw = −au − bv (6.5)
 4  ;  10 
  Con las ecuaciones (6.4) y (6.5) obtenemos el siguiente sistema de ecuaciones
4 7

y como antes, usando el teorema 6.19, tenemos que estas dos matrices son las matrices de bz −aw = bu − av
coordenadas respecto a la base β�W de dos vectores que forman una base para Im(T ), veamos az +bw = −au − bv
cuales son estos vectores.
La matriz de éste sistema es � �
b −a
0(1 + x) + 4(x + x2 ) + 4(1 − 2x2 ) = 4 + 4x − 4x2
a b
(−9)(1 + x) + 10(x + x2 ) + 7(1 − 2x2 ) = −2 + x − 4x2 cuyo determinante es b2 + a2 �= 0, ası́ que es invertible y por lo tanto podemos aplicar la regla
Por lo tanto una base para Im(T ) es de Cramer para resolver el sistema
� � � �
� � � bu − av −a � � 2 � � bu − av �� � �
4 + 4x − 4x2 ; −2 + x − 4x2 � � = −a + b2 u − 2abv y � b = −2abu + a2 − b2 v
� −au − bv b � � a −au − bv �
y ası́ �� �� En consecuencia
Im(T ) = gen 4 + 4x − 4x2 ; −2 + x − 4x2
(−a2 + b2 ) u − 2abv −2abu + (a2 − b2 ) v
y r(T ) = 2. z= y w=
a2 + b2 a2 + b2
Por lo tanto, la transformación TL : R2 −→ R2 que define una reflexión respecto a la recta
L : ax + by = 0, viene dada por
6.5. Algunas Aplicaciones de las Transformaciones Li- � �
(−a2 + b2 ) u − 2abv −2abu + (a2 − b2 ) v
neales TL (u, v) = ,
a2 + b2 a2 + b 2
Finalizaremos nuestro estudio sobre las transformaciones lineales abordando algunas de las
Matricialmente, esta transformación lineal puede ser representada por
aplicaciones que tienen éstas en la ingenierı́a y en otras ramas de estudio, entre estas aplica-
� �� � � �
ciones contamos con las reflexiones, expansiones, contracciones, deformaciones y rotaciones, 1 −a2 + b2 −2ab u 1 (−a2 + b2 ) u − 2abv
daremos algunos ejemplos para mostrar cada una de estas aplicaciones. 2 2 = 2 2 2
2
a +b 2 −2ab a −b v a +b 2 −2abu + (a − b ) v

Jorge Campos 203 204 Jorge Campos


6.5. Algunas Aplicaciones de las Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

Si calculamos el determinante de la matriz de la transformación se obtiene que es −1 Al igual que en el caso de las reflexiones en R2 , también se puede probar que, en este caso,
(¡verifı́quelo!), además, es claro que es una matriz simétrica cuya traza es 0. la matriz de la transformación es una matriz simétrica con determinante −1 y traza 0.
Casos particulares de éste tipo de reflexiones, son aquellas que se hacen respecto a los ejes Ahora bien, si L es una recta en R3 la cual pasa por el origen, digamos
coordenados y respecto a la recta y = x, por ejemplo. Respecto al eje x, la recta es L : y = 0,
es decir, a = 0 y b = 1, obteniendo TL (u, v) = (u, −v). Respecto al eje y, la recta es L : x = 0, L = {(x, y, z) ∈ R3 : x = at, y = bt, z = ct para algún t ∈ R}
en éste caso a = 1 y b = 0, luego TL (u, v) = (−u, v). Finalmente, respecto a la recta y = x, donde a2 + b2 + c2 �= 0, se puede probar que la transformación lineal TL : R3 −→ R3 , que nos
o bien x − y = 0, ası́ que en éste caso a = 1 y b = −1 y ası́ TL (u, v) = (v, u). En estos casos da la reflexión respecto a la recta L, viene dada por
las matrices de reflexión son, respectivamente � 2
� � � � � � (a − b2 − c2 ) u + 2abv + 2acw
1 0 −1 0 0 1 TL (u, v, w) = ,
, y a2 + b 2 + c 2
0 −1 0 1 1 0 �
2abu + (−a2 + b2 − c2 ) v + 2bcw 2acu + 2bcv + (−a2 − b2 + c2 ) w
2 2 2
, 2 2 2
Si consideramos la recta L : 2x − 3y = 0, tenemos que a = 2 y b = −3, por tanto a +b +c a +b +c
1
TL (u, v) = 13 (5u + 12v, 12u − 5v), la matriz de reflexión en este caso es
La representación matricial de ésta transformación es la siguiente
� �  2  
1 5 12 a − b2 − c 2 2ab 2ac u
13 12 −5 1    1
2ab 2 2
−a + b − c 2
2bc v  = 2
a2 + b 2 + c 2 a + b2 + b 2
En R2 podemos también definir una reflexión respecto al origen, la cual viene dada por 2ac 2bc −a2 − b2 + c2 w
 
T0 (u, v) = (−u, −v) y cuya matriz de reflexión es −I2 . La matriz de ésta reflexión no tiene (a2 − b2 − c2 ) u + 2abv + 2acw
traza 0 sino −2 ni determinante −1 sino 1 pero sigue siendo simétrica.  2abu + (−a + b − c ) v + 2bcw 
2 2 2

2acu + 2bcv + (−a2 − b2 + c2 ) w

Ejemplo 6.16 (Reflexiones en R3 ). En R3 consideremos un plano Π (o una recta L) pasando Nótese que esta transformación lineal difiere de la anterior solamente en el signo, es decir,
por el origen. Nuestra intención es definir una transformación lineal TΠ : R3 −→ R3 (o la matriz matriz de esta transformación es la opuesta de la encontrada anteriormente, siendo
TL : R3 −→ R3 ) de tal manera que todo punto sobre el espacio sea reflejado respecto al palno la matriz de la transformación una matriz cuadrada de orden 3, entonces el determinante
Π (o respecto a la recta L). sigue siendo −1 y claro que la matriz sigue teniendo traza 0 y es simétrica.
Como en el caso de R2 , estudiado antes, la reflexión respecto al origen está dada por
Solución. Haciendo un estudio análogo al que se hizo para las reflexiones en R2 , dado un T0 (u, v, w) = (−u, −v, −w) y la matriz de reflexión es −I3 . ¿Cuáles son en éste caso las
plano Π = {(x, y, z) ∈ R3 : ax + by + cz = 0}, entonces a2 + b2 + c2 �= 0 y la transformación reflexiones respecto a los planos coordenados y respecto a los ejes coordenados?.
lineal TΠ : R3 −→ R3 , que representa la reflexión respecto al palno Π, viene dada por

(−a2 + b2 + c2 ) u − 2abv − 2acw Ejemplo 6.17 (Expansiones y Contracciones). Consideremos números fijos a, b, c > 0, las
TΠ (u, v, w) = ,
a2 + b 2 + c 2 siguientes transformaciones son expansiones (si son mayores que 1) o contracciones (si son

−2abu + (a − b + c ) v − 2bcw −2acu − 2bcv + (a2 + b2 − c2 ) w
2 2 2 menores que 1) en R3
,
a2 + b 2 + c 2 a2 + b 2 + c 2
Ta (x, y, z) = (ax, y, z) (respecto al eje x)
La representación matricial de ésta transformación es la siguiente
Tb (x, y, z) = (x, by, z) (respecto al eje y)
  
−a2 + b2 + c2 −2ab −2ac u Tc (x, y, z) = (x, y, cz) (respecto al eje z)
1    1
−2ab 2
a −b +c 2 2
−2bc v  = 2
a2 + b 2 + c 2 2 2 2 a + b 2 + b2 Las matrices que representan éstas transformaciones son, respectivamente
−2ac −2bc a +b −c w
       
(−a2 + b2 + c2 ) u − 2abv − 2acw a 0 0 1 0 0 1 0 0
 −2abu + (a2 − b2 + c2 ) v − 2bcw   0 1 
0 ,  0 b 0  y  0 1 0 
−2acu − 2bcv + (a2 + b2 − c2 ) w 0 0 1 0 0 1 0 0 c

Jorge Campos 205 206 Jorge Campos


6.5. Algunas Aplicaciones de las Transformaciones Lineales Capı́tulo 6. Transformaciones Lineales y Algunas Aplicaciones

que son matrices (elementales tipo 1) con determinante positivo y distinto de 1. Éstas trans- Por lo tanto
formaciones, como sus nombre lo indican, expanden o contraen un vector respecto a uno de Tθ (x, y) = (x cos(θ) − y sen(θ), x sen(θ) + y cos(θ))
los ejes coordenados por un factor positivo, a saber a, b o c. �
La representación matricial para Tθ es
Ejemplo 6.18 (Deformaciones). Las deformaciones en R3 son de tres tipos, éstas son � �� � � �
cos(θ) − sen(θ) x x cos(θ) − y sen(θ)
=
Tx (x, y, z) = (x + ax y + bx z, y, z) (respecto al eje x) sen(θ) cos(θ) y x sen(θ) + y cos(θ)

Ty (x, y, z) = (x, ay x + y + by z, z) (respecto al eje y) es sencillo darse cuenta que la matriz que representa la transformación tiene determinante 1
y es antisimétrica.
Tz (x, y, z) = (x, y, az x + bz y + z) (respecto al eje z) Es de hacer notar que cuando θ = π, la transformación no es otra sino una reflexión
donde ax , bx , ay , by , az , bz ∈ R son fijos. Las matrices de éstas tres transformaciones son, respecto al origen (¡verifı́quelo!).
respectivamente
     
1 ax bx 1 0 0 1 0 0 Vamos a ver qué ocurre con las rotaciones en el espacio.
 0 1 0 ,  ay 1 b y  y  0 1 0 
Ejemplo 6.20 (Rotaciones en R3 ). Definir una transformación lineal Tθ : R3 −→ R3 que
0 0 1 0 0 1 az b z 1
permita rotar, un punto (x, y, z) en el espacio, mediante un ángulo θ, medido en sentido
Al igual que en las contracciones y expansiones, en las deformaciones permanecen fijas dos antihorario, respecto a una de las ejes coordenados.
de las coordenadas, pero a diferencia de las primeras, en las que el “desplazamiento” de la
Solución. Al igual que el caso del plano, consideremos (x, y, z) ∈ R3 cualquiera. Supon-
única coordenada que varia es hecha por un factor de ella misma, en las deformaciones el
gamos que queremos rotar el punto (x, y, z) alrededor del eje x un ángulo θ, medido en
“desplazamiento” es hecho por medio de factores de las otras dos coordenadas que permanecen
sentido antihorario. Al proyectar el punto (x, y, z) sobre el plano yz obtenemos el punto
fijas. �
(0, y, z), al aplicar a éste último una rotación, sobre el plano yz, con un ángulo θ, obtene-
Tanto para las contracciones y expansiones, como para las deformaciones, existen sus si- mos el punto (0, y cos(θ) − z sen(θ), y sen(θ) + z cos(θ)), al trasladar éste punto nuevamente
milares en el plano R2 , además, podemos hacer combinaciones de éstas. al plano que contiene al punto original, obtenemos el punto deseado, el cual no es otro que
Pasemos ahora a definir la última de las aplicaciones como son las rotaciones, primero (x, y cos(θ) − z sen(θ), y sen(θ) + z cos(θ)), es decir, la transformación deseada está dada por
haremos un estudio en el plano y luego lo haremos en el espacio.
Tθ,x (x, y, z) = (x, y cos(θ) − z sen(θ), y sen(θ) + z cos(θ))
Ejemplo 6.19 (Rotaciones en R2 ). Definir una transformación lineal Tθ : R2 −→ R2 que
permita rotar, un punto (x, y) sobre el plano, mediante un ángulo θ medido en sentido anti- De manera análoga se obtienen las otras dos rotaciones que son
horario.
Tθ,y (x, y, z) = (x cos(θ) − z sen(θ), y, x sen(θ) + z cos(θ)) (rotación alrededor del eje y)
Solución. Sea (x, y) ∈ R2 cualquiera. Supongamos que θ0 es al ángulo que forma el vector
(x, y) con respecto al semieje x positivo. Si definimos Tθ (x, y) = (u, v) como lo requiere el Tθ,z (x, y, z) = (x cos(θ) − y sen(θ), x sen(θ) + y cos(θ), z) (rotación alrededor del eje z)
enunciado, entonces el ángulo que forma el vector (u, v) respecto al semieje x positivo es Las matrices en cada uno de estos casos son, respectivamente
θ + θ0 , además, la longitud de ambos vectores es fija, digamos r > 0, entonces
     
1 0 0 cos(θ) 0 − sen(θ) cos(θ) − sen(θ) 0
x2 + y 2 = r 2 = u 2 + v 2  0 cos(θ) − sen(θ)  ,  0 1 0  y  sen(θ) cos(θ) 0 
0 sen(θ) cos(θ) sen(θ) 0 cos(θ) 0 0 1
x = r cos(θ0 ) y y = r sen(θ0 )
y además Todas estas matrices son antisimétricas y tienen determinante 1.
Dejamos al lector el definir una transformación lineal que represente una rotación de un
u = r cos(θ + θ0 ) = r cos(θ) cos(θ0 ) − r sen(θ) sen(θ0 ) = x cos(θ) − y sen(θ) ángulo θ alrededor de una recta fija L.
v = r sen(θ + θ0 ) = r sen(θ) cos(θ0 ) + r cos(θ) sen(θ0 ) = x sen(θ) + y cos(θ)

Jorge Campos 207 208 Jorge Campos


Apéndices Apéndice A

Seguidamente daremos algunos apéndices que servirán para apoyar toda la teorı́a previa, Campos y Números Complejos
no forman parte ı́ntegra del curso en sı́, sin embargo, creemos que le puede servir al lector
interesado en ahondar más sobre el Álgebra Lineal, aunque el interés no es extendernos
demasiado sobre la materia. En el último de estos apéndices, el apéndice D, se dan las
demostraciones de algunos de los teoremas enunciados en los capı́tulos previos a los apéndices, A.1. Campos
aquellas que creemos son muy largas o que escapan al objetivo del curso. Esperamos les sea
de utilidad para el estudio y comprensión de la materia que se expone en este curso. Definición A.1. Un campo o cuerpo es una terna (K, +, ·), formada por un conjunto no
vacı́o K y dos operaciones binarias +, llamada suma o adición, y ·, llamada producto o
multiplicación, definidas sobre K tales que

A0. a + b ∈ K para cualesquiera a, b ∈ K (cerradura de la suma)

A1. a + b = b + a para cualesquiera a, b ∈ K (conmutatividad de la suma)

A2. (a + b) + c = a + (b + c) para cualesquiera a, b, c ∈ K (asociatividad de la suma)

A3. Existe 0 ∈ K tal que a + 0 = a para cada a ∈ K (existencia de un elemento


neutro para la suma o neutro aditivo)

A4. Para cada a ∈ K existe �


a ∈ K tal que a + �
a = 0 (existencia de un elemento
opuesto para la suma o inverso aditivo)

M0. a · b ∈ K para cualesquiera a, b ∈ K (cerradura de la multiplicación)

M1. a · b = b · a para cualesquiera a, b ∈ K (conmutatividad de la multiplicación)

M2. (a · b) · c = a · (b · c) para cualesquiera a, b, c ∈ K (asociatividad de la multipli-


cación)

M3. Existe 1 ∈ K tal que a · 1 = a para cada a ∈ K (existencia de un elemento


neutro para la multiplicación o neutro multiplicativo)

M4. Para cada a ∈ K, con a �= 0, existe �


a ∈ K tal que a · �
a = 1 (existencia de un
elemento opuesto para la multiplicación o inverso multiplicativo)

D. a · (b + c) = (a · b) + (a · c) para cualesquiera a, b, c ∈ K (distributividad de la


multiplicación respecto a la suma)

209 210
A.1. Campos Apéndice A. Campos y Números Complejos

Observación A.1. Hacemos notar que las operaciones + y · no son, en general, las opera- Ejemplo A.3. En R2 definamos las operaciones binarias + y · como sigue
ciones usuales de adición y multiplicación en R, aunque estemos usando el mismo sı́mbolo y
el mismo nombre. Además, se debe tener cuidado con los neutros aditivo y multiplicativo, al (a, b) + (c, d) = (a + c, b + d)
igual que en el caso de las operaciones + y ·, estamos usando los mismos sı́mbolos que se usan
para los números reales 0 y 1, pero estos son sólo sı́mbolos, no representan necesariamente (a, b) · (c, d) = (ac − bd, ad + bc)
números reales. Es claro que dichas operaciones son cerradas. Por otro lado
Observación A.2. Daremos a la operación + mayor jerarquı́a que a la operación ·, esto
es, la expresión (a · b) + c puede ser escrita, sin error a confusión, como a · b + c, en cambio, (a, b) + (c, d) = (a + c, b + d) = (c + a, d + b) = (c, d) + (a, b)
en la expresión a · (b + c) no podemos suprimir los paréntesis.
(a, b) · (c, d) = (ac − bd, ad + bc) = (ca − db, cb + da) = (c, d) · (a, b)
Ejemplo A.1.
lo que prueba la conmutatividad de las operaciones.
1. El ejemplo más a la mano (en nuestro caso) de un campo es el de los números reales, es
claro que R junto con las operaciones usuales + y ·, conocidas ampliamente por todos ((a, b) + (c, d)) + (x, y) = (a + c, b + d) + (x, y) = ((a + c) + x, (b + d) + y)
nosotros, es un campo. �
= (a + (c + x), b + (d + y)) = (a, b) + (c + x, d + y)
2. Otro ejemplo de un campo, bastante conocido por nosotros, es el campo de los números = (a, b) + ((c, d) + (x, y))
racionales (Q, +, ·). �
3. En cambio, el conjunto de los números enteros Z, junto con las operaciones usuales + ((a, b) · (c, d)) · (x, y) = (ac − bd, ad + bc) · (x, y)
y ·, no es un campo, pues 2 ∈ Z y 2 �= 0 pero no existe x ∈ Z tal que 2x = 1, es decir,
2 no tiene inverso multiplicativo en Z. � = ((ac − bd)x − (ad + bc)y, (ac − bd)y + (ad + bc)x)
= (acx − bdx − ady − bcy, acy − bdy + adx + bcx)
Ejemplo A.2. Sobre el conjunto Z3 = {0, 1, 2}, definamos las operaciones binarias + y ·
= (a(cx − dy) − b(cy + dx), a(cy + dx) + b(cx − dy))
mediante las siguientes tablas
= (a, b) · (cx − dy, cy + dx) = (a, b) · ((c, d) · (x, y))
+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0 Ası́ que las operaciones definidas son asociativas.
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1 (a, b) + (0, 0) = (a + 0, b + 0) = (a, b)
No es difı́cil, aunque sı́ algo engorroso, probar que Z3 , junto con estas operaciones, es un
campo. Por ejemplo, la cerradura de ambas operaciones es evidente. La conmutatividad de (a, b) · (1, 0) = (a · 1 − b · 0, a · 0 + b · 1) = (a, b)
éstas puede deducirse del hecho de que las tablas que las definen forman matrices simétricas. Por lo tanto (0, 0) es un neutro aditivo y (1, 0) es un neutro multiplicativo. Además
La existencia de neutros aditivo y multiplicativo, también se deduce fácilmente a partir de
las tablas, basta con mirar, en la primera tabla, la primera columna o primera fila, corres- (a, b) + (−a, −b) = (a + (−a), b + (−b)) = (0, 0)
pondiente al elemento 0, para darse cuenta que dicho elemento hace las veces de un neutro
a
aditivo (de hecho es el único), y basta con observar la segunda columna o segunda fila de Dado (a, b) ∈ R2 con (a, b) �= (0, 0), entonces a2 + b2 �= 0. Definamos c = y
la segunda tabla, para percatarse que el elemento 1 es un neutro multiplicativo (también es a2 + b 2
−b
único). Además, un inverso aditivo de 0 es el mismo, de 1 es 2 y de 2 es 1 (¿por qué?). Un d= . Luego
a2 + b 2
inverso multiplicativo de 1 es 1 y de 2 es 2 (¿por qué?). El lector puede verificar el resto de
las propiedades. Este campo se conoce con el nombre de enteros módulo 3. En general, si a2 −b2 −ab ab
p ∈ Z+ es un número primo, entonces sobre Zp = {0, 1, . . . , p − 1} se pueden definir opera- ac = ; bd = ; ad = y bc =
a2 + b 2 a2 + b2 a2 + b 2 a2 + b 2
ciones + y · tales que Zp , junto con estas operaciones, sea un campo, este campo se conoce
con el nombre de enteros módulo p. Cuando p no es primo, Zp no puede ser dotado de una Ası́ que
estructura de campo. � (a, b) · (c, d) = (ac − bd, ad + bc) = (1, 0)

Jorge Campos 211 212 Jorge Campos


A.1. Campos Apéndice A. Campos y Números Complejos

� � a
a −b 2. El cociente de a sobre b como = ab−1 si b �= 0.
En consecuencia (−a, −b) es un inverso aditivo de (a, b) y , es un inverso b
a2 + b2 a2 + b2
multiplicativo de (a, b) �= (0, 0). Finalmente 1
Observación A.6. Note que a−1 = a−1 1 = 1a−1 = .
(a, b) · ((c, d) + (x, y)) = (a, b) · (c + x, d + y) a
= (a(c + x) − b(d + y), a(d + y) + b(c + x)) En lo que sigue K representa un campo.
= (ac + ax − bd − by, ad + ay + bc + bx) Teorema A.2 (Leyes de Cancelación). Sean a, b, c ∈ K.
= ((ac − bd) + (ax − by), (ad + bc) + (ay + bx))
= (ac − bd, ad + bc) + (ax − by, ay + bx) 1. Si a + c = b + c, entonces a = b.
= (a, b) · (c, d) + (a, b) · (x, y) 2. Si c �= 0 y ac = bc, entonces a = b.
Por lo tanto se cumple la propiedad distributiva. En consecuencia R2 , junto con las opera- Demostración.
ciones + y · definidas al inicio del ejemplo, es un campo. �

Observación A.3. Para no recargar demasiado la notación, siempre que no haya error a 1. Supongamos que a + c = b + c.
confusión, escribiremos ab en lugar de a · b.
a+c = b+c
Observación A.4. Siempre que no haya error a confusión, nos referiremos a K como el (a + c) + (−c) = (a + c) + (−c) (sumando −c a ambos lados)
campo en lugar de la terna (K, +, ·), sobrentendiendo las operaciones binarias + y ·, esto es a + (c + (−c)) = b + (c + (−c)) (por asociatividad)
sólo para simplificar la notación. a+0 = b + 0 (por opuesto aditivo)
Teorema A.1. Sea K un campo cualquiera. Entonces a = b (por neutro aditivo)

A’3. Existe un único 0 ∈ K tal que para cada a ∈ K se cumple que a+0 = a (existencia 2. Dado que c �= 0. existe c−1 ∈ K tal que cc−1 = 1. Supongamos que ac = bc.
y unicidad del neutro aditivo)
ac = bc
A’4. Para cada a ∈ K existe un único �
a ∈ K tal que a + � a es denotado por −a
a = 0, � (ac)c−1 = (ac)c−1 (multiplicando por c−1 a ambos lados)
(existencia y unicidad del inverso aditivo)
a(cc−1 ) = b(cc−1 ) (por asociatividad)
M’3. Existe un único 1 ∈ K tal que para cada a ∈ K se cumple que a1 = a (existencia a1 = b1 (por opuesto multiplicativo)
y unicidad del neutro multiplicativo) a = b (por neutro multiplicativo)

M’4. Para cada a ∈ K � {0} existe un único �


a ∈ K tal que a�
a = 1, �
a lo denotaremos
por a−1 (existencia y unicidad del inverso multiplicativo)
Teorema A.3 (Leyes de Involución). Sea a ∈ K. Luego
Demostración. ¡Ejercicio!
1. −(−a) = a.

Observación A.5. Al conjunto K sin el neutro aditivo lo denotaremos por K∗ , esto es, 2. Si a �= 0, entonces (a−1 )−1 = a.
K∗ = K � {0}.
Demostración. ¡Ejercicio!
Definición A.2. Dados un campo K y a, b ∈ K, definamos

1. La diferencia de a menos b como a − b = a + (−b). Teorema A.4 (Ley de Absorción). Si a ∈ K, entonces a0 = 0.

Jorge Campos 213 214 Jorge Campos


A.1. Campos Apéndice A. Campos y Números Complejos

Demostración. 2. Probaremos que a + (−1)a = 0.


a0 + a0 = a(0 + 0) (por distributividad) a + (−1)a = a1 + a(−1) (por neutro multiplicativo y conmutatividad)
= a0 (por neutro aditivo) = a(1 + (−1)) (por distributividad)
= a0 + 0 (por neutro aditivo) = a0 (por opuesto aditivo)
= 0 + a0 (por conmutatividad) = 0 (por ley de absorción)
Luego, por la ley de cancelación para la suma, se tiene que a0 = 0 En consecuencia, por unicidad del opuesto aditivo, tenemos que (−1)a = −a.
3. Sólo probaremos que (−a)b = −(ab), la otra igualdad se deja como ejercicio.
Teorema A.5. Sean a, b ∈ K. Luego
(−a)b = ((−1)a)b (por la parte 2)
1. ab = 0 si y sólo si a = 0 o b = 0.
= (−1)(ab) (por asociatividad)
2. (−1)a = −a = −(ab) (por la parte 2)
3. (−a)b = −(ab) = a(−b), en consecuencia, podemos escribir −ab en lugar de −(ab) sin 4. ¡Ejercicio!
error a confusión.
5. Por unicidad del neutro aditivo, basta probar que (a + b) + (−a − b) = 0
4. (−a)(−b) = ab.
(a + b) + (−a − b) = (b + a) + ((−a) + (−b)) (por conmutatividad y por notación)
5. −(a + b) = −a − b.
= ((b + a) + (−a)) + (−b) (por asociatividad)
6. Si a �= 0 y b �= 0, entonces (ab)−1 = a−1 b−1 . = (b + (a + (−a))) + (−b) (por asociatividad)
7. Si a �= 0, entonces (−a)−1 = − (a−1 ). = (b + 0) + (−b) (por inverso aditivo)
= b + (−b) (por neutro aditivo)
Demostración.
= 0 (por inverso aditivo)
1. Supongamos primero que ab = 0.
De donde −(a + b) = −a − b.
Si a = 0, no hay nada que probar, de lo contrario, existe a−1 ∈ K tal que aa−1 = 1, ası́
que 6. ¡Ejercicio!

b = b1 (por neutro multiplicativo) 7. ¡Ejercicio!


= b(aa−1 ) (por inverso multiplicativo)
= (ba)a−1 (por asociatividad)
Observación A.7. La parte 7 del teorema A.5 nos permite escribir −a−1 en lugar de (−a)−1
= (ab)a−1 (por conmutatividad)
o − (a−1 ) sin que haya error a confusión.
= 0a−1 (por hipótesis)
= a−1 0 (por conmutatividad) Ejemplo A.4. Sobre el conjunto unitario K = {a} definamos las operaciones a + a = a y
a · a = a. Entonces K junto con estas dos operaciones es un campo.
= 0 (por la ley de absorción)
Note que en este caso 0 = a = 1, éste es el único campo (salvo isomorfismos1 ) donde
Supongamos ahora que a = 0 o b = 0. los neutros aditivo y multiplicativo coinciden, es decir, si K es un campo con dos o más
elementos, entonces 0 �= 1 (¡pruébelo!)
Si a = 0, entonces ab = 0b = b0 = 0 (¿por qué?)

Si b = 0, entonces ab = a0 = 0 (¿por qué?) 1
Un isomorfismo entre los campos K1 y K2 es una función biyectiva f : K1 → K2 que preserva las
En cualquier caso, se tiene que ab = 0, con lo cual concluye la prueba. operaciones de campo, esto es, f (a + b) = f (a) + f (b) y f (ab) = f (a)f (b) para cualesquiera a, b ∈ K1 .

Jorge Campos 215 216 Jorge Campos


A.1. Campos Apéndice A. Campos y Números Complejos

Definición A.3. Sea K0 un subconjunto no vacı́o de un campo K. Diremos que K0 es un 2. Consideremos el campo R2 dado en el ejemplo A.3. Entonces
subcampo de K si K0 junto con las operaciones + y ·, definidas sobre K, es también un (1, 2)2 = (1, 2)1 · (1, 2) = (1, 2) · (1, 2) = (1 · 1 − 2 · 2, 1 · 2 + 2 · 1) = (−3, 4)
campo. Si adicionalmente K0 �= K, se dice que K0 es un subcampo propio de K.
(1, 2)3 = (1, 2)2 · (1, 2) = (−3, 4) · (1, 2) = (−3 · 1 − 4 · 2, −3 · 2 + 4 · 1) = (−11, −2).
� � � �
Ejemplo A.5. Sea K un campo cualquiera. Entonces 1 −2 1 2
(1, 2)−1 = , = , −
1 2 + 22 1 2 + 22 5 5
1. K0 = {0} es un subcampo de K. � � �
� �
−2 2 −1 −1 3 4
(1, 2) = (1, 2) = (−3, 4) = − , −
2. K es un subcampo de si mismo. � 25 25
� �
−3
� �
3 −1 −1 11 2
3. Q es un subcampo (propio) de R. � (1, 2) = (1, 2) = (−11, −2) = − ,
125 125
4. Q2 es un subcampo (propio) de R2 (ver el ejemplo A.3). � �
Teorema A.7. Sean a, b ∈ K cualesquiera y m, n ∈ Z+ . Entonces
Teorema A.6. Sean K1 , K2 , K3 tres campos tales que K1 es un subcampo de K2 y K2 es un n
1. (a−1 ) = a−n siempre que a �= 0.
subcampo de K3 . Entonces K1 es un subcampo de K3 .
2. (ab) = an bn .
n

Demostración. ¡Ejercicio! � a � n an
3. = n siempre que b �= 0.
b b
Definición A.4. Consideremos un campo K. Dado un elemento cualquiera a ∈ K y un 4. am an = am+n .
número entero n, podemos definir la potencia n-ésima de a, denotado por an , como sigue
am
 5. = am−n siempre que a �= 0.
si a = 0 y n ≥ 1 an
 0


1 si a �= 0 y n = 0 6. (am )n = amn
an =

 an−1 a si a �= 0 y n ≥ 1 n � �
� � �
 −n −1 n n n!
(a ) si a �= 0 y n ≤ −1 7. (a + b)n = an−k bk , donde = .
k=0
k k k!(n − k)!
Observación A.8. Obsérvese que al igual que en R, ¡00 no está definido!, además a0 = 1 y
Demostración. ¡Ejercicio!
a1 = a0 a = aa0 = a1 = a para cada a �= 0, de donde a1 = a para cada a ∈ K.

Ejemplo A.6. Podemos definir raı́ces n-ésimas de un elemento de un campo K de manera análoga a como
se define en R.
1. Consideremos el campo Z3 (ver ejemplo A.2). Entonces
Definición A.5. Consideremos un campo K. Sean n ∈ √ Z+ y a ∈ K. Diremos que b ∈ K
2 1 es una raı́z n-ésima de a si bn = a. Denotaremos por n a o bien a1/n a todas las raı́ces
2 = 2 · 2 = 2 · 2 = 1;
n-ésimas de a.
23 = 22 · 2 = 1 · 2 = 2. Observación A.9. Al igual que en el caso real, las raı́ces de orden
√ 2 (raı́ces cuadradas) de
−1
un elemento a de un campo K, las denotaremos simplemente por a.
2 = 2 (¿por qué)
� �−1 Observación A.10. Un elemento a de un campo K puede tener varias raı́ces n-ésimas, eso
2−2 = 22 = 1−1 = 1 mismo ocurre en R, por ejemplo, 2 y −2 son raı́ces cuadradas de 4.
−3
� 3 �−1 Ejemplo A.7. Según el ejemplo anterior, en el campo Z3 , una raı́z cuadrada de 1 es 2
2 = 2 = 2−1 = 2
(¿existe otra?) y una raı́z cúbica de 2 es 2 (¿existe otra?); y en el campo R2 , (1, 2) es una
� raı́z cuadrada de (−3, 4) y una raı́z cúbica de (−11, −2). �

Jorge Campos 217 218 Jorge Campos


A.2. El Campo de los Números Complejos Apéndice A. Campos y Números Complejos

A.2. El Campo de los Números Complejos Existe una tercera manera de ver a un número complejo, llamada forma polar de un
número complejo, la cual estudiaremos más adelante.
2 √ √
En los números reales, la ecuación x + 1 = 0 no tiene solución, por lo cual, a pesar de
toda la riqueza de propiedades con que goza el campo R, se hizo necesario “extender ” R a Ejemplo A.9. Si z = 2 + 3i y w = 1 + 2i, entonces
� √ � √
un campo en el cual la ecuación en cuestión tenga solución y del cual R sea un subcampo, −z = −2 + − 3 i = −2 − 3i;
dicho campo es llamado el campo de los números complejos.
Sea i la solución de la ecuación x2 + 1, esto es, i2 + 1 = 0 o equivalentemente i2 = −1, i se √ � √ � √
1 − 2 1 − 2 1 2
conoce con el nombre de unidad imaginaria, definamos el conjunto C = {a + bi : a, b ∈ R} w−1 = �√ �2 + �√ �2 i = + i= − i;
12 + 2 12 + 2 3 3 3 3
y sobre éste definamos las operaciones binarias + y · como sigue
� √ � √ �√ √ � �√ √ �
(a + bi) + (c + di) = (a + c) + (b + d)i (A.1) z + w = 2 + 3i + (1 + 2i) = (2 + 1) + 3+ 2 i=3+ 3 + 2 i;
(a + bi) · (c + di) = (ac − bd) + (ad + bc)i (A.2) �
√ �� √ � � √ √ � � √ √ �
zw = 3i 1 + 2i = 2 · 1 − 3 · 2 + 2 · 2 + 3 · 1 i
2+
Entonces C, junto con estas operaciones, es un campo (¡pruébelo!), el cual llamaremos � √ � � √ √ �
campo de los números complejos. = 2− 6 + 2 2+ 3 i
Definición A.6. Dado un número complejo z = a + bi, los números reales Re(z) = a �
e Im(z) = b son llamados parte real y parte imaginaria, respectivamente, del número
complejo z, cuando Re(z) = 0, decimos que z es un número imaginario puro y cuando Ejemplo A.10. Sean z y w son como en el ejemplo A.9. Entonces
� √ � � √ � �√ √ �
Im(z) = 0, entonces z ∈ R. w − z = w + (−z) = 1 + 2i + −2 − 3i = −1 + 2 − 3 i;
Ejemplo A.8.√ √ � √ � � √ � �√ √ �
Si z = 1 + 2i, entonces Re(z) = 1, Im(z) = 2. � z − w = z + (−w) = 2 + 3i + −1 − 2i = 1 + 3− 2 i
Definición A.7. Dados dos números complejos z = a + bi y w = c + di, diremos que z y w �
son iguales si a = c y b = d, en cuyo caso escribiremos z = w, esto es, z = w si y sólo si
Re z = Re w e Im z = Im w.
Definición A.8. Si z = a + bi, entonces el número√ complejo z = a + (−b)i = a − bi es
llamado el conjugado de z y el número real |z| = a2 + b2 es llamado valor absoluto o
Compare las operaciones dadas en (A.1) y (A.2) con las definidas en el ejemplo A.3. módulo de z. Note que cuando z ∈ R, entonces |z| coincide con el valor absoluto en R.

En realidad el campo C y el campo dado en el ejemplo A.3 pueden ser vistos como el Ejemplo A.11. Si z = 5 + 2i, entonces
“mismo ” campo (son isomorfos), es decir, un número complejo puede ser visto como un �� � �� �
para ordenado (a, b) ∈ R2 o como una expresión de la forma a+bi, llamada forma binómica, √ √ √ 2 √ 2
z = 5 + 2i = 5 − 2i; |z| = 5 + 22 = 3; |z| = 5 + (−2)2 = 3
con a, b ∈ R e i2 = −1.
Por lo tanto, si z = a + ib, entonces −z = −a + (−b)i además, si z = a + bi �= 0, entonces �
a2 + b2 �= 0 y
a −b Ejemplo A.12. Sean z y w son como en el ejemplo A.9. Entonces
z −1 = 2 + i � √ � √ √
a + b 2 a2 + b 2 � √ � 1 √
z 2 1 2 1 √ 2
Es claro que R ⊂ C y además, se puede probar que las operaciones definidas en (A.1) = zw−1 = 2 + 3i − i = 2· −2· i + 3i · − 3i · i
w 3 3 3 3 3 3
y (A.2) son extensiones de las operaciones + y · de R, esto es, si z, w ∈ C son tales que √ √ √ √ √ √
Im(z) = 0 = Im(w), entonces la suma y la multiplicación de z y w, usando las fórmulas (A.1) 2 2 2 3 6 2 2 2 2 3 6
= − i+ i− i = − i+ i− (−1)
y (A.2), coincide con la suma y la multiplicación de z y w vistos como números reales, en 3 3 3 3 � 3 √3 � �3√ 3 �
√ √ √ √
consecuencia R es un subcampo de C. 2 2 2 3 6 2+ 6 3−2 2
Cuando operamos con números complejos expresados de la forma a + bi, estos pueden ser = − i+ i+ = + i
3 3 3 3 3 3
vistos como polinomios en i, tomando en cuenta que i2 = −1, esto facilita el trabajo pues no
harı́a falta recordar las fórmulas (A.1) y (A.2). �

Jorge Campos 219 220 Jorge Campos


A.2. El Campo de los Números Complejos Apéndice A. Campos y Números Complejos

√ √
Teorema A.8. Para cualquiera z ∈ C se tiene que 1. |z| = a2 + b2 ≥ 0, además |z| = a2 + b2 = 0 si y sólo si a = 0 = b o equivalentemente
z = 0.
1. z = z. � √
2. |z| = a2 + (−b)2 = a2 + b2 = |z|
2. (−z) = −(z). � √
| − z| = | − a − bi| = |(−a) + (−b)i| = (−a)2 + (−b2 ) = a2 + b2 = |z|
3. z −1 = (z)−1 siempre que z �= 0.
3. Si z �= 0, entonces
4. z + z = 2 Re(z) y z − z = 2 Im(z)i.

5. z ∈ R si y sólo si z = z. �� �2 � �2 �
−1 a −b a2 + b 2 1 1
|z | = + = =√ = = |z|−1 .
Demostración. Sea z = a + bi. Entonces a2 + b2 a2
+ b2 (a2 + b2 )2 a2 + b2 |z|

1. z = a + bi = a − bi = a + (−b)i y ası́
4. zz = (a + bi)(a − bi) = a2 − abi + abi − b2 i2 = a2 + b2 = |z|2
z = a + (−b)i = a − (−b)i = a + bi = z
5. Sabemos que a2 ≤ a2 + b2 y b2 ≤ a2 + b2 . Por lo tanto
2. (−z) = −a − bi = −a − (−b)i = −(a − bi) = −(z)
√ √
a −b | Re(z)| = |a| = a2 ≤ a2 + b2 = |z|
3. Si z �= 0, entonces z −1 = + i
a2 + b 2 a2 + b 2 √ √
a −b a b | Im(z)| = |b| = b2 ≤ a2 + b2 = |z|
Ası́ que z −1 = 2 − i= 2 + i y por lo tanto
a + b 2 a2 + b 2 a + b 2 a2 + b 2
a −(−b) a b
(z)−1 = (a + (−b)i)−1 = 2 + i= 2 + i = z −1
a + (−b)2 a2 + (−b)2 a + b 2 a2 + b 2 No es difı́cil probar, en virtud de la parte 4 del teorema A.9, que
4. z + z = (a + bi) + (a − bi) = a + bi + a − bi = 2a = 2 Re(z) z z·w
=
z − z = (a + bi) − (a − bi) = a + bi − a + bi = 2bi = 2 Im(z)i w |w|2

5. z = z si y sólo si 2 Im(z)i = z − z = 0 o equivalentemente Im(z) = 0 que a su vez Teorema A.10. Sean z, w ∈ C cualesquiera y n ∈ Z+ . Entonces
equivale a que z ∈ R.
1. z + w = z + w.

2. zw = z · w.
Teorema A.9. Para cualquiera z ∈ C tenemos que �z� z
3. = siempre que w �= 0.
1. |z| ≥ 0 y además |z| = 0 si y sólo si z = 0. w w

2. |z| = | − z| = |z|. 4. z n = (z)n .

3. |z −1 | = |z|−1 siempre que z �= 0. Demostración. Sean z = a + ib y w = c + di. Entonces


2
4. z · z = |z| . 1. z + w = (a + c) + (b + d)i = (a+c)−(b+d)i = a+c−bi−di = (a−bi)+(c−di) = z +w
5. | Re(z)| ≤ |z| y | Im(z)| ≤ |z|.
2. zw = (ac − bd) + (ad + bc)i = (ac − bd) − (ad + bc)i = ac − adi − bci + bdi2
Demostración. Sea z = a + bi. Entonces = (a − bi)(c − di) = z · w

Jorge Campos 221 222 Jorge Campos


A.2. El Campo de los Números Complejos Apéndice A. Campos y Números Complejos

3. Supongamos que w �= 0. Entonces Ejemplo A.13.


�z� z
= (zw−1 ) = zw−1 = z (w)−1 = . 1. Calculemos las potencias de i.
w w
n � � n � � n � � i0 = 1
� n n−k � n n−k � n n−k
4. z n = (a + ib)n = a (ib)k = a (ib)k = a (ib)k i1 = i
k k k
n � �
k=0
n � �
k=0 k=0 i2 = −1
� n n−k � �k � n n−k
= a ib = a (−ib)k = (a + (−ib))n = (a − ib)n i3 = i2 i = (−1)i = −i
k k
k=0
n
k=0 i4 = i3 i = (−i)i = −i2 = −(−1) = 1
= (z) .
Como i3 i = 1, entonces i−1 = i3 = −i. Además
1 1
i−2 = = = −1
Teorema A.11. Sean z, w ∈ C cualesquiera y n ∈ Z+ . Entonces i2 −1
1 1 1
i−3 = 3 = = − = −(−i) = i
1. |zw| = |z| · |w|. i −i i
�z� |z| En general, dado que para cada n ∈ Z existen p ∈ Z y k ∈ {0, 1, 2, 3} tales que n = 4p+k
� �
2. � � = siempre que w �= 0. (¿por qué?), entonces se tiene que
w |w|

3. |z + w| ≤ |z| + |w|. 
 1 si k = 0

i si k = 1
4. |z n | = |z|n . in = i4p+k = ik =

 −1 si k = 2

−i si k = 3
Demostración.
Por ejemplo
1. |zw|2 = (zw)(zw) = zwz w = (zz)(ww) = |z|2 |w|2 = (|z| · |w|)2 por lo tanto i15 = i4·3+3 = i3 = −i
−14
|zw| = |z| · |w| i = i4(−4)+2 = i2 = −1

2. Si w �= 0, entonces
�z� � 2. Si z = −3 + 2i, entonces
� � � −1 �� � � |z|
� � = zw = |z| · �w−1 � = |z| · |w|−1 = z 2 = zz 1 = zz = (−3 + 2i)(−3 + 2i)
w |w|
= (−3)(−3) + (−3)2i + 2i(−3) + (2i)(2i) = 9 − 6i − 6i − 4 = 5 − 12i
3. |z + w|2 = (z + w)(z + w) = (z + w)(z + w) = zz + zw + zw + ww
= |z|2 + zw + z w + |w|2 = |z|2 + zw + zw + |w|2
z 3 = zz 2 = (−3 + 2i)(5 − 12i) = (−3)5 + (−3)(−12i) + (2i)5 + (2i)(−12i)
= |z|2 + 2 Re(zw) + |w|2 ≤ |z|2 + 2| Re(zw)| + |w|2
≤ |z|2 + 2|zw| + |w|2 = |z|2 + 2|z| · |w| + |w|2 = |z|2 + 2|z| · |w| + |w|2 = −15 + 36i + 10i + 24 = 9 + 46i
= (|z| + |w|)2 �
ası́ que
|z + w| ≤ |z| + |w| Sabemos que un polinomio de grado n, con coeficientes reales, no necesariamente tiene
n raı́ces reales, sin embargo, esto no ocurre en los complejos, como veremos en el teorema
4. |z n |2 = z n z n = z n z n = (zz)n = (|z|2 )n = (|z|n )2 , luego |z n | = |z|n . que enunciaremos a continuación, el cual se conoce como el Teorema Fundamental del
Álgebra, no daremos una demostración de este teorema pues escapa al objetivo del curso,
para una demostración de éste, puede remitirse a algún libro de Álgebra Abstracta.

Jorge Campos 223 224 Jorge Campos


A.2. El Campo de los Números Complejos

Teorema A.12 (Teorema Fundamental del Álgebra (TFÁ)). Sea p(z) = a0 +a1 z +· · ·+an z n
con a0 , a1 , . . . , an ∈ C y an �= 0. Entonces existen z1 , z2 , . . . , zn ∈ C tales que
p(z) = an (z − z1 )(z − z2 ) · · · (z − zn )
es decir, p(z) tiene n raı́ces complejas, no necesariamente distintas.
El teorema a continuación es una consecuencia del TFÁ. Apéndice B
Teorema A.13. Sea p(z) = a0 + a1 z + · · · + an z n con a0 , a1 , . . . , an ∈ R y an �= 0.
1. Si α ∈ R, entonces p(α) ∈ R.
2. Si α ∈ C es una raı́z de p(z), entonces α es también una raı́z de p(z).
Algo más sobre Espacios Vectoriales
3. p(z) puede expresarse como el producto de polinomios con coeficientes reales que son,
a lo sumo, polinomios cuadráticos irreducibles2 .
Demostración.
B.1. K-Espacios Vectoriales
1. Si α ∈ R, entonces p(α) = a0 + a1 α + · · · + an αn es la suma de productos de números En esta sección K representa un campo cualquiera y en general K = R o K = C.
reales, en consecuencia p(α) ∈ R.
Definición B.1. Un K-espacio vectorial o espacio vectorial sobre K es una terna
2. Supongamos que α ∈ C es una raı́z de p(z), es decir, p(α) = a0 + a1 α + · · · + an αn = 0. (V, +, ·) formada por un conjunto no vacı́o V, cuyos elementos llamaremos vectores, y dos
Ası́ que operaciones binarias + : V × V −→ V, llamada adición vectorial, y · : K × V −→ V,
llamada multiplicación por escalar, satisfaciendo las siguientes condiciones
p(α) = a0 + a1 α + · · · + an αn = a0 + a1 α + · · · + an (αn )
= a0 + a1 α + · · · + (an αn ) = (a0 + a1 α + · · · + an αn ) A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial)
= 0
A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición
Es decir, α es también una raı́z de p(z).
vectorial)
3. Según el TFÁ, existen z1 , z2 , . . . , zn ∈ C tales que p(z) = an (z − z1 )(z − z2 ) · · · (z − zn ).
A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la
Sea j ∈ {1, . . . , n} cualquiera. Si zj ∈ R, entonces z − zj es un polinomio de grado adición vectorial)
uno con coeficientes reales, sino, por la parte 2, existe k ∈ {1, . . . , n} tal que k �= j y
zj = zk , por lo tanto A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento
(z − zj )(z − zk ) = (z − zj )(z − zj ) = z 2 − zj z − zj z + zj zj = z 2 − (zj + zj )z + |zj |2 neutro para la adición vectorial)
= z 2 − 2 Re(zj )z + |zj |2
A4. Para cada v ∈ V existe v � ∈ V tal que v + v � = 0/V (existencia de un elemento
el cual es un polinomio irreducible (¿por qué?) de grado 2 con coeficientes reales. opuesto para la adición vectorial)
En consecuencia p(z) puede expresarse como el producto de polinomios con coeficientes
reales que son, a lo sumo, polinomios cuadráticos irreducibles. M0. α · v ∈ V para cualesquiera α ∈ K y v ∈ V (cerradura de la multiplicación
por escalar)

Observación A.11. Notemos que las raı́ces complejas, que no son reales, de un polinomio M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ K y v ∈ V (distributividad
con coeficientes reales vienen en pareja, según la parte 2 del teorema A.13, por lo tanto todo de la multiplicación por escalar respecto a la adición escalar)
polinomio con coeficientes reales de grado impar tiene al menos una raı́z real.
M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ K y u, v ∈ V (distributividad
2
Un polinomio cuadrático con coeficientes reales es irreducible si no tiene raı́ces reales. de la multiplicación por escalar respecto a la adición vectorial)

Jorge Campos 225 226


B.1. K-Espacios Vectoriales Apéndice B. Algo más sobre Espacios Vectoriales

n
� m

M3. (αβ)·v = α ·(β ·v) = β ·(α ·v) para cualesquiera α, β ∈ K y v ∈ V (asociatividad
Dados α ∈ K y p(x), q(x) ∈ K[x], con p(x) = ai xi y q(x) = bi xi , definamos
de la multiplicación escalar y la multiplicación por escalar)
i=1 i=1

M4. 1 · v = v para cada v ∈ V (existencia de un elemento neutro para la r


� n

multiplicación por escalar) p(x) + q(x) = (ai + bi )xi y αp(x) = αai xi
i=1 i=1
Observación B.1. Como ya es costumbre, y en aras de simplificar la notación, nos referi-
remos al conjunto V como el K-espacio vectorial, en lugar de (V, +, ·), sobrentendiendo las donde r = máx{m, n}, ai = 0 para i > n y bi = 0 para i > m.
operaciones + y ·; y siempre que no haya error a confusión. En el mismo orden de ideas, en Como antes, note que R[x] = P[x]. �
lugar de escribir α · v, escribiremos αv, de nuevo, siempre que no haya error a confusión.
Finalmente, daremos mayor jerarquı́a a la operación + que a la operación ·. 4. En el capı́tulo 1, la definición 1.1 puede variarse tomando K en lugar de R, obteniendo
matrices sobre el campo K en lugar de matrices reales, denotaremos por Mm×n (K) al
Ejemplo B.1.
conjunto formado por todas las matrices sobre K de orden m × n. Sobre este conjunto
1. Sea n ∈ Z+ cualquiera. Definamos definamos las operaciones binarias + y · de manera análoga a las dadas en las defini-
ciones 1.5 y 1.6, respectivamente, sólo se debe cuidar que los escalares en la definición
Kn = {(x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn ∈ K}, 1.6 son elementos de K. Luego (Mm×n (K), +, ·) es un K-espacio vectorial.
es decir, Kn es el conjunto formado por las n-uplas ordenadas cuyas componentes son Los resultados y conceptos dados en los capı́tulos 1 y 2, en las secciones 5.1 y 5.2 del
elementos de K. Sobre Kn definamos las operaciones binarias + y · como sigue capı́tulo 5 y la sección 6.3 del capı́tulo 6, siguen siendo válidos para las matrices en
Mm×n (K), por ejemplo, podemos hablar de matrices triangulares, escalonadas, reduci-
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) das por filas, o también de operaciones elementales por filas y columnas, sistemas de
ecuaciones lineales, determinantes de matrices, inversa de una matriz, espacios fila y
α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ) columna, espacios nulo e imagen, ası́ como rango y nulidad, autovalores y autoespa-
donde α ∈ K y (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Kn . Ası́ que (Kn , +, ·) es un K-espacio cios, entre otros conceptos. También son válidos los teoremas dados en los capı́tulos y
vectorial. � secciones antes mencionados, al usar matrices en Mm×n (K), excepto el teorema 5.9 y
el corolario 5.11. �
2. Dado n ∈ N definimos Kn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ K}. Sobre Kn [x]
se definen las operaciones binarias + y · de la siguiente manera 5. Sean a, b ∈ R con a < b y K un campo cualquiera. Consideremos el conjunto
F ([ a , b ] , K) formado por todas la funciones definidas en [ a , b ] con valores en K
(a0 + a1 x + · · · + an xn ) + (b0 + b1 x + · · · + bn xn ) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn y definamos las operaciones + y · dadas, de manera natural, por
α · (a0 + a1 x + · · · + an xn ) = (αa0 ) + (αa1 )x + · · · + (αan )xn
(f + g)(x) = f (x) + g(x) y (α · f )(x) = αf (x)
con α ∈ K y a0 + a1 x + · · · + an xn , b0 + b1 x + · · · + bn xn ∈ Kn [x]. Se puede probar que
(Kn [x], +, ·) es un K-espacio vectorial. para cualesquiera α ∈ K y f, g ∈ F ([ a , b ] , K). Entonces (F ([ a , b ] , K) , +, ·) es un
K-espacio vectorial.
El conjunto Kn [x] está formado por todos los polinomios de grado menor o igual a n
en la variable x con coeficientes en K, incluyendo el polinomio nulo. Observe que F ([ a , b ] , R) = F [ a , b ]. �
Note que Rn [x] = Pn [x]. �
Los cinco K-espacios vectoriales, Kn , Kn [x], K[x], Mm×n (K) y F ([ a , b ] , K), del ejemplo
3. Sea K[x] el conjunto formados por todos los polinomios en la variable x con coefiecientes B.1, no son mas que las “extensiones ” de sus similares en R, es decir, extensiones de los
en K y de cualquier grado, incluyendo el polinomio nulo, esto es, p(x) ∈ K[x] si y sólo espacios vectoriales reales Rn , Pn [x], P[x], Mm×n (R) y F [ a , b ], respectivamente, los cuales
si existen n ∈ Z+ y a0 , a1 , . . . , an ∈ K tales que han sido estudiados suficientemente. Dichas extensiones son posibles debido a que las propie-
n
dades de las operaciones + y ·, sobre cada uno de los espacios vectoriales reales Rn , Pn [x],
� P[x], Mm×n (R) y F [ a , b ], sólo dependen de las propiedades de campo de las operaciones +
p(x) = a0 + a1 x + · · · + an xn = ai x i
i=1
y · sobre R.

Jorge Campos 227 228 Jorge Campos


B.2. Espacios con Producto Interno Apéndice B. Algo más sobre Espacios Vectoriales

Ejemplo B.2. R puede ser visto como un espacio vectorial sobre el campo Q de números ra- Un K-espacio vectorial, sobre el cual se define un producto interno, es llamado espacio
cionales, basta considerar las operaciones + como la suma usual de números reales (vectores) con producto interno (EPI). Los productos internos también se conocen como productos
y · la multiplicación usual de un número racional (escalar) y un número real (vector). interiores, productos escalares y productos punto.
� Ejemplo B.4. Todos los productos internos dados en los ejemplos 4.1, 4.2, 4.3 y 4.4 del
Ejemplo B.3. Dado un campo K, el conjunto KN = {(xn )n∈N : xn ∈ K, para todo n ∈ N} capı́tulo 4, pueden ser generalizodos a sus similares K-espacios vectoriales. A continuación
(espacio de sucesiones sobre K) es un K-espacio vectorial, las operaciones + y por · son daremos estas generalizaciones.
definidas de manera “natural” como 1. En Kn se define el producto interno usual o euclidiano como sigue
n

(xn )n∈N + (yn )n∈N = (zn )n∈N y α · (xn )n∈N = (wn )n∈N �u , v� = ui vi donde u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) ∈ Kn .
i=1
donde, para cada n ∈ N, zn = xn + yn y wn = αxn . Como en el caso de Rn , podemos definir en Kn el producto interno ( producto interno
�n

La gran mayorı́a de los resultados y conceptos dados en el capı́tulo 3, por ejemplo, la euclidiano ponderado) �u , v� = pi ui vi donde p1 , p2 , . . . , pn ∈ R+ son números
unicidad del neutro y el inverso aditivo, garantizadas por el teorema 3.1, siguen siendo válidos i=1
fijos, u y v son como antes. �
para un K-espacio vectorial, esto permite definir la resta de vectores. Uno de los conceptos
que se dan el capı́tulo 3 y que podemos extenderlo a un K-espacio vectorial, y que además 2. En Mm×n (K) se define el producto interno euclidiano, usual o estándar, análogo
debemos resaltar, es el de subespacio vectorial, no es el único concepto a resaltar, pero creemos al caso de Mm×n (R), como sigue
que es uno de los más importantes, por ejemplo, la intersección arbitraria1 de subespacios de � � �m � n
V, es también un subespacio de V. También algunos conceptos y resultados dados en dicho T
�A , B� = tr AB = aij bij
capı́tulo, tales como combinación lineal, conjunto generador y espacios con producto interno, i=1 j=1
pueden generalizarse un poco más, como se verá más adelante. Nótese que los conceptos
de combinación lineal y conjunto generador, y todos los resultados que dependen de estos donde A = (aij )m×n , B = (bij )m×n ∈ Mm×n (K). Como en el caso de Kn , también
conceptos, que se dieron en el capı́tulo 3, están dados sólo para una cantidad finita de vectores, podemos usar una ponderación o peso en éste producto interno, digamos
acá extenderemos estos conceptos a cojuntos infinitos. � T
� � m �n
�A , B� = tr AB = pij aij bij
i=1 j=1

B.2. Espacios con Producto Interno donde pij ∈ R+ para cualesquiera i ∈ {1, . . . , m} y j ∈ {1, . . . , n} son números fijos. �

En esta sección y en las que siguen, a menos que se diga lo contrario, trataremos con 3. Sean a, b ∈ R con a < b y K un campo. Consideremos el conjunto C 0 ([ a , b ] , K)
K-espacios vectoriales. formado por todas la funciones continuas definidas en [ a , b ] con valores en K. Entonces
C 0 ([ a , b ] , K) es un espacio vectorial (es la “extensión ” de C 0 [ a , b ]), más aún, como
Definición B.2. Un producto interno sobre un K-espacio vectorial V es una función que en el caso real, C 0 ([ a , b ] , K) es un subespacio de F ([ a , b ] , K). En C 0 ([ a , b ] , K), la
a cada par de vectores u, v ∈ V le asigna un elemento �u , v� ∈ K y que satisface las siguientes función � b
condiciones:
�f , g� = f (x)g(x)dx
a
1. �u + αv , w� = �u , w� + α �v , w� para cualesquiera α ∈ K y u, v, w ∈ V (linealidad
es un producto interno ( producto interno usual en C 0 ([ a , b ] , K)), donde
en la primera variable).
f, g ∈ C 0 ([ a , b ] , K).
2. �u , v� = �v , u� (propiedad hermitiana). Para ponderar en este caso, consideremos un función real positiva p ∈ C 0 ([ a , b ] , R+ )
y definamos � b
3. �v , v� ≥ 0 y además �v , v� = 0 si y sólo si v = 0/V (definida positiva).
�f , g� = p(x)f (x)g(x)dx
1 a
Dada cualquiera cantidad, finita o no, numerable o no, de subespacios de un espacio vectorial, la inter-
sección de todos estos es también un subespacio de dicho espacio vectorial. �

Jorge Campos 229 230 Jorge Campos


B.3. Espacios Normados Apéndice B. Algo más sobre Espacios Vectoriales

4. En Kn [x] las siguientes funciones son productos internos. Para p(x), q(x) ∈ Kn [x] se Ejemplo B.5. Es claro que todos los ejemplos de norma dados en la sección 4, también
definen sirven como ejemplos acá. Además, en un espacio vectorial de dimensión finita, siempre es
posible definir una norma, es más, siempre es posible definir un producto interno. �
a) El producto interno usual en Kn [x] es el producto interno considerado en
C 0 ([ a , b ] , K) cuando a = −1 y b = 1. Esto es Ejemplo B.6. Una norma sobre C 0 ([ a , b ] , K) es la siguiente
� 1 �f � = máx{|f (x)| : x ∈ [ a , b ]}
�p , q� = p(x)q(x)dx
−1 debido a la cerradura del intervalo y a la continuidad de las funciones, se garantiza la buena
definición de ésta función, se deja al lector probar que, en efecto, ésta función es una norma.
n
� �
b) �p , q� = p(i)q(i).
i=0 Ejemplo B.7. Sobre Kn una norma es la siguiente
n

c) �p , q� = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn . �x� = máx{|xi | : 1 ≤ i ≤ n}
i=0
más aún, podemos extender esta norma a Mm×n (K), esto es, una norma sobre Mm×n (K) es
¿Cómo podrı́amos ponderar estos últimos dos productos internos? �
�A� = máx{|aij | : 1 ≤ i ≤ m y 1 ≤ j ≤ n}
Observación B.2. Los resultados dados en el capı́tulo 4, referentes a producto interno y
norma inducida por un producto interno, siguen siendo válidos para el caso que nos ocupa �
actualmente. Observación B.5. Las normas dadas en los ejemplos B.6 y B.7 no provienen de un producto
interno.
B.3. Espacios Normados
B.4. Bases para Espacios Vectoriales de Dimensión In-
Definición B.3. Una función real � · � definida sobre un K-espacio vectorial V es llamada
una norma si satisface las siguientes condiciones: finita
1. �v� ≥ 0 para cada v ∈ V y �v� = 0 si y sólo si v = 0/V (no negatividad). Ya hemos hablado de espacios vectoriales de dimensión infinita, por ejemplo P[x] y F [ a , b ]
(ver los ejemplos 3.20 y 3.21), sin embargo, no hemos ahondado en lo que se refiere a las bases
2. �αv� = |α|�v� para cualesquiera α ∈ K y v ∈ V (homogeneidad). para estos espacios.
Comencemos por definir una combinación lineal de un conjunto de vectores, no necesaria-
3. �u + v� ≤ �u� + �v� para cualesquiera u, v ∈ V (desigualdad triangular). mente finito.

Un K-espacio vectorial, sobre el cual se define una norma, es llamado espacio vectorial Definición B.4. Sean V un K-espacio vectorial y S ⊂ V. Diremos que un vector v ∈ V es
normado (EVN). La norma de un vector también se conoce como módulo. combinación lineal de los elementos de S si existen escalares α1 , α2 , . . . , αn ∈ K y vectores
v1 , v2 , . . . , vn ∈ S tales que v = α1 v1 + α2 v2 + · · · + αn vn , es decir, v es una combinación lineal
Observación B.3. A diferencia del concepto de norma dado en la defición 4.3, el concepto (en términos de la definición 3.4) finita de elementos de S.
anterior de norma no depende del producto interno, es decir, no es, en general, una norma
inducida por un producto interno, más aun, quizá sobre V no se pueda definir un producto Observación B.6. La definición B.4 es una generalización del concepto dado en la de-
interno, sin embargo, todo producto interno induce una norma. finición 3.4, más aún, un vector v en un espacio vectorial V es combinación lineal de los
elementos de un conjunto (infinito o no) S ⊂ V si y sólo si existe un subconjunto finito
Observación B.4. Es de hacer notar que los resultados, referentes a norma, dados en el S1 ⊂ S tal que v es combinación lineal (en términos de la definición 3.4) de los elementos de
capı́tulo 4, siguen siendo válidos pero sus demostraciones podrı́an variar dado que, en general, S1 . Es necesario acotar que la definición B.4 no es la única manera de extender el concepto
la norma no proviene de un producto interno. de combinación lineal dado en la definición 3.4.

Jorge Campos 231 232 Jorge Campos


B.4. Bases para Espacios Vectoriales de Dimensión Infinita Apéndice B. Algo más sobre Espacios Vectoriales

Ejemplo B.8. En el espacio vectorial K[x], consideremos el conjunto infinito Observación B.8. Nótese que en los ejemplos B.8 y B.9 consideramos K[x], para un campo
� � K cualquiera, pero en el ejemplo B.10 consideramos K = C, la razón es que la independen-
S = 1, x, x2 , . . . , xn , . . . , cia lineal del conjunto dado en ese ejemplo no es cierta cuando tomammos un campo K
cualquiera, por ejemplo, si K = Z2 = {0, 1} y consideramos S = {x, x2 }, es claro que
entonces todo polinomio p(x) ∈ K[x] es combinación lineal de S, en efecto, para p(x) ∈ K[x] S ⊂ {1, x, x2 , . . . , xn , . . .} ⊂ K[x] pero S no es linelamente independiente ya que x + x2 = 0
existen n ∈ N y α0 , α1 , . . . , αn ∈ K tales que para x = 0 y x = 1.
p(x) = α0 + α1 x + · · · + αn xn Definición B.8. Sea V un K-espacio vectorial. Un conjunto β ⊂ V es llamado base (de
Hamel2 ) de V si β es linealmente independiente (en el sentido de la definición B.7) y además
que claramente es una combinación lineal finita de 1, x, . . . , xn ∈ S. � gen(β) = V, es decir, β es un conjunto generador (en el sentido de la definición B.6) de V
Definición B.5. Sean V un K-espacio vectorial y S ⊂ V. El conjunto el cual es linealmente independiente.

A continuación enunciaremos un resultado importante en la teorı́a de espacios vectoriales


gen(S) = {w ∈ V : w es combinación lineal de los elementos de S}
de dimensión infinita, la prueba es omitida pues requiere de conocimientos avanzados de
es llamado el espacio generado por S. Es decir, gen(S) es el conjunto formado por todas teorı́a de conjuntos en los que no queremos ahondar.
las combinaciones lineales finitas de elementos de S.
Teorema B.1. Todo espacio vectorial no nulo posee una base (de Hamel).
Observación B.7. Como en el caso de dimensión finita, también es cierto que gen(S) es
Ejemplo B.11. El ejemplo B.9 garantiza que β = {1, x, x2 , . . . , xn , . . .} ⊂ C[x] genera a
un subespacio de V, además, se puede probar que gen(S) es el subespacio de V más pequeño
C[x], además, por el ejemplo B.10, se tiene que β es linealmente independiente, por lo tanto
que contiene a S, es decir, si W es un suespacio de V tal que S ⊂ W, entonces gen(S) ⊂ W.
β es una base para C[x], con lo cual hemos demostrado lo afirmado al final del ejemplo 3.16.
Definición B.6. Sean V un espacio vectorial y S ⊂ V. Diremos que S genera a V o que �
S es un conjunto generador de V si V = gen(S).
Observación B.9. Análogo al caso finito, se puede probar que todas las bases de un es-
Ejemplo B.9. En virtud del ejemplo B.8, el conjunto {1, x, x2 , . . . , xn , . . .} genera a K[x]. pacio vectorial tienen el mismo cardinal, lo que permite definir, como en el caso finito, el
� concepto de dimensión de un espacio vectorial, enunciaremos el teorema que lo garantiza,
su demostración escapa al objetivo del curso.
Definición B.7. Sean V un K-espacio vectorial y S ⊂ V. Diremos S es un conjunto
linealmente independiente (c.l.i.) si cualquier subconjunto finito de S es linealmente Teorema B.2. Sean β1 y β2 dos bases (de Hamel) de un espacio vectorial V. Entonces
independiente en el sentido de la definición 3.7. Diremos que S es un conjunto linealmente #(β1 ) = #(β2 ), esto es, todas las bases (de Hamel) de V tienen el mismo cardinal, tienen la
dependiente (c.l.d.) si S no es linealmente independiente, es decir, si existe un subconjunto misma cantidad de elementos.
finito de S el cual es linealmente dependiente en el sentido de la definición 3.7.
Definición B.9. Sea V un K-espacio vectorial. Se define la dimensión (de Hamel3 ) de
Ejemplo B.10. Sea S ⊂ {1, x, x2 , . . . , xn , . . .} ⊂ C[x] con S finito. Entonces existen V como el cardinal de cualquiera de sus bases (de Hamel) y se suele denotar por dimHam (V).
n1 , n2 , . . . , nk ∈ N tales que n1 < n2 < · · · < nk y S = {xn1 , xn2 , . . . , xnk }. Sean
Observación B.10. Para no recargar la notación, y dado que sólo estamos interesados en
α1 , α2 , . . . , αk ∈ C tales que para todo x ∈ C se tiene que
estudiar las bases de Hamel, denotaremos por dim a la dimensión de Hamel en lugar de
α1 xn1 + α2 xn2 + · · · + αk xnk = 0. (B.1) dimHam .
2
También existen las bases de Hilbert para un espacio vectorial, éstas son, en esencia, cualquier conjunto
n1 n2 nk
Dado que n1 < n2 < · · · < nk , entonces p(x) = α1 x + α2 x + · · · + αk x es un po- ortongonal de vectores en un EPI tal que todo vector del espacio se puede escribir como una combinación
linomio en Cnk [x], es decir, tiene grado a lo sumo nk , en virtud del TFÁ (ver teorema lineal, no necesariamente finita, de los elementos del conjunto. En nuestro caso, hemos definido las bases de
A.12), no puede tener más de nk raı́ces en C, a menos que sea el polinimio nulo, como la Hamel, es la manera más natural de generalizar el concepto de base, además, todo espacio vectorial no nulo,
admite una base de Hamel.
ecuación (B.1) se cumple para todo x ∈ C, entonces p(x) es el polinomio nulo, es decir, 3
También se puede definir la dimensión de Hilbert y en el caso finito ambas dimensiones coinciden, pero,
α1 = α2 = · · · = αk = 0 y en consecuancia S es linealmente independiente, por lo tanto en general, la dimensión de Hamel es mayor o igual que la de Hilbert. La dimensión de Hilbert usualmente
{1, x, x2 , . . . , xn , . . .} es lienalmente independiente. � es denotada por dimHil .

Jorge Campos 233 234 Jorge Campos


B.4. Bases para Espacios Vectoriales de Dimensión Infinita

Ejemplo B.12. Del ejemplo B.11 obtenemos que dim(C[x]) = ℵ0 .4 �

Ejemplo B.13. Los subespacios H[x] y L[x], del espacio vectorial P[x] (ver ejemplo 4),
tienen ambos dimensión infinita. En este caso dim(H[x]) = dim(L[x]) = dim(P[x]) = ℵ0 .
Este ejemplo puede ser extendido para el espacio C[x]. �

Entre los muchos resultados que se pueden generalizar para K-espacios vectoriales en ge-
neral, no necesariamente de dimensión finita, el siguiente es uno de los más importantes.
Apéndice C
Teorema B.3. Sean V un K-espacio vectorial y S ⊂ V.
Algo más sobre Transformaciones
1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.

2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.


Lineales

Los espacios vectoriales que consideraremos en este apéndice, salvo que digamos otra cosa,
son espacios vectoriales sobre un campo K y no necesariamente de dimensión finita.

C.1. Transformaciones Lineales Invertibles


Antes de comenzar el estudio sobre las transformaciones lineales invertibles, vamos a re-
cordar algunos conceptos que nos serán útiles.

Observación C.1. Dada una función f : A −→ B, recordemos que f es llamada

1. Inyectiva o uno a uno si para cualesquiera x, y ∈ A, con f (x) = f (y), se tiene que
x = y.

2. Sobreyectiva si para cualquier y ∈ B existe x ∈ A tal que f (x) = y.

3. Biyectiva si f es inyectiva y sobreyectiva.

Recordemos además, que f : A −→ B es biyectiva si y sólo si existe una función


f −1 : B −→ A, llamada función inversa de f o simplemente inversa de f , tal que

4. f (f −1 (b)) = b para cada b ∈ B, es decir, f ◦ f −1 = IB , donde IB : B −→ B es la


función identidad sobre B.

5. f −1 (f (a)) = a para cada a ∈ A, es decir, f ◦ f −1 = IA .

En este caso se dice que f es invertible.


4
ℵ0 es el cardinal de N y el cardinal de todos los conjuntos numerables, un número transfinito, ℵ es una Finalmente, siendo f : A −→ B una función cualquiera y C ⊂ A, recordemos que
letra hebrea, la primera letra del alfabeto hebreo, el nombre de tal letra es álef. f (C) = {f (x) : x ∈ C} define el conjunto de todas las imágenes de elementos de C.

Jorge Campos 235 236


C.1. Transformaciones Lineales Invertibles Apéndice C. Algo más sobre Transformaciones Lineales

Tomando en cuenta todo esto, podemos comenzar con el estudio de las transformaciones y dado que � �
lineales invertibles. � 2 −6 −7 �
� �
� −3 1 0 �=2
� �
Teorema C.1. Sean V y W dos espacios vectoriales y T : V −→ W una transformación � −1 5 6 �
lineal. Entonces
se tiene que [T ]β1 ,β2 es invertible y en consecuencia
1. T es uno a uno si y sólo si N(T ) = ker(T ) = {0/V }. n(T ) = n([T ]β1 ,β2 ) = 0 y r(T ) = r([T ]β1 ,β2 ) = 3
2. T es sobreyectiva si y sólo si Im(T ) = T (V) = W.
Por lo tanto
N(T ) = {0} e Im(T ) = R3
Demostración.
y en virtud del teorema C.1 obtenemos que T es invertible. �
1. Supongamos que T es uno a uno. Es claro que {0/V } ⊂ N(T ). Sólo resta probar que
N(T ) ⊂ {0/V }. Sea v ∈ N(T ) cualquiera. Entonces T (v) = 0/W , pero T (0/V ) = 0/W , es decir, Teorema C.2. Sean V y W dos espacios vectoriales, v1 , v2 , . . . , vn ∈ V y T : V −→ W una
T (v) = T (0/V ), y por ser T uno a uno, tenemos que v = 0/V . Por lo tanto N(T ) = {0/V }. transformación lineal uno a uno.
Supongamos ahora que N(T ) = {0/V }. Sean v1 , v2 ∈ V tales que T (v1 ) = T (v2 ). Entonces 1. Si v1 , v2 , . . . , vn son linealmente independientes, entonces T (v1 ), T (v2 ), . . . , T (vn ) tam-
T (v1 − v2 ) = T (v1 ) − T (v2 ) = 0/W y por hipótesis v1 − v2 = 0/V , es decir, v1 = v2 . Por lo bién son linealmente independientes.
tanto T es uno a uno.
2. Si W es de dimensión finita, entonces V es también de dimensión finita y
2. Es inmediato a partir de la definición de sobreyectividad. dim(V) ≤ dim(W).

Demostración.

Ejemplo C.1. 1. Sean α1 , α2 , . . . , αn ∈ K tales que α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = 0/W . Entonces

1. Sea V un espacio vectorial. La transformación identidad sobre V, IV , es invertible, en T (α1 v1 + α2 v2 + · · · + αn vn ) = 0/W (¿por qué?)
virtud del teorema C.1 y del ejemplo 6.11. �
Con lo cual
2. Sea β una base ordenada de un espacio vectorial V de dimensión n. Es fácil probar α1 v1 + α2 v2 + · · · + αn vn ∈ N(T )
que la transformación T : V −→ Mn×1 (K) dada por T (v) = [v]β (ver ejemplo 6.1)
Luego, dado que T es uno a uno y en virtud de la parte 1 del teorema C.1 tenemos que
cumple que N(T ) = {0/V } e Im(T ) = Mn×1 (K) y al usar el teorema C.1 se tiene que T
es invertible. α1 v1 + α2 v2 + · · · + αn vn = 0/V

y por ser v1 , v2 , . . . , vn linealmente independientes, se tiene que α1 = α2 = · · · = αn = 0.
3. Definamos T : P2 [x] −→ R3 como sigue En consecuencia T (v1 ), T (v2 ), . . . , T (vn ) son linealmente independientes.

T (a + bx + cx2 ) = (2a − 6b − 7c, −3a + b, −a + 5b + 6c) 2. Dado que W es de dimensión finita, podemos suponer que dim(W) = n. Sea
{v1 , v2 , . . . , vm } ⊂ V un conjunto linealmente independiente cualquiera. Entonces, usan-
Entonces T es invertible, en efecto, si consideramos las bases canónicas β1 y β2 de P2 [x] do la parte 1, se tiene que {T (v1 ), T (v2 ), . . . , T (vm )} es linealmente independiente y
y R3 respectivamente, entonces usando la parte 1 del teorema 3.16, tenemos que m ≤ n. En consecuencia, si β ⊂ V es
  una base de V, entonces, por ser β un conjunto linealmente independiente, β no puede
2 −6 −7 tener más de n elementos, es decir, V es de dimensión finita y dim(V) ≤ dim(W).

[T ]β1 ,β2 = −3 1 0 
−1 5 6

Jorge Campos 237 238 Jorge Campos


C.1. Transformaciones Lineales Invertibles Apéndice C. Algo más sobre Transformaciones Lineales

Teorema C.3. Sean V y W dos espacios vectoriales, v1 , v2 , . . . , vn ∈ V y T : V −→ W una Demostración. Sólo es necesario probar que T −1 es una transformación lineal, pues en
transformación lineal sobreyectiva. virtud del teorema 6.3 sabemos que T ◦ L es lineal si T y L lo son y, por propiedades de
las funciones invertibles, si T y L son invertibles, entonces T −1 y T ◦ L son invertibles (o
1. Si v1 , v2 , . . . , vn generan a V, entonces T (v1 ), T (v2 ), . . . , T (vn ) generan a W. biyectivas) y además (T −1 )−1 = T y (T ◦ L)−1 = L−1 ◦ T −1 .
2. Si V es de dimensión finita, entonces W es también de dimensión finita y Probemos entonces que T −1 es una transformación lineal. Sean w1 , w2 ∈ W y α ∈ R
dim(W) ≤ dim(V). cualesquiera. Entonces, dado que T : V −→ W es biyectiva, existen v1 , v2 ∈ V tales que
T (v1 ) = w1 y T (v2 ) = w2 , ası́ que
Demostración.
T −1 (w1 + αw2 ) = T −1 (T (v1 ) + αT (v2 ))
1. Sea w ∈ W cualquiera. Entonces, por ser T sobreyectiva, existe v ∈ V tal que T (v) = w. = T −1 (T (v1 + αv2 ) (por linealidad de T )
Debido a que {v1 , v2 , . . . , vn } genera a V, entonces existen α1 , α2 , . . . , αn ∈ R tales que = v1 + αv2 (por definición de inversa)
v = α1 v1 + α2 v2 + · · · + αn vn . Por lo tanto, al usar la parte 3 del teorema 6.2, tenemos
= T −1 (T (v1 )) + αT −1 (T (v2 )) (por definición de inversa)
que
= T −1 (w1 ) + αT −1 (w2 )
w = T (v) = T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
En consecuencia T −1 es lineal y por lo tanto es un isomorfismo.
De donde
w ∈ gen{T (v1 ), T (v2 ), . . . , T (vn )},
Observación C.2. Gracias al teorema C.4, en lugar de decir V es isomorfo a W, podemos
y ası́ W = gen{T (v1 ), T (v2 ), . . . , T (vn )}, es decir, T (v1 ), T (v2 ), . . . , T (vn ) generan a W.
decir V y W son isomorfos. Además, en virtud de este teorema, podemos garantizar que si
2. Como V es de dimensión finita, supongamos que dim(V) = n y consideremos U es isomorfo a V y V lo es a W, entonces U es isomorfo a W.
{v1 , v2 , . . . , vn } ⊂ V una base para V. Siendo {v1 , v2 , . . . , vn } una base para V, enton-
Teorema C.5. Sean V y W dos espacios vectoriales y T : V −→ W una transformación
ces {v1 , v2 , . . . , vn } genera a V y por la parte 1, se tiene que {T (v1 ), T (v2 ), . . . , T (vn )}
lineal. Supongamos que dim(V) = dim(W) = n.
genera a W. Ası́ que, en virtud de la parte 2 del teorema B.3, se tiene que el conjunto
{T (v1 ), T (v2 ), . . . , T (vn )} contiene una base de W, es decir, la dimensión de W es a lo
1. Si T es uno a uno, entonces T es un isomorfismo.
sumo n, por lo tanto W tiene dimensión finita y además dim(W) ≤ dim(V).
2. Si T es sobreyectiva, entonces T es un isomorfismo.

Definición C.1. Sean V y W dos espacios vectoriales. Una transformación lineal Demostración.
T : V −→ W es llamada isomorfismo si T es biyectiva, en cuyo caso diremos que V es
isomorfo a W. 1. Como T es uno a uno, al usar la parte 1 del teorema C.1, se tiene que
N(T ) = {0/V }, de donde n(T ) = dim(N(T )) = 0. Luego, haciendo uso del corolario
La definición precedente nos da otra forma de llamar a las transformaciones lineales 6.20, dim(Im(T )) = r(T ) = dim(V) − n(T ) = n − 0 = n = dim(W) y dado que Im(T )
invertibles. es un subespacio de W, entonces Im(T ) = W. Por lo tanto T es un isomorfismo.
Ejemplo C.2. Del ejemplo C.1 se tiene que 2. Dado que T es sobreyectiva, y en virtud de la parte 2 del teorema C.1, Im(T ) = W,
de donde r(T ) = dim(Im(T )) = dim(W) = n y, en virtud del corolario 6.20, obtenemos
1. Todo espacio vectorial es isomorfo a si mismo. �
que dim(N(T )) = n(T ) = dim(V) − r(T ) = n − n = 0, luego N(T ) = {0/V } y por la parte
2. Todo espacio vectorial V de dimensión n es isomorfo a Mn×1 (R). � 1 del teorema C.1, se tiene que T es uno a uno. En consecuencia T es un isomorfismo.

3. P2 [x] es isomorfo a R . 3

Teorema C.4. Si L : U −→ V y T : V −→ W son isomorfismos, entonces T −1 : W −→ V y Teorema C.6. Sean V y W dos espacios vectoriales y T : V −→ W un isomorfismo. Si
T ◦ L : U −→ W son también isomorfismos, además (T −1 )−1 = T y (T ◦ L)−1 = L−1 ◦ T −1 . {v1 , v2 , . . . , vn } es una base de V, entonces {T (v1 ), T (v2 ), . . . , T (vn )} es una base de W.

Jorge Campos 239 240 Jorge Campos


C.2. Autovalores y Autovectores de Transformaciones Lineales Apéndice C. Algo más sobre Transformaciones Lineales

Demostración. ¡Ejercicio! Observación C.3. Esta definición es análoga a la definición 5.1, la diferencia radica en que
se toma una transformación T : V −→ V en lugar de una matriz A ∈ Mn×n (R). En realidad,
varios de los teoremas y definiciones dados en las secciones 5.1, 5.2 y 5.3 del capı́tulo 5,
Teorema C.7. Sean V y W dos espacios de dimensión finita. Entonces V y W son isomorfos pueden ser generalizados en el contexto de transformaciones lineales.
si y sólo si dim(V) = dim(W)
Ejemplo C.3. Sean a, b ∈ R con a < b. Definamos T : C 0 [ a , b ] −→ C 0 [ a , b ] como
Demostración. ¡Ejercicio! T (f ) = f � . Entonces T es lineal. Sea f (x) = ex . Entonces T (f ) = (f )� = f , por lo tanto, 1
Sugerencia: El teorema C.6 garantiza que si V y W son isomorfos, entonces es un autovalor de T y f es un autovector de T asociado a 1.
dim(V) = dim(W). Para probar el recı́proco, suponga que dim(V) = dim(W) = n y es- Más aún, cualquier número real λ es un autovalor de T y un autovector de T asociado a
coja βV = {v1 , v2 , . . . , vn } y βW = {w1 , w2 , . . . , wn } bases de V y W respectivamente. El λ es la función fλ (x) = eλx (¡verifı́quelo!) �
teorema 6.7 garantiza la existencia de una única transformación lineal T : V −→ W tal que El problema de calcular autovalores y autovectores de una transformación lineal
T (vi ) = wi para cada i ∈ {1, . . . , n}, pruebe que T es un isomorfismo. T : V −→ V, es mucho más complicado que el caso matricial, sin embargo, nos centrare-
mos en el caso en que V sea de dimensión finita y haremos uso de la representación matricial
de T en una base β de V.
Teorema C.8. Sean V y W dos espacios vectoriales de dimensión finita, T : V −→ W
un isomorfismo y βV y βW bases ordenadas de V y W respectivamente. Entonces [T ]βV ,βW es Teorema C.9. Sean V un espacio vectorial de dimensión finita y T : V −→ V una trans-
invertible y ([T ]βV ,βW )−1 = [T −1 ]βW ,βV formación lineal. Entonces
1. λ ∈ K es un autovalor de T si y sólo si λ es un autovalor de [T ]β para toda base β de
Demostración. Notemos primero que en virtud del teorema C.7, la matriz [T ]βV ,βW es cua- V.
drada, digamos que de orden n, es decir, dim(V) = n = dim(W). Luego
2. v ∈ V es un autovector de T si y sólo si [v]β es un autovector de [T ]β para toda base β
de V.
−1 −1
[T ]βV ,βW [T ]βW ,βV = [T ◦ T ]βW ,βW (¿por qué?) Demostración. Sean β y β� dos bases de V, según el corolario 6.12
= [IW ]βW ,βW (¿por qué?) � �−1
= In (¿por qué?) [T ]β�V = MβV ,β�V [T ]βV Mβ�V ,βV = Mβ�V ,βV [T ]βV Mβ�V ,βV

Por lo tanto, [T ]β y [T ]β� son similares, en consecuencia, según el teorema 5.6, podemos
En consecuencia [T ]βV ,βW es invertible y ([T ]βV ,βW )−1 = [T −1 ]βW ,βV
trabajar con una base cualquiera, pero fija, de V.
Sea β una base de V y supongamos que dim(V) = n. Entonces [T ]β ∈ Mn×n (K) y
[v]β ∈ Mn×1 (K) para cada v ∈ V.
C.2. Autovalores y Autovectores de Transformaciones 1. Si λ ∈ K es un autovalor de T , entonces existe un vector no nulo v ∈ V tal que
Lineales T (v) = λv
Pero [T (v)]β = [T ]β [v]β ; [λv]β = λ[v]β y además [v]β �= 0/n×1 pues v �= 0/V .
Ası́ como hemos definido autovectores y autovalores para matrices, podemos definir estos Por lo tanto, existe un vector no nulo [v]β ∈ Mn×1 (K) tal que [T ]β [v]β = λ[v]β , es decir,
conceptos para una transformación lineal T : V −→ V, donde V es un espacio vectorial real λ es un autovalor de [T ]β .
o complejo, no necesariamente de dimensión finita, sin embargo, nuestro principal interés es
en el caso cuando V tiene dimensión finita. En este apartado K = R o K = C. Análogamente, si λ ∈ K es un autovalor de [T ]β , entonces existe un vector no nulo
x ∈ Mn×1 (K) tal que [T ]β x = λx.
Definición C.2. Sean V un espacio vectorial y T : V −→ V una transformación lineal. Sea v ∈ V tal que [v]β = x, la parte 2 del ejemplo C.1 garantiza la existencia de tal v,
Diremos que λ ∈ K es un autovalor (valor propio o valor caracterı́stico) de T si existe entonces v �= 0/V y
un vector no nulo v ∈ V tal que T (v) = λv. Cualquier vector no nulo v ∈ V, satisfaciendo la
[T (v)]β = [T ]β [v]β = [T ]β x = λx = λ[v]β = [λv]β
igualdad anterior, es llamado autovector (vector propio o vector caracterı́stico) de T
asociado a λ. De donde T (v) = λv. En consecuencia λ es un autovalor de T .

Jorge Campos 241 242 Jorge Campos


C.2. Autovalores y Autovectores de Transformaciones Lineales

2. Es consecuencia directa de la parte 1.

Ejemplo C.4. Consideremos la transformación lineal T : P2 [x] −→ P2 [x] dada por

T (a + bx + cx2 ) = (a + 2b − c) + (a + c)x + (4a − 4b + 5c)x2 Apéndice D


Escojamos β = {1, x, x } la base canónica de P2 [x]. Entonces
2


1 2 −1

Demostraciones de Algunos Teoremas
[T ]β =  1 0 1  (¡verifı́quelo!)
4 −4 5

Los autovalores [T ]β son λ1 = 1, λ2 = 2 y λ3 = 3 (¡verifı́quelo!), ası́ que los autovalores de T El tı́tulo del presente apéndice lo dice todo, se presentarán las demostraciones de algunos
son λ1 = 1, λ2 = 2 y λ3 = 3. de los resultados de las secciones anteriores, en general, aquellas demostraciones que escapan
Además al objetivo del curso.

        Teorema 1 (Teorema 1.11). Toda matriz A ∈ Mm×n (R) es equivalente por filas a
 −1   −2   −1 
E1 = gen   1   ; E2 = gen   1   y E3 = gen   1   1. Una matriz escalonada.
     
2 4 4
2. Una matriz reducida por filas.
En consecuencia, cualquier polinomio de la forma p(x) = α(−1+x+2x2 ), con α �= 0, es un
3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalo-
autovector de T asociado a λ1 = 1; cualquier polinomio de la forma p(x) = α(−2 + x + 4x2 ),
nada reducida por filas (FERF) de A.
con α �= 0, es un autovector de T asociado a λ2 = 2 y cualquier polinomio de la forma
p(x) = α(−1 + x + 4x2 ), con α �= 0, es un autovector de T asociado a λ3 = 3. � Demostración. Sea A ∈ Mm×n (R) cualquiera. Notemos primero que si A = 0/m×n , no hay
Teorema C.10. Sean V un espacio vectorial de dimensión finita, T : V −→ V una trans- nada que probrar. Supongamos entonces que A �= 0/m×n .
formación lineal y β0 una base de V. [T ]β0 es diagonalizable si y sólo si [T ]β es diagonalizable Por otro lado, sin perder generalidad, podemos suponer que la primera columna de A es no
para toda base β de V. nula pues, de lo contrario, trabajamos con la matriz B que se obtiene al eliminar las primeras
columnas nulas de A, ya que cualquier OEF, hecha sobre una matriz, no afecta las columnas
Demostración. ¡Ejercicio! nulas.
Junto con las supocisiones antes expuestas, también podemos suponer que a11 �= 0, pues
de no ser ası́, dado que la primera columna de A es no nula, entonces existe k ∈ {2, . . . , n}
Este teorema da pie a la siguiente definición. tal que ak1 �= 0 y al intercambiar las filas 1 y k de A, se obtiene una matriz B la cual es
Definición C.3. Sean V un espacio vectorial de dimensión finita, β una base de V y equivalente por filas a A y es tal que b11 �= 0.
T : V −→ V una transformación lineal. Diremos que T es diagonalizable si [T ]β es diago- En resumen, sin perder generalidad, podemos suponer que a11 �= 0.
nalizable.
1. Procedamos por inducción sobre m.
Ejemplo C.5. La transformación T del ejemplo anterior es diagonalizable, ya que [T ]β lo
es, basta con ver que [T ]β tiene tres autovalores distintos. � a) Para m = 1 es evidentemente cierto. Verifiquemos que se cumple para m = 2.
Como a11 �= 0, entonces la matriz B que se obtiene al aplicar sobre A la siguiente
OEF
a21
F 2 → F2 − F1
a11

Jorge Campos 243 244


Apéndice D. Demostraciones de Algunos Teoremas

es tal que b11 �= 0 y b21 = 0, y por lo tanto es una matriz escalonada la cual es Para cada i ∈ {1, . . . , m} sea ji ∈ {1, . . . , n} tal que aiji es la primera componente no
equivalente por filas a A. nula de A(i) , note que j1 = 1, y hagamos B la matriz que se obtiene al aplicar sobre A
� � � �
a11 a12 · · · a1n F2 → F2 − aa21 F1 b11 b12 · · · b1n las siguientes OEF
A= 11
→ =B 1
a21 a22 · · · a2n 0 b22 · · · b2n Fi → Fi
aiji
b) (Hipótesis Inductiva) Supongamos que se cumple para m − 1, con m ≥ 2, es decir, con 1 ≤ i ≤ m.
supongamos que si A ∈ M(m−1)×n (R), entonces A es equivalente por filas a una
Ası́ que la primera componente no nula de cada fila de B es igual a 1, es decir, la
matriz escalonada.
componente biji = 1 para 1 ≤ i ≤ m. Además, por se B escalonada, para cada 2 ≤ i ≤ m
c) Veamos que se cumple para m. y para cada 1 ≤ k < ji se tiene que la componente bik = 0. Ası́ que al aplicar sobre B
Dado que a11 �= 0, entonces la matriz B que se obtiene al aplicar sobre A las las siguientes OEF
siguientes OEF Fk → Fk − bkjm Fm
ai1
Fi → Fi − F1 con k ∈ {1, . . . , m − 1}, la matriz resultante sigue siendo escalonada, su columna jm es
a11
una columna pivote, es decir, todas sus componentes son iguales a 0 a excepción de la
con i ∈ {2, . . . , m}, es tal que b11 �= 0 y bi1 = 0 para cada i ∈ {2, . . . , m}. componente mjm que es igual a 1, además, las primeras jm−1 columnas de esta matriz
   
a11 a12 · · · a1n b11 b12 · · · b1n son iguales a las correspondientes columnas de B pues bik = 0 para cada 1 ≤ k < jm .
 a21 a22 · · · a2n  Fi → Fi − i1 F1 a  0 b22 · · · b2n 
  a11   Apliquemos sobre esta última matriz las siguientes OEF
A =  .. .. ..  →  . .. ..  = B
 . . .  (i ∈ {2, . . . , n})  .. . . 
am1 am2 · · · amn 0 bm2 · · · bmn Fk → Fk − bkjm−1 Fm−1
Si n = 1, es decir, si A (y por lo tanto B) tiene sólo una columna, entonces B es con k ∈ {1, . . . , m − 2}. Nuevamente, la matriz resultante es una matriz escalonada,
una matriz escalonada, la cual es equivalente por filas a A. sus columnas jm−1 y jm son columnas pivotes y además las primeras jm−2 columnas de
Supongamos entonces que n ≥ 2, es decir, supongamos que A tiene más de una esta matriz son iguales a las primeras jm−2 columnas de B.
columna. Consideremos la matriz C que se obtiene al eliminar la primera fila de
Continuando de esta manera, se obtiene, recursivamente, una matriz RF (en realidad
B, ası́ que C tiene m − 1 filas y su primera columna es nula, luego, al aplicar la
una matriz ERF) la cual es equivalente por filas a A.
hipótesis inductiva, obtenemos una matriz escalonada D, cuya primera columna
es nula, la cual es equivalente por filas a C. La matriz E tal que E(1) = B(1) y 3. ¡Ejercicio!
E(i) = D(i−1) para i ∈ {2, . . . , m} es una matriz escalonada la cual es equivalente
por filas a A.
    Teorema 2 (Teorema 1.12). Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y
0 b22 · · · b2n 0 d22 · · · d2n
 OEF f : MFm (R) → MFm (R) una OEF. Entonces
C =  ... ..
. ... 
 →  ..
 .
..
. ... 
=D
(Hiptesis Inductiva)
0 bm2 · · · bmn 0 dm2 · · · dmn 1. f (AB) = f (A)B.
� �
con D escalonada. 2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
  � � � � � � ��
b11 b12 · · · b1n f (A) = f A(1) f A(2) · · · f A(n)
 0 d22 · · · d2n 
 
E =  .. .. ... , matriz escalonada equivalente por filas a A. es decir, la fila j-ésima de f (A) es igual a f aplicada a la j-ésima fila de A.
 . . 
0 dm2 · · · dmn Demostración.

2. Por la parte anterior, podemos suponer que A es escalonada y que a11 �= 0, también 1. Hagamos C = AB, ası́ que, usando la parte 2 del ejercicio 1.1.1, C(i) = A(i) B para cada
podemos suponer, sin perder generalidad, que A no tiene filas nulas (¿por qué?). i ∈ {1, . . . , m}. Procederemos considerando casos sobre el tipo de OEF.

Jorge Campos 245 246 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

Caso 1. f es una OEF tipo 1. Entonces existen s ∈ {1, . . . , m} y α �= 0 tales que


       
A(1) A(1) C(1) C(1)
. ..  .
.   .. 
 ..     .   . 
   .     
     C(s−1)   C(s−1) 
 A(s−1)   A(s−1)     
    f (AB) = f (C) = f  C(s)  =  C(s) + αC(t) 
f (A) = f  A(s)  =  αA(s)     
     C(s+1)   C(s+1) 
 A(s+1)   A(s+1)     
 ..   ..   .
..   .. 
 .   .  .
A(m) A(m) C(m) C(m)
   
A(1) B A(1) B
Luego  ..   .. 
 .   . 
   
 A(s−1) B   � A(s−1) B � 
         
C(1) C(1) A(1) B =  A(s) B + αA(t) B  =  A(s) + αA(t) B 
   
 ..   ..   ..   A(s+1) B   A(s+1) B 
 .   .   .   ..   .. 
       .   . 
 C(s−1)   C(s−1)   A(s−1) B 
      A(m) B A(m) B
f (AB) = f (C) = f  C(s)  =  αC(s)  =  αA(s) B   
      A(1)
 C(s+1)   C(s+1)   A(s+1) B 
 ..   ..   ..   .. 
 .    .   .   . 
 
C(m) C(m) A(m) B  A(s−1) 
   
A(1) =  A(s) + αA(t)  B = f (A)B
 
 ..   A(s+1) 
 .   
   ... 
 A(s−1) 
  A(m)
=  αA(s)  B = f (A)B
 
 A(s+1) 
 
 ...  Caso 3. f es una OEF tipo 3. Ası́ que existen s, t ∈ {1, . . . , m} tales que
A(m)    
A(1) A(1)
 ..   .. 
Caso 2. f es una OEF tipo 2. Entonces existen α ∈ R y s, t ∈ {1, . . . , m} tales  .   . 
   
que s �= t y  A(s−1)   A(s−1) 
   
 A(s)   A(t) 
       
 A(s+1)   A(s+1) 
A(1) A(1)  ..   .. 
 ..   ..  f (A) = f 

 .  = 
  . 

 .   .  
     A(t−1)   
  A(t−1) 

 A(s−1)   A(s−1)  
     A(t)   
  A(s) 
f (A) = f  A(s)  =  A(s) + αA(t)  
     A(t+1)   
  A(t+1) 

 A(s+1)   A(s+1)     
 ..   ..   ...   ..
. 
 .   . 
A(m) A(m)
A(m) A(m)

Por lo tanto En consecuencia

Jorge Campos 247 248 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

2−1 �
2 2 2−1 j−1
2 �
      � � � �
C(1) C(1) A(1) B aij = a1j = a12 = ai2 = aij .
 ..   ..   ..  i=1 j=i+1 j=1+1 i=1 j=2 i=1
 .   .   . 
     
 C(s−1)   C(s−1)   A(s−1) B  2. (Hipótesis Inductiva) Supongamos que se cumple para n − 1, es decir,
     
 C(s)   C(t)   A(t) B 
      n−2 �
n−1 j−1
n−1 �
 C(s+1)   C(s+1)   A(s+1) B  � �
 .    ..   .  aij = aij
f (AB) = f (C) = f    .     =  . 
.  =  .   .  i=1 j=i+1 j=2 i=1
 C   C   A 
 (t−1)   (t−1)   (t−1) B 
 C   C   A B 
 (t)   (s)   (s)  3. Finalmente probemos que es cierto para n.
 C   C   A 
 (t+1)   (t+1)   (t+1) B  � �
 .   .   .  n−1 �
� n � n
n−2 � n
� n−2
� n−1

 ..   ..   .. 
aij = aij + a(n−1)j = aij + ain + a(n−1)n
C(m) C(m) A(m) B i=1 j=i+1 i=1 j=i+1 j=(n−1)+1 i=1 j=i+1
 
A(1) � n−1
n−2 � n−2

 ..  = aij + ain + a(n−1)n
 . 
  i=1 j=i+1 i=1
 A(s−1) 
  j−1
n−1 �
� n−1

 A(t) 
  = aij + ain (usando la hipótesis inductiva)
 A(s+1) 
 ..  j=2 i=1 i=1
= 
 .  B = f (A)B
 j−1
n �
 A  �
 (t−1)  = aij
 A 
 (s)  j=2 i=1
 A 
 (t+1) 
 . 
 .
. 
A(m) Haremos también la siguiente convención.
n

Por lo tanto, f (AB) = f (A)B.
Convención. Si m, n ∈ Z son tales que m > n, entonces ai = 0.
i=m
2. ¡Ejercicio!
Sugerencia: Usar la parte 1 con B ∈ Mn×1 (R) la matriz columna cuyas componentes Teorema 3 (Teorema 2.1). Si A = (aij )n×n ∈ Mn×n (R), entonces
son todas iguales a cero excepto la j-ésima que es igual a 1. n
� n
� � �
1. det(A) = aij CijA = aij (−1)i+j det MijA para cada i ∈ {1, . . . , n} (Desarrollo del
j=1 j=1
det(A) mediante la fila i-ésima de A).
Antes de demostrar el teorema 2.1, enunciaremos y probaremos un lema.
n
� n
� � �
n−1 �
� n j−1
n �
� 2. det(A) = aij CijA = aij (−1)i+j det MijA para cada j ∈ {1, . . . , n} (Desarrollo del
Lema D.1. Para todo entero n ≥ 2 se cumple: aij = aij . i=1 i=1
i=1 j=i+1 j=2 i=1 det(A) mediante la columna j-ésima de A).
Demostración. Procederemos por inducción sobre n. Demostración.

1. Verifiquemos que es cierto para n = 2. 1. Procederemos por inducción sobre n.

Jorge Campos 249 250 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

a) Verifiquemos que se cumple para n = 2. Ası́ que al desarrollar el determinante de Bk por medio de la fila i − 1 obtenemos
� �
a11 a12
Sea A = . Entonces � A� n−1
� � �
a21 a22 det M1k = det(Bk ) = Bk
bk(i−1)j (−1)(i−1)+j det M(i−1)j
� �
� a11 a12 � j=1
det(A) = �� � = a11 a22 − a12 a21 = a11 (a22 ) + a12 (−a21 ) = a11 C11
A A
+ a12 C12
a21 a22 � k−1
� � �
Bk
y = bk(i−1)j (−1)i−1+j det M(i−1)j
� �
� a a � j=1
det(A) = �� 11 12 �� = a11 a22 − a12 a21 = a21 (−a12 ) + a22 (a11 ) = a21 C21
A A
+ a22 C22 n−1 � �
a21 a22 � Bk
+ bk(i−1)j (−1)i−1+j det M(i−1)j
b) (Hipótesis Inductiva) Supongamos que es cierto para n − 1, es decir, si j=k
A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R), entonces k−1 n−1
� � A � � � A �
= aij (−1)i−1+j det M1i,kj + ai(j+1) (−1)i−1+j det M1i,k(j+1)
n−1
� n−1
� � � j=1 j=k
det(A) = aij CijA = aij (−1)i+j det MijA k−1 n
� � � � � A �
j=1 j=1 i−1+j A
= aij (−1) det M1i,kj + aij (−1)i+j−2 det M1i,kj
j=1 j=k+1
para cada i ∈ {1, . . . , n − 1}.
c) Probemos que se cumple para n. La igualdad es cierta para i = 1, ası́ que sólo la Por lo tanto
debemos probar para i ∈ {2, . . . , n}. Sean A = (aij )n×n ∈ Mn×n (R) cualquiera e n
� k−1
� � � A �
i ∈ {2, . . . , n} arbitrario pero fijo. Entonces det(A) = a1k (−1)1+k aij (−1)i−1+j det M1i,kj
k=1 j=1
n
� n
� �
A
� A� n
� � A �
det(A) = a1k C1k = a1k (−1)1+k det M1k + aij (−1)i+j−2 det M1i,kj
k=1 k=1
j=k+1
n
� k−1 �
Para cada k ∈ {1, . . . , n}, hagamos Bk = (bklj )(n−1)×(n−1) = M1k
A
∈ M(n−1)×(n−1) (R). � � � A �
= a1k (−1)1+k aij (−1)i−1+j det M1i,kj
Ası́ que el determinante de Bk puede desarrolarse, según la hipótesis inductiva, k=1 j=1
por medio de cualquier fila. Recordemos que n
� n

� � � A �
1+k
  + a1k (−1) aij (−1)i+j det M1i,kj
a21 · · · a2(k−1) a2(k+1) · · · a2n k=1 j=k+1
 .. .. .. .. 
 . . . .  n �
� k−1
� A �
A   = a1k (−1)1+k aij (−1)i−1+j det M1i,kj
Bk = M1k = ai1 · · · ai(k−1) ai(k+1) · · · ain 
 .. .. .. ..  k=1 j=1
 . . . . 
�n n

an1 · · · an(k−1) an(k+1) · · · ann � A �
+ a1k (−1)1+k aij (−1)i+j det M1i,kj
k=1 j=k+1
De donde n �
k−1
� � � � A �
(Bk )(i−1) = ai1 · · · ai(k−1) ai(k+1) · · · ain = a1k (−1)1+k aij (−1)i−1+j det M1i,kj
k=2 j=1
Luego n−1 �
n
� � A �
� � + a1k (−1)1+k aij (−1)i+j det M1i,kj
A
aij si 1 ≤ j < k Bk M1i,kj si 1 ≤ j < k k=1 j=k+1
bk(i−1)j = y M(i−1)j = A
ai(j+1) si k ≤ j ≤ n − 1 M1i,k(j+1) si k ≤ j ≤ n − 1 (usando la convención)

Jorge Campos 251 252 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

n−1 �
� n
� A � se obtiene
det(A) = (−1)i+j+k a1j aij det M1i,kj
j=1 k=j+1 j−1 n−1
� � � � A � � � A �
� j−1
n �
� � det MijA = (−1)1+k a1k det Mi1,jk + (−1)1+k a1(k+1) det Mi1,j(k+1)
i+j+k+1 A
+ (−1) a1k aij det M1i,kj k=1 k=j
j=2 k=1 j−1 n
� � � � � A �
(usando el lema D.1) = (−1)k+1 a1k det Mi1,jk
A
+ (−1)k a1k det Mi1,jk
n−1 �
� n k=1 k=j+1
� A �
= (−1)i+j+k a1j aij det M1i,kj j−1
� � A � n
� � A �
j=1 k=j+1 = (−1)k+1 a1k det M1i,kj + (−1)k a1k det M1i,kj
j−1
n �
� � A � k=1 k=j+1
+ (−1)i+j+k+1 a1k aij det M1i,kj
j=1 k=1 Por lo tanto, para i ∈ {2, . . . , n} se tiene que
(usando la convención)
� n � n
� n
n
� � � A � � � �
= aij (−1)i+j (−1)k a1k det M1i,kj det(A) = aij (−1)i+j det MijA = aij CijA
j=1 k=j+1 j=1 j=1

n
� j−1 �
� � � A �
+ aij (−1)i+j (−1)k+1 a1k det M1i,kj y en consecuencia
j=1 k=1
n
� n
n
� � � �n
� � � A � det(A) = aij (−1)i+j det MijA = aij CijA para cada i ∈ {1, . . . , n}.
= aij (−1)i+j (−1)k a1k det M1i,kj
j=1 j=1
j=1 k=j+1
j−1

� � A �
+ (−1)k+1 a1k det M1i,kj 2. También se procederá por inducción sobre n.
k=1
n
� j−1 � �
� � � A � a11 a12
= aij (−1)i+j (−1)k+1 a1k det M1i,kj a) Verifiquemos que se cumple para n = 2. Sea A = . Entonces
a21 a22
j=1 k=1 � �
� � a a �
n
� � A � det(A) = �� 11 12 �� = a11 a22 − a12 a21 = a11 (a22 ) + a21 (−a12 ) = a11 C11
A A
+ a21 C21
+ k
(−1) a1k det M1i,kj a21 a22
k=j+1 y
� �
� a a �
det(A) = �� 11 12 �� = a11 a22 − a12 a21 = a12 (−a21 ) + a22 (a11 ) = a12 C12
A A
+ a22 C22
a21 a22
Pero
  b) (Hipótesis Inductiva) Supongamos que es cierto para n − 1. Esto es, si
a11 ··· a1(j−1) a1(j+1) ··· a1n
A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R), entonces

 ... ..
.
..
.
..
.


 
A  a(i−1)1 · · · a(i−1)(j−1) a(i−1)(j+1) · · · a(i−1)n  n−1
� n−1
� � �
Mij =  
 a(i+1)1 · · · a(i+1)(j−1) a(i+1)(j+1) · · · a(i+1)n  det(A) = aij CijA = aij (−1)i+j det MijA
 
 ... ..
.
..
.
..
.  i=1 i=1

an1 · · · an(j−1) an(j+1) · · · ann


para cada j ∈ {1, . . . , n − 1}.
En consecuencia, al desarrollar el determinante de MijA mediante la primera fila, c) Probemos ahora que es cierto para n. Sean A = (aij )n×n ∈ Mn×n (R) cualquiera y

Jorge Campos 253 254 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

j−1 n
j ∈ {1, . . . , n} arbitrario pero fijo. Entonces � A� � � � A �
det(A) = (−1)1+j a1j det M1j + (−1)1+k a1k (−1)i+j−1 aij det M1i,kj
n
� n

A
� A� k=1 i=2
det(A) = a1k C1k = a1k (−1)1+k det M1k n
� n
� � A �
k=1 k=1 + (−1)1+k a1k (−1)i+j aij det M1i,kj
j−1
� A� � � A� k=j+1 i=2
= (−1)1+j a1j det M1j + (−1)1+k a1k det M1k j−1 n
� �
1+j
� A
� � A �
k=1 = (−1) a1j det M1j + (−1)1+k a1k (−1)i+j−1 aij det M1i,kj
n
� � A� k=1 i=2
+ (−1)1+k a1k det M1k n
� n

1+k
� A �
k=j+1 + (−1) a1k (−1)i+j aij det M1i,kj
k=j+1 i=2
Para k ∈ {1, . . . , n} y k �= j, hagamos
j−1
n �
  � A� � � A �
a21 · · · a2(k−1) a2(k+1) · · · a2n = (−1)1+j a1j det M1j + (−1)i+j+k a1k aij det M1i,kj
 .. 
Bk = (bkil )(n−1)×(n−1) = M1k
A
=  ... ..
.
..
. .  n n
i=2 k=1
� � � A �
an1 · · · an(k−1) an(k+1) · · · ann + (−1) i+j+k+1
a1k aij det M1i,kj
i=2 k=j+1
Ası́ que para i ∈ {2, . . . , n} n j−1
� � � A� � � � A �
A = (−1)1+j a1j det M1j + (−1)i+j aij (−1)k a1k det M1i,kj
k ail si 1 ≤ l < k Bk M1i,kl si 1 ≤ l < k
b(i−1)l = y M(i−1)l = A
i=2 k=1
ai(l+1) si k ≤ l ≤ n − 1 M1i,k(l+1) si k ≤ l ≤ n − 1 n
� n
� � A �
i+j k+1
+ (−1) aij (−1) a1k det M1i,kj
Luego, por hipótesis inductiva, para cada l ∈ {1, . . . , n − 1} i=2 k=j+1
n
� j−1
� � n
� � � � � � � � A �
1+j A i+j
det A
M1k = (−1)i−1+l bk(i−1)l det Bk
M(i−1)l = (−1) a1j det M1j + (−1) aij (−1)k a1k det Mi1,jk
i=2 i=2 k=1
�n n

 � A � � � �

 (−1)i−1+l ail det M1i,kl si 1 ≤ l < k + (−1) k+1
a1k det A
Mi1,jk

i=2 k=j+1
= � n

 i−1+l
� A �

 (−1) ai(l+1) det M1i,k(l+1) si k ≤ l ≤ n − 1 Pero para i ∈ {2, . . . , n}, al igual que en la parte 1
i=2
j−1 n
Por lo tanto � � � � A � � � A �
det MijA = (−1)k a1k det Mi1,jk + (−1)k+1 a1k det Mi1,jk
�n
 � A � k=1 k=j+1

 (−1)i−1+j aij det M1i,kj si k > j
� �  De donde
A i=2
det M1k = �n � A� �n
� � �n
� �

 � A �

 (−1)
i−1+j−1
aij det M1i,kj si k < j det(A) = (−1)1+j a1j det M1j + (−1)i+j aij det MijA = (−1)i+j aij det MijA
i=2 i=2 i=1
�n En consecuencia
 � A �

 (−1)i+j−1 aij det M1i,kj si k > j
 n
� � � �n
= i=2
n det(A) = aij (−1)i+j det MijA = aij CijA para cada j ∈ {1, . . . , n}.
 � � A �

 i+j i=1 i=1
 (−1) aij det M1i,kj si k < j
i=2

Jorge Campos 255 256 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

Teorema 4 (Teorema 2.7). Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que Luego
s �= t, B(s) = A(t) , B(t) = A(s) y B(i) = A(i) para i �= s y i �= t, entonces det(B) = − det(A), � j−1
n
� �
en otras palabras, si intercambiamos dos filas distintas de A, el determinante de la matriz � A �
resultante es igual al determinante de A multiplicado por −1. det(B) = atj (−1)s+j (−1)t−1−s ask (−1)t+k det Mst,jk
j=1 k=1

Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = A(t) , B(t) = A(s) y n
� � A �
B(i) = A(i) para i �= s y i �= t, entonces bsj = atj y btj = asj para cada j ∈ {1, . . . , n} y + ask (−1)t+k−1 + det Mst,jk
además, al eliminar las filas s y t de A y las filas s y t de B obtenemos la misma matriz. Por k=j+1
� j−1 �
lo tanto n
� � n

� A � � A �
B
Mst,jk A
= Mst,jk = − atj (−1)t+j ask (−1)s+k det Mst,jk + ask (−1)s+k−1 det Mst,jk
j=1 k=1 k=j+1
para cada j, k ∈ {1, . . . , n} con j �= k.
Dado que s �= t, podemos suponer, sin perder generalidad, que s < t.
Por otro lado
n
� n

n
� n
� � � n
� � �
det(B) = B
bsj Csj = bsj (−1) s+j
det B
Msj = atj (−1) s+j B
det(Msj ) det(A) = atj CtjA = atj (−1)t+j det MtjA
j=1 j=1 j=1 j=1 j=1

Pero Y en este caso


 
a11 ··· a1(j−1) a1(j+1) ··· a1n  
 .. .. .. ..  a11 ··· a1(j−1) a1(j+1) ··· a1n
 . . . .   .. .. .. .. 
   . . . . 
 a(s−1)1 · · · a(s−1)(j−1) a(s−1)(j+1) · · · a(s−1)n   
   a(s−1)1 · · · a(s−1)(j−1) a(s−1)(j+1) · · · a(s−1)n 
 a(s+1)1 · · · a(s+1)(j−1) a(s+1)(j+1) · · · a(s+1)n   
 .. .. .. ..   as1 ··· as(j−1) as(j+1) ··· asn 
 . . . .   
Msj = 
B



 a(s+1)1 · · · a(s+1)(j−1) a(s+1)(j+1) · · · a(s+1)n 
 a(t−1)1 · · · a(t−1)(j−1) a(t−1)(j+1) · · · a(t−1)n  MtjA = 
 .. .. .. .. 

   . . . . 
 as1 ··· as(j−1) as(j+1) ··· asn   
   a(t−1)1 · · · a(t−1)(j−1) a(t−1)(j+1) · · · a(t−1)n 
 a(t+1)1 · · · a(t+1)(j−1) a(t+1)(j+1) · · · a(t+1)n   
 .. .. .. ..   a(t+1)1 · · · a(t+1)(j−1) a(t+1)(j+1) · · · a(t+1)n 
 . . . .   .. .. .. .. 
 . . . . 
an1 ··· an(j−1) an(j+1) ··· ann
an1 ··· an(j−1) an(j+1) ··· ann
Nótese que la fila (t − 1) de esta matriz es
� � Y la fila s de esta matriz es
as1 · · · as(j−1) as(j+1) · · · asn
� �
as1 · · · as(j−1) as(j+1) · · · asn
B
Ası́ que al desarrollar el determinante de Msj mediante la fila (t − 1), obtenemos
Por lo tanto, al desarrollar el determinante de MtjA mediante la fila s, obtenemos
j−1 n
� � � � � � � �
B t−1+k B t−1+k−1 B
det Msj = ask (−1) det Mst,jk + ask (−1) det Mst,jk j−1 n
k=1 k=j+1
� � � � A � � � A �
det MtjA = ask (−1)s+k det Mst,jk + ask (−1)s+k−1 det Mst,jk
j−1 n
� � A � � � A � k=1 k=j+1
= ask (−1)t−1+k det Mst,jk + ask (−1)t−1+k−1 det Mst,jk
k=1
� j−1
k=j+1
� Ası́ que � j−1 �
� n
� n
� � n

t−1−s s+k
� A
� s+k−1
� A
� � A � � A �
= (−1) ask (−1) det Mst,jk + ask (−1) det Mst,jk det(A) = atj (−1)t+j ask (−1)s+k det Mst,jk + ask (−1)s+k−1 det Mst,jk
k=1 k=j+1 j=1 k=1 k=j+1

Jorge Campos 257 258 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

En consecuencia Ya en el contexto que hemos expresado previamente, sean α1 , α2 , . . . , αr ∈ R tales que


n
� j−1 n

� � � A � � � A � α1 A(1) + α2 A(2) + · · · + αr A(r) = 0/m×1 (D.1)
det(B) = − atj (−1)t+j ask (−1)s+k det Mst,jk + ask (−1)s+k−1 det Mst,jk
j=1 k=1 k=j+1
 
α1
= − det(A) α2 
 
Entonces Âx = 0/m×1 es equivalente a la ecuación (D.1), donde x =  ..  (ver observación
.
αr
Teorema 5 (Teorema 3.12). Sean A, F ∈ Mm×n (R) tales que F es la FERF de A. Supon- 1.22).
gamos que j1 , j2 , . . . , jr ∈ {1, . . . , n} son tales que F (j1 ) , F (j2 ) , . . . , F (jr ) son las distintas co- Pero  es equivalente por filas a F̂ , por lo tanto F̂ x = 0/m×1 es equivalente a Âx = 0/m×1 y
lumnas pivotes de F . Entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son linealmente independientes. Además, en consecuencia equivalente a la ecuación (D.1). Dado que la única solución de F̂ x = 0/m×1 es
para cada j ∈ {1, . . . , n}, se tiene que x = 0/r×1 , es decir, α1 = α2 = · · · = αr = 0, se obtiene que A(1) , A(2) , . . . , A(r) son linealmente
independientes.
A(j) = f1j A(j1 ) + f2j A(j2 ) + · · · + frj A(jr ) . Finalmente, sea j ∈ {1, . . . , n} cualquiera. Si consideramos la ecuación F̂ x = F (j) , tal
(j)
ecuación tiene solución única (¿por qué?), la cual está dada por x = Ir si j ∈ {1, . . . , r}
Demostración. En primer lugar, si A = 0/m×n , entonces no hay nada que probar pues (j)
(¿por qué?) y x = Fr si j ∈ {r + 1, . . . , n} (¿por qué?). Además, tal ecuación equivale a la
en este caso F = 0/m×n , la cual no posee pivotes. Por lo cual supondremos que A �= 0/m×n ecuación Âx = A(j) (¿por qué?), en consecuencia
y por tanto 1 ≤ r ≤ n. Además, también podemos suponer, sin perder generalidad, que
1 ≤ j1 < j2 < · · · < jr ≤ n. r
� r

Por otro lado, si r = n, entonces n ≤ m (ver la parte 2 del ejercico 1.2.2), jk = k A(j) = ÂIr(j) = δkj A(k) = fkj A(k) si j ∈ {1, . . . , r}
para k ∈ {1, . . . , n} y además F x = 0/m×n tiene como única solución la trivial y por lo tanto k=1 k=1

Ax = 0/m×n también tiene como única solución la trivial, pues A y F son equivalentes por filas, r

en consecuencia, en virtud del teorema 3.10, se tiene que las columnas de A son linelamente A(j) = ÂFr(j) = fkj A(k) si j ∈ {r + 1, . . . , n}
independientes. Ası́ que también podemos suponer � que� 1 ≤ r <� n. � k=1

Ahora bien, si definimos las matrices Ā = Â|à y F̄ = F̂ |F̃ donde à y F̃ son las
submatrices de A y F , respectivamente, que se obtienen al eliminar las columnas j1 , j2 , . . . , jr
y Teorema 6 (Teorema 5.7). Sea λ ∈ R un autovalor de multiplicidad geométrica r de
� � � � una matriz A ∈ Mn×n (R). Entonces existe una matriz escalar E ∈ Mr×r (R) y matrices
 = A(j1 ) A(j2 ) · · · A(jr ) y F̂ = F (j1 ) F (j2 ) · · · F (jr ) ,
B ∈ Mr×(n−r) (R) y C ∈ M(n−r)×(n−r) (R) tales que la matriz
entonces, dado que F es la FERF de A y aplicando la parte 3 del corolario 1.13, se tiene que � �
F̄ es la FERF de Ā. Debido a esto y a que hemos supuesto que 1 ≤ j1 < j2 < · · · < jr ≤ n, E B
D=
podemos suponer que jk = k para k ∈ {1, . . . , r}, es decir, podemos suponer que las primeras 0(n−r)×r
/ C
r columnas de F son las que poseen pivotes y ası́
� � es similar a A.
I Fr
F = / r Demostración. Como λ tiene multiplicidad geométrica r, rntonces dim(Eλ ) = r. Sea
0(m−r)×r 0/(m−r)×(n−r)
{x1 , x2 , . . . , xr } una base para Eλ y consideremos xr+1 , xr+2 , . . . , xn ∈ Mn×1 (R) tales que
donde Fr es la submatriz de F que se obtiene al eliminar las primeras r columnas y las {x1 , x2 , . . . , xr , xr+1 , . . . , xn } es una base de Mn×1 (R).
últimas m − r filas (cuando r = m, no es necesario considerar las matrices nulas en la Sea P ∈ Mn×n (R) la matriz cuya i-ésima columna es xi , para cada i ∈ {1, . . . , n}, es decir
igualdad anterior). Con lo cual � �
� � P = x1 · · · xr xr+1 · · · xn
� � I
 = A(1) A(2) · · · A(r) y F̂ = / r , Por lo tanto P es invertible.
0(m−r)×r

Jorge Campos 259 260 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

Hagamos E = λIr y sean B ∈ Mr×(n−r) (R) y C ∈ M(n−r)×(n−r) (R) tales que Teorema 7 (Teorema 5.9). A ∈ Mn×n (R) tiene n autovectores linealmente independientes
� � si y sólo si pA (t) tiene sólo raı́ces reales y la multiplicidad algebraica, de cada uno de los au-
B � � tovalores de A, es igual a su multiplicidad geométrica. En particular, si A tiene n autovalores
= P −1 Axr+1 · · · P −1 Axn
C distintos, entonces A tiene n autovectores linealmente independientes.

esto es, para i ∈ {r + 1, . . . , n} Demostración. Supongamos que A tiene n autovectores linealmente independientes.
� � Sean λ1 , λ2 , . . . , λk ∈ R los distintos autovalores de A. Podemos suponer, sin perder ge-
B (i−r) −1
=P Axi neralidad, que los n autovectores de A, linealmente independientes, están ordenados como
C (i−r)
sigue
Definamos � � x1,1 , x1,2 , . . . , x1n1 , x2,1 , x2,2 , . . . , x2n2 , . . . , xk1 , xk2 , . . . , xknk
E B
D= de tal forma que xi1 , xi2 , . . . , xini están asociados a λi para cada i ∈ {1, . . . , k}. Entonces,
0(n−r)×r
/ C
dado que xi1 , xi2 , . . . , xini son linealmente independientes, la multiplicidad geométrica de λi
Ası́ que para i ∈ {1, . . . , r} se tiene es mayor o igual a ni , usando el teorema anterior, concluimos que ni es menor o igual que la
  multiplicidad algebraica de λi , por lo tanto
0
 ..  pA (t) = (t − λ1 )n1 · · · (t − λk )nk q(t)
.
� �   n
0 �
E (i)   donde q(t) es un polinomio. Pero ni = n, ası́ que q(t) es un polinomio constante, en con-
P D(i) = P = P λ −→ i-ésima fila
0/(n−k)×1   i=1
0
. secuencia, pA (t) sólo tiene raı́ces reales, a saber λ1 , λ2 , . . . , λk , y además ni es la multiplicidad
 .. 
algebraica de λi .
0 Con lo que hemos obtenido que la multiplicidad algebraica de λi es menor o igual a la
 
0 multiplicidad geométrica de λi , que sabemos, usando el teorema anterior, es menor o igual a
 ..  la multiplicidad algebraica de λi .
.
  Luego, la multiplicidad algebraica de λi es igual a la multiplicidad geométrica de λi para
0
  cada i ∈ {1, . . . , k}.
= λP 1 −→ i-ésima fila
  Supongamos ahora que pA (t) sólo tiene raı́ces reales y que la multiplicidad algebraica, de
0
. cada uno de los autovalores de A, es igual a su multiplicidad geométrica.
 .. 
Sean λ1 , λ2 , . . . , λk las distintas races de pA (t). Por hipótesis, λ1 , λ2 , . . . , λk ∈ R, por lo tanto
0 λ1 , λ2 , . . . , λk son los autovalores de A. Sean n1 , n2 , . . . , nk las multiplicidades algebraicas de
= λP In(i) = λP (i) = λxi = Axi = AP (i) λ1 , λ2 , . . . , λk , respectivamente. Entonces
pA (t) = (−1)n (t − λ1 )n1 · · · (t − λk )nk
y para i ∈ {r + 1, . . . , n}
k

� �
B (i−r) y ni = n. Por hipótesis, para cada i ∈ {1, . . . , k}, ni es también la multiplicidad geométrica
P D(i) = P = P P −1 Axi = Axi = AP (i)
C (i−r) i=1
de λi . Sea βi = {xi1 , xi2 , . . . , xini } una base para Eλi . Entonces, usando el teorema 5.4
Luego
β1 ∪ · · · ∪ βk = {x1,1 , x1,2 , . . . , x1n1 , x2,1 , x2,2 , . . . , x2n2 , . . . , xk1 , xk2 , . . . , xknk }
� �
PD = P D(1) · · · P D(r) P D(r+1) · · · P D(n) es linealmente independiente, es decir, A tiene n autovectores linealmente independientes.
� �
= AP (1) · · · AP (r) AP (r+1) · · · AP (n) = AP Finalmente, si A tiene n autovalores distintos, digamos λ1 , λ2 , . . . , λn ∈ R, entonces, usando
el teorema 5.4, dados x1 , x2 , . . . , xn ∈ Mn×1 (R), n autovectores de A correspondientes a
De donde D = P −1 AP y en consecuencia D es similar a A. λ1 , λ2 , . . . , λn respectivamente, se tiene que x1 , x2 , . . . , xn son linealmente independientes.

Jorge Campos 261 262 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

 
Teorema 8 (Teorema 5.12). Sea λ ∈ R un autovalor de multiplicidad algebraica k de una x1
matriz A ∈ Mn×n (R). Entonces existe p ∈ {1, . . . , k} tal que  x2 
 
Definamos v = x1 v1 + x2 v2 + · · · + xn vn , donde x =  .. . Entonces [v]βV = x, de donde
.
{0/n×1 } � Eλ = N(A − λIn ) � · · · � N ((A − λIn )p ) = N ((A − λIn )m )
xn
para todo m ≥ p. � � [T (v)]βW = [T ]βV ,βW [v]βV = [T ]βV ,βW · x = 0/m×1 = [0/W ]βW .
En particular N ((A − λIn )p ) = N (A − λIn )k y en consecuencia
� � �� Luego T (v) = 0W y ası́ v ∈ N(T ). En consecuencia, dado que {u1 , u2 , . . . , uk } es una
/

dim N (A − λIn )k ≤ k. base de N(T ), existen α1 , α2 , . . . , αk ∈ R tales que v = α1 u1 + α2 u2 + · · · + αk uk y por


lo tanto
Demostración. ¡Ejercico!
x = [v]βV = [α1 u1 + α2 u2 + · · · + αk uk ]βV = α1 [u1 ]βV + · · · + αk [uk ]βV

Teorema 9 (Teorema 5.13). Sea A ∈ Mn×n (R). Supongamos que pA (t) tiene sólo raı́ces es decir, x ∈ gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }) y en consecuencia
reales, digamos que λ1 , λ2 , . . . , λp ∈ R son las distintas raı́ces de pA (t), es decir, λ1 , λ2 , . . . , λp
son los distintos autovalores de A. Sean k1 , k2 , . . . , kp las multiplicidades algebraicas de N([T ]βV ,βW ) ⊂ gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }) (D.2)
λ1 , λ2 , . . . , λp , respectivamente. Entonces k1 + k2 + · · · + kp = n y además
Por otro lado, si x ∈ gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }), entonces existen escalares
dim(Kλi ) = ki α1 , α2 , . . . , αk ∈ R tales que

para cada i ∈ {1, . . . , p}. x = α1 [u1 ]βV + · · · + αk [uk ]βV = [α1 u1 + α2 u2 + · · · + αk uk ]βV

Demostración. ¡Ejercico! y ası́

[T ]βV ,βW · x = [T ]βV ,βW [α1 u1 + α2 u2 + · · · + αk uk ]βV


Teorema 10 (Teorema 5.14). A ∈ Mn×n (R) es similar a una matriz de Jordan si y sólo = [T (α1 u1 + α2 u2 + · · · + αk uk )]βW
si pA (t) sólo tiene raı́ces reales. = [α1 T (u1 ) + α2 T (u2 ) + · · · + αk T (uk )]βW = [α1 0/W + · · · + αk 0/W ]βW
= [0/W ]βW = 0/m×1 .
Demostración. ¡Ejercico!
Luego x ∈ N([T ]βV ,βW ) y por lo tanto
Teorema 11 (Teorema 6.19). Sean V y W dos espacios vectoriales, βV = {v1 , v2 , . . . , vn } gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV }) ⊂ N([T ]βV ,βW ) (D.3)
una base ordenada de V, βW = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W
una transformación lineal. Entonces Entonces De (D.2) y (D.3) obtenemos que

N([T ]βV ,βW ) = gen({[u1 ]βV , [u2 ]βV , . . . , [uk ]βV })


1. {u1 , u2 , . . . , uk } es una base para N(T ) si y sólo si {[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } es una base
para N([T ]βV ,βW ) es decir
{[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } genera a N([T ]βV ,βW ) (D.4)
2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y sólo si {[z1 ]βW , [z2 ]βW , . . . , [zr ]βW } es una base
para Im([T ]βV ,βW ) Ahora bien, sean α1 , α2 , . . . , αk ∈ R tales que

Demostración. α1 [u1 ]βV + α2 [u2 ]βV + · · · + αk [uk ]βV = 0/m×1 .

Luego
1. Supongamos primero que {u1 , u2 , . . . , uk } es una base para N(T ). Sea x ∈ N([T ]βV ,βW )
cualquiera. Entonces [T ]βV ,βW · x = 0/m×1 [α1 u1 + α2 u2 + · · · + αk uk ]βV = α1 [u1 ]βV + α2 [u2 ]βV + · · · + αk [uk ]βV = 0/n×1 = [0/V ]βV

Jorge Campos 263 264 Jorge Campos


Apéndice D. Demostraciones de Algunos Teoremas

de donde Ası́ que T (v) = 0/W , es decir, v ∈ N(T ) y por lo tanto


α1 u1 + α2 u2 + · · · + αk uk = 0/V
gen({u1 , u2 , . . . , uk }) ⊂ N(T ) (D.7)
y dado que {u1 , u2 , . . . , uk } es una base de N(T ), entonces
De (D.6) y (D.7) obtenemos que
α1 = α2 = · · · = αk = 0,
N(T ) = gen({u1 , u2 , . . . , uk })
en consecuencia
Luego
{[u1 ]βV , [u2 ]βV , · · · , [uk ]βV } es linealmente independiente (D.5) {u1 , u2 , . . . , uk } genera a N(T ) (D.8)
Finalmente, sean α1 , α2 , . . . , αk ∈ R tales que α1 u1 + α2 u2 + · · · + αk uk = 0/V . Entonces
De (D.4) y (D.5) se tiene que {[u1 ]βV , [u2 ]βV , · · · , [uk ]βV } es una base de N([T ]βV ,βW )
Por lo tanto, si {u1 , u2 , . . . , uk } es una base de N(T ), entonces {[u1 ]βV , [u2 ]βV , · · · , [uk ]βV } α1 [u1 ]βV + α2 [u2 ]βV + · · · + αk [uk ]βV = [α1 u1 + α2 u2 + · · · + αk uk ]βV = [0/V ]βV = 0/n×1
es una base de N([T ]βV ,βW ).
y dado que {[u1 ]βV , [u2 ]βV , . . . , [uk ]βV } es una base de N([T ]βV ,βww ), entonces
Supongamos ahora que {[u1 ]βV , [u2 ]βV , · · · , [uk ]βV } es una base de N([T ]βV ,βW ). Sea α1 = α2 = · · · = αk = 0 y por lo tanto
v ∈ N(T ) cualquiera. Entonces T (v) = 0/W y ası́
{u1 , u2 , . . . , uk } es linealmente independiente (D.9)
[T ]βV ,βW [v]βV = [T (v)]βW = [0/W ]βW = 0/m×1
De (D.8) y (D.9) obtenemos que {u1 , u2 , . . . , uk } es una base de N(T ). Ası́ que si
Luego [v]βV ∈ N([T ]βV ,βW ) y por lo tanto, dado que {[u1 ]βV , [u2 ]βV , · · · , [uk ]βV } es una {[u1 ]βV , [u2 ]βV , · · · , [uk ]βV } es una base de N([T ]βV ,βW ), entonces {u1 , u2 , . . . , uk } es una
base de N([T ]βV ,βW ), existen α1 , α2 , . . . , αk ∈ R tales que base de N(T ), lo cual concluye la prueba de la primera parte del teorema.

[v]βV = α1 [u1 ]βV + α2 [u2 ]βV + · · · + αk [uk ]βV 2. ¡Ejercicio!

ası́ que
[v]βV = [α1 u1 + α2 u2 + · · · + αk uk ]βV
de donde
v = α 1 u 1 + α 2 u2 + · · · + αk uk
es decir
v ∈ gen({u1 , u2 , . . . , uk })
y por lo tanto
N(T ) ⊂ gen({u1 , u2 , . . . , uk }) (D.6)
Por otro lado, sea v ∈ gen({u1 , u2 , . . . , uk }) cualquiera. Entonces existen escalares
α1 , α2 , . . . , αk ∈ R tales que v = α1 u1 + α2 u2 + · · · + αk uk y en consecuencia

[T (v)]βW = [T ]βV ,βW [v]βV = [T ]βV ,βW [α1 u1 + α2 u2 + · · · + αk uk ]βV


= [T ]βV ,βW (α1 [u1 ]βV + α2 [u2 ]βV + · · · + αk [uk ]βV )
= α1 [T ]βV ,βW [u1 ]βV + α2 [T ]βV ,βW [u2 ]βV + · · · + αk [T ]βV ,βW [uk ]βV
= α1 0/m×1 +α2 0/m×1 + · · · + αk 0/m×1 (¿por qué?)
= 0/m×1 = [0/W ]βW

Jorge Campos 265 266 Jorge Campos


Bibliografı́a

[1] Arvesú Carvallo Jorge, Marcellán Español Francisco y Sánchez Ruiz Jorge, Problemas
Resueltos de Álgebra Lineal, Thomson (2005).

[2] Grossman Stanley, Álgebra Lineal, Sexta Edición, McGraw Hill (2007).

[3] Kolman Bernard y Hill David R., Álgebra Lineal, Octava Edición, Perason-Prentice Hall
(2006).

[4] Larson Ron y Falvo David C., Fundamentos de Álgebra Lineal, Sexta Edición, Cengage
Learning (2010).

[5] Lay David C., Álgebra Lineal y sus Aplicaciones, Tercera Edición, Pearson-Addison Wes-
ley (2007).

[6] Nakos George y Joyner David, Álgebra Lineal con Aplicaciones, Thomson (1999).

[7] Poole David, Álgebra Lineal. Una Introducción Moderna, Segunda Edición, Cengage Lear-
ning (2007).

[8] Rojo Jesús, Álgebra Lineal, McGraw Hill (2001).

[9] Zegarra A. Luis, Álgebra Lineal, McGraw Hill (2001).

267

Вам также может понравиться