Вы находитесь на странице: 1из 238

lgebra Lineal

Ruth Cueva - Felipe Navas - Jos Luis Toro


Profesores de la Escuela Politcnica Nacional
Edicin general:
Juan Carlos Trujillo
Editores:
Fabin Barba, Juan Carlos Trujillo
Profesores de la Escuela Politcnica Nacional
Quito - Febrero 2009
2
Matrices
Determinantes
Sistemas lineales
por Ruth Cueva
Edicin: Fabin Barba
Revisin: Juan Carlos Trujillo
5
Objetivos
El objetivo general de esta parte es:
Resolver problemas sobre sistemas de ecuaciones lineales con coecientes
reales de orden 4 por 4 a lo ms, utilizando las propiedades bsicas de las
matrices y de los determinantes, a un nivel reproductivo.
Para alcanzar el objetivo general, se proponen los siguientes objetivos especcos:
1. Identicar los diferentes tipos de matrices a partir de su denicin a un nivel de
familiarizacin.
2. Calcular una matriz escalonada reducida por las a partir de una matriz dada,
mediante operaciones elementales de la, a un nivel reproductivo.
3. Resolver problemas con elementos matriciales usando las operaciones de suma de
matrices, multiplicacin de un escalar con una matriz y la multiplicacin entre ma-
trices, a un nivel productivo.
4. Determinar la inversa de una matriz de orden 4 por 4 a lo ms, a partir de las
propiedades bsicas de las operaciones elementales de la a un nivel reproductivo.
5. Identicar las propiedades fundamentales del determinante de una matriz de orden
n, mediante las operaciones elementales de la y la denicin a un nivel reproductivo.
6. Calcular el valor de un determinante de una matriz de orden n, usando sus propie-
dades y la denicin a un nivel reproductivo.
7. Calcular la matriz inversa de una matriz de orden n a partir de su denicin y de
las propiedades de los determinantes a un nivel reproductivo.
8. Resolver sistemas de ecuaciones lineales con coecientes constantes reales hasta de
orden 4 4, a partir de las operaciones elementales de la o de las propiedades de
los determinantes a un nivel reproductivo.
6
Matrices 1
1.1 Deniciones
En este libro, utilizaremos I
n
para representar el conjunto de todos los nmeros natu-
rales desde 1 hasta n. Es decir:
I
n
= k N : 1 k n = 1, 2, 3, . . . , n.
Denicin 1.1 (Matriz) Sean m N y n N. Una matriz A sobre un campo K es una funcin
A denida por:
A: I
m
I
n
K
(i, j) A(i, j) = a
ij
.
(1.1)
Cada a
ij
K se denomina elemento de la matriz A.
Como el conjunto I
m
I
n
tiene mn elementos, la matriz A tiene mn elementos,
los mismos que se disponen en un arreglo rectangular de sus elementos, dispuestos en
m las y en n columnas de la siguiente forma:
A =
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
. . . . . . . . . . . . . . . .
a
m1
a
m2
a
mn
_
_
_
_
. (1.2)
Por esta razn, se dice que la matriz A es de orden m por n y se la representa por:
A = (a
ij
)
mn
.
El conjunto de las matrices de orden m por n es notado M
mn
. Si se quiere especi-
car que el conjunto de las matrices es sobre el campo de los nmeros reales R o de los
nmeros complejos C, se puede escribir M
mn
(R) o M
mn
(C), respectivamente. As, la
expresin A M
mn
(C) nos dice que la matriz A es una matriz de orden m por n (m
las y n columnas) y que sus elementos son nmeros complejos.
Denicin 1.2 (Igualdad de matrices) Dos matrices A = (a
ij
)
mn
y B = (b
ij
)
pq
son iguales
si y solo si:
8 Matrices
1. m = p, n = q, y
2. a
ij
= b
ij
para todo i = 1, 2, . . . , m y todo j = 1, 2, . . . , n.
Es decir, dos matrices son iguales si y solo si son del mismo orden y sus correspon-
dientes elementos son iguales.
Ejemplo 1 Las matrices
A =
_
_
5 4 2
0 2 1
3 2 7
_
_
y B =
_
_
5 x 2
0 2 y
z 2 7
_
_
son iguales si x = 4, y = 1 y z = 3, ya que son del mismo orden y el resto de elementos
correspondientes son iguales entre s.
Los nombres dados a las matrices que se denen a continuacin aprovechan el hecho
de que se han dispuesto los elementos de la matriz en un arreglo rectangular de los
mismos. Posteriormente, tal arreglo rectangular permitir tambin denir operaciones
con las matrices.
Denicin 1.3 (Matriz cuadrada) Una matriz es cuadrada de orden n si es de orden n n.
Es decir, una matriz cuadrada tiene igual nmero de las y de columnas. Una matriz
cuadrada A es notada A = (a
ij
)
n
. El conjunto de las matrices cuadradas de orden nn
es notado M
n
.
Un cuadrado tiene dos diagonales. En una matriz cuadrada se considera solo una
de ellas: la que va desde la esquina superior izquierda a la esquina inferior derecha y
es denominada diagonal principal, o simplemente diagonal. Es decir, la diagonal de la
matriz A = (a
ij
)
n
es el conjunto de los elementos a
ii
, con i = 1, 2, . . . , n.
Denicin 1.4 (Fila y columna de una matriz) Sea la matriz A = (a
ij
)
mn
.
1. Se llama i-sima la de la matriz A a la matriz A
i
de orden 1 n denida por:
A
i
=
_
a
i1
a
i2
a
i1
_
.
2. Se llama j-sima columna de la matriz A a la matriz A
j
de orden m1 denida por:
A
j
=
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
Una matriz A M
1n
, que consta de una sola la, se llama matriz la. Una ma-
triz A M
m1
, que consta de una sola columna, se llama matriz columna. Una la
(columna) de una matriz es una matriz la (columna).
Denicin 1.5 (Matriz transpuesta) La matriz transpuesta de la matriz A = (a
ij
)
mn
es la
matriz A
t
= ( a
ij
)
nm
donde
a
ij
= a
ji
.
1.1 Deniciones 9
Ejemplo 2 Hallar la matriz transpuesta de la matriz
A =
_
1 2 3
4 5 1
_
.
Al aplicar la denicin se obtiene que la matriz transpuesta de A es
A
t
=
_
_
1 4
2 5
3 1
_
_
.

El resultado de aplicar la denicin es que las las de Ase convierten en las columnas
de A
t
, es decir las las y las columnas se transponen y de all el nombre de transpuesta
para la matriz que se obtiene.
Denicin 1.6 (Matriz simtrica) Se dice que la matriz cuadrada A es simtrica si y solo si
A
t
= A.
Ejemplo 1.1
Sea la matriz
A =
_
_
3 1 4
1 7 2
4 2 9
_
_
.
Es A una matriz simtrica?
Solucin. Para responder a esta pregunta, hallemos su matriz transpuesta:
A
t
=
_
_
3 1 4
1 7 2
4 2 9
_
_
.
Como A
t
= A concluimos que A es una matriz simtrica.
Observemos que los elementos que estn a uno y otro lado de la diagonal son iguales.
De ah proviene el nombre de matriz simtrica.
Denicin 1.7 (Matriz antisimtrica) Se dice que la matriz cuadrada A = (a
ij
)
n
es antisimtrica
si y solo si A
t
= (a
ij
)
n
.
Cuando veamos la operacin suma de matrices, podremos denir el inverso aditi-
vo de una matriz A = (a
ij
)
mn
, notado A, como la matriz A = (a
ij
)
mn
. All
podremos decir que una matriz cuadrada es antisimtrica si A
t
= A.
10 Matrices
Ejemplo 1.2
Sea la matriz
A = (a
ij
)
3
=
_
_
0 1 4
1 0 2
4 2 0
_
_
.
Es A una matriz antisimtrica?
Solucin. Hallemos las matrices A
t
y (a
ij
)
3
:
A
t
=
_
_
0 1 4
1 0 2
4 2 0
_
_
, (a
ij
)
3
=
_
_
0 1 4
1 0 2
4 2 0
_
_
.
Encontramos que A
t
= (a
ij
)
3
y podemos armar que A es una matriz antisimtrica.
Observemos que los elementos a uno y otro lado de la diagonal son el uno el negativo
del otro y que la diagonal est formada por elementos que necesariamente son ceros.
Denicin 1.8 (Matriz nula) Una matriz A = (a
ij
)
mn
se llama matriz nula si y solo si a
ij
= 0
para todo i = 1, 2, . . . , m y todo j = 1, 2, . . . , n.
En otras palabras, los elementos de una matriz nula son todos ceros. Hay una matriz
nula para cada orden de matrices. La matriz nula se nota 0
mn
, o simplemente 0 cuando
el orden est sobre entendido. Por el contexto quedar claro que se trata de la matriz
nula y no del nmero cero. La matriz 0 =
_
0 0 0
_
es la matriz nula de las matrices
la de orden 13, y la matriz 0 =
_
0 0 0
_
t
es la matriz nula de las matrices columna
de orden 3 1.
Denicin 1.9 (Matriz identidad) Una matriz A = (a
ij
)
n
se llama matriz identidad si y solo si
a
ij
= 0 para i ,= j, y a
ij
= 1 para i = j.
La matriz identidad de orden n se nota I
n
, o simplemente I cuando el orden est
sobre entendido:
I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
.
La matriz identidad I
n
juega el papel de neutro multiplicativo en el producto de matrices
cuadradas de orden n.
Denicin 1.10 (Matriz diagonal) Una matriz A = (a
ij
)
n
se llama matriz diagonal si y solo si
a
ij
= 0 para i ,= j.
Por la denicin, una matriz es diagonal si los elementos que no estn en la diagonal
son iguales a cero. Las matrices identidad y nula son matrices diagonales.
1.2 Operaciones con matrices 11
Denicin 1.11 (Matriz escalar) Una matriz A = (a
ij
)
n
se llama matriz escalar si y solo si
a
ij
= 0 para i ,= j y a
ij
= k K para i = j.
Una matriz escalar es una matriz diagonal con los elementos de la diagonal iguales.
Son ejemplos de matrices diagonales las matrices identidad y nulas.
Denicin 1.12 (Matrices triangulares superior e inferior) Sea una matriz A = (a
ij
)
n
.
1. Se dice que A es una matriz triangular superior si y solo si a
ij
= 0 para i > j.
2. Se dice que A es una matriz triangular inferior si y solo si a
ij
= 0 para i < j.
Las matrices triangulares superior e inferior tienen todos sus elementos iguales a
cero bajo y sobre la diagonal, respectivamente. Las matrices escalares son triangulares
superiores e inferiores a la vez.
Ejemplo 3 Las matrices
A =
_
_
1 0 2
0 0 1
0 0 3
_
_
y B =
_
_
0 0 0
0 2 0
1 1 0
_
_
son triangulares superior e inferior, respectivamente.
1.2 Operaciones con matrices
En lo que sigue nos referiremos como escalares a los nmeros reales y complejos. Vere-
mos las siguientes operaciones con matrices:
1. Suma de matrices.
2. Producto de un escalar por una matriz.
3. Producto de matrices.
1.2.1 Suma de matrices
Denicin 1.13 (Suma de matrices) Sean las matrices A = (a
ij
)
mn
y B = (b
ij
)
mn
. Se llama
suma de A y B a la matriz C = (c
ij
)
mn
denida por
c
ij
= a
ij
+b
ij
, 1 i m, 1 i n.
La suma de matrices est, pues, denida para matrices de igual orden. La suma de
A y B se nota A+B, y es una matriz de igual orden que el orden de A y B. De aqu en
adelante, si escribimos A+B se entiende que las matrices A y B son del mismo orden.
12 Matrices
Ejemplo 4 Sean las matrices
A =
_
2 1 3
2 3 4
_
y B =
_
0 1 5
5 7 1
_
.
Entonces
A+B =
_
2 + 0 1 + 1 3 + (5)
2 + 5 3 + (7) 4 + 1
_
=
_
2 0 2
3 4 3
_
.

Teorema 1.1 (Propiedades de la suma de matrices) Para las matrices A, B y C de orden mn


se cumplen las siguientes propiedades:
1. Propiedad clausurativa: A+B es una matriz de orden mn.
2. Propiedad asociativa: (A +B) +C = A + (B +C).
3. Propiedad conmutativa: A +B = B +A.
4. Existencia del neutro para la suma: para toda matriz A M
mn
, existe una matriz
0 M
mn
tal que
A+ 0 = A.
La matriz 0 se llama neutro aditivo o matriz cero.
5. Existencia del opuesto para la suma: para toda matriz A M
mn
, existe una matriz
D M
mn
tal que
A+D = 0.
La matriz D se representa mediante A y se llama inverso aditivo o negativo de A. Esta
propiedad puede escribirse de la siguiente manera:
A+ (A) = 0.
La demostracin de estas cinco propiedades se basa en las propiedades de campo de
los nmeros reales y complejos y se deja como ejercicio. Baste decir que como matriz
cero (neutro aditivo) se toma la matriz nula denida anteriormente, y como negativo
(inverso aditivo) de la matriz A = (a
ij
)
mn
se toma la matriz A = (a
ij
)
mn
. Otras
propiedades se propondrn como ejercicios.
El conjunto de las matrices M
mn
(K) dotado de la operacin suma de matrices
denida anteriormente, (M
mn
(K), +) y las propiedades 1, 2, 4 y 5 del teorema anterior,
constituye un grupo. S adems se toma en cuenta la propiedad conmutativa de la suma,
tal grupo es un grupo conmutativo o grupo abeliano.
Se puede demostrar que la matriz neutro aditivo es nica y tambin que la matriz
inverso aditivo es nica. Estas demostraciones tambin se basan en la unicidad del
neutro aditivo y del inverso aditivo de los escalares, es decir de los nmeros reales o
complejos.
La existencia del inverso aditivo permite denir la resta de matrices. La resta de
las matrices A y B de igual orden, representada por AB se dene como
AB = A + (B).
1.2 Operaciones con matrices 13
1.2.2 Producto escalar
Denicin 1.14 (Producto escalar) El producto del escalar K y la matriz A = (a
ij
)
mn
,
notado A, se dene como
A = (a
ij
)
mn
= (a
ij
)
mn
, 1 i m, 1 j n.
Ejemplo 5
(2 +i)
_
i 1 i
2 3 +i
_
=
_
1 2i 1 + 3i
4 + 2i 7 +i
_
y
_
_
1 2
2 3
1 0
_
_
=
1
2
_
_
2 4
4 6
2 0
_
_
.

Teorema 1.2 (Propiedades del producto escalar) Para los escalares y y las matrices A y B
de orden mn se cumplen las siguientes propiedades:
1. Propiedad clausurativa: A es una matriz de orden mn.
2. Propiedad asociativa: ()A = (A).
3. Propiedad distributiva con respecto a la suma de matrices: (A +B) = A+B.
4. Propiedad distributiva con respecto a la suma de escalares: ( +)A = A +A.
5. Propiedad asociativa mixta: A(B) = (AB) = (A)B.
6. El nmero 1 es el elemento identidad del producto escalar: 1A = A.
Estas son las principales propiedades del producto escalar, las que permitirn pos-
teriormente hablar del espacio lineal de matrices. Otras propiedades se propondrn
como ejercicios.
1.2.3 Multiplicacin de matrices
Denicin 1.15 (Multiplicacin de matrices) Sean las matrices A = (a
ij
)
mn
y B = (b
ij
)
np
. El
producto de A y B, notado AB, es la matriz C = (c
ij
)
mp
denida por
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
=
n

k=1
a
ik
b
kj
, 1 i m, 1 j p.
El producto de A y B no est denido si el nmero de columnas de A no es igual al
nmero de las de B.
14 Matrices
El elemento c
ij
de AB es el elemento nico de la matriz de orden 1 1 que resulta
del producto de la i-sima la de A, A
i
, y la j-sima columna de B, B
j
:
A
i
B
j
=
_
a
i1
a
i2
a
in
_
_
_
_
_
_
b
1j
b
2j
.
.
.
b
nj
_
_
_
_
_
=
_
a
i1
b
1j
+ a
i2
b
2j
+ + a
in
b
nj
_
= (c
ij
)
11
.
La multiplicacin de matrices es una operacin muy especial. Los siguientes ejemplos
muestran sus peculiaridades.
Ejemplo 6 Sean
A =
_
1 2 3
3 21
_
M
23
y B =
_
_
1 1
2 3
3 1
_
_
M
32
.
Entonces
AB =
_
1 2 3
3 21
_
_
_
1 1
2 3
3 1
_
_
=
_
1 1 + (2)2 + 3 3 1 1 + (2)(3) + 3 1
3 1 + (2)2 + 1 3 3 1 + (2)(3) + 1 1
_
=
_
6 10
2 10
_
.
De manera similar se calcula
BA =
_
_
1 1
2 3
3 1
_
_
_
1 2 3
3 21
_
=
_
_
4 4 4
7 2 3
6 8 10
_
_
.
Comentario. En este caso, los productos AB y BA estn denidos y son matrices de rdenes
diferentes, por lo cual AB ,= BA. Este ejemplo nos muestra que el producto de matrices A y
B no es conmutativo. Ntese adems que A y B no son cuadradas pero los dos productos son
matrices cuadradas.
Ejemplo 1.3 Sean
A =
_
2 2
1 3
_
M
2
y B =
_
1 1
2 3
_
M
2
.
Entonces
AB =
_
2 4
5 8
_
y BA =
_
3 5
7 13
_
.
Las matrices AB y BA son cuadradas del mismo orden pero, una vez ms, diferentes. En
general, si las matrices A y B son cuadradas del mismo orden, los productos AB y BA estn
denidos y son tambin matrices cuadradas del mismo orden.
1.2 Operaciones con matrices 15
Ejemplo 7 Tenemos que:
AB =
_
1 1
1 1
__
2 2
2 2
_
=
_
0 0
0 0
_
.
Las matrices A y B no son nulas, sin embargo su producto s.
Ejemplo 8 Sean:
A =
_
1 1
1 1
_
, B =
_
2 2
2 2
_
y C =
_
3 1
1 3
_
.
Tenemos que
AB =
_
4 4
4 4
_
= AC,
pero B ,= C a pesar de que A ,= 0. Por lo tanto, la propiedad cancelativa no aplica al producto
de matrices.
La multiplicacin de matrices no tiene la propiedad conmutativa ni la cancelativa,
pero al menos tiene las propiedades asociativa y distributivas como se expresa en el
siguiente teorema.
Teorema 1.3 (Propiedades de la multiplicacin de matrices) Para matrices A, B y C de rdenes
tales que los productos estn denidos, se cumplen las siguientes propiedades:
1. Propiedad asociativa: (AB)C = A(BC).
2. Propiedad distributiva por la izquierda: A(B +C) = AB +AC.
3. Propiedad distributiva por la derecha: (A+B)C = AC +BC.
Demostracin. Sean A = (a
ij
)
mn
, B = (b
ij
)
np
y C = (c
ij
)
pq
.
1. Propiedad asociativa:
(AB)C =
_
(a
ij
)
mn
(b
ij
)
np
_
(c
ij
)
pq
=
_
p

r=1
_
n

k=1
a
ik
b
kr
_
c
rj
_
=
_
p

r=1
n

k=1
a
ik
b
kr
c
rj
_
=
_
n

k=1
p

r=1
a
ik
b
kr
c
rj
_
=
_
n

k=1
a
ik
_
p

r=1
b
kr
c
rj
__
= A(BC).
16 Matrices
2. Propiedad distributiva por la izquierda:
A(B + C) = (a
ij
)
mn
_
(b
ij
)
np
+ C = (c
ij
)
np
_
= (a
ij
)
mn
((b
ij
) + c
ij
)
np
=
n

k=1
a
ij
(b
kj
+ c
kj
)
=
n

k=1
a
ij
b
kj
+
n

k=1
a
ij
c
kj
= AB + AC.
3. La demostracin de la propiedad distributiva por la derecha es similar a la anterior
y se deja al lector como ejercicio.
Ejemplo 9 Sea
A =
_
2 0 3
1 2 4
_
.
Tenemos que
I
3
A =
_
1 0
0 1
__
2 0 3
1 2 4
_
=
_
2 0 3
1 2 4
_
y
AI
2
=
_
2 0 3
1 2 4
_
_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
2 0 3
1 2 4
_
.
Es decir, en este caso,
I
2
A = AI
3
= A.

En general, si A M
mn
la igualdad siguiente es verdadera:
I
n
A = AI
m
= A.
La matriz I
n
suele ser llamada neutro multiplicativo de A por la izquierda y la matriz
I
m
, neutro multiplicativo de A por la derecha. En el caso particular de que A es una
matriz cuadrada de orden n, la igualdad anterior se ve as:
I
n
A = AI
n
= A.
La matriz identidad I
n
es denominada simplemente el elemento neutro para el producto
de matrices cuadradas de orden n.
El conjunto de las matrices cuadradas de orden M
n
(K) dotado de las operaciones
suma y producto de matrices es un anillo no conmutativo con elemento neutro.
1.3 Operaciones elementales de la de una matriz 17
1.3 Operaciones elementales de la de una matriz
Para cualquier matriz se pueden denir operaciones entre sus las y tambin ope-
raciones entre sus columnas. Aqu deniremos las operaciones, que se denominarn
elementales, de la.
Denicin 1.16 (Operaciones elementales de la) Sean la matriz A M
mn
(K) y el escalar
c K. Cada una de las siguientes tres operaciones se denomina operacin elemental de la
sobre la matriz A:
1. Multiplicar la la r-sima de A por una constante c con c ,= 0 y c ,= 1. Es decir, reempla-
zar A
r
por cA
r
.
2. Sumar c veces la la s-sima, cA
s
, con la la r-sima de A. Es decir, reemplazar A
r
por
cA
s
+A
r
.
3. Intercambiar las las distintas s-sima y r-sima de A. Es decir, reemplazar A
s
por A
r
y A
r
por A
s
con s ,= r.
El signicado exacto de reemplazar es el siguiente: dada la matriz A, se obtiene, en
realidad, una nueva matriz A

, la cual es idntica a la matriz A salvo en su la nmero


r que es cA
r
. En otras palabras, la operacin multiplicar una la por una constante es
una funcin que va desde el conjunto M
mn
(K) en s mismo tal que a cada A le hace
corresponder A

. Signicados similares corresponden a las otras dos operaciones. Ms


adelante, precisaremos estos signicados.
Estas tres operaciones elementales de la pueden ser representadas as:
1. cA
r
A
r
, o simplemente cA
r
, que quiere decir: obtenga una nueva matriz al
quitar la la A
r
y, en su lugar, poner la la cA
r
.
2. A
r
+cA
s
A
r
, o simplemente A
r
+cA
s
, que quiere decir: obtenga una nueva
matriz al quitar la la A
r
y, en su lugar, poner la la A
r
+ cA
s
.
3. A
s
A
r
, que quiere decir: obtenga una nueva matriz al intercambiar las las
A
s
y A
r
entre s.
A las operaciones elementales de la en el orden en que fueron denidas las deno-
minaremos del tipo 1, 2 y 3, respectivamente.
Como ya se dijo anteriormente, al efectuar una de las operaciones elementales de
la sobre una matriz A, se obtiene otra matriz. Formalmente, se puede denir cada
una de las operaciones elementales de la como una funcin.
Denicin 1.17 (Operaciones elementales de la) Una operacin elemental de la sobre una
matriz A = (a
ij
) M
mn
es una de las tres funciones
e: M
mn
M
mn
A e(A) = ( a
ij
)
tales que:
18 Matrices
1. Tipo 1: si c ,= 0 y c ,= 1,
a
ij
=
_
a
ij
si i ,= r,
ca
ij
si i = r
para todo j I
n
.
A esta funcin la vas a representar con e
c
r
para indicar que se multiplica la la nmero r
por el nmero c.
2. Tipo 2: si c ,= 0,
a
ij
=
_
a
ij
si i ,= r
ca
sj
+a
ij
si i = r
para todo j I
n
.
A esta funcin le representaremos con e
c
s,r
para indicar que se multiplica la la nmero s
por c y la la resultante es sumada esta la a la la nmero r.
3. Tipo 3: si r ,= s,
a
ij
=
_

_
a
ij
si i ,= r y i ,= s,
a
sj
si i = r,
a
rj
si i = s
para todo j I
n
.
A esta funcin le representaremos con e
r,s
para indicar que se intercambiaron las las
nmero s y nmero r.
Las operaciones de tipo 1 y tipo 2 afectan solo a una la de la matriz; las dems
quedan idnticas. La operacin de tipo 3 afecta a dos las; las dems quedan inaltera-
das.
El siguiente teorema establece que las operaciones elementales son funciones biyec-
tivas, por lo que poseen inversa.
Teorema 1.4 Cada operacin elemental de la es biyectiva, y su inversa es del mismo tipo. Es
decir, a cada operacin elemental de la e, le corresponde una operacin elemental de la e, del
mismo tipo que e, tal que:
e( e(A)) = e(e(A)) = A.
para todo A M
mn
.
Demostracin. Sea e una operacin elemental de la de tipo 1; es decir, e es de la
forma e
c
r
con c ,= 0 y r I
m
. Vamos a probar que es e
c
r
es inyectiva y sobreyectiva.
Para ver la inyectividad, supongamos que A y B dos matrices (del mismo orden)
tales que e
c
r
(A) = e
c
r
(B). Entonces:
1. para i ,= r, la la i-sima de e
c
r
(A) es A
i
;
2. para i ,= r, la la i-sima de e
c
r
(B) es B
i
.
1.3 Operaciones elementales de la de una matriz 19
Dado que e
c
r
(A) = e
c
r
(B), podemos concluir que A
i
= B
i
para todo i ,= r.
Por otro lado, la la r-sima de e
c
r
(A) es cA
r
y la de e
c
r
(B) es cB
r
. Otra vez, como
e
c
r
(A) = e
c
r
(B), concluimos que cA
r
= cB
r
, de donde, ya que c ,= 0, deducimos que
A
r
= B
r
.
En resumen, cada la de A es igual a la correspondiente la de B, por lo que A = B.
Razonamientos similares nos permiten demostrar que las operaciones elementales
de los otros tipos son inyectiva, por lo que se dejan las demostraciones al lector.
Probemos ahora la sobreyectividad de la operacin e
c
r
. Para ello, dada una matriz
B, debemos encontrar una matriz A tal que e
c
r
(A) = B.
Para hallar A, observemos que B deber tener las las correspondiente de A, salvo
la r-sima la, que ser cA
r
. Es decir:
B
i
=
_
A
i
si i ,= r,
cA
r
si i = r.
Esto nos sugiere, inmediatamente, que la matriz A que buscamos, debe denirse as:
A
i
=
_
B
i
si i ,= r,
1
c
B
r
si i = r,
lo que es posible, ya que c ,= 0.
Denida de esta manera la matriz A, es fcil comprobar que e
c
r
(A) = B, con lo que
queda demostrado que e
c
r
es sobreyectiva. Adicionalmente, esta demostracin nos ha
dado la inversa de e
c
r
:
(e
c
r
)
1
= e
1
c
r
.
Demostraciones similares se pueden hacer para los otros dos tipos de funciones
elementales por las, por lo que se las deja para que el lector las realice por s mismo.
Si no se presta a confusin, evitaremos el uso de los parntesis en e(A); en su lugar,
escribiremos simplemente eA. Esta nueva notacin ser de mucha utilidad en lo que
viene a continuacin.
Supongamos que e
1
, e
2
, . . . , e
n
son n operaciones elementales por las, y A y B son
dos matrices tales que
B = e
n
e
n1
e
2
e
1
A.
En otras palabras, la matriz B se obtuvo, a partir de la matriz A, luego de aplicar
sucesivamente, n operaciones elementales.
Es fcil ver que, como existen las inversas de cada e
i
, entonces A se puede obtener
a partir de B, tambin por la aplicacin de n operaciones elementales:
A = e
1
e
2
e
n1
e
n
B.
Esta relacin entre las matrices A y B es, en realidad, una relacin simtrica en el
conjunto de matrices.
En efecto, si indicamos con A B cuando A se obtiene a partir de B por la
aplicacin sucesiva de un nmero nito de operaciones elementales por la, entonces,
es inmediato que A B implica B A.
20 Matrices
Ms an, se verica tambin que A A; es decir, toda matriz A se puede obtener
a partir de s misma por la aplicacin de un nmero nito de operaciones elementales.
Por ejemplo, si e es una operacin elemental, como es inversible, tenemos que
A = e
1
eA.
En otras palabras, la relacin es reexiva.
Finalmente, es fcil probar que tambin es transitiva. Esto signica que la relacin
es, en realidad, una relacin de equivalencia, lo que motiva la siguiente denicin.
Denicin 1.18 (Matrices equivalente por las) La matriz B M
mn
es equivalentes por las
a la matriz A M
mn
, notado B A, si B se obtiene de A por la aplicacin sucesiva un
nmero nito de operaciones elementales por la.
Dicho de otra manera, si e
1
, e
2
, . . . e
n
es una sucesin nita de operaciones elemen-
tales por las, tenemos que:
B A B = e
n
e
n1
e
2
e
1
A.
Teorema 1.5 La relacin es de equivalencia sobre el conjunto M
mn
:
1. Reexiva: A B.
2. Simtrica: Si A B, entonces B A.
3. Transitiva: Si A B y B C, entonces A C.
La vericacin de la propiedad transitiva se deja para que el lector la realice.
Ejemplo 10 Sea la matriz
A =
_
_
_
_
_
_
2 6
3 4
2 5
4 2
1 2
_
_
_
_
_
_
.
Sobre A efectuamos una secuencia de operaciones elementales por las:
A =
_
_
_
_
_
_
2 6
3 4
2 5
5 2
1 2
_
_
_
_
_
_
1
2
F
1

_
_
_
_
_
_
1 3
3 4
2 5
5 2
1 2
_
_
_
_
_
_
F
2
3F
1

_
_
_
_
_
_
1 3
0 13
2 5
5 2
1 2
_
_
_
_
_
_
F
3
+2F
1

_
_
_
_
_
_
1 3
0 13
0 1
5 2
1 2
_
_
_
_
_
_
F
4
5F
1

_
_
_
_
_
_
1 3
0 13
0 1
0 13
1 2
_
_
_
_
_
_
F
5
+F
1

_
_
_
_
_
_
1 3
0 13
0 1
0 13
0 5
_
_
_
_
_
_
= B.
1.3 Operaciones elementales de la de una matriz 21
Como la matriz B fue obtenida de A por la aplicacin de una secuencia nita de operaciones
elementales por las, podemos decir que B es equivalente por las a A:
B A.
Aunque sabemos que A B, ilustremos esta propiedad al aplicar sobre la matriz B, en
orden inverso, la secuencia de operaciones inversas anterior, para obtener la matriz A:
B =
_
_
_
_
_
_
1 3
0 13
0 1
0 13
0 5
_
_
_
_
_
_
F
5
F
1

_
_
_
_
_
_
1 3
0 13
0 1
0 13
1 2
_
_
_
_
_
_
F
4
+5F
1

_
_
_
_
_
_
1 3
0 13
0 1
5 2
1 2
_
_
_
_
_
_
F
3
2F
1

_
_
_
_
_
_
1 3
0 13
2 5
5 2
1 2
_
_
_
_
_
_
F
2
+3F
1

_
_
_
_
_
_
1 3
3 4
2 5
5 2
1 2
_
_
_
_
_
_
2F
1

_
_
_
_
_
_
2 6
3 4
2 5
5 2
1 2
_
_
_
_
_
_
= A,
que no poda ser de otra manera.
Denicin 1.19 (Matriz reducida por las) Una matriz A M
mn
se llama matriz reducida por
las si cumple con las siguientes condiciones:
1. El primer elemento no nulo de cada la no nula,visto de izquierda a derecha, es 1.
2. Cada columna de A que tiene el primer elemento no nulo de alguna la tiene sus otros
elementos nulos.
Ejemplo 11 Las matrices
_
_
_
_
1 0 0 2 0 0
0 0 1 0 0 5
0 0 0 0 1 0
0 1 0 4 0 3
_
_
_
_
,
_
_
_
_
1 0 0 2 7 0
0 1 0 0 3 4
0 0 1 0 1 0
0 0 0 0 0 0
_
_
_
_
,
_
_
0 0 0 0
0 0 0 0
0 0 0 0
_
_
y
_
_
1 0 0
0 1 0
0 0 1
_
_
son matrices reducidas por las. En cambio, las matrices
_
_
1 2 0 2 0 0
0 0 0 0 1 0
0 1 0 4 0 3
_
_
y
_
_
0 1 0 0 2 5
0 0 1 0 1 0
2 0 0 1 0 0
_
_
no son matrices reducidas por las.
Teorema 1.6 Toda matriz A M
mn
es equivalente por las a una matriz R M
mn
reducida
por las.
Dicho de otra forma, por medio de una secuencia apropiada de operaciones ele-
mentales de la efectuadas sobre una matriz A, es siempre posible obtener una matriz
reducida por las equivalente por las a la matriz A. Tal matriz no es nica.
22 Matrices
Demostracin. Supongamos que la matriz A es no nula. Entonces al menos una la es
diferente de la matriz 0 de orden 1n. Sean p I
m
tal que A
p
,= 0. Por lo tanto, existe
el menor r I
n
tal que a
pr
,= 0 (es decir, a
pr
es el primer elemento no nulo de la la p
visto desde la izquierda hacia la derecha).
Sea R[1] = e
1
apr
p
A. Esto signica que R[1] se ha obtenido a partir de A al dividir por
1
apr
cada uno de los elementos de la la nmero p de A. Entonces, el primer elemento
de la p-sima la de la matriz R[1] es igual a 1.
Ahora bien, para cada i I
m
p, denamos R[i +1] = e
a
ir
p,i
. Es decir, para cada
i ,= p, se multiplica la la p-sima por a
ir
y la la resultante se suma a la la i-sima,
la que es reemplazada por el resultado obtenido. En otras palabras, la la i-sima de
R[i + 1] es sustituida por la la R[i]
i
a
ir
R[i]
p
. El elemento de la columna r de la
matriz I[i + 1] obtenida es, entonces 0.
Una vez que se realiza este proceso para cada i ,= p (es decir, se realizan m 1
veces), obtenemos la matriz R[m] con la propiedad de que todos los elementos de la
columna r son iguales a 0, excepto el que est en la la p que es 1. Debe quedar claro
que R[m] A.
Si repetimos este procedimiento con otra la que no sea nula, que no tenga el
primer elemento igual a 1 y que en la columna en la que est dicho elemento, el resto
de elementos no son todos iguales a 0, obtendremos, luego de m pasos, una matriz
R[2m] equivalente por las a R[m], lo que signica que ser tambin equivalente por
las a A. Si la la no nula involucrada en este procedimiento es la q-sima y la columna
que contiene el primer elemento no nula de esta la es la nmero s, la matriz R[2m]
tendr la caracterstica de que todos los elementos de la columna nmero s son iguales
a 0, excepto el de la la q que es 1.
Est claro que si repetimos este proceso con todas las las no nulas cuyo primer
elemento no sea igual a 1 y que en la columna en la que est dicho elemento, no
todos los elementos son 0, nalmente tendremos una matriz reducida por las que
ser, obviamente, equivalente a la matriz A.
Ejemplo 1.4
Sea la matriz
A =
_
_
_
_
1 2 3 4 5
2 3 4 5 6
3 4 5 6 7
4 5 6 7 8
_
_
_
_
.
Hallar una matriz reducida por las equivalente por las a la matriz A.
Solucin.
A =
_
_
_
_
1 2 3 4 5
2 3 4 5 6
3 4 5 6 7
4 5 6 7 8
_
_
_
_
F
2
2F
1
F
3
3F
1
F
4
4F
1

_
_
_
_
1 2 3 4 5
0 1 2 3 4
0 2 4 6 8
0 3 6 9 12
_
_
_
_
F
1
+2F
2
F
3
+2F
2
F
4
+3F
2

_
_
_
_
1 0 1 2 3
0 1 2 3 4
0 0 0 0 0
0 0 0 0 0
_
_
_
_
F
2

_
_
_
_
1 0 1 2 3
0 1 2 3 4
0 0 0 0 0
0 0 0 0 0
_
_
_
_
F
1
F
4
1.3 Operaciones elementales de la de una matriz 23

_
_
_
_
0 0 0 0 0
0 1 2 3 4
0 0 0 0 0
1 0 1 2 3
_
_
_
_
.
Las matrices
R
1
=
_
_
_
_
1 0 1 2 3
0 1 2 3 4
0 0 0 0 0
0 0 0 0 0
_
_
_
_
y R
2
=
_
_
_
_
0 0 0 0 0
0 1 2 3 4
0 0 0 0 0
1 0 1 2 3
_
_
_
_
son matrices reducidas por las y, adems, equivalentes por las a la matriz A:
R
1
A y R
2
A.

Este ejemplo muestra que una matriz reducida por las equivalente por las a una
matriz no es nica.
Denicin 1.20 (Rango de una matriz) El rango de una matriz A, notado ran(A), es el nmero
de las no nulas de una matriz reducida por las equivalente por las a la matriz A.
Ejemplo 12 Del ejemplo anterior, la matriz
R =
_
_
_
_
0 0 0 0 0
0 1 2 3 4
0 0 0 0 0
1 0 1 2 3
_
_
_
_
es una matriz reducida por las equivalente por las a la matriz
A =
_
_
_
_
1 2 3 4 5
2 3 4 5 6
3 4 5 6 7
4 5 6 7 8
_
_
_
_
.
El nmero de las no nulas de la matriz R es 2. Por lo tanto,
ran(A) = 2.

Denicin 1.21 (Matriz escalonada reducida por las) Una matriz A M


mn
se llama matriz
escalonada reducida por las si cumple con las siguientes condiciones:
1. La matriz A es reducida por las.
2. Toda la nula, si la hay, est por debajo de toda la no nula.
3. Si las las 1, 2, . . . , r, r m, son las las no nulas de la matriz A y si el primer elemento
no nulo, visto de izquierda a derecha, de la la i, i = 1, 2, . . . , r est en la columna k
i
,
i = 1, 2, . . . , r, entonces k
1
< k
2
< < k
r
.
24 Matrices
Ejemplo 1.5
Es la matriz
A =
_
_
_
_
_
_
_
_
0 1 0 0 0 0 3 0
0 0 0 1 0 0 2 0
0 0 0 0 1 4 2 0
0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
una matriz escalonada reducida por las?
Solucin. La matriz A es reducida por las. Las las nulas son la 5 y la 6 y se encuentran por
debajo de las las no nulas 1, 2, 3 y 4. El primer elemento no nulo de la la 1 est en la columna
2: k
1
= 2. El primer elemento no nulo de la la 2 est en la columna 4: k
2
= 4. De manera
similar encontramos: k
3
= 5 y k
4
= 8. Se cumple que k
1
= 2 < k
2
= 4 < k
3
= 5 < k
4
= 8.
Por todo ello, la matriz A es una matriz escalonada reducida por las.
Teorema 1.7 Toda matriz A M
mn
es equivalente por las a una matriz escalonada reducida
por las. Tal matriz es nica.
Demostracin. Del teorema 1.6, existe una matriz reducida por las R equivalente a
A. Si esta matriz R no es escalonada, entonces signica una de dos situaciones, o las
dos, suceden:
1. hay las nulas sobre las no nulas;
2. hay al menos dos las no nulas en las que el primer elemento de la que est
ms arriba corresponde a una columna que est a la derecha de la columna que
contiene el primer elemento de la otra la.
Si ocurre la primera situacin, por la aplicacin de operaciones elementales del tercer
tipo, obtenemos, a partir de R, una matriz S en la que toda la nula est por debajo
de toda la no nula (intercambiamos las nulas con no nulas cuando las primeras estn
arriba de la segundas).
Si luego de este proceso, ocurre la segunda situacin, es decir, hay las en las que la
que est arriba tiene su primer elemento a la derecha de la que est abajo, aplicamos
operaciones del tercer tipo nuevamente para intercambiar dichas las. La matriz as
obtenida es escalonada reducida y equivalente a S, por lo que es equivalente a R y,
nalmente, equivalente a la matriz A.
Es fcil ver que la matriz obtenida al nal de proceso descrito es nica.
En otras palabras, dada una matriz A cualquiera, por medio de una secuencia apro-
piada de operaciones elementales de la se obtiene siempre una nica matriz escalonada
reducida por las equivalente por las a la matriz A.
De aqu en adelante, vamos a utilizar la siguiente notacin alternativa para las
operaciones elementales:
1.4 Matrices elementales 25
1. Para e
c
r
, usaremos cF
r
; es decir, la operacin de multiplicar la la r-sima por el
escalar c ,= 0.
2. Para c
c
s,r
, usaremos F
r
+ cF
s
; es decir, para sustituir la la r-sima por la suma
de esta la con la la producto de c y la la s-sima.
3. Para c
s,r
, usaremos F
r
F
s
; es decir, para el intercambio entre las las nmero
r y s.
1.4 Matrices elementales
Denicin 1.22 (Matriz elemental) Se dice que una matriz E M
n
es una matriz elemental si
se obtiene de la matriz identidad I
n
M
n
por medio de solo una operacin elemental de la.
Ejemplo 13 Las matrices
_
_
1 0 0
0 0 1
0 1 0
_
_
,
_
_
1 0 2
0 1 0
0 0 1
_
_
y
_
_
1 0 0
0 3 0
0 0 1
_
_
son matrices elementales pues todas ellas se obtuvieron a partir de la matriz I
3
por medio de
la nica operacin elemental de la F
2
F
3
, F
1
2F
3
y 3F
2
, respectivamente.
Las matrices
_
_
1 0 0
0 0 0
0 0 1
_
_
,
_
_
1 0 2
0 3 0
0 0 1
_
_
, y
_
_
0 0 1
1 0 0
0 1 1
_
_
no son matrices elementales. La segunda, por ejemplo, se obtuvo de I
3
por medio de dos
operaciones elementales de la: F
1
2F
3
y 3F
2
.
Teorema 1.8 Sea e una operacin elemental de la y sea E M
m
la matriz elemental tal que
e(I
m
) = E. Entonces, para toda matriz A M
mn
:
e(A) = EA.
La demostracin debe hacerse para cada tipo de operacin elemental de la. Hare-
mos la demostracin para una operacin elemental de la del tipo 2.
Demostracin. Sea I la matriz identidad de orden m. Omitiremos el subndice en I
para distinguir de la notacin que utilizamos para las las de una matriz. As, en este
caso, I
i
indica la la i-sima de la matriz I.
Con esta notacin, recordemos que I = (
ij
) donde

ij
=
_
1 si i = j,
0 si i ,= j.
Procedamos con la demostracin.
26 Matrices
Sean r I
m
y s I
m
tales que r ,= s, y E = e
c
s,r
(I). Entonces:
E
i
=
_
I
i
si i ,= r,
cA
s
+I
r
si i = r.
Por lo tanto, si E = (e
ij
), entonces:
e
ik
=
_

ij
si i ,= r,

ij
+ c
sj
si i = r
para todo j I
n
.
Por otro lado, la matriz las las de la matriz e
c
s,r
(A) = (
ij
) son:
A
i
=
_
A
i
si i ,= r,
A
i
+ cA
s
si i = r,
es decir:

ij
=
_
a
ij
si i ,= r,
a
rj
+ ca
sj
si i = r
para todo j I
n
.
Finalmente, sea C = EA = (c
ij
). Entonces:
c
ij
=
m

k=1
e
ik
a
kj
=
_

_
m

k=1

ik
a
kj
si i ,= r,
m

k=1
(
rk
+ c
sk
)a
kj
si i = r
para todo j I
n
.
Pero, como
ik
= 0 si i ,= k, entonces:
m

k=1
e
ik
a
kj
=
ii
a
ij
= a
ij
.
Con un razonamiento similar, obtenemos que:
m

k=1
(
rk
+ c
sk
)a
kj
=
rr
a
rj
+ c
ss
)a
sj
= a
rj
+ ca
sj
.
Por lo tanto:
c
ij
=
_
a
ij
si i ,= r,
a
rj
+ ca
sj
si i = r
para todo j I
n
.
Por lo tanto, c
ij
=
ij
para todo i I
m
y todo j I
n
. Es decir, EA = e
c
s,r
(A), que
es lo que queramos demostrar.
Veamos ahora el mismo teorema ilustrado con un ejemplo.
1.4 Matrices elementales 27
Ejemplo 14 Sea la matriz
A =
_
2 3 1
4 3 2
_
.
Ilustremos el teorema para una operacin elemental de la tipo 1. Sea e
1
la operacin elemental
de la 3F
1
. Tenemos que
I
2
=
_
1 0
0 1
_
3F
1

_
3 0
0 1
_
= e
1
(I
2
) = E
1
y
A =
_
2 3 1
4 3 2
_
3F
1

_
6 9 3
4 3 2
_
= e
1
(A).
Por otro lado
E
1
A =
_
3 0
0 1
__
2 3 1
4 3 2
_
=
_
6 9 3
4 3 2
_
,
de donde
e
1
(A) = E
1
A.

Corolario 1.9 Sean A y B matrices de orden m n. La matriz B es equivalente por las a la


matriz A si y solo si
B = PA,
donde P es una matriz producto de matrices elementales de orden n.
Demostracin. Sabemos que B A es equivalente a que exista una sucesin e
1
, e
2
,
. . ., e
q
operaciones elementales tales que B = e
q
e
2
e
1
(A).
Por el teorema 1.8, existe una matriz elemental E
1
tal que e
1
(A) = E
1
A. Por lo
tanto, tenemos que:
B A e
q
e
q1
e
2
(E
1
A).
Una vez ms, por el teorema 1.8, existe una matriz elemental E
2
tal que e
2
(E
1
A) =
E
2
(E
1
A) = (E
2
E
1
)A. Entonces, tenemos que:
B A e
q
e
q1
(E
2
E
1
)A.
Si procedemos de manera similar hasta llegar a la operacin e
q
, garantizamos la
existencia de q matrices elementales E
1
, E
2
, . . . , E
q
matrices elementales tales que:
B A (E
q
E
2
E
1
)A.
Sea P = E
q
E
2
E
1
. Entonces:
B A PA,
donde P es el producto de matrices elementales.
La demostracin del corolario nos muestra que la misma secuencia de operaciones
elementales de la e
1
, e
2
, . . . e
q
que nos conducen de la matriz A a la matriz B, conducen
tambin la matriz identidad I
m
a la matriz P. Es decir, si (A[I
m
) representa la matriz
A M
mn
aumentada con la matriz identidad I
m
(la matriz I escrita a continuacin
de la matriz A) se tiene que:
(A[I
m
) (B[P).
28 Matrices
Ejemplo 15 Sea la matriz
A =
_
_
2 1
2 4
1 2
_
_
.
Obtengamos una matriz B equivalente por las a la matriz A y, al mismo tiempo, obten-
gamos una matriz P tal que B = PA:
(A[I
3
) =
_
_
2 1 [ 1 0 0
2 4 [ 0 1 0
1 2 [ 0 0 1
_
_
F
1
+F
3

_
_
1 1 [ 1 0 0
2 4 [ 0 1 0
1 2 [ 0 0 1
_
_
1
2
F
2

_
_
1 1 [ 1 0 1
1 2 [ 0
1
2
0
1 2 [ 0 0 1
_
_
F
2
F
3

_
_
1 1 [ 1 0 1
1 2 [ 0 0 1
1 2 [ 0
1
2
0
_
_
= (B[P),
con
B =
_
_
1 1
1 2
1 2
_
_
y P =
_
_
1 0 1
0 0 1
0
1
2
0
_
_
.
Veriquemos que se cumple el corolario 1.9, es decir, que la matriz P hallada satisface la
expresin B = PA:
PA =
_
_
1 0 1
0 0 1
0
1
2
0
_
_
_
_
2 1
2 4
1 2
_
_
=
_
_
1 1
1 2
1 2
_
_
= B.

1.5 La inversa de una matriz


Denicin 1.23 (Inversa de una matriz) Una matriz cuadrada A de orden n se llama invertible
si existe una matriz cuadrada B de orden n tal que
AB = BA = I
n
.
La matriz B se llama una inversa de A. Si no existe tal matriz B, se dice que la matriz A es no
inversible.
Una matriz invertible tambin se llama matriz no singular, y una matriz no inver-
tible, matriz singular.
Es inmediato de la denicin de matriz inversible que la matriz nula no es inversible.
Si lo fuera, digamos que B es su inversa, entonces 0B = I. Pero 0B = 0, de donde
obtendramos que I = 0, lo que es falso.
Ejemplo 16 Sean las matrices
A =
_
1 2
1 1
_
y B =
_
1 2
1 1
_
.
1.5 La inversa de una matriz 29
Entonces
AB =
_
1 2
1 1
__
1 2
1 1
_
=
_
1 0
0 1
_
= I
2
y
BA =
_
1 2
1 1
__
1 2
1 1
_
=
_
1 0
0 1
_
= I
2
.
Como
AB = BA = I
2
podemos decir que la matriz B es una inversa de A y que la matriz A es no singular.
Teorema 1.10 (Unicidad de la inversa) Si una matriz tiene una inversa, entonces la inversa es
nica.
Demostracin. Supongamos que B y C son inversas de la matriz A. Entonces
AB = BA = I
n
y AC = CA = I
n
,
de donde
BA = AC = I
n
.
Por otro lado,
B = BI
n
= B(AC) = (BA)C = I
n
C = C.
Es decir, A solo puede tener una inversa.
Como la inversa de una matriz es nica podemos representar la inversa de la matriz
A, si existe, con A
1
. Con ello, podemos escribir lo siguiente:
AA
1
= A
1
A = I
n
.
Teorema 1.11 (Propiedades de la inversa) Sean A y B matrices de orden n. Entonces:
1. Si la matriz A es inversible, entonces A
1
es inversible y
(A
1
)
1
= A.
2. Si las matrices A y B son inversibles, entonces AB es inversible y
(AB)
1
= B
1
A
1
.
Demostracin. Sea A y B dos matrices de orden n.
30 Matrices
1. Si la matriz A es inversible, se cumple que
AA
1
= A
1
A = I
n
.
Estas igualdades se pueden escribirse de la siguiente manera:
A
1
A = AA
1
= I
,
de donde concluimos que A
1
es inversible y que su inversa es
(A
1
)
1
= A.
2. Tenemos que
(AB)(B
1
A
1
) = A(BB
1
)A
1
= AI
n
A
1
= AA
1
= I
n
y que
(B
1
A
1
)(AB) = B
1
(A
1
A)B = B
1
I
n
B = B
1
B = I
n
,
de donde
(AB)(B
1
A
1
) = (B
1
A
1
)(AB) = I
n
.
Esta igualdad muestra que la matriz AB es inversible y que
(AB)
1
= B
1
A
1
.
Mediante induccin sobre el nmero de matrices, se obtiene el siguiente corolario.
Corolario 1.12 El producto de ms de dos matrices inversibles del mismo orden es inversible.
Para demostrar que la matriz B es la inversa de la matriz A, usando la denicin
de inversa, es necesario demostrar que AB = I
n
y que BA = I
n
. Podemos reducir el
procedimiento de probar que B es la inversa de A con tan solo demostrar una de las
dos igualdades. Enunciamos esto en el siguiente teorema que no ser demostrado, pues
requiere de otros resultados que no estudiaremos aqu.
Teorema 1.13 Sean A y B matrices cuadradas de orden n e inversibles. Entonces, si AB = I
n
,
entonces BA = I
n
.
Teorema 1.14 Una matriz elemental es inversible.
Demostracin. Sea D una matriz elemental y sea e la operacin elemental tal que
E = e(I). Vamos a demostrar que E es inversible.
Por el teorema 1.4, e es una funcin biyectiva. Por lo tanto, tiene inversa. Sea
F = e
1
(I). Entonces F es una matriz elemental. Probemos que esta matriz es la
matriz inversa de E. Para ello, es suciente con demostrar, por el teorema 1.13, que
EF = I.
Por el teorema 1.8, sabemos que EF = e(F). Por lo tanto:
EF = e(F) = e(e
1
(I)) = ee
1
I = I.
1.5 La inversa de una matriz 31
Ejemplo 17 Se tiene la matriz elemental E
1
:
I =
_
1 0
0 1
_
3F
1

_
3 0
0 1
_
= E
1
.
La inversa de la matriz E
1
es E
1
1
:
I =
_
1 0
0 1
_
1
3
F
1

_
1
3
0
0 1
_
= E
1
1
.
En efecto:
E
1
E
1
1
=
_
3 0
0 1
__
1
3
0
0 1
_
=
_
1 0
0 1
_
= I
2
.

Teorema 1.15 Sea la matriz A M


n
. Los siguientes enunciados son equivalentes:
1. La matriz A es inversible.
2. La matriz A es equivalente por las a la matriz identidad I
n
.
3. La matriz A es el producto de matrices elementales de orden n.
Demostracin. El teorema 1.6 nos garantiza la existencia de una matriz R escalonada
reducida por las equivalente por las a la matriz A. Esto signica que existe una
sucesin nita de operaciones elementales e
1
, e
2
, . . . , e
p
y sus correspondientes matrices
elementales E
1
, E
2
, . . . , E
p
tales que
R = e
p
. . . e
2
e
1
A = E
p
E
2
E
1
A. (1.3)
Puesto que cada E
i
es invertible (teorema 1.4), la ltima igualdad es equivalente a la
siguiente:
A = E
1
1
E
1
2
E
1
p
R. (1.4)
Ahora bien, supongamos que A. Entonces, como el producto de matrices inversibles
es inversible, de la igualdad 1.3 concluimos que la matriz E tambin es inversible. Pero
esto signica que E no puede tener las nulas, porque de lo contrario, de la igualdad 1.4
colegiramos que A tiene las nulas, lo que es imposible, pues A es inversible. Entonces
R = I.
De la igualdad (1.4) tambin se concluye que A es el producto de matrices elementales.
De (1.3), que A es equivalente por las a la identidad.
En resumen, queda demostrado que:
(a) Si A es inversible entonces: A I, y A es el producto de matrices elementales.
(b) Si A I (R = I en (1.3)), entonces A es el producto de matrices elementales y
por lo tanto A es inversible.
(c) Si A es el producto de matrices elementales, en (1.4) se puede tomar R = I, de
donde se tiene que A I y por lo tanto es inversible.
32 Matrices
En otras palabras, el teorema nos da las condiciones necesarias y sucientes para
que una matriz A sea inversible. Como toda matriz A es equivalente por las a una
matriz R escalonada reducida por las, si A es inversible, entonces R debe ser igual a
la matriz identidad I.
Corolario 1.16 Sea A M
n
una matriz inversible. Si una sucesin nita de operaciones elemen-
tales de la reducen la matriz A a la matriz identidad, entonces la sucesin de las operaciones
elementales de la que fueron aplicadas a A, pero ahora aplicadas a la matriz identidad, dan
como resultado la matriz A
1
, la inversa de A.
Demostracin. Como A inversible, es equivalente por las a la matriz identidad: A I.
Es decir, existen operaciones elementales e
j
tales que
I = e
p
e
2
e
1
A.
Si E
i
son las correspondientes matrices elementales para e
i
, entonces:
I = E
p
E
2
E
1
A,
de donde obtenemos que
A = E
1
1
E
1
2
E
1
p
I = e
1
1
e
1
2
e
1
p
I,
que es lo que se quera demostrar.
Este corolario nos indica la forma como hallar la matriz inversa de una matriz A
inversible, por medio de operaciones elementales de la. Para ello construimos la matriz
ampliada (A [ I
n
), luego realizamos sobre ella una secuencia de operaciones elementales
de la de modo que obtengamos la matriz ampliada (I
n
[ A
1
):
(A [ I
n
) (I
n
[ A
1
).
En caso de no saber con anterioridad que la matriz A es inversible, el mismo pro-
cedimiento nos puede decir si la matriz A es o no inversible. Para ello, construimos la
matriz ampliada (A [ I), hallamos la matriz escalonada reducida por las de la matriz
ampliada:
(A [ I
n
) (R [ P).
Si R ,= I, entonces la matriz A no es inversible. Si R = I
n
, entonces la matriz A es
inversible y su inversa es A
1
= P. Veamos la aplicacin de este procedimiento en el
siguiente ejemplo.
Ejemplo 1.6
Sea la matriz
A =
_
_
1 0 1
0 1 1
1 1 1
_
_
.
Si la matriz A es inversible, encontrar A
1
.
1.5 La inversa de una matriz 33
Solucin. Construimos la matriz ampliada A [ I y hallamos su matriz escalonada reducida
por las:
(A[I
3
) =
_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
1 1 1 [ 0 0 1
_
_
F
3
+F
1

_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 1 0 [ 1 0 1
_
_
F
2
+F
3

_
_
1 0 1 [ 1 0 0
0 0 1 [ 1 1 1
0 1 0 [ 1 0 1
_
_
F
1
F
2

_
_
1 0 0 [ 0 1 1
0 0 1 [ 1 1 1
0 1 0 [ 1 0 1
_
_
F
2
F
3

_
_
1 0 0 [ 0 1 1
0 1 0 [ 1 0 1
0 0 1 [ 1 1 1
_
_
= (I
3
[A
1
).
Por lo tanto, la matriz A es inversible y su inversa es
A
1
=
_
_
0 1 1
1 0 1
1 1 1
_
_
.
Veriquemos que la matriz A
1
es la inversa de la matriz A:
AA
1
=
_
_
1 0 1
0 1 1
1 1 1
_
_
_
_
0 1 1
1 0 1
1 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
= I
3
y
A
1
A =
_
_
0 1 1
1 0 1
1 1 1
_
_
_
_
1 0 1
0 1 1
1 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
= I
3
.

Corolario 1.17 Sean A, B M


mn
. La matriz B es equivalente por las a la matriz A si y solo
si B = PA, donde P es una matriz inversible de orden m.
Demostracin. B A es equivalente a la existencia de matrices elementales E
i
tales
que B = E
p
E
2
E
1
A. Si P = E
p
E
2
E
1
, entonces P es inversible.
Esto signica que la misma secuencia de operaciones elementales de la que apli-
cadas a A producen B, al ser aplicada a I
m
produce P.
Para ejemplos prcticos, se utiliza el siguiente esquema:
(A [ I
m
) (B [ P)
Ejemplo 1.7
Sean las matrices
A =
_
_
1 0 1
0 1 1
1 2 1
_
_
y B =
_
_
1 0 1
0 1 1
0 0 0
_
_
.
Demostrar que las matrices A y B son equivalentes por las.
34 Matrices
Solucin. Encontremos una matriz inversible P tal que B = PA:
(A [ I
3
) =
_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
1 2 1 [ 0 0 1
_
_
F
3
+F
1

_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 2 2 [ 1 0 1
_
_
F
2

_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 2 2 [ 1 0 1
_
_
F
3
2F
2

_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 0 0 [ 1 2 1
_
_
= (B [ P).
La matriz B es equivalente por las a la matriz A. La matriz P es inversible pues es
equivalente por las a la matriz identidad I
3
. Hallemos la matriz PA:
PA =
_
_
1 0 0
0 1 0
1 2 1
_
_
_
_
1 0 1
0 1 1
1 2 1
_
_
=
_
_
1 0 1
0 1 1
0 0 0
_
_
= B.

Para saber si dos matrices A y B son o no equivalentes por las, no siempre se puede
llegar fcilmente de A por medio de una secuencia de operaciones elementales de la
a B. En ese caso se procede de la siguiente manera: se hallan las matrices escalonadas
reducidas por la de A y B, R
A
y R
B
, respectivamente. Por el corolario anterior existen
matrices P
A
y P
B
tales que
R
A
= P
A
A y R
B
= P
B
B.
Si P
A
,= P
B
, entonces la matriz A no es equivalente por las a la matriz B. Pero si
R
A
= R
B
, entonces las matrices A y B son equivalentes por las, y se puede hallar la
matriz P inversible tal que B = PA:
P
B
B = P
A
A,
P
1
B
P
B
B = P
1
B
P
A
A,
IB = P
1
B
P
A
A,
B = PA,
con
P = P
1
B
P
A
.
1.6 Otras matrices
Denicin 1.24 (Matriz nilpotente de orden r) Una matriz A M
n
se denomina nilpotente de
orden r si r es el menor entero positivo tal que A
r
= O
n
, donde A
r
=
r veces
..
A A y O
n
es la matriz
nula de orden n.
1.6 Otras matrices 35
Ejemplo 1.8
Sea la matriz
A =
_
_
0 1 3
0 0 2
0 0 0
_
_
.
Mostrar que es nilpotente y encontrar el orden.
Solucin. Multipliquemos la matriz A por s misma el nmero de veces que sea necesario
hasta obtener la matriz nula O
3
:
A
2
= AA =
_
_
0 1 3
0 0 2
0 0 0
_
_
_
_
0 1 3
0 0 2
0 0 0
_
_
=
_
_
0 0 2
0 0 0
0 0 0
_
_
,
A
3
= A
2
A =
_
_
0 0 2
0 0 0
0 0 0
_
_
_
_
0 1 3
0 0 2
0 0 0
_
_
=
_
_
0 0 0
0 0 0
0 0 0
_
_
= O
3
.
Es evidente que para n > 3, A
n
= O
3
. Por lo tanto, la matriz A es nilpotente de orden 3.
Se asume que las matrices cuadradas nulas son nilpotentes de orden 1.
Denicin 1.25 (Matriz idempotente) Una matriz A M
n
se denomina idempotente si A
2
= A.
Ejemplo 18 Las matrices
I
n
, O
n
,
_
0 1
0 1
_
,
_
0 0
1 1
_
,
son matrices idempotentes.
Denicin 1.26 (Matriz involutiva) Una matriz A M
n
se denomina involutiva si A
2
= I
n
.
Ejemplo 19 Las matrices
I
n
,
_
0 1
1 0
_
son matrices involutivas.
De la denicin de matriz involutiva y del teorema 1.13 se sigue si A M
n
es
involutiva, A es inversible y A
1
= A.
Denicin 1.27 (Matriz ortogonal ) Una matriz A M
n
se denomina ortogonal si A
t
A = I
n
.
36 Matrices
Ejemplo 20 Las matrices
I
n
,
_
0 1
1 0
_
,
_
1

2
1

2
1

2

1

2
_
son matrices ortogonales.
Una vez ms, del teorema 1.13, se deduce que si la matriz A M
n
es ortogonal,
entonces es inversible y A
1
= A
t
.
Denicin 1.28 (Matriz conjugada) Sea la matriz A = (a
ij
)
mn
. Se denomina conjugada de A,
notada

A, a la matriz

A = ( a
ij
)
mn
.
Ejemplo 21 La conjugada de la matriz
A =
_
_
1 2i 4
1 +i 3i
5i 2
_
_
es la matriz

A =
_
_
1 + 2i 4
1 i 3i
5i 2
_
_
.

Si los elementos de la matriz A son nmeros reales, se tiene que



A = A.
Denicin 1.29 (Matriz hermitiana) Una matriz A M
n
se denomina hermitiana si A
t
=

A.
Ejemplo 1.9
Sea la matriz
A =
_
_
1 i 0
i 2 1 + 2i
0 1 2i 3
_
_
.
Es hermitiana?
Solucin. Hallemos la transpuesta y la conjugada de la matriz A:
A
t
=
_
_
1 i 0
i 2 1 2i
0 1 + 2i 3
_
_
,

A =
_
_
1 i 0
i 2 1 2i
0 1 + 2i 3
_
_
.
Como A
t
=

A, A es una matriz hermitiana.
Obsrvese que si una matriz es hermitiana, los elementos de su diagonal son nmeros
reales. Tambin que toda matriz simtrica es hermitiana.
Denicin 1.30 (Matriz unitaria) Una matriz A M
n
se denomina unitaria si A
t

A = I
n
.
1.7 Ejercicios resueltos 37
Ejemplo 1.10
Sea la matriz
A =
_
1

2
i

2
i

2
1

2
_
.
Es unitaria?
Solucin. Hallemos la transpuesta y la conjugada de la matriz A:
A
t
=
_
1

2
i

2
i

2
1

2
_
,

A =
_
1

2
i

2
i

2
1

2
_
.
Calculemos A
t
A:
A
t
A =
_
1

2
i

2
i

2
1

2
__
1

2
i

2
i

2
1

2
_
=
_
1 0
0 1
_
= I
2
.
Entonces la matriz A es unitaria.
Una matriz ortogonal cuyos elementos son nmeros reales es una matriz unitaria.
Denicin 1.31 (Traza) Sea la matriz A = (a
ij
) M
n
(K). Se llama traza de A, notada tr A, al
nmero
tr A =
n

i=1
a
ii
.
En otras palabras, la traza de una matriz cuadrada es la suma de sus elementos que
se encuentran en la diagonal.
1.7 Ejercicios resueltos
1. Sean A, B M
n
dos matrices triangulares inferiores. Demostrar que AB es una
matriz triangular inferior.
Demostracin. Sean A = (a
ij
)
n
y B = (b
ij
)
n
tales que a
ij
= 0 y b
ij
= 0 para todo i
y para todo j con i < j.
Sean C = AB y C = (c
ij
)
n
. Vamos a demostrar que c
ij
= 0 para todo i y para todo
j con i < j.
Como la matriz C es el producto de A por B, tenemos que
c
ij
=
n

k=1
a
ik
b
kj
para todo i y para todo j.
Sea i < j. Entonces:
n

k=1
a
ik
b
kj
=
i

k=1
a
ik
b
kj
+
n

k=i+1
a
ik
b
kj
.
Pero,
38 Matrices
(a) si k < i, se verica que k < j y b
kj
= 0, pues la matriz B es triangular inferior;
entonces:
i

k=1
a
ik
b
kj
= 0;
(b) si k > i, se tiene que a
ik
= 0, porque la matriz A es triangular inferior; entonces:
i

k=i+1
a
ik
b
kj
= 0.
Por lo tanto, tenemos que:
c
ij
=
i

k=1
a
ik
b
kj
+
n

k=i+1
a
ik
b
kj
= 0 + 0 = 0
si i < j. En otras palabras, la matriz C = AB es triangular inferior.
2. Demostrar que
(a) (A M
mn
)[(A
t
)
t
= A].
(b) (A M
mn
)(B M
mn
)[(A + B)
t
= A
t
+ B
t
].
(c) ( K)(A M
mn
)[(A
t
)
t
= A
t
].
(d) (A M
mn
) (B M
np
)[(AB)
t
= B
t
A
t
].
Demostracin. Se demostrarn nicamente las partes (b) y (d). Las otras se dejan
como ejercicio para el lector.
(b) Sean A = (a
ij
)
mn
, B = (b
ij
)
mn
. Entonces:
A
t
= ( a
ij
)
nm
y B
t
= (

b
ij
)
nm
,
donde
a
ij
= a
ji
y

b
ij
= b
ji
para todo i I
n
= 1, 2, . . . , n y todo j I
m
= 1, 2, . . . , m.
Por otro lado, sea C = (c
ij
)
mn
= A+ B. Esto signica que:
c
ij
= a
ij
+ b
ij
para todo i I
n
y todo j I
m
. Por lo tanto, C
t
= ( c
ij
)
nm
, donde:
c
ij
= c
ji
= a
ji
+ b
ji
= a
ij
+

b
ij
para todo i I
n
y j I
m
. Es decir, por la denicin de suma de matrices,
podemos concluir que:
(A+ B)
t
= C
t
= A
t
+ B
t
.
1.7 Ejercicios resueltos 39
(d) Sean A = (a
ij
)
mn
, B = (b
jk
)
np
. Entonces:
A
t
= ( a
ij
)
nm
y B
t
= (

b
jk
)
pn
,
donde
a
ij
= a
ji
y

b
jk
= b
kj
para todo i I
p
= 1, 2, . . . , p, todo j I
n
= 1, 2, . . . , n y k I
m
=
1, 2, . . . , m.
Por otro lado, sea C = (c
ik
)
mp
= AB. Esto signica que:
c
ik
=
n

j=1
a
ij
b
jk
para todo i I
m
y todo k I
p
. Por lo tanto, C
t
= ( c
ik
)
pm
, donde:
c
ik
= c
ki
=
n

j=1
a
kj
b
ji
=
n

j=1
b
ji
a
kj
=
n

j=1

b
ij
a
jk
para todo i I
p
y todo k I
m
. Entonces, por la denicin de producto de
matrices, tenemos que:
C
t
= (AB)
t
= B
t
A
t
.
3. (a) (A M
n
)[tr A
t
= tr A].
(b) (A, B M
n
)[tr(A+ B) = tr A+ tr B].
(c) ( K) (A M
n
)[tr(A) = tr A].
(d) (A M
mn
)(B M
nm
)[tr(AB) = tr(BA)].
Demostracin. Se demostrarn las partes (c) y (d).
(c) Sean K y A = (a
ij
)
n
. Entonces:
tr(A) = tr((a
ij
)) = tr(a
ii
) =
n

i=1
a
ii
=
n

i=1
a
ii
= tr A.
(d) Sean A = (a
ij
)
mn
, B = (b
ij
)
nm
y C = (c
ij
)
m
= AB. Entonces
c
ij
=
n

k=1
a
ik
b
kj
.
Tenemos que
tr(AB) = tr C =
m

i=1
c
ii
=
m

i=1
n

k=1
a
ik
b
ki
=
n

k=1
m

i=1
b
ki
a
ik
= tr(BA).
40 Matrices
Ejemplo 1.11
Sean las matrices
A =
_
1 2 3
4 5 6
_
y B =
_
_
3 5
4 2
6 1
_
_
.
Hallar tr(AB) y tr(BA).
Solucin. Encontremos los productos
AB =
_
1 2 3
4 5 6
_
_
_
3 5
4 2
6 1
_
_
=
_
29 6
68 24
_
,
BA =
_
_
3 5
4 2
6 1
_
_
_
1 2 3
4 5 6
_
=
_
_
17 19 21
4 2 0
10 17 24
_
_
.
Entonces
tr(AB) = 29 + (24) = 5, tr(BA) = 17 + (2) + 24 = 5.
Este ejemplo ilustra la propiedad tr(AB) = tr(BA).
4. Demostrar que no existen matrices A, B y C de orden n tales que
ABC CAB + I
n
= O
n
.
Demostracin. Supongamos que s existen matrices A, B y C de orden n tales que
ABC CAB + I
n
= O
n
.
Entonces
tr(ABC CAB + I
n
) = tr O
n
,
tr(ABC) tr(CAB) + tr I = 0.
Como
tr
_
(AB)C
_
= tr
_
C(AB)
_
= tr(ABC),
podemos escribir:
tr(ABC) tr(ABC) + n = 0, n 1,
de donde n = 0 lo cual es una falsedad.
5. Demostrar que toda matriz cuadrada es la suma de una matriz simtrica y una
matriz antisimtrica.
Demostracin. Sea la matriz A M
n
. Vamos a demostrar que A = S +T, donde S
es una matriz simtrica y T es una matriz antisimtrica.
Sean
S =
A + A
t
2
y T =
AA
t
2
.
Entonces la matriz S es simtrica y la matriz T es antisimtrica. La demostracin
se deja como ejercicio para lector.
1.7 Ejercicios resueltos 41
6. Sea A una matriz cuadrada. Demostrar que si A
2
= A, A
n
= A para todo n 2.
Demostracin. La demostracin es por induccin sobre n.
i ) La demostracin es verdadera para n = 2, pues, si A
2
= A, entonces A
2
= A
es una proposicin verdad.
ii ) Supongamos que k es verdad que A
k
= A. Es inmediato que A
k+1
= A
tambin es verdadera, pues:
A
k+1
= A
k
A = AA = A
2
= A.
Por lo tanto, A
n
= A para todo n 2.
7. Sea A una matriz cuadrada. Si A
2
= A, determinar una frmula para (A+ I)
n
.
Desarrollo. Como el producto de las matrices A e I conmuta se puede aplicar el
binomio de Newton:
(A+ I)
n
=
n

k=0
_
n
k
_
I
nk
A
k
=
_
n
0
_
A
0
+
n

k=1
_
n
k
_
A
k
= I +
n

k=1
_
n
k
_
A
= I + A
n

k=1
_
n
k
_
= I +
_
n

k=0
_
n
k
_

_
n
0
_
_
= I +
_
n

k=0
_
n
k
_
1
nk
1
k
1
_
= I + A
_
(1 + 1)
n
1
_
= I + (2
n
1)A.
Es decir,
(A + I)
n
= I (2
n
1)A siempre que A
2
= A.
8. Sea
G =
__
a 1 a
b 1 b
_
: a ,= b; a, b R
_
.
Cul de las siguientes proposiciones es verdadera y cul es falsa?
(a) (A G)(B G)(AB G).
(b) (A G)(B G)(C G)[(AB)C = A(BC)].
(c) (E G)(A G)[AE = EA = A].
42 Matrices
(d) (A G)(B G)[AB = BA = I].
(e) (A G)(B G)(AB = BA).
Desarrollo.
(a) Sean las matrices
A =
_
a 1 a
b 1 b
_
y B =
_
p 1 p
q 1 q
_
donde a ,= b y p ,= q.
Hallemos el producto
AB =
_
a 1 a
b 1 b
__
p 1 p
q 1 q
_
=
_
ap + q(1 a) a(1 p) + (1 a)(1 q)
bp + q(1 b) b(1 p) + (1 b)(1 q)
_
=
_
ap + q aq 1 (ap + q aq)
bp + q bq 1 (bp + q bq)
_
=
_
c 1 c
d 1 d
_
,
donde
c = ap + q aq y d = bp + q bq
Si c ,= d, el producto AB estara en G. Veamos si es as. Si fuera cierto que
c = d, entonces:
ap + q aq = bp + q bq,
ap bp = aq bq,
(a b)p = (a b)q.
Como a ,= b, p = q, lo cual es una contradiccin ya que p ,= q. Por lo tanto
c ,= d. Se concluye, entonces, que AB G.
(b) El producto de matrices tiene la propiedad asociativa. Luego esta proposicin
es evidentemente verdadera, independientemente de que las matrices A, B y C
sean elementos de G.
(c) Sea E la matriz identidad de orden 2:
E =
_
1 0
0 1
_
=
_
1 0
1 1 1 0
_
.
Como 1 ,= 0, E G. Adems, AE = EA = A. Entonces esta proposicin es
verdadera.
(d) Si esta proposicin fuera verdadera, la matriz B debera ser la inversa de A G.
Se deja al lector constatar que si
A =
_
a 1 a
b 1 b
_
,
1.7 Ejercicios resueltos 43
A es inversible y que:
A
1
=
_
1b
ab
a1
ab
b
ab
a
ab
_
.
Finalmente, veamos si A
1
G. Para ello, reescribamos A
1
de la siguiente
manera:
A
1
=
_
1b
ab
1
1b
ab
b
ab
1
b
ab
_
.
Si fuera cierto que
1 b
a b
=
b
a b
,
tendramos que 1 b = b, lo que equivale a 1 = 0. Por lo tanto, A
1
G, y
esta proposicin es verdadera.
(e) Demostremos con un contraejemplo que esta proposicin es falsa. Sean las
matrices
A =
_
2 1
0 1
_
y B =
_
1 0
3 2
_
que pertenecen al conjunto G. Hallemos los productos AB y BA:
AB =
_
2 1
0 1
__
1 0
3 2
_
=
_
1 2
3 2
_
,
BA =
_
1 0
3 2
__
2 1
0 1
_
=
_
2 1
6 5
_
.
Es decir: AB ,= BA.
El conjunto G cumple las propiedades (a), (b), (c) y (d). Por lo tanto, el conjunto
G con la operacin producto de matrices constituye un grupo no abeliano, pues no
tiene la propiedad conmutativa.
9. (a) Sea A M
n
y nilpotente de orden m. Entonces la matriz (I A) es inversible
y se tiene que
(I A)
1
= I + A+ A
2
+ A
3
+ + A
m1
.
Demostracin. Tenemos que
I
m
A
m
= (I A)(I
m1
+ I
m2
A+ I
m3
A
2
+ + IA
m2
+ A
m1
).
Pero A
m
= O
m
, por lo cual
(I A)(I + A+ A
2
+ + A
m2
+ A
m1
) = I,
de donde concluimos que (I A) es inversible y que
(I A)
1
= (I + A + A
2
+ + A
m2
+ A
m1
).
(b) Apliquemos el resultado anterior para hallar la inversa de la matriz
B =
_
_
1 2 3
0 1 1
0 0 1
_
_
.
44 Matrices
Desarrollo. La matriz B la podemos escribir como
B =
_
_
1 2 3
0 1 1
0 0 1
_
_
= B =
_
_
1 0 0
0 1 0
0 0 1
_
_

_
_
0 2 3
0 0 1
0 0 0
_
_
= I A,
con
A =
_
_
0 2 3
0 0 1
0 0 0
_
_
.
Por otro lado, tenemos que:
A
2
=
_
_
0 0 2
0 0 0
0 0 0
_
_
, A
3
=
_
_
0 0 0
0 0 0
0 0 0
_
_
.
Entonces la matriz A es nilpotente de orden 3. Luego podemos aplicar el re-
sultado anterior:
B
1
= (I A)
1
= I + A+ A
2
=
_
_
1 0 0
0 1 0
0 0 1
_
_
+
_
_
0 2 3
0 0 1
0 0 0
_
_
+
_
_
0 0 2
0 0 0
0 0 0
_
_
=
_
_
1 2 5
0 1 1
0 0 1
_
_
.
10. Demostrar que si A M
n
es simtrica e inversible, entonces A
1
es simtrica.
Demostracin. Si la matriz A es inversible, entonces AA
1
= I. Podemos escribir
(AA
1
)
t
= I
t
,
(A
1
)
t
A
t
= I,
(A
1
)
t
A = I.
La ltima expresin signica que la matriz (A
1
)
t
es la inversa de la matriz A, es
decir,
A
1
= (A
1
)
t
,
lo cual, a su vez, signica que A
1
es una matriz simtrica.
11. Dada la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
,
determinar A
n
.
Desarrollo. Encontremos A
n
. Para ello, empecemos con A
2
:
A
2
=
_
_
3 3 3
3 3 3
3 3 3
_
_
= 3A.
1.7 Ejercicios resueltos 45
Entonces:
A
3
= A
2
A = 3AA = 3A
2
= 3(3A) = 3
2
A.
Conjeturamos que A
n
= 3
n1
A. Demostremos por induccin sobre n que esta fr-
mula es efectivamente verdadera.
i ) Si n = 1,
A
1
= A = 3
0
A.
ES decir, la frmula es verdadera.
ii ) Si es verdadera para n, demostremos que tambin lo es para n + 1:
A
n+1
= A
n
A = (3
n1
A)A = 3
n1
A
2
= 3
n1
(3A) = 3
n
A.
Por lo tanto, si A =
_
1 1 1
1 1 1
1 1 1
_
, entonces A
n
= 3
n1
A para todo n N.
12. Dada la matriz
A =
_
_
a b c
0 a d
0 0 a
_
_
,
determinar A
n
.
Desarrollo. En primer lugar, tenemos que A = aI + B con
B =
_
_
0 b c
0 0 d
0 0 0
_
_
.
Tenemos que
B
2
=
_
_
0 0 bd
0 0 0
0 0 0
_
_
, B
3
= O.
Si aplicamos el binomio de Newton, obtenemos que
A
n
= (aI + B)
n
=
n

k=0
_
n
k
_
(aI)
nk
B
k
= a
n
I +
_
n
1
_
a
n1
B +
_
n
2
_
a
n2
B
2
+
_
n
3
_
a
n3
B
3
+ O + + O
= a
n
I + na
n1
B +
n(n 1)
2
a
n2
B
2
.
Reemplazamos la matriz B:
A
n
= a
n
_
_
1 0 0
0 1 0
0 0 1
_
_
+ na
n1
_
_
0 b c
0 0 d
0 0 0
_
_
+
n(n 1)
2
a
n2
_
_
0 0 bd
0 0 0
0 0 0
_
_
=
_
_
a
n
na
n1
b
n(n1)
2
a
n2
bd
0 a
n
na
n1
d
0 0 a
n
_
_
.
46 Matrices
13. Sean las matrices
A =
_
_
2 1 1
1 2 1
1 1 2
_
_
y B =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
Determinar
(a) AB y BA,
(b) A
n
+ B
n
.
Desarrollo.
(a) Calculemos lo pedido:
AB =
_
_
2 1 1
1 2 1
1 1 2
_
_
_
_
1 1 1
1 1 1
1 1 1
_
_
=
_
_
0 0 0
0 0 0
0 0 0
_
_
= O,
BA =
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
2 1 1
1 2 1
1 1 2
_
_
=
_
_
0 0 0
0 0 0
0 0 0
_
_
= O.
(b) Como AB = BA = O se puede utilizar el binomio de Newton:
(A+ B)
n
=
n

k=0
_
n
k
_
A
nk
B
k
= A
n
+
n1

k=1
_
n
k
_
A
nk
B
k
+ B
n
= A
n
+ O + B
n
= A
n
+ B
n
.
Entonces tenemos que
A
n
+ B
n
= (A + B)
n
.
Como
(A+ B) =
_
_
2 1 1
1 2 1
1 1 2
_
_
+
_
_
1 1 1
1 1 1
1 1 1
_
_
=
_
_
3 0 0
0 3 0
0 0 3
_
_
= 3I,
entonces
A
n
+ B
n
= (3I)
n
= 3
n
I
n
= 3
n
I.
Determinantes 2
2.1 Denicin
Denicin 2.1 (Determinante) El determinante de una matriz A = (a
ij
) M
n
(K), notado det A
o [A[ es la funcin
det: M
n
K
A det A
denida por:
1. Si n = 1, det(a
11
) = a
11
.
2. Si n > 1, las siguientes son dos formas equivalentes de denir det(A):
(a) El desarrollo del determinante por menores por la r-sima la de A = (a
ij
)
n
:
[A[ =
n

j=1
(1)
r+j
a
rj
[A
j
r
[,
donde A
j
r
es la matriz de orden n 1 que resulta de quitar de la matriz A la la r y la
columna j para j = 1, 2, . . . n.
(b) El desarrollo del determinante por menores por la s-sima columna de A = (a
ij
)
n
:
[A[ =
n

i=1
(1)
i+s
a
is
[A
s
i
[,
donde A
s
i
es la matriz de orden n 1 que resulta de quitar de la matriz A la la i y la
columna s para i = 1, 2, . . . n.
Observaciones
1. Por ser det una funcin, det(A) arroja un valor nico, por lo que sea que se utilice el
desarrollo por menores por una la o por una columna, se obtendr el mismo valor.
48 Determinantes
2. La denicin de determinante ofrecida es recursiva, pues se dene el determinante
de una matriz de orden n a partir de los determinantes de algunas matrices de
orden n 1. Por ejemplo, para calcular el determinante de una matriz cuadrada de
orden 4, se deben calcular 4 determinantes de matrices de orden 3 previamente: A
1
1
,
A
2
1
, A
3
1
y A
4
1
(si se utiliz el desarrollo por menores por la primera la). A su vez,
para calcular cada uno de los determinantes de las matrices de orden 3, se debern
calcular 3 determinantes de matrices de orden 2 previamente. Y, nalmente, para
calcular cada uno de los determinantes de las matrices de orden 2, se deber calcular
un determinante de una las matrices de orden 1.
Ejemplo 2.12
Sea
A =
_
a
11
a
12
a
21
a
22
_
.
Hallar [A[.
Solucin. El desarrollo del determinante [A[ por menores, por la segunda la es el siguiente:
[A[ =
2

j=1
(1)
2j
a
2j
[A
j
2
[
= (1)
2+1
a
21
[A
1
2
[ + (1)
2+2
a
22
[A
2
2
[
= (1)
3
a
21
[a
12
[ + (1)
4
a
22
[a
11
[
= a
21
a
12
+a
22
a
11
= a
11
a
22
a
21
a
12
.
En cambio, el desarrollo del determinante [A[ por menores, por la primera columna es el
siguiente:
[A[ =
2

i=1
(1)
i+1
a
i1
[A
1
i
[
= (1)
1+1
a
11
[A
1
1
[ + (1)
2+1
a
21
[A
1
2
[
= (1)
2
a
11
[a
22
[ + (1)
3
a
21
[a
12
[
= a
11
a
22
a
21
a
12
,
que es igual al valor calculado anteriormente.
Ejemplo 2.13
Hallar el valor del determinante

1 2 3
4 5 6
2 3 4

.
2.1 Denicin 49
Solucin. Hagamos el desarrollo del determinante por menores por la segunda columna:

1 2 3
4 5 6
2 3 4

= (1)
(1+2)
2

4 6
2 4

+ (1)
(2+2)
5

1 3
2 4

+ (1)
(3+2)
(3)

1 3
4 6

= 2
_
4(4) 2 6
_
+ 5
_
(1)(4) 2 3
_
(3)
_
(1)6 4 3)
_
= 2(28) + 5 (2) (3)(18)
= 56 + (10) 54
= 8.

Para agilizar el clculo de un determinante, es preferible hacer el desarrollo por


menores por la la o la columna que tenga mayor cantidad de ceros, tal como se ilustra
en el siguiente ejemplo.
Ejemplo 2.14
Calcular el valor del determinante

1 2 0 3
2 1 0 1
1 2 3 1
4 1 0 2

.
Solucin. En este caso conviene hacer el desarrollo del determinante por menores por la
3-sima columna:

1 2 0 3
2 1 0 1
1 2 3 1
4 1 0 2

= 0 + 0 + (1)
(3+3)
3

1 2 3
2 1 1
4 1 2

+ 0
= 3
_
(2 1) 2(4 4) + 3(2 + 4)
_
= 3(1 + 16 + 18)
= 99.
Como puede observarse, si se hubiera elegido una columna diferente o cualesquiera de las
las, el nmero de operaciones utilizadas para calcular el determinado habra sido mayor
signicativamente.
Si el orden del determinante es grande y si, adems, la mayora de los elementos
de la matriz son diferentes de cero, el clculo del determinante haciendo uso de la
denicin puede ser tedioso y propenso a error. No solo eso, el tiempo que, incluso
una computadora invierta en el clculo, podra superar lo aceptable para este clculo
(horas, das). Por ello conviene estudiar las propiedades de los determinantes, las cuales
facilitan enormemente su clculo.
50 Determinantes
2.2 Propiedades
Teorema 2.1 Si A = (a
ij
)
n
es una matriz triangular inferior o superior, entonces
[A[ =
n

i=1
a
ii
= a
11
a
22
a
nn
En otras palabras, el determinante de una matriz triangular inferior o superior es igual
al producto de los elementos de su diagonal.
Demostracin. Es inmediata si para el clculo de det(A) se elige el desarrollo por
menores por la primera la o columna, segn A sea triangular inferior o superior. En
ese caso, solo hay que calcular un determinante de orden n1, cuyo valor se multiplicar
por el primer elemento de la diagonal: a
11
. La matriz de orden n1 cuyo determinante
se calcular, tambin es una triangular inferior o superior.
El carcter recursivo de la denicin de determinante, permite utilizar la recursin
para la demostracin de varias de sus propiedades, como la que acabamos de realizar.
Luego del ejemplo, el lector podr aplicar el mtodo para demostrar otra propiedad de
los determinantes.
Ejemplo 2.15

4 0 0
7 2 0
34 8 1

= (4) 2 (1) = 8.

Teorema 2.2 Sean las matrices A = (a


ij
)
n
y B = (b
ij
)
n
tales que sus las son iguales excepto
la la r-sima. Sea la matriz C = (c
ij
)
n
tal que C
i
= A
i
= B
i
para todo i distinto de r y
C
r
= A
r
+B
r
. Entonces, [C[ = [A[ +[B[.
Demostracin. Calculemos det(C) mediante el desarrollo por menores de la r-sima
la:
det(C) =
n

j=1
(1)
r+j
c
rj
det(C
j
r
).
Por la denicin de C, tenemos que c
rj
= a
rj
+ b
rj
, por lo tanto:
det(C) =
n

j=1
(1)
r+j
a
rj
det(C
j
r
) +
n

j=1
(1)
r+j
b
rj
det(C
j
r
).
2.2 Propiedades 51
Por otro lado, las matrices C
j
r
, A
j
r
y B
j
r
son iguales entre s, porque la nica diferencia
entre las matrices A, B y C es la la r-sima que, al ser eliminada de cada una, producen
las matrices C
j
r
, A
j
r
y B
j
r
respectivamente. Por lo tanto, tenemos que:
det(C) =
n

j=1
(1)
r+j
a
rj
det(A
j
r
) +
n

j=1
(1)
r+j
b
rj
det(B
j
r
) = det(A) + det(B).
Ejemplo 2.16
Sean las matrices
A =
_
_
1 2 3
4 6 8
6 8 10
_
_
y B =
_
_
1 2 3
4 8 6
6 8 10
_
_
.
Utilice el teorema anterior para hallar [A[ +[B[.
Solucin. Las matrices A y B tienen iguales sus las, excepto la segunda. Escribamos una
matriz C de orden 3 tal que su primera y tercera las sean iguales a la primera y tercera las
de A y B, respectivamente, y su segunda la sea igual a la suma de las segundas las de A y
B:
C =
_
_
1 2 3
0 2 2
6 8 10
_
_
.
Las matrices A, B y C cumplen con las condiciones del teorema y podemos escribir:
[A[ +[B[ = [C[ =

1 2 3
0 2 2
6 8 10

= 2

1 3
6 10

= 2

1 2
6 8

= 2(10 18) 2(8 + 12) = 16 40 = 24.


Veriquemos el resultado hallando los determinantes de las matrices A y B y luego su-
mndolos:
[A[ =

1 2 3
4 6 10
6 8 8

= 32, [B[ =

1 2 3
4 8 6
6 8 10

= 8,
[A[ +[B[ = 32 + 8 = 24 = [C[.

Teorema 2.3 Sean las matrices A = (a


ij
)
n
y B = (b
ij
)
n
tales que B
i
= A
i
para todo i ,= r y
B
r
= A
r
, con K. Entonces, [B[ = [A[.
Esta propiedad nos indica que si existe un mltiplo de alguna la este mltiplo se
puede sacar fuera del determinante. La propiedad tambin es vlida para cuando existe
un mltiplo de una columna.
52 Determinantes
Demostracin. Para calcular [B[, utilicemos el desarrollo por menores de la la r.
Entonces:
[B[ =
n

j=1
(1)
r+j
b
rj
[B
j
r
[ =
n

j=1
(1)
r+j
(a
rj
)[A
j
r
[
=
_
n

j=1
(1)
r+j
a
rj
[A
j
r
[
_
= [A[.
Por lo tanto, [B[ = [A[.
Ejemplo 2.17
Sea la matriz
A =
_
_
1 3 3
4 12 4
2 6 1
_
_
.
Utilice la propiedad anterior para calcular el determinante de la matriz A.
Solucin.
[A[ =

1 3 3
4 12 4
2 6 1

= 4

1 3 3
1 3 1
2 6 1

= 4 3

1 1 3
1 1 1
2 2 1

= 12((1) (1) + 0) = 24.


Veriquemos el resultado con un clculo directo:
[A[ =

1 3 3
4 12 4
2 6 1

= (12 24) 3(4 8) + 3(24 24) = 12 + 12 = 24.

Teorema 2.4 Sea la matriz A = (a


ij
)
n
tal que alguna la o columna es nula. Entonces [A[ = 0.
Demostracin. Supongamos que la la r-sima de la matriz A es nula. Si desarrollamos
[A[ por menores sobre la la r, tenemos que:
[A[ =
n

j=1
(1)
r+j
a
rj
[A
j
r
[ =
n

j=1
(1)
r+j
0[A
j
r
[ = 0,
pues a
rj
= 0 para todo j I
m
, pues A
r
es nula.
La siguiente propiedad arma que si existe un mltiplo de todos los elementos de
una matriz, el determinante de la matriz es el producto de dicho mltiplo elevado a la
potencia n y el determinante de la matriz obtenida al dividir cada uno de los elementos
de la matriz original por el mltiplo. En la jerga matemtica, se suele decir que el
mltiplo ha sido sacado n veces como factor fuera del determinante de la matriz.
2.2 Propiedades 53
Teorema 2.5 Sean la matriz A = (a
ij
)
n
y K. Entonces [A[ =
n
[A[.
Demostracin. Utilicemos la induccin matemtica sobre n, el orden de la matriz A.
1. Si n = 1, entonces A = (a
11
). Por lo tanto, A = (a
11
). Luego, por la denicin de
determinante, tenemos que:
[A[ = a
11
= [A[.
2. Ahora supongamos que [A[ =
k
[A[ para k 1. Vamos a probar que si el orden
de A es k + 1, entonces [A[ =
k+1
[A[.
La primera la de la matriz A es
_
a
11
a
12
a
1n
_
.
Adems, cada la de la matriz A es el producto de por la la correspondiente
de A. Entonces, si desarrollamos el determinante de A por menores respecto a la
primera la, obtendremos lo siguiente:
[A[ =
k+1

j=1
(1)
1+j
(a
1j
)[A
j
1
[
=
k+1

j=1
(1)
1+j
a
1j
[A
j
1
[.
Como A
j
1
es una matriz de orden k, entonces, por la hiptesis de induccin, tenemos
que
[A
j
1
[ =
k
[A
j
1
[.
Por lo tanto:
[A[ =
k+1

j=1
(1)
1+j
a
1j

k
[A
j
1
[ =
k+1
k+1

j=1
(1)
1+j
a
1j
[A
j
1
[ =
k+1
[A[,
como se quera demostrar.
Ejemplo 2.18
Sea la matriz
A =
_
8 4
20 24
_
.
Use la propiedad anterior para calcular el determinante de la matriz A.
54 Determinantes
Solucin.
[A[ =

8 4
20 24

4 2 4 1
4 5 4 6

= 4
2

2 1
5 6

= 16(12 5) = 16 7 = 112.
Un clculo directo con la denicin da, obviamente, igual resultado:
[A[ =
_
8 4
20 24
_
= 8 24 20 4 = 192 80 = 112.

Teorema 2.6 Si se intercambian dos las (o columnas) distintas de un determinante, entonces


el determinante cambia de signo.
Demostracin. Sea la matriz A = (a
ij
)
n
. Sea B la matriz que se obtiene de A al
intercambiar la la r con la la s en la matriz A. Vamos a demostrar que [B[ = [A[.
Supongamos adems que r < s.
En primer lugar, demostremos el caso en que s = r + 1. Esto signica que el inter-
cambio de dos las consecutivas cambia el signo del determinante. Luego probaremos
que para intercambiar dos las cualesquiera diferentes se requiere un nmero impar de
intercambios de las consecutivas, lo que demuestra el teorema.
De la denicin de B tenemos que:
B
i
=
_

_
A
i
i ,= r, i ,= r + 1,
A
r+1
i = r,
A
r
i = r + 1.
Ahora, calculemos el determinante de B por menores de la la r + 1:
[B[ =
n

j=1
(1)
(r+1)+j
b
(r+1)j
[B
j
r+1
[.
Pero B
j
r+1
= A
j
r
y b
r+1
j = a
rj
, como se puede ver en la denicin de B. Entonces:
[B[ =
n

j=1
(1)
(r+1)+j
a
rj
[A
j
r
[
=
n

j=1
(1)
(r+j)
(1)a
rj
[A
j
r
[
= (1)
n

j=1
(1)
(r+j)
a
rj
[A
j
r
[.
Es decir, [B[ = [A[.
Ahora mostremos que se requiere un nmero impar de intercambios consecutivos
para lograr el intercambio entre las las r y s. Procedamos as:
2.2 Propiedades 55
1. Vamos a colocar la la nmero r en la posicin s. Para ello, intercambios A
r
con
A
r+1
, luego con A
r+2
, y as hasta intercambiar con A
s
. En este proceso se han
realizado (s r) intercambios consecutivos.
2. Ahora hay que llevar la la A
s
, que en este momento se encuentra en la la
nmero s1, ya que la la nmero s est ahora ocupada por A
r
, a la la nmero
r. Esto signica que hay que intercambiar las las nmero r y nmero s 1. El
paso anterior nos dice que requeriremos (s r 1) (uno menos que el anterior).
Por lo tanto, se requiere (s r) +(s r) 1 = 2(s r) 1 que es, como se puede ver,
un nmero impar.
Teorema 2.7 Si dos las (o columnas) distintas de un determinante son iguales, entonces el
determinante es igual a cero.
Demostracin. Sea A una matriz que tiene dos las iguales. Sea B la matriz obtenida
de A al intercambiar dichas las iguales. Entonces, B = A y, por el teorema 2.6,
[B[ = [A[. Por lo tanto [A[ = [A[, de donde [A[ = 0.
Ejemplo 2.19
[A[ =

1 3 3
4 12 4
2 6 1

F
2
F
3
=

1 3 3
2 6 1
4 12 4

C
1
C
2
=

3 1 3
6 2 1
12 4 4

Teorema 2.8 Si una la (o columna) de un determinante es mltiplo de otra la (o columna,


respectivamente), entonces el determinante es igual a cero.
Demostracin. Sean A una matriz, r y s, con r < s, tales que la la nmero r es
mltiplo de la la nmero s; es decir, existe un escalar ,= 0 tal que
A
r
= A
s
.
Vamos a probar que el determinante de A es igual a 0.
Sea B la matriz denida por:
B
i
=
_
A
i
si i ,= r,
A
s
si i = r.
Por lo tanto, B tiene dos las iguales: la r-sima y la s-sima, ya que la matriz B
se obtuvo de A al dividir toda la la r-sima por (lo que es posible, ya que es
diferente de 0); es decir, B se obtuvo de A al quitar el escalar de cada trmino de
la la r-sima. Por lo tanto, tenemos que [B[ = 0.
Por otro lado, por el teorema 2.3, sabemos que el determinante de A es el producto
del escalar por la matriz sin el escalar; es decir: [A[ = [B[. Por lo tanto, [A[ = 0.
56 Determinantes
Teorema 2.9 Si a una la (o columna) de un determinante se le suma un mltiplo constante de
otra la (o columna, respectivamente), entonces el determinante no cambia.
Demostracin. Sean A una matriz de orden n y B la matriz cuya la r-sima es el
resultado de sumar la la r-sima de A con el producto de un escalar por la la
s-sima de A (r ,= s).
Entonces, si C es la matriz obtenida a partir de A al multiplicar la la s-sima
por , tenemos que [C[ = 0, ya que las la nmero s es un mltiplo de nmero s
(teorema 2.8).
Por otro lado, la matriz B es idntica a las matrices A y C salvo en la la r-sima,
la cual es la suma de las correspondientes las r-simas de A y de C. Por lo tanto, por
el teorema 2.2, tenemos que:
[B[ = [A[ +[C[ = [A[ + 0 = [A[,
que es lo que queramos demostrar.
Ejemplo 2.20

1 2 3
2 4 5
1 10 4

F
2
+3F
1
=

1 2 3
1 10 14
1 10 14

F
3
F
2
=

1 2 3
1 10 14
0 0 0

= 0.

Ejemplo 2.21
Hallar el valor del determinante

+ 1 2
+ 2 + 7
2 2 + 2 + 6

.
Solucin.

+ 1 2
+ 2 + 7
2 2 + 2 + 6

F
2
F
1
F
3
2F
1
=

+ 1 2
0 1 + 9
0 0 + 10

= ( + 10).

Teorema 2.10 Si A es una matriz cuadrada, entonces [A


t
[ = [A[.
En otras palabras, el determinante de una matriz y el de su transpuesta son iguales.
Demostracin. Utilicemos induccin matemtica sobre n, el orden de la matriz.
2.2 Propiedades 57
1. Supongamos que n = 1. Sea A la matriz
A =
_
a
11
a
12
a
21
a
22
_
.
Entonces
A
t
=
_
a
11
a
21
a
12
a
22
_
.
y
[A
t
[ = a
11
a
22
a
12
a
21
= [A[.
2. Supongamos ahora que si A es de orden k, entonces [A
t
[ = [A[. Vamos a probar que
si A es una matriz de orden k + 1, tambin se verica que [A
t
[ = [A[.
Para ello, calculemos el determinante de A
t
desarrollando el menor por la primera
la de A
t
:
[A
t
[ =
n

j=1
(1)
1+j
a
1j
[

A
j
1
[
=
n

j=1
(1)
1+j
a
j1
[(A
1
j
)
t
[.
Pero la matriz A
1
j
es de orden k. Entonces, por la hiptesis de induccin, tenemos
que [(A
1
j
)
t
[ = [A
j
1
[. Por lo tanto:
[A
t
[ =
n

j=1
(1)
1+j
a
j1
[A
1
j
[.
Pero el trmino de la derecha de esta igualdad, es el determinante de A al desarrollar
el menor por la primera columna de A. Es decir:
n

j=1
(1)
1+j
a
j1
[A
1
j
[ = [A[.
Por lo tanto, [A
t
[ = [A[.
Denicin 2.2 (Matriz semidescompuesta) Una matriz A M
n
se denomina matriz semides-
compuesta si es de la forma
_
B O
C D
_
,
donde B M
rr
, D M
ss
, O M
rs
(matriz nula), C M
sr
y r +s = n.
Una matriz descompuesta tambin es de la forma
_
B C
O D
_
,
con B M
rr
, D M
ss
, O M
sr
, C M
rs
y r + s = n.
En los dos casos a las matrices B y D se les llama clulas diagonales de la matriz
A.
58 Determinantes
Teorema 2.11 El determinante de una matriz semidescompuesta es igual al producto de los
determinantes de sus clulas diagonales.
Es decir, si
_
B C
O D
_
,
es una matriz semidescompuesta, entonces su determinante es igual a [B[ [D[.
Demostracin. Utilicemos induccin sobre n, el orden de la matriz A.
1. Si n = 2 y
A =
_
a
11
0
a
21
a
22
_
,
tenemos que
[A[ =

a
11
a
12
a
21
a
22

= a
11
a
22
.
2. Supongamos que el teorema es verdadero para cada matriz semidescompuesta de
orden k. Vamos a probar que si A una matriz semidescompuesta de orden k +1,
es decir, si
A =
_
B O
C D
_
,
donde B = (b
ij
)
r
y D = (d
ij
)
s
, con r + s = k + 1, se verica que
[A[ = [B[ [D[.
Puesto que a
1j
= b
1j
para j = 1, 2, . . . , r, y a
1j
= 0 para j = r + 1, . . . , k + 1, se
tiene que
[A[ =
k+1

j=1
(1)
1+j
a
1j
[A
j
1
[ =
r

j=1
(1)
1+j
b
1j
[A
j
1
[.
Por otro lado, A
j
1
son matrices descompuestas de orden k cuyas clulas diagonales
son B
j
1
, j = 1, 2, . . . , r y D. Entonces, por la hiptesis de induccin, tenemos que:
[A
j
1
[ = [B
j
1
[ [D[,
lo que produce que
[A[ =
r

j=1
(1)
1+j
b
1j
[B
j
1
[[D[ =
_
r

j=1
(1)
1+j
b
1j
[B
j
1
[
_
[D[ = [B[ [D[.
El siguiente teorema es, en realidad, un corolario de este ltimo.
2.2 Propiedades 59
Teorema 2.12 Si A, B M
n
, entonces [AB[ = [A[ [B[.
Es decir, el determinante de un producto de matrices es igual al producto de los deter-
minantes de las matrices. No existe una propiedad similar para la suma de matrices.
Demostracin. La aplicacin del teorema anterior a la siguiente matriz semidescom-
puesta:
C =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
0 0 0
a
21
a
22
a
2n
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
0 0 0
1 0 0 b
11
b
12
b
1n
0 1 0 b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 b
n1
b
n2
b
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
,
donde A = (a
ij
)
n
y B = (b
ij
)
n
produce el resultado buscado.
Corolario 2.13 Sean A
1
, A
2
, . . . , A
m
m matrices cuadradas de orden n. Entonces se tiene que
[A
1
A
2
A
m
[ = [A
1
[ [A
2
[ [A
m
[
Demostracin. Por induccin sobre m.
De este corolario se deduce inmediatamente el siguiente teorema.
Teorema 2.14 Sean A M
n
y m N. Entonces [A
m
[ = [A[
m
.
Se entiende que A
m
es la abreviacin de AA A, donde A aparece m veces.
Ejemplo 2.22
Sea la matriz
A =
_
_
1 3 4
2 7 6
3 8 12
_
_
.
Halle [A
n
[.
Solucin. Primero encontremos [A[ usando las propiedades vistas anteriormente:
[A[ =

1 3 4
2 7 6
3 8 12

F
2
2F
1
F
3
+3F
1
=

1 3 4
0 1 2
0 1 0

F
3
F
2
=

1 3 4
0 1 2
0 0 2

= 1 1 (2) = 2
Aplicamos la ltima propiedad:
[A
n
[ = [A[
n
= (2)
n
.

60 Determinantes
2.3 Determinantes y matrices inversibles
Teorema 2.15 Si A M
n
es una matriz inversible, entonces
[A[ , = 0 y [A
1
[ =
1
[A[
.
Demostracin. Como A es inversible, existe A
1
y A
1
A = I. Entonces:
[A
1
A[ = [I[.
Pero
[A
1
A[ = [A
1
[ [A[ y [I[ = 1.
Por lo tanto
[A
1
[ [A[ = 1,
de donde [A
1
[ , = 0 y [A
1
[ =
1
[A[
.
Ejemplo 2.23
Se sabe que la matriz
A =
_
_
1 0 1
3 1 4
0 1 0
_
_
es inversible. Calcular [A
1
[.
Solucin. Como
[A[ =

1 0 1
3 1 4
0 2 0

= 2

1 1
3 4

= 2(4 + 3) = 14,
tenemos que
[A
1
[ =
1
[A[
=
1
14
=
1
14
.

Denicin 2.3 (Cofactor de una matriz) El ij-simo cofactor de la matriz A = (a


ij
) M
n
,
notado A
ij
, se dene como
A
ij
= (1)
i+j
[A
j
i
[.
La matriz de los cofactores de la matriz A M
n
, notada cof A, se dene como
cof A = (A
ij
)
n
.
2.3 Determinantes y matrices inversibles 61
Con esta denicin, el desarrollo del determinante por menores de la matriz A =
(a
ij
)
n
por la r-sima la puede escribirse como
[A[ =
n

k=1
a
rk
A
rk
r 1, 2, . . . , n,
o por la s-sima columna como
[A[ =
n

k=1
a
ks
A
ks
s 1, 2, . . . , n.
Denicin 2.4 (Matriz adjunta) Se denomina adjunta de la matriz A M
n
, notada adj A, a la
matriz transpuesta de la matriz de los cofactores de A, es decir, adj(A) = (cof A)
t
.
Teorema 2.16 Si A = (a
ij
)
n
, entonces
n

k=1
a
ij
A
jk
= 0 para todo i y para todo j tal que i ,= j.
Esto signica que el producto de la i-sima la de la matriz A, A
i
, por la j-sima la,
con j ,= i, de la matriz cof A es igual a cero.
Demostracin. Sea B la matriz tal que B
s
= A
r
y el resto de sus las son iguales a las
correspondientes de A. Entonces [B[ = 0.
Por otro lado, de la denicin de B tambin tenemos que:
[B[ =
n

j=1
(1)
j+s
b
sj
[B
j
s
[ =
n

j=1
(1)
j+a
a
rj
[A
j
s
[.
Entonces
[B[ =
n

j=1
a
rk
A
j
s
.
Entonces, por la denicin de cofactor, tenemos que
n

j=1
a
rj
A
sj
= [B[ = 0.
Esto signica que el producto de una la r de A por una la s (s ,= r) de cof A es cero.
Adems, obsrvese que
n

j=1
a
rj
A
sj
= [A[
para r = 1, 2, . . . , n.
El siguiente teorema nos permitir obtener un mtodo alternativo para calcular la
inversa de una matriz.
62 Determinantes
Teorema 2.17 Sea la matriz A = (a
ij
) M
n
. Entonces Aadj(A) = [A[ I
n
.
Demostracin. Sea C = Aadj(A). Entonces:
c
ij
=
n

k=1
a
ik
A
jk
.
Entonces, por el teorema 2.16, tenemos que c
ij
= 0 si i ,= j y c
ii
= [A[. Por lo tanto:
Aadj A =
_
_
_
_
_
[A[ 0 0
0 [A[ 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 [A[
_
_
_
_
_
= [A[I,
por el teorema 2.11.
Ejemplo 2.24
Sea la matriz
A =
_
_
1 0 1
3 1 4
0 1 0
_
_
.
Calcular A adj(A).
Solucin. Calculemos
[A[ =

1 0 1
3 1 4
0 1 0

1 1
3 4

= 7
Por el teorema anterior:
A adj(A) = [A[ I
3
= 7
_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
_
7 0 0
0 7 0
0 0 7
_
_
.
Vericacin:
cof A =
_
_
4 0 3
1 0 1
1 7 1
_
_
, adj(A) = (cof A)
t
=
_
_
4 1 1
0 0 7
3 1 1
_
_
,
A adj(A) =
_
_
1 0 1
3 1 4
0 1 0
_
_
_
_
4 1 1
0 0 7
3 1 1
_
_
=
_
_
7 0 0
0 7 0
0 0 7
_
_
= 7
_
_
1 0 0
0 1 0
0 0 1
_
_
= [A[ I
3
.

2.3 Determinantes y matrices inversibles 63


Teorema 2.18 Sea la matriz A = (a
ij
) M
n
. La matriz A es inversible si y solo si [A[ , = 0 y,
adems,
A
1
=
1
[A[
adj(A).
Este teorema nos permite saber si una matriz es inversible o no con tan solo calcular
su determinante. Si ste es igual a cero, la matriz no es inversible; en el caso contrario,
la matriz es inversible. Adicionalmente, podemos calcular la matriz inversa como el
producto del inverso multiplicativo del determinante de la matriz por la adjunta de la
matriz.
Demostracin. Sea A una matriz de orden n.
Si la matriz A es inversible, entonces [A[ , = 0. Pero, por el teorema 2.17, tenemos
que:
Aadj A = [A[I,
de donde
A
_
1
[A[
adj A
_
= I.
Por lo tanto:
A
1
=
1
[A[
adj A.
1. 2. Recprocamente, supongamos que [A[ , = 0 y que Aadj A = [A[I, entonces
A
_
1
[A[
adj A
_
= I.
Entonces la matriz A es inversible y se tiene
A
1
=
1
[A[
adj A.
Ejemplo 2.25
Sea la matriz
A =
_
a b
c d
_
.
1. Qu condicin deben cumplir a, b, c y d para que la matriz A sea invertible?
2. Si la matriz A es invertible, encontrar A
1
.
Solucin.
1. El determinante de la matriz A es
[A[ =

a b
c d

= ad cb.
Entonces la matriz A es inversible si y solo si ad cb ,= 0.
64 Determinantes
2. Sea la matriz A tal que ad cb ,= 0. Tenemos que
[A[ = ad cb, cof A =
_
d c
b a
_
, adj A = (cof A)
t
=
_
d b
c a
_
.
Entonces tenemos que
A
1
=
1
[A[
adj A =
1
ad cb
_
d b
c a
_
.

Ejemplo 2.26
Sea la matriz
A =
_
_
1 0 1
3 1 4
0 1 0
_
_
.
Si la matriz A es inversible, calcular su inversa A
1
.
Solucin. Hallemos el determinante de la matriz:
[A[ =

1 0 1
3 1 4
0 1 0

= 7 ,= 0.
Entonces la matriz A es inversible. De un ejercicio anterior tenemos su adjunta:
adj A =
_
_
4 1 1
0 0 7
3 1 1
_
_
La inversa de la matriz A es
A
1
=
1
[A[
adj A =
1
7
_
_
4 1 1
0 0 7
3 1 1
_
_
.
Vericacin:
A
1
A =
1
7
_
_
4 1 1
0 0 7
3 1 1
_
_
_
_
1 0 1
3 1 4
0 1 0
_
_
=
1
7
_
_
7 0 0
0 7 0
0 0 7
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
= I
3
.

2.4 Ejercicios resueltos


1. Demostrar que si AB es inversible, con A y B matrices cuadradas, entonces A y B
son inversibles.
2.4 Ejercicios resueltos 65
Demostracin. Supongamos que AB es inversible. Entonces, [AB[ , = 0. Por lo tanto,
[A[ , = 0 y y [B[ , = 0. Esto signica que A y B son inversibles.
2. Sean A, B M
n
, con A y B inversibles. Demostrar que:
[AB I[ = [BAI[.
Demostracin. Puesto que:
[AB I[ = [AB AA
1
[ = [A[[B A
1
[
= [B A
1
[[A[ = [(B A
1
)A[
= [BAA
1
A[ = [BAI[,
concluimos que
[AB I[ = [BAI[.
3. Hallar el valor del determinante

n
=

1 1 1 1 1
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2

.
Desarrollo. Utilicemos el desarrollo por menores de la primera columna. Obtenemos
lo siguiente:

n
=

1 1 1 1 1
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2

2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2

(1)

1 1 1 1 1
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2

= 2
n1
+
n1
= 2
n1
+ 2
n2
+ 2
2
+
2
= 2
n1
+ 2
n2
+ 2
2
+ 2
1
+ 2
0
=
n1

i=0
2
i
=
2
n
1
2 1
= 2
n
1.
66 Determinantes
4. Sea la matriz A M
n
antisimtrica. Demostrar que si n es impar, [A[ = 0.
Demostracin. Supongamos que A es antisimtrica. Entonces A
t
= A. Por lo
tanto, [A
t
[ = [A[. Pero, [A[ = (1)
n
[A[. As que [A[ = [A[, ya que n es impar.
Esto signica que [A[ = 0.
5. Para qu valores de a R la matriz
A =
_
_
1 2 3
a 1 3
1 1 a
_
_
es inversible? Hallar la inversa para dichos valores.
Desarrollo. Hallemos el determinante de la matriz A:
[A[ =

1 2 3
a 1 3
1 1 a

F
2
aF
1
F
3
1F
1
=

1 2 3
0 1 + 2a 3 3a
0 1 a 3

= (1 + 2a)(a 3) + (3 + 3a) = 2a
2
2a = 2a(a 1).
Si a R 0, 1, [A[ , = 0 y, por lo tanto, la matriz A es inversible.
Ahora calculemos la inversa para a R 0, 1. En primer lugar, calculemos los
cofactores de la matriz A:
A
11
=

1 3
1 a

= a 3, A
12
=

a 3
1 a

= a
2
3,
A
13
=

a 1
1 1

= a 1, A
21
=

2 3
1 a

= 2a 3,
A
22
=

1 3
1 a

= a 3, A
23
=

1 2
1 1

= 1,
A
31
=

2 3
1 3

= 3, A
32
=

1 3
a 3

= 3a + 3,
A
33
=

1 2
a 1

= 2a + 1.
Ya podemos hallar la inversa:
A
1
=
1
[A[
adj A =
1
[A[
(cof A)
t
=
1
2a(a 1)
_
_
a 3 2a 3 3
a
2
3 a 3 1
3 3a + 3 2a + 1
_
_
.
Sistemas de
ecuaciones
lineales 3
3.1 Ecuaciones lineales
La ecuacin
a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= b,
donde los coecientes a
1
, a
2
, . . . , a
n
y el trmino independiente b son constantes co-
nocidas, se llama lineal en las incgnitas x
1
, x
2
, . . . , x
n
. Se llama lineal porque todas
las incgnitas estn elevadas a la potencia 1 y porque los coecientes a
1
, a
2
, . . . , a
n
no
contienen a ninguna de las incgnitas.
Ejemplo 3.27 La ecuacin
2x +y 5z + 3w = 3
es una ecuacin lineal en las incgnitas x, y, z y w.
Ninguna de las ecuaciones
2x +y 5z
2
+ 3w = 3,
2x +y 5z + 3xw = 3,
2x
1
+y 5z + 3w = 3
2x + cos y 5z + 3w = 3,
2x +y 5z + 3 ln w = 3,
es una ecuacin lineal.
Resolver una ecuacin lineal es encontrar los valores de las incgnitas que satisfacen
la ecuacin; es decir, encontrar los valores que al sustituir las incgnitas, reducen la
ecuacin a una identidad. El conjunto de valores que satisfacen la ecuacin se llama
solucin de la ecuacin. En concreto, una sucesin de nmeros s
1
, s
2
, . . . , s
n
se llama
solucin de la ecuacin lineal
a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= b,
si al sustituir x
1
= s
1
, x
2
= s
2
, . . . , x
n
= s
n
en la ecuacin, la proposicin
a
1
s
1
+ a
2
s
2
+ + a
s
x
n
= b,
obtenida por la sustitucin, es verdadera.
68 Sistemas de ecuaciones lineales
Ejemplo 3.28 La sucesin s
1
= 2, s
2
= 4, s
3
= 4, s
4
= 3 es una solucin de la ecuacin
lineal
2x
1
+x
2
5x
3
+ 3x
4
= 3.
En efecto, al hacer las sustituciones x
1
= s
1
, x
2
= s
2
, x
3
= s
3
, x
4
= s
4
en la ecuacin, ella se
transforma en identidad:
2x
1
+x
2
5x
3
+ 3x
4
= 2s
1
+s
2
5s
3
+ 3s
4
= 2 2 + 4 5 4 + 3 3
= 4 + 4 20 + 9
= 3.
La sucesin r
1
= 2, r
2
= 4, r
3
= 1, r
4
= 0 es otra solucin de la ecuacin lineal porque
esos valores tambin satisfacen la ecuacin:
2x
1
+x
2
5x
3
+ 3x
4
= 2r
1
+r
2
5r
3
+ 3r
4
= 2 (2) + (4) 5 (1) + 3 0
= 4 4 + 5 + 0
= 3.
La sucesin t
1
= 4, t
2
= 3, t
3
= 0, t
4
= 2 no es solucin de la ecuacin lineal porque no la
reduce a una identidad:
2x
1
+x
2
5x
3
+ 3x
4
= 2t
1
+t
2
5t
3
+t
4
= 2 4 + 3 5 0 + 3 2
= 8 + 3 + 0 + 6 = 17 ,= 3.

3.2 Sistemas de ecuaciones lineales


Denicin 3.1 (Sistema de ecuaciones lineales) Se llama sistema de m ecuaciones lineales en
n incgnitas, o simplemente sistema de ecuaciones lineales, a una coleccin de ecuaciones
de la forma
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
,
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
,
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
.
(3.1)
Los x
i
son las n incgnitas. Los coecientes a
ij
y los trminos independientes b
i
son constantes
conocidas.
El nmero de ecuaciones m puede ser menor, igual o mayor que el nmero de incg-
nitas n. Por brevedad, nos referiremos como sistema lineal a un sistema de ecuaciones
lineales.
De la denicin de multiplicacin de matrices, podemos realizar una representacin
matricial, concisa y elegante, de un sistema de ecuaciones lineales:
AX = B,
3.3 Solucin de un sistema lineal 69
donde
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

.
.
.
a
m1
a
m2
a
mn
.
_
_
_
_
_
, X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
y B =
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
.
La matriz A M
mn
est formada con los coecientes a
ij
del sistema; la matriz X
M
n1
, por las incgnitas x
i
del sistema; y B M
m1
, por los trminos independientes
b
i
del sistema.
Como se indic, con la denicin de multiplicacin de matrices, es fcil ver que la
representacin matricial AX = B se reduce a la representacin explcita del sistema
de ecuaciones lineales:
AX = B,
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
,
_
_
_
_
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
.
3.3 Solucin de un sistema lineal
Denicin 3.2 (Solucin de un sistema lineal ) Una matriz
S =
_
s
1
s
2
s
n
_
t
es solucin del sistema lineal AX = B si y solo si AS = B.
Dicho de forma explcita, la sucesin s
1
, s
2
, . . . , s
n
es una solucin del sistema lineal
AX = B si al realizar las sustituciones x
1
= s
1
, x
2
= s
2
, . . . , x
n
= s
n
en cada una de
las ecuaciones
a
i1
x
1
+ a
i2
x
2
+ + a
in
x
n
= b
i
i = 1, 2, . . . , m
del sistema lineal, cada una de ellas se reduce a una identidad:
a
i1
s
1
+ a
i2
s
2
+ + a
in
s
n
= b
i
. i = 1, 2, . . . , m
Solo existen tres posibilidades de solucin de un sistema lineal:
No existe solucin: No existe un conjunto de valores para las incgnitas x
i
que sa-
tisfaga todas las ecuaciones simultneamente.
Solucin nica: Existe uno y solo un conjunto de valores para las incgnitas x
i
que
satisface todas las ecuaciones simultneamente.
70 Sistemas de ecuaciones lineales
Innitas soluciones: Existen innitos conjuntos de valores para las incgnitas x
i
que satisfacen todas las ecuaciones simultneamente. Es sencillo probar que si
un sistema tiene ms de una solucin, tiene, en realidad, un nmero innito de
soluciones. Esto signica que un sistema no puede tener un nmero nito de
soluciones que no sea el nmero 1.
Denicin 3.3 (Ecuacin combinacin lineal) Al multiplicar cada ecuacin de un sistema lineal
por un escalar c
i
, i = 1, 2, . . . , m (no todos nulos) y luego sumar los miembros izquierdos y los
miembros derechos, respectivamente, se obtiene la ecuacin
_
m

i=1
c
i
a
i1
_
x
1
+
_
m

i=1
c
i
a
i2
_
x
2
+ +
_
m

i=1
c
i
a
in
_
x
n
=
n

j=1
_
n

i=1
c
i
a
ij
_
x
j
=
m

i=1
c
i
b
i
,
la cual se llama combinacin lineal de las ecuaciones del sistema lineal.
Ejemplo 3.29 Sea el sistema lineal
2x 3y = 1,
x + 2y = 4.
Multipliquemos la primera ecuacin por 1 y la segunda por 2:
2x + 3y = 1,
2x + 4y = 8.
Sumamos miembro a miembro las dos ecuaciones anteriores. La nueva ecuacin
4x + 7y = 9
es una combinacin lineal de las ecuaciones del sistema lineal.
Denicin 3.4 (Sistemas lineales equivalentes) Se dice que dos sistemas lineales AX = B y
CX = D son equivalentes si cada una de las ecuaciones del un sistema es una combinacin
lineal de las ecuaciones del otro sistema.
El siguiente teorema muestra la importancia de los sistemas equivalentes.
Teorema 3.1 Dos sistemas lineales equivalentes tiene exactamente las mismas soluciones.
Demostracin. Supongamos que AX = B y CX = D son dos sistemas lineales equi-
valentes. Vamos a probar que tienen las mismas soluciones. Para ello, vamos a probar
que s es solucin de AX = B si y solo si es solucin de CX = D.
3.3 Solucin de un sistema lineal 71
En primer lugar, supongamos que s es una solucin de AX = B, donde A es de
orden mn. Esto signica que para cada i I
m
, la ecuacin i-sima de este sistema,
n

j=1
a
ij
x
j
= b
i
,
es satisfecha por s; es decir, se verica la igualdad:
n

j=1
a
ij
s
j
= b
i
, (3.2)
donde s = (s
1
, s
2
, , s
n
)
t
.
Vamos a probar que s es solucin del sistema CX = D. Para ello, recordemos que
cada ecuacin de este sistema, es una combinacin lineal del otro sistema. Esto signica
que, para cada i I
m
, la ecuacin i-sima de este sistema es de la forma
n

j=1
_
m

i=1
c
i
a
ij
_
x
j
=
m

i=1
c
i
b
i
. (3.3)
Mostremos a continuacin que s satisface cada una de estas ecuaciones. Para ello,
reemplacemos x
j
por s
j
en lado izquierdo de la ecuacin (3.3):
n

j=1
_
m

i=1
c
i
a
ij
_
s
j
=
n

j=1
_
m

i=1
c
i
a
ij
s
j
_
=
m

i=1
_
n

j=1
c
i
a
ij
s
j
_
=
n

i=1
c
i
_
m

j=1
a
ij
s
j
_
.
Es decir:
n

j=1
_
m

i=1
c
i
a
ij
_
s
j
=
n

i=1
c
i
_
m

j=1
a
ij
s
j
_
. (3.4)
Pero la igualdad (3.2) produce en la igualdad (3.4) lo siguiente:
n

j=1
_
m

i=1
c
i
a
ij
_
s
j
=
n

i=1
c
i
b
i
.
Es decir, s satisface cada ecuacin (3.3) del sistema CX = D.
Se deja al lector la demostracin de que s es solucin del sistema AX = B si es
solucin del sistema CX = D.
Una forma rpida de saber si dos sistemas lineales AX = B y CX = D son o no
equivalentes es hallando las matrices escalonadas reducidas por las de las matrices
ampliadas (A [ B) y (C [ D). Si dichas matrices ampliadas son iguales, los sistema son
equivalentes. Caso contrario no son equivalentes.
Denicin 3.5 (Sistemas lineales homogneos y no homogneos) Un sistema de ecuaciones
lineales AX = B se llama homogneo si B = O. Si B ,= Oel sistema se llama no homogneo.
72 Sistemas de ecuaciones lineales
Teorema 3.2 Sean Ay B dos matrices de orden n y equivalentes por las. Entonces los sistemas
homogneos AX = O y BX = O son equivalentes; es decir, tienen las mismas soluciones.
Demostracin. Supongamos que la matriz A
1
se obtiene a partir de A por la aplicacin
de una operacin elemental por la. Es decir, A
1
= eA, donde e es una operacin
elemental. Se tiene, entonces, que A
1
X = O, pues el sistema A
1
X = O es equivalente al
sistema AX = O, ya que cualquier operacin elemental por las hace que las ecuaciones
del segundo sistema sean combinacin lineal de las del primero.
En efecto, si e es del primer tipo, todas las ecuaciones del segundo sistema, salvo
una, son idnticas a las del primer sistema (en este caso, todas esas ecuaciones se han
obtenido del primer sistema tomando todos los escalares iguales a 0, excepto uno de
ellos que ha tomado el valor 1). La ecuacin diferente del segundo sistema es el producto
de la correspondiente del primer sistema por un escalar diferente de 0; luego, tambin
es una combinacin lineal.
Ahora bien, como B es equivalente con A, existe una sucesin de matrices A
1
, . . .,
A
n
= B, y una sucesin de operaciones elementales por la e
1
, . . ., e
n
tales que
A
i+1
= e
i
A
i
,
A
1
= e
1
A y B = e
n
A
n
. Por lo demostrado al inicio, tenemos que A
i
X = O para todo
i. Entonces, BX = O.
Todava no sabemos cuando un sistema lineal tiene o no solucin, y en caso de
tenerla, no sabemos si ella es nica. Pero con lo visto hasta aqu, ya podemos resolver
sistemas lineales.
3.3.1 Mtodos de solucin
La idea general del mtodo de solucin de un sistema lineal es hallar un sistema equi-
valente ms simple de resolver que el original. Existen dos mtodos que se diferencian
en el tipo de sistema equivalente al que se llega.
Mtodo de Gauss
En el mtodo de Gauss se halla una matriz escalonada de la matriz ampliada (A [ B)
del sistema lineal AX = B. Veamos cmo funciona con un ejemplo.
Ejemplo 3.30
Sea el sistema lineal
x
1
+ x
2
+ x
3
+ x
4
= 6,
x
1
+ x
2
+3x
3
+ 3x
4
= 12,
x
1
+ x
2
+2x
3
+ 3x
4
= 12,
x
1
+ 3x
2
+3x
3
+ 3x
4
= 14.
Resuelva el sistema por el mtodo de Gauss.
3.3 Solucin de un sistema lineal 73
Solucin. Sea (A [ B) la matriz ampliada del sistema. Hallemos una matriz escalonada de la
matriz ampliada:
(A [ B)
_
_
_
_
1 1 1 1 [ 6
1 1 3 3 [ 12
1 1 2 3 [ 12
1 3 3 3 [ 14
_
_
_
_
F
2
F
1
F
3
F
1
F
4
F
1

_
_
_
_
1 1 1 1 [ 6
0 0 2 2 [ 6
0 0 1 2 [ 6
0 2 2 2 [ 8
_
_
_
_
1
2
F
2
1
2
F
4

_
_
_
_
1 1 1 1 [ 6
0 0 1 1 [ 3
0 0 1 2 [ 6
0 1 1 1 [ 4
_
_
_
_
F
2
F
4

_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 1 1 [ 3
_
_
_
_
F
4
F
3

_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
4

_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
= (C [ D).
El sistema CX = D
x
1
+x
2
+x
3
+ x
4
= 6,
x
2
+x
3
+ x
4
= 4,
x
3
+ 2x
4
= 6,
x
4
= 3,
es equivalente al original AX = B, pero es ms fcil de resolver. Se lo resuelve al empezar a
encontrar el valor de las incgnitas desde la ltima ecuacin hacia la primera:
x
4
= 3,
x
3
= 6 2x
4
= 6 2 3 = 0,
x
2
= 4 x
3
x
4
= 4 0 3 = 1,
x
1
= 6 x
2
x
3
x
4
= 6 1 0 3 = 2.
Hemos encontrado que el sistema tiene solucin y que tal solucin es nica. Veriquemos que
la solucin encontrada del sistema CX = D es tambin solucin del sistema original AX = B.
Es decir, si la matriz
S =
_
2 1 0 3
_
t
es solucin del sistema CX = D, veriquemos que tambin es solucin del sistema AX = B:
AS =
_
_
_
_
1 1 1 1
1 1 3 3
1 1 2 3
1 3 3 3
_
_
_
_
_
_
_
_
2
1
0
3
_
_
_
_
=
_
_
_
_
6
12
12
14
_
_
_
_
= B.

Mtodo de Gauss-Jordan
En el mtodo de Gauss-Jordan, se halla la matriz escalonada reducida por las de la
matriz ampliada del sistema lineal.
74 Sistemas de ecuaciones lineales
Ejemplo 3.31
Resolver el sistema lineal del ejemplo anterior por el mtodo de Gauss-Jordan.
Solucin. Hallemos la matriz escalonada reducida por las de la matriz ampliada del sistema
partiendo desde la ya encontrada matriz escalonada:
(A [ B)
_
_
_
_
1 1 1 1 [ 6
1 1 3 3 [ 12
1 1 2 3 [ 12
1 3 3 3 [ 14
_
_
_
_

_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
1
F
2

_
_
_
_
1 0 0 0 [ 2
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
2
F
3

_
_
_
_
1 0 0 0 [ 2
0 1 0 1 [ 2
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
2
+F
4
F
3
2F
4

_
_
_
_
1 0 0 0 [ 2
0 1 0 0 [ 1
0 0 1 0 [ 0
0 0 0 1 [ 3
_
_
_
_
= (D [ F)
El sistema lineal DX = F, equivalente al sistema original AX = B, puede escribirse explci-
tamente como
x = 2, y = 1, z = 0, w = 3,
el cual, a su vez, es ya la solucin del sistema.
Obsrvese que en este caso el sistema lineal tiene solucin nica y que:
1. El rango de la matriz de coecientes es igual al rango de la matriz ampliada:
ran A = 4 = ran(A [ B)
2. Dicho rango es igual al nmero de incgnitas:
ran A = ran(A [ B) = 4 = n

Ejemplo 3.32
Resolver por el mtodo de Gauss-Jordan el sistema lineal
x + 2y + w = 7,
x + y + z w = 3,
3x + y + 5z 7w = 1.
Solucin.
3.3 Solucin de un sistema lineal 75
Sea (A [ B) la matriz ampliada del sistema lineal. Hallemos su matriz escalonada reducida
por las:
(A [ B) =
_
_
1 2 0 1 [ 7
1 1 1 1 [ 3
3 1 5 7 [ 1
_
_
F
2
F
1
F
3
3F
1

_
_
1 2 0 1 [ 7
0 1 1 2 [ 4
0 5 5 10 [ 20
_
_
F
2

_
_
1 2 0 1 [ 7
0 1 1 2 [ 4
0 5 5 10 [ 20
_
_
F
1
2F
2
F
3
+5F
2

_
_
1 0 2 3 [ 1
0 1 1 2 [ 4
0 0 0 0 [ 0
_
_
= (C [ D)
La tercera ecuacin
0x + 0y + 0z + 0w = 0
del sistema CX = D tiene como solucin cualesquiera conjunto de valores de las incgnitas
x, y, z y w. Por lo tanto, cualesquiera solucin de las dos primeras ecuaciones ser tambin
solucin de la tercera. Por ello el sistema lineal CX = D lo escribimos as:
x + 2z 3w = 1,
y z + 2w = 4.
Para empezar a dar la solucin del sistema, pensemos solamente en la segunda ecuacin.
Parece que hay una gran amplitud para los valores de y, z y w. Intentemos escogiendo valores
arbitrarios para z y w. Sean z = a R y w = b R. Para la incgnita y ya no podemos
escoger cualquier valor, sino que lo encontramos despejando y de la segunda ecuacin:
y = 4 +z 2w = 4 +a 2b.
Procedamos de igual manera con la primera ecuacin. Como los valores de z y w ya estn
jados, despejamos x:
x = 1 2z + 3w = 1 2a + 3b
Escribamos la solucin del sistema CX = D en forma de la matriz
S =
_
_
_
_
1 2a + 3b
4 +a 2b
a
b
_
_
_
_
, a, b R.
Como los parmetros a y b pueden asumir cualquier valor en los nmeros reales tenemos que
el sistema CX = D tiene nmero innito de soluciones. Por ejemplo, S
1
y S
2
son dos de
dichas soluciones:
S
1
=
_
_
_
_
3
1
1
2
_
_
_
_
si a = 1, b = 2 y S
2
=
_
_
_
_
6
0
2
1
_
_
_
_
si a = 2, b = 1.
Podramos vericar que S
1
y S
2
son soluciones del sistema CX = D y tambin del sistema
AX = B. Ms bien, veriquemos de una vez que la matriz S es solucin del sistema original
AX = B que se nos dio a resolver. Sean a, b R. Entonces:
AS =
_
_
1 2 0 1
1 1 1 1
3 1 5 7
_
_
_
_
_
_
1 2a + 3b
4 +a 2b
a
b
_
_
_
_
76 Sistemas de ecuaciones lineales
=
_
_
(1 2a + 3b) + 2(4 +a 2b) + 0 +b
(1 2a + 3b) + (4 +a 2b) +a b
3(1 2a + 3b) + (4 +a 2b) + 5a 7b
_
_
=
_
_
7
3
1
_
_
= B.
Observemos que en este ejemplo:
ran A = 2 = ran(a [ B)
y que el rango es menor que el nmero de incgnitas:
ran A = ran(a [ B) = r = 2 < 4 = n.
Observemos tambin que el nmero de parmetros es igual al nmero de incgnitas menos
el rango: n r = 4 2 = 2.
Ejemplo 3.33
Si es posible, resolver el sistema lineal
x + 2y + 3z = 6,
2x + 3y 5z = 4,
x + 9y + 4z = 10.
Solucin. Sea (A [ B) la matriz ampliada del sistema lineal. Hallemos su matriz escalonada
reducida por las:
(A [ B) =
_
_
1 2 3 [ 6
2 3 5 [ 4
1 9 4 [ 10
_
_
F
2
+2F
1
F
3
F
1

_
_
1 2 3 [ 6
0 7 1 [ 16
0 7 1 [ 4
_
_
F
3
F
2

_
_
1 2 3 [ 6
0 7 1 [ 16
0 0 0 [ 12
_
_
= (C [ D).
El sistema equivalente (CX = D) puede escribirse as:
x + 2y + 3z = 6,
7y + z = 16,
0x + 0y + 0z = 12.
Claramente se ve que no existen nmeros x, y y z que satisfagan la tercera ecuacin. Si la
tercera ecuacin no tiene solucin, entonces el sistema lineal AX = B tampoco tiene solucin.
Observemos que, en este caso, el rango de la matriz de los coecientes es menor que el
rango de la matriz ampliada del sistema:
ran A = 2 < 3 = ran(A [ B).

En los tres ejemplos anteriores hemos encontrado que en los que existe solucin,
el rango de la matriz de los coecientes es igual al rango de la matriz ampliada del
3.3 Solucin de un sistema lineal 77
sistema. Si, adems, ese rango es igual al nmero de incgnitas la solucin es nica; pero
si el rango es menor al nmero de incgnitas, el sistema lineal tiene nmero innito de
soluciones. Tambin hemos encontrado que si el rango de la matriz de los coecientes
es menor que el rango de la matriz ampliada del sistema, entonces el sistema no tiene
solucin. Por supuesto, los ejemplos estudiados no son sucientes para concluir que
esto siempre es as. Sin embargo, se puede demostrar que esto ocurre as efectivamente,
por lo que enunciamos el siguiente teorema, e invitamos al lector a que realice la
demostracin por s mismo.
Teorema 3.3 (Soluciones de un sistema lineal) Sea el sistema lineal de m ecuaciones con n
incgnitas cuya representacin matricial es AX = B.
1. Si ran A < ran(A [ B), el sistema no tiene solucin.
2. Si ran A = ran(A [ B) = r, el sistema tiene solucin.
(a) Si, adems, r = n, tal solucin es nica.
(b) Si, adems, r < n, el sistema tiene nmero innito de soluciones con n r parmetros.
Cuando el sistema lineal tiene nmero innito de soluciones, estas se consiguen
asignando parmetros a cualesquiera n r incgnitas. Por facilidad se asignan los
parmetros a aquellas variables que corresponden a las columnas de la matriz de los
coecientes que no contienen el primer elemento no nulo de una la.
En un sistema lineal homogneo la matriz de trminos independientes B es nula.
Por tal razn, en un sistema homogneo, siempre se cumple que ran A = ran(A [ B).
El siguiente corolario expresa dicho resultado.
Corolario 3.4 Un sistema lineal homogneo AX = O siempre tiene solucin.
En los sistemas homogneos tenemos otro criterio para determinar el nmero de
soluciones que tiene el sistema.
Teorema 3.5 Si en el sistema AX = O hay menos ecuaciones que incgnitas; es decir, si la
matriz A es de orden mn con m < n, el sistema tiene un nmero innito de soluciones.
Demostracin. Sea R la matriz escalonada reducida por las equivalente a A. Entonces
el sistema RX = O tiene las mismas soluciones que el sistema AX = O. Analicemos,
pues, las soluciones del sistema con R.
Sea r el nmero de las no nulas en R. Entonces r m < n. Supongamos que el
elemento principal no nulo de R de la la i est en la columna k
i
. Adems, supongamos
que las incgnitas x
k
i
aparecen solamente en la i-sima ecuacin RX = O (con i I
r
).
Ahora bien, sean u
1
, u
2
, . . . , u
nr
las incgnitas restantes, que son diferentes de
x
k
i
. Las ecuaciones del sistema tienen, entonces, la forma siguiente:
x
k
i
+
nr

j=1

ij
u
j
= 0
78 Sistemas de ecuaciones lineales
para i I
r
.
De esta ltima igualdad, para cada valor que se asignen a los u
j
con j = 1, 2, . . . , n
r, se obtienen soluciones no nulas del sistema RX = O. Por lo tanto, este sistema tiene
un nmero innito de soluciones.
Si el sistema lineal AX = B tiene igual nmero de ecuaciones que de incgnitas
es ms fcil saber si el sistema tiene o no solucin con base en el conocimiento del
determinante [A[. El siguiente teorema nos lo dice cmo.
Teorema 3.6 (Soluciones de un sistema cuadrado) Sea el sistema lineal de n ecuaciones con n
incgnitas cuya representacin matricial es AX = B.
1. Si [A[ , = 0, el sistema tiene solucin nica.
2. Si [A[ = 0, el sistema o no tiene solucin o tiene nmero innito de soluciones.
Demostracin. 1. Si [A[ , = 0, A es inversible. Entonces, existe A
1
, por lo que AX = B
implica X = A
1
B. Es decir, el sistema tiene solucin. Por la unicidad de la inversa,
si Y es una solucin de AX = B, necesariamente se tiene que Y = A
1
B. Esto
signica que el sistema tiene una sola solucin.
2. Si [A[ = 0, existe una matriz C, equivalente a A tal que todos los elementos de una
la son iguales al nmero 0. Supongamos que i sea el ndice de esa la. Sea D tal
que CX = D. Si d
i
= 0, estamos en el caso de que el sistema tiene menos ecuaciones
que incgnitas, lo que signica que el sistema (cualquiera de los dos, ya que son
equivalentes) tienen un nmero innito de soluciones. En el caso de que d
i
,= 0, el
sistema no tiene solucin, pues el rango de C es menor que el rango de la matriz
ampliada (C [ D).
Si el sistema lineal es homogneo tenemos el siguiente corolario.
Corolario 3.7 Sea el sistema lineal homogneo de n ecuaciones con n incgnitas cuya repre-
sentacin matricial es AX = O.
1. Si [A[ = 0, el sistema tiene nmero innito de soluciones.
2. Si [A[ , = 0, el sistema tiene solucin nica, la trivial; es decir, la matriz columna nula.
Si tenemos un sistema lineal cuadrado que tiene solucin nica, se cuenta con un
procedimiento que utiliza los determinantes, llamado regla de Cramer, para hallar su
solucin. No se presenta la demostracin.
Teorema 3.8 (Regla de Cramer) La solucin de un sistema lineal AX = B, con A M
n
inver-
sible, viene dada por
x
i
=
1
[A[

a
11
a
12
a
1(i1)
b
1
a
1(i+1)
a
1n
a
21
a
22
a
1(i1)
b
1
a
1(i+1)
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
22
a
1(i1)
b
1
a
1(i+1)
a
nn

, i = 1, 2, . . . , n.
3.4 Ejercicio resuelto 79
Ejemplo 3.34
Usar la regla de Cramer para encontrar la solucin del sistema lineal
x + 2y + 3z = 13,
2x + 3y + z = 10,
3x + y + 2z = 13.
Solucin. Sea AX = B la representacin matricial del sistema. Hallemos el determinante de
la matriz de coecientes:
[A[ =

1 2 3
2 3 1
3 1 2

= 18 ,= 0.
Entonces el sistema tiene solucin nica que la hallamos con la regla de Cramer:
x =
1
18

13 2 3
10 3 1
13 1 2

=
1
18
(36) = 2,
y =
1
18

1 13 3
2 10 1
3 13 2

=
1
18
(18) = 1,
z =
1
18

1 2 13
2 3 10
3 1 13

=
1
18
(54) = 3.

3.4 Ejercicio resuelto


1. Sea el sistema lineal
x + y z = mp + 2,
(p + 1)x + y + z = 2m+ 2,
x + z = m,
(p + 1)x y + z = p 2.
Hallar los valores de m, p R para que el sistema
(a) Tenga solucin nica.
(b) Tenga un nmero innito de soluciones.
(c) No tenga solucin.
En los dos primeros casos, encuentre las soluciones.
80 Sistemas de ecuaciones lineales
Desarrollo. Sea AX = B la representacin matricial del sistema lineal. Hallemos la
matriz escalonada reducida por las de la matriz ampliada (A [ B):
(A [ B) =
_
_
_
_
1 1 1 [ mp + 2
p + 1 1 1 [ 2m + 2
1 0 1 [ m
p + 1 1 1 [ p 2
_
_
_
_
F
1
+F
4

_
_
_
_
p 0 0 [ m
p + 1 1 1 [ 2m+ 2
1 0 1 [ m
p + 1 1 1 [ p 2
_
_
_
_
F
2
F
1
F
4
F
1

_
_
_
_
p 0 0 [ m
1 1 1 [ m+ 2
1 0 1 [ m
1 1 1 [ p m2
_
_
_
_
F
2
F
3

_
_
_
_
p 0 0 [ m
0 1 0 [ 2
1 0 1 [ m
1 1 1 [ p m2
_
_
_
_
F
4
+F
2

_
_
_
_
p 0 0 [ m
0 1 0 [ 2
1 0 1 [ m
1 0 1 [ p m
_
_
_
_
F
4
F
3

_
_
_
_
p 0 0 [ m
0 1 0 [ 2
1 0 1 [ m
0 0 0 [ p 2m
_
_
_
_
= (C [ D).
Dependiendo de los valores de m y p el rango de la matriz A sera igual o menor que
el rango de la matriz ampliada (A [ B) y, por lo tanto, el sistema AX = B tendr
o no solucin. Estudiemos cada caso.
Sea p ,= 2m. Entonces
ranA = 2 < 3 = ran(A [ B)
y el sistema AX = B no tiene solucin.
Sea p = 2m. El sistema AX = B se convierte en el sistema
2mx = m,
y = 2,
x + z = m.
Sea EX = F su representacin matricial. El determinante de la matriz de los
coecientes es
[E[ =

2m 0 0
0 0 0
1 0 1

= 2m.
El valor del determinante depende del valor de m. Entonces:
si m = 0, el determinate [E[ es igual a cero; el sistema EX = F se convierte
en el sistema
y = 2,
x + z = m.
el cual tiene nmero innito de soluciones. Sea z = r R. Entonces
x = r. El nmero innito de soluciones viene dado por la matriz
S =
_
_
r
2
r
_
_
, r R.
3.4 Ejercicio resuelto 81
Si m ,= 0, el determinate [E[ es distinto de cero. El sistema EX = F tiene,
pues, una sola solucin:
S =
_
_
1/2
2
m1/2
_
_
.
En resumen:
a) Sean p, m R tales que p = 2m y m ,= 0. Entonces el sistema dado tiene la
solucin nica
S =
_
_
1/2
2
m1/2
_
_
.
b) Sean m = 0 y p = 0. Entonces el sistema dado tiene nmero innito de solu-
ciones dados por la matriz
S =
_
_
r
2
r
_
_
, r R.
c) Sean p, m R tales que p ,= 2m. Entonces el sistema dado no tiene solucin.
82 Sistemas de ecuaciones lineales
Espacios vectoriales
por Felipe Navas
Edicin y revisin: Juan Carlos Trujillo
Espacios
vectoriales 4
4.1 Objetivos
El objetivo general de este captulo es:
Fundamentar la dimensin de un subespacio vectorial ortogonal real a partir
de una base ortonormal o de los elementos esenciales que lo tipican en un
tiempo mximo de 30 minutos para un subespacio vectorial de dimensin a
los ms 4.
Para alcanzar el objetivo general, se proponen los siguientes objetivos especcos:
1. Identicar los espacios vectoriales (e.v.) usuales y sus propiedades a partir de la
denicin a un nivel de familiarizacin.
2. Identicar un subespacio vectorial de dimensin nita real a partir de las propie-
dades bsicas que lo tipican a un nivel reproductivo.
3. Identicar la dependencia lineal de un conjunto nito de vectores en un e.v. real,
utilizando sistemas de ecuaciones lineales a un nivel reproductivo.
4. Caracterizar la cpsula lineal S a partir de un conjunto de vectores S nito y
no vaco, a un nivel reproductivo. Los elementos de S puede ser vectores de R
n
(con n 4); polinomios de grado menor que o igual a 3; o matrices de orden
mn (con m 4 y n 4).
5. Fundamentar una base nita de un subespacio vectorial (s.e.v.) que tiene como
elementos a vectores de R
n
, polinomios o matrices, a partir de los elementos
esenciales que le tipican, a un nivel reproductivo.
6. Determinar la interseccin y la suma de s.e.v. reales nitos a partir de las pro-
piedades bsicas de conjuntos, a un nivel productivo.
7. Fundamentar la dimensin de uno o ms s.e.v. reales nitos a partir de las pro-
piedades esenciales que lo tipican, a un nivel de asimilacin productivo.
8. Clasicar las funciones a partir de la denicin de producto interno (p.i.) en los
espacios vectoriales ms importantes, a un nivel reproductivo.
86 Espacios vectoriales
9. Calcular un conjunto de vectores ortogonales a partir de un conjunto linealmente
independiente, usando el proceso de Gram-Schmidt, a un nivel reproductivo.
10. Fundamentar la suma directa de subespacios vectoriales a partir de las propieda-
des de los subespacios vectoriales ortogonales y sus bases, a un nivel constructivo.
4.2 Denicin de espacio vectorial 87
4.2 Denicin de espacio vectorial
Denicin 4.1 (Espacio vectorial) Sean:
V : un conjunto no vaco.
(K, , ): un campo;
+: una operacin interna denida sobre V ;
: una operacin externa denida de K en V .
Se dice que (V, K, +, ) es un espacio vectorial si y solamente si:
1. Conmutativa. Para todo u V y todo v V :
u +v = v +u.
2. Asociativa. Para todo u V , v V y w V :
(u +v) +w = u + (v +w).
3. Existencia del neutro aditivo. Existe e V tal que para todo v V :
e +v = v +e = v.
4. Existencia del inverso aditivo. Para todo v V , existe v V tal que:
v +v = v + v = e.
5. Asociativa mixta. Para todo K, K y todo v V :
( ) v = ( v).
6. Neutro multiplicativo. Sea 1 K, el neutro multiplicativo de K. Para todo v V :
1 v = v.
7. Distributiva de respecto de +. Para todo K y todo u V y v V :
(u +v) = u + v.
8. Distributiva de respecto de . Para todo K y K, y todo v V :
( ) v = ( v) + ( v).
Se suele decir que el conjunto V , con las operaciones + y , es un espacio vectorial
sobre el campo K.
88 Espacios vectoriales
4.2.1 Observaciones
1. A los elementos del espacio vectorial V se les denomina vectores y a los elementos
de campo K, escalares.
2. En la denicin de espacio vectorial hay cuatro operaciones distintas: dos del cam-
po K y dos del conjunto V , a las que denominaremos las operaciones del espacio
vectorial (V, K, +, ).
A pesar de ello, en la prctica, se suele utilizar + tambin para . Al respecto de
y de , ambos smbolos se suelen omitir (al igual que el punto de la multiplicacin
en los nmeros reales).
La razn para estas simplicaciones de notacin se debe a que las operaciones + y
pueden ser distinguidas una de otra fcilmente. Lo mismo sucede entre y .
Considerando estas simplicaciones de notacin, por ejemplo, las dos distributivas
se escribirn de la siguiente manera:
(u + v) = (u) + (v) y ( + )v = v + v.
3. Que la operacin + sea una operacin interna denida sobre V signica que para
todo u V y todo v V , debe ocurrir que:
(u + v) V.
Esto se indica diciendo que la operacin + es cerrada y que satisface la propiedad
clausurativa.
Que la operacin sea una operacin externa denida de K en V quiere decir que
para todo K y todo v V , debe ocurrir que:
v V.
Esto se expresa diciendo que la operacin es cerrada y que satisface la propiedad
clausurativa.
4. Para la vericacin de que un cierto conjunto es un espacio vectorial, hay que cer-
ciorarse antes que las operaciones + y son, efectivamente, cerradas.
5. Si en (V, K, +, ), estn sobreentendidas las operaciones + y , pero no el campo, se
suele decir que V es un espacio vectorial sobre K.
4.2.2 Ejemplos
Los espacios vectoriales con los cuales trabajaremos principalmente son lo siguientes.
1. El conjunto de los nmeros reales sobre s mismo: (R, R, +, ).
Si las operaciones + y son la suma y producto usual entre nmeros reales, el
conjunto R es un espacio vectorial sobre s mismo, ya que R es un campo.
4.2 Denicin de espacio vectorial 89
2. El conjunto R
2
sobre R: (R
2
, R, +, ).
El conjunto de pares ordenados de nmeros reales
R
2
= (x
1
, x
2
) : x
1
R x
2
R
es un espacio vectorial sobre el campo R si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
) R
2
, v = (y
1
, y
2
) R
2
, y R. Entonces, se dene:
(a) u + v = (x
1
, x
2
) + (y
1
, y
2
) = (x
1
+ y
1
, x
2
+ y
2
); y
(b) u = (x
1
, x
2
) = (x
1
, x
2
).
3. El conjunto R
3
sobre R: (R
3
, R, +, ).
El conjunto de triadas ordenadas de nmeros reales
R
3
= (x
1
, x
2
, x
3
) : x
1
R x
2
R x
3
R
es un espacio vectorial sobre el campo R si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
, x
3
) R
3
, v = (y
1
, y
2
, y
3
) R
3
, y R. Entonces, se dene:
(a) u + v = (x
1
, x
2
, x
3
) + (y
1
, y
2
, y
3
) = (x
1
+ y
1
, x
2
+ y
2
, x
3
+ y
3
); y
(b) u = (x
1
, x
2
, x
3
) = (x
1
, x
2
, x
3
).
4. El conjunto R
n
sobre R: (R
n
, R, +, ) con n > 3.
El conjunto de n-tuplas ordenadas de nmeros reales
R
n
= (x
1
, x
2
, . . . , x
n
) : x
i
R, 1 i n
es un espacio vectorial sobre el campo R si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
, . . . , x
n
) R
n
, v = (y
1
, y
2
, . . . , y
n
) R
n
, y R. Entonces, se
dene:
(a) u + v = (x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
); y
(b) u = (x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
).
5. El conjunto K
n
sobre K, donde K es un campo: (K
n
, K, +, ) con n 1.
El conjunto de n-tuplas ordenadas de elementos del campo K
K
n
= (x
1
, x
2
, . . . , x
n
) : x
i
R, 1 i n
es un espacio vectorial sobre el campo K si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
, . . . , x
n
) K
n
, v = (y
1
, y
2
, . . . , y
n
) K
n
, y K. Entonces, se
dene:
(a) u + v = (x
1
y
1
, x
2
y
2
, . . . , x
n
y
n
); y
(b) u = ( x
1
, x
2
, . . . , x
n
),
90 Espacios vectoriales
donde y son las operaciones internas del campo K.
6. El conjunto M
mn
sobre R: (M
mn
, R, +, ).
El conjunto de las matrices de nmeros reales de orden m por n
M
mn
=
_
A = (a
ij
)
mn
: a
ij
R, 1 i m, 1 j n
_
es un espacio vectorial sobre R si la operacin + es l suma usual entre matrices y
es el producto usual entre matrices.
Es decir, si A = (a
ij
) M
mn
, B = (b
ij
) M
mn
, y R, entonces:
(a) A+ B = (a
ij
+ b
ij
); y
(b) A = (a
ij
).
7. El conjunto de polinomios P
n
[x] sobre R: (P
n
[x], R, +, ).
El conjunto de los polinomios con coecientes reales de grado menor que o igual a n
P
n
[x] =
_
p : p(x) =
k

i=0
a
j
x
j
, x R, a
j
R, 1 j k, k n
_
es un espacio vectorial sobre R si la operacin + es la suma usual entre polinomios
y es el producto usual entre un nmero real y un polinomio.
Es decir, si p P
n
[x] y q P
n
[x], y R, entonces:
(a) (p + q)(x) = p(x) + q(x); y
(b) (p)(x) = p(x)
para todo x R.
8. El conjunto de las funciones reales F sobre R: (F, R, +, ).
El conjunto de las funciones reales
F = f : f : R R
es un espacio vectorial sobre R si la operacin + es la suma usual entre funciones y
es el producto usual entre un nmero real y una funcin.
Es decir, si f F y g F, y R, entonces:
(a) (f + g)(x) = f(x) + g(x); y
(b) (f)(x) = f(x)
para todo x R.
Utilizaremos estos espacios vectoriales para ilustrar cmo se demuestran cada una
de las propiedades que un conjunto, sobre el cual se han denido dos operaciones, debe
satisfacer para que sea un espacio vectorial.
1. La operacin + en (R
2
, R, +, ) es asociativa; es decir, se verica que para
todo u R
2
, v R
2
y w R
2
:
(u +v) +w = u + (v +w).
4.2 Denicin de espacio vectorial 91
Demostracin. Supongamos que u = (x
1
, x
2
), v = (y
1
, y
2
) y w = (z
1
, z
2
). Entonces:
(u + v) + w = [(x
1
, x
2
) + (y
1
, y
2
)] + (z
1
, z
2
) deniciones de u, v y w,
= (x
1
+ y
1
, x
2
+ y
2
) + (z
1
, z
2
) denicin de + en R
2
,
= ([x
1
+ y
1
] + z
1
, [x
2
+ y
2
] + z
2
) denicin de + en R
2
,
= (x
1
+ [y
1
+ z
1
], x
2
+ [y
2
+ z
2
]) asociativa de R,
= (x
1
, x
2
) + (y
1
+ z
1
, y
2
+ z
2
) denicin de + en R
2
,
= (x
1
, x
2
) + [(y
1
, y
2
) + (z
1
, z
2
)] denicin de + en R
2
,
= u + (v + w) deniciones de u, v y w.
Por lo tanto, para todo u, v y w en R
2
:
(u + v) + w = u + (v + w).
2. Existencia del neutro aditivo en (R
3
, R, +, ); es decir, debemos probar
que la siguiente proposicin es verdadera:
(e R
3
)(v R
3
)(e +v = v +e = v).
La demostracin que viene a continuacin es de existencia. Esto quiere decir que
debemos exhibir un elemento de e R
3
que satisfaga la denicin de elemento
neutro. Por el orden de los cuanticadores, el elemento buscado e es independiente
de todo elemento de R
3
.
Demostracin. Sea e = (0, 0, 0). Vamos a probar que para todo v = (x
1
, x
2
, x
3
), con
x
i
R para i = 1, 2, 3, se verica la igualdad e + v = v.
En efecto:
e + v = (0, 0, 0) + (x
1
, x
2
, x
3
) deniciones de e y v,
= (0 + x
1
, 0 + x
2
, 0 + x
3
) denicin de + en R
3
,
= (x
1
, x
2
, x
3
) = v inverso aditivo en R.
Por lo tanto, e + v = v.
Por la propiedad conmutativa, tenemos que e + v = v + e. Por lo tanto, se ha
demostrado tambin que v + e = v.
Entonces, se ha demostrado que la proposicin
(e R
3
)(v R
3
)(e + v = v + e = v)
es verdadera.
No es difcil probar, adems, que el elemento neutro en cualquier espacio vectorial
es nico. En este texto, lo representaremos con 0
v
.
92 Espacios vectoriales
3. Existencia del inverso aditivo en (R
n
, R, +, ); es decir, debemos probar
que la siguiente proposicin es verdadera:
(v R
n
)( v R
n
)( v +v = v + v = 0
v
).
Esta tambin es una demostracin de existencia. En este caso, por el orden de los
cuanticadores, el elemento v depende de v. Esto quiere decir que, para valores
diferentes de v, v tambin puede ser diferente.
Es obvio que para mostrar esta igualdad, ya debemos conocer a 0
v
en R
n
. No es
difcil probar que 0
v
= (0, 0, , 0) (n ceros).
Demostracin. Sea v = (x
1
, x
2
, , x
n
) R
n
. Vamos a probar que el vector buscado
v se dene del siguiente modo:
v = (x
1
, x
2
, , x
n
),
donde cada x
i
es el inverso aditivo de x
i
R, para i = 1, 2, . . . , n.
Entonces, tenemos que:
v + v = (x
1
, x
2
, , x
n
) + (x
1
, x
2
, , x
n
) deniciones de v y v,
= (x
1
+ (x
1
), x
2
+ (x
2
), . . . , x
n
+ (x
n
)) denicin de + en R
n
,
= (0, 0, . . . , 0) inverso aditivo en R,
= 0
v
denicin de 0
v
en R.
Por lo tanto, v + v = 0
v
. Y, por la propiedad conmutativa de +, se tiene tambin
que v + v = 0
v
.
En resumen, hemos demostrado que
(v R
n
)(v R
n
)(v + v = v +v = 0
v
).
Se puede demostrar fcilmente que el elemento inverso es nico. Con v se suele
representar el inverso aditivo de v.
4. La operacin + en (K
n
, K, +, ) es conmutativa; es decir, se verica para
todo u K
n
y todo v K
n
que:
u +v = v +u.
Demostracin. Sean u = (x
1
, x
2
, , x
n
) K
n
y v = (y
1
, y
2
, , y
n
) K, donde
cada x
i
y y
i
son elementos del campo K para todo i = 1, 2, . . . , n. Entonces, como
la operacin + en el campo K es conmutativa, tenemos que:
u + v = (x
1
, x
2
, , x
n
) + (y
1
, y
2
, , y
n
) deniciones de u y v,
= (x
1
+ y
1
, x
2
+ y
2
, , x
n
+ y
n
) denicin de + en R
n
,
= (y
1
+ x
1
, y
2
+ x
2
, , y
n
+ x
n
) conmutativa de + en R,
= (y
1
, y
2
, , y
n
) + (x
1
, x
2
, , x
n
) denicin de + en R
n
,
= v + u deniciones de v y u.
Por lo tanto, u + v = v + u.
4.2 Denicin de espacio vectorial 93
5. Las operaciones + y en el espacio (M
mn
, R, +, ) satisface la propiedad
asociativa mixta; es decir, se verica para todo R, todo R y toda
A M
mn
que:
()A = (A).
Demostracin. Sean R, R y A =
_
a
ij
_
mn
M
mn
, con a
ij
R. Entonces:
()A = ()
_
a
ij
_
mn
denicin de A,
= (()a
ij
)
mn
denicin de en M
mn
,
= ((a
ij
))
mn
asociativa del producto en R,
= (a
ij
)
mn
denicin de en M
mn
,
=
_
(a
ij
)
mn
_
denicin de en M
mn
,
= (A) denicin de A.
Por lo tanto, ()A = (A).
Esta propiedad es denominada asociativa mixta porque tiene que ver con dos ope-
raciones: la multiplicacin de un escalar por un elemento del espacio vectorial y la
multiplicacin entre dos escalares.
6. El neutro multiplicativo del campo R, el nmero 1 satisface la siguiente
propiedad:
(p P
n
[x])(1 p = p).
Hay que demostrar que la funcin 1 p es igual a la funcin p. Por ello, recordemos
que dos funciones f y g son iguales si y solo si tienen el mismo dominio y f(x) = g(x)
para todo x elemento del dominio.
Demostracin. Sea p P
n
[x]. El dominio de p es R. Entonces, debemos demostrar
que
(1 p)(x) = p(x)
para todo x R.
Sea x R. Entonces:
(1 p)(x) = 1 p(x) denicin de en P
n
[x],
= p(x) el 1 es el neutro multiplicativo en R.
Por lo tanto, (1 p)(x) = p(x) para todo x R, lo que prueba, a su vez, que es
verdadera la siguiente proposicin:
(p P
n
[x])(1 p = p).
94 Espacios vectoriales
7. Las operaciones + y del espacio vectorial de funciones reales (F, R, +, )
satisfacen la propiedad distributiva; es decir, se verica para todo R,
todo f F y todo g F que:
(f +g) = f +g.
Demostracin. Sean R, f F, g F. Debemos demostrar que:
((f + g)(x) = (f + g)(x)
para todo x R, ya que el el conjunto R es el dominio de f, de g y de f + g,
respectivamente.
Sea x R. Entonces:
((f + g))(x) = (f + g)(x) denicin de en F,
= (f(x) + g(x)) denicin de + en F,
= f(x) + g(x) distributiva en R,
= (f)(x) + (g)(x) denicin de en F,
= (f + g)(x) denicin de + en F.
Por lo tanto, hemos probado que
((f + g))(x) = ((f) + (g))(x)
para todo x R, con lo cual hemos probado que:
( R)(f F)(g F)((f + g) = f + g).
En una expresin vectorial, los signos de agrupacin determinan el orden que se
deben realizar las operaciones. En ausencia de ellos, se conviene en efectuar las
operaciones externas en primer lugar, y luego las operaciones internas, siempre de
izquierda a derecha.
Por ejemplo:
2(3, 4) + (1, 5) + 3[(1, 0) + (0, 1)] = (6, 8) + (1, 5) + 3(1, 1)
= (6, 8) + (1, 5) + (3, 3)
= (2, 10).
4.3 Propiedades de los espacios vectoriales
Teorema 4.1 (Propiedades aditiva y multiplicativa) Sean (V, K, +, ) un espacio vectorial, K,
u V , v V y w V . Se verican las siguientes propiedades:
1. Aditiva: si u = v, entonces u +w = v +w.
4.3 Propiedades de los espacios vectoriales 95
2. Multiplicativa: si u = v, entonces u = v.
Demostracin. Sean K, u V , v V y w V .
1. Aditiva:
u = v hiptesis,
u + w = u + w axioma de identidad de la igualdad,
u + w = v + w sustitucin de v por u en la igualdad anterior ya que
u = v.
2. Multiplicativa:
u = v hiptesis,
u = u axioma de identidad de la igualdad,
u = v v se sustituye por u en la igualdad anterior ya que u = v.
Teorema 4.2 (Propiedades cancelativas) Sean (V, K, +, ) un espacio vectorial, K, u V ,
v V y w V . Se verican las siguientes propiedades:
1. Cancelativa de la suma: si u +w = v +w, entonces u = v.
2. Cancelativa de la multiplicacin: si ,= 0 y u = v, entonces u = v.
Demostracin. Sean K, u V , v V y w V .
1. Cancelativa de la suma:
1. u + w = v + w hiptesis,
2. (u + w) + (w) = (v + w) + (w) propiedad aditiva,
3. u + (w + (w)) = v + (w + (w)) propiedad asociativa,
4. u + 0
v
= v + 0
v
denicin de inverso aditivo,
5. u = v denicin de 0
v
.
2. Cancelativa de la multiplicacin: sea ,= 0; entonces, existe
1
:
1. u = v hiptesis,
2.
1
[ u] =
1
[ v] propiedad multiplicativa,
3. (
1
) u = (
1
) v propiedad asociativa mixta,
4. 1 u = 1 v denicin de inverso multiplicativo en K,
5. u = v denicin de 1.
Teorema 4.3 (Propiedades de los espacios vectoriales) Sea (V, K, +, ) un espacio vectorial.
Entonces, para todo K y todo v V , se tiene que:
96 Espacios vectoriales
1. 0
v
= 0
v
.
2. 0 v = 0
v
.
3. a v = 0
v
= 0 v = 0
v
.
4. (1) v = v.
Demostraciones. En todo lo que sigue, representar un elemento cualquiera de K y
v uno cualquiera de V .
1. Ya que 0
v
es el neutro aditivo de V , tenemos que:
0
v
= 0
v
+ 0
v
. (4.1)
Por otro lado, la denicin de 0
v
y la propiedad distributiva en V nos permite
escribir lo siguiente:
0
v
= (0
v
+ 0
v
) = 0
v
+ 0
v
. (4.2)
Entonces, por la propiedad transitiva de la igualdad aplicada a (4.1) y (4.2), tenemos
que:
0
v
+ 0
v
= 0
v
+ 0
v
.
De esta igualdad se colige que 0
v
tambin es un neutro aditivo en V . Pero 0
v
es
nico. Entonces:
0
v
= 0
v
.
2. Como 0
v
es el neutro aditivo de V , tenemos que:
0 v = 0 v + 0
v
. (4.3)
Por otro lado, la denicin de 0 K y la propiedad distributiva en V nos permite
escribir lo siguiente:
0 v = (0 + 0) v = 0 v + 0 v. (4.4)
Entonces, por la propiedad transitiva de la igualdad aplicada a (4.3) y (4.4), tenemos
que:
0 v + 0 v = 0 v + 0
v
.
De esta igualdad se concluye que 0 v tambin es un neutro aditivo en V . Pero 0
v
es nico. Entonces:
0 v = 0
v
.
3. En primer lugar, demostremos que si v = 0
v
, entonces o bien = 0 o bien v = 0
v
(o ambos). Utilicemos el mtodo por contradiccin.
Para ello, supongamos que v = 0
v
, y que ,= 0 y v ,= 0
v
. Entonces, existe
1
y:

1
( v) =
1
0
v
multiplicativa,

1
)v =
1
0
v
asociativa mixta,
1 v =
1
0
v
denicin de
1
,
v =
1
0
v
denicin de 1,
v = 0
v
denicin de 0
v
.
4.4 Subespacios vectoriales 97
Por lo tanto v = 0
v
. Pero esta igualdad contradice la hiptesis de que v ,= 0
v
.
Entonces, lo supuesto es falso; es decir, es verdad que = 0 o v = 0
v
siempre que
v = 0
v
.
Ahora debemos probar la recproca: si = 0 o v = 0
v
, entonces v = 0
v
. Pero
esta implicacin no es ms que la disyuncin de las dos primeras propiedades que
ya hemos demostrado que son verdaderas.
4. Vamos a demostrar que (1) v = v:
(1) v = (1) v + 0
v
denicin de 0
v
,
= (1) v + (v + (v)) denicin de v,
= [(1) v + v] + (v) asociativa en V ,
= [(1) v + 1 v] + (v) axioma del neutro multiplicativo en V ,
= (1 + 1) v + (v) distributiva en V ,
= 0 v + (v) axioma del inverso aditivo en K,
= 0
v
+ (v) segunda propiedad de este teorema,
= v denicin de 0
v
.
Por lo tanto, hemos demostrado que (1) v = v.
4.4 Subespacios vectoriales
Denicin 4.2 (Subespacio vectorial) Sean (V, K, +, ) un espacio vectorial y W V . Se dice
que W es un subespacio vectorial (s.e.v.) de V si y solamente si (W, K, , ) es un espacio
vectorial, donde y son las restricciones de + y a W.
Puesto que
u v = u + v y u v = u v
para todo u W y v W, decir que W es un subespacio vectorial de V es equivalente
a decir que W es un espacio vectorial sobre K con las mismas operaciones de V . Por
esta razn, se acostumbra utilizar la misma notacin para las operaciones de W que
de V , aunque, en sentido estricto, son diferentes porque poseen dominios diferente. En
adelante, seguiremos esta convencin.
Ejemplo 4.35
El conjunto
W = (x
1
, x
2
, x
3
) R
3
: x
3
= 2x
1
+x
2

es un subespacio vectorial de (R
3
, R, +, ).
98 Espacios vectoriales
Demostracin. En primer lugar, debemos asegurarnos de que la restricciones de las operaciones
+ y de R
3
a W, respectivamente, sean una operacin interna y una externa en W. En otras
palabras, debemos asegurarnos de que las restricciones sean cerradas:
1. si u W y v W, entonces u +v W; y
2. si K y u W, entonces u W.
En efecto:
1. Clausurativa de + en W.
Sean u = (x
1
, x
2
, x
3
) W y v = (y
1
, y
2
, y
3
) W. Vamos a probar que u + v = (x
1
+
y
1
, x
2
+y
2
, x
3
+y
3
) W; es decir, vamos a probar que
x
3
+y
3
= 2(x
1
+y
1
) + (x
2
+y
2
).
Como u W y v W, tenemos que
x
3
= 2x
1
+x
2
y y
3
= 2y
1
+y
2
.
Si sumamos los lados izquierdos entre s y los derechos entre s de estas dos igualdades,
obtenemos, al aplicar las propiedades asocitiva y conmutativa de + y en R, que:
x
3
+y
3
= (2x
1
+x
2
) + (2y
1
+y
2
) = (2x
1
+ 2y
1
) + (y
1
+y
2
).
Por lo tanto, gracias a la propiedad distributiva en R, concluimos nalmente que:
x
3
+y
3
= 2(x
1
+y
1
) + (x
2
+y
2
).
Es decir, hemos probado que u +v W para todo u W y todo v W.
2. Clausurativa de en W.
Sean u = (x
1
, x
2
, x
3
) W y R. Probemos que u = (x
1
, x
2
, x
3
) W:
x
3
= (2x
1
+x
2
) u W,
= 2(x
1
) +x
2
distributiva y conmutativa en R.
Por lo tanto u W para todo u W y todo R.
Una vez que hemos constatado que las restricciones de + y a W son cerradas, podemos
proceder a vericar el cumplimiento de los ocho axiomas que denen un espacio vectorial.
Como van a interactuar elementos de V y de W, utilizaremos y para las operaciones de
W. El lector puede probar a escribir las mismas demostraciones que estn a continuacin sin
realizar la distincin entre ambos grupos de operaciones, y podr constatar por s mismo o
por s misma la prdida de claridad.
1. Conmutativa: (u W)(v W)(u v = v u):
u v = u +v es restriccin de + a W y u W y v W,
= v +u + es conmutativa,
= v u es restriccin de + a W y u W y v W.
2. Asociativa: (u W)(v W)(v W)(u v = v u):
u (v w) = u + (v +w) es restriccin de + a W y u W, v W y w W,
= (u +v) +w + es asociativa,
= (u v) w es restriccin de + a W y u W, v W y w W.
4.4 Subespacios vectoriales 99
3. Existencia del neutro aditivo: (e W)(w W)(w e = w):
Denamos e = 0
R
3 = (0, 0, 0). Veamos que e W:
0 = 2 0 + 0 = 0 + 0 = 0.
Por lo tanto, si w W, tenemos que w V , de donde:
w e = w +e = w + 0
R
3 = w.
4. Existencia del inverso aditivo: (w W)( w W)(w + w = 0
W
):
Denamos w = w = (x
1
, x
2
, x
3
), donde w = (x
1
, x
2
, x
3
). Veamos que w W:
x
3
= (2x
1
+x
2
) = 2(x
1
) + (x
2
).
Adems, por la denicin de w, se verica que:
w w = w + (w) = 0
R
3.
5. Asociativa mixta: ( R)( R)(w W)( ( w) = () w):
( w) = (w) es restriccin de a W, w W y w W,
= ()w Asociativa mixta en R
3
,
= () w es restriccin de a W y w W.
6. Neutro multiplicativo: (w W)(1 w = w), donde 1 K:
1 w = 1 w es restriccin de a W y w W,
= w 1 es el neutro multiplicativo en V y w V .
7. Distributiva: (u W)(v W)( K)( (u v) = u v).
La demostracin se deja al lector como ejercicio.
8. Distributiva: ( K)( K)(w W)( +) w = u w).
La demostracin se deja al lector como ejercicio.

Teorema 4.4 (Subespacio vectorial) Sean (V, K, +, ) un espacio vectorial y W V . Entonces,


W es un subespacio vectorial de V si y solamente si:
1. W ,= ;
2. (u W)(v W)(u +v W) (la restriccin de + a W es cerrada); y
3. ( K)(w W)(w W) (la restriccin de a W es cerrada).
100 Espacios vectoriales
Demostracin. Es claro que si W es un subespacio vectorial de V , entonces las tres
propiedades enunciadas son verdaderas, ya W es un espacio vectorial en s mismo con
las operaciones de V restringidas a W.
Recprocamente, probemos que si las tres condiciones son verdaderas, entonces
(W, K, +, ) es un espacio vectorial. Para ello, debemos vericar las ocho condiciones
de la denicin de espacio vectorial. Estas vericaciones siguen el mismo patrn que el
realizado en el ejemplo anterior, as que no las vamos a realizar de manera detallada.
Sin embargo, ver ms de cerca la existencia del neutro y del inverso aditivo en W,
ilustra el por qu de la primera condicin.
En efecto, dado que W ,= , sea w un elemento de W. Por la segunda condicin, si
tomamos = 0, entonces, como w V (ya que W V ):
w = 0 w = 0
v
W.
En otras palabras, en W debe estar, al menos, el vector nulo de V . Y este elemento es
tambin es vector nulo de W.
Ahora, si aplicamos nuevamente la segunda condicin al elemento w de W, pero
esta vez con = 1, podemos concluir (con ayuda de la cuarta propiedad enunciada
en el teorema 4.3) que:
w = 1 w = w W.
Es decir, en W tambin est, a ms de w, su inverso aditivo, w. Por lo tanto, para
cada elemento de W, su inverso aditivo es el mismo inverso aditivo de este elemento
considerado un elemento de V .
Observaciones
1. La segunda y la tercera condiciones del teorema 4.4 pueden ser reemplazadas por la
siguiente:
( K)(u W)(v W)(u + v W).
2. En la demostracin del teorema 4.4, vimos que 0
v
siempre debe estar en W. En otras
palabras, una condicin necesaria para que un subconjunto de un espacio vectorial
sea un subespacio vectorial es que contenga al vector cero del espacio vectorial.
Por esta razn, para demostrar el cumplimiento de la primera propiedad, probaremos
que el vector nulo est en el conjunto, ya que si no estuviera, el conjunto no sera
un subespacio vectorial.
3. De la demostracin del teorema tambin obtenemos otra condicin necesaria para
que un subconjunto de un espacio vectorial sea un subespacio vectorial de ste: el
inverso aditivo de un elemento del subconjunto debe estar en el conjunto.
Ejemplo 4.36
Son los siguientes subconjuntos de R
3
subespacios vectorial de R
3
?
1. W
1
= (x
1
, x
2
, x
3
) R
3
: x
1
+x
2
= x
3
.
2. W
2
= (x
1
, x
2
, x
3
) R
3
: 2x
1
> x
3
.
3. W
3
= (x
1
, x
2
, x
3
) R
3
: [x
1
+x
2
[ = x
3
.
4.4 Subespacios vectoriales 101
Solucin.
1. Vamos a utilizar el teorema 4.4 para determinar si W
1
es un subespacio vectorial de R
3
.
Para ello, veriquemos si se cumplen las tres condiciones exigidas en el teorema (la segunda
y la tercera expresada por una sola, como se indica en la segunda observacin al teorema).
(a) Veamos si W
1
,= . Para ello, veamos si 0
v
= (0, 0, 0) W
1
.
Puesto que 0 + 0 = 0, entonces 0
v
s est en W
1
.
(b) Ahora veamos si se verica que u +v W
1
para todo R y todo u y v en W
1
.
Para ello, supongamos que u = (x
1
, x
2
, x
3
) y v = (y
1
, y
2
, y
3
). Entonces:
u +v = (x
1
, x
2
, x
3
) + (y
1
, y
2
, y
3
)
= (x
1
, x
2
, x
3
) + (y
1
, y
2
, y
3
).
Por lo tanto:
u +v = (x
1
+y
1
, x
2
+y
2
, x
3
+y
3
).
Ahora veamos si u+v est en W
1
. Para verlo, sumemos sus dos primeras coordenadas:
(x
1
+y
1
) + (x
2
+y
2
) = (x
1
+x
2
) + (y
1
+y
2
)
= x
3
+y
3
u W
1
y v W
1
.
Es decir, la suma de las dos primeras es igual a la tercera. Por lo tanto, u +v W
1
.
Las condiciones del teorema 4.4 son verdaderas. Por lo tanto, el conjunto W
1
s es un
subespacio vectorial de R
3
.
2. Empecemos por vericar si W
2
contiene o no al vector nulo de R
3
. Para ello, debemos
determinar si el doble de la primera coordenada de (0, 0, 0) es mayor que la tercera: 20 > 0.
Pero 2 0 = 0 no es mayor que 0, sino igual (y no puede ser mayor por el axioma de
tricotoma de R. Por lo tanto 0
v
, W
2
, de donde podemos concluir que W
2
no es un
subespacio vectorial de R
3
.
3. El vector nulo 0
v
s es elemento de W
3
, ya que [0 + 0[ = [0[ = 0. Por lo tanto, W
3
,= .
Sean R
3
, u W
3
y v W
3
. Veamos si u +v W
3
.
Observemos que el vector (1, 2, 1) est en W
3
, ya que [1+(2)[ = [ 1[ = 1. Sin embargo,
su inverso aditivo (1, 2, 1) = (1, 2, 1) no est en W
3
, porque [1+2[ = [1[ = 1 ,= 1.
Esto signica que W
3
no puede ser un subespacio vectorial de R
3
.

Teorema 4.5 (Interseccin de subespacios vectoriales) Sean (V, K, +, ) un espacio vectorial y


W
1
y W
2
dos subespacios vectoriales de V . Entonces W
1
W
2
es un subespacio vectorial de
V .
Demostracin. Vamos a utilizar el teorema 4.4.
1. Probemos que W
1
W
2
,= .
Para ello, veamos que 0
v
W
1
W
2
, ya que 0
v
est en W
1
y W
2
, porque son
subespacios vectoriales de V .
102 Espacios vectoriales
2. Sean K, u W
1
W
2
y v W
1
W
2
. Debemos probar que
u + v W
1
W
2
.
Puesto que W
1
y W
2
son subespacios vectoriales de V , por el teorema 4.4, tenemos
que:
u + v W
1
y u + v W
2
.
Por lo tanto, u + v debe estar en la interseccin de W
1
y W
2
.
Corolario 4.6 Sean (V, K, +, ) un espacio vectorial y W
1
, W
2
, . . . , W
n
subespacios vectoriales
de V . Entonces
n

i=1
W
i
= W
1
W
2
W
n
es un subespacio vectorial de V .
Demostracin. Por induccin sobre n.
Ejemplo 4.37
Los conjuntos W
1
= (x
1
, x
2
, x
3
) : x
2
x
3
= 0 y W
2
= (x
1
, x
2
, x
3
) : x
1
= x
2
x
3

son subespacios vectoriales de R


3
con las operaciones usuales. Calcular W
1
W
2
. El
conjunto W
1
W
2
es un subespacio vectorial de R
3
?
Solucin.
1. Tenemos que:
W
1
W
2
= (x
1
, x
2
, x
3
) : x
2
x
3
= 0 x
1
= x
2
x
3
.
Como se verican las siguientes equivalencias:
x
2
x
3
= 0 x
1
= x
2
x
3
x
2
x
3
= 0 x
1
= 0
x
2
= x
3
x
1
= 0,
podemos escribir que:
W
1
W
2
= (0, x, x) : x R.
2. Dado que 0
v
estn tanto en W
1
como en W
2
, tambin est en W
1
W
2
. Sin embargo,
existen u y v en W
1
W
2
tales que u +v , W
1
W
2
.
En efecto, esos dos elementos son u = (1, 2, 2) W
1
y v = (1, 2, 1) W
2
, como el lector(a)
puede constatar por s mismo(a).

La segunda parte de este ejemplo muestra que, en general, la unin de subespacios


vectoriales no es un subespacio vectorial. Sin embargo, se puede demostrar que la unin
es un subespacio vectorial solo cuando uno de los dos subespacios est contenido en el
otro.
4.5 Combinaciones lineales 103
4.5 Combinaciones lineales
Denicin 4.3 (Combinacin lineal de vectores) Sean (E, K, +, ) un espacio vectorial y v
1
,
v
2
, . . ., v
n
elementos de V . Una combinacin lineal de los vectores v
1
, v
2
, . . . , v
n
es cualquier
elemento de V de la forma
n

j=1

j
v
j
=
1
v
1
+
2
v
2
+ +
n
v
n
,
donde
1
,
2
, . . . ,
n
son elementos de K.
Denicin 4.4 (Un vector es combinacin lineal de vectores) Sean (E, K, +, ) un espacio vec-
torial y v
1
, v
2
, . . . , v
n
elementos de V . Un vector u V es una combinacin lineal de los vectores
v
1
, v
2
, . . . , v
n
si existen n escalares
1
,
2
, . . . ,
n
tales que
u =
n

j=1

j
v
j
=
1
v
1
+
2
v
2
+ +
n
v
n
.
Ejemplo 4.38
Sea p un vector del espacio (P
2
[x], R, +, ) denido por
p(x) = 1 +x x
2
para todo x R. Es p una combinacin lineal de q P
2
[x] y r P
2
[x] donde
q(x) = 1 + 2x
2
y r(x) = 2 +x +x
2
para todo x R?
Solucin. Queremos saber si existen R y R tales que
p = q +r.
Para averiguarlo, supongamos que s existen. Entonces, para todo x R, se verica la
siguiente igualdad:
p(x) = q(x) +r(x). (4.5)
Es decir, es verdadera la igualdad:
1 +x x
2
= (1 + 2x
2
) +(2 +x +x
2
)
para todo x R.
Ahora bien, si realizamos la suma de los dos polinomio en el lado derecho de la igualdad,
obtenemos que:
1 +x x
2
= ( + 2) +x + (2 +)x
2
104 Espacios vectoriales
para todo x R. Entonces, por la denicin de igualdad de polinomios, tenemos que y ,
en el caso de que existieran, satisfaran el siguiente sistema de tres ecuaciones:
+ 2 = 1
= 1
2 + =1.
(4.6)
Veamos qu valores de y satisfacen este sistema.
Para ello, trabajemos con la matriz ampliada de este sistema:
_
_
1 2 1
0 1 1
2 1 1
_
_

_
_
1 2 1
0 1 1
0 0 0
_
_

_
_
1 0 1
0 1 1
0 0 0
_
_
Como el rango de la matriz es 2, entonces el sistema tiene solucin nica: = 1 y = 1.
Veamos, entonces, si estos valores satisfacen la igualdad (4.5):
p(x) +q(x) = (1)(1 + 2x
2
) + (1)(2 +x +x
2
)
= (1 + 2) +x + (2 + 1)x
2
= 1 +x x
2
= p(x).
Es decir, existen dos escalares y tales que p = q + r. En otras palabras, p s es una
combinacin lineal de q y r.
Ejemplo 4.39
Para qu valores del nmero real a el vector u = (a, 0, 0) R
3
es una combinacin
lineal de los vectores v = (0, 1, 1) y w = (1, 1, 1)?
Solucin. Buscamos el valor de a para que u sea una combinacin lineal de v y w. La pregunta
es, entonces, qu valor o valores debe tomar a para que existan dos escalares y tales que
u = v +w?
Supongamos que esos dos escalares existen. Entonces, debe satisfacerse la siguiente igual-
dad:
(a, 0, 0) = (0, 1, 1) +(1, 1, 1).
Como
(a, 0, 0) = (0, 1, 1) +(1, 1, 1) = (, , +),
entonces y deben satisfacer el siguiente sistema de tres ecuaciones lineales:
= a
= 0
+ = 0.
Resolvamos este sistema:
_
_
0 1 a
1 1 0
1 1 0
_
_

_
_
0 1 a
0 2 0
1 1 0
_
_

_
_
0 1 a
0 0 2a
1 1 0
_
_
.
Para que el sistema tenga solucin, debemos tener que 2a = 0; es decir, que a = 0.
Por lo tanto, el vector nulo de R
3
es una combinacin lineal de (0, 1, 1) y (1, 1, 1) (los
escalares respectivos son = 1 y = 0).
4.6 Cpsula lineal de un conjunto 105
4.6 Cpsula lineal de un conjunto
Denicin 4.5 (Cpsula) Sean (V, K, +, ) un espacio vectorial y S V tal que S ,= . La
cpsula de S es el conjunto formado por todos los elementos de V que se pueden expresar como
una combinacin lineal de elementos de S. En otras palabras, la cpsula de S es el conjunto de
todas las combinaciones lineales de elementos de S.
La cpsula de S es representada por S. Por lo tanto:
S = v V : v =

n
j=1
v
j
,
j
K, v
j
V .
Ejemplo 4.40
Sea S = 1 +x, 1 +x
2
, 1 +x
3
subconjunto de P
3
[x] con las operaciones usuales de
suma de polinomios y producto de un escalar por un polinomio. Calcular la cpsula
de S.
Solucin. Sea p S. Entonces p P
3
[x], por lo que:
p(x) = a +bx +cx
2
+dx
3
para todo x R.
Por otro lado, como p S, existen , , y en R tales que
p(x) = a +bx +cx
2
+dx
3
= (1 +x) +(1 +x
2
) +(1 +x
3
)
para todo x R.
Puesto que:
a +bx +cx
2
+dx
3
= (1 +x) +(1 +x
2
) +(1 +x
3
) = ( + +) +x +x
2
+x
3
,
por la denicin de igualdad entre polinomios, podemos concluir que:
S = p(x) = a +bx +cx
2
+dx
3
P
3
[x] : + + = a, = b, = c, = d.
Para determinar cmo son los elementos de S, debemos determinar los coecientes a, b, c
y d (esto es lo que signica calcular S). Para ello, resolvamos el sistema de cuatro ecuaciones
lineales:
+ + = a
= b
= c
=d.
Para ello, trabajemos con la matriz ampliada:
_
_
_
_
1 1 1 a
1 0 0 b
0 1 0 c
0 0 1 d
_
_
_
_

_
_
_
_
1 1 1 a
0 1 1 a +b
0 1 0 c
0 0 1 d
_
_
_
_
106 Espacios vectoriales

_
_
_
_
1 1 1 a
0 1 1 a +b
0 0 1 a +b +c
0 0 1 d
_
_
_
_

_
_
_
_
1 1 1 a
0 1 1 a +b
0 0 1 a +b +c
0 0 0 a +b +c +d
_
_
_
_
.
Por lo tanto, el sistema tiene solucin si y solo si se verica que:
a +b +c +d = 0.
De esta manera, la cpsula de S est formada por todos los vectores p tal que
p(x) = a +bx +cx
2
+dx
3
y a +b +c +d = 0.
Entonces, tenemos que:
S = a +bx +cx
2
+dx
3
P
3
[3] : a +b +c +d = 0.

Ejemplo 4.41
Si S = (1, 1), (0, 3) R
2
, calcular S.
Solucin. De la denicin de S tenemos:
S = (a, b) R
2
: (a, b) = (1, 1) +(0, 3), , R
= (a, b) R
2
: (a, b) = (, + 3), , R
= (a, b) R
2
: = a, + 3 = b, , R.
Por lo tanto, para caracterizar los elementos de S, debemos determinar las condiciones bajos
las cuales el sistema
=a
+ 3 = b
(4.7)
tenga solucin.
Para ello, observemos que:
_
1 0 a
1 3 b
_

_
1 0 a
0 3 a +b
_
.
De manera que el sistema (4.7) tiene solucin para cualquier par de valores para a y b, ya
que el determinante de la matriz de coecientes es diferente de 0 independientemente de los
valores de a y de b. En otras palabras:
(a, b) S a R y b R.
Por lo tanto:
S = (a, b) R
2
: a R, b R = R
2
.

Teorema 4.7 Sean (V, K, +, ) un espacio vectorial y S V tal que S ,= . Entonces la cpsula
de S es un subespacio vectorial de V .
4.7 Subespacio vectorial generado por un subconjunto 107
Demostracin. Para probar que S es un subespacio vectorial de V , vamos a utilizar
el teorema 4.4 (pgina 99). Es decir, debemos probar que:
1. S , = .
2. ( K)(u S)(v S)(u + v S).
Procedamos as.
1. Para probar que S , = , demostremos que 0
v
S. Para ello, debemos probar que
0
v
es una combinacin de elementos de S.
Y es as, pues, como S ,= , existe v S. Por otro lado, sabemos que
0
v
= 0 v.
Entonces 0
v
es una combinacin lineal de un elemento de S, por lo que 0
v
S.
2. Sean K, u S y v S. Existen, entonces, escalares
1
,
2
, . . . ,
n
,
1
,
2
,
m
y elementos de S u
1
, u
2
, . . . , u
m
, v
1
, v
2
, . . . , v
n
tales que
u =
1
u
1
+
2
u
2
+ +
m
u
m
y v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Por lo tanto:
u + v = (
1
u
1
+
2
u
2
+ +
m
u
m
) + (
1
v
1
+
2
v
2
+ +
n
v
n
)
= (
1
)u
1
+ (
2
)u
2
+ + (
m
)u
m
+
1
v
1
+
2
v
2
+ +
n
v
n
.
Es decir, u+v es una combinacin lineal de elementos de S, por lo que u+v S.
Hemos demostrado, entonces, que S es un subespacio vectorial de V .
4.7 Subespacio vectorial generado por un subconjunto
Denicin 4.6 (Subespacio generado) Sean (V, K, +, ) un espacio vectorial y S V . El subes-
pacio vectorial generado por S es el subespacio vectorial que se obtiene al intersecar todos los
subespacios vectoriales de V que contienen a S.
Dado que la interseccin de dos conjuntos siempre est contenida en cualquiera de
los dos conjuntos, el subespacio generado por un conjunto ser el subespacio vectorial
ms pequeo que contenga al conjunto.
De manera ms precisa, el subespacio generado por S es el conjunto
s.e.v.(S) =

W : W s.e.v. V, S W.
Sabemos que la interseccin de un nmero nito de subespacios vectoriales es un subes-
pacio vectorial. No es difcil demostrar que esta armacin es cierta para cualquier
108 Espacios vectoriales
nmero de subespacios. Por lo tanto, el conjunto s.e.v.(S) es un subespacio vectorial
de V . Adems, por la denicin de interseccin, tenemos que es nica y que
s.e.v.(S) W
para todo W subespacio vectorial de V .
En otras palabras, si W es un subespacio vectorial de V tal que S W, debe
suceder que s.e.v.(S) W. Esto signica que el subespacio vectorial generado por S
es el subespacio vectorial ms pequeo que contiene a S.
Ejemplo 4.42
Qu subespacio genera el conjunto vaco?
Solucin. Sea S = . Como el conjunto N = 0
v
es un subespacio vectorial de V (es no vaco
y las dos operaciones heredadas de V son cerradas), tenemos que es el subespacio vectorial
de V ms pequeo que contiene a S, ya que N. Por lo tanto, el espacio generado por
el conjunto vaco es el subespacio vectorial con un solo elemento, el vector nulo de V . A este
espacio se lo denomina subespacio nulo de V .
Teorema 4.8 Sean (V, K, +, ) un espacio vectorial y S V tal que S ,= . Entonces el subes-
pacio generado por S es igual a S.
Demostracin. Vamos a probar que S es el subespacio vectorial ms pequeo que
contiene a S. Para ello, demostraremos que:
1. S S; y
2. si W es un subespacio vectorial de V tal que S W, entonces S W.
Procedamos.
1. Sea v S. Debemos probar que v S. Pero esto se sigue inmediatamente del
hecho de que v = 1 v, por lo que v es una combinacin lineal de un elemento de S;
es decir, v est en la cpsula de S.
2. Sea W un subespacio vectorial de V que contiene a S. Vamos a probar que la cpsula
de S est contenida en W. Para ello, sea v S. Probemos que v W.
Por ser v un elemento de la cpsula de S, existen escalares
1
,
2
, . . . ,
n
y vectores
de S v
1
, v
2
, . . . , v
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.8)
Por otro lado, cada v
i
tambin es un elemento de W ya que S W. Por lo tanto, lo
que expresa la igualdad (4.8) es lo siguiente: el vector v es una combinacin lineal
de elementos de W. Pero W es un subespacio vectorial, por lo que las operaciones
+ y son cerradas. Entonces, cualquier combinacin lineal de elementos de W est
en W; es decir, v W.
Hemos demostrado, entonces, que todo elemento de S es un elemento de W, lo
que prueba que S W.
4.8 Bases de espacios vectoriales 109
En resumen, hemos probado que el menor subespacio vectorial que contiene a S
es su cpsula. Esto signica, entonces, que el subespacio vectorial generado por S es,
precisamente, su cpsula.
Ejemplo 4.43
Si p(x) = x
2
+ 1, el conjunto S = p(x), p

(x), p

(x) genera el espacio vectorial


(P
2
[x], R, +, ).
Solucin. Por el teorema anterior, lo que debemos mostrar es que S = P
2
[x]. Para ello,
calculemos S:
S = q(x) = a +bx +cx
2
P
:
[x]q(x) = p(x) +p

(x) +p

(x)
= a +bx +cx
2
P
:
[x]a +bx +cx
2
= (x
2
+ 1) +(2x) +(2)
= a +bx +cx
2
P
:
[x]a +bx +cx
2
= ( + 2) + 2x +x
2

= a +bx +cx
2
P
:
[x] + 2 = a, 2 = b, = c.
Entonces, para determinar los elementos a, b y c, debemos averiguar bajo qu condiciones
necesarias y sucientes el sistema
+ 2 =a
2 = b
= c
(4.9)
tiene solucin.
Para ello, miremos su matriz ampliada:
_
_
1 0 2 a
0 2 0 b
1 0 0 c
_
_

_
_
1 0 2 a
0 2 0 b
0 0 2 a +c
_
_
.
Como el determinante de la matriz de coecientes es diferente de 0, independientemente de
a, b y c, entonces el sistema (4.9) tiene solucin para todo a, b y c. Por lo tanto S = P
2
[x].
En otras palabras, el conjunto
p, p

, p

genera todo P
2
[x].
4.8 Bases de espacios vectoriales
Denicin 4.7 (Dependencia e independencia lineal) Sean (V, K, +, ) un espacio vectorial y
S = v
1
, v
2
, . . . , v
n
un subconjunto nito de V .
1. El conjunto S es linealmente independiente(li) si y solamente si la combinacin lineal

1
v
1
+
2
v
2
+ +
n
v
n
= 0
v
,
denominada combinacin lineal nula, tiene como solucin nica la solucin trivial:
j
= 0
para todo j 1, 2, . . . , n. En otras palabras, el conjunto S es li si:

1
v
1
+
2
v
2
+ +
n
v
n
= 0
v
=
1
=
2
= =
n
= 0.
110 Espacios vectoriales
2. El conjunto S es linealmente dependiente (ld) si y solo si no es linealmente independiente.
Es decir, si la combinacin lineal nula tiene un nmero innito de soluciones. En otras
palabras, el conjunto S es ld si:

1
v
1
+
2
v
2
+ +
n
v
n
= 0
v
j 1, 2, . . . , n tal que
j
,= 0.
De la denicin es claro que un conjunto no puede ser linealmente independiente
y dependiente al mismo tiempo. Esto lo podemos ver de otra manera: la combinacin
lineal nula produce un sistema de ecuaciones lineales homogneo que, como sabemos,
o tiene una sola solucin la trivial, o tiene un nmero innito de soluciones. En el
primer caso, el conjunto es li; en el segundo, es ld.
Ejemplo 4.44
El conjunto S = p, p

, p

es li en (P
2
[x], R, +, ), donde
p(x) = 1 +x
2
para todo x R.
Solucin. Supongamos que

1
p +
2
p

+
3
p

= 0
v
. (4.10)
Vamos a probar que
1
=
2
=
3
= 0.
Para todo x R, la igualdad (4.10) implica la siguiente:

1
p(x) +
2
p

(x) +
3
p

(x) = 0;
es decir, es verdad que:

1
(1 +x
2
) +
2
(2x) +
3
(2) = (
1
+ 2
3
) + 2
2
x +
1
x
2
= 0
para todo x R. Por lo tanto, por la denicin de igualdad entre polinomios, tenemos que:

1
+ 2
3
= 0, 2
2
= 0,
1
= 0,
de donde obtenemos que
1
=
2
=
3
= 0. En otras palabras, el conjunto S es linealmente
independiente.
Ejemplo 4.45
Sea S = (1, a, 1), (1, 0, 1), (1 +a, 1, 0) R
3
. Para qu valores de a el conjunto
S es li? Para qu valores de a es ld?
Solucin. Sean , y escalares tales que
(1, a, 1) +(1, 0, 1) +(1 +a, 1, 0) = (0, 0, 0). (4.11)
Entonces, se verica que:
( + (1 +a), a +, +) = (0, 0, 0).
4.8 Bases de espacios vectoriales 111
Por lo tanto, los nmeros , y que satisfacen la igualdad (4.11) satisfacen el siguiente
sistema de tres ecuaciones lineales:
+ (1 +a) = 0
a + = 0
+ = 0.
(4.12)
Ahora debemos determinar para qu valores de a, este sistema tiene como nica solucin
la trivial y para qu valores tiene un nmero innito de soluciones.
Para ello, calculemos el determinante de la matriz de coecientes del sistema:

1 1 1 +a
a 0 1
1 1 0

2 0 1 +a
a 0 1
1 1 0

2 1 +a
a 1

= a
2
+a 2 = (a + 2)(a 1).
Por lo tanto, el determinante es igual a 0 si y solo si a = 2 o a = 1.
Esto signica que el sistema (4.12) tiene un nmero innito de soluciones si y solo si
a = 2 o a = 1. Por lo tanto, conjunto S es linealmente dependiente cuando a = 2 o a = 1;
y es linealmente independiente si a ,= 2 y a ,= 1.

Observaciones
1. Todo conjunto nito que contiene el vector nulo es linealmente dependiente, pues
0
v
= 1 0
v
; es decir, hay al menos un escalar diferente de 0 en la combinacin nula.
2. Si un conjunto contiene un subconjunto linealmente dependiente, entonces el con-
junto tambin es linealmente dependiente.
3. Todo subconjunto de un conjunto linealmente independiente tambin es linealmente
independiente.
Denicin 4.8 (Base) Sean (V, K, +, ) un espacio vectorial y B V . El conjunto B es una
base del espacio vectorial V si y solamente si B es linealmente independiente y B genera V ; es
decir, el subespacio vectorial generado por B es el espacio vectorial V .
En otras palabras, B es una base de B si y solo si:
1. B es linealmente independiente; y
2. B = V .
Ejemplo 4.46
El conjunto B = p, p

, p

, donde p(x) = 1 + x
2
para todo x R, es una base del
espacio vectorial (P
2
[x], R, +, ).
Solucin. En un ejemplo anterior, probamos que el conjunto B es linealmente independiente;
tambin se demostr que B = P
2
[x]. Por lo tanto B es una base de (P
2
[x], R, +, ).
112 Espacios vectoriales
Ejemplo 4.47
El conjunto
B = 1, x 1, (x 1)
2
, (x 1)
3

es una base del espacio vectorial (P


3
[x], R, +, ).
Solucin. Debemos probar que la cpsula de B es P
3
[x] y que B es un conjunto linealmente
independiente.
1. Calculemos la cpsula de B:
B = p P
3
[x] : p(x) = (1) +(x 1) +(x 1)
2
+(x 1)
3

= p P
3
[x] : p(x) = (1) +(x 1) +(x
2
2x + 1) +(x
3
3x
2
+ 3x 1)
= p P
3
[x] : p(x) = ( + ) + ( 2 + 3)x + ( 3)x
2
+x
3

Si p(x) = a +bx +cx


2
+dx
3
, entonces que p B es equivalente a
a +bx +cx
2
+dx
3
= ( + ) + ( 2 + 3)x + ( 3)x
2
+x
3
,
lo que es equivalente al siguiente sistema de cuatro ecuaciones lineales en , , y :
+ = a
2 + 3 = b
3 = c
=d.
(4.13)
Por lo tanto:
B = a +bx +cx
2
+dx
3
P
3
[x] : a, b, c y d satisfacen el sistema (4.13).
Ahora bien, la matriz de los coecientes del sistema (4.13) es la siguiente:
_
_
_
_
1 1 1 1
0 1 2 3
0 0 1 3
0 0 0 1
_
_
_
_
Como se puede ver, su determinante es diferente de 0 para cualquier a, b, c y d. Por lo
tanto, el sistema (4.13) tiene solucin para todo a, b, c y d. Esto signica que
B = P
3
[x].
En resumen, B genera P
3
[x].
2. Ahora probemos que el conjunto B es linealmente independiente. Para ello, sean , , ,
escalares tales que:
(1) +(x 1) +(x 1)
2
+(x 1)
3
= 0 + 0x + 0x
2
+ 0x
3
. (4.14)
Esta igualdad es equivalente a la siguiente:
( + ) + ( 2 + 3)x + ( 3)x
2
+x
3
= 0 + 0x + 0x
2
+ 0x
3
.
4.8 Bases de espacios vectoriales 113
Por lo tanto, , , y satisfacen el siguiente sistema de ecuaciones lineales:
+ = 0
2 + 3 = 0
3 = 0
= 0
cuya matriz de coecientes es la misma que la del sistema (4.13), de la cual sabes que
su determinante es diferente de 0, por lo que, al tratarse este segundo sistema de uno
homogneo, la nica solucin que tiene es la trivial. Por lo tanto:
= = = = 0.
En resumen, la igualdad (4.14) implica que los cuatro escalares son iguales a 0, por lo que
el conjunto B es linealmente independiente.
Hemos probado, entonces, que el conjunto B, al generar P
3
[x] y ser linealmente indepen-
diente, es una base del espacio vectorial (P
3
[x], R, +, ).
Ejemplo 4.48
El conjunto
W =
__
a b
c d
_
M
22
:

a b
1 2

= 0
_
es un subespacio vectorial de (M
22
, R, +, ). Encontrar una base para W.
Solucin. Para ello, procedamos de la siguiente manera:
W =
__
a b
c d
_
M
22
:

a b
1 2

= 0
_
=
__
a b
c d
_
M
22
: 2a b = 0
_
=
__
a b
c d
_
M
22
: 2a = b
_
=
__
a 2a
c d
_
M
22
: a, c, d R
_
.
Ahora bien, como:
_
a 2a
c d
_
=
_
a 2a
0 0
_
+
_
0 0
c 0
_
+
_
0 0
0 d
_
= a
_
1 2
0 0
_
+c
_
0 0
1 0
_
+d
_
0 0
0 1
_
,
tenemos que:
W =
_
a
_
1 2
0 0
_
+c
_
0 0
1 0
_
+d
_
0 0
0 1
_
: a, c, d R
_
=
___
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
___
.
Por lo tanto, el conjunto
B =
__
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
genera W, ya que B = W.
114 Espacios vectoriales
Ahora probemos que B es linealmente independiente. Para ello, supongamos que , y
escalares tales que:

_
1 2
0 0
_
+
_
0 0
1 0
_
+
_
0 0
0 1
_
=
_
0 0
0 0
_
. (4.15)
Esta igualdad implica que
_
2

_
=
_
0 0
0 0
_
,
la que, a su vez, implica, por la denicin de igualdad entre matrices, que se veriquen las
siguientes igualdades:
= 0, 2 = 0, = 0, = 0.
En resumen, la igualdad (4.15) implica que = = = 0. Esto signica que B es un
conjunto linealmente independiente.
Hemos probado, entonces, que B genera M
22
y es linealmente independiente; entonces,
B es una base del espacio (M
22
, R, +, ).
Cul es el papel de una base? Para contestar esta pregunta, supongamos que
B = v
i
: i I
n
= 1, 2, . . . , n
es una base de un espacio vectorial V . Por un lado, como B genera V , cada elemento
de V se expresa como una combinacin lineal de elementos de B. Pero, por ser B
linealmente independiente, esa combinacin lineal es nica.
En efecto. Sea v V . Existen entonces n escalares
i
con i I
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Supongamos, adems, que
i
con i I
n
son escalares tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Por lo tanto:

1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
,
de donde obtenemos que:
(
1

1
)v
1
+ (
2

2
)v
2
+ + (
n

n
)v
n
= 0
v
.
Pero, como B es un conjunto linealmente independiente, entonces esta ltima igualdad
implica que:
(
1

1
) = (
2

2
) = = (
n

n
) = 0;
es decir, tenemos que

1
=
1
,
2
=
2
, . . . ,
n
=
n
.
En otras palabras, v se expresa de manera nica como combinacin lineal de los ele-
mentos de la base.
A los escalares
i
con i I
n
se les conoce con el nombre de coordenadas del vector
v respecto de la base B.
Las coordenadas de un vector de una base son utilizadas para representar e identi-
car a un vector respecto de una base. Muchas veces, en lugar de hablar de v respecto
de la base, hablaramos de la n-upla (
1
,
2
, . . . ,
n
).
4.8 Bases de espacios vectoriales 115
Teorema 4.9 Sean (V, K, +, ) un espacio vectorial y S = v
1
, v
2
, . . . , v
m
V . Si S genera el
espacio V , entonces cualquier conjunto de V linealmente independiente tiene m elementos a lo
ms.
Demostracin. Es suciente probar que cualquier conjunto que tenga ms de m ele-
mentos es linealmente dependiente.
En efecto, una vez probado esto, supongamos que W fuera linealmente indepen-
diente. Si tuviera ms de m elementos, sera linealmente dependiente; es decir, no sera
linealmente independiente, lo que entrara en contradiccin con la hiptesis de que s
lo es.
Sea, entonces, un conjunto W = w
1
, w
2
, . . . , w
n
V tal que n > m. Vamos a
demostrar que este conjunto es linealmente dependiente.
Para ello, sean
j
, con j 1, 2, . . . , n, escalares tales que:

1
w
1
+
2
w
2
+ +
n
w
n
= 0
v
. (4.16)
Vamos a demostrar esta ecuacin tiene un nmero innito de soluciones.
Como S genera el espacio V , cualquier elemento de V es una combinacin lineal
de elementos de S. En particular, cada elemento de W es una combinacin lineal de
elementos de S. Por lo tanto, cada elemento de W se puede expresar de la siguiente
manera:
w
1
=
11
v
1
+
21
v
2
+ +
m1
v
m
w
2
=
12
v
1
+
22
v
2
+ +
m2
v
m

w
n
=
1n
v
1
+
2n
v
2
+ +
mn
v
m
.
Si ahora sustituimos los w
j
por sus combinaciones lineales de elementos de S, la
igualdad (4.16) implica la siguiente:

1
(
11
v
1
+ +
m1
v
m
) +
2
(
12
v
1
+ +
m2
v
m
) + +
n
(
1n
v
1
+ +
mn
v
m
) = 0
v
.
Si ahora agrupamos respecto de cada v
j
, obtenemos la siguiente igualdad:
(
11

1
+ +
1n

n
)v
1
+(
21

1
+ +
2n

n
)v
2
+ +(
m1

1
+ +
mn

n
)v
m
= 0
v
.
Esta ecuacin tiene, al menos, la solucin trivial; es decir, todos los escalares de
cada v
j
iguales a 0 son una solucin de esta ecuacin. Por lo tanto, se obtiene:

11

1
+
12

2
+ +
1n

n
= 0

21

1
+
22

2
+ +
2n

n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

m1

1
+
m2

2
+ +
mn

n
= 0,
un sistema homogneo de m ecuaciones y n incgnitas (cada
i
).
Puesto que n > m (ms incgnitas que ecuaciones), podemos concluir que hay un
nmero innito de soluciones
j
. Esto signica que el conjunto W es linealmente
dependiente.
116 Espacios vectoriales
Ejemplo 4.49
El conjunto
B =
__
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
es una base del subespacio vectorial
W =
__
a b
c d
_
M
22
:

a b
1 2

= 0
_
.
Demuestre que el conjunto
S =
__
1 2
3 0
_
,
_
0 0
1 0
_
,
_
0 0
4 3
_
,
_
2 4
1 0
__
es linealmente dependiente.
Solucin. Como B es una base de (M
22
, R, +, ), entonces es un conjunto linealmente inde-
pendiente que tiene 3 elementos. Entonces, por el teorema 4.9, cualquier conjunto de M
22
con cuatro o ms elementos debe ser linealmente dependiente. Ese es el caso de S, que tiene
cuatro elementos.
La principal consecuencia del ltimo teorema es que todas las bases tienen el mismo
nmero de elementos. En efecto, supongamos que B y B

son dos bases de un espacio


vectorial V , y m y n son el nmero de elementos de B y B

respectivamente.
Ahora bien, B genera el espacio V y tiene m elementos. Entonces, como B

es
linealmente independiente, por el teorema 4.9, se debe cumplir que n m. Si ahora
intercambiamos B y B

en el razonamiento anterior, tenemos que m n. Es decir,


m = n.
Hemos demostrado as el siguiente teorema.
Teorema 4.10 Todas las bases de un espacio vectorial tienen el mismo nmero de elementos.
4.9 Dimensin de un espacio vectorial
Denicin 4.9 (Dimensin) Sea (V, K, +, ) un espacio vectorial. El nmero de elementos de
cualquier base de B se denomina dimensin del espacio vectorial V . En el caso de que V sea
el espacio nulo, se asigna 0 a la dimensin de V . Se acostumbra a representar la dimensin de
V con dim(V ).
Ejemplo 4.50 Dado que el conjunto
B =
__
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
4.9 Dimensin de un espacio vectorial 117
es una base del subespacio vectorial
W =
__
a b
c d
_
M
22
:

a b
1 2

= 0
_
,
podemos concluir que dim(W) = 3.
Cuando el nmero de elementos de una base es nito, se dice que el espacio vectorial
es de dimensin nita.
A continuacin, exhibiremos las bases de los principales espacios vectoriales que
estamos estudiando en este libro. Estas bases son denominadas cannicas en el sentido
de que se ajustan a un canon o modelo ideal
1
Ejemplo 4.51
1. En el espacio vectorial (R, K, +, ), el conjunto C = 1 es linealmente independiente, pues
la igualdad 1 = 0 implica necesariamente que = 0, ya que 1 ,= 0. Adicionalmente, la
cpsula de C es R, pues
C = 1 R : R = R : R = R.
Por lo tanto, C es una base para (R, K, +, ), y es la cannica. Adems, dim(R) = 1.
2. En el espacio (R
2
, K, +, ), el conjunto
C = (1, 0), (0, 1)
es la base cannica y dim(R
2
) = 2.
En efecto:
(a) C es linealmente independiente, porque la igualdad
(1, 0) +(0, 1) = (0, 0)
implica que:
(, ) = (0, 0),
de donde: = = 0.
(b) C genera R
2
, pues:
C = (1, 0) +(0, 1) : R, R = (, ) : R, R = R
2
.
3. En el espacio (R
3
, K, +, ), la base cannica es:
C = (1, 0, 0), (0, 1, 0), (0, 0, 1).
Por lo tanto, dim(R
3
) = 3.
4. En el espacio (R
n
, K, +, ), la base cannica es:
C = (1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1).
Entonces, dim(R
n
) = n.
1
Diccionario panhispnico de dudas de la Real Academia Espaola, Edicin 2005.
118 Espacios vectoriales
5. En el espacio (C, K, +, ), la base cannica es:
C = 1, .
Por lo tanto, dim(C) = 2.
6. En el espacio (C
2
, K, +, ), la base cannica es:
C = (1, 0), (, 0), (0, 1), (0, ).
Por lo tanto, dim(C
2
) = 4.
7. En el espacio (P
n
[x], R, +, ), la base cannica es:
C = 1, x, x
2
, . . . , x
n
.
Entonces, dim(P
n
[x]) = n + 1.
8. En el espacio (M
22
, R, +, ), la base cannica es:
C =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
.

Del teorema 4.9, se deducen dos corolarios adicionales.


Corolario 4.11 Si la dimensin de (V, K, +, ) es n, entonces cualquier subconjunto de V con
ms de n elementos es linealmente dependiente. En otras palabras, la base de un espacio
vectorial es el conjunto linealmente independiente mximo en dicho espacio.
Demostracin. En este caso, en el teorema 4.9, el conjunto que genera V es una base,
la misma que tiene n elementos.
Corolario 4.12 Si la dimensin de (V, K, +, ) es n, entonces ningn subconjunto de V con
menos elementos de n puede generar V . En otras palabras, la base de un espacio vectorial es
el conjunto mnimo que puede generar el espacio.
Demostracin. Supongamos lo contrario: existe un subconjunto W de V con m ele-
mentos y m < n tal que W genera V . Sea B una base de V . Entonces, B tiene n
elementos. Por lo tanto, por el teorema 4.9, B debe ser linealmente dependiente, lo que
es imposible.
En resumen, la base de un espacio vectorial es el conjunto con el mayor nmero de
elementos que pueden ser linealmente independientes, y el menor nmero de elementos
sucientes para generar el espacio.
En el siguiente teorema, se expresa de otra manera el carcter maximal de una base
como conjunto linealmente independiente.
4.9 Dimensin de un espacio vectorial 119
Teorema 4.13 Sean (V, K, +, ) un espacio vectorial, B = v
1
, v
2
, . . . , v
m
V y u V .
Si B es linealmente independiente y u , B, entonces el conjunto B u es linealmente
independiente.
En otras palabras, si un conjunto linealmente independiente no genera el espacio
(es decir, no es una base), entonces si se aade a dicho conjunto un elemento que no
ha sido generado por l, el conjunto resultante sigue siendo linealmente independiente.
Demostracin. Sean
i
R con i I
m+1
= 1, 2, . . . , m+ 1 tales que

1
v
1
+
2
v
2
+ +
m
v +
m+1
u = 0
v
. (4.17)
Vamos a demostrar que
i
= 0 para todo i I
m+1
.
Si
m+1
,= 0, de la igualdad (4.17), obtenemos que:
u =

1

m+1
v
1


2

m+1
v
2


m

m+1
v
m
,
lo que implica que u B. Pero esto no es posible, por lo que concluimos que = 0.
Entonces, la igualdad (4.17) se transforma en la siguiente:

1
v
1
+
2
v
2
+ +
m
v = 0
v
,
y de aqu se desprende que
i
= 0 para todo i I
m
, ya que el conjunto B es linealmente
independiente.
En resumen,
i
= 0 para todo i I
m+1
, lo que signica que B u es linealmente
independiente.
Teorema 4.14 Sea (W, K, +, ) un espacio vectorial de dimensin n, entonces todo subconjunto
linealmente independiente de W es nito y es parte de una base de W.
Demostracin. Puesto que dim(W) = n, cualquier base de W tiene n elementos. Ade-
ms, como todo conjunto linealmente independiente de W debe tener n elementos a lo
ms, ese conjunto es nito.
Por otro lado, sea S W linealmente independiente. Si S generara W, entonces
S sera una base de W (por lo tanto, parte de una base). Supongamos, entonces, que
S ,= W. Existe, entonces, w
1
W tal que w
1
,= W. Entonces, por el teorema
anterior, el conjunto S
1
= S w
1
es linealmente independiente.
Si S
1
generara W, entonces S, que es subconjunto de S
1
, sera parte de una base
de W. Pero, si S
1
,= W, entonces volvera a realizar el proceso anterior hasta obtener
un conjunto B de n elementos y linealmente independiente, lo que no llevara ms all
de n m pasos, donde m es el nmero de elementos de S.
Pero este conjunto sera una base para W, porque si no generara W, entonces,
ejecutando un paso ms el proceso anterior, obtendramos un conjunto linealmente
independiente con n + 1 elementos, lo que es imposible, pues dim(W) = n.
120 Espacios vectoriales
Consecuencia inmediata del proceso utilizado en la demostracin de este teorema
es que si dim(W == n, todo conjunto linealmente independiente de n elementos es
una base de W. Resumamos este resultado en el siguiente corolario.
Corolario 4.15 Sea (V, K, +, ) un espacio vectorial tal que dim(V ) = n. Entonces, un conjunto
B linealmente independiente es una base de V si y solo si tiene n elementos.
La utilidad de este resultado es evidente: si dim(V ) = n es conocido, para deter-
minar que un conjunto con n elementos es base, nicamente hay que constatar que es
linealmente independiente, ya no es necesario mostrar que tambin genera V .
Tambin es verdad que si el conjunto tiene n elementos y genera el espacio, es una
base. Para probar esta armacin, requerimos algunos probar an algunos resultados
adicionales. Antes de hacerlo, veamos un ejemplo.
Ejemplo 4.52
Determinar si el conjunto
B = (0, 1, 1), (1, 0, 1), (1, 1, 0)
es una base del espacio vectorial (R
3
, K, +, ).
Solucin. Puesto que B tiene tres elementos y la dimensin de R
3
es 3, para determinar si B
es una base, es suciente determinar si es un conjunto linealmente independiente.
Para ello, sean , y escalares tales que:
(0, 1, 1) +(1, 0, 1) +(1, 1, 0) = (0, 0, 0). (4.18)
Entonces:
( +, +, +) = (0, 0, 0).
Por lo tanto, si la igualdad (4.18) fuera verdadera, entonces , y satisfaran el siguiente
sistema de ecuaciones:
+ = 0
+ = 0
+ = 0,
cuya matriz de coecientes:
_
_
0 1 1
1 0 1
1 1 0
_
_
tiene determinante es diferente de 0, pues:

0 1 1
1 0 1
1 1 0

0 1
1 0

1 0
1 1

= (1) + 1 = 2.
Por lo tanto, la solucin del sistema (4.18) es la trivial: = = = 0.
En otras palabras, el conjunto B es linealmente independiente y, por lo tanto, es una base
de R
3
.
4.9 Dimensin de un espacio vectorial 121
Ejemplo 4.53
El conjunto de R
3
B = (1, 0, 1), (1, 1, 0)
es linealmente independiente. Obtener una base B

para R
3
de manera que B

con-
tenga a B.
Solucin. El procedimiento a utilizar es el dado en la demostracin del teorema 4.14. Consiste
en aadir un elemento u R
3
tal que u , B. Sabemos que este elemento existe, porque B
no puede ser una base de R
3
, ya que B tiene dos elementos, mientras que dim(R
3
) = 3.
Empecemos, entonces, obteniendo la cpsula de B:
B = (a, b, c) R
3
: (a, b, c) = (1, 0, 1) +(1, 1, 0)
= (a, b, c) R
3
: (a, b, c) = ( +, , )
= (a, b, c) R
3
: + = a, = b, = c).
Ahora determinemos las condiciones que deben cumplir a, b y c para que el sistema
+ =a
= b
= c
(4.19)
tenga solucin. Para ello, trabajemos con su matriz ampliada:
_
_
1 1 a
0 1 b
1 0 c
_
_

_
_
1 1 a
0 1 b
0 1 a +c
_
_

_
_
1 1 a
0 1 b
0 1 a b +c
_
_
.
Por lo tanto, el sistema 4.19 tiene solucin si y solo si
a +b +c = 0.
Entonces:
B = (a, b, c) R
3
: c = a +b.
Ahora busquemos un elemento de R
3
que no est en B. Por ejemplo, el vector (0, 0, 1)
(la tercera coordenada no es la suma de las dos primeras) no est en B. Por lo tanto, el
conjunto B

= B (0, 0, 1) es linealmente independiente (teorema 4.13). Como tiene tres


elementos, B

es una base de R
3
y contiene a B.
El siguiente es otro corolario del teorema (4.9).
Teorema 4.16 Sea (V, K, +, ) un espacio vectorial de dimensin n. Si W es un subespacio
vectorial propio de V (es decir, W V y W ,= V ), entonces W tiene dimensin nita y
dim(W) < dim(V ).
Demostracin. Sea B una base de W. Entonces B V . Como B es linealmente in-
dependiente y V tiene dimensin nita, B tiene n elementos a lo ms (teorema 4.14).
Por lo tanto:
dim(W) dim(V ) = n.
122 Espacios vectoriales
Esto signica que la dimensin de W es nita.
Ahora probemos que n no puede ser la dimensin de W, con lo que quedar demos-
trado que dim(W) < dim(V ).
Ya que W es un subconjunto propio de V , entonces B = W ,= V . Sea, entonces,
u V tal que u , B. Como B es linealmente independiente, por el teorema 4.13 pode-
mos concluir que Bu es linealmente independiente. Entonces, por el teorema 4.14,
B u es parte de una base de V . Esto signica que:
dim(W) < dim(W) + 1 dim(V ).
Teorema 4.17 Sean (V, K, +, ) un espacio vectorial y S un subconjunto nito de V . Si S es
linealmente dependiente y v S es combinacin lineal de los dems elementos de S, entonces:
S = S v .
Demostracin. Supongamos que S = v
1
, v
2
, . . . , v
n
y que v = v
j
con j I
n
=
1, 2, . . . , n. Vamos a probar que S S v y que S v S.
1. Sea u S. Entonces existen n escalares
i
con i I
n
tales que
u =
1
v
1
+
2
v
2
+ +
j
v
j
+ +
n
v
n
.
Por otro lado, por hiptesis, sabemos que existen n1 escalares
i
con i I
n
j
tales que:
v
j
=
1
v
1
+ +
j1
v
j1
+
j+1
v
j+1
+ +
n
v
n
.
Si sustituimos este valor de v
j
en la primera igualdad, obtenemos que:
u =
1
v
1
+ +
j1
v
j1
+
j+1
v
j+1
+ +
n
v
n
,
donde
i
=
i
+
i

j
para cada i I
n
j.
Pero esta igualdad nos dice que u es combinacin lineal de los elementos de Sv
j
.
Es decir, u S v
j
.
En otras palabras, hemos probado que todo elemento de S es elemento de S
v
j
.
2. Sea u S v
j
. Mostremos que u S. Pero esto es verdadero, porque, al ser
u combinacin lineal de elementos de S v
j
, tambin es combinacin lineal de S,
ya que S S v
j
.
4.9 Dimensin de un espacio vectorial 123
Ejemplo 4.54
Sea
S =
__
1 0
0 1
_
,
_
0 2
1 1
_
,
_
2 2
1 3
__
.
Obtener:
1. la cpsula de S, S; y
2. una base y la dimensin de S.
Solucin.
1. Observemos que el conjunto S es linealmente dependiente, ya que
2
_
1 0
0 1
_
+ (1)
_
0 2
1 1
_
=
_
2 2
1 3
_
.
Por el teorema anterior, al eliminar el vector
_
2 2
1 3
_
de S, la cpsula de S menos ese vector sigue siendo igual a la cpsula de S:
S =
___
1 0
0 1
_
,
_
0 2
1 1
___
=
__
a b
c d
_
M
22
:
_
a b
c d
_
=
_
1 0
0 1
_
+
_
0 2
1 1
__
.
Ahora veamos qu condiciones deben satisfacer a, b, c y d para que el sistema
=a
2 = b
= c
+ = d
(4.20)
tenga solucin. De las matrices equivalentes de la matriz ampliada:
_
_
_
_
1 0 a
0 2 b
0 1 c
1 1 d
_
_
_
_

_
_
_
_
1 0 a
0 2 b
0 1 c
0 1 a +d
_
_
_
_

_
_
_
_
1 0 a
0 1 a +d
0 1 c
0 2 b
_
_
_
_

_
_
_
_
1 0 a
0 1 a +d
0 0 a +c +d
0 0 2a +b + 2d
_
_
_
_
concluimos que el sistema (4.20) tiene solucin si
a +c +d = 0 y 2a +b + 2d = 0.
Por lo tanto:
S =
__
a b
c d
_
M
22
: a +c +d = 0, 2a +b + 2d = 0
_
.
124 Espacios vectoriales
2. El conjunto
__
1 0
0 1
_
,
_
0 2
1 1
__
es el ideal para ser la base de S. Para conrmarlo, lo nico que resta por hacer es probar
que es linealmente independiente. Para ello, sean y escalares tales que:

_
1 0
0 1
_
+
_
0 2
1 1
_
=
_
0 0
0 0
_
.
De esta igualdad, se obtiene que
_
2
+
_
=
_
0 0
0 0
_
,
de donde tenemos que = 0 y = 0. Por lo tanto, este conjunto es linealmente indepen-
diente y, por lo tanto, una base de S. Finalmente, podemos armar que dim(S) = 2.

Teorema 4.18 Sean (V, K, +, ) un espacio vectorial de dimensin n y B V con n elementos.


Entonces, B es una base de V si y solo si B genera V ; es decir, si y solo si B = V .
Demostracin. Sea B un subconjunto de V con n elementos. Si B es una base, entonces
B genera el espacio V .
Recprocamente, supongamos que B genera el espacio V y que no es una base de V .
Entonces, B es linealmente dependiente. Existe, entonces, u B que es combinacin
lineal de los otros elementos de B. Por lo tanto, por el teorema 4.17, el conjunto
B u, que tiene n 1 elementos, tambin genera V . Pero esto es imposible, ya que
la dimensin de V es n por lo que ningn conjunto con menos de n elementos puede
generar el espacio (corolario 4.12). De modo que, B es linealmente independiente. Es
decir, es una base de V .
Ejemplo 4.55
El conjunto
W = (a, b, c, d) R
4
: b c = 0
es un subespacio vectorial de R
4
y su dimensin es igual a 3. Encontrar una base
para W.
Solucin. El conjunto W puede ser caracterizado de la siguiente manera:
W = (a, c, c, d) R
4
: a, c, d R.
Por lo tanto:
W = (a, 0, 0, 0) + (0, c, c, 0) + (0, 0, 0, d) R
4
: a, c, d R
= a(1, 0, 0, 0) +c(0, 1, 1, 0) +d(0, 0, 0, 1) R
4
: a, c, d R.
Si denimos el conjunto B por:
B = (1, 0, 0, 0), (0, 1, 1, 0), (0, 0, 0, 1),
entonces W = B y, como dim(W) = 3 y B tiene tres elementos, entonces B es una base de
W.
4.9 Dimensin de un espacio vectorial 125
Ejemplo 4.56
Sea S = f, sen, cos donde f(x) = x para todo x R. Probar que S es linealmente
independiente.
Solucin. Sean , y tres escalares tales que
f + sen + cos = 0
v
. (4.21)
Vamos a probar que = = = 0.
La igualdad (4.21) implica que
f(x) + sen x + cos x = 0
v
(x)
para todo x R. Es decir, la igualdad
x + sen x + cos x = 0 (4.22)
para todo x R.
Por lo tanto, si sustituimos 0 por x en (4.22), tenemos que
(0) +(0) +(1) = 0,
de donde obtenemos que = 0.
Ahora, si sustituimos por x, resulta que
() +(0) = 0,
de donde se comprueba que = 0.
Finalmente, si hacemos x =

2
, entonces
(1) = 0,
de donde = 0.
En resumen, si se verica la igualdad (4.21), necesariamente = = = 0. Entonces, S
es linealmente independiente.
Existe un procedimiento para vericar que un conjunto de funciones diferenciables
son linealmente independientes: el wronskiano.
Denicin 4.10 (Wronskiano) Sean f
1
, f
2
, . . . , f
n
funciones reales n 1 veces diferenciables.
El wronskiano de estas funciones es la funcin con dominio la interseccin de los dominios de
todas las f
i
denida por
W(x) =

f
1
(x) f
2
(x) f
n
(x)
f

1
(x) f

2
(x) f

n
(x)
f

1
(x) f

2
(x) f

n
(x)

f
(n1)
1
(x) f
(n1)
2
(x) f
(n1)
n
(x)

para todo x
n

i=1
n1

j=1
Dm(f
(j)
i
).
126 Espacios vectoriales
Teorema 4.19 Sea S = f
1
, f
2
, . . . , f
n
subconjunto del espacio vectorial (F, R, +, ). Si cada
elemento de S es una n 1 veces diferenciables, entonces S es linealmente independiente si y
solo existe al menos x
n

i=1
n1

j=1
Dm(f
(j)
i
) tal que W(x) ,= 0.
Ejemplo 4.57 Sea S = f, sen, cos donde f(x) = x para todo x R. Con ayuda del
wronskiano tambin podemos probar que S es linealmente independiente, pues, para todo
x R se tiene que:
W(x) =

f(x) sen x cos x


f

(x) cos x sen x


f

(x) sen x cos x

x sen x cos x
1 cos x senx
0 sen x cos x

x 0 0
1 cos x senx
0 sen x cos x

= x

cos x sen x
sen x cos x

.
Por lo tanto:
W(x) = x(cos
2
x sen
2
x) = x(sen
2
x + cos
2
x) = x.
Luego, para x ,= 0, tenemos que W(x) ,= 0.
4.10 Suma de subespacios vectoriales
Denicin 4.11 (Suma de subespacios) Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
dos
subespacios vectoriales de V . Se dene W
1
+W
2
por:
W
1
+W
2
= v V : v = w
1
+w
2
, w
1
W
1
, w
2
W
2
.
Es decir, W
1
+W
2
es el conjunto de todos los elementos del espacio vectorial V que
se pueden expresar como la suma de un elemento del subespacio vectorial W
1
con otro
elemento del subespacio vectorial W
2
.
Teorema 4.20 Sean (V, K, +, ) y W
1
y W
2
dos subespacios vectoriales de V . Entonces, W
1
+
W
2
es un subespacio vectorial de V .
Demostracin. 1. Es inmediato que W
1
+W
2
es diferente del vaco ya que 0
v
W
1
+W
2
,
pues 0
v
= 0
v
+ 0
v
y 0
v
es tanto elemento de W
1
como de W
2
(por ser subespacios
vectoriales de V ).
4.10 Suma de subespacios vectoriales 127
2. Sean K, u W
1
+ W
2
y v W
1
+ W
2
. Probemos que u + v tambin es un
elemento de W
1
+ W
2
.
Existen u
1
W
1
, u
2
W
2
, v
1
W
1
y v
2
W
2
tales que
u = u
1
+ u
2
y v = v
1
+ v
2
.
Entonces:
u + v = (u
1
+ u
2
) + (v
1
+ v
2
)
= (u
1
+ v
1
) + (u
2
+ v
2
) W
2
+ W
2
,
ya que u
1
+ v
1
W
1
y u
2
+ v
2
W
2
(W
1
y W
2
son subespacios vectoriales).
Teorema 4.21 Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
subespacios vectoriales de V
de dimensin nita. Si B
1
y B
2
son bases de W
1
y W
2
, respectivamente, entonces W
1
+ W
2
=
B1 B
2
.
Demostracin. Vamos a probar que W
1
+W
2
B
1
B
2
y que B
1
B
2
W
1
+W
2
.
1. Sea w W
1
+W
2
. Mostremos que w B
1
B
2
; es decir, probemos que w es una
combinacin lineal de elementos de la unin de las dos bases.
Supongamos que B
1
= u
1
, u
2
, . . . , u
m
y B
2
= v
1
, v
2
, . . . , v
n
. Sean u W
1
y
v W
2
tales que w = u+v. Existen, entonces escalares
i
con i I
m
= 1, 2, . . . , m
y
j
con j I
n
= 1, 2, . . . , n tales que
u =
1
u
1
+
2
u
2
+ +
m
u
m
y v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.23)
Por lo tanto:
w =
1
u
1
+
2
u
2
+ +
m
u
m
+
1
v
1
+
2
v
2
+ +
n
v
n
, (4.24)
donde los u
i
y v
j
pertenecen a W
1
W
2
. Esto signica que u + v B
1
B
2
.
2. Sea w B
1
B
2
. Entonces existen escalares
i
y
j
que satisfacen la igual-
dad (4.24). Es inmediato entonces que w = u + v con u y v dados en la igual-
dad (4.23). Por lo tanto, w W
1
+ W
2
.
Teorema 4.22 (de la dimensin) Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
dos subespa-
cios vectoriales de V de dimension nita. Entonces, se verica la siguiente igualdad:
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
128 Espacios vectoriales
Demostracin. Si uno de los dos subespacios vectoriales es el espacio nulo, la demostra-
cin es inmediata. En efecto, si fuera el caso que W
1
= 0
v
, entonces W
1
+ W
2
= W
2
y W
1
W
2
= 0
v
, y dim(W
1
) = dim(W
1
W
2
) = 0. Por lo tanto:
dim(W
1
+ W
2
) = dim(W
2
) = 0 + dim(W
2
) 0
= dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Supongamos ahora que tanto W
1
como W
2
son ambos diferentes del espacio nulo.
Realizaremos la demostracin en dos casos.
1. Supongamos que W
1
W
2
= 0
v
. Debemos probar, entonces, que la dimensin de
W
1
+ W
2
es la suma de las dimensiones de W
1
y W
2
respectivamente.
Para ello, vamos a probar que una base para W
1
+W
2
se obtiene mediante la unin
entre una base de W
1
y otra de W
2
. Como W
1
W
2
= 0
v
, entonces, si B
1
y B
2
son bases de W
1
y W
2
respectivamente, se tiene que B
1
B
2
= (ya que el vector
nulo no puede ser nunca un elemento de una base). Por lo tanto, la unin de las dos
bases contiene m + n elementos donde m es el nmero de elementos de B
1
y n el
nmero de elementos de B
2
. Con ello se prueba que
dim(W
1
+ W
2
) = m + n =
= dim(W
1
) + dim(W
2
)
= dim(W
1
) + dim(W
2
) dim(W
1
W
2
),
ya que W
1
W
2
= 0
v
.
Probemos, entonces, que si B
1
= u
1
, u
2
, . . . , u
m
es una base de W
1
y B
2
=
v
1
, v
2
, . . . , v
n
es una base de W
2
, entonces B
1
B
2
es una base para W
1
+ W
2
.
Por el teorema 4.21, sabemos que B
1
B
2
genera W
1
+W
2
. Por lo tanto, solo resta
probar que la unin de las bases es linealmente independiente.
Sean
i
con i I
m
= 1, 2, . . . , m y
j
con j I
n
= 1, 2, . . . , n escalares tales
que
m

i=1

i
u
i
+
n

j=1

j
v
j
= 0
v
.
Entonces:
m

i=1

i
u
i
=
n

j=1

j
v
j
.
Por un lado, tenemos que
m

i=1

i
u
i
W
1
y
n

j=1

j
v
j
W
2
,
y por otro, tenemos que W
1
W
2
= 0
v
. Entonces:
m

i=1

i
u
i
=
n

j=1

j
v
j
= 0
v
.
Por lo tanto, ya que B
1
y B
2
son ambos linealmente independientes, tenemos que

i
= 0 y
j
= 0 para todo i I
m
y todo j I
n
. Esto demuestra que B
1
B
2
es
linealmente independiente.
4.10 Suma de subespacios vectoriales 129
2. Supongamos que W
1
W
2
,= 0
v
. Como W
1
W
2
es subconjunto tanto de W
1
como
de W
2
, que son de dimensin nita, por el teorema 4.16, la interseccin tambin es
un espacio de dimensin nita y, adems, se verica que:
dim(W
1
W
2
) dim(W
1
) y dim(W
1
W
2
) dim(W
2
).
Sea B = w
i
: i I
p
= 1, 2, . . . , p una base de W
1
W
2
. Por el teorema 4.14, B
es parte de una base de B
1
, una de W
1
, y parte de B
2
, una base de W
2
.
Sean B
1
= w
i
, u
j
: i I
p
, j I
m
= 1, 2, . . . , m y B
2
= w
i
, v
j
: i I
p
, k
I
n
= 1, 2, . . . , m. Entonces
dim(W
1
) = p + m y dim(W
2
) = p + n. (4.25)
Observemos que ningn u
j
puede ser igual a algn v
k
, pues si fuera as, digamos
que u
1
= v
1
, por ejemplo, entonces u
1
y v
1
estaran en la interseccin de W
1
W
2
y
seran uno de los w
i
, pues, de lo contrario, ya no sera p la dimensin de W
1
W
2
.
Por esto, basta que probemos que
B
1
B
2
= w
i
, u
j
, v
k
: i I
p
, j I
m
, k I
n

es una base de W
1
+ W
2
para demostrar el teorema, pues, la unin de las bases
contendra exactamente
p + m + n
elementos, de donde tendramos, con ayuda de la igualdad (4.25), que
dim(W
1
+ W
2
) = p + m+ n
= (p + m) + (p + n) p
= dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Demostremos, entonces, que B
1
B
2
es una base, para lo cual, es suciente con
probar que es linealmente independiente, ya que, por el teorema 4.21, genera el
espacio W
1
+ W
2
.
Sean, entonces,
i
con i I
m
,
j
con j I
n
y
k
k I
p
escalares tales que:
p

k=1

k
w
k
+
m

i=1

i
u
i
+
n

j=1

j
v
j
= 0
v
. (4.26)
Entonces:
p

k=1

k
w
k
+
m

i=1

i
u
i
=
n

j=1

j
v
j
. (4.27)
Pero
p

k=1

k
w
k
+
m

i=1

i
u
i
W
1
y
n

j=1

j
v
j
W
2
,
junto con la igualdad (4.27), implica que:

j=1

j
v
j
W
1
W
2
.
130 Espacios vectoriales
Entonces, como B es una base de W
1
W
2
, existen p escalares
k
con k I
p
tales
que

j=1

j
v
j
=
p

k=1

k
w
k
,
de donde obtenemos que:
p

k=1

k
w
k
+
n

j=1

j
v
j
= 0
v
.
Pero esta igualdad implica que
k
= 0 y
j
= 0 para todo k I
p
y todo j I
n
, ya
que B
2
es un conjunto linealmente independiente.
Entonces, la igualdad (4.27) se expresa de la siguiente manera:
p

k=1

k
w
k
+
m

i=1

i
u
i
= 0
v
,
de donde se obtiene que
k
= 0 y = 0 para todo k I
p
y todo i I
m
, ya que B
1
es un conjunto linealmente independiente.
En resumen, hemos probado que la igualdad (4.26) implica que todos los escalares

i
,
j
y
k
son iguales a 0. Es decir, hemos probado que B
1
B
2
es linealmente
independiente, y con ello, que es una base de W
1
+ W
2
.
4.11 Suma directa de subespacios vectoriales
Denicin 4.12 (Suma directa) Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
dos subespa-
cios vectoriales de V . La suma directa de W
1
y W
2
, representada por W
1
W
2
se dene de la
siguiente manera:
W
1
W
2
= w V : (!u W
1
)(!v W
2
)(w = u +v).
Teorema 4.23 Sean (V, K, +, ) un espacio vectorial y U, W
1
y W
2
subespacios de dimensin
nita de V . Entonces:
U = W
1
W
2
si y solo si U = W
1
+W
2
y W
1
W
2
= 0
v
.
Demostracin. 1. Si U = W
1
W
2
, es inmediato, de la denicin de suma directa que
U = W
1
+W
2
. As que probemos que la interseccin de W
1
y W
2
es el espacio nulo.
Supongamos lo contrario. Esto signica que existe v ,= 0
v
tal que v W
1
W
2
.
Entonces, por un lado, tenemos que
2v = v + v
4.11 Suma directa de subespacios vectoriales 131
est en W
1
W
2
. Por otro, tenemos que
2v = 2v + 0
v
.
Como la cada elemento de la suma directa se expresa de manera nica como la suma
de dos elementos, uno de W
1
y otro de W
2
, necesariamente tiene que suceder que
v = 2v y que v = 0
v
, ambas armaciones imposibles. Por lo tanto, W
1
W
2
= 0
v
.
2. Supongamos ahora que U = W
1
+ W
2
y que W
1
W
2
= 0
v
. Para probar que U
es la suma directa de W
1
y W
2
, vamos a probar que cada elemento de W
1
+ W
2
se
expresa de manera nica como la suma un elemento de W
1
con otro de W
2
.
Sean u = v + w U tal que v W
1
y w W
2
. Supongamos que existen v

W
1
y
w

W
2
tales que u = v

+ w

. Esto signica que


v + w = v

+ w

,
de donde obtenemos que
v v

= w

w. (4.28)
Pero v v

W
1
y w

w W
2
. Por lo tanto, la igualdad (4.28) implica que
v v

W
1
W
2
y w

w W
1
W
2
.
De donde, como W
1
W
2
= 0
v
, tenemos que
v v

= 0
v
y w

w = 0
v
.
Por lo tanto v = v

y w = w

, lo que implica que u W


1
W
2
.
De este teorema y del teorema de la dimensin, ya que dim(0
v
) = 0, se deduce el
siguiente corolario.
Corolario 4.24 Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
subespacios vectoriales de V
de dimensin nita. Entonces:
dim(W
1
W
2
) = dim(W
1
) + dim(W
2
).
Teorema 4.25 Sean (V, K, +, ) un espacio vectorial de dimensin nita n y U un subespacio
vectorial de V . Entonces, existe un subespacio vectorial W de V tal que V = U V .
Demostracin. Si U es el espacio nulo, entonces W = V . Si U es todo V , es claro que
W debe ser el espacio nulo.
Supongamos, entonces, que U ni es el espacio nulo ni es V . Como la dimensin de
U es nita, ya que V es de dimensin nita, sea m = dim(U). Por lo tanto m n.
Sea B
1
= u
1
, u
2
, . . . , u
m
una base de U. Por el teorema 4.14, existe B una base de
V que contiene a B
1
. Por ello, B es de la forma:
B = u
1
, u
2
, . . . , u
m
, u
m+1
, . . . , u
n
.
El candidato perfecto para W es, entonces, B B
1
.
En efecto, probemos que:
132 Espacios vectoriales
1. V = U + W; y
2. U W = 0
v
.
1. Es inmediato que U +W V . Recprocamente, si v V , entonces existen escalares

i
con i I
n
= 1, 2, . . . , n tales que:
v =
n

i=1

i
u
i
=
m

i=1

i
u
i
+
n

i=m+1

i
u
i
= u + v,
donde
u =
m

i=1

i
u
i
y v =
n

i=m+1

i
u
i
.
Entonces u U y v W. Por lo tanto, v U + W; es decir, V U + W.
En resumen, hemos probado que V = U + W.
2. Sea v U W. Vamos a probar que v = 0
v
, con lo cual quedara demostrado que
U W = 0
v
.
Como u U y u V , existen escalares
i
tales que
v =
m

i=1

i
u
i
=
n

i=m+1

i
u
i
.
Por lo tanto:
0
v
= v v =
m

i=1

i
u
i

i=m+1

i
u
i
,
de donde se tiene que
m

i=1

i
u
i
+
n

i=m+1
(
i
)u
i
= 0
v
.
Como B es linealmente independiente, tenemos que todos los
i
= 0. Por lo tanto,
v = 0
v
.
Ejemplo 4.58
Sea U = a + bx + cx
2
+ dx
3
P
3
[x] : a 2b c = 0, b c d = 0 un
subespacio vectorial de (P
3
[x], R, +, ). Encontrar un subespacio vectorial W tal
que P
3
[x] = U W.
Solucin. Vamos a utilizar la demostracin del teorema 4.25, ya que en ella se describe el
siguiente procedimiento para encontrar W:
4.11 Suma directa de subespacios vectoriales 133
1. Encontrar una base para U.
2. Si U es el espacio nulo, entonces W = P
3
[x].
3. Si U es el V , entonces W es el espacio nulo.
4. Si U no es ni el espacio nulo ni V , entonces W = B B
1
, donde B es una base de V
obtenida a partir de B
1
, una base de U.
En este caso, es fcil ver que U ni es el espacio nulo ni P
3
[x]. Entonces, lo que tenemos
que hacer es: encontrar una base para U y luego completar esa base a una para P
3
[x].
1. Una base para U.
U = a +bx +cx
2
+dx
3
P
3
[x] : a = 2b +c, d = b c
= (2b +c) +bx +cx
2
+ (b c)x
3
P
3
[x] : b R, c R
= (2b +bx +bx
3
) + (c +cx
2
cx
3
) P
3
[x] : b R, c R
= b(2 +x +x
3
) +c(1 +x
2
x
3
) P
3
[x] : b R, c R.
Sea B
1
= 2 +x +x
3
, 1 +x
2
x
3
. Entonces U = B
1
. Para que B
1
sea una base de U,
es suciente que sea linealmente independiente. Veamos si es as efectivamente.
Sean y dos escalares tales que
(2 +x +x
3
) +(1 +x
2
x
3
) = 0 + 0x + 0x
2
+ 0x
3
.
Por lo tanto:
(2 +)x +x
2
+ ( )x
3
= 0 + 0x + 0x
2
+ 0x
3
,
de donde es inmediato que = 0 y = 0 son los nicos valores que satisface esta igualdad.
Por lo tanto, B
1
es linealmente independiente.
En resumen, hemos encontrado una base para U, el conjunto B
1
.
2. Una base para V que contenga a B
1
. El procedimiento a seguir es el utilizado en la demos-
tracin del teorema 4.14, y consiste en lo siguiente:
(a) Si B
1
genera V (es decir, U = V ), entonces B
1
es una base de V .
(b) Si U es diferente de V , entonces se determina si B
2
= B
1
v
1
, donde v
1
V B
1
,
genera V . En caso armativo, B
2
es la base buscada. En el caso contrario, se repite
este paso hasta encontrar B.
Como dim(P
3
[x]) = 4, entonces U, cuya dimensin es 2, no es igual a P
3
[x]. Por lo tanto,
debemos aplicar el segundo paso del procedimiento descrito. Cuntas veces? Exactamente
dos.
En primer lugar, busquemos un polinomio de P
3
[x] que no est en U. Por ejemplo, x, ya
que a ,= 2b c, pues a = 0, b = 1 y c = 0. Sea B
2
= B
1
x. Como tiene tres elementos,
entonces no genera P
3
[x], cuya dimensin es 4.
Volvemos al segundo paso del procedimiento: buscar un vector que est en P
3
[x] pero no
en B
2
. Para esto, determinemos B
2
:
B
2
= p(x) = a +bx +cx
2
+dx
3
P
3
[x] : p(x) = (2 +x +x
3
) +(1 +x
2
x
3
) +x
= p(x) = a +bx +cx
2
+dx
3
P
3
[x] : p(x) = (2 +)( +)x +x
2
+ ( )x
3

134 Espacios vectoriales


Entonces, , y satisfacen el siguiente sistema de ecuaciones:
2 + = a
+ = b
= c
=d.
(4.29)
Ahora determinemos las condiciones que deben cumplir a, b, c y d para que este sistema
tenga solucin. Para ello, trabajemos con la matriz ampliada del sistema:
_
_
_
_
2 1 0 a
1 0 1 b
0 1 0 c
1 1 0 d
_
_
_
_

_
_
_
_
1 1 0 d
1 0 1 b
0 1 0 c
2 1 0 a
_
_
_
_

_
_
_
_
1 1 0 d
0 1 1 b d
0 1 0 c
0 3 0 a 2d
_
_
_
_

_
_
_
_
1 1 0 d
0 1 1 b d
0 1 0 c
0 0 0 a 3c 2d
_
_
_
_
.
Por lo tanto, para que el sistema (4.29) tenga solucin, se debe satisfacer la igualdad:
a 3c 2d = 0.
Entonces:
B
2
= a +bx +cx
2
+dx
3
P
3
[x] : a 3c 2d = 0.
El polinomio x
2
no es elemento de B
2
, pues, como a = 0, b = 0, c = 1 y d = 0, entonces
a 3c 2d = 3 ,= 0. Entonces
B

= B
1
x
2

es una base de P
3
[x] y W = B

B
1
=

x, x
2
_
. Por lo tanto:
W = ax +bx
2
: a R, b R.

Ejemplo 4.59
Sean
W
1
= (x, y, z) R
3
: x+y +z = 0 y W
2
= (x, y, z) R
3
: 2x+y = 0, y z = 0
dos espacios vectoriales de (R
3
, R, +, ). Calcular W
1
+W
2
y probar que:
R
3
= W
1
W
2
.
Solucin. Por el teorema 4.21, sabemos que W
1
+W
2
= B
1
B
2
, donde B
1
y B
2
son bases
de W
1
y W
2
respectivamente. Por lo tanto, para calcular la suma de W
1
y W
2
, encontremos
una base para cada uno.
4.11 Suma directa de subespacios vectoriales 135
1. Una base para W
1
:
W
1
= (x, y, z) R
3
: x +y +z = 0
= (y z, y, z) R
3
: y R, z R
= y(1, 1, 0) +z(1, 0, 1) R
3
: y R, z R.
Por lo tanto, el conjunto B
1
= (1, 1, 0), (1, 0, 1) genera W
1
.
Veamos si B
1
es linealmente independiente. Para ello, sean y escalares tales que:
(1, 1, 0) +(1, 0, 1) = (0, 0, 0).
De esta igualdad, obtenemos que:
= 0, = 0, = 0,
de donde = = 0 es la nica solucin. Por lo tanto, B
1
es linealmente independiente, y,
por lo tanto, es una base de W
1
.
2. Una base para W
2
:
W
2
= (x, y, z) R
3
: 2x +y = 0, y z = 0
= (x, y, z) R
3
: y = 2x, z = y = 2x
= (x, 2x, 2x) R
3
: x R
= x(1, 2, 2) R
3
: x R.
Por lo tanto, el conjunto B
2
= (1, 2, 2) genera W
2
. Puesto que tambin es linealmente
independiente, pues tiene un solo elemento y ese elemento es diferente de 0
v
2
, B
2
es una
base de W
2
.
3. Determinacin de W
1
+W
2
. Recordemos que: W
1
+W
2
= B
1
B
2
. Vamos a probar que
B
1
B
2
es linealmente independiente. Como tiene tres elementos, entonces va a generar
R
3
, es decir, W
1
+ W
2
= R
3
. Pero esto implica, por el teorema de la dimensin, que
dim(W
1
W
2
) = 0, de donde W
1
W
2
= 0
v
. Es decir, W
1
W
2
= R
3
.
4. El conjunto B
1
B
2
es linealmente independiente. En efecto, sean , y escalares tales
que
(1, 1, 0) +(1, 0, 1) +(1, 2, 2) = (0, 0, 0).
Entonces los escalares satisfacen el siguiente sistema de ecuaciones lineales
+ = 0
2 = 0
2 = 0
que tiene solucin nica, la trivial, pues la matriz de coecientes es equivalente a una
triangular superior cuyo rango es igual a 3:
_
_
1 1 1 0
1 0 2 0
0 1 2 0
_
_

_
_
1 1 1 0
0 1 1 0
0 1 2 0
_
_

_
_
1 1 1 0
0 1 1 0
0 0 3 0
_
_
.
Por lo tanto, B
1
B
2
es un conjunto linealmente independiente.

2
Si v ,= 0
v
, entonces la igualdad v = 0
v
implica que = 0 (ver el teorema 4.3). Es decir, el
conjunto v es linealmente independiente.
136 Espacios vectoriales
Ejemplo 4.60
Sean W
1
, W
2
y W
3
tres subespacios vectoriales de un espacio vectorial V de dimen-
sin nita tales que:
1. W
1
W
2
;
2. W
1
+W
3
= W
2
+W
3
; y
3. W
1
W
3
= W
2
W
3
.
Entonces W
1
= W
2
.
Solucin. Del teorema de la dimensin, podemos armar que
dim(W
1
W
3
) = dim(W
1
) + dim(W
3
) dim(W
1
+W
3
)
y que
dim(W
2
W
3
) = dim(W
2
) + dim(W
3
) dim(W
2
+W
3
).
La segunda hiptesis implica que
dim(W
1
+W
3
) = dim(W
2
+W
3
)
y la tercera,
dim(W
1
W
3
) = dim(W
2
W
3
).
Por lo tanto:
dim(W
1
) + dim(W
3
) dim(W
1
+W
3
) = dim(W
2
) + dim(W
3
) dim(W
2
+W
3
)
dim(W
1
) + dim(W
3
) = dim(W
2
) + dim(W
3
)
dim(W
1
) = dim(W
2
).
De la primera hiptesis, W
1
es un subespacio vectorial de W
2
y una base de W
1
tiene el
mismo nmero de elementos que una base de W
2
. Entonces la base de W
1
genera W
2
. Esto
signica que W
1
= W
2
.
4.12 Producto interno
Denicin 4.13 (Producto interno) Sean (V, K, +, ) un espacio vectorial y K el campo de los
nmeros reales o complejos. Un producto interno sobre V es una funcin , : V V K
tal que:
1. Linealidad: (u V )(v V )(w V )(u +v, w = u, w +v, w).
2. Homogeneidad: ( K)(u V )(v V )(u, v = u, v).
3. Simetra de Herminte: (u V )(v V )(u, v = v, u).
4. Positividad: (v V 0
v
)(v, v > 0).
4.12 Producto interno 137
Observaciones
1. Por la simetra de Hermite, tenemos que u, u = u, u; es decir, el conjugado de
u, u es el mismo. Esto signica que u, u siempre es un nmero real, y es positivo
cuando u ,= 0
v
.
2. Si u = 0
v
, entonces u, v = 0, pues u = 0 u, de donde, por la homogeneidad, se
tiene que u, v = 0 u, v = 0 u, v = 0.
3. De la observacin anterior, si u = 0
v
, entonces u, u = 0. Recprocamente, si
u, u = 0, entonces u = 0
v
, pues, si u ,= 0
v
, por la positividad, tendramos que
u, u > 0.
4. A la estructura de espacio vectorial junto con un producto interno se le denomina
espacio con producto interior.
A continuacin, presentamos los productos internos ms usuales para los espacios
que aparecen frecuentemente en este texto.
1. En el espacio vectorial (R
2
, K, +, ):
u, v = x
1
y
1
+ x
2
y
2
,
donde u = (x
1
, x
2
) y v = (y
1
, y
2
).
2. En el espacio vectorial (R
3
, K, +, ):
u, v = x
1
y
1
+ x
2
y
2
+ x
3
y
3
,
donde u = (x
1
, x
2
, x
3
) y v = (y
1
, y
2
, y
3
).
3. En el espacio vectorial (R
n
, K, +, ):
u, v =
n

j=1
x
i
y
i
= x
1
y
1
+ x
2
y
2
+ + x
n
y
n
,
donde u = (x
1
, x
2
, , x
n
) y v = (y
1
, y
2
, y
3
).
4. En el espacio vectorial (C
n
, C, +, ):
u, v =
n

j=1
x
i
y
i
,
donde u = (x
1
, x
2
, , x
n
) y v = (y
1
, y
2
, y
3
).
5. En el espacio vectorial (P
n
[x], R, +, ):
p, q =
n

j=1
a
j
b
j
,
donde p(x) =
n

j=1
a
j
x
j
y q(x) =
n

j=1
b
j
x
j
.
138 Espacios vectoriales
6. En el espacio vectorial (M
nn
, R, +, ):
A, B = tr(AB
t
) =
n

i=1
n

j=1
a
ij
b
ij
,
donde A = (a
ij
) y B = (b
ij
).
Sobre un conjunto, se pueden denir varios productos internos. En el siguiente
ejemplo, se ilustra esta situacin.
Ejemplo 4.61
Denimos la funcin , en P
2
[x] P
2
[x] por:
p, q =

jJ
p(j)q(j),
donde J = 1, 0, 1. Probar que esta funcin es un producto interno sobre
(P
2
[x], R, +, ).
Solucin.
1. Linealidad. Sean p, q y r en P
2
[x]. Debemos probar que
p +q, r = p, r +q, r .
Demostracin.
p +q, r =

jJ
(p +q)(j)r(j)
=

jJ
[(p(j) +q(j)]r(j)
=

jJ
[(p(j)r(j) +q(j)r(j)]
=

jJ
(p(j)r(j) +

jJ
q(j)r(j) = p, r +q, r .
2. Homogeneidad. Sean R y p y q en P
2
[x]. Vamos a probar que
p, q = p, q .
Demostracin.
p, q =

jJ
[p(j)]q(j)
=

jJ
[p(j)q(j)]
=

jJ
p(j)q(j) = p, q .
4.12 Producto interno 139
3. Simetra de Hermite. Como K = R, entonces el conjugado de cualquier elemento de K
es l mismo. Por ello, lo que debemos probar es:
p, q = q, p
para todo p y q en P
2
[x].
Demostracin.
p, q =

jJ
p(j)q(j)
=

jJ
q(j)p(j) = q, p .
4. Positividad. Sea p P
2
[x] 0
v
. Vamos a demostrar que:
p, p > 0.
Demostracin. Tenemos que
p, p =

jJ
p
2
(j).
Ahora bien, como p no es nulo y su grado es a lo ms 2, entonces no puede tener ms
de dos races. Esto signica que 1, 0 y 1 no pueden ser, los tres, races de p. En otras
palabras, al menos uno de los tres nmeros p(1), p(0) y p(1) es distinto de 0.; es decir,
existe k J tal que p(k) ,= 0, por lo que p
2
(k) > 0.
Por otro lado, para todo j J k, tenemos que p
2
(j) 0. Entonces:
p, p = p
2
(k) +

jJ{k}
p
2
(j) > 0.
En resumen, la funcin , es un producto interno sobre (P
2
[x], R, +, ).
Teorema 4.26 (Propiedades del producto interno) Sean (V, K, +, ) un espacio vectorial y ,
un producto interno. Entonces:
1. (u V )(v V )(w V )(u, v +w = u, v +u, w).
2. ( K)(u V )(v V )(u, v = u, v).
3. (u V )(0
v
, u = 0).
4. Si (u V )(u, w = 0), entonces w = 0
v
.
5. Si v, v = 0, entonces v = 0
v
.
Demostracin. Sean u, v, w elementos de V y de K.
140 Espacios vectoriales
1.
u, v + w = v + w, u Simetra de Hermite.
= v, u +w, u Linealidad.
= v, u +w, u El conjugado de una suma es la suma
de los conjugados.
= u, v +u, w Simetra de Hermite.
2.
u, v = v, u Simetra de Hermite.
= v, u Homogeneidad.
= v, u El conjugado de un producto es el
producto de los conjugados de cada
factor.
= u, v Simetra de Hermite.
3. Se demostr en la segunda observacin a la denicin de producto interno.
4. La demostracin se deja para el lector.
5. Se demostr en la tercera observacin a la denicin de producto interno.
Teorema 4.27 (Desigualdad de Cauchy-Schwarz) Sea , un producto escalar denido sobre
un espacio vectorial (V, K, +, ). Entonces se satisface la desigualdad
[ u, v [
_
u, u
_
v, v
para todo u V y todo v V .
Aunque el teorema es verdadero para cualquier campo K, la demostracin que
presentamos a continuacin se la realiza para el caso K = R. Esto signica que u, v =
v, u y no aparecer el conjugado de un nmero en ninguna expresin.
Demostracin. Si u = 0
v
, entonces, por un lado:
[ u, v [ = [0[ = 0.
Por otro lado:
_
u, u
_
v, v = 0
_
v, v = 0.
Por lo tanto:
[ u, v [ =
_
u, u
_
v, v
cuando u = 0
v
.
Supongamos ahora que u ,= 0
v
. Denamos w as:
w = v
u, v
u, u
u.
4.12 Producto interno 141
Entonces:
w, w =
_
v
u, v
u, u
u, v
u, v
u, u
u
_
=
_
v, v
u, v
u, u
u
_

_
u, v
u, u
u, v
u, v
u, u
u
_
= v, v
u, v
u, u
v, u
u, v
u, u
u, v +
u, v
u, u
u, v
u, u
u, u
= v, v
u, v
u, u
u, v
u, v
u, u
u, v +
u, v
u, u
u, v
= v, v
u, v
u, u
u, v
w, w =
v, v u, u u, v
2
u, u
.
Puesto que w, w 0, entonces
v, v u, u u, v
2
u, u
0,
y, como u, u > 0, obtenemos que
v, v u, u u, v
2
0,
de donde se verica que
u, v
2
v, v u, u .
Por lo tanto:
[ u, v [
_
u, u
_
v, v.
Denicin 4.14 (Norma) Sea (V, K, +, ) un espacio vectorial. Una norma sobre V es una fun-
cin || : V R que satisface las siguientes propiedades:
1. Positividad: (v V 0
v
)(|v| > 0).
2. Homogeneidad: ( K)(v V )(|v| = [[ |v|).
3. Desigualdad triangular: (u V )(v V )(|u +v| |u| +|v|).
A un espacio vectorial junto con una norma denida sobre l se le conoce con el
nombre de espacio normado.
La desigualdad de Cauchy-Schwarz puede ser reformulada de la siguiente manera
mediante la norma:
[ u, v [ |u| |v|
para todo u y todo v en un espacio normado V .
142 Espacios vectoriales
Teorema 4.28 (Norma inducida) Sea (V, K, +, ) un espacio vectorial sobre el que se ha denido
un producto interno , . Entonces la funcin de || : V R denida por
|v| =
_
v, v
para todo v V es una norma sobre V .
A esta norma se le conoce con el nombre de norma inducida sobre V por el producto interno
sobre V .
Demostracin. Sean u y v elementos de V y un escalar.
1. Positividad. Supongamos que v ,= 0
v
. Entonces, por la positividad del producto
interno, tenemos que v, v > 0. Por lo tanto, |v|
2
> 0, de donde |v| > 0.
2. Homogeneidad.
|v|
2
= v, v
= v, v
= [[
2
|v|
2
.
Por lo tanto, |v| = [[ |v|.
3. Desigualdad triangular. La demostracin de esta propiedad se realiza nicamente
para el caso en que K = R.
|u + v|
2
= u + v, u + v
= u, u +u, v +v, u +v, v
= |u|
2
+u, v +u, v +|v|
2
= |u|
2
+ 2 u, v + |v|
2
|u|
2
+ 2[ u, v [ +|v|
2
|u|
2
+ 2 |u| |v| +|v|
2
= (|u| +|v|)
2
.
Por lo tanto, |u + v| |u| +|v|.
Ejemplo 4.62 En el espacio (R
4
, R, +, ), con el producto interno usual, tenemos que
|(4, 2, 0, 3)|
2
= (4, 2, 0, 3), (4, 2, 0, 3)
= 4 4 + (2)(2) + (0)(0) + (3)(3)
= 16 + 4 + 9.
Por lo tanto, |(4, 2, 0, 3)| =

29.
4.13 Ortogonalidad 143
4.13 Ortogonalidad
Denicin 4.15 (Vectores ortogonales) Sean (V, K, +, ) un espacio vectorial y , un producto
interno denido sobre V .
1. Dos vectores u y v de V son ortogonales si y solamente si u, v = 0.
2. Un conjunto S de V es ortogonal si y solamente si todo par de elementos distintos de S
son ortogonales.
Observaciones
1. El vector nulo 0
v
es ortogonal a cualquier vector, pues 0
v
, v = 0 para todo v V .
2. Si S V es distinto de 0
v
, para que sea un conjunto ortogonal, debe tener al
menos dos elementos.
Ejemplo 4.63 En el espacio (R
3
, R, +, ), con el producto interno usual, el conjunto
S = (1, 0, 1), (2, 1, 2), (1, 4, 1)
es ortogonal pues:
(1, 0, 1), (2, 1, 2) = 2 + 0 2 = 0;
(1, 0, 1), (1, 4, 1) = 1 + 0 + 1 = 0;
(2, 1, 2), (1, 4, 1) = 2 + 4 2 = 0.
En otras palabras, hemos mostrado que u, v = 0 para todo u S y todo v S tal que
u ,= v.
Teorema 4.29 Sean (V, K, +, ) un espacio vectorial, , un producto interno sobre V y S V
tal que 0
v
, S. Si S es un conjunto ortogonal, entonces S es linealmente independiente.
Demostracin. Supongamos que S = v
i
: i I
n
= 1, 2, . . . , n. Sean
i
con i I
n
escalares tales que:
n

i=1

i
v
i
= 0
v
. (4.30)
Sea j I
n
. Entonces:
0 = 0
v
, v
j

=
_
n

i=1

i
v
i
, v
j
_
=
n

i=1

i
v
i
, v
j

144 Espacios vectoriales


=
j
v
j
, v
j
,
pues, por ser S ortogonal, v
i
, v
j
= 0 para todo i I
m
tal que i ,= j. Por lo tanto:

j
v
j
, v
j
= 0. (4.31)
Puesto que v
j
,= 0
v
(ya que 0
v
, S), entonces v
j
, v
j
> 0. Esto signica que la
igualdad (4.31) implica que
j
= 0.
En resumen, hemos probado que la igualdad (4.30) implica que
j
= 0 para todo
j I
n
; es decir, hemos probado que S es un conjunto linealmente independiente.
Ejemplo 4.64 En el espacio (R
3
, R, +, ), el conjunto
s = (1, 0, 1), (2, 1, 2), (1, 4, 1)
es una base, ya que es linealmente independiente, pues es ortogonal como se prob en el
ejemplo anterior.
Recurdese que es suciente probar que S es linealmente independiente para que sea una
base de R
3
, ya que S tiene tres elementos y la dimensin de R
3
es 3.
Teorema 4.30 (Proceso de Gram-Schmidt) Sean (V, K, +, ) un espacio vectorial y , un pro-
ducto interno sobre V . Si el conjunto S
1
= v
i
V : i I
n
= 1, 2, . . . , n es linealmente
independiente, entonces existe un conjunto ortogonal S
2
= w
i
: i I
n
, donde:
1. w
1
= v
1
; y
2. w
i
= v
i

i1

j=1
v
i
, w
j

w
j
, w
j

w
j
para cada i I
n
1;
y tal que S
2
= S
1
.
Denicin 4.16 (Base ortogonal) Sean (V, K, +, ) un espacio vectorial y , un producto in-
terno sobre V . Una base B de V es ortogonal su B es un conjunto ortogonal.
Ejemplo 4.65 En (R
3
, R, +, ), el conjunto
B = (1, 0, 1), (2, 1, 2), (1, 4, 1)
es una base ortogonal.
Teorema 4.31 Todo espacio vectorial de dimension nita mayor que o igual a dos sobre el cual
se ha denido un producto interno tiene una base ortogonal.
4.13 Ortogonalidad 145
Demostracin. Sea B
1
una base de V , un espacio vectorial tal que dim(V ) 2. Enton-
ces B
1
tiene al menos dos elementos. Si se aplica el proceso de Gram-Schmidt, a partir
de B
1
se obtiene un conjunto ortogonal B con el mismo nmero de elementos que B
1
y tal que B = B
1
. Como B
1
genera V , entonces B tambin genera V . Entonces
B es una base pues tiene el mismo nmero de elementos que la dimensin de V . En
resumen, B es una base ortogonal de V .
Teorema 4.32 Sean (V, K, +, ) un espacio vectorial, , un producto interno sobre V y S V .
Si S = v
i
: i I
n
es ortogonal, entonces el conjunto
S

=
i
v
i
: i I
n

es ortogonal, donde
i
,= 0 para todo i I
n
.
Demostracin. Sean i I
n
y j I
n
tales i ,= j. Vamos a probar que
i
v
i
y
j
v
j
son
ortogonales:

i
v
i
,
j
v
j
=
i

j
v
i
, v
j

=
i

j
0 = 0,
pues S es un conjunto ortogonal.
Denicin 4.17 (Conjunto ortogonal) Sean (V, K, +, ) un espacio vectorial, , un producto
interno sobre V y S V . El conjunto S es ortonormal si es ortogonal y la norma de cada uno de
sus elementos es igual a 1. En particular, una base es ortonormal si es un conjunto ortonormal.
Corolario 4.33 Todo espacio vectorial de dimensin nita mayor que o igual a dos sobre el cual
se ha denido un producto interno tiene una base ortonormal.
Demostracin. Sea B

una base ortogonal para el espacio vectorial, que existe por el


teorema 4.31. Denamos entonces B de la siguiente manera:
B =
_
1
|v|
v : v B

_
.
Entonces B es ortogonal, ya que B

lo es (teorema 4.32). Adems, cada elemento de B


tiene norma igual a 1. En efecto:
_
_
_
_
1
|v|
v
_
_
_
_
=
1
|v|
|v| =
|v|
|v|
= 1.
Finalmente, B es linealmente independiente, ya que es ortogonal (teorema 4.29).
Por lo tanto, B es una base ortonormal de V .
146 Espacios vectoriales
Corolario 4.34 Si B = v
i
: i I
n
es una base ortogonal de un espacio vectorial V , entonces
cada elemento u de V se escribe en la forma
u =
n

i=1
u, v
i

|v
i
|
2
v
i
.
Demostracin. Dado que B es una base de V , cada u de V es combinacin lineal nica
de elementos de B. Esto signica que existen n escalares nicos
i
con i I
n
tales que
u =
n

i=1

i
v
i
.
Sea j I
n
. Entonces:
u, v
j
=
_
n

i=1

i
v
i
, v
j
_
=
n

i=1

i
v
i
, v
j

=
n

i=1

i
v
i
, v
j

=
j
v
j
, v
j
,
pues B es un conjunto ortogonal, por lo que v
i
, v
j
= 0 para todo i ,= j. Por lo tanto:
u, v
j
=
j
v
j
, v
j
=
j
|v
j
|
2
.
para cada j I
n
.
Ahora bien, como B es una base, ningn v
j
puede ser igual a 0
v
. Por lo tanto,
tenemos que |v
j
| , = 0. Entonces, tenemos que las coordenadas de u respecto de B
estn dadas por:

j
=
u, v
j

|v
j
|
2
para cada j I
n
, lo que implica que:
u =
n

i=1
u, v
i

|v
i
|
2
v
i
.
Ejemplo 4.66
Sea
W =
__
a b
c d
_
: a +d = b +c
_
un subespacio vectorial de (M
22
, R, +, ) dotado con el producto interno usual.
Encontrar una base ortonormal de W.
4.13 Ortogonalidad 147
Solucin. En primer lugar, vamos a encontrar una base para W. A continuacin, utilizaremos
el proceso de Gram-Schmidt para obtener, a partir de dicha base, una ortonormal.
1. Puesto que:
W =
__
a b
c d
_
: a = b +c d
_
=
__
b +c d b
c d
_
: b R, c R, d R
_
=
__
b b
0 0
_
+
_
c 0
c 0
_
+
_
d 0
0 d
_
: b R, c R, d R
_
=
_
b
_
1 1
0 0
_
+c
_
1 0
1 0
_
+d
_
1 0
0 1
_
: b R, c R, d R
_
,
el conjunto
B
1
=
__
1 1
0 0
_
,
_
1 0
1 0
_
,
_
1 0
0 1
__
genera el subespacio W. Es fcil probar que B
1
es linealmente independiente, por lo que
se deja esta tarea al lector. Por lo tanto B
1
es una base de W.
2. Ahora apliquemos el proceso de Gram-Schmidt (teorema 4.30) para obtener, a partir de
B
1
, una base ortonormal para W.
Nombremos con v
1
, v
2
y v
3
los elementos de B
1
(en el orden de izquierda a derecha en
el que estn escritos arriba). Sea B
2
= w
1
, w
2
, w
3
la base ortogonal producida por el
mtodo de Gram-Schmidt. Entonces:
w
1
= v
1
=
_
1 1
0 0
_
.
El elemento w
2
se dene as:
w
2
= v
2

v
2
, w
1

w
1
, w
1

w
1
.
Ahora bien, tenemos que:
(a) v
2
, w
1
= tr(w
2
w
t
1
) = tr
_
_
1 0
1 0
__
1 1
0 0
_
t
_
= tr
__
1 0
1 0
__
1 0
1 0
__
=
_
1 0
1 0
_
= 1.
(b) w
1
, w
1
= tr(w
1
w
t
1
) = tr
_
_
1 1
0 0
__
1 1
0 0
_
t
_
= tr
__
1 1
0 0
__
1 0
1 0
__
=
_
2 0
0 0
_
= 2.
Entonces:
w
2
=
_
1 0
1 0
_

1
2
_
1 1
0 0
_
=
_
1
2

1
2
1 0
_
.
Por ltimo, el elemento w
3
se dene de la siguiente manera:
w
3
= v
3

v
3
, w
1

w
1
, w
1

w
1

v
3
, w
2

w
2
, w
2

w
2
.
Para encontrarlo, realicemos los siguientes clculos:
(a) v
3
, w
1
= tr(v
3
w
t
1
) = tr
__
1 0
0 1
__
1 0
1 0
__
= tr
_
1 0
1 0
_
= 1.
148 Espacios vectoriales
(b) v
3
, w
2
= tr(v
3
w
t
2
) = tr
__
1 0
0 1
__
1
2
1

1
2
0
__
= tr
_

1
2
1

1
2
0
_
=
1
2
.
(c) w
2
, w
2
= tr(v
2
w
t
2
) = tr
__
1
2

1
2
1 0
__
1
2
1

1
2
0
__
= tr
_
1
2
1
2
1
2
1
_
=
3
2
.
Por lo tanto:
w
3
=
_
1 0
0 1
_
+
1
2
_
1 1
0 0
_
+
1
3
_
1
2

1
2
1 0
_
=
_

1
3
1
3
1
3
1
_
.
Ya tenemos, entonces, una base ortogonal de W: el conjunto B
2
= w
1
, w
2
, w
3
.
3. Nos falta nicamente obtener la base ortonormal. Eso lo hacemos a partir de B
2
al multi-
plicar a cada vector de B
2
por el recproco de su norma. Sean e
i
tales que:
e
i
=
1
|w
i
|
w
i
.
Ya conocemos las normas de w
1
y w
2
. Calculemos la de w
3
:
w
3
, w
3
= tr
_
_

1
3
1
3
1
3
1
__

1
3
1
3
1
3
1
_
t
_
= tr
__

1
3
1
3
1
3
1
__

1
3
1
3
1
3
1
__
= tr
_
2
9
2
9
2
9
10
9
_
=
4
3
.
Entonces, B = e
1
, e
2
, e
3
es la base ortonormal de W:
B =
_

2
_
1 1
0 0
_
,
_
2
3
_
1
2

1
2
1 0
_
,

3
2
_

1
3
1
3
1
3
1
_
_

Denicin 4.18 (El ortogonal de un conjunto) Sean (V, K, +, ) un espacio vectorial, , un


producto interno sobre V y W un subespacio vectorial de V . El ortogonal de W, representado
con W

, se dene por:
W

= u V : (w W)(u, w = 0).
Es decir, el ortogonal del subespacio vectorial W est constituido por todos los vectores de V
que son ortogonales a cada uno de los elementos de W.
Es sencillo probar que el ortogonal de un subespacio vectorial tambin es un subes-
pacio vectorial. As que esta demostracin se deja como ejercicio para el lector. En el
siguiente teorema, se enuncia esta propiedad y, adems, se enuncia una caracterizacin
del ortogonal de un subespacio: para saber si un vector es elemento del ortogonal, basta
comprobar que ese elemento es ortogonal a cada uno de los elementos de la base del
subespacio vectorial.
Precisemos estas ideas en el siguiente teorema.
Teorema 4.35 Sean (V, K, +, ) un espacio vectorial, , un producto interno sobre V y W un
subespacio vectorial de V . Entonces:
1. W

es un subespacio vectorial de W.
4.13 Ortogonalidad 149
2. Si B es una base de W, entonces:
W

= u W : (w B)(u, w = 0).
Demostracin. Demostraremos nicamente el segundo punto. Es claro que
W

u W : (w B)(u, w = 0).
Por lo tanto, para establecer la igualdad, supongamos que u es tal que
u, w = 0
para todo w B = v
1
, v
2
, . . . , v
n
, una base de W, y probemos que u W
t
.
Sea v W. Existen, entonces, n escalares
i
con i I
n
tales que
v =
n

i=1

i
v
i
.
Por lo tanto:
u, v =
_
u,
n

i=1

i
v
i
_
=
n

i=1

i
u, v
i
= 0,
pues u, v
i
= 0 para todo i I
n
, ya que v
i
B. Por lo tanto, v W
t
, con lo que
queda el teorema demostrado.
Teorema 4.36 Sean (V, K, +, ) un espacio vectorial de dimensin nita, , un producto in-
terno sobre V y W un subespacio vectorial de V . Entonces V = W W

.
Demostracin. En primer lugar, vamos a demostrar que V = W + W

y luego que
W W

= 0
v
.
1. Como V es de dimensin nita, W tambin lo es. Sea B = e
i
: i I
n
una base
ortonormal de V (teorema 4.31 y proceso de Gram-Schmidt).
Dado v V , vamos a construir un w W y un elemento w

tal que v = w+w

.
Est claro que, si encontrramos, por ejemplo w W

, entonces w

se denira por
w

= v w.
El w W que buscamos, debe ser de la forma
w =
n

i=1

i
e
i
, (4.32)
ya que B es una base de W. Por lo tanto, todo el trabajo que vamos a realizar a
continuacin est dirigido a saber cmo son esos
i
.
En primer lugar, v w debe ser un elemento de W

. Esto signica que


v w, u = 0
150 Espacios vectoriales
para todo u W.
En particular, esta igualdad debe ser verdadera para cada elemento de B:
v w, e
j
= 0 (4.33)
para todo j I
n
.
Entonces, a partir de las igualdades (4.32) y 4.33, tenemos las siguientes equivalen-
cias:
v w, e
j
= 0
_
v
n

i=1

i
e
i
, e
j
_
= 0
v, e
j

_
n

i=1

i
e
i
, e
j
_
= 0
v, e
j
=
_
n

i=1

i
e
i
, e
j
_
v, e
j
=
n

i=1

i
e
i
, e
j

v, e
j
=
j
e
j
, e
j
=
j
.
La penltima igualdad en la ltima equivalencia se verica porque e
i
, e
j
= 0 si
i ,= j, ya que B es ortogonal. Y la ltima igualdad es verdadera ya que la base es
ortonormal, por lo que la norma de cada vector e
j
es igual a 1.
En resumen, tenemos que
v w, e
j
= 0
j
= v, e
j
.
Por lo tanto, si denimos w como
w =
n

j=1
v, e
j
e
j
,
entonces v w es ortogonal a cada elemento de la base B, por lo que, por el
teorema 4.35, tenemos que v w es ortogonal a todo elemento de W. Esto signica
que v w W

. Sea, entonces, w

= v w. Entonces w

y, por lo tanto,
v = w +w

con w W y w

. En otras palabras, tenemos que V = W +W

.
2. Probemos ahora que WW

= 0
v
. Para ello, sea u WW

. Entonces u W

.
Por lo tanto:
u, v = 0
para todo v W. En particular, para v = u, ya que u W. As, tenemos que:
u, u = 0.
Pero esto implica que u = 0
v
. Es decir, W W

= 0
v
.
4.13 Ortogonalidad 151
Ejemplo 4.67
Sea
W = p P
2
[x] : (x R)[p(x) = p(x + 1)].
Entonces W es un subespacio vectorial de (P
2
[x], R, +, ). La funcin , : P
2
[x]
P
2
[x] R denida por
p, q =
_
1
0
p(x)q(x)dx
es un producto interno sobre P
2
[x].
1. Obtener una base para W.
2. Encontrar W

.
3. Ilustrar que P
2
[x] = W W

.
Solucin.
1.
W = a +bx +cx
2
P
2
[x] : a +bx +cx
2
= a +b(x + 1)
2
+c(x + 1)
2

= a +bx +cx
2
P
2
[x] : a +bx +cx
2
= (a +b +c) + (b + 2c)x +cx
2

= a +bx +cx
2
P
2
[x] : a = a +b +c, b = b + 2c, c = c
= a +bx +cx
2
P
2
[x] : b +c = 0, 2c = 0
= a +bx +cx
2
P
2
[x] : a R, b = 0, c = 0
= a P
2
[x] : a R.
Por lo tanto, el conjunto B = p donde p(x) = 1 para todo x R genera el subespacio
W. Es, adems, base de W porque es linealmente independiente (tiene un solo elemento
diferente del vector nulo).
2. Por el teorema 4.35, tenemos que
W

= q P
2
[x] : q, p = 0,
donde p(x) = 1 para todo x R. Entonces, si q W

, tenemos que:
q, p =
_
1
0
(a +bx +cx
2
)(1)dx = 0,
donde q(x) = a +bx +cx
2
. Esto signica que:
a +
1
2
b +
1
3
c = 0.
En resumen:
W

= a +bx +cx
2
P
2
[x] : 6a + 3b + 2c = 0.
3. En primer lugar, si p W W

tal que p(x) = a +bx +cx


2
, tenemos que:
6a + 3b + 2c = 0, b = 0, c = 0.
Entonces a = 0. Es decir, p = 0
v
. Por lo tanto, W W

= 0
v
.
152 Espacios vectoriales
Por otro lado, como W

puede expresarse de la siguiente manera:


W

=
_
a +bx +cx
2
P
2
[x] : a =
b
2

c
3
_
=
_

b
2

c
3
+bx +cx
2
P
2
[x] : b R, c R
_
=
_
b
_

1
2
+x
_
+c
_

1
3
+x
2
_
P
2
[x] : b R, c R
_
,
tenemos que el conjunto
_

1
2
+x,
1
3
+x
2
_
genera W

.
Adems, es sencillo probar que este conjunto es linealmente independiente, por lo que
tambin es una base de W

. As que dim(W

) = 2. Sabemos que dim(W) = 1, de donde:


dim(W +W

) = dim(W) + dim(W

) dim(W W

) = 1 + 2 0 = 3,
lo que prueba que W W

= P
2
[x].

Denicin 4.19 (Base ordenada) Sean (V, K, +, ) un espacio vectorial y B una base de V . Se
dice que B es ordenada si sus elementos son considerados como una sucesin.
Al decir que los elementos de B son considerados como una sucesin, estamos
suponiendo que existe una funcin f : I
n
V , donde n es el nmero de elementos
de B, tal que a cada j I
n
, f(n) es un elemento de B. El orden que hay entre los
elementos de I
n
es el que impone el orden en B. As, el 1 es el primer elemento de
I
n
, entonces, v
1
= f(1) ser el primer elemento de la base; v
2
= f(2) ser el segundo
elemento de la base, pues 2 es el segundo elemento de I
n
, etctera.
La siguiente denicin impone la nocin de orden a las coordenadas de un vec-
tor respecto de una base. As, podemos hablar de la primera coordenada, la segunda
coordenada, etctera, de un vector respecto de una base ordenada. Precisemos esta
idea.
Denicin 4.20 (Coordenadas de un vector respecto de una base) Sean (V, K, +, ) un espacio
vectorial de dimensin n y B = v
i
: i I
n
una base ordenada de V . Para cada v V , el
elemento (
1
,
2
, ,
n
) en K
n
tal que
v =
n

i=1

i
v
i
se denomina coordenadas de v respecto de B. El escalar
j
es la jsima coordenada de v.
Dado el vector v, sus coordenadas respecto a la base ordenada B, se representa por
[v]
B
. Es decir, [v]
B
K
n
.
4.13 Ortogonalidad 153
Es comn representar tambin las coordenadas de un vector v como una matriz de
una sola columna. En efecto, si (
1
,
2
, ,
n
) son las coordenadas de v respecto de
una base B, entonces las coordenadas tambin se representan por:
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
.
Ejemplo 4.68
Sea
B =
__
1 0
0 1
_
,
_
0 1
1 0
_
,
_
0 0
1 1
_
,
_
1 1
0 0
__
una base ordenada del espacio vectorial (M
22
, R, +, ). Encontrar las coordenadas
del vector
v =
_
1 2
1 2
_
respecto de B.
Solucin. Debemos encontrar el vector (, , , ) R
4
tal que
_
1 2
1 2
_
=
_
1 0
0 1
_
+
_
0 1
1 0
_
+
_
0 0
1 1
_
+
_
1 1
0 0
_
.
Entonces, los escalares , , y satisfacen el siguiente sistema de ecuaciones lineales:
= 1
+ = 2
=1
+ = 2.
(4.34)
Resolvamos este sistema:
_
_
_
_
1 0 0 1 1
0 1 0 1 2
0 1 1 0 1
1 0 1 0 2
_
_
_
_

_
_
_
_
1 0 0 1 1
0 1 0 1 2
0 0 1 1 1
0 0 1 1 1
_
_
_
_

_
_
_
_
1 0 0 1 1
0 1 0 1 2
0 0 1 1 1
0 0 0 2 2
_
_
_
_

_
_
_
_
1 0 0 0 2
0 1 0 0 1
0 0 1 0 0
0 0 0 1 1
_
_
_
_
.
Por lo tanto:
= 2, = 1, = 0, = 1.
Entonces, las coordenadas del v es el vector de R
4
: (2, 1, 0, 1).
Denicin 4.21 (ngulo entre dos vectores) Sean (V, K, +, ) un espacio vectorial, u V y
v V . El ngulo formado entre u y v es el nmero tal que 0 y
cos =
u, v
|u| |v|
.
154 Espacios vectoriales
Ejemplo 4.69 Sean p(x) = x + x
2
y q(x) = 1 + x elementos de P
2
[x]. Entonces, el
ngulo formado entre u y v cumple la siguiente igualdad:
cos =

x +x
2
, 1 +x
_
|x +x
2
| |1 +x|
==
(0)(1) + (1)(1) + (1)(0)

0
2
+ 1
2
+ 1
2
_
(1)
2
+ 1
2
+ 0
2
=
1

2
=
1
2
.
Por lo tanto, =

3
(es decir, 30

).
Denicin 4.22 (Proyeccin ortogonal) Sean (V, K, +, ) un espacio vectorial, u V y v V .
La proyeccin ortogonal de u respecto a v es el vector v donde
=
u, v
|v|
2
.
La proyeccin v es representado por Proy
v
(u).
Ntese que el vector u v es ortogonal a v, pues
u v, v = u, v v, v = u, v
u, v
v, v
v, v = u, v u, v = 0.
Esta situacin se ilustra en el siguiente dibujo:

u

u

w = Proy
v
(u)
=
u, v
|v|
2

v
Ejemplo 4.70 En el espacio (R
3
, R, +, ), el vector u = (1, 0, 1) tiene como proyeccin
respecto de v = (1, 1, 2) al vector:
v =
u, v
|v|
2
v =
1 + 2
1 + 1 + 4
(1, 1, 2) =
_

1
6
,
1
6
,
1
3
_
.

Aplicaciones lineales
por Jos Luis Toro
Edicin y revisin: Juan Carlos Trujillo
Aplicaciones
lineales 5
El objetivo general de este captulo es:
Resolver problemas sobre transformaciones lineales, denidas sobre un es-
pacio vectorial de dimensin nita, utilizando la matriz asociada respecto
de cualquier base, a un nivel reproductivo.
Para alcanzar el objetivo general, se proponen los siguientes objetivos especcos:
1. Identicar una aplicacin lineal a partir de su denicin y familiarizarse con sus
propiedades.
2. Calcular bases para el ncleo y la imagen de una aplicacin lineal usando la denicin
y las propiedades a un nivel reproductivo.
3. Resolver problemas de biyectividad a partir de las deniciones y propiedades de una
aplicacin lineal a un nivel reproductivo.
4. Resolver problemas con las operaciones entre las aplicaciones lineales y la inversa
de una aplicacin lineal usando las deniciones y sus propiedades a un nivel repro-
ductivo.
5. Calcular la matriz asociada a una aplicacin lineal respecto de dos bases, una del
dominio y otra del espacio de llegada, respectivamente, donde las dimensiones de
ambos espacios no sea mayor que 4, y utilizando los elementos esenciales que los
tipican a un nivel reproductivo.
6. Resolver problemas sobre las matrices asociadas a una aplicacin lineal mediante
las propiedades que la tipican a un nivel reproductivo.
158 Aplicaciones lineales
5.1 Introduccin
Las funciones continuas son aquellas que conservan ciertas propiedades topolgicas de
los nmeros reales. En los espacios vectoriales interesa, en cambio, conservar las estruc-
turas algebraicas (operaciones como la suma y el producto por un escalar); es decir, se
trata de que la aplicacin sea tal que conserve las dos operaciones fundamentales que
denen la estructura de espacio vectorial.
En el conjunto de todas las funciones, las lineales son las ms importantes. Una
buena parte de las Matemticas est dedicada a resolver interrogantes relacionadas con
las aplicaciones lineales. Por otra parte, stas son de inters en s mismas, y muchas
aplicaciones importantes son lineales. Adicionalmente, es posible, a menudo, aproximar
una aplicacin arbitraria mediante una aplicacin lineal, cuyo estudio es mucho ms
sencillo que el de la aplicacin original.
Denicin 5.1 (Aplicacin lineal) Sean (V, K, +, ) y (W, K, , ) dos espacios vectoriales (am-
bos estn denidos sobre el mismo campo ). Una funcin de V en W, f : V W, es una
aplicacin lineal si y solo si para todo K, u V y v V se verica que:
1. Conservacin de +: f(u +v) = f(u) f(v).
2. Conservacin de : f( u) = f(u).
Obsrvese que una aplicacin es lineal cuando conserva las dos operaciones del
espacio vectorial de salida.
En efecto, si u y v estn en V , y f(u) y f(v) son sus imgenes en W bajo f,
entonces, la primera condicin de la denicin asegura que la imagen de la suma de
u + v tiene que ser, necesariamente, la suma de las imgenes de u y de v.
Lo mismo sucede con el producto por un escalar: si K, la segunda condicin
arma que la imagen de u bajo f debe ser el producto de por la imagen de u bajo
f. ste es el signicado de conservacin de las dos operaciones.
Es fcil demostrar el siguiente teorema, por lo que se deja al lector su prueba, que
permite simplicar la demostracin de que una aplicacin es lineal:
Teorema 5.1 Sean (V, K, +, ) y (W, K, , ) dos espacios vectoriales sobre el mismo campo
K. Una funcin f : V W es lineal si y solo si
f( u +v) = f(u) f(v)
para todo u V , v V y K.
Vamos a representar con L(V, W) al conjunto de todas las aplicaciones lineales de
V en W. Es decir:
L(V, W) = f : V W : f es lineal.
Un nombre alternativo para las aplicaciones lineales es el de transformaciones
lineales. En este texto, utilizaremos preferentemente el primero. En la denicin de
aplicacin lineal, cuando los espacios V = W, se suele utilizar el nombre operador
lineal sobre V en lugar de aplicacin lineal; y, cuando W = K, el nombre que se
utiliza es forma lineal sobre V .
5.1 Introduccin 159
De aqu en adelante, no diferenciaremos las operaciones de V y de W, pues, en el
contexto, siempre se podr distinguir si el uso de + se reere a la operacin en V o
en W. Tambin omitiremos la mayora de las veces el smbolo para el producto por un
escalar; as, escribiremos solamente u en lugar de u.
Los dos teoremas siguientes conrman el hecho de que una aplicacin lineal conserva
la estructura de espacio vectorial del espacio de salida. En efecto, el primer teorema
muestra que una aplicacin lineal hace corresponder el vector nulo del espacio de salida
con el vector nulo del espacio de llegada.
Teorema 5.2 Para toda f L(V, W), se verica que f(0
V
) = 0
W
.
Demostracin. Dado que 0
V
= 0 v para todo v V , entonces, ya que f es una
aplicacin lineal, tenemos que:
f(0
V
) = f(0 v) = 0f(v) = 0
W
.
Si no hay lugar a confusin, utilizaremos 0 para indicar tanto el elemento neutro
de K como el vector nulo de cualquier espacio vectorial.
El siguiente teorema muestra que el inverso aditivo se conserva; es decir, el inverso
aditivo de la imagen de un vector es la imagen del inverso aditivo del vector.
Teorema 5.3 Para todo v V y toda f L(V, W), se verica que f(v) = f(v).
Demostracin. f(-v) = f((-1)v) = (-1)f(v) = -f(v).
De este teorema, es inmediato que si f es lineal, entonces f(u v) = f(u) f(v).
5.1.1 Ejemplos
1. Aplicacin lineal nula: es la funcin O
f
: V W denida por
O
f
(v) = 0
para todo v V . Es fcil ver que esta aplicacin es lineal.
2. Aplicacin lineal identidad: es la funcin I : V V denida por
I(v) = v
para todo v V . Es fcil constatar que esta aplicacin es lineal.
3. Reexin con respecto al eje horizontal x: es la funcin : R
2
R
2
denida
por
1
(x, y) = (x, y).
Probemos que es una aplicacin lineal.
1
Escribiremos f(x, y) en lugar de f((x, y)) siempre que no haya lugar a confusin.
160 Aplicaciones lineales
Demostracin. Sean u = (x
1
, x
2
) y v = (y
1
, y
2
) elementos de R
2
y R. Entonces:
(u + v) = ((x
1
, x
2
) + (y
1
, y
2
)) denicin de u y v,
= (x
1
+ y
1
, x
2
+ y
2
) suma en R
2
,
= (x
1
+ y
1
, (x
2
+ y
2
)) denicin de ,
= (x
1
, x
2
) + (y
1
, y
2
) suma en R
2
,
= (x
1
, x
2
) + (y
1
, y
2
) producto por un escalar en R
2
,
= (x
1
, x
2
) + (y
1
, y
2
) denicin de ,
= (u) + (v) denicin de u y de v.
4. La funcin f : R R denida por f(x) = x
2
no es una aplicacin lineal.
Demostracin. Sean x R y y R. Por un lado, tenemos que
f(x + y) = (x + y)
2
= x
2
+ 2xy + y
2
.
Por otro lado, se cumple que
f(x) + f(y) = x
2
+ y
2
.
Entonces, f(x + y) = f(x) + f(y) si y solo si 0 = 2xy; es decir, si y solo si x = 0 o
y = 0. Por lo tanto, si x ,= 0 y y ,= 0, se tiene que
f(x + y) ,= f(x) + f(y).
Esto signica que f no es una aplicacin lineal.
5. Es la funcin g : C C, denida por g(z) = z, una aplicacin lineal si se considera
C un espacio vectorial sobre C? En el caso de que C sea un espacio vectorial sobre
R?
Desarrollo.
(a) Si C se considera como un espacio sobre C, g no es lineal, pues, por un lado se
tiene que:
g((1 + )) = g( 1) = 1 ,
pero por el otro lado, que:
g(1 + ) = 1 ;
es decir:
g((1 + )) ,= g(1 + ).
Por lo tanto g no es lineal.
5.1 Introduccin 161
(b) Si C es el espacio vectorial sobre R, tenemos que para cualquier escalar , se
cumple que:
g(u + v) = u + v
= u + v
= u + v
= u + ve,
= g(u) + g(v),
ya que = (ya que es un nmero real). Por lo tanto, g s es una aplicacin
lineal.
6. Sea W un subespacio vectorial de un espacio vectorial V provisto de un producto
interno. Dado v V , existe un nico vector proyeccin de v sobre W dado por:
w = v
v, n
|n|
n
n,
donde n es un vector ortogonal a W. En el siguiente dibujo se ilustra la relacin
entre v, w y n:
W
v
w
n
v, n
|n|
2
n
La aplicacin p: V W denida por
p(v) = v
v, n
|n|
n
n,
es una aplicacin lineal, lo que es sencillo probar pues el producto interno es lineal
respecto a la primera componente.
7. Sea f : R
3
R
2
denida por
f(x, y, z) = (x z, y + z).
Entonces f es una aplicacin lineal.
Demostracin. Sean u = (x
1
, x
2
, x
3
) y v = (y
1
, y
2
, y
3
) elementos de R
3
y R.
Entonces:
f(u + v) = f((x
1
, x
2
, x
3
) + (y
1
, y
2
, y
3
))
162 Aplicaciones lineales
= f(x
1
+ y
1
, x
2
+ y
2
, x
3
+ y
3
)
= (x
1
+ y
1
(x
3
+ y
3
), (x
2
+ y
2
) + (x
3
+ y
3
))
= ((x
1
x
3
) + (y
1
y
3
), (x
2
+ x
3
) + (y
2
+ y
3
))
= ((x
1
x
3
), (x
2
+ x
3
)) + (y
1
y
3
, y
2
+ y
3
)
= (x
1
x
3
, x
2
+ x
3
) + (y
1
y
3
, y
2
+ y
3
)
= f(x
1
, x
2
, x
3
) + f(y
1
, y
2
, y
3
).
Por lo tanto, la funcin f es una aplicacin lineal.
5.2 Isomorsmo entre espacios vectoriales
Denicin 5.2 (Isomorsmo) Una aplicacin f : V W es un isomorsmo entre V y W si y
solo si f es lineal y biyectiva. Dos espacios vectoriales V y W son isomorfos si y solo si existe
un isomorsmo de V sobre W. Se utilizar la notacin V

= W para indicar que V y W son
isomorfos.
Ejemplo 5.71
Sea f : P
n
[x] R
n+1
denida por
f(p) = (a
0
, a
1
, . . . , a
n
)
para todo p P
n
[x] tal que
p(x) =
n

j=1
a
j
x
j
.
Es f un isomorsmo entre P
n
[x] y R
n+1
?
Solucin.
1. Veamos si f es una aplicacin lineal. Para ello, sean R, p y q en P
n
[x], donde
p(x) =
n

j=1
a
j
x
j
y q(x) =
n

j=1
b
j
x
j
.
Entonces:
(p +q)(x) = p(x) +q(x) =
n

j=1
(a
j
+b
j
)x
j
.
Por lo tanto:
f(p +q) = (a
0
+b
0
, a
1
+b
1
, . . . , a
n
+b
n
)
= (a
0
, a
1
, . . . , a
n
) + (b
0
, b
1
, . . . , b
n
)
= (a
0
, a
1
, . . . , a
n
) + (b
0
, b
1
, . . . , b
n
)
= f(p) +f(q).
Es decir, f es una aplicacin lineal.
5.2 Isomorsmo entre espacios vectoriales 163
2. Veamos ahora si f es inyectiva. Para ello, supongamos que f(p) = f(q), donde
p(x) =
n

j=1
a
j
x
j
y q(x) =
n

j=1
b
j
x
j
.
Entonces
(a
0
, a
1
, . . . , a
n
) = (b
0
, b
1
, . . . , b
n
),
de donde, por la igualdad en R
n+1
, tenemos que a
j
= b
j
para todo j 0, 1, . . . , n. Por
lo tanto p = q. Es decir, f es inyectiva.
3. Finalmente, veamos si f es sobreyectiva. Para ello, sea v = (a
0
, a
1
, . . . , a
n
) R
n+1
. Vamos
a averiguar si existe p P
n
[x] tal que f(p) = v.
Si se dene
p(x) =
n

j=1
a
j
x
j
para todo x R, entonces es inmediato que f(p) = v. Es decir, f es sobreyectiva.
Tenemos, entonces, que la aplicacin f es lineal y sobreyectiva. Por lo tanto, es un isomorsmo
entre P
n
[x] y R
n+1
.
Teorema 5.4 El conjunto L(V, W) es un subespacio vectorial del espacio de todas las funciones
de V en W con las operaciones usuales. Es decir:
1. si f L(V, W) y g L(V, W), entonces f +g L(V, W); y
2. si f L(V, W) y K, entonces f L(V, W).
En otras palabras, la suma de aplicaciones lineales es una aplicacin lineal, y el producto de un
escalar y una aplicacin lineal es una aplicacin lineal.
Demostracin. Sean K, f L(V, W) y g L(V, W). Entonces, para todo u V
y todo v V :
(f + g)(u + v) = f(u + v) + g(u + v) denicin de suma de fun-
ciones,
= [f(u) + f(v)] + [g(u) + g(v)] f y g son aplicaciones li-
neales,
= [f(u) + g(u)] + [f(v) + g(v)] asociativa, conmutativa y
distributiva en W,
= (f + g)(u) + (f + g)(v) denicin de suma de fun-
ciones.
Por lo tanto, f + g L(V, W).
164 Aplicaciones lineales
Ahora probemos que f L(V, W) si K. Sean K, u V y v V .
Entonces:
(f)(u + v) = f(u + v) denicin del producto de un
escalar y una funcin,
= [f(u) + f(v)] f es una aplicacin lineal,
= f(u) + f(v) distributiva en W y conmuta-
tiva en K,
= (f)(u) + (f)(v) denicin del producto de un
escalar y una funcin.
Por lo tanto, f es una aplicacin lineal de V en W.
La composicin de dos aplicaciones lineales tambin es una aplicacin lineal, como
lo probamos a continuacin.
Teorema 5.5 Sean f L(V, W) y g L(W, U). Entonces g f L(V, U).
Demostracin. Sean K, u V y v V . Entonces:
(g f)(u + v) = g(f(u + v)) denicin de composicin de
funciones,
= g(f(u) + f(v)) f es lineal,
= g(f(u)) + g(f(v)) g es lineal,
= (g f)(u) + (g f)(v) denicin de composicin de
funciones.
Por lo tanto g f L(V, U).
Otra operacin que preserva la linealidad es la inversin de funciones.
Teorema 5.6 Sea f L(V, W) y biyectiva. Entonces f
1
L(W, V ).
Demostracin. Sean K, u W y v W. Vamos a probar que
f
1
(u + v) = f
1
(u) + f
1
(v).
Para ello, sea w = f
1
(u+v). Entonces, por la denicin de inversa, tenemos que
f(w) = u + v.
Ahora bien, como f es sobreyectiva, existen nicos u V y v V tales que
u = f( u) y v = f( v).
5.2 Isomorsmo entre espacios vectoriales 165
Por lo tanto,
f(w) = f( u) + f( v),
de donde, como f es lineal, tenemos lo siguiente:
f(w) = f( u + v).
Y, como f es inyectiva, entonces:
w = u + v,
que, como u = f
1
(u) y v = f
1
(v), equivale a:
f
1
(u + v) = f
1
(u) + f
1
(v).
Es decir, f
1
es una aplicacin lineal.
Ejemplo 5.72
Sean f : V U y g: U W tales que g f es lineal y g es lineal e inyectiva.
Probemos que f es lineal.
Solucin. Sean K, u V y w V . Vamos a probar que
f(u +v) = f(u) +f(v).
Como g f es lineal, tenemos que
(g f)(u +v) = (g f)(u) + (g f)(v).
De la denicin de compuesta, esta igualdad se escribe as:
(g f)(u +v) = g(f(u)) +g(f(v)).
Como g es lineal, tenemos que:
g(f(u +v)) = g(f(u) +f(v)).
Y, esta igualdad, junto con la inyectividad de g, implica que
f(u +v) = f(u) +f(v).
Es decir, f es lineal.
El siguiente ejemplo es similar al anterior, salvo que se elimina la hiptesis de que
g sea inyectiva. Se mantiene la conclusin de que f es lineal?
Ejemplo 5.73
Sean f : V U y g: U W tales que g f es lineal y g es lineal. Es f es lineal?
166 Aplicaciones lineales
Solucin. La condicin de inyectividad para g es inevitable para que f sea lineal. En efecto,
si f : R
2
R
2
denida por
f(x, y) = (x
2
, y),
entonces f no es lineal, como el lector puede vericar fcilmente.
Por otro lado, sea g la aplicacin lineal de R
2
en s mismo denida por
g(x, y) = (0, y).
Esta funcin es lineal pero no inyectiva. Lo primero es de demostracin sencilla. Lo segundo
se obtiene al observar que
g(1, 1) = (0, 1) = g(1, 1),
pero (1, 1) ,= (1, 1).
Finalmente, es fcil probar tambin que g f es lineal.
Teorema 5.7 Una aplicacin lineal de un espacio lineal de dimensin nita queda completamente
determinada por lo valores que tome en la base. De manera ms precisa, sean V es un espacio
de dimensin nita n y W un espacio vectorial, ambos sobre un campo K, B = e
i
una base
de V y f L(V, W). Entonces, f queda determinada por los valores f(e
i
).
Demostracin. Sea v V . Como B es una base de V , existen escalares
i
tales que
v =
n

j=1

j
e
j
.
Entonces, como f es lineal, tenemos que
f(v) =
n

j=1

j
f(e
j
).
Es decir, el valor de f(v) para todo v V queda determinado por f(e
j
), a ms de los

j
propios de v.
En otras palabras, para denir una aplicacin lineal en un espacio de dimensin
nita, es suciente con denir la aplicacin para cada uno de los elementos de una base
del espacio.
Ejemplo 5.74
Sea f L(R
2
, R
3
) tal que
f(1, 1) = (1, 2, 1) y f(1, 1) = (2, 1, 3).
Determinar f.
5.2 Isomorsmo entre espacios vectoriales 167
Solucin. Dado que B = (1, 1), (1, 1) es una base de R
2
, podemos obtener f(x, y) para
todo (x, y) R
2
.
Para ello, encontremos, en primer lugar, las coordenadas de (x, y) respecto de B. Sean
R y R tales que
(x, y) = (1, 1) +(1, 1).
Entonces, y satisfacen el siguiente sistema de dos ecuaciones lineales:
+ = x
+ =y,
cuya nica solucin es fcil hallar:
=
x y
2
y =
x +y
2
.
Entonces:
f(x, y) = f((1, 1) +(1, 1))
= f(1, 1) +f(1, 1)
= (1, 2, 1) +(2, 1, 3)
= ( + 2, 2 , + 3).
Como:
+ 2 =
x y
2
+ 2
x +y
2
=
3x +y
2
2 = 2
x y
2

x +y
2
=
x 3y
2
+ 3 =
x y
2
+ 3
x +y
2
= x + 2y,
se tiene que
f(x, y) =
_
3x +y
2
,
x 3y
2
, 2 + 2y
_
.

Teorema 5.8 Sean V y W dos espacios vectoriales sobre un campo K, B = v


1
, v
2
, . . . , v
n

una base de V , y sean w


1
, w
2
, . . . , w
n
elementos distintos de W. Entonces, existe una sola
aplicacin f L(V, W) tal que f(v
i
) = w
i
para todo i con 1 i n.
Demostracin. Sea v V . Entonces, existe un nico conjunto de escalares
1
,
2
, . . . ,

n
tales que
v =
n

j=1

j
v
j
.
Denamos la aplicacin f de V en W de la siguiente manera:
f(v) =
n

j=1

j
w
j
.
Dada la unicidad de los
j
, f est bien denida.
Ahora probemos que f es lineal y que f(v
j
) = w
j
para cada j con 1 j n.
168 Aplicaciones lineales
1. Sean u V y v V . Entonces existe escalares
j
y
j
tales que:
u =
n

j=1

j
v
j
y v =
n

j=1

j
v
j
.
Entonces, tenemos que
f(u) =
n

j=1

j
w
j
y f(v) =
n

j=1

j
w
j
.
Para K tenemos que:
u + v =
n

j=1
(
j
+
j
)v
j
.
Por lo tanto:
f(u + v) = f
_
n

j=1
(
j
+
j
)v
j
_
=
n

j=1
(
j
+
j
)w
j
=
n

j=1

j
w
j
+
n

j=1

j
w
j
= f(u) + f(v).
Es decir, f es lineal.
2. Para cada i con 1 i n, se tiene que
v
i
=
n

j=1

i
j
v
j
,
donde

i
j
=
_
1 si j = i,
0 si j ,= i.
Por lo tanto:
f(v
i
) =
n

j=1

i
j
w
j
= w
i
.
Finalmente, el lector puede probar fcilmente que f es nica.
Ejemplo 5.75
Sea
W =
_
(x, y, z) R
3
: x y +z = 0
_
.
Denir una aplicacin lineal de R
2
en W.
5.2 Isomorsmo entre espacios vectoriales 169
Solucin. Consideremos la base cannica en R
2
y los vectores w
1
= (1, 1, 0) y w
2
= (0, 1, 1)
son elementos de W. Entonces, por teorema 5.8, existe un nica aplicacin lineal f de R
2
en
W tal que
f(1, 0) = w
1
y f(0, 1) = w
2
.
Ahora bien, dado (x, y) R
2
, tenemos que
f(x, y) = f(x(1, 0) +y(0, 1))
= xf(1, 0) +yf(0, 1)
= xw
1
+yw
2
= x(1, 1, 0) +y(0, 1, 1)
= (x, x +y, y).
En resumen, f es una aplicacin de R
2
en W denida por
f(x, y) = (x, x +y, y).

Teorema 5.9 Sean V y W dos espacios vectoriales de igual dimensin nita,


B
v
= v
1
, v
2
, . . . , v
n
y B
w
= w
1
, w
2
, . . . , w
n

bases para V y W respectivamente, y f L(V, W) tal que


f(v
i
) = w
i
para todo i con 1 i n. Entonces f es un isomorsmo.
Demostracin. Debemos probar que f es biyectiva.
1. Inyectividad: sean u V y v V tales que f(u) = f(v). Vamos a demostrar que
u = v.
Existen escalares
i
y
i
tales que
u =
n

j=1

j
v
j
y v =
n

j=1

j
v
j
.
Por lo tanto, de f(u) = f(v), obtenemos que
n

j=1

j
w
j
=
n

j=1

j
w
j
,
de donde:
n

j=1
(
j

j
)w
j
= 0.
Puesto que B
w
es linealmente independiente, entonces

j

j
= 0
para todo j tal que 1 j n.
Pero esto signica que
j
=
j
para todo j de donde u = v.
170 Aplicaciones lineales
2. Sobreyectividad: sea w W; debemos hallar v V tal que w = f(w).
Como B
w
es una base de W, existen escalares
j
tales que
w =
n

j=1

j
w
j
.
Dado que f(v
j
) = w
j
, el v que buscamos es
v =
n

j=1

j
v
j
.
En efecto, tenemos que
f(v) =
n

j=1

j
f(v
j
) =
n

j=1

j
w
j
= w.
Ejemplo 5.76
Sea f : R
3
R
3
denida por
f(x, y, z) = (x y +z, x +y +z, x +y z).
Probar que f es biyectiva.
Solucin. Es fcil probar que f es lineal. Ahora, apliquemos el teorema 5.9 para mostrar que
f es un isomorsmo, con lo cual probaremos que f es biyectiva.
Probemos, entonces, que f aplica la base cannica de R
3
en una base. De manera ms
precisa, probemos que el conjunto
B = f(1, 0, 0), f(0, 1, 0), f(0, 0, 1)
es linealmente independiente (con lo cual ya sabramos que es una base de R
3
).
El conjunto B es
B = (1, 1, 1), (1, 1, 1), (1, 1, 1).
Sean , y escalares tales que
(1, 1, 1) +(1, 1, 1) +(1, 1, 1) = 0.
Entonces estos escalares satisfacen el siguiente sistema de ecuaciones lineales:
+ = 0
+ + = 0
+ = 0.
Ahora bien, el determinante de este sistema es igual a:

1 1 1
1 1 1
1 1 1

1 1 1
0 2 0
1 1 1

= 2

1 1
1 1

= 4 ,= 0.
Por lo tanto, el sistema tiene una nica solucin y esa solucin es la trivial: = = = 0.
En resumen, f es un isomorsmo.
5.3 Ncleo de una aplicacin lineal 171
5.3 Ncleo de una aplicacin lineal
Denicin 5.3 (Ncleo) Sea f L(V, W). El ncleo de f, representado por A(f) es el con-
junto de todos los elementos v de V tales que f(v) = 0; es decir:
A(f) = v V : f(v) = 0.
En la caracterizacin de una aplicacin lineal, el ncleo, junto la imagen, juegan
un rol fundamental. Recordemos que la imagen de una funcin, en particular de una
aplicacin lineal f es el conjunto
Im(f) = w W : (v V )(f(v) = w).
Teorema 5.10 Sea f L(V, W). Entonces A(f) es un subespacio vectorial de V y Im(f) son
subespacio vectorial de W.
Demostracin.
1. En primer lugar, 0 A(f) pues f(0) = 0. Por otro lado, si K, u y v en A(f),
entonces:
f(u + v) = f(u) + f(v) = 0 + 0 = 0,
ya que f(u) = f(v) = 0. Por lo tanto u +v A(f). Hemos demostrado, entonces,
que A(f) es un subespacio vectorial de V .
2. Dado que f(0) = 0, se tiene que 0 Im(f). Adems, w
1
y w
2
en Im(f), entonces
existen v
1
y v
2
en V tales que
w
1
= f(v
1
) y w
2
= f(v
2
).
Ahora, si K, entonces
w
1
+ w
2
= f(v
1
) + f(v
2
) = f(v
1
+ v
2
).
Por lo tanto w
1
+w
2
Im(f), ya que v
1
+v
2
V . Esto prueba que Im(f) es un
subespacio vectorial de W.
Ejemplo 5.77
Sea f : R
3
R
3
denida por
f(x, y, z) = (x y +z, x +y +z, x 3y +z).
Encontrar la dimensin de A(f) y de Im(f).
Solucin.
172 Aplicaciones lineales
1. Para determinar la dimensin de A(f) caractericemos, en primer lugar, sus elementos; y
luego encontremos una base para l.
Dado que
A(f) = (x, y, z) : f(x, y, z) = 0 = (0, 0, 0)
= (x, y, z) : (x y +z, x +y +z, x 3y +z) = (0, 0, 0),
el ncleo de f es el conjunto solucin del sistema de tres ecuaciones con tres incgnitas
cuya matriz ampliada es la siguiente:
_
_
1 1 1 0
1 1 1 0
1 3 1 0
_
_
.
Ahora bien, tenemos que:
_
_
1 1 1 0
1 1 1 0
1 3 1 0
_
_

_
_
1 1 1 0
0 2 0 0
0 0 0 0
_
_

_
_
1 0 1 0
0 1 0 0
0 0 0 0
_
_
.
Por lo tanto:
A(f) = (x, y, z) : x +z = 0 y y = 0
= (x, 0, x) : x R.
Ahora, una base para A(f) la obtenemos as:
A(f) = (x, 0, x) : x R
= x(1, 0, 1) : x R
= (1, 0, 1) .
Y como el conjunto B = (1, 0, 1) es linealmente independiente (ya que tiene un so-
lo elemento diferente de 0), tenemos que B es una base para A(f), y, por lo tanto,
dim(A(f)) = 1.
2. Hagamos un procedimiento similar para obtener la dimensin de la imagen de f. Por un
lado, tenemos que:
Im(f) = (r, s, t) : ((x, y, z))(f(x, y, z) = (r, s, t))
= (r, s, t) : ((x, y, z))((x y +z, x +y +z, x 3y +z) = (r, s, t)).
Entonces, la imagen de f es el conjunto solucin del sistema de ecuaciones cuya matriz
ampliada es:
_
_
1 1 1 r
1 1 1 s
1 3 1 t
_
_
.
Con el mismo procedimiento realizado en el caso del ncleo, obtenemos que
_
_
1 1 1 r
1 1 1 s
1 3 1 t
_
_

_
_
1 0 1 r
0 2 0 s r
0 0 0 t 2r +s
_
_
.
5.3 Ncleo de una aplicacin lineal 173
Entonces:
Im(f) = (r, s, t) : t 2r +s = 0
= (r, s, 2r s) : r R, s R
= r(1, 0, 2) +s(0, 1, 1) : r R, s R.
Esto signica que
B = (1, 0, 2), (0, 1, 1)
genera Im(f). Adems, como B es linealmente independiente (algo que es fcil demostrar,
por lo que se deja al lector la tarea), tenemos que dim(Im(f)) = 2.

Teorema 5.11 Sea f L(V, W). Entonces, f es inyectiva si y solo si A(f) = 0.


Demostracin.
1. Supongamos que A(f) = 0. Vamos a probar que f es inyectiva. Para ello, sean u
y v en V tales que f(u) = f(v). Entonces, dado que f es lineal, tenemos que:
f(u) f(v) = 0 f(u v) = 0.
Y, como el nico elemento de V cuya imagen bajo f es 0, ya que A(f) = 0,
tenemos que u v = 0, de donde u = v. Por lo tanto, f es inyectiva.
2. Supongamos que f es inyectiva. Dado que 0 A(f), solamente nos resta por probar
que A(f) 0. Para ello, sea v A(f). Entonces f(v) = 0. Como f(0) = 0,
entonces f(v) = f(0), de donde, por la inyectividad de f, concluimos que v = 0.
Por lo tanto A(f) 0.
Teorema 5.12 Sean f L(V, W), w W y v
0
V tales que f(v
0
) = w. Entonces, la solucin
general de la ecuacin
f(x) = w (5.1)
es de la forma
x = v
0
+u,
donde u A(f).
Demostracin. Que v
0
+ u sea una solucin de la ecuacin (5.1) se deduce de:
f(v
0
+ u) = f(v
0
) + f(u) = w + 0 = w.
Por otro lado, supongamos que v es una solucin de la ecuacin (5.1). Vamos a
probar que existe u A(f) tal que v = v
0
+ u.
Es claro que u debe ser v v
0
. En efecto:
f(u) = f(v v
0
) = f(v) f(v
0
) = w w = 0.
174 Aplicaciones lineales
Ejemplo 5.78 Sea f L(R
3
, R
2
) tal que
F(x, y, z) = (x y +z, x +y z).
Es claro que f(1, 1, 1) = (1, 1). Entonces la solucin general de la ecuacin
(x y +z, x +y z) = (1, 1) (5.2)
es
(1, 1, 1) +u,
donde u A(f). Por lo tanto, para encontrar la solucin general de 5.2, encontremos el ncleo
de f.
Para ello, debemos hallar la solucin de la ecuacin
(x y +z, x +y z) = (0, 0).
O, de manera equivalente, debemos resolver el sistema de dos ecuaciones con tres incgnitas
cuya matriz ampliada es:
_
1 1 1 0
1 1 1 0
_
.
Ahora bien, dado que:
_
1 1 1 0
1 1 1 0
_

_
1 1 1 0
2 0 0 0
_

_
0 1 1 0
1 0 0 0
_
,
tenemos que
A(f) = (x, y, z) R
3
: x = 0, y = z = (0, z, z) : z R.
Por lo tanto, la solucin general del sistema 5.2 es:
(1, 1, 1) + (0, z, z) = (1, 1 +z, 1 +z)
para todo z R.
El siguiente teorema arma que la independencia lineal es conservada por las apli-
caciones lineales inyectivas.
Teorema 5.13 Sea f L(V, W) tal que A(f) = 0. Entonces, si B = v
1
, v
2
, . . . , v
n
V
es linealmente independiente, entonces S = f(v
1
), f(v
2
), . . . , f(v
n
) es linealmente indepen-
diente.
Demostracin. Sean
i
escalares tales que
n

j=1

i
f(v
i
) = 0.
Vamos a probar que
i
= 0 para todo i I
n
.
Dado que f es lineal, tenemos que
n

j=1

i
f(v
i
) = f
_
n

j=1

i
v
i
_
= 0.
5.3 Ncleo de una aplicacin lineal 175
Como el ncleo de f contiene nicamente a 0, esta igualdad implica que
n

j=1

i
v
i
= 0.
A su vez, esta igualdad implica que todos los
i
son iguales a 0, pues B es un conjunto
linealmente independiente. Por lo tanto, S tambin es linealmente independiente.
El siguiente teorema arma que la imagen por una aplicacin lineal de un conjunto
generador del espacio de salida es igual a la imagen de la aplicacin.
Teorema 5.14 Sea f L(V, W). Si B = v
1
, v
2
, . . . , v
n
genera V , entonces f(B) genera la
imagen Im(f) de f.
Demostracin.
1. Probemos que f(B) Im(f). Para ello, sea w f(B). Entonces existe escalares

j
tales que
w =
n

j=1

i
f(v
i
),
pues f(B) = f(v
i
) : i I
n
.
De la linealidad de f, obtenemos que:
w =
n

j=1

i
f(v
i
) = f
_
n

j=1

i
v
i
_
.
Si denimos
v =
n

j=1

i
v
i
,
entonces v V , ya que B genera V , y w = f(v). Por lo tanto, existe v V tal que
w = f(v). Esto signica que w Im(f).
2. Ahora probemos que Im(f) f(B). Para ello, sea w Im(f). Existe, entonces,
v V tal que w = f(v). Como B genera V , entonces existen escalares
j
tales que
v =
n

j=1

j
v
j
.
Entonces
w = f(v) = f
_
n

j=1

j
v
j
_
=
n

j=1

j
f(v
j
).
Es decir, w f(B).
176 Aplicaciones lineales
Corolario 5.15 Sea f L(V, W) tal que A(f) = 0. Entonces, B = v
j
: j I
n
es una
base de V si y solo si S = f(B) es una base de Im(f).
En otras palabras, la dimensin de la imagen de f es igual a la dimensin de V .
Demostracin. Si el conjunto B es una base de V , entonces B es linealmente inde-
pendiente y genera V . Por lo tanto, dado que f es inyectiva, ya que A(f) = 0
(teorema 5.11), por el teorema 5.13, f(B) es linealmente independiente; y por el teo-
rema 5.14, f(B) genera Im(f). Por lo tanto, f(B) es una base de Im(f).
Recprocamente, si f(B) es una base de Im(f), entonces es un conjunto linealmente
independiente y genera Im(f). Probemos que B es una base de V .
Para ello, sea v V . Entonces f(v) Im(f). Por lo tanto, existe escalares
j
tales
que
f(v) =
n

j=1

j
f(v
j
).
Por la linealidad de f, de esta igualdad obtenemos que:
f(v) = f
_
n

j=1

j
v
j
_
.
Y por la inyectividad de f, esta igualdad implica que:
v =
n

j=1

j
v
j
.
Por lo tanto, B genera V .
Ahora probemos que B es linealmente independiente. Sean
j
escalares tales que
n

j=1

j
v
j
= 0.
Entonces, por la linealidad de f, obtenemos que:
f
_
n

j=1

j
v
j
_
=
n

j=1

j
f(v
j
) = f(0) = 0.
Como f(B) es linealmente independiente, concluimos que todos los
j
son iguales a 0.
Entonces, f(B) es linealmente independiente.
Teorema 5.16 Sea f L(V, W) con V un espacio de dimensin nita. Entonces:
dim(V ) = dim(A(f)) + dim(Im(f)).
Demostracin.
5.3 Ncleo de una aplicacin lineal 177
1. Supongamos que A(f) = V . Entonces f(u) = 0 para todo v V . Por lo tanto,
Im(f) = 0. Entonces
dim(A(f)) + dim(Im(f)) = dim(V ) + 0 = dim(V ).
2. Supongamos que A(f) ,= V . Sea u V tal que f(u) ,= 0. Entonces Im(f) ,= 0.
Si A(f) = 0, por el corolario 5.15, la dimensin de Im(f) es igual a la dimensin
de V . Entonces:
dim(V ) = dim(Im(f)) = dim(Im(f)) + dim(A(f)),
ya que dim(A(f)) = 0.
Ahora supongamos que A(f) ,= 0. Sean W = w
j
: j I
s
una base de Im(f)
y B = v
j
: j I
s
donde f(v
j
) = w
j
. De la denicin de funcin, se colige que la
cardinalidad de B es s.
Sea C = u
k
: k I
r
con r < s una base para A(f). Probemos que
T = v
j
, u
k
: j I
s
, k I
r

es una base para V , lo que probara que la dimensin de V es igual a la suma de las
dimensiones del ncleo y de la imagen.
En primer lugar, si v V , entonces f(v) est en Im(f). Existen, entonces, s escalares

j
tales que
f(v) =
s

j=1

j
w
j
=
s

j=1

j
f(v
j
).
De esta igualdad, por la linealidad de f, obtenemos que:
f
_
v
s

j=1

j
v
j
_
= 0.
Entonces
v
s

j=1

j
v
j
A(f) .
Por lo tanto, existen r escalares
j
tales que
v
s

j=1

j
v
j
=
r

j=1

j
u
j
.
Entonces, se verica que
v =
s

j=1

j
v
j
+
r

j=1

j
u
j
.
Por lo tanto v T; es decir, T genera V .
Ahora probemos que T es linealmente independiente. Para ello, sean
j
s escalares
y
j
r escalares tales que
r

j=1

j
v
j
+
s

j=1

j
u
j
= 0. (5.3)
178 Aplicaciones lineales
Entonces:
f
_
r

j=1

j
v
j
+
s

j=1

j
u
j
_
=
r

j=1

j
f(v
j
) +
s

j=1

j
f(u
j
)
=
r

j=1

j
w
j
= 0,
ya que u
j
A(f).
Como B es linealmente independiente, tenemos que los
j
= 0 para todo j I
s
.
Entonces, la igualdad 5.3 se expresa de la siguiente manera:
s

j=1

j
u
j
= 0.
Pero C es linealmente independiente. Entonces, esta ltima igualdad implica que

j
= 0 para todo j I
r
, lo que termina por demostrar que T es linealmente
independiente y, por lo tanto, es una base para V .
Teorema 5.17 Sean V y W dos espacios vectoriales de dimensin n y f L(V, W). Entonces
f es inyectiva si y solo si es sobreyectiva.
Demostracin.
1. Supongamos que f es inyectiva. Entonces dim(V ) = dim(Im(f)), ya que A(f) =
0. Como dimW = n, entonces dim(Im(f)) = n, de donde Im(f) = W; es decir, f
es sobreyectiva.
2. Ahora supongamos que f es sobreyectiva. Por el teorema de la dimensin, esto
signica que dim(A(f)) = 0, de donde A(f) = 0; es decir, f es inyectiva.
Teorema 5.18 Sea f L(V, W) con V y W espacios de dimensin nita. Entonces, si f es
biyectiva, entonces dim(V ) = dim(W).
Demostracin. Como f es inyectiva, A(f) = 0, de donde, por el teorema de la
dimensin tenemos que
dim(V ) = dim(Im(f)).
Como f es sobreyectiva, Im(f) = W; entonces, dim(V ) = dim(W).
5.3 Ncleo de una aplicacin lineal 179
Ejemplo 5.79
Sea f L(V, V ) tal que
f
2
2f +I
V
= 0,
donde I
V
es la identidad en V y f ,= I
V
. Demostrar que existe u V tal que u ,= 0
y f(u) = u. El vector u se denomina punto jo de f.
Solucin. Sea v V . Entonces
(f
2
2f +I
V
)(v) = 0.
Por lo tanto:
f(f(v)) 2f(v) +I
V
(v) = f(f(v)) f(v) f(v) +v
= [f(f(v)) f(v)] [f(v) v]
= f(f(v) v) [f(v) v] = 0.
De modo que
f(f(v) v) = f(v) v.
Como f ,= I
V
, existe w V tal que f(w) ,= w. Sea, entonces, u = f(w) w. Esto signica
que u ,= 0 y que
f(u) = f(f(w) w) = f(w) w = u.

Ejemplo 5.80
Sean f y g elementos de L(V, V ). Demuestre que:
1. Si f = f g y g = g f, entonces A(f) = A(g).
2. Si f = f f, entonces A(I
V
f) = Im(f).
3. A(f) Im(f) = 0 si y solo si f(f(v)) = 0 f(v) = 0.
Solucin.
1. Sea v A(f). Entonces f(v) = 0. Por lo tanto:
g(v) = g(f(v)) = g(0) = 0.
Es decir, v A(g).
Hemos demostrado, entonces, que A(f) A(g). El mismo razonamiento, pero aplicando
la hiptesis f = f g nos permite establecer que A(g) A(f).
2. Sea v A(I
V
f). Entonces (I
v
f)(v) = 0; es decir, se verica que f(v) = v. Por lo
tanto, v Im(f).
Recprocamente, si v Im(f), existe u V tal que v = f(u). Entonces
f(v) = f(f(u)) = (f f)(u) = f(u) = v.
Por lo tanto, f(v) = I
V
(v), de donde v A(I
V
f).
180 Aplicaciones lineales
3. (a) Supongamos que A(f) Im(f) = 0. Sea v V tal que f(f(v)) = 0. Entonces
f(v) A(f). Pero f(v) Im(f); es decir, v A(f) Im(f). Como el nico elemento
comn entre A(f) y Im(f) es el vector 0, entonces, necesariamente, f(v) = 0.
(b) Supongamos que f(f(v)) = 0 f(v) = 0. Sea u A(f) Im(f). Vamos a demostrar
que u = 0.
Como u Im(f), existe v V tal que f(v) = u. Por lo tanto, f(f(v)) = f(u) = 0,
pues u A(f). Entonces, por hiptesis, f(v) = 0; es decir, u = 0, ya que u = f(v).

Ejemplo 5.81
Existe una aplicacin lineal f de R
2
en R
3
tal que
A(f) = 2, 1 y Im(f) = 1, 1, 1 ?
En el caso de que exista tal aplicacin, describirla. Es nica?
Solucin. El teorema de la dimensin (teorema 5.16) asegura que si f es lineal, entonces
dim(A(f)) + dim(Im(f)) = dim(R
2
).
Como las dimensiones de los conjuntos A = 2, 1 y B = 1, 1, 1 son 1 y 1, respec-
tivamente, entonces, en caso de existir tal f, su existencia no contradira con el teorema de la
dimensin. De modo que, podemos intentar encontrar una tal f.
Para la construccin de f, podemos utilizar la idea de la demostracin del teorema de la
dimensin para encontrar una base del espacio de salida, R
2
a partir de las bases de A(f) y
de Im(f), respectivamente.
Si el lector lee con atencin la demostracin citada, encontrar que, si f es una aplicacin
lineal con ncleo del conjunto A y con imagen el conjunto B, entonces una base para R
2
es
la siguiente: C = (2, 1), (x
1
, x
2
), donde f(x
1
, x
2
) = (1, 1, 1). Por lo tanto, para denir f
basta elegir (x
1
, x
2
) tal que C sea linealmente independiente (con lo cual ya ser una base de
R
2
) y asignar (1, 1, 1) como imagen de (x
1
, x
2
) bajo f.
Por ejemplo, (x
1
, x
2
) puede ser el vector (1, 0). Entonces, f(1, 0) = (1, 1, 1). Ahora, para
cualquier (x, y), ya que C es una base de R
2
, existen escalares y tales que
(x, y) = (1, 0) +(2, 1).
Es fcil mostrar que = x 2y y que = y.
Ya podemos determinar f:
f(x, y) = f((1, 0) +(2, 1)) = f(1, 0) +f(2, 1)
= (1, 1, 1) + 0 = (x 2y)(1, 1, 1)
= (x 2y, x 2y, 2y x).
El lector puede comprobar fcilmente que f es lineal y que su ncleo e imagen son los
indicados en el enunciado del ejemplo. Adems puede constatar que f no es nica, porque
depende de el elemento que se elija para denir la base C; por ejemplo, determine el lector la
aplicacin f que se obtiene si se elige (0, 1) para obtener C.
Aplicaciones
lineales y
matrices 6
En este captulo, los elementos de K
n
sern vistos tanto como vectores que se escriben
horizontalmente:
X = (x
1
, x
2
, . . . , x
n
)
o como matrices de n las y una columna:
X = (x
1
, x
2
, . . . , x
n
)
t
=
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
6.1 Aplicacin lineal asociada a una matriz
Teorema 6.1 Dada la matriz A = (a
ij
) M
mn
, la aplicacin f
A
denida por
f
A
: K
n
K
m
X f
A
(X) = AX
es una aplicacin lineal; es decir, f
A
L(K
n
, K
m
). Esta aplicacin se denomina aplicacin
lineal asociada a la matriz A.
Demostracin. Las propiedades de espacio vectorial del espacio de matrices nos permite
probar que f
A
es lineal. Para ello, sean X y Y en K
n
y en K. Entonces:
f
A
(X + Y ) = A(X + Y )
= A(X) + AY
= AX + AY = f
A
(X) + f
A
(Y ).
Ejemplo 6.82 Dada la matriz
A =
_
1 1 1
2 1 0
_
,
182 Aplicaciones lineales y matrices
la aplicacin lineal asociada es f
A
: R
3
R
2
tal que
f
A
(x, y, z) = A
_
_
x
y
z
_
_
.
Puesto que
AX =
_
1 1 1
2 1 0
_
_
_
x
y
z
_
_
=
_
x y +z
2x y
_
,
tenemos que
f
A
(x, y, z) = (x y +z, 2x y).

Teorema 6.2 Sean A y B dos matrices de M


mn
. Entonces f
A
= f
B
si y solo si A = B
Demostracin. Tenemos f
A
= f
B
si y solo si para todo X K
n
, se verica que
f
A
(X) = AX = f
B
(X) = BX.
Pero esta igualdad se verica si y solo si para todo X K
n
, se verica que (AB)X = 0.
A su vez, dado que esta ltima igualdad es verdadera para todo X K, se tiene que
(AB) = 0, lo que es equivalente a A = B.
La aplicacin lineal asociada a una matriz permite expresar la solucin de un sis-
tema de ecuaciones lineales en trminos de aplicaciones lineales. En efecto, el conjunto
solucin del sistema homogneo
AX = 0,
se expresa como el conjunto de todos los X K
n
tales que
f
A
(X) = 0.
Es decir, el conjunto solucin del sistema homogneo no es ms que el ncleo de la
aplicacin lineal asociada a la matriz de coecientes del sistema lineal homogneo.
6.2 Matriz asociada a una aplicacin lineal
Este estudio se va a dividir en dos casos: cuando la aplicacin lineal es de K
n
en K
m
y
cuando es entre dos espacios vectoriales de dimensin nita.
Teorema 6.3 Sea f L(K
n
, K
m
). Entonces existe una matriz A = (a
ij
) M
mn
tal que
f(x) = Ax
t
para todo x K
n
.
6.2 Matriz asociada a una aplicacin lineal 183
Demostracin. Sean C
n
= e
j
: 1 j n y C
m
= f
j
: 1 j m las bases orde-
nadas cannicas de K
n
y K
m
respectivamente. Entonces, para todo x K
n
, tenemos
que
x =
n

j=1
x
j
e
j
.
Por lo tanto, de la linealidad de f, tenemos que
f(x) =
n

j=1
x
j
f(e
j
).
Pero, como f(e
j
) K
m
, existen escalares a
ij
tales que
f(e
i
) =
m

i=1
a
ij
f
i
.
Por lo tanto:
f(x) =
n

j=1
x
j
_
m

i=1
a
ij
f
i
_
f
i
=
m

i=1
_
n

j=1
a
ij
x
j
_
f
i
.
Por lo tanto:
f(x) =
_
n

j=1
a
ij
x
j
_
= Ax
t
,
donde
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
.
Las columnas de la matriz A son, entonces, las coordenadas de las imgenes de los
elementos de la base cannica de K
n
bajo f respecto de la base cannica de K
m
.
Denicin 6.1 (Matriz asociada a una aplicacin lineal) La matriz A se denomina matriz aso-
ciada a la aplicacin lineal f respecto de las bases cannicas C
m
y C
n
. Se la representa
as:
A = [f]
Cn
Cm
.
Si las bases estn sobre entendidas, entonces se escribir simplemente [f] para indicar la matriz
A.
184 Aplicaciones lineales y matrices
Ejemplo 6.83 Sea f L(R
3
, R
2
) denida por
f(x, y, z) = (x +z, y 2z).
Vamos a encontrar la matriz asociada a f respecto de las bases cannicas de R
3
y R
2
respec-
tivamente.
Recordemos que los conjuntos
B
1
= (1, 0, 0), (0, 1, 0), (0, 0, 1) y B
1
= (1, 0), (0, 1),
son las bases cannicas de R
3
y R
2
respectivamente. De la demostracin del teorema 6.3, la
matriz asociada a f es de orden 2 3 y tiene por columnas las coordenadas de las imgenes
de los vectores de la base cannica de R
3
respecto de la base cannica de R
2
. Por ello, el
procedimiento que vas a seguir es el siguiente:
1. Calcular f(C
1
), la imagen de cada uno de los elementos de la base cannica de R
3
.
2. Calcular las coordenadas de cada elemento de f(C
1
) respecto de C
2
.
Procedamos.
1. f(1, 0, 0) = (1+0, 00) = (1, 0), f(0, 1, 0) = (0, 10) = (0, 1) y f(0, 0, 1) = (0+1, 02) =
(1, 2).
2. [f(1, 0, 0)]
C
2
=
_
1
0
_
, [f(, 1, 0)]
C
2
=
_
0
1
_
y [f(, 0, 1)]
C
2
=
_
1
2
_
.
Por lo tanto, la matriz asociada a f es:
A = [f]
C
1
C
2
=
_
1 0 1
0 1 2
_
.
Por la construccin de A, debe vericarse que f(x) = AX
t
, lo que sucede efectivamente:
_
1 0 1
0 1 2
_
_
_
x
y
z
_
_
=
_
x + 0 +z
0 +y 2z
_
=
_
x +z
y 2z
_
.

Ejemplo 6.84 Supongamos que f L(R


2
, R
2
) representa la rotacin de un vector u un
ngulo . Encontremos la matriz asociada a esta rotacin respecto de la base cannica de R
2
.
x
y

x
x
y

u
f(u)
Para ello, encontremos la ley de asignacin de f en
primer lugar. En el dibujo, est la informacin necesaria
para calcular f(u) dado u. Tenemos, entonces que si u =
(x, y), entonces
x = [[u[[ cos y y = [[u[[ sen .
Adems, si (x

, y

) = f(u), entonces
x

= [[f(u)[[ cos( +) y y

= [[f(u)[[ sen( +).


Por lo tanto,
x

= [[f(u)[[[cos cos sen sen ]


6.2 Matriz asociada a una aplicacin lineal 185
y
y

= [[f(u)[[[sen cos + sen cos ].


Por otro lado, se tiene que [[f(u)[[ = [[u[[. Entonces:
x

= [[[u[[ cos ] cos [[[u[[ sen ] sen y y

= [[[u[[ sen ] cos + [[[u[[ cos ] sen ,


de donde obtenemos que
x

= xcos y sen y y

= y cos +xsen .
Por lo tanto, para cada (x, y) R
2
, f se dene as:
f(x, y) = (xcos y sen, y cos +xsen ).
Ahora bien, calculemos las coordenadas de f(1, 0) y f(0, 1) respecto a la base cannica.
Puesto que
f(1, 0) = (cos 0, 0 + sen ) = (cos , sen)
f(0, 1) = (0 sen , cos + 0) = (sen , cos ),
tenemos que:
[f(1, 0)] = (cos , sen ) y [f(0, 1)] = (sen , cos ).
Por lo tanto, la matriz asociada a f es:
A = [f] =
_
cos sen
sen cos
_
.
Por ejemplo, el vector que resulta de rotar 45 grados al vector (2, 1) tiene por coordenadas
_
cos 45 sen45
sen 45 cos 45
__
2
1
_
=
_
_
_
_

2
2

2
2

2
2

2
2
_
_
_
_
_
2
1
_
=
_
_
_
_

2
2
3

2
2
_
_
_
_
.

La matriz asociada a una composicin de aplicaciones lineales resulta ser el producto


de las matrices asociadas a las aplicaciones que se componen. De manera ms precisa,
tenemos el siguiente teorema.
Teorema 6.4 Sean f L(K
n
, K
m
) y g L(K
m
, K
r
), entonces [g f] = [g][f].
Demostracin. Sean A la matriz asociada a f y B la asociada a g. Entonces:
f(x) = Ax y g(y) = By
para todo x K
n
y todo y Im(g) K
m
. Por lo tanto, para todo x K
n
, tenemos
que:
(g f)(x) = g(f(x)) = B(f(x)) = B(Ax) = BAx.
es decir, [g f] = BA = [g][f].
186 Aplicaciones lineales y matrices
Ahora estudiemos el caso general.
Teorema 6.5 Sean V y W dos espacios vectoriales de dimensin nita sobre un campo K. Sean
B
1
= v
j
: j I
n
y B
2
= w
j
: j I
m
bases ordenadas de V y W, respectivamente. Sea
tambin f L(V, W). Entonces existe una matriz A M
mn
tal que
[f(v)]
B
2
= A[v]
B
1
para todo v V .
Demostracin. Sean v V y x
j
para j I
n
las coordenadas de v respecto de B
1
.
Entonces
f(v) =
n

j=1
x
j
f(v
j
).
Existen, entonces, escalares
ij
tales que
f(v
j
) =
m

i=1

ij
w
i
para cada j I
n
.
Por lo tanto:
f(v) =
n

j=1
x
j
m

i=1

ij
w
i
=
n

i=1
_
n

j=1

ij
x
j
_
w
i
.
Tenemos, entonces, que:
[f(v)]
B
2
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
n

j=1

1j
x
j
n

j=1

2j
x
j
.
.
.
n

j=1

mj
x
j
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
x
1
x
2
.
.
. x
n
_
.
De manera que:
[f(v)]
B
2
= Av.
Como se puede ver, la matriz A es la matriz cuyas columnas son las coordenadas
de las imgenes de los vectores de la base B
1
bajo f respecto a la base B
2
. La matriz
A es denominada matriz asociada a la aplicacin lineal f respecto a las bases
ordenadas B
1
y B
2
. Se la suele representar con [f]
B
1
B
2
.
Con esta notacin, la propiedad de la matriz asociada se expresa de la siguiente
manera:
[f(v)]
B
2
= [f]
B
1
B
2
[v]
B
1
.
6.2 Matriz asociada a una aplicacin lineal 187
Ejemplo 6.85 La aplicacin f L(M
22
, P
2
[x]) se dene por
f
_
a b
c d
_
= a + (b c)x +dx
2
.
Encontremos la matriz asociada a f respecto a las bases cannicas:
B
1
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
y B
2
= 1, x, x
2
.
Para ello, es suciente con calcular las imgenes de los elementos de la base B
1
bajo f:
f
_
1 0
0 0
_
= 1 + (0 0)x + 0x
2
= 1,
f
_
0 1
0 0
_
= 0 + (1 0)x + 0x
2
= x,
f
_
0 0
1 0
_
= 0 + (0 1)x + 0x
2
= x,
f
_
0 0
0 1
_
= 0 + (0 0)x + 1x
2
= x
2
.
Entonces, las coordenadas de esta cuatro imgenes respecto a la base cannica dan la siguiente
matriz:
[f] =
_
_
_
_
1 0 0 0
0 1 1 0
0 0 0 0
0 0 0 1
_
_
_
_
.
Ahora calculemos la matriz de f, pero respecto de las siguientes bases:
B
1
=
__
1 1
0 0
_
,
_
0 1
1 0
_
,
_
0 0
1 1
_
,
_
1 0
0 1
__
y B
2
= 1 x, x
2
, x +x
2
.
Para ello, debemos obtener las imgenes de los elementos de la base B
1
bajo f y, luego,
las coordenadas de estas imgenes respecto de la base B
2
. Empecemos con el clculo de las
imgenes:
f
_
1 1
0 0
_
= 1 + (1 0)x + 0x
2
= 1 +x,
f
_
0 1
1 0
_
= 0 + (1 1)x + 0x
2
= 2x,
f
_
0 0
1 1
_
= 0 + (0 1)x +x
2
= x +x
2
,
f
_
1 0
0 1
_
= 1 + (0 0)x +x
2
= 1 +x
2
.
Ahora encontremos las coordenadas de estos cuatro vectores respecto de la base B
2
. Para
ello, encontremos una frmula general para encontrar las coordenadas cualquier elemento de
P
2
[x].
Sea p P
2
[x] tal que p(x) = a +bx +cx
2
. Buscamos los escalares
j
tales que
a +bx +cx
2
=
1
(1 x) +
2
(x
2
) +
3
(x +x
2
).
188 Aplicaciones lineales y matrices
De esta igualdad, obtenemos que los escalares
j
deben satisfacer el siguiente sistema de
ecuaciones lineales:

1
= a

1
+
3
= b

2
+
3
=c.
Las siguientes equivalencias:
_
_
1 0 0 a
1 0 1 b
0 1 1 c
_
_

_
_
1 0 0 a
0 0 1 a +b
0 1 1 c
_
_

_
_
1 0 0 a
0 0 1 a +b
0 1 0 a b +c
_
_
,
implican que
1
= a,
2
= a +b y
3
= a b +c. Entonces:
[a +bx +cx
2
]
B
2
= (a, a +b, a b +c).
Con ayuda de esta frmula, obtenemos las coordenadas de las cuatro imgenes calculadas:
_
f
_
1 1
0 0
__
B
2
= [1 +x]
B
2
= (1, 2, 2),
_
f
_
0 1
1 0
__
B
2
= [2x]
B
2
= (0, 2, 2),
_
f
_
0 0
1 1
__
B
2
= [x +x
2
]
B
2
= (0, 2, 1),
_
f
_
1 0
0 1
__
B
2
= [1 +x
2
]
B
2
= (1, 0, 1).
Y ya podemos obtener la matriz asociada a f respecto de las bases B
1
y B
2
:
[f]
B
1
B
2
=
_
_
1 0 0 1
2 2 2 0
2 2 1 1
_
_
.
Con ayuda de esta matriz podemos calcular las coordenadas del vector
_
f
_
1 1
0 0
__
B
2
.
Para ello, usaremos la matriz [f]
B
1
B
2
, pues se verica la igualad siguiente:
[f(x)]
B
2
= [f]
B
1
B
2
[x]
t
B
1
.
Entonces, lo que primero tenemos que hacer es obtener las coordenadas de x respecto de B
1
.
Estas coordenadas son la solucin del sistema cuya matriz ampliada es:
_
_
_
_
1 0 0 1 1
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
_
_
_
_
.
Y, puesto que
_
_
_
_
1 0 0 1 1
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
_
_
_
_

_
_
_
_
_
_
_
_
_
_
_
1 0 0 0
1
2
0 1 0 0
1
2
0 0 1 0
1
2
0 0 0 1
1
2
_
_
_
_
_
_
_
_
_
_
_
,
6.2 Matriz asociada a una aplicacin lineal 189
tenemos que
[x]
B
1
= (
1
2
,
1
2
,
1
2
,
1
2
).
Por lo tanto:
_
f
_
1 1
0 0
__
B
2
=
_
_
1 0 0 1
2 2 2 0
2 2 1 1
_
_
_
_
_
_
1
2
1
2

1
2
1
2
_
_
_
_
=
_
1 1 1
_
.

Denicin 6.2 (Rango de una aplicacin lineal) Sea f L(V, W) donde V y W tienen di-
mensin nita. Sea A la matriz asociada a f respecto a dos bases cualesquiera en V y W
respectivamente. Entonces, el rango de f es la diferencia entre la dimensin de V y el ncleo
de f:
ran(f) = dim(V ) dimA(f) .
Por lo tanto, el rango de f es igual a la dimensin de la dimensin de la imagen de f.
Cuando el espacio de salida y el de llegada sean el mismo y la matriz asociada sea
respecto de la misma base en ambos espacios, por ejemplo si B es la base, entonces
usaremos la notacin [f]
B
para la matriz asociada.
Ejemplo 6.86
Sea f L(C
2
, C
2
) denida por
f(z
1
, z
2
) = (z
1
, (1 +)z
2
z
1
).
El conjunto
B = (, 0), (0, 1)
es una base de C
2
sobre C. Calculemos la matriz asociada a f respecto de B.
Solucin. En primer lugar, calculemos las imgenes de los elementos de la base B:
f(, 0) = (, (1 +) 0 ) = (1, ),
f(0, 1) = ( 0, (1 +) 1 0) = (0, 1 +).
Ahora bien, las coordenadas de cualquier elemento (z
1
, z
2
) de C
2
respecto de B se obtienen
de la siguiente equivalencia:
_
0 z
1
0 1 z
2
_

_
1 0 ()z
1
0 1 z
2
_
.
Entonces
[(z
1
, z
2
)]
B
= (()z
1
, z
2
).
En particular, para calcular [f(, 0)]
B
, hacemos z
1
= 1 y z
2
= . Entonces:
[f(, 0)]
B
= (()(1), ) = (, ).
190 Aplicaciones lineales y matrices
Y, para calcular [f(0, 1)]
B
, hacemos z
1
= 0 y z
2
= 1 +. Entonces:
[f(0, 1)]
B
= (()(0), 1 +) = (0, 1 +).
Por lo tanto:
[f]
B
=
_
0
1 +
_
.

Ejemplo 6.87
Sea f L(R
3
, R
3
) denida por
f(x, y, z) = (y z, x +z, x +y).
El conjunto
B = (1, 1, 0), (1, 0, 1), (0, 1, 1)
es una base para R
3
.
1. Calcular la matriz asociada a f respecto de B y C (la primera vista como base
del espacio de salid y la segunda, como base del espacio de llegada).
2. Si f es invertible, determinar f
1
.
Solucin.
1. Las imgenes bajo f de cada elemento de B son:
f(1, 1, 0) = (1, 1, 0),
f(1, 0, 1) = (1, 2, 1),
f(0, 1, 1) = (0, 1, 1).
Por lo tanto:
[f(1, 1, 0)]
C
= (1, 1, 0),
[f(1, 0, 1)]
C
= (1, 2, 1),
[f(0, 1, 1)]
C
= (0, 1, 1).
Entonces:
[f]
B
C
=
_
_
1 1 0
1 2 1
0 1 1
_
_
.
2. Se tiene que [[f]
B
C
[ = 4. Por lo tanto, la matriz asociada es invertible. Esto signica que
[f]
B
C
[x]
B
= 0 =[x]
B
= 0. (6.1)
Por lo tanto, si x A(f), entonces f(x) = 0, de donde, por la implicacin (6.1), todas las
coordenadas de x respecto de B son iguales a 0; es decir x = 0. Por lo tanto A(f) = 0.
Entonces, f es invertible.
Para hallar f
1
debemos resolver la ecuacin
f(x, y, z) = (a, b, c) (6.2)
6.3 Matriz de cambio de base 191
para todo (a, b, c) R
3
, pues
f
1
(a, b, c) = (x, y, z).
La igualdad (6.2) implica que (x, y, z) deben satisfacer el siguiente sistema de ecuaciones
lineales:
y z =a
x + +z = b
x +y = c
.
Como la solucin de este sistema es
x =
1
2
(a +b c), y =
1
2
(a +b +c) y z =
1
2
(a +b +c),
entonces
f
1
(a, b, c) =
1
2
(a +b c, a +b +c, a +b +c).

6.3 Matriz de cambio de base


Sea V un espacio vectorial sobre K tal que dimV = n. Sean B = v
j
y S = w
j
dos
bases ordenadas de V . Cul es la relacin entre las coordenadas de cualquier v V
respecto de la base B y las coordenadas de v respecto de la base S? Este es el problema
que pretendemos resolver a continuacin.
Sea f la funcin identidad denida sobre V . Es decir, para todo v V , se tiene que
f(v) = v.
Por lo tanto, f L(V, V ).
Las coordenadas de v respecto de S pueden ser vistas como las coordenadas de f(v)
respecto de S. Entonces, la relacin buscada es
[v]
S
= [f(v)]
S
= [f]
B
S
[v]
B
.
En otras palabras, la relacin entre ambos conjuntos de coordenadas est dada por
la matriz asociada a f respecto de las bases B y S. A esta matriz se la conoce con
el nombre de matriz de cambio de base de S a B. Tambin se la conoce con el
nombre de matriz de transicin de B a S.
Est claro que si las matrices B y S son iguales, entonces la matriz de cambio de
base es la matriz identidad.
Teorema 6.6 Sean f L(V, W) y g L(W, U) tales que dim(V ) = n, dim(W) = m y
dim(U) = r. Sean B
1
, B
2
y B
3
bases de V , W y U, respectivamente. Entonces
[g f]
B
1
B
3
= [g]
B
2
B
3
[f]
B
1
B
2
.
192 Aplicaciones lineales y matrices
Demostracin. Sea v V . Por un lado, tenemos que:
[(g f)(v)]
B
3
= [g f]
B
1
B
3
[v]
B
1
. (6.3)
Por otro lado, como (g f)(v) = g(f(v)) y f(v) W, tenemos que:
[(g f)(v)]
B
3
= [g(f(v))]
B
3
= [g]
B
2
B
3
[f]
B
1
B
2
[v]
B
1
=
_
[g]
B
2
B
3
[f]
B
1
B
2
_
[v]
B
1
.
Es decir:
[(g f)(v)]
B
3
=
_
[g]
B
2
B
3
[f]
B
1
B
2
_
[v]
B
1
para todo v V . Y esta igualdad, junto con (6.3), nos permite concluir que
[g f]
B
1
B
3
= [g]
B
2
B
3
[f]
B
1
B
2
.
En otras palabras, la matriz asociada a una composicin de aplicaciones lineales
es igual al producto de las matrices asociadas a las aplicaciones de la composicin,
multiplicacin que tiene el mismo orden que el de la composicin.
Corolario 6.7 Sean B y S dos bases de un espacio vectorial V . Entonces la matriz de cambio
de base B a S es invertible y su inversa es igual a la matriz de cambio de base de S a B.
Demostracin. La matriz de cambio de base de B a S est asociada a la identidad de
V . Sea [I
V
]
B
S
la matriz. Con esta misma notacin, [I
V
]
S
B
representa la matriz de cambio
de base de S a B. Ahora bien, como I
V
= I
V
I
V
, entonces
[I
V
]
B
B
= [I
V
]
B
S
[I
V
]
S
B
y [I
V
]
S
S
= [I
V
]
S
B
[I
V
]
B
S
.
Pero, como
[I
V
]
B
B
= [I
V
]
S
S
= I,
entonces
I = [I
V
]
B
S
[I
V
]
S
B
= [I
V
]
S
B
[I
V
]
B
S
.
Lo que demuestra el corolario.
Corolario 6.8 Sean f L(V, W) un isomorsmo y B y S bases ordenadas de V y W respecti-
vamente. Entonces la matriz asociada a f
1
respecto de S y B es la matriz inversa de la matriz
asociada a f respecto a B y S.
Demostracin. Dado que f es un isomorsmo, existe f
1
. Puesto que f
1
f = I
v
,
entonces
I = [f
1
]
S
B
[f]
B
S
,
con lo cual el corolario queda demostrado.
6.3 Matriz de cambio de base 193
Ejemplo 6.88
Sea f L(R
3
, P
2
[x]) tal que su matriz asociada respecto de las bases cannicas en
ambos espacios es
[f] =
_
_
1 1 0
1 0 1
0 1 1
_
_
.
Encontrar:
1. la aplicacin f,
2. el valor de f(1, 1, 2), y
3. bases para A(f) y para Im(f).
Solucin.
1. Dado que
[f(u, v, w)] = [f][(u, v, w)]
t
,
entonces
[f(u, v, w)] =
_
_
1 1 0
1 0 1
0 1 1
_
_
_
_
u
v
w
_
_
=
_
_
u v
u +w
v +w
_
_
.
Y, dado que la bases consideradas son la cannicas, tenemos que
f(u, v, w) = (u v) + (u +w)x + (u +z)x
2
para todo (u, v, w) R
3
.
2. f(1, 1, 2) = (1 + 1) + (1 + 2)x + (1 + 2)x
2
= 2 + 3x +x
2
.
3. Tenemos que
A(f) = (u, v, w) R
3
: f(u, v, w) = 0
= (u, v, w) R
3
: (u v) + (u +v)x + (u +w)x
2
= 0
= (u, v, w) R
3
: u v = 0, u +v = 0, u +w = 0
= (u, v, w) R
3
: u = v = w = 0 = (0, 0, 0).
Por lo tanto, la nica base posible para A(f) es el conjunto vaco. Esto signica que la
dimensin de A(f) = 0, de donde:
dimIm(f) = dim(R
3
) dim(A(f)) = 3.
Luego, como dim(P
2
[x]) = 3, Im(f) = P
2
[x], de donde la base cannica de P
2
[x] es una
base de Imf.

194 Aplicaciones lineales y matrices


Ejemplo 6.89
Los conjuntos
S = ((1, 1), (1, 1)) y T = (2, 1), (1, 2)
son bases de R
2
. Determinar:
1. la matriz de transicin de S a T y de T a S; y
2. las coordenadas del vector v = (3, 4) con respecto a la base T si se sabe que
las coordenadas de v respecto a la base S son
1
2
y
7
2
.
Solucin.
1. Para encontrar la matriz de transicin de S a T, debemos hallar las coordenadas de los
elementos de S respecto de T. Para ello, encontremos las coordenadas respecto de T de
cualquier elemento de R
2
.
Sea (a, b) R
2
. De las siguientes equivalencias, podemos obtener las coordenadas de este
elemento:
_
2 1 a
1 2 b
_

_
0 5 a + 2b
1 2 b
_

_
0 1
a+2b
5
1 2 b
_

_
0 1
a+2b
5
1 0
2ab
5
_
.
Por lo tanto:
[(a, b)]
T
=
_
2a b
5
,
a + 2b
5
_
.
En particular:
[(1, 1)]
T
=
_
2 1
5
,
1 + 2
5
_
=
_
1
5
,
3
5
_
[(1, 1)]
T
=
_
2 1
5
,
1 + 2
5
_
=
_

3
5
,
1
5
_
.
Tenemos ya la matriz de transicin de S a T:
[I
R
3]
S
T
=
_
_
_
1
5

3
5
3
5
1
5
_
_
_.
2. La matriz de transicin de T a S es la matriz inversa de la matriz de transicin de S a T.
Por lo tanto:
[I
R
3]
T
S
=
_
[I
R
3]
S
T
_
1
=
_
1
5

3
5
3
5
1
5
_
1
=
_
1
5
_
1 3
3 1
__
1
= 5
_
1 3
3 1
_
1
= 5
1
10
_
1 3
3 1
_
.
6.3 Matriz de cambio de base 195
3. Dado que
[(3, 4)]
S
=
_
1
2
7
2
_
,
tenemos que
[(3, 4)]
B
=
_
1
5

3
5
3
5
1
5
__
1
2
7
2
_
=
_
2
1
_
.

Ejemplo 6.90
Sea

L(R
2
, R
2
) una rotacin de unidades. Entonces:
1. Una rotacin de unidades seguida de una de unidades es igual a una nica
rotacin de + unidades; es decir:

=
+
.
2. Deshacer una rotacin de unidades es igual a realizar una rotacin de
unidades. Es decir:

.
Solucin.
1. Dado que [

] = [

][

] y que tenemos que:


[

] = [

][

]
=
_
cos sen
sen cos
__
cos sen
sen cos
_
=
_
cos cos sen sen cos sen sen cos
sen cos + cos sen cos cos sen sen
_
=
_
cos( +) sen( +)
sen( +) cos( +)
_
= [
+
].
Por lo tanto, se verica que

=
+
.
2. Dado que [
1

] = [

]
1
y que:
[
1

] = [

]
1
=
_
cos sen
sen cos
_
1
=
_
cos sen
sen cos
_
=
_
cos() sen()
sen() cos()
_
= [

].
Por lo tanto, se verica que
1

.
196 Aplicaciones lineales y matrices

Teorema 6.9 Sean V y W dos espacios vectoriales tales que dim(V ) = n y dim(W) = m,
f L(V, W), S
1
y S
2
dos bases ordenadas de V , y T
1
y T
2
dos bases ordenadas de W.
Entonces:
[f]
S
2
T
2
= Q
1
[f]
S
1
T
1
P,
donde P = [I
V
]
S
2
S
1
y Q = [I
W
]
T
2
T
1
.
Demostracin. Con ayuda de siguiente diagrama, podemos visualizar las relaciones
existentes entre las coordenadas de v y f(v) segn las bases que se elijan en los espacios
V y W:
(V, S
1
)
f
(W, T
1
)

I
V

_
I
W
(V, S
2
)
f
(W, T
2
)
Por ejemplo, si leemos la segunda lnea horizontal, tenemos que para todo v V :
[f(v)]
T
2
= [f]
S
2
T
2
[v]
S
2
. (6.4)
Ahora, si leemos la columna de la derecha, tenemos que
[f(v)]
T
2
= [I
W
]
T
1
T
2
[f(v)]
T
1
. (6.5)
En cambio, la la superior nos dice que
[f(v)]
T
1
= [f]
S
1
T
1
[v]
S
1
. (6.6)
Entonces, de las igualdades (6.6) y (6.5), obtenemos que
[f(v)]
T
2
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[v]
S
1
. (6.7)
Por lo tanto, de las igualdades (6.4) y (6.7), resulta que
[f]
S
2
T
2
[v]
S
2
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[v]
S
1
. (6.8)
Ahora, la lectura de la columna de la izquierda nos informa que
[v]
S
1
= [I
V
]
S
2
S
1
[v]
S
2
,
que al reemplazar el lado derecho de esta igualdad en (6.8) nos permite proceder de la
siguiente manera:
[f]
S
2
T
2
[v]
S
2
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[v]
S
1
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[I
V
]
S
2
S
1
[v]
S
2
=
_
[I
W
]
T
2
T
1
_
1
[f]
S
1
T
1
[I
V
]
S
2
S
1
[v]
S
2
.
Por lo tanto:
[f]
S
2
T
2
=
_
[I
W
]
T
2
T
1
_
1
[f]
S
1
T
1
[I
V
]
S
2
S
1
,
que es lo que queramos demostrar.
6.3 Matriz de cambio de base 197
Ejemplo 6.91
Dada
[f]
T
S
=
_
_
1 0 1
0 1 1
1 1 0
_
_
,
donde
B = (1, 1, 0), (1, 0, 1), (0, 1, 1)
y S es una base de R
3
.
1. Determinar [I
R
3]
C
B
, donde C es la base cannica de R
3
.
2. Determinar [f]
C
S
.
Solucin. En primer lugar, del teorema (6.9), tenemos que
[f]
B
S
= [I
R
3]
S
S
[f]
B
S
[I
R
3]
C
B
= [f]
B
S
[I
R
3]
C
B
, (6.9)
ya que [I
R
3]
S
S
= I.
1. Como C es la base cannica, la matriz [I
R
3]
B
C
tiene por columnas las coordenadas de los
elementos de B respecto de C. Por lo tanto:
[I
R
3]
B
C
=
_
_
1 1 0
1 0 1
0 1 1
_
_
.
Entonces
[I
R
3]
C
B
=
_
[I
R
3]
B
C
_
1
=
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
.
2. Ahora ya podemos calcular [f]
C
S
a partir de la igualdad (6.9):
[f]
C
S
= [f]
B
S
[I
R
3]
C
B
=
_
_
1 1 0
1 0 1
0 1 1
_
_

1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
=
1
2
_
_
1 0 1
0 0 1
0 1 1
_
_
.

Corolario 6.10 Sean f L(V, V ), B


1
y B
2
dos bases de V . Entonces existe una matriz inver-
sible P tal que
[f]
B
2
B
2
= P
1
[f]
B
1
B
1
P.
198 Aplicaciones lineales y matrices
Demostracin. Del teorema 6.9, tenemos que:
[f]
B
2
B
2
= [I
V
]
B
2
B
1
[f]
B
1
B
1
[I
V
]
B
1
B
2
.
Sea P = [I
V
]
B
1
B
2
. Entonces P
1
= [I
V
]
B
2
B
1
. Por lo tanto:
[f]
B
2
B
2
= P
1
[f]
B
1
B
1
P.
El propsito de representar mediante una matriz una aplicacin lineal es trabajar
con la matriz en lugar de la aplicacin. En el siguiente captulo, se estudia cmo obte-
ner una matriz que tiene propiedades que hacen el trabajo ms sencillo que hacerlo
directamente con la aplicacin.
Ejemplo 6.92 Sean f L(R
2
, R
2
) denida por
f(x, y) = (x + 6y, 3x + 4y)
y el conjunto
B = (2, 1), (1, 1)
una base de R
2
. Encontremos las matrices asociadas a f respecto, en primer lugar, de la base
cannica tanto en la salida como en la llegada y, en segundo lugar, respecto de la B tanto en
la salida como en la llegada.
1. Puesto que
_
x + 6y
3x + 4y
_
=
_
1 6
3 4
__
x
y
_
,
tenemos que
[f] =
_
1 6
3 4
_
.
2. Dado que
f(2, 1) = (4, 2) = (2)(2, 1) + (0)(1, 1)
f(1, 1) = (7, 7) = 0(2, 1) + 7(1, 1).
tenemos que
[f]
B
B
=
_
2 0
0 7
_
.

En este ltimo ejemplo, podemos ver que las dos matrices que representan a f, la
segunda es diagonal. Esto la hace ms sencilla en el sentido de que en las operaciones
que se hagan con ella, el trabajo requiere menos esfuerzo (por la presencia de los ceros,
excepto en la diagonal).
Denicin 6.3 (Matrices semejantes) Dos matrices cuadradas A y B de orden n son semejan-
tes o similares si existe una matriz P inversible tal que B = P
1
AP.
De esta denicin, es inmediato que dos matrices asociadas a una misma aplica-
cin lineal f de un espacio vectorial en s mismo son siempre semejantes, gracias al
corolario 6.10 en la pgina 197.
6.3 Matriz de cambio de base 199
Denicin 6.4 (Diagonizable) Sean V un espacio vectorial de dimensin nita y f L(V, V ).
Una base B de V diagonaliza a f si y solo si la matriz asociada a f respecto a B, es de-
cir, la matriz [f]
B
B
, es una matriz diagonal. En este caso, se dice que la aplicacin lineal f es
diagonizable.
No toda matriz es diagonizable. En el siguiente captulo, se establecern condiciones
necesarias y sucientes para que una matriz sea diagonizable.
Teorema 6.11 Sean V un espacio vectorial real de dimensin n, B
1
= u
j
y B
2
= v
j
dos
bases ortonormales de V . Entonces la matriz [I
V
]
B
1
B
2
es ortogonal.
Demostracin. Sea P = [I
V
]
B
1
B
2
. Debemos probar que P
1
= P
t
. Para ello, calculemos
en primer lugar P y luego P
1
.
1. Dado que B
2
es una base ortonormal de V , para cada j, podemos escribir u
j
de
la siguiente manera:
u
j
=
n

i=1
u
j
, v
i
v
i
.
Por lo tanto, las coordenadas de u
j
respecto de B
2
son:
[u
j
]
B
2
= (u
j
, v
1
, u
j
, v
2
, . . . , u
j
, v
i
) .
Entonces:
[I
V
]
B
1
B
2
=
_
_
_
_
_
u
1
, v
1
u
2
, v
1
. . . u
n
, v
1

u
1
, v
2
u
2
, v
2
. . . u
n
, v
2

.
.
.
.
.
.
.
.
.
.
.
.
u
1
, v
n
u
2
, v
n
. . . u
n
, v
n

_
_
_
_
_
.
En otras palabras, el trmino general de la matriz P es u
j
, v
i
.
2. Recordemos que la inversa de [I
V
]
B
1
B
2
es [I
V
]
B
2
B
1
(ver el corolario 6.7 en la pgi-
na 192). Ahora bien, tenemos que
P = [I
V
]
B
1
B
2
= (u
j
, v
i
).
Si intercambiamos B
2
con B
1
en el clculo de P, obtenemos que
P
1
= [I
V
]
B
2
B
1
= (v
j
, u
i
).
Ahora solo falta probar que P
1
= P
t
. Pero esto es inmediato, ya que
u
j
, v
i
= v
i
, u
j
= v
i
, u
j
,
ya que V es un espacio vectorial sobre R. Por lo tanto, la inversa de P es la transpuesta
de P.
200 Aplicaciones lineales y matrices
Ejemplo 6.93
Sean
B
1
=
__
1

2
1

2
_
,
_

2
1

2
__
y B
2
=
__
4
5
3
5
_
,
_
3
5

4
5
__
dos bases ortonormales de R
2
. Encontrar la matriz de transicin de B
1
a B
2
.
Solucin. Sean u
k
los elementos de B
1
y v
k
los de B
2
. Entonces, por el teorema 6.11, la matriz
de transicin de B
1
a B
2
es:
[I
R
2]
B
1
B
2
= (u
j
, v
i
).
As que, calculemos todos los productos escalares u
j
, v
i
:
u
1
, v
1
=
__
1

2
1

2
_
,
_
4
5
3
5
_
_
=
7
5

2
,
u
1
, v
2
=
__
1

2
1

2
_
,
_
3
5

4
5
_
_
=
1
5

2
,
u
2
, v
1
=
__

2
1

2
_
,
_
4
5
3
5
_
_
=
1
5

2
,
u
2
, v
2
=
__

2
1

2
_
,
_
3
5

4
5
_
_
=
7
5

2
.
Por lo tanto:
[I
R
2]
B
1
B
2
=
1
5

2
_
7 1
1 7
_
.

El siguiente ejemplo utiliza la siguiente propiedad general del producto escalar:


Popiedad 6.1 Sean A una matriz de orden n por m y u y v elementos de R
n
. Entonces
Av, u =

v, A
t
u
_
.
Demostracin. La igualdad es fcilmente obtenida de la siguiente manera:
Av, u = (Av)
t
u
= (v
t
A
t
)u
= v(A
t
u) =

v, A
t
u
_
.
Ejemplo 6.94
Sea f L(R
n
, R
n
) tal que
|f(u)| = |u|
para todo u R
n
. Demuestre que:
1. Para todo u R
n
y todo v R
n
, se verica que
f(u), f(v) = u, v .)
2. La matriz [f] es ortogonal.
6.3 Matriz de cambio de base 201
Solucin.
1. Dado que
|f(u v)| = |u v| ,
y que f es lineal, tenemos que
|f(u) f(v)|
2
= |u v|
2
. (6.10)
Por otro lado, tenemos que
|f(u) f(v)|
2
= f(u) f(v), f(u) f(v)
= f(u), f(u) 2 f(u), f(v) +f(v), f(v)
= |f(u)|
2
2 f(u), f(v) +|f(v)|
2
.
De donde, concluimos que:
|f(u) f(v)|
2
= |f(u)|
2
2 f(u), f(v) +|f(v)|
2
. (6.11)
Por otro lado, tambin tenemos que
|u v|
2
= u v, u v
= u, u 2 u, v +v, v ,
de donde obtenemos que:
|u v| = |u|
2
2 u, v +|v|
2
. (6.12)
Finalmente, la propiedad transitiva aplicada a las igualdades (6.10), 6.11 y 6.12 muestra
que
|f(u)|
2
2 f(u), f(v) +|f(v)|
2
= |u|
2
2 u, v +|v|
2
,
de donde obtenemos que
2 f(u), f(v) = 2 u, v ;
es decir:
f(u), f(v) = u, v ,
que es lo que queramos demostrar.
2. Sea A = [f]. Debemos probar que A
1
= A
t
. Para ello, vamos a utilizar la propiedad 6.1
y la igualdad establecida en el numeral anterior.
Sea v R
n
. Entonces
f(v) = Av,
y, dado que f(u), f(v) = u, v, se verica la siguiente igualdad:
Au, Av = u, v .
Ahora bien, por la propiedad 6.1, la ltima igualdad implica que

u, A
t
Av
_
= u, v ,
de donde

u, A
t
Av v
_
= 0
para todo u R
n
.
202 Aplicaciones lineales y matrices
Esto signica que A
t
Av v R
n

= 0, de donde
A
t
Av v = 0
para todo v R
n
; es decir:
A
t
Av = v.
Por lo tanto, A
t
A = I, de donde A
1
= A
t
.

Ejemplo 6.95
Sea f L(R
3
, R
3
) tal que
f(1, 1, 0) = (1, 1, 1), f(1, 0, 1) = (1, 1, 1), y f(0, 1, 1) = (1, 1, 1).
Sean
B
1
= (1, 0, 1), (0, 1, 1), (1, 1, 1) y B
2
= (1, 1, 1), (1, 1, 0), (1, 1, 1)
dos bases de R
3
. Determine:
[I
R
3]
B
2
B
1
, [f]
B
1
B
1
, [f]
B
2
B
1
y [f]
B
1
B
2
.
Solucin. Sea C la base cannica de R
n
.
1.
[I
R
3]
B
2
B
1
= [I
R
3]
C
B
1
[I
R
3]
B
2
C
=
_
[I
R
3]
B
1
C
_
1
[I
R
3]
B
2
C
=
_
_
1 0 1
0 1 1
1 1 1
_
_
1
_
_
1 1 1
1 1 1
1 0 1
_
_
.
Entonces
[I
R
3]
B
2
B
1
=
_
_
0 1 2
0 1 0
1 2 1
_
_
.
2.
[f]
B
1
B
1
= [I
R
3]
C
B
1
[f]
B
1
C
=
_
[I
R
3]
B
1
C
_
1
[f]
B
1
C
=
_
_
1 0 1
0 1 1
1 1 1
_
_
1
_
_
_
_
1 1
1
2
1 1
1
2
1 1
1
2
_
_
_
_
.
6.3 Matriz de cambio de base 203
Por lo tanto:
[f]
B
1
B
1
=
_
_
2 0 0
0 2 0
1 1
1
2
_
_
.
3.
[f]
B
2
B
1
= [f]
B
1
B
1
[f]
B
2
B
1
=
_
_
2 0 0
0 2 0
1 1
1
2
_
_
_
_
0 1 2
0 1 0
1 2 1
_
_
.
Por lo tanto:
[f]
B
2
B
1
=
_
_
0 2 4
0 2 0
1
2
3
5
2
_
_
.
4.
[f]
B
1
B
2
= [I
R
3]
B
1
B
2
[f]
B
1
B
1
=
_
_
0 1 2
0 1 0
1 2 1
_
_
1
_
_
2 0 0
0 2 0
1 1
1
2
_
_
.
Por lo tanto:
[f]
B
1
B
2
=
_
_
_
0 2
1
2
0 2 0
1 1 0
_
_
_.

204 Aplicaciones lineales y matrices


Valores y
vectores
propios 7
El objetivo general de este captulo es
Resolver problemas de diagonalizacin de matrices a partir de las propieda-
des de los valores y vectores propios de las matrices, a un nivel productivo.
Para alcanzar el objetivo general se proponen los siguientes objetivos especcos.
1. Identicar los valores y vectores propios de un operador lineal y sus propiedades a
partir de las deniciones.
2. Calcular el polinomio caracterstico y los valores y vectores propios de una matriz
de orden n.
3. Calcular los valores propios de una matriz simtrica usando sus propiedades a un
nivel productivo.
4. Fundamentar la diagonalizacin de una matriz de orden mximo 4 a partir de las
propiedades bsicas de los valores y vectores propios, a un nivel reproductivo.
5. Resolver problemas de diagonalizacin de una matriz de orden mximo 4 a partir
de las propiedades bsicas de los valores y vectores propios, a un nivel reproductivo.
6. Calcular la matriz ortogonal semejante a una matriz diagonalizable dada de orden
mximo 4, a un nivel productivo.
206 Valores y vectores propios
7.1 Introduccin
Una de las aplicaciones de las ecuaciones homogneas se da en el anlisis de proble-
mas de ingeniera en los cuales se usan los valores y vectores propios en reas tales
como anlisis de vibraciones, anlisis de circuitos elctricos, teora de elasticidad, etc.
Cuando se desarrollan los modelos matemticos de problemas que aparecen en las reas
indicadas, aparecen sistemas de ecuaciones que generalmente tienen la forma
(a
11
)x
1
+ a
12
x
2
+ + a
1n
x
n
= 0,
a
21
x
1
+ (a
22
)x
2
+ + a
2n
x
n
= 0,
.
.
.
a
n1
x
1
+ a
n2
x
2
+ + (a
nn
)x
4
= 0,
en donde los coecientes a
ij
son nmeros reales, los x
i
son las variables del sistema y
es un parmetro particular del sistema que toma valores desconocidos.
En el modelado matemtico de problemas en los cuales se usan las ecuaciones
de Lagrange o las leyes de Newton aparecen ecuaciones diferenciales de la forma
X

(t) = AX(t). Por ejemplo, en un sistema vibratorio con varias cuerpos sujetos a
varios resortes, los valores de los coecientes a
ij
dependern de las masas m
i
de los
cuerpos y las constantes elsticas k
i
de los resortes, las variables x
i
sern los desplaza-
mientos de los cuerpos, y los valores resultan ser los cuadrados de las frecuencias de
oscilacin del sistema vibratorio.
Los valores y vectores propios tambin se usan en la solucin de sistemas de ecua-
ciones diferenciales lineales homogneas, en estadstica, en las cadenas de Markov que
se usan para la prediccin de eventos futuros o para analizar modelos de crecimiento
de una poblacin, en geometra analtica para identicar y gracar cnicas y cudricas,
etc. El problema original radica en modelar el sistema, analizarlo y sacar conclusiones
sobre su aplicabilidad.
7.2 Nociones fundamentales
Denicin 7.1 (Valor propio y vector propio de una aplicacin lineal) Sea f una aplicacin lineal
de un espacio vectorial V sobre un campo K en V . Se dice que un vector v V no nulo es un
vector propio de la aplicacin lineal f asociado con valor propio K si se cumple que
f(v) = v.
En la literatura matemtica es comn llamar a los valores y vectores propios valores
y vectores caractersticos, autovalores y autovectores, o eigenvalores y eigenvectores,
respectivamente.
Ejemplo 7.96 Sea la aplicacin lineal f L(V, V ) tal que f(v) = v. Entonces = 1 es
un valor propio de f y todo vector v V no nulo es un vector propio de f asociado con valor
propio = 1.
7.2 Nociones fundamentales 207
Ejemplo 7.97 Sea la aplicacin lineal f L(V, V ) tal que f(v) = 0
V
. Entonces = 0 es
un valor propio de f y todo vector v V no nulo es un vector propio de f asociado con valor
propio = 0.
Teorema 7.1 Sean f L(V, V ) y V

= v V [ f(v) = v. Entonces V

es un subespacio
vectorial del espacio vectorial V .
Demostracin.
1. 0
V
V

puesto que f(0


V
) = 0
V
= 0
V
ya que f es aplicacin lineal.
2. Por demostrarse que
( K)(u, v V ): u + v V

.
En efecto,
f(u + v) = f(u) + f(v)
= (u) + (v)
= (u + v),
por lo cual u + v V

.
El subespacio vectorial V

es el conjunto de todos los vectores propios de la aplica-


cin lineal f asociados con valor propio , unido con el conjunto que contiene el vector
nulo 0
V
. Al conjunto V

se le llama el subespacio vectorial propio de la aplicacin


lineal f asociado con valor propio .
Recordemos que a una aplicacin lineal se le puede asociar una matriz. Sea [f]
B
B
la
matriz asociado a la aplicacin lineal f : V V con respecto a la base ordenada B del
espacio vectorial V . Sea [v]
B
el vector coordenado de un vector v V con respecto a
la base ordenada B. Entonces podemos escribir
[f(v)]
B
= [f]
B
B
[v]
B
,
donde [f(v)]
B
es el vector coordenado de la imagen del vector v por la aplicacin f con
respecto a la base ordenada B. Por otro lado el vector coordenado del vector v con
respecto a la base ordenada B es
[v]
B
= [v]
B
.
Supongamos que v es un vector propio de la aplicacin lineal f asociado con valor
propio . Entonces podemos escribir las siguientes expresiones:
f(v) = v,
[f(v)]
B
= [v]
B
,
[f]
B
B
[v]
B
= [v]
B
.
208 Valores y vectores propios
Si la dimensin del espacio vectorial V es n, entonces [f]
B
B
M
n
y [v]
B
M
n1
.
Notemos A = [f]
B
B
y u = [v]
B
. La expresin [f]
B
B
[v]
B
= [v]
B
la podemos escribir as:
Au = u.
Este resultado muestra que los valores propios de la aplicacin lineal f y su matriz
asociada son los mismos. Adems, motiva la siguiente denicin.
Denicin 7.2 (Valor propio y vector propio de una matriz) Sea A una matriz cuadrada de orden
n sobre el campo de los nmeros complejos. Se dice que un vector v M
n1
no nulo es un
vector propio de la matriz A asociado con valor propio K si se cumple que
Au = u.
Independientemente de que una matriz cuadrada sea o no la representacin matricial
de alguna aplicacin lineal, con la denicin anterior podemos hablar de los valores y
vectores propios de esa matriz.
Los valores propios y los elementos de los vectores propios de una matriz sobre
el campo de los nmeros reales pueden ser nmeros complejos. Esto no es ningn
inconveniente pues toda matriz sobre el campo de los nmeros reales es una matriz
sobre el campo de los nmeros complejos.
Si A es una matriz cuadrada de orden n diremos que V

M
n1
es el subespacio
vectorial propio de la matriz A, asociado con valor propio .
Teorema 7.2 Sean f L(V, V ) y K. Sea A la matriz asociada a f. Las siguientes arma-
ciones son equivalentes:
a) es un valor propio de A (o de f).
b) La matriz (A I) no es inversible (o f I
V
no es inversible.
c) [A I[ = 0.
Demostracin.
1. a) b): si es un valor propio de f, entonces existe un vector v no nulo tal que
f(v) = v que se puede escribir como
(f I
V
)(v) = 0
y como v ,= 0 podemos escribir
A(f I
V
) ,= 0
V
,
de donde concluimos que f I
V
no es inyectiva y, por lo tanto, no es inversible.
2. b) c): si f I
V
no es inversible, entonces AI no es inversible, razn por la
cual det(AI) = 0.
7.2 Nociones fundamentales 209
3. c) a): si det(AI) = 0, entonces existe un vector v no nulo tal que
(AI)v = O.
Esta ltima expresin es un sistema lineal homogneo que tiene soluciones no nulas
y lo podemos escribir as:
Av Iv = O,
Av = v + O,
Av = v.
Esta ltima expresin muestra que es un valor propio de la matriz A o de la
aplicacin lineal f.
El teorema anterior permite encontrar los valores propios de una aplicacin lineal
f o de su matriz asociada A por medio de la solucin de la ecuacin
det(A I) = 0.
Los vectores propios v de la matriz A se encuentran resolviendo el sistema lineal ho-
mogneo
(AI)v = O.
Ejemplo 7.98
Hallar los valores y vectores propios de la matriz
A =
_
10 18
6 11
_
.
Solucin. Para hallar los valores propios de la matriz A resolvemos la ecuacin [AI[ = 0:

_
10 18
6 11
_

_
1 0
0 1
_

= 0,

10 18
6 11

= 0,
(10 )(11 ) + 108 = 0,

2
+ 2 = 0,
( 1)( + 2) = 0.
Luego los valores propios de la matriz A son
1
= 2 y
2
= 1.
Calculemos ahora los vectores propios de la matriz A.
Sea el valor propio
1
= 2. Para hallar los vectores propios v asociados con valor propio

1
= 2 resolvemos el sistema lineal
(A
1
I)v = O,
_
10
1
18
6 11
1
__
u
1
u
2
_
=
_
0
0
_
,
210 Valores y vectores propios
_
10 (2) 18
6 11 (2)
__
u
1
u
2
_
=
_
0
0
_
,
_
12 18
6 9
__
u
1
u
2
_
=
_
0
0
_
.
Para resolver el sistema lineal homogneo
12u
1
18u
2
= 0,
6u
1
9u
2
= 0,
hallamos su matriz escalonada reducida por las:
(A
1
I [ O) =
_
12 18 [ 0,
6 9 [ 0,
_

_
2 3 [ 0,
0 0 [ 0,
_
.
Sea u
2
= 2r R 0. Entonces u
1
= 3r y
v =
_
3r
2r
_
, r R 0
nos da el conjunto de vectores propios de la matriz A asociados al valor propio
1
= 2.
En particular, si r = 1 obtenemos
v
1
=
_
3
2
_
,
un vector propio de la matriz A asociado al valor propio
1
= 2.
El subespacio vectorial propio asociado con valor propio
1
= 2 es
V

1
=2
=
___
3
2
___
.
Sea el valor propio
2
= 1. Solo indicamos los pasos de obtencin del vector propio asociado
a
2
:
(A
2
I)v = O,
_
10
2
18
6 11
2
__
u
1
u
2
_
=
_
0
0
_
,
_
9 18
6 12
__
u
1
u
2
_
=
_
0
0
_
,
(A
1
I [ O) =
_
9 18 [ 0
6 12 [ 0
_

_
1 2 [ 0
0 0 [ 0
_
.
Sea u
2
= r R 0. Entonces u
1
= 2r y
v =
_
2r
r
_
, r R 0
nos da el conjunto de vectores propios de la matriz A asociados al valor propio
2
= 1. En
particular, si r = 1 obtenemos
v
2
=
_
2
1
_
,
un vector propio de la matriz A asociado al valor propio
2
= 1.
El subespacio vectorial propio asociado con valor propio
2
= 1 es
V

2
=1
=
___
2
1
___
.
7.2 Nociones fundamentales 211
Veriquemos que (
3r
2r
), r R 0 da el conjunto de vectores propios de la matriz A
asociados con valor propio
1
= 2:
Av =
_
10 18
6 11
__
3r
2r
_
=
_
6r
4r
_
= 2
_
3r
2r
_
=
1
v, para todo r R.

Denicin 7.3 (Polinomio y ecuacin caractersticos) Sea la matriz A M


n
. A P
A
() = [AI[
se le llama polinomio caracterstico de la matriz A. La ecuacin P
A
() = 0 recibe el nombre
de ecuacin caracterstica de la matriz A.
Las races del polinomio caracterstico son los valores propios de la matriz A.
Teorema 7.3 Los valores propios de la aplicacin lineal f L(V, V ) no dependen de la eleccin
de la matriz asociada a f.
Demostracin. Sean S y T dos bases del espacio vectorial V . Sean A = [f]
S
S
y V = [f]
E
T
las matrices asociadas a la aplicacin lineal f, respectivamente. Si P = [I
V
]
T
S
es la matriz
de cambio de base de T a S, entonces B = P
1
AP. Por demostrar que P
B
() = P
A
().
En efecto, tenemos las siguientes expresiones:
P
B
() = [B I[ = [P
1
AP I[
= [P
1
AP P
1
P[ = [(P
1
AP
1
)P[
= [(P
1
AP
1
I)P[ = [(P
1
AP
1
I)P[
= [P
1
(AI)P[ = [P
1
[ [AI[ [P[
= [P
1
[ [P[ [AI[ = [P
1
P[ [AI[
= [I[ [AI[ = 1 [AI[
= [AI[
= P
A
().
Como los polinomios caractersticos de las matrices A y B son iguales, entonces los
valores propios de A y B son los mismos.
Los valores propios de una matriz asociada a una aplicacin lineal f con respecto
a cualquier base son los valores propios de la aplicacin lineal f.
Estamos en condiciones de delinear el siguiente procedimiento para hallar los valores
y vectores propios de una aplicacin lineal f : V V :
1. Hallar la representacin matricial de la aplicacin lineal con respecto a cualquier
base B del espacio vectorial V .
2. Hallar los valores y vectores propios de esa representacin matricial de f.
3. Los valores propios de la representacin matricial son tambin los valores propios
de la aplicacin lineal.
4. Los vectores propios de la representacin matricial son los vectores coordenados
de los vectores propios de la aplicacin lineal.
212 Valores y vectores propios
Ejemplo 7.99
Sea la aplicacin lineal f L(R
2
, R
2
) tal que f(x, y) = (x2y, 7x+8y). Hallar
los valores y vectores propios de la aplicacin lineal f.
Solucin. Primero hallamos los valores y vectores propios de una matriz A asociada a f con
respecto a cualquier base. Por ser ms cmodo escogemos la base cannica C = e
1
, e
2
=
(1, 0), (0, 1). No es difcil hallar la matriz
A = [f]
C
C
=
_
1 2
7 8
_
.
Hallemos los valores propios de la matriz A:
[A I[ = 0,

1 2
7 8

= 0,
( 1)( 6) = 0.
Los valores propios de la matriz A son
1
= 1 y
2
= 6.
Hallemos los vectores propios de la matriz A.
Sea el valor propio
1
= 1.
(A
1
I)v = O,
_
1 1 2
7 8 1
__
u
1
u
2
_
=
_
0
0
_
,
_
2 2
7 7
__
u
1
u
2
_
=
_
0
0
_
.
El sistema lineal se reduce a la ecuacin u
1
u
2
= 0. Sea u
2
= r, r R 0. Entonces
u
1
= r. Si r = 1 tenemos que
v
1
=
_
1
1
_
es un vector propio de la matriz A asociado con valor propio
1
= 1.
Sea el valor propio
2
= 6.
(A
2
I)v = O,
_
1 6 2
7 8 6
__
u
1
u
2
_
=
_
0
0
_
,
_
7 2
7 2
__
u
1
u
2
_
=
_
0
0
_
.
El sistema lineal se reduce a la ecuacin 7u
1
+2u
2
= 0. Sea u
2
= 7r, r R0. Entonces
u
1
= 2r. Si r = 1 tenemos que
v
2
=
_
2
7
_
es un vector propio de la matriz A asociado con valor propio
2
= 6.
7.2 Nociones fundamentales 213
Los vectores propios v
1
y v
2
de la matriz A son los vectores coordenados de los vectores propios
u
1
y u
2
, respectivamente, de la aplicacin lineal f. Es decir, v
1
= [w
1
]
C
y v
2
= [w
1
]
C
. Por lo
tanto,
w
1
= 1 e
1
+ 1 e
2
= 1(1, 0) + 1(0, 1) = (1, 1) R
2
es un vector propio de la aplicacin lineal f asociado con valor propio
1
= 1, y
w
2
= 2 e
1
+ 7 e
2
= 2(1, 0) + 7(0, 1) = (2, 7) R
2
es un vector propio de la aplicacin lineal f asociado con valor propio
2
= 6.
Los conjuntos
W

1
=1
= (1, 1) y W

2
=6
= (2, 7)
son los subespacios vectoriales propios de la aplicacin lineal f asociados a los valores propios

1
= 1 y
2
= 2, respectivamente.
7.2.1 Polinomio caracterstico
Hay una forma interesante para escribir el polinomio caracterstico de una matriz.
1. Si tenemos la matriz
A =
_
a b
c d
_
,
entonces el polinomio caracterstico de la matriz A puede escribirse como
p
A
() = [AI[
=

a b
c d

=
2
(a + d) + (ad bc)
=
2
tr(A) +[A[.
2. Si tenemos la matriz
A =
_
_
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
_
_
,
entonces el polinomio caracterstico de la matriz A puede escribirse como
p
A
() = [AI[
=

a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3

=
3
+ tr(A)
2
k +[A[,
donde
k =

a
1
b
1
a
2
b
2

b
2
c
2
b
3
c
3

a
1
c
1
a
3
c
3

.
214 Valores y vectores propios
3. Si tenemos la matriz
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
,
entonces el polinomio caracterstico de la matriz A puede escribirse como
p
A
() = [AI[
=

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

= (1)
n
_

n1
+
2

n2

n3
+ + (1)
n

n
_
,
donde

1
= tr(A),

2
=

i<j

a
ii
a
ij
a
ji
a
jj

3
=

i<j<r

a
ii
a
ij
a
ir
a
ji
a
jj
a
jr
a
ri
a
rj
a
rr

,
.
.
.

n
= [A[.
Podemos decir que
2
es la suma de todos los menores diagonales de segundo orden
de la matriz A,
3
es la suma de todos los menores diagonales de tercer orden de la
matriz A, etc.
Antes de dar la siguiente denicin recordemos que un polinomio de grado n tiene
n races no necesariamente distintas.
Denicin 7.4 (Multiplicidad algebraica y geomtrica) Sea p
A
() el polinomio caracterstico de
grado n de la matriz A de orden n. el polinomio tiene n races y puede escribirse como
p
A
() = (
1
)
r
1
(
2
)
r
2
(
m
)
rm
,
donde r
1
+r
2
+ r
m
= n.
1. Se llama multiplicidad algebraica del valor propio
i
al nmero r
i
, i = 1, 2, . . . , m.
2. Se llama multiplicidad geomtrica del valor propio
i
a la dimensin del subespacio
vectorial V

i
, i = 1, 2, . . . , m.
En otras palabras, la multiplicidad algebraica de un valor propio es el nmero de
veces que se repite dicho valor propio, y la multiplicidad geomtrica es el nmero de
vectores propios linealmente independientes que genera el valor propio. Si la multipli-
cidad algebraica de un valor propio es 1, entonces la multiplicidad geomtrica tambin
es 1. Pero si la multiplicidad algebraica es p > 1, p n, entonces la multiplicidad
geomtrica puede ser 1 o 2 o hasta p. Todo valor propio tiene asociado con menos un
vector propio.
7.2 Nociones fundamentales 215
Ejemplo 7.100
Hallar las multiplicidades algebraica y geomtrica de los valores propios de la matriz
A =
_
_
2 1 1
0 3 1
2 1 3
_
_
.
Solucin. Hallemos los valores propios de la matriz A:
p
A
() =

2 1 1
0 3 1
2 1 3

=
3
+ 8
2
20 + 16 = ( 2)
2
( 4) = 0.
Entonces
1
= 2 y
2
= 4 son los valores propios de la matriz A, de multiplicidades algebraicas
2 y 1, respectivamente. La multiplicidad geomtrica de
2
es 1.
Hallemos los vectores propios de la matriz A.
Sea el valor propio
1
= 2.
(A
1
I)v = O,
(A
1
I [ O) =
_
_
0 1 1 [ 0
0 1 1 [ 0
2 1 1 [ 0
_
_

_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
.
Sea u
3
= r R 0. Entonces, u
1
= r y u
2
= r y
v =
_
_
r
r
r
_
_
r R 0
es el conjunto de vectores propios de la matriz A asociados con valor propio
1
= 2. Si
r = 1, tenemos
v
1
=
_
_
1
1
1
_
_
que es un vector propio de la matriz A asociados con valor propio
1
= 2, y
V

1
=2
=
_
_
_
_
_
_
1
1
1
_
_
_
_
_
_
es el subespacio vectorial propio de la matriz A asociado con valor propio
1
= 2. Como la
dimensin del subespacio vectorial propio V

1
=2
es 1, entonces la multiplicidad geomtrica
del valor propio
1
= 2 es 1.
Sea el valor propio
2
= 4.
(A
2
I)v = O,
(A
2
I [ O) =
_
_
2 1 1 [ 0
0 1 1 [ 0
2 1 1 [ 0
_
_

_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
.
216 Valores y vectores propios
Entonces
v =
_
_
r
r
r
_
_
r R 0
es el conjunto de vectores propios de la matriz A asociados con valor propio
2
= 4. El
vector
v
2
=
_
_
1
1
1
_
_
es un vector propio de la matriz A asociado con valor propio
2
= 4, y
V

2
=4
=
_
_
_
_
_
_
1
1
1
_
_
_
_
_
_
es el subespacio vectorial propio de la matriz A asociado con valor propio
2
= 4. La
multiplicidad geomtrica del valor propio
2
= 4 es 1.

Teorema 7.4 Sea la aplicacin lineal f L(V, V ). Sean


1
,
1
, . . . ,
k
, k valores propios de
f distintos dos a dos. Entonces los k vectores propios asociados con los valores propios
i
,
i = 1, 2, . . . , k, son linealmente independientes.
Demostracin. Sean v
i
los vectores propios asociados con los valores propios
i
para
i = 1, 2, . . . , k. Es decir f(v
i
) =
i
v
i
para i = 1, 2, . . . , k. Por demostrar que si

1
v
1
+
2
v
2
+ +
k
v
k
= 0
V
,
entonces
1
=
2
= =
k
= 0.
La demostracin es por induccin.
i. Demostracin para k = 1. si
1
v
1
= 0
V
entonces
1
= 0, puesto que v
1
,= 0
V
.
ii. Suponemos que es verdad para j y demostraremos para j + 1. Sea

1
v
1
+
2
v
2
+ +
j
v
j
+
j+1
v
j+1
= 0
V
. (7.1)
Entonces

j+1
v
1
+
2

j+1
v
2
+ +
j

j+1
v
j
+
j+1

j+1
v
j+1
= 0
V
. (7.2)
De (7.1):

1
f(v
1
) +
2
f(v
2
) + +
j
f(v
j
) +
j+1
f(v
j+1
) = 0
V
. (7.3)
Entonces

1
v
1
+
2

2
v
2
+ +
j

j
v
j
+
j+1

j+1
v
j+1
= 0
V
. (7.4)
Hacemos (7.2) - (7.4):

1
(
j+1

1
)v
1
+
2
(
j+1

2
)v
2
+ +
j
(
j+1

j
)v
j
= 0
V
. (7.5)
7.3 Matrices simtricas 217
Como los valores propios son distintos dos a dos tenemos que
j+1

j
para j =
1, 2, . . . , k 1. Luego de (4) se concluye que

1
=
2
= =
j
= 0,
por hiptesis inductiva. De (7.1) se tiene a
j+1
v
j+1
= 0
V
, por lo cual a
j+1
= 0 pues
v
j+1
,= 0
V
. Por i. y ii. se concluye el teorema.
Corolario 7.5 Sea la aplicacin lineal f L(V, V ) tal que dim(V ) = n. Si
1
,
1
, . . . ,
n
son n
valores propios de f distintos dos a dos, entonces los n vectores propios v
1
, v
2
, . . . , v
n
asociados
forman una base del espacio vectorial V .
7.3 Matrices simtricas
Teorema 7.6 Toda matriz simtrica A M
n
(R) posee n valores propios reales, no necesaria-
mente distintos.
Demostracin. Sea un valor propio de la matriz A. Entonces existe una matriz v no
nula tal que Av = v. Por demostrar que =

. Tenemos que
Av, v = v, v = v, v = |v|
2
, (7.6)
Av, v = v, A
t
v = v, Av = v, v =

v, v =

|v|
2
. (7.7)
De (7.6) y (7.7) tenemos que
|v|
2
=

|v|
2
.
Como v ,= 0
V
, =

. Es decir, es un nmero real.
Teorema 7.7 Los vectores propios de una matriz simtrica real, asociados a valores propios
distintos, son ortogonales.
Demostracin. Sean
i
y
j
dos valores propios de una matriz simtrica A M(R)
tales que
i
,=
j
. Sean v
i
y v
j
los vectores propios asociados de la matriz A asociados
a los valores propios
i
y
j
, respectivamente, es decir:
Av
i
=
i
v
i
y Av
j
=
j
v
j
.
Por demostrar que v
i
, v
j
= 0 para i ,= j. En efecto:
Av
i
, v
j
=
i
v
i
, v
j
=
i
v
i
, v
j
, (7.8)
Av
i
, v
j
= v
i
, A
t
v
j
= v
i
, Av
j
= v
i
,
j
v
j
=

j
v
i
, v
j
=
j
v
i
, v
j
. (7.9)
De (7.8) y (7.9):
(
i

j
) v
i
, v
j
= 0.
Pero (
i

j
) ,= 0, por lo cual v
i
, v
j
= 0.
218 Valores y vectores propios
Corolario 7.8 Sean la aplicacin lineal f L(V, V ) y la matriz simtrica A M
n
(R) asociada
a f con respecto a cualquier base. Si la matriz A tiene n valores propios distintos dos a dos,
entonces los vectores propios de f forman una base ortogonal del espacio vectorial V .
Ejemplo 7.101
Sean f L(R
3
, R
3
) y
A = [f]
C
C
=
_
_
9 3 0
3 12 3
0 3 9
_
_
.
Calcular los valores y vectores propios de la matriz A y de la aplicacin lineal f.
Solucin. Hallemos los valores propios de la matriz A:
p
A
() = [A I[
=

9 3 0
3 12 3
0 3 9

= (
3
30
2
+ 279 810)
= ( 6)( 9)( 15)
= 0,
de donde encontramos

1
= 6,
2
= 9, y
3
= 15,
que son los valores propios de la matriz A y la aplicacin lineal f.
Encontremos los vectores propios de la matriz A:
Sea el valor propio
1
= 6:
(A
1
I [ O =
_
_
3 3 0 [ 0
3 6 3 [ 0
0 3 3 [ 0
_
_

_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
1
=
_
_
1
1
1
_
_
es un vector propio de la matriz A asociado al valor propio
1
= 6. Fcilmente se encuentra
que u
1
= (1, 1, 1) es un vector propio de la aplicacin lineal f asociado al valor propio

1
= 6.
Sea el valor propio
2
= 9:
(A
1
I [ O =
_
_
0 3 0 [ 0
3 3 3 [ 0
0 3 0 [ 0
_
_

_
_
1 0 1 [ 0
0 1 0 [ 0
0 0 0 [ 0
_
_
,
7.3 Matrices simtricas 219
de donde tenemos que
v
2
=
_
_
1
0
1
_
_
es un vector propio de la matriz A asociado al valor propio
2
= 9 y u
2
= (1, 0, 1) es un
vector propio de la aplicacin lineal f asociado al valor propio
2
= 9.
Sea el valor propio
3
= 15:
(A
1
I [ O =
_
_
6 3 0 [ 0
3 3 3 [ 0
0 3 6 [ 0
_
_

_
_
1 0 1 [ 0
0 1 2 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
3
=
_
_
1
2
1
_
_
es un vector propio de la matriz A asociado al valor propio
3
= 15 y u
3
= (1, 2, 1) es un
vector propio de la aplicacin lineal f asociado al valor propio
3
= 15.
La matriz A de este ejemplo es simtrica y podemos vericar las propiedades enunciadas
anteriormente para las matrices simtricas:
Los valores propios de la matriz,
1
= 6,
2
= 9, y
3
= 15, son nmeros reales.
Como los valores propios de la matriz A son distintos dos a dos, los vectores propios de la
matriz A tambin son distintos dos a dos y, por ser matriz simtrica, son ortogonales:
v
1
, v
2
= tr(v
1
v
t
2
) = 0,
v
1
, v
3
= tr(v
1
v
t
3
) = 0,
v
2
, v
3
= tr(v
2
v
t
3
) = 0.
Igual cosa sucede con los vectores propios de la aplicacin lineal f:
u
1
, u
2
= (1, 1, 1), (1, 0, 1) = 0,
u
1
, u
3
= (1, 1, 1), (1, 2, 1) = 0,
u
2
, u
3
= (1, 0, 1), (1, 2, 1) = 0.
Los vectores propios de la matriz A constituyen una base
B
1
= v
1
, v
2
, v
3
=
_
_
_
_
_
1
1
1
_
_
,
_
_
1
0
1
_
_
,
_
_
1
2
1
_
_
_
_
_
ortogonal del espacio vectorial M
31
, y los vectores propios de la aplicacin lineal f cons-
tituyen una base
B
2
= u
1
, u
2
, u
3
= (1, 1, 1), (1, 0, 1), (1, 2, 1)
del espacio vectorial R
3
.

220 Valores y vectores propios


Teorema 7.9 Sean la aplicacin lineal f L(V, V ) y una matriz simtrica A M
n
(R) asociada
a f con respecto a una base B del espacio vectorial V . Entonces existe una base ortogonal de
V formada por vectores propios de la aplicacin lineal f.
Demostracin. Se hace la demostracin por induccin sobre la dimensin del espacio
vectorial V . Sea dim(V ) = n.
1. Si n = 1, no hay dada que demostrar pues para hablar de base ortogonal se necesita
que la base tenga al menos dos vectores.
2. Sea n > 1. La matriz A tiene al menos un vector propio. Sea v
1
ese vector propio el
cual satisface la ecuacin Av
1
=
1
v
1
.
Sea
W = v
1

= u V [ u, v
1
= 0.
Es claro que dim(W) = n 1.
Sea f[
W
L(W, W) la aplicacin lineal f restringida al subespacio vectorial W. La
matriz asociada a esta aplicacin lineal sigue siendo simtrica. Luego, por hiptesis
inductiva, se tiene que existe una base ortogonal de vectores propios de f para el
subespacio vectorial W. Sea S = u
1
, u
2
, . . . , u
n1
dicha base.
Como u
i
, v
1
= 0 para todo i = 1, 2, . . . , n1, el conjunto B = v
1
, u
1
, u
2
, . . . , u
n1

es una base ortogonal para el espacio vectorial V , formada por vectores propios de
f.
De esta propiedad se deduce que de toda matriz simtrica real de orden n se pueden
obtener n vectores propios ortogonales. Esto signica que la multiplicidad geomtrica
de un un valor propio de una matriz simtrica real es igual a la multiplicidad algebraica
de dicho valor propio.
Ejemplo 7.102
Sea la matriz
A =
_
_
3 2 4
2 0 2
4 2 3
_
_
asociada a la aplicacin lineal f L(R
3
, R
3
) con respecto a la base cannica.
a. Calcular los valores propios de la matriz A y la aplicacin lineal f, y los
vectores propios de f.
b. Construir una base ortogonal del espacio vectorial R
3
, formada por vectores
propios de f.
Solucin.
7.3 Matrices simtricas 221
a. Hallemos los valores propios de A y f:
p
A
() = [A I[
=

3 2 4
2 2
4 2 3

= (
3
6
2
15 8)
= ( + 1)
2
( 8)
= 0,
de donde encontramos

1
= 1, y
2
= 8,
que son los valores propios de la matriz A y la aplicacin lineal f. El valor
1
= 1 es
de multiplicidad algebraica 2 y
2
= 8, de multiplicidad algebraica 1. Como A es una
matriz simtrica, la multiplicidad geomtrica de los dos valores es necesariamente igual a la
algebraica: esto signica que
1
genera dos vectores propios y
2
genera un vector propio.
Encontremos los vectores propios de la matriz A:
Sea el valor propio
1
= 1:
(A
1
I [ O =
_
_
4 2 4 [ 0
2 1 2 [ 0
4 2 4 [ 0
_
_

_
_
2 1 2 [ 0
0 0 0 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
1
=
_
_
1
2
0
_
_
y v
2
=
_
_
0
2
1
_
_
son dos vectores propios de la matriz A asociados al valor propio
1
= 1. De donde
u
1
= (1, 2, 0) y u
2
= (0, 2, 1)
son dos vectores propios de la aplicacin lineal f asociados al valor propio
1
= 1.
Sea el valor propio
2
= 8:
(A
1
I [ O =
_
_
5 2 4 [ 0
2 8 2 [ 0
4 2 5 [ 0
_
_

_
_
1 0 1 [ 0
0 2 1 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
3
=
_
_
2
1
2
_
_
es un vector propio de la matriz A asociado al valor propio
2
= 8 y
u
3
= (2, 1, 2)
u
3
= (2, 1, 2) es un vector propio de la aplicacin lineal f asociado al valor propio

2
= 8.
222 Valores y vectores propios
b. Debido a que A es matriz simtrica, el vector propio u
3
es ortogonal a u
1
y u
2
:
u
3
, u
1
= (2, 1, 2), (1, 2, 0) = 0,
u
3
, u
2
= (2, 1, 2), (0, 2, 1) = 0,
pero u
1
y u
2
no son necesariamente ortogonales, como en efecto es el caso:
u
1
, u
2
= (1, 2, 0), (0, 2, 1) = 4 ,= 0.
Sin embargo el conjunto u
1
, u
2
se puede ortogonalizar con el proceso de Gram-Schmidt; el
nuevo conjunto est formado por vectores que siguen siendo vectores propios de la aplicacin
lineal f asociados al valor propio
1
= 1. Ortogonalicemos, pues el conjunto u
1
, u
2
:
Sean
w
1
= u
1
= (1, 2, 0),
w
2
= u
2

u
2
, w
1

|w
1
|
2
w
1
= (0, 2, 1)
(0, 2, 1), (1, 2, 0)
|(1, 2, 0)|
2
(1, 2, 0)
= (0, 2, 1)
4
5
(1, 2, 0)
= (0, 2, 1)
_
4
5
,
8
5
, 0
_
=
_

4
5
,
2
5
, 1
_
.
Si llamamos w
3
= u
3
= (2, 1, 2),
B = w
1
, w
2
, w
3
=
_
(1, 2, 0),
_

4
5
,
2
5
, 1
_
, (2, 1, 2)
_
es una base ortogonal del espacio vectorial R
3
formada por vectores propios de la aplicacin
lineal f.

7.4 Diagonalizacin
Denicin 7.5 (Diagonalizable) Sea f L(V, V ). Se dice que f es diagonalizable si y solo si
existe una base B tal que la representacin matricial de f respecto de B es una matriz diagonal.
Observaciones
1. Una matriz A = [f]
C
C
es diagonalizable si y solo si existe una base B tal que
[f]
B
B
= [Id]
C
B
[f]
C
C
[Id]
B
C
es una matriz diagonal.
7.4 Diagonalizacin 223
2. Una matriz A es diagonalizable si y solo si existe una matriz P inversible tal que la
matriz
D = P
1
AP
es una matriz diagonal.
3. Si una matriz A es diagonalizable, entonces A es semejante a una matriz diagonal
D.
4. Dos matrices semejantes tienen los mismos valores propios.
Teorema 7.10 Sea f L(V, V ) tal que dim(V ) = n. Entonces f es diagonalizable si y solo si
f tiene n vectores linealmente independientes.
Demostracin. Sea A = [f]
C
C
.
1. Supongamos que f tiene n vectores propios linealmente independientes. Demostre-
mos que f es diagonalizable. Para ello, mostraremos que hay una base B de V
respecto de la cual la matriz A es diagonal.
Sean v
1
= (v
11
v
21
v
n
1)
t
, v
2
= (v
12
v
22
v
n2
)
t
, . . . , v
n
= (v
1n
v
2n
v
nn
)
t
los n vectores propios linealmente independientes y sean
1
,
2
, . . . ,
n
los valores
propios asociados, respectivamente (no todos los
i
son necesariamente distintos).
Sea
P =
_
_
_
_
v
11
v
12
v
1n
v
21
v
22
v
2n

v
n1
v
n2
v
nn
_
_
_
_
.
Como el conjunto v
1
, v
2
, . . . , v
n
es linealmente independiente, entonces la matriz
P es inversible. Adems, se tiene que:
AP =
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
v
11
v
12
v
1n
v
21
v
22
v
2n

v
n1
v
n2
v
nn
_
_
_
_
=
_
Av
1
Av
2
Av
n
_
=
_

1
v
1

2
v
2

n
v
n
_
=
_
_
_
_

1
v
11

2
v
12

n
v
1n

1
v
21

2
v
22

n
v
2n

1
v
n1

2
v
n2

n
v
nn
_
_
_
_
=
_
_
_
_
v
11
v
12
v
1n
v
21
v
22
v
2n

v
n1
v
n2
v
nn
_
_
_
_
_
_
_
_

1
0 0
0
2
0

0 0
n
_
_
_
_
.
224 Valores y vectores propios
Por lo tanto
AP = PD, (7.10)
donde D = diag
1
,
2
, . . . ,
n
es una matriz diagonal cuya diagonal tiene a los
valores propios de A.
Finalmente, de (7.10), tenemos que
D = P
1
AP;
es decir, la matriz A es semejante a una matriz diagonal; por lo tanto, A es diago-
nalizable, como se quera demostrar.
2. Supongamos, ahora, que f es diagonalizable. Probemos que f tiene n vectores pro-
pios linealmente independientes.
Como f es diagonalizable, la matriz A tambin lo es; por lo tanto, existe una matriz
P, inversible, tal que la matriz
D = P
1
AP (7.11)
es una matriz diagonal. Sean v
1
, v
2
, . . . , v
n
las columnas de la matriz P; entonces,
cada v
i
es un vector de V . Sean
i
los elementos de la diagonal de D.
Por un lado, tenemos que:
PD =
_
v
1
v
2
v
n
_
_
_
_
_

1
0 0
0
2
0

0 0
n
_
_
_
_
=
_

1
v
1

2
v
2

n
v
n
_
.
Por otro,
AP = A
_
v
1
v
2
v
n
_
=
_
Av
1
Av
2
Av
n
_
.
Por lo tanto, por la denicin de igualdad de matrices aplicado a (7.11), podemos
concluir que
Av
i
=
i
v
i
;
es decir, los vectores v
i
son los vectores propios de A y
i
los valores propios aso-
ciados. Finalmente, como P es inversible, el conjunto v
1
, v
2
, . . . , v
n
es linealmente
independiente.
De la demostracin, podemos ver que si una aplicacin lineal f es diagonalizable,
existe siempre una matriz P inversible tal que D = P
1
[f]
C
C
P que es diagonal, donde
los elementos de esta diagonal son, precisamente, los valores propios de [f
C
C
], y las
columnas de P son los vectores propios correspondientes; es decir, la matriz asociada
a f respecto a la base formada por estos vectores propios tiene una representacin
diagonal.
Corolario 7.11 Si A M
n
tiene n valores propios distintos dos a dos, entonces A es diagonali-
zable.
7.4 Diagonalizacin 225
Corolario 7.12 Toda matriz simtrica A M
n
(R) es diagonalizable.
Teorema 7.13 Sea f L(V, V ) y dim(V ) = n. Si f tiene una representacin matricial A
simtrica, entonces existe una matriz ortogonal P tal que la matriz P
t
AP es una matriz diagonal
donde los valores propios de A son los elementos de la diagonal.
Demostracin. Como A es simtrica, es diagonalizable. Entonces, por el teorema 7.10,
la matriz P de los vectores propios de A tal que
D = P
1
AP (7.12)
es la matriz diagonal de los valores propios de A.
Tenemos, adems, que P
t
P = I, puesto que los vectores columnas de I son orto-
normales, de manera que P
1
= P
t
. As, por (7.12), tenemos que D = P
t
AP.
Denicin 7.6 (Matriz diagonalizable ortogonalmente) Una matriz A M
n
se dice que es diago-
nalizable ortogonalmente si y solo si existe una matriz ortogonal P tal que la matriz D = P
t
AP
es diagonal.
Ejemplo 7.103
Determinar una matriz P ortogonal tal que D = P
t
AP sea diagonal, donde A es la
matriz simtrica real
A =
_
_
3 2 4
2 0 2
4 2 3
_
_
.
Solucin. Por el teorema 7.13, la matriz buscada es la matriz de los vectores propios orto-
normales.
La matriz tiene dos valores propios:
1
= 1 y
2
= 8. Hay dos vectores propios asociados
a
1
y son:
v
1
=
1

5
(1, 2, 0) y v
2
=

5
3
_

4
5
,
2
5
, 1
_
.
El vector propio asociado a
2
es:
v
3
=
1
3
(2, 1, 2).
Por lo tanto, la matriz P buscada es:
1
3

5
_
_
3 4 2

5
6 2

5
0 5 2

5
_
_
.
226 Valores y vectores propios
A pesar de que no es necesario, pues el teorema 7.13 nos lo garantiza, veriquemos que
P
t
AP es la matriz diagonal de los valores propios:
P
t
AP =
1
45
_
_
3 6 0
4 2 5
16

5 8

5 16

5
_
_
_
_
3 2 4
2 0 2
4 2 3
_
_
_
_
3 4 2

5
6 2

5
0 5 2

5
_
_
=
1
45
_
_
45 0 0
0 45 0
0 0 360
_
_
= diag1, 1, 8.

7.5 Cadenas de Markov


Las cadenas de Markov se emplean para analizar sistemas que en un momento dado
pueden estar en un estado de nmero nito de estados; as, una persona puede tener
una deuda o no tenerla; el clima puede estar seco o hmedo; un sistema mecnico puede
estar en equilibrio o bien fuera de equilibrio. En cada caso, el sistema puede cambiar de
un estado a otro. Adems, existe una probabilidad de transcicin de un estado a otro,
entre tiempos de observacin sucesivos. El objetivo del anlisis de Markov es calcular
la probabilidad de que un sistema se encuentre en un estado en particular en un tiempo
futuro, y determinar el comportamiento del sistema a largo plazo.
Ejemplo 7.104 Se considera el sistema de un estudiante E quien puede estar en los
estados:
_
s
1
: calicacin p < 7.5
s
2
: calicacin p 7.5.
Se supone que la calicacin mxima es 10 y que p es la calicacin de una prueba. El
resultado de las observaciones en el nivel de enseanza media es que si E se halla en estado
s
1
en una prueba, entonces estudiar ms para la prxima prueba y lograr el estado s
2
con
una probabilidad de 0.8, y, en consecuencia, la probabilidad de que un estudiante est en el
estado s
1
es de 0.2.
Pero, si E se encuentra en s
2
en una prueba, para la siguiente prueba se relajar y caer
en el estado s
1
con una probabilidad de 0.3, y, en consecuencia, estar en el estado s
2
con una
probabilidad de 0.7.
En este ejemplo, se ha supuesto que el desempeo de E en una prueba est determinado
nicamente por su motivacin debida a su calicacin de la prueba anterior.
Las probabilidades anteriores se llaman probabilidades de transicin, y se las dispone en
una matriz:
Estado en el tiempo T
k1
M =
_
0.2 0.3
0.8 0.7
_
s
1
s
2
Estado en el tiempo T
k
.
Obsrvese que la suma de cada columna es igual a 1.
La matriz M es denominada matriz de transicin para la cadena de Markov.
Como ejemplo, supongamos que el estudiante tiene una nota de p = 7 en la primera
prueba. Entonces, E se halla en el estado s
1
, y ste se representa mediante un vector de
7.5 Cadenas de Markov 227
estado:
S =
_
1
0
_
E se encuentra en s
1
E se encuentra en s
2
y
MS =
_
0.2
0.8
_
representa las probabilidades de estar en s
1
y s
2
despus de un prueba con p < 7.5 inicialmente.
Las probabilidades de estar en s
1
y s
2
despus de n pruebas ser M
n
S.
Ahora, el problema radica en calcular M
n
. Para ello, se calculan los valores propios y
vectores propios de M que, en este caso, son
1
= 1 y v
1
= (3, 8), y
2
= 0.1 con v
2
= (1, 1).
Por lo tanto:
M
n
= PD
n
P
1
=
1
11
_
3 1
8 1
__
1 0
0 (0.1)
n
__
1 1
8 3
_
=
1
11
_
3 + 8(0.1)
n
3 3(0.1)
n
8 8(0.1)
n
8 + 3(0.1)
n
_
.
Las probabilidades de que E est en los estados s
1
y s
2
despus de 4 pruebas sucesivas es
M
4
S =
_
0.272 8
0.727 2
_
;
es decir, la probabilidad de que E tenga una nota p superior a 7.5 en la cuarta prueba es de
0.727 2.
Ejemplo 7.105
Se considera el sistema de ecuaciones diferenciales:
_
x

1
(t) = 3x
1
(t) x
2
(t)
x

2
(t) = 2x
1
(t) + 2x
2
(t);
es decir: X

(t) = AX(t), que es un modelo matemtico, el cual representa el com-


portamiento que se da entre dos especies.
Si se supone que las poblaciones iniciales para cada especie (para el tiempo t = 0)
son x
1
(0) = 90 y x
2
(0) = 150,
a) calcule la poblacin de cada especie para un tiempo t > 0; y
b) calcule el tiempo para el cual una de las dos especies se elimina (si esto suce-
diera) y calcule la poblacin de la otra especie.
Solucin. La solucin general de un sistema X

(t) = AX(t) es
X(t) =
2

i=1
c
i
e

i
t
v
i
,
siempre que A sea diagonalizable, donde c
i
son constantes arbitrarias, que se determinan a
partir de las condiciones iniciales del sistema, los
i
son los valores propios de A y los v
i
son
los vectores propios asociados a los valores
i
, respectivamente.
228 Valores y vectores propios
a) Los valores y vectores propios de A son
1
= 1 con v
1
= (1, 2),
2
= 4 con v
2
= (1, 1).
Entonces la solucin general del sistema es:
_
x
1
(t)
x
2
(t)
_
= c
1
e
t
_
1
2
_
+c
2
e
4t
_
1
1
_
;
es decir:
_
x
1
(t) = c
1
e
t
+c
2
e
4t
x
2
(t) = 2c
2
e
t
c
2
e
4t
.
Para hallar las constantes c
i
, se utilizan las condiciones iniciales:
x
1
(0) = c
1
+c
2
= 90
x
2
(0) = 2c
1
c
2
= 150.
Luego de resolver este sistema de ecuaciones lineales, se obtiene que c
1
= 80 y c
2
= 10. Por
lo tanto, la solucin particular del sistema de ecuaciones diferenciales, bajo las condiciones
iniciales es:
_
x
1
(t) = 80e
t
+ 10e
4t
x
2
(t) = 160e
t
10e
4t
.
Si t se mide en aos, al cabo de 6 meses (t = 1/2), se tiene que las poblaciones son
x
1
(t) = 206 ejemplares y x
2
(t) 190 ejemplares.
b) Segn la solucin particular, se tiene que x
1
(t) no se anula para ningn valor de t, y que
x
2
(t) s se anula. En efecto, 160e
t
10e
4t
= 0 implica que t 11 meses; es decir, al cabo
de aproximadamente 11 meses, la especie x
2
se elimina.

7.6 Ejercicios resueltos


1. Demostrar que los valores propios de una matriz A y de su transpuesta A
t
son los
mismos.
Demostracin. Es suciente demostrar que el polinomio caracterstico de A es el igual al
polinomio caracterstico de A
t
; es decir, vamos a demostrar que p
A
= p
A
t :
p
A
() =

A I

(A I)
t

A
t
I

= p
A
t ().
2. Sea A una matriz de orden n diagonalizable, y sean
i
con i 1, 2, . . . , n, los
valores propios de A (no necesariamente distintos). Demuestre que:
(a) Tr(A) =
n

i=1

i
. (b) [A[ =
n

i=1

i
.
Demostracin. Como A es diagonalizable, existe una matriz P inversible tal que
diag
1
,
2
, . . . ,
n
= P
1
AP.
7.6 Ejercicios resueltos 229
(a) Tenemos que A = PDP
1
. Por lo tanto:
Tr(A) = Tr((PD)P
1
)
= Tr(P
1
(PD))
= Tr(P
1
PD)
= Tr(ID)
= Tr(D) =
n

i=1

i
.
(b) De A = PDP
1
, tenemos que:
[A[ = [(PD)P
1
[
= [P[[D[[P
1
[
= [D[ =
n

i=1

i
.
Los resultados demostrados son vlidos, aunque la matriz A no sea diagonaliza-
ble; sin embargo, la demostracin requiere de la teora de las formas cannicas de
Jordan, tema que no se trata en este libro.
Adems, estos resultados son tiles ara calcular los valores propios de una matriz
de orden 2 sin hallar el polinomio caracterstico, pues se tiene dos ecuaciones no
lineales con dos incgnitas. Tambin pueden ser tiles para vericar que los valores
propios encontrados en una matriz son correctos.
3. Sea f L(V, V ) una aplicacin biyectiva. Demuestre que
a) todos los valores propios de f son no nulos; y
b) si es un valor propio de f, entonces
1
es un valor propio de f
1
.
Demostracin.
(a) Supongamos que 0 es un valor propio de f; entonces, existe v V tal que v ,= 0
y f(v) = 0v = 0. Por lo tanto, v = 0, pues f es biyectiva, lo que es imposible. La
contradiccin tambin puede verse con el hecho de que si 0 fuera una valor propio,
entonces el ncleo de f sera distinto del espacio nulo, lo que es imposible por ser f
inyectiva.
(b) Si es un valor propio de f, entonces ,= 0. Sea v V tal que v ,= 0 y f(v) = v.
Por lo tanto, por ser f
1
una funcin, tenemos que
f
1
(f(v)) = f
1
(v),
de donde:
v = f
1
(v),
lo que implica que
f
1
(v) =
1
v;
es decir,
1
es un valor propio de f
1
.
230 Valores y vectores propios
Cuando f L(V, V ) es una funcin biyectiva, la matriz asociada f con respecto
a cualquier base es inversible. Luego, si es un valor propio de una matriz inversible,
entonces ,= 0 y
1
es un valor propio de A
1
. Ntese tambin que los vectores
propios de A y de su inversa son los mismos.
4. Sean f L(V, V ) y un valor propio de f. Determine los valores propios de f
2
,
f
3
y f
n
con n N.
Solucin. Si es un valor propio de la aplicacin lineal f, existe un vector no nulo v V
tal que f(v) = v.
Entendemos f
2
como f f. Tomando en cuenta que f es aplicacin lineal, tenemos que
f
2
(v) = f(f(v)) = f(v) = f(v) = (v) =
2
v;
es decir, f
2
(v) =
2
v, por lo cual
2
es valor propio de f
2
.
Entendemos f
3
como f f f. De manera similar, y usando el resultado anterior,
tenemos que
f
3
(v) = f(f
2
(v)) = f(
2
v) =
2
f(v) =
2
(v) =
3
v,
por lo que concluimos que
3
es un valor propio de la aplicacin lineal f
3
.
Demostraremos por induccin que si es valor propio de la aplicacin lineal f, entonces

n
, con n N, es valor propio de f
n
.
i. Anteriormente demostramos para n = 2.
ii. Suponiendo que es verdad para n, demostraremos que es verdad para n + 1.
Si es un valor propio de la aplicacin lineal f, existe un vector no nulo v V tal
que f(v) = v.
Por hiptesis inductiva, el nmero
n
es valor propio de la aplicacin lineal f
n
. Por
lo anterior, y tomando en cuenta que la aplicacin f
n
es lineal, podemos escribir
f
n+1
(v) = f(f
n
(v)) = f(
n
v) =
n
f(v) =
n
(v)) =
n+1
v;
es decir,
f
n+1
(v) =
n+1
v,
que es equivalente a decir que
n+1
es valor propio de la aplicacin lineal f
n+1
.
5. Los vectores v
1
y v
2
son dos vectores propios de una aplicacin lineal f, asociados
a los valores propios distintos
1
y
2
, respectivamente. Si v
1
+ v
2
(con K y
K) es un vector propio de f, entonces = 0 o = 0, pero no ambos.
Demostracin. Si v
1
y v
2
son vectores propios, son vectores no nulos. Decir que v
1
y v
2
son dos vectores propios de una aplicacin lineal f es equivalente a decir que
f(v
1
) =
1
v
1
y f(v
2
) =
2
v
2
.
Por ser f una aplicacin lineal, podemos escribir:
f(v
1
+v
2
) = f(v
1
) +f(v
2
) = (
1
v
1
) +(
2
v
2
).
Pero, por hiptesis
f(v
1
+v
2
) = (v
1
+v
2
).
7.6 Ejercicios resueltos 231
Por transitividad, tenemos que
(
1
v
1
) +(
2
v
2
) = (v
1
+v
2
) = ()v
1
+ ()v
2
,
de donde

1
= y
2
= .
Supongamos que ,= 0 y ,= 0. Entonces
1
= y
2
= , es decir
1
=
2
, lo cual es
una contradiccin. Por lo tanto, o bien = 0 o bien = 0.
Tampoco es posible que = = 0, pues, en ese caso, el vector 0 sera un vector propio,
ya que
v
1
+v
2
= 0
es un vector propio por hiptesis.
6. Sea la aplicacin lineal f (V, V ) tal que dim(Im(f)) = 1 y dimV 2. Demostrar
que
a. existe un vector v V tal que f(v) es un vector propio de la aplicacin lineal
f,
b. = 0 es un valor propio de f.
Demostracin.
a. Como V = N
f
Im(f), entonces existe un vector v V tal que v = w+f(v), donde
f(v) ,= 0
v
, pues Im(f) ,= 0
v
y w N
f
. Es decir,
f(v) = v w.
La aplicacin f es lineal y podemos escribir
f(f(v)) = f(v w) = f(v) f(w).
Pero como w N
f
, f(w) = 0
v
y
f(f(v)) = f(v),
que signica que f(v) es un vector propio de la aplicacin lineal f asociado al valor
propio = 1.
b. Como dimN
f
= dimV dim(Im(f)) y, adems, dim(Im(f)) = 1 y dimV 2,
entonces
dimN
f
1,
lo cual signica que
N
f
,= 0
v
.
Entonces, existe un vector w N
f
no nulo tal que f(w) = 0
v
, y podemos escribir
f(w) = 0w,
lo cual signica que w es un vector propio de la aplicacin lineal f asociado al valor
propio = 0.
232 Valores y vectores propios
7. Sea la aplicacin lineal f /(P
2
(t), P
2
(t)) tal que
f(a + bt + ct
2
) = c + (b a)t + (a b + c)t
2
.
a. Encontrar los valores y vectores propios de la aplicacin lineal f.
b. Es diagonalizable la aplicacin lineal f?
Solucin.
a. Para encontrar los valores y vectores propios de la aplicacin lineal f necesitamos
primero hallar una representacin matricial de ella, y encontrar los valores y vectores
propios de esa matriz. Los valores propios de la matriz son tambin los valores propios
de la aplicacin lineal.
Sea el polinomio p(t) = a + bt + ct
2
. Por facilidad escogemos la base cannica C =
e
1
, e
2
, e
3
= 1, t, t
2
del espacio vectorial P
2
(t). Claramente, tenemos los vectores
coordenados
[p(t)]
C
=
_
_
a
b
c
_
_
, [f(p(t))]
C
=
_
_
a
a +b
a b +c
_
_
.
Tenemos que
[f(e
1
)]
C
= [f(1)]
C
= [t +t
2
]
C
=
_
_
0
1
1
_
_
,
[f(e
2
)]
C
= [f(t)]
C
= [t t
2
]
C
=
_
_
0
1
1
_
_
,
[f(e
3
)]
C
= [f(t
2
)]
C
= [1 +t
2
]
C
=
_
_
1
0
1
_
_
.
Con los tres vectores coordenados anteriores, escritos como columnas, obtenemos la
representacin matricial [f]
C
C
de la aplicacin lineal f con respecto a la base cannica
C:
[f]
C
C
=
_
_
0 0 1
1 1 0
1 1 1
_
_
.
Sea A = [f]
C
C
. Veriquemos que la Matriz A representa a la aplicacin lineal f:
[f]
C
C
[p(t)]
C
=
_
_
0 0 1
1 1 0
1 1 1
_
_
_
_
a
b
c
_
_
=
_
_
a
a +b
a b +c
_
_
= [f(p(t))]
C
.
Hallemos los valores propios de la matriz A, los cuales tambin son los valores propios
de la aplicacin lineal f:
p
A
() = [A I[ =

0 1
1 1 0
1 1 1

=
2
( 2) = 0.
Los valores propios de la matriz A y la aplicacin lineal f son
1
= 0 de multiplicidad
algebraica 2, y
2
= 2 de multiplicidad algebraica 1 y geomtrica 1.
Hallemos los vectores propios de la matriz A y de la aplicacin lineal f.
7.6 Ejercicios resueltos 233
Sea el valor propio
1
= 0. Para hallar los vectores propios v asociados con el
valor propio
1
= 0 resolvemos el sistema lineal
_
A
1
I
_
v = O, donde v =
_
_
u
1
u
2
u
3
_
_
.
Para hallar el vector v resolvemos el sistema de ecuaciones lineales
_
A
1
I [ O
_
=
_
_
0 0 1 [ 0
1 1 0 [ 0
1 1 1 [ 0
_
_

_
_
0 0 1 [ 0
1 1 0 [ 0
0 0 0 [ 0
_
_
y encontramos que u
3
= 0 y u
2
= u
1
. Si u
1
= 1, u
2
= 1.
De donde v
1
=
_
_
1
1
0
_
_
es un vector propio de la matriz A asociado al valor propio

1
= 0. El vector propio v
1
de la matriz A es el vector coordenado del vector
propio p
1
(t) de la aplicacin lineal f. Por lo tanto, si [p
1
(t)]
C
= v
1
=
_
_
1
1
0
_
_
,
entonces p
1
(t) = 1 +t.
Sea el valor propio
2
= 2. Hallemos rpidamente su vector propio asociado:
_
A
2
I [ O
_
=
_
_
1 0 1 [ 0
1 1 0 [ 0
1 1 1 [ 0
_
_

_
_
2 0 1 [ 0
1 1 0 [ 0
0 0 0 [ 0
_
_
,
de donde u
3
= 2u
1
y u
2
= u
1
. Si u
1
= 1, u
2
= 1 y u
3
= 2.
Por lo cual v
2
=
_
_
1
1
2
_
_
es un vector propio de la matriz A asociado al valor
propio
2
= 2.
Entonces p
2
(t) = 1t +2t
2
es un vector propio de la aplicacin lineal f asociado
al valor propio
2
= 2.
Veriquemos que p
1
(t) y p
2
(t) son vectores propios de la aplicacin lineal f:
f(p
1
(t)) = f(1 +t) = 0 + (1 1)t + (1 1 + 0)t
2
= 0 = 0(1 +t) =
1
p
1
(t),
f(p
2
(t)) = f(1 t + 2t
2
) = 2 + (1 1)t + (1 + 1 + 2)t
2
= 2(1 t + 2t
2
) =
2
p
2
(t).
b. Debido a que la representacin matricial de la aplicacin lineal f tiene un valor propio
repetido, ella no es diagonalizable. En consecuencia, la aplicacin lineal f tampoco
es diagonalizable.
8. Demostrar que si A = PDP
1
, entonces A
n
= PD
n
P
1
para todo n N.
Demostracin. Demostraremos por induccin.
(i) Para n = 1.
Si A = PDP
1
, entonces A
1
= PD
1
P
1
, pues A = A
1
y D = D
1
234 Valores y vectores propios
(ii) Suponemos que es verdad para n y demostraremos que es verdad para n + 1.
Es decir, si A
n
= PD
n
P
1
es verdadero, por demostrar que A
n+1
= PDP
1
.
En efecto,
A
n+1
= A
n
A
= PD
n
P
1
PDP
1
por hiptesis inductiva
= PD
n
IDP
1
= PD
n
DP
1
= PD
n+1
P
1
.
Por (i) y (ii) se tiene que si A = PDP
1
, entonces A
n
= PD
n
P
1
para todo n N.
9. Dada la matriz A =
_
_
1 2 1
2 0 2
1 2 1
_
_
, hallar la matriz A
n
.
Solucin. Primero hallemos los valores propios de la matriz A.
p
A
() = [A I[ =

1 2 1
2 2
1 2 1

= ( + 2)( 4) = 0
Los valores propios de la matriz A son

1
= 2,
2
= 0,
3
= 4.
Debido a que los tres valores propios son distintos entre s la matriz A es diagonalizable.
Ahora encontremos los vectores propios de la matriz A.
Sea el valor propio
1
= 2. Para hallar los vectores propios v asociados con el valor
propio
1
= 2 resolvemos el sistema lineal
_
A
1
I
_
v = O, donde v =
_
_
u
1
u
2
u
3
_
_
.
Para hallar el vector v resolvemos el sistema de ecuaciones lineales
_
A
1
I [ O
_
=
_
_
3 2 1 [ 0
2 2 2 [ 0
1 2 3 [ 0
_
_

_
_
1 0 1 [ 0
1 1 1 [ 0
1 0 1 [ 0
_
_

_
_
1 0 1 [ 0
2 1 0 [ 0
0 0 0 [ 0
_
_
y encontramos que u
3
= u
1
y u
2
= 2u
1
. Si u
1
= 1, u
2
= 2 y u
3
= 1. De donde
v
1
=
_
_
1
2
1
_
_
es un vector propio de la matriz A asociado al valor propio
1
= 2.
Sea el valor propio
2
= 0. Resumimos el hallazgo del vector propio asociado:
_
A
2
I [ O
_
=
_
_
1 2 1 [ 0
2 0 2 [ 0
1 2 1 [ 0
_
_

_
_
0 2 0 [ 0
1 0 1 [ 0
0 0 0 [ 0
_
_
,
de donde u
2
= 0 y u
3
= u
1
. Si u
1
= 1, u
3
= 1. De donde v
2
=
_
_
1
0
1
_
_
es un vector
propio de la matriz A asociado al valor propio
2
= 0.
7.6 Ejercicios resueltos 235
Sea el valor propio
3
= 4. Hallemos el vector propio asociado:
_
A
3
I [ O
_
=
_
_
3 2 1 [ 0
2 4 2 [ 0
1 2 3 [ 0
_
_

_
_
4 0 4 [ 0
2 4 2 [ 0
3 2 1 [ 0
_
_

_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
,
de donde u
3
= u
2
= u
1
. Si u
1
= 1, u
3
= u
2
= 1. As, pues, v
3
=
_
_
1
1
1
_
_
es un vector
propio de la matriz A asociado al valor propio
3
= 4.
Por el Teorema 4 de la pgina 160 los 3 vectores propios, por ser distintos entre s, son li-
nealmente independientes. Por el Corolario 1 de la pgina 169 la matriz A es diagonalizable.
Es decir, existe una matriz P inversible tal que
D = P
1
AP
donde las columnas de la matriz P son los vectores propios de la matriz A y los elementos
de la diagonal de la matriz diagonal D son los valores propios de la matriz A. Sea la matriz
P formada con los vectores propios v
1
, v
2
y v
3
de la matriz A:
P =
_
_
1 1 1
2 0 1
1 1 1
_
_
.
Su matriz inversa es
P
1
=
1
6
_
_
1 2 1
3 0 3
2 2 2
_
_
.
Se deja como ejercicio vericar que la matriz P
1
AP es la matriz diagonal
D =
_
_
2 0 0
0 0 0
0 0 4
_
_
.
Por ser D una matriz diagonal tenemos que
D
n
= 2
n
_
_
(1)
n
0 0
0 0 0
0 0 2
n
_
_
.
Por el ejercicio anterior tenemos que
A
n
= PD
n
P 1
=
2
n
6
_
_
1 1 1
2 0 1
1 1 1
_
_
_
_
(1)
n
0 0
0 0 0
0 0 2
n
_
_
_
_
1 2 1
3 0 3
2 2 2
_
_
=
2
n
6
_
_
1 1 1
2 0 1
1 1 1
_
_
_
_
(1)
n
2(1)
n
(1)
n
0 0 0
2
n+1
2
n+1
2
n+1
_
_
=
2
n
6
_
_
2
n+1
+ (1)
n
2
n+1
2(1)
n
2
n+1
+ (1)
n
2
n+1
2(1)
n
2
n+1
+ 4(1)
n
2
n+1
2(1)
n
2
n+1
+ (1)
n
2
n+1
2(1)
n
2
n+1
+ (1)
n
_
_
.
236 Valores y vectores propios
Tabla de
contenidos
I Matrices, determinantes y sistemas lineales 3
Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Matrices 7
1.1 Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Multiplicacin de matrices . . . . . . . . . . . . . . . . . . . . . 13
1.3 Operaciones elementales de la de una matriz . . . . . . . . . . . . . . 17
1.4 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.6 Otras matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2 Determinantes 47
2.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Determinantes y matrices inversibles . . . . . . . . . . . . . . . . . . . 60
2.4 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3 Sistemas de ecuaciones lineales 67
3.1 Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.2 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 68
3.3 Solucin de un sistema lineal . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.1 Mtodos de solucin . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4 Ejercicio resuelto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
II Espacios vectoriales y producto interno 83
4 Espacios vectoriales 85
4.1 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2 Denicin de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 87
4.2.1 Observaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
238 TABLA DE CONTENIDOS
4.3 Propiedades de los espacios vectoriales . . . . . . . . . . . . . . . . . . 94
4.4 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.6 Cpsula lineal de un conjunto . . . . . . . . . . . . . . . . . . . . . . . 105
4.7 Subespacio vectorial generado por un subconjunto . . . . . . . . . . . . 107
4.8 Bases de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 109
4.9 Dimensin de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 116
4.10 Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 126
4.11 Suma directa de subespacios vectoriales . . . . . . . . . . . . . . . . . . 130
4.12 Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.13 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
III Aplicaciones lineales 155
5 Aplicaciones lineales 157
5.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.1.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.2 Isomorsmo entre espacios vectoriales . . . . . . . . . . . . . . . . . . . 162
5.3 Ncleo de una aplicacin lineal . . . . . . . . . . . . . . . . . . . . . . 171
6 Aplicaciones lineales y matrices 181
6.1 Aplicacin lineal asociada a una matriz . . . . . . . . . . . . . . . . . . 181
6.2 Matriz asociada a una aplicacin lineal . . . . . . . . . . . . . . . . . . 182
6.3 Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . 191
7 Valores y vectores propios 205
7.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.2 Nociones fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.2.1 Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . 213
7.3 Matrices simtricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
7.4 Diagonalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
7.5 Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
7.6 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

Вам также может понравиться