Академический Документы
Профессиональный Документы
Культура Документы
El resultado de aplicar la denicin es que las las de Ase convierten en las columnas
de A
t
, es decir las las y las columnas se transponen y de all el nombre de transpuesta
para la matriz que se obtiene.
Denicin 1.6 (Matriz simtrica) Se dice que la matriz cuadrada A es simtrica si y solo si
A
t
= A.
Ejemplo 1.1
Sea la matriz
A =
_
_
3 1 4
1 7 2
4 2 9
_
_
.
Es A una matriz simtrica?
Solucin. Para responder a esta pregunta, hallemos su matriz transpuesta:
A
t
=
_
_
3 1 4
1 7 2
4 2 9
_
_
.
Como A
t
= A concluimos que A es una matriz simtrica.
Observemos que los elementos que estn a uno y otro lado de la diagonal son iguales.
De ah proviene el nombre de matriz simtrica.
Denicin 1.7 (Matriz antisimtrica) Se dice que la matriz cuadrada A = (a
ij
)
n
es antisimtrica
si y solo si A
t
= (a
ij
)
n
.
Cuando veamos la operacin suma de matrices, podremos denir el inverso aditi-
vo de una matriz A = (a
ij
)
mn
, notado A, como la matriz A = (a
ij
)
mn
. All
podremos decir que una matriz cuadrada es antisimtrica si A
t
= A.
10 Matrices
Ejemplo 1.2
Sea la matriz
A = (a
ij
)
3
=
_
_
0 1 4
1 0 2
4 2 0
_
_
.
Es A una matriz antisimtrica?
Solucin. Hallemos las matrices A
t
y (a
ij
)
3
:
A
t
=
_
_
0 1 4
1 0 2
4 2 0
_
_
, (a
ij
)
3
=
_
_
0 1 4
1 0 2
4 2 0
_
_
.
Encontramos que A
t
= (a
ij
)
3
y podemos armar que A es una matriz antisimtrica.
Observemos que los elementos a uno y otro lado de la diagonal son el uno el negativo
del otro y que la diagonal est formada por elementos que necesariamente son ceros.
Denicin 1.8 (Matriz nula) Una matriz A = (a
ij
)
mn
se llama matriz nula si y solo si a
ij
= 0
para todo i = 1, 2, . . . , m y todo j = 1, 2, . . . , n.
En otras palabras, los elementos de una matriz nula son todos ceros. Hay una matriz
nula para cada orden de matrices. La matriz nula se nota 0
mn
, o simplemente 0 cuando
el orden est sobre entendido. Por el contexto quedar claro que se trata de la matriz
nula y no del nmero cero. La matriz 0 =
_
0 0 0
_
es la matriz nula de las matrices
la de orden 13, y la matriz 0 =
_
0 0 0
_
t
es la matriz nula de las matrices columna
de orden 3 1.
Denicin 1.9 (Matriz identidad) Una matriz A = (a
ij
)
n
se llama matriz identidad si y solo si
a
ij
= 0 para i ,= j, y a
ij
= 1 para i = j.
La matriz identidad de orden n se nota I
n
, o simplemente I cuando el orden est
sobre entendido:
I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
.
La matriz identidad I
n
juega el papel de neutro multiplicativo en el producto de matrices
cuadradas de orden n.
Denicin 1.10 (Matriz diagonal) Una matriz A = (a
ij
)
n
se llama matriz diagonal si y solo si
a
ij
= 0 para i ,= j.
Por la denicin, una matriz es diagonal si los elementos que no estn en la diagonal
son iguales a cero. Las matrices identidad y nula son matrices diagonales.
1.2 Operaciones con matrices 11
Denicin 1.11 (Matriz escalar) Una matriz A = (a
ij
)
n
se llama matriz escalar si y solo si
a
ij
= 0 para i ,= j y a
ij
= k K para i = j.
Una matriz escalar es una matriz diagonal con los elementos de la diagonal iguales.
Son ejemplos de matrices diagonales las matrices identidad y nulas.
Denicin 1.12 (Matrices triangulares superior e inferior) Sea una matriz A = (a
ij
)
n
.
1. Se dice que A es una matriz triangular superior si y solo si a
ij
= 0 para i > j.
2. Se dice que A es una matriz triangular inferior si y solo si a
ij
= 0 para i < j.
Las matrices triangulares superior e inferior tienen todos sus elementos iguales a
cero bajo y sobre la diagonal, respectivamente. Las matrices escalares son triangulares
superiores e inferiores a la vez.
Ejemplo 3 Las matrices
A =
_
_
1 0 2
0 0 1
0 0 3
_
_
y B =
_
_
0 0 0
0 2 0
1 1 0
_
_
son triangulares superior e inferior, respectivamente.
1.2 Operaciones con matrices
En lo que sigue nos referiremos como escalares a los nmeros reales y complejos. Vere-
mos las siguientes operaciones con matrices:
1. Suma de matrices.
2. Producto de un escalar por una matriz.
3. Producto de matrices.
1.2.1 Suma de matrices
Denicin 1.13 (Suma de matrices) Sean las matrices A = (a
ij
)
mn
y B = (b
ij
)
mn
. Se llama
suma de A y B a la matriz C = (c
ij
)
mn
denida por
c
ij
= a
ij
+b
ij
, 1 i m, 1 i n.
La suma de matrices est, pues, denida para matrices de igual orden. La suma de
A y B se nota A+B, y es una matriz de igual orden que el orden de A y B. De aqu en
adelante, si escribimos A+B se entiende que las matrices A y B son del mismo orden.
12 Matrices
Ejemplo 4 Sean las matrices
A =
_
2 1 3
2 3 4
_
y B =
_
0 1 5
5 7 1
_
.
Entonces
A+B =
_
2 + 0 1 + 1 3 + (5)
2 + 5 3 + (7) 4 + 1
_
=
_
2 0 2
3 4 3
_
.
Teorema 1.2 (Propiedades del producto escalar) Para los escalares y y las matrices A y B
de orden mn se cumplen las siguientes propiedades:
1. Propiedad clausurativa: A es una matriz de orden mn.
2. Propiedad asociativa: ()A = (A).
3. Propiedad distributiva con respecto a la suma de matrices: (A +B) = A+B.
4. Propiedad distributiva con respecto a la suma de escalares: ( +)A = A +A.
5. Propiedad asociativa mixta: A(B) = (AB) = (A)B.
6. El nmero 1 es el elemento identidad del producto escalar: 1A = A.
Estas son las principales propiedades del producto escalar, las que permitirn pos-
teriormente hablar del espacio lineal de matrices. Otras propiedades se propondrn
como ejercicios.
1.2.3 Multiplicacin de matrices
Denicin 1.15 (Multiplicacin de matrices) Sean las matrices A = (a
ij
)
mn
y B = (b
ij
)
np
. El
producto de A y B, notado AB, es la matriz C = (c
ij
)
mp
denida por
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
=
n
k=1
a
ik
b
kj
, 1 i m, 1 j p.
El producto de A y B no est denido si el nmero de columnas de A no es igual al
nmero de las de B.
14 Matrices
El elemento c
ij
de AB es el elemento nico de la matriz de orden 1 1 que resulta
del producto de la i-sima la de A, A
i
, y la j-sima columna de B, B
j
:
A
i
B
j
=
_
a
i1
a
i2
a
in
_
_
_
_
_
_
b
1j
b
2j
.
.
.
b
nj
_
_
_
_
_
=
_
a
i1
b
1j
+ a
i2
b
2j
+ + a
in
b
nj
_
= (c
ij
)
11
.
La multiplicacin de matrices es una operacin muy especial. Los siguientes ejemplos
muestran sus peculiaridades.
Ejemplo 6 Sean
A =
_
1 2 3
3 21
_
M
23
y B =
_
_
1 1
2 3
3 1
_
_
M
32
.
Entonces
AB =
_
1 2 3
3 21
_
_
_
1 1
2 3
3 1
_
_
=
_
1 1 + (2)2 + 3 3 1 1 + (2)(3) + 3 1
3 1 + (2)2 + 1 3 3 1 + (2)(3) + 1 1
_
=
_
6 10
2 10
_
.
De manera similar se calcula
BA =
_
_
1 1
2 3
3 1
_
_
_
1 2 3
3 21
_
=
_
_
4 4 4
7 2 3
6 8 10
_
_
.
Comentario. En este caso, los productos AB y BA estn denidos y son matrices de rdenes
diferentes, por lo cual AB ,= BA. Este ejemplo nos muestra que el producto de matrices A y
B no es conmutativo. Ntese adems que A y B no son cuadradas pero los dos productos son
matrices cuadradas.
Ejemplo 1.3 Sean
A =
_
2 2
1 3
_
M
2
y B =
_
1 1
2 3
_
M
2
.
Entonces
AB =
_
2 4
5 8
_
y BA =
_
3 5
7 13
_
.
Las matrices AB y BA son cuadradas del mismo orden pero, una vez ms, diferentes. En
general, si las matrices A y B son cuadradas del mismo orden, los productos AB y BA estn
denidos y son tambin matrices cuadradas del mismo orden.
1.2 Operaciones con matrices 15
Ejemplo 7 Tenemos que:
AB =
_
1 1
1 1
__
2 2
2 2
_
=
_
0 0
0 0
_
.
Las matrices A y B no son nulas, sin embargo su producto s.
Ejemplo 8 Sean:
A =
_
1 1
1 1
_
, B =
_
2 2
2 2
_
y C =
_
3 1
1 3
_
.
Tenemos que
AB =
_
4 4
4 4
_
= AC,
pero B ,= C a pesar de que A ,= 0. Por lo tanto, la propiedad cancelativa no aplica al producto
de matrices.
La multiplicacin de matrices no tiene la propiedad conmutativa ni la cancelativa,
pero al menos tiene las propiedades asociativa y distributivas como se expresa en el
siguiente teorema.
Teorema 1.3 (Propiedades de la multiplicacin de matrices) Para matrices A, B y C de rdenes
tales que los productos estn denidos, se cumplen las siguientes propiedades:
1. Propiedad asociativa: (AB)C = A(BC).
2. Propiedad distributiva por la izquierda: A(B +C) = AB +AC.
3. Propiedad distributiva por la derecha: (A+B)C = AC +BC.
Demostracin. Sean A = (a
ij
)
mn
, B = (b
ij
)
np
y C = (c
ij
)
pq
.
1. Propiedad asociativa:
(AB)C =
_
(a
ij
)
mn
(b
ij
)
np
_
(c
ij
)
pq
=
_
p
r=1
_
n
k=1
a
ik
b
kr
_
c
rj
_
=
_
p
r=1
n
k=1
a
ik
b
kr
c
rj
_
=
_
n
k=1
p
r=1
a
ik
b
kr
c
rj
_
=
_
n
k=1
a
ik
_
p
r=1
b
kr
c
rj
__
= A(BC).
16 Matrices
2. Propiedad distributiva por la izquierda:
A(B + C) = (a
ij
)
mn
_
(b
ij
)
np
+ C = (c
ij
)
np
_
= (a
ij
)
mn
((b
ij
) + c
ij
)
np
=
n
k=1
a
ij
(b
kj
+ c
kj
)
=
n
k=1
a
ij
b
kj
+
n
k=1
a
ij
c
kj
= AB + AC.
3. La demostracin de la propiedad distributiva por la derecha es similar a la anterior
y se deja al lector como ejercicio.
Ejemplo 9 Sea
A =
_
2 0 3
1 2 4
_
.
Tenemos que
I
3
A =
_
1 0
0 1
__
2 0 3
1 2 4
_
=
_
2 0 3
1 2 4
_
y
AI
2
=
_
2 0 3
1 2 4
_
_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
2 0 3
1 2 4
_
.
Es decir, en este caso,
I
2
A = AI
3
= A.
En general, si A M
mn
la igualdad siguiente es verdadera:
I
n
A = AI
m
= A.
La matriz I
n
suele ser llamada neutro multiplicativo de A por la izquierda y la matriz
I
m
, neutro multiplicativo de A por la derecha. En el caso particular de que A es una
matriz cuadrada de orden n, la igualdad anterior se ve as:
I
n
A = AI
n
= A.
La matriz identidad I
n
es denominada simplemente el elemento neutro para el producto
de matrices cuadradas de orden n.
El conjunto de las matrices cuadradas de orden M
n
(K) dotado de las operaciones
suma y producto de matrices es un anillo no conmutativo con elemento neutro.
1.3 Operaciones elementales de la de una matriz 17
1.3 Operaciones elementales de la de una matriz
Para cualquier matriz se pueden denir operaciones entre sus las y tambin ope-
raciones entre sus columnas. Aqu deniremos las operaciones, que se denominarn
elementales, de la.
Denicin 1.16 (Operaciones elementales de la) Sean la matriz A M
mn
(K) y el escalar
c K. Cada una de las siguientes tres operaciones se denomina operacin elemental de la
sobre la matriz A:
1. Multiplicar la la r-sima de A por una constante c con c ,= 0 y c ,= 1. Es decir, reempla-
zar A
r
por cA
r
.
2. Sumar c veces la la s-sima, cA
s
, con la la r-sima de A. Es decir, reemplazar A
r
por
cA
s
+A
r
.
3. Intercambiar las las distintas s-sima y r-sima de A. Es decir, reemplazar A
s
por A
r
y A
r
por A
s
con s ,= r.
El signicado exacto de reemplazar es el siguiente: dada la matriz A, se obtiene, en
realidad, una nueva matriz A
_
a
ij
si i ,= r y i ,= s,
a
sj
si i = r,
a
rj
si i = s
para todo j I
n
.
A esta funcin le representaremos con e
r,s
para indicar que se intercambiaron las las
nmero s y nmero r.
Las operaciones de tipo 1 y tipo 2 afectan solo a una la de la matriz; las dems
quedan idnticas. La operacin de tipo 3 afecta a dos las; las dems quedan inaltera-
das.
El siguiente teorema establece que las operaciones elementales son funciones biyec-
tivas, por lo que poseen inversa.
Teorema 1.4 Cada operacin elemental de la es biyectiva, y su inversa es del mismo tipo. Es
decir, a cada operacin elemental de la e, le corresponde una operacin elemental de la e, del
mismo tipo que e, tal que:
e( e(A)) = e(e(A)) = A.
para todo A M
mn
.
Demostracin. Sea e una operacin elemental de la de tipo 1; es decir, e es de la
forma e
c
r
con c ,= 0 y r I
m
. Vamos a probar que es e
c
r
es inyectiva y sobreyectiva.
Para ver la inyectividad, supongamos que A y B dos matrices (del mismo orden)
tales que e
c
r
(A) = e
c
r
(B). Entonces:
1. para i ,= r, la la i-sima de e
c
r
(A) es A
i
;
2. para i ,= r, la la i-sima de e
c
r
(B) es B
i
.
1.3 Operaciones elementales de la de una matriz 19
Dado que e
c
r
(A) = e
c
r
(B), podemos concluir que A
i
= B
i
para todo i ,= r.
Por otro lado, la la r-sima de e
c
r
(A) es cA
r
y la de e
c
r
(B) es cB
r
. Otra vez, como
e
c
r
(A) = e
c
r
(B), concluimos que cA
r
= cB
r
, de donde, ya que c ,= 0, deducimos que
A
r
= B
r
.
En resumen, cada la de A es igual a la correspondiente la de B, por lo que A = B.
Razonamientos similares nos permiten demostrar que las operaciones elementales
de los otros tipos son inyectiva, por lo que se dejan las demostraciones al lector.
Probemos ahora la sobreyectividad de la operacin e
c
r
. Para ello, dada una matriz
B, debemos encontrar una matriz A tal que e
c
r
(A) = B.
Para hallar A, observemos que B deber tener las las correspondiente de A, salvo
la r-sima la, que ser cA
r
. Es decir:
B
i
=
_
A
i
si i ,= r,
cA
r
si i = r.
Esto nos sugiere, inmediatamente, que la matriz A que buscamos, debe denirse as:
A
i
=
_
B
i
si i ,= r,
1
c
B
r
si i = r,
lo que es posible, ya que c ,= 0.
Denida de esta manera la matriz A, es fcil comprobar que e
c
r
(A) = B, con lo que
queda demostrado que e
c
r
es sobreyectiva. Adicionalmente, esta demostracin nos ha
dado la inversa de e
c
r
:
(e
c
r
)
1
= e
1
c
r
.
Demostraciones similares se pueden hacer para los otros dos tipos de funciones
elementales por las, por lo que se las deja para que el lector las realice por s mismo.
Si no se presta a confusin, evitaremos el uso de los parntesis en e(A); en su lugar,
escribiremos simplemente eA. Esta nueva notacin ser de mucha utilidad en lo que
viene a continuacin.
Supongamos que e
1
, e
2
, . . . , e
n
son n operaciones elementales por las, y A y B son
dos matrices tales que
B = e
n
e
n1
e
2
e
1
A.
En otras palabras, la matriz B se obtuvo, a partir de la matriz A, luego de aplicar
sucesivamente, n operaciones elementales.
Es fcil ver que, como existen las inversas de cada e
i
, entonces A se puede obtener
a partir de B, tambin por la aplicacin de n operaciones elementales:
A = e
1
e
2
e
n1
e
n
B.
Esta relacin entre las matrices A y B es, en realidad, una relacin simtrica en el
conjunto de matrices.
En efecto, si indicamos con A B cuando A se obtiene a partir de B por la
aplicacin sucesiva de un nmero nito de operaciones elementales por la, entonces,
es inmediato que A B implica B A.
20 Matrices
Ms an, se verica tambin que A A; es decir, toda matriz A se puede obtener
a partir de s misma por la aplicacin de un nmero nito de operaciones elementales.
Por ejemplo, si e es una operacin elemental, como es inversible, tenemos que
A = e
1
eA.
En otras palabras, la relacin es reexiva.
Finalmente, es fcil probar que tambin es transitiva. Esto signica que la relacin
es, en realidad, una relacin de equivalencia, lo que motiva la siguiente denicin.
Denicin 1.18 (Matrices equivalente por las) La matriz B M
mn
es equivalentes por las
a la matriz A M
mn
, notado B A, si B se obtiene de A por la aplicacin sucesiva un
nmero nito de operaciones elementales por la.
Dicho de otra manera, si e
1
, e
2
, . . . e
n
es una sucesin nita de operaciones elemen-
tales por las, tenemos que:
B A B = e
n
e
n1
e
2
e
1
A.
Teorema 1.5 La relacin es de equivalencia sobre el conjunto M
mn
:
1. Reexiva: A B.
2. Simtrica: Si A B, entonces B A.
3. Transitiva: Si A B y B C, entonces A C.
La vericacin de la propiedad transitiva se deja para que el lector la realice.
Ejemplo 10 Sea la matriz
A =
_
_
_
_
_
_
2 6
3 4
2 5
4 2
1 2
_
_
_
_
_
_
.
Sobre A efectuamos una secuencia de operaciones elementales por las:
A =
_
_
_
_
_
_
2 6
3 4
2 5
5 2
1 2
_
_
_
_
_
_
1
2
F
1
_
_
_
_
_
_
1 3
3 4
2 5
5 2
1 2
_
_
_
_
_
_
F
2
3F
1
_
_
_
_
_
_
1 3
0 13
2 5
5 2
1 2
_
_
_
_
_
_
F
3
+2F
1
_
_
_
_
_
_
1 3
0 13
0 1
5 2
1 2
_
_
_
_
_
_
F
4
5F
1
_
_
_
_
_
_
1 3
0 13
0 1
0 13
1 2
_
_
_
_
_
_
F
5
+F
1
_
_
_
_
_
_
1 3
0 13
0 1
0 13
0 5
_
_
_
_
_
_
= B.
1.3 Operaciones elementales de la de una matriz 21
Como la matriz B fue obtenida de A por la aplicacin de una secuencia nita de operaciones
elementales por las, podemos decir que B es equivalente por las a A:
B A.
Aunque sabemos que A B, ilustremos esta propiedad al aplicar sobre la matriz B, en
orden inverso, la secuencia de operaciones inversas anterior, para obtener la matriz A:
B =
_
_
_
_
_
_
1 3
0 13
0 1
0 13
0 5
_
_
_
_
_
_
F
5
F
1
_
_
_
_
_
_
1 3
0 13
0 1
0 13
1 2
_
_
_
_
_
_
F
4
+5F
1
_
_
_
_
_
_
1 3
0 13
0 1
5 2
1 2
_
_
_
_
_
_
F
3
2F
1
_
_
_
_
_
_
1 3
0 13
2 5
5 2
1 2
_
_
_
_
_
_
F
2
+3F
1
_
_
_
_
_
_
1 3
3 4
2 5
5 2
1 2
_
_
_
_
_
_
2F
1
_
_
_
_
_
_
2 6
3 4
2 5
5 2
1 2
_
_
_
_
_
_
= A,
que no poda ser de otra manera.
Denicin 1.19 (Matriz reducida por las) Una matriz A M
mn
se llama matriz reducida por
las si cumple con las siguientes condiciones:
1. El primer elemento no nulo de cada la no nula,visto de izquierda a derecha, es 1.
2. Cada columna de A que tiene el primer elemento no nulo de alguna la tiene sus otros
elementos nulos.
Ejemplo 11 Las matrices
_
_
_
_
1 0 0 2 0 0
0 0 1 0 0 5
0 0 0 0 1 0
0 1 0 4 0 3
_
_
_
_
,
_
_
_
_
1 0 0 2 7 0
0 1 0 0 3 4
0 0 1 0 1 0
0 0 0 0 0 0
_
_
_
_
,
_
_
0 0 0 0
0 0 0 0
0 0 0 0
_
_
y
_
_
1 0 0
0 1 0
0 0 1
_
_
son matrices reducidas por las. En cambio, las matrices
_
_
1 2 0 2 0 0
0 0 0 0 1 0
0 1 0 4 0 3
_
_
y
_
_
0 1 0 0 2 5
0 0 1 0 1 0
2 0 0 1 0 0
_
_
no son matrices reducidas por las.
Teorema 1.6 Toda matriz A M
mn
es equivalente por las a una matriz R M
mn
reducida
por las.
Dicho de otra forma, por medio de una secuencia apropiada de operaciones ele-
mentales de la efectuadas sobre una matriz A, es siempre posible obtener una matriz
reducida por las equivalente por las a la matriz A. Tal matriz no es nica.
22 Matrices
Demostracin. Supongamos que la matriz A es no nula. Entonces al menos una la es
diferente de la matriz 0 de orden 1n. Sean p I
m
tal que A
p
,= 0. Por lo tanto, existe
el menor r I
n
tal que a
pr
,= 0 (es decir, a
pr
es el primer elemento no nulo de la la p
visto desde la izquierda hacia la derecha).
Sea R[1] = e
1
apr
p
A. Esto signica que R[1] se ha obtenido a partir de A al dividir por
1
apr
cada uno de los elementos de la la nmero p de A. Entonces, el primer elemento
de la p-sima la de la matriz R[1] es igual a 1.
Ahora bien, para cada i I
m
p, denamos R[i +1] = e
a
ir
p,i
. Es decir, para cada
i ,= p, se multiplica la la p-sima por a
ir
y la la resultante se suma a la la i-sima,
la que es reemplazada por el resultado obtenido. En otras palabras, la la i-sima de
R[i + 1] es sustituida por la la R[i]
i
a
ir
R[i]
p
. El elemento de la columna r de la
matriz I[i + 1] obtenida es, entonces 0.
Una vez que se realiza este proceso para cada i ,= p (es decir, se realizan m 1
veces), obtenemos la matriz R[m] con la propiedad de que todos los elementos de la
columna r son iguales a 0, excepto el que est en la la p que es 1. Debe quedar claro
que R[m] A.
Si repetimos este procedimiento con otra la que no sea nula, que no tenga el
primer elemento igual a 1 y que en la columna en la que est dicho elemento, el resto
de elementos no son todos iguales a 0, obtendremos, luego de m pasos, una matriz
R[2m] equivalente por las a R[m], lo que signica que ser tambin equivalente por
las a A. Si la la no nula involucrada en este procedimiento es la q-sima y la columna
que contiene el primer elemento no nula de esta la es la nmero s, la matriz R[2m]
tendr la caracterstica de que todos los elementos de la columna nmero s son iguales
a 0, excepto el de la la q que es 1.
Est claro que si repetimos este proceso con todas las las no nulas cuyo primer
elemento no sea igual a 1 y que en la columna en la que est dicho elemento, no
todos los elementos son 0, nalmente tendremos una matriz reducida por las que
ser, obviamente, equivalente a la matriz A.
Ejemplo 1.4
Sea la matriz
A =
_
_
_
_
1 2 3 4 5
2 3 4 5 6
3 4 5 6 7
4 5 6 7 8
_
_
_
_
.
Hallar una matriz reducida por las equivalente por las a la matriz A.
Solucin.
A =
_
_
_
_
1 2 3 4 5
2 3 4 5 6
3 4 5 6 7
4 5 6 7 8
_
_
_
_
F
2
2F
1
F
3
3F
1
F
4
4F
1
_
_
_
_
1 2 3 4 5
0 1 2 3 4
0 2 4 6 8
0 3 6 9 12
_
_
_
_
F
1
+2F
2
F
3
+2F
2
F
4
+3F
2
_
_
_
_
1 0 1 2 3
0 1 2 3 4
0 0 0 0 0
0 0 0 0 0
_
_
_
_
F
2
_
_
_
_
1 0 1 2 3
0 1 2 3 4
0 0 0 0 0
0 0 0 0 0
_
_
_
_
F
1
F
4
1.3 Operaciones elementales de la de una matriz 23
_
_
_
_
0 0 0 0 0
0 1 2 3 4
0 0 0 0 0
1 0 1 2 3
_
_
_
_
.
Las matrices
R
1
=
_
_
_
_
1 0 1 2 3
0 1 2 3 4
0 0 0 0 0
0 0 0 0 0
_
_
_
_
y R
2
=
_
_
_
_
0 0 0 0 0
0 1 2 3 4
0 0 0 0 0
1 0 1 2 3
_
_
_
_
son matrices reducidas por las y, adems, equivalentes por las a la matriz A:
R
1
A y R
2
A.
Este ejemplo muestra que una matriz reducida por las equivalente por las a una
matriz no es nica.
Denicin 1.20 (Rango de una matriz) El rango de una matriz A, notado ran(A), es el nmero
de las no nulas de una matriz reducida por las equivalente por las a la matriz A.
Ejemplo 12 Del ejemplo anterior, la matriz
R =
_
_
_
_
0 0 0 0 0
0 1 2 3 4
0 0 0 0 0
1 0 1 2 3
_
_
_
_
es una matriz reducida por las equivalente por las a la matriz
A =
_
_
_
_
1 2 3 4 5
2 3 4 5 6
3 4 5 6 7
4 5 6 7 8
_
_
_
_
.
El nmero de las no nulas de la matriz R es 2. Por lo tanto,
ran(A) = 2.
ij
=
_
1 si i = j,
0 si i ,= j.
Procedamos con la demostracin.
26 Matrices
Sean r I
m
y s I
m
tales que r ,= s, y E = e
c
s,r
(I). Entonces:
E
i
=
_
I
i
si i ,= r,
cA
s
+I
r
si i = r.
Por lo tanto, si E = (e
ij
), entonces:
e
ik
=
_
ij
si i ,= r,
ij
+ c
sj
si i = r
para todo j I
n
.
Por otro lado, la matriz las las de la matriz e
c
s,r
(A) = (
ij
) son:
A
i
=
_
A
i
si i ,= r,
A
i
+ cA
s
si i = r,
es decir:
ij
=
_
a
ij
si i ,= r,
a
rj
+ ca
sj
si i = r
para todo j I
n
.
Finalmente, sea C = EA = (c
ij
). Entonces:
c
ij
=
m
k=1
e
ik
a
kj
=
_
_
m
k=1
ik
a
kj
si i ,= r,
m
k=1
(
rk
+ c
sk
)a
kj
si i = r
para todo j I
n
.
Pero, como
ik
= 0 si i ,= k, entonces:
m
k=1
e
ik
a
kj
=
ii
a
ij
= a
ij
.
Con un razonamiento similar, obtenemos que:
m
k=1
(
rk
+ c
sk
)a
kj
=
rr
a
rj
+ c
ss
)a
sj
= a
rj
+ ca
sj
.
Por lo tanto:
c
ij
=
_
a
ij
si i ,= r,
a
rj
+ ca
sj
si i = r
para todo j I
n
.
Por lo tanto, c
ij
=
ij
para todo i I
m
y todo j I
n
. Es decir, EA = e
c
s,r
(A), que
es lo que queramos demostrar.
Veamos ahora el mismo teorema ilustrado con un ejemplo.
1.4 Matrices elementales 27
Ejemplo 14 Sea la matriz
A =
_
2 3 1
4 3 2
_
.
Ilustremos el teorema para una operacin elemental de la tipo 1. Sea e
1
la operacin elemental
de la 3F
1
. Tenemos que
I
2
=
_
1 0
0 1
_
3F
1
_
3 0
0 1
_
= e
1
(I
2
) = E
1
y
A =
_
2 3 1
4 3 2
_
3F
1
_
6 9 3
4 3 2
_
= e
1
(A).
Por otro lado
E
1
A =
_
3 0
0 1
__
2 3 1
4 3 2
_
=
_
6 9 3
4 3 2
_
,
de donde
e
1
(A) = E
1
A.
_
_
1 1 [ 1 0 0
2 4 [ 0 1 0
1 2 [ 0 0 1
_
_
1
2
F
2
_
_
1 1 [ 1 0 1
1 2 [ 0
1
2
0
1 2 [ 0 0 1
_
_
F
2
F
3
_
_
1 1 [ 1 0 1
1 2 [ 0 0 1
1 2 [ 0
1
2
0
_
_
= (B[P),
con
B =
_
_
1 1
1 2
1 2
_
_
y P =
_
_
1 0 1
0 0 1
0
1
2
0
_
_
.
Veriquemos que se cumple el corolario 1.9, es decir, que la matriz P hallada satisface la
expresin B = PA:
PA =
_
_
1 0 1
0 0 1
0
1
2
0
_
_
_
_
2 1
2 4
1 2
_
_
=
_
_
1 1
1 2
1 2
_
_
= B.
_
3 0
0 1
_
= E
1
.
La inversa de la matriz E
1
es E
1
1
:
I =
_
1 0
0 1
_
1
3
F
1
_
1
3
0
0 1
_
= E
1
1
.
En efecto:
E
1
E
1
1
=
_
3 0
0 1
__
1
3
0
0 1
_
=
_
1 0
0 1
_
= I
2
.
_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 1 0 [ 1 0 1
_
_
F
2
+F
3
_
_
1 0 1 [ 1 0 0
0 0 1 [ 1 1 1
0 1 0 [ 1 0 1
_
_
F
1
F
2
_
_
1 0 0 [ 0 1 1
0 0 1 [ 1 1 1
0 1 0 [ 1 0 1
_
_
F
2
F
3
_
_
1 0 0 [ 0 1 1
0 1 0 [ 1 0 1
0 0 1 [ 1 1 1
_
_
= (I
3
[A
1
).
Por lo tanto, la matriz A es inversible y su inversa es
A
1
=
_
_
0 1 1
1 0 1
1 1 1
_
_
.
Veriquemos que la matriz A
1
es la inversa de la matriz A:
AA
1
=
_
_
1 0 1
0 1 1
1 1 1
_
_
_
_
0 1 1
1 0 1
1 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
= I
3
y
A
1
A =
_
_
0 1 1
1 0 1
1 1 1
_
_
_
_
1 0 1
0 1 1
1 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
= I
3
.
_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 2 2 [ 1 0 1
_
_
F
2
_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 2 2 [ 1 0 1
_
_
F
3
2F
2
_
_
1 0 1 [ 1 0 0
0 1 1 [ 0 1 0
0 0 0 [ 1 2 1
_
_
= (B [ P).
La matriz B es equivalente por las a la matriz A. La matriz P es inversible pues es
equivalente por las a la matriz identidad I
3
. Hallemos la matriz PA:
PA =
_
_
1 0 0
0 1 0
1 2 1
_
_
_
_
1 0 1
0 1 1
1 2 1
_
_
=
_
_
1 0 1
0 1 1
0 0 0
_
_
= B.
Para saber si dos matrices A y B son o no equivalentes por las, no siempre se puede
llegar fcilmente de A por medio de una secuencia de operaciones elementales de la
a B. En ese caso se procede de la siguiente manera: se hallan las matrices escalonadas
reducidas por la de A y B, R
A
y R
B
, respectivamente. Por el corolario anterior existen
matrices P
A
y P
B
tales que
R
A
= P
A
A y R
B
= P
B
B.
Si P
A
,= P
B
, entonces la matriz A no es equivalente por las a la matriz B. Pero si
R
A
= R
B
, entonces las matrices A y B son equivalentes por las, y se puede hallar la
matriz P inversible tal que B = PA:
P
B
B = P
A
A,
P
1
B
P
B
B = P
1
B
P
A
A,
IB = P
1
B
P
A
A,
B = PA,
con
P = P
1
B
P
A
.
1.6 Otras matrices
Denicin 1.24 (Matriz nilpotente de orden r) Una matriz A M
n
se denomina nilpotente de
orden r si r es el menor entero positivo tal que A
r
= O
n
, donde A
r
=
r veces
..
A A y O
n
es la matriz
nula de orden n.
1.6 Otras matrices 35
Ejemplo 1.8
Sea la matriz
A =
_
_
0 1 3
0 0 2
0 0 0
_
_
.
Mostrar que es nilpotente y encontrar el orden.
Solucin. Multipliquemos la matriz A por s misma el nmero de veces que sea necesario
hasta obtener la matriz nula O
3
:
A
2
= AA =
_
_
0 1 3
0 0 2
0 0 0
_
_
_
_
0 1 3
0 0 2
0 0 0
_
_
=
_
_
0 0 2
0 0 0
0 0 0
_
_
,
A
3
= A
2
A =
_
_
0 0 2
0 0 0
0 0 0
_
_
_
_
0 1 3
0 0 2
0 0 0
_
_
=
_
_
0 0 0
0 0 0
0 0 0
_
_
= O
3
.
Es evidente que para n > 3, A
n
= O
3
. Por lo tanto, la matriz A es nilpotente de orden 3.
Se asume que las matrices cuadradas nulas son nilpotentes de orden 1.
Denicin 1.25 (Matriz idempotente) Una matriz A M
n
se denomina idempotente si A
2
= A.
Ejemplo 18 Las matrices
I
n
, O
n
,
_
0 1
0 1
_
,
_
0 0
1 1
_
,
son matrices idempotentes.
Denicin 1.26 (Matriz involutiva) Una matriz A M
n
se denomina involutiva si A
2
= I
n
.
Ejemplo 19 Las matrices
I
n
,
_
0 1
1 0
_
son matrices involutivas.
De la denicin de matriz involutiva y del teorema 1.13 se sigue si A M
n
es
involutiva, A es inversible y A
1
= A.
Denicin 1.27 (Matriz ortogonal ) Una matriz A M
n
se denomina ortogonal si A
t
A = I
n
.
36 Matrices
Ejemplo 20 Las matrices
I
n
,
_
0 1
1 0
_
,
_
1
2
1
2
1
2
1
2
_
son matrices ortogonales.
Una vez ms, del teorema 1.13, se deduce que si la matriz A M
n
es ortogonal,
entonces es inversible y A
1
= A
t
.
Denicin 1.28 (Matriz conjugada) Sea la matriz A = (a
ij
)
mn
. Se denomina conjugada de A,
notada
A, a la matriz
A = ( a
ij
)
mn
.
Ejemplo 21 La conjugada de la matriz
A =
_
_
1 2i 4
1 +i 3i
5i 2
_
_
es la matriz
A =
_
_
1 + 2i 4
1 i 3i
5i 2
_
_
.
2
i
2
i
2
1
2
_
.
Es unitaria?
Solucin. Hallemos la transpuesta y la conjugada de la matriz A:
A
t
=
_
1
2
i
2
i
2
1
2
_
,
A =
_
1
2
i
2
i
2
1
2
_
.
Calculemos A
t
A:
A
t
A =
_
1
2
i
2
i
2
1
2
__
1
2
i
2
i
2
1
2
_
=
_
1 0
0 1
_
= I
2
.
Entonces la matriz A es unitaria.
Una matriz ortogonal cuyos elementos son nmeros reales es una matriz unitaria.
Denicin 1.31 (Traza) Sea la matriz A = (a
ij
) M
n
(K). Se llama traza de A, notada tr A, al
nmero
tr A =
n
i=1
a
ii
.
En otras palabras, la traza de una matriz cuadrada es la suma de sus elementos que
se encuentran en la diagonal.
1.7 Ejercicios resueltos
1. Sean A, B M
n
dos matrices triangulares inferiores. Demostrar que AB es una
matriz triangular inferior.
Demostracin. Sean A = (a
ij
)
n
y B = (b
ij
)
n
tales que a
ij
= 0 y b
ij
= 0 para todo i
y para todo j con i < j.
Sean C = AB y C = (c
ij
)
n
. Vamos a demostrar que c
ij
= 0 para todo i y para todo
j con i < j.
Como la matriz C es el producto de A por B, tenemos que
c
ij
=
n
k=1
a
ik
b
kj
para todo i y para todo j.
Sea i < j. Entonces:
n
k=1
a
ik
b
kj
=
i
k=1
a
ik
b
kj
+
n
k=i+1
a
ik
b
kj
.
Pero,
38 Matrices
(a) si k < i, se verica que k < j y b
kj
= 0, pues la matriz B es triangular inferior;
entonces:
i
k=1
a
ik
b
kj
= 0;
(b) si k > i, se tiene que a
ik
= 0, porque la matriz A es triangular inferior; entonces:
i
k=i+1
a
ik
b
kj
= 0.
Por lo tanto, tenemos que:
c
ij
=
i
k=1
a
ik
b
kj
+
n
k=i+1
a
ik
b
kj
= 0 + 0 = 0
si i < j. En otras palabras, la matriz C = AB es triangular inferior.
2. Demostrar que
(a) (A M
mn
)[(A
t
)
t
= A].
(b) (A M
mn
)(B M
mn
)[(A + B)
t
= A
t
+ B
t
].
(c) ( K)(A M
mn
)[(A
t
)
t
= A
t
].
(d) (A M
mn
) (B M
np
)[(AB)
t
= B
t
A
t
].
Demostracin. Se demostrarn nicamente las partes (b) y (d). Las otras se dejan
como ejercicio para el lector.
(b) Sean A = (a
ij
)
mn
, B = (b
ij
)
mn
. Entonces:
A
t
= ( a
ij
)
nm
y B
t
= (
b
ij
)
nm
,
donde
a
ij
= a
ji
y
b
ij
= b
ji
para todo i I
n
= 1, 2, . . . , n y todo j I
m
= 1, 2, . . . , m.
Por otro lado, sea C = (c
ij
)
mn
= A+ B. Esto signica que:
c
ij
= a
ij
+ b
ij
para todo i I
n
y todo j I
m
. Por lo tanto, C
t
= ( c
ij
)
nm
, donde:
c
ij
= c
ji
= a
ji
+ b
ji
= a
ij
+
b
ij
para todo i I
n
y j I
m
. Es decir, por la denicin de suma de matrices,
podemos concluir que:
(A+ B)
t
= C
t
= A
t
+ B
t
.
1.7 Ejercicios resueltos 39
(d) Sean A = (a
ij
)
mn
, B = (b
jk
)
np
. Entonces:
A
t
= ( a
ij
)
nm
y B
t
= (
b
jk
)
pn
,
donde
a
ij
= a
ji
y
b
jk
= b
kj
para todo i I
p
= 1, 2, . . . , p, todo j I
n
= 1, 2, . . . , n y k I
m
=
1, 2, . . . , m.
Por otro lado, sea C = (c
ik
)
mp
= AB. Esto signica que:
c
ik
=
n
j=1
a
ij
b
jk
para todo i I
m
y todo k I
p
. Por lo tanto, C
t
= ( c
ik
)
pm
, donde:
c
ik
= c
ki
=
n
j=1
a
kj
b
ji
=
n
j=1
b
ji
a
kj
=
n
j=1
b
ij
a
jk
para todo i I
p
y todo k I
m
. Entonces, por la denicin de producto de
matrices, tenemos que:
C
t
= (AB)
t
= B
t
A
t
.
3. (a) (A M
n
)[tr A
t
= tr A].
(b) (A, B M
n
)[tr(A+ B) = tr A+ tr B].
(c) ( K) (A M
n
)[tr(A) = tr A].
(d) (A M
mn
)(B M
nm
)[tr(AB) = tr(BA)].
Demostracin. Se demostrarn las partes (c) y (d).
(c) Sean K y A = (a
ij
)
n
. Entonces:
tr(A) = tr((a
ij
)) = tr(a
ii
) =
n
i=1
a
ii
=
n
i=1
a
ii
= tr A.
(d) Sean A = (a
ij
)
mn
, B = (b
ij
)
nm
y C = (c
ij
)
m
= AB. Entonces
c
ij
=
n
k=1
a
ik
b
kj
.
Tenemos que
tr(AB) = tr C =
m
i=1
c
ii
=
m
i=1
n
k=1
a
ik
b
ki
=
n
k=1
m
i=1
b
ki
a
ik
= tr(BA).
40 Matrices
Ejemplo 1.11
Sean las matrices
A =
_
1 2 3
4 5 6
_
y B =
_
_
3 5
4 2
6 1
_
_
.
Hallar tr(AB) y tr(BA).
Solucin. Encontremos los productos
AB =
_
1 2 3
4 5 6
_
_
_
3 5
4 2
6 1
_
_
=
_
29 6
68 24
_
,
BA =
_
_
3 5
4 2
6 1
_
_
_
1 2 3
4 5 6
_
=
_
_
17 19 21
4 2 0
10 17 24
_
_
.
Entonces
tr(AB) = 29 + (24) = 5, tr(BA) = 17 + (2) + 24 = 5.
Este ejemplo ilustra la propiedad tr(AB) = tr(BA).
4. Demostrar que no existen matrices A, B y C de orden n tales que
ABC CAB + I
n
= O
n
.
Demostracin. Supongamos que s existen matrices A, B y C de orden n tales que
ABC CAB + I
n
= O
n
.
Entonces
tr(ABC CAB + I
n
) = tr O
n
,
tr(ABC) tr(CAB) + tr I = 0.
Como
tr
_
(AB)C
_
= tr
_
C(AB)
_
= tr(ABC),
podemos escribir:
tr(ABC) tr(ABC) + n = 0, n 1,
de donde n = 0 lo cual es una falsedad.
5. Demostrar que toda matriz cuadrada es la suma de una matriz simtrica y una
matriz antisimtrica.
Demostracin. Sea la matriz A M
n
. Vamos a demostrar que A = S +T, donde S
es una matriz simtrica y T es una matriz antisimtrica.
Sean
S =
A + A
t
2
y T =
AA
t
2
.
Entonces la matriz S es simtrica y la matriz T es antisimtrica. La demostracin
se deja como ejercicio para lector.
1.7 Ejercicios resueltos 41
6. Sea A una matriz cuadrada. Demostrar que si A
2
= A, A
n
= A para todo n 2.
Demostracin. La demostracin es por induccin sobre n.
i ) La demostracin es verdadera para n = 2, pues, si A
2
= A, entonces A
2
= A
es una proposicin verdad.
ii ) Supongamos que k es verdad que A
k
= A. Es inmediato que A
k+1
= A
tambin es verdadera, pues:
A
k+1
= A
k
A = AA = A
2
= A.
Por lo tanto, A
n
= A para todo n 2.
7. Sea A una matriz cuadrada. Si A
2
= A, determinar una frmula para (A+ I)
n
.
Desarrollo. Como el producto de las matrices A e I conmuta se puede aplicar el
binomio de Newton:
(A+ I)
n
=
n
k=0
_
n
k
_
I
nk
A
k
=
_
n
0
_
A
0
+
n
k=1
_
n
k
_
A
k
= I +
n
k=1
_
n
k
_
A
= I + A
n
k=1
_
n
k
_
= I +
_
n
k=0
_
n
k
_
_
n
0
_
_
= I +
_
n
k=0
_
n
k
_
1
nk
1
k
1
_
= I + A
_
(1 + 1)
n
1
_
= I + (2
n
1)A.
Es decir,
(A + I)
n
= I (2
n
1)A siempre que A
2
= A.
8. Sea
G =
__
a 1 a
b 1 b
_
: a ,= b; a, b R
_
.
Cul de las siguientes proposiciones es verdadera y cul es falsa?
(a) (A G)(B G)(AB G).
(b) (A G)(B G)(C G)[(AB)C = A(BC)].
(c) (E G)(A G)[AE = EA = A].
42 Matrices
(d) (A G)(B G)[AB = BA = I].
(e) (A G)(B G)(AB = BA).
Desarrollo.
(a) Sean las matrices
A =
_
a 1 a
b 1 b
_
y B =
_
p 1 p
q 1 q
_
donde a ,= b y p ,= q.
Hallemos el producto
AB =
_
a 1 a
b 1 b
__
p 1 p
q 1 q
_
=
_
ap + q(1 a) a(1 p) + (1 a)(1 q)
bp + q(1 b) b(1 p) + (1 b)(1 q)
_
=
_
ap + q aq 1 (ap + q aq)
bp + q bq 1 (bp + q bq)
_
=
_
c 1 c
d 1 d
_
,
donde
c = ap + q aq y d = bp + q bq
Si c ,= d, el producto AB estara en G. Veamos si es as. Si fuera cierto que
c = d, entonces:
ap + q aq = bp + q bq,
ap bp = aq bq,
(a b)p = (a b)q.
Como a ,= b, p = q, lo cual es una contradiccin ya que p ,= q. Por lo tanto
c ,= d. Se concluye, entonces, que AB G.
(b) El producto de matrices tiene la propiedad asociativa. Luego esta proposicin
es evidentemente verdadera, independientemente de que las matrices A, B y C
sean elementos de G.
(c) Sea E la matriz identidad de orden 2:
E =
_
1 0
0 1
_
=
_
1 0
1 1 1 0
_
.
Como 1 ,= 0, E G. Adems, AE = EA = A. Entonces esta proposicin es
verdadera.
(d) Si esta proposicin fuera verdadera, la matriz B debera ser la inversa de A G.
Se deja al lector constatar que si
A =
_
a 1 a
b 1 b
_
,
1.7 Ejercicios resueltos 43
A es inversible y que:
A
1
=
_
1b
ab
a1
ab
b
ab
a
ab
_
.
Finalmente, veamos si A
1
G. Para ello, reescribamos A
1
de la siguiente
manera:
A
1
=
_
1b
ab
1
1b
ab
b
ab
1
b
ab
_
.
Si fuera cierto que
1 b
a b
=
b
a b
,
tendramos que 1 b = b, lo que equivale a 1 = 0. Por lo tanto, A
1
G, y
esta proposicin es verdadera.
(e) Demostremos con un contraejemplo que esta proposicin es falsa. Sean las
matrices
A =
_
2 1
0 1
_
y B =
_
1 0
3 2
_
que pertenecen al conjunto G. Hallemos los productos AB y BA:
AB =
_
2 1
0 1
__
1 0
3 2
_
=
_
1 2
3 2
_
,
BA =
_
1 0
3 2
__
2 1
0 1
_
=
_
2 1
6 5
_
.
Es decir: AB ,= BA.
El conjunto G cumple las propiedades (a), (b), (c) y (d). Por lo tanto, el conjunto
G con la operacin producto de matrices constituye un grupo no abeliano, pues no
tiene la propiedad conmutativa.
9. (a) Sea A M
n
y nilpotente de orden m. Entonces la matriz (I A) es inversible
y se tiene que
(I A)
1
= I + A+ A
2
+ A
3
+ + A
m1
.
Demostracin. Tenemos que
I
m
A
m
= (I A)(I
m1
+ I
m2
A+ I
m3
A
2
+ + IA
m2
+ A
m1
).
Pero A
m
= O
m
, por lo cual
(I A)(I + A+ A
2
+ + A
m2
+ A
m1
) = I,
de donde concluimos que (I A) es inversible y que
(I A)
1
= (I + A + A
2
+ + A
m2
+ A
m1
).
(b) Apliquemos el resultado anterior para hallar la inversa de la matriz
B =
_
_
1 2 3
0 1 1
0 0 1
_
_
.
44 Matrices
Desarrollo. La matriz B la podemos escribir como
B =
_
_
1 2 3
0 1 1
0 0 1
_
_
= B =
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
0 2 3
0 0 1
0 0 0
_
_
= I A,
con
A =
_
_
0 2 3
0 0 1
0 0 0
_
_
.
Por otro lado, tenemos que:
A
2
=
_
_
0 0 2
0 0 0
0 0 0
_
_
, A
3
=
_
_
0 0 0
0 0 0
0 0 0
_
_
.
Entonces la matriz A es nilpotente de orden 3. Luego podemos aplicar el re-
sultado anterior:
B
1
= (I A)
1
= I + A+ A
2
=
_
_
1 0 0
0 1 0
0 0 1
_
_
+
_
_
0 2 3
0 0 1
0 0 0
_
_
+
_
_
0 0 2
0 0 0
0 0 0
_
_
=
_
_
1 2 5
0 1 1
0 0 1
_
_
.
10. Demostrar que si A M
n
es simtrica e inversible, entonces A
1
es simtrica.
Demostracin. Si la matriz A es inversible, entonces AA
1
= I. Podemos escribir
(AA
1
)
t
= I
t
,
(A
1
)
t
A
t
= I,
(A
1
)
t
A = I.
La ltima expresin signica que la matriz (A
1
)
t
es la inversa de la matriz A, es
decir,
A
1
= (A
1
)
t
,
lo cual, a su vez, signica que A
1
es una matriz simtrica.
11. Dada la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
,
determinar A
n
.
Desarrollo. Encontremos A
n
. Para ello, empecemos con A
2
:
A
2
=
_
_
3 3 3
3 3 3
3 3 3
_
_
= 3A.
1.7 Ejercicios resueltos 45
Entonces:
A
3
= A
2
A = 3AA = 3A
2
= 3(3A) = 3
2
A.
Conjeturamos que A
n
= 3
n1
A. Demostremos por induccin sobre n que esta fr-
mula es efectivamente verdadera.
i ) Si n = 1,
A
1
= A = 3
0
A.
ES decir, la frmula es verdadera.
ii ) Si es verdadera para n, demostremos que tambin lo es para n + 1:
A
n+1
= A
n
A = (3
n1
A)A = 3
n1
A
2
= 3
n1
(3A) = 3
n
A.
Por lo tanto, si A =
_
1 1 1
1 1 1
1 1 1
_
, entonces A
n
= 3
n1
A para todo n N.
12. Dada la matriz
A =
_
_
a b c
0 a d
0 0 a
_
_
,
determinar A
n
.
Desarrollo. En primer lugar, tenemos que A = aI + B con
B =
_
_
0 b c
0 0 d
0 0 0
_
_
.
Tenemos que
B
2
=
_
_
0 0 bd
0 0 0
0 0 0
_
_
, B
3
= O.
Si aplicamos el binomio de Newton, obtenemos que
A
n
= (aI + B)
n
=
n
k=0
_
n
k
_
(aI)
nk
B
k
= a
n
I +
_
n
1
_
a
n1
B +
_
n
2
_
a
n2
B
2
+
_
n
3
_
a
n3
B
3
+ O + + O
= a
n
I + na
n1
B +
n(n 1)
2
a
n2
B
2
.
Reemplazamos la matriz B:
A
n
= a
n
_
_
1 0 0
0 1 0
0 0 1
_
_
+ na
n1
_
_
0 b c
0 0 d
0 0 0
_
_
+
n(n 1)
2
a
n2
_
_
0 0 bd
0 0 0
0 0 0
_
_
=
_
_
a
n
na
n1
b
n(n1)
2
a
n2
bd
0 a
n
na
n1
d
0 0 a
n
_
_
.
46 Matrices
13. Sean las matrices
A =
_
_
2 1 1
1 2 1
1 1 2
_
_
y B =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
Determinar
(a) AB y BA,
(b) A
n
+ B
n
.
Desarrollo.
(a) Calculemos lo pedido:
AB =
_
_
2 1 1
1 2 1
1 1 2
_
_
_
_
1 1 1
1 1 1
1 1 1
_
_
=
_
_
0 0 0
0 0 0
0 0 0
_
_
= O,
BA =
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
2 1 1
1 2 1
1 1 2
_
_
=
_
_
0 0 0
0 0 0
0 0 0
_
_
= O.
(b) Como AB = BA = O se puede utilizar el binomio de Newton:
(A+ B)
n
=
n
k=0
_
n
k
_
A
nk
B
k
= A
n
+
n1
k=1
_
n
k
_
A
nk
B
k
+ B
n
= A
n
+ O + B
n
= A
n
+ B
n
.
Entonces tenemos que
A
n
+ B
n
= (A + B)
n
.
Como
(A+ B) =
_
_
2 1 1
1 2 1
1 1 2
_
_
+
_
_
1 1 1
1 1 1
1 1 1
_
_
=
_
_
3 0 0
0 3 0
0 0 3
_
_
= 3I,
entonces
A
n
+ B
n
= (3I)
n
= 3
n
I
n
= 3
n
I.
Determinantes 2
2.1 Denicin
Denicin 2.1 (Determinante) El determinante de una matriz A = (a
ij
) M
n
(K), notado det A
o [A[ es la funcin
det: M
n
K
A det A
denida por:
1. Si n = 1, det(a
11
) = a
11
.
2. Si n > 1, las siguientes son dos formas equivalentes de denir det(A):
(a) El desarrollo del determinante por menores por la r-sima la de A = (a
ij
)
n
:
[A[ =
n
j=1
(1)
r+j
a
rj
[A
j
r
[,
donde A
j
r
es la matriz de orden n 1 que resulta de quitar de la matriz A la la r y la
columna j para j = 1, 2, . . . n.
(b) El desarrollo del determinante por menores por la s-sima columna de A = (a
ij
)
n
:
[A[ =
n
i=1
(1)
i+s
a
is
[A
s
i
[,
donde A
s
i
es la matriz de orden n 1 que resulta de quitar de la matriz A la la i y la
columna s para i = 1, 2, . . . n.
Observaciones
1. Por ser det una funcin, det(A) arroja un valor nico, por lo que sea que se utilice el
desarrollo por menores por una la o por una columna, se obtendr el mismo valor.
48 Determinantes
2. La denicin de determinante ofrecida es recursiva, pues se dene el determinante
de una matriz de orden n a partir de los determinantes de algunas matrices de
orden n 1. Por ejemplo, para calcular el determinante de una matriz cuadrada de
orden 4, se deben calcular 4 determinantes de matrices de orden 3 previamente: A
1
1
,
A
2
1
, A
3
1
y A
4
1
(si se utiliz el desarrollo por menores por la primera la). A su vez,
para calcular cada uno de los determinantes de las matrices de orden 3, se debern
calcular 3 determinantes de matrices de orden 2 previamente. Y, nalmente, para
calcular cada uno de los determinantes de las matrices de orden 2, se deber calcular
un determinante de una las matrices de orden 1.
Ejemplo 2.12
Sea
A =
_
a
11
a
12
a
21
a
22
_
.
Hallar [A[.
Solucin. El desarrollo del determinante [A[ por menores, por la segunda la es el siguiente:
[A[ =
2
j=1
(1)
2j
a
2j
[A
j
2
[
= (1)
2+1
a
21
[A
1
2
[ + (1)
2+2
a
22
[A
2
2
[
= (1)
3
a
21
[a
12
[ + (1)
4
a
22
[a
11
[
= a
21
a
12
+a
22
a
11
= a
11
a
22
a
21
a
12
.
En cambio, el desarrollo del determinante [A[ por menores, por la primera columna es el
siguiente:
[A[ =
2
i=1
(1)
i+1
a
i1
[A
1
i
[
= (1)
1+1
a
11
[A
1
1
[ + (1)
2+1
a
21
[A
1
2
[
= (1)
2
a
11
[a
22
[ + (1)
3
a
21
[a
12
[
= a
11
a
22
a
21
a
12
,
que es igual al valor calculado anteriormente.
Ejemplo 2.13
Hallar el valor del determinante
1 2 3
4 5 6
2 3 4
.
2.1 Denicin 49
Solucin. Hagamos el desarrollo del determinante por menores por la segunda columna:
1 2 3
4 5 6
2 3 4
= (1)
(1+2)
2
4 6
2 4
+ (1)
(2+2)
5
1 3
2 4
+ (1)
(3+2)
(3)
1 3
4 6
= 2
_
4(4) 2 6
_
+ 5
_
(1)(4) 2 3
_
(3)
_
(1)6 4 3)
_
= 2(28) + 5 (2) (3)(18)
= 56 + (10) 54
= 8.
1 2 0 3
2 1 0 1
1 2 3 1
4 1 0 2
.
Solucin. En este caso conviene hacer el desarrollo del determinante por menores por la
3-sima columna:
1 2 0 3
2 1 0 1
1 2 3 1
4 1 0 2
= 0 + 0 + (1)
(3+3)
3
1 2 3
2 1 1
4 1 2
+ 0
= 3
_
(2 1) 2(4 4) + 3(2 + 4)
_
= 3(1 + 16 + 18)
= 99.
Como puede observarse, si se hubiera elegido una columna diferente o cualesquiera de las
las, el nmero de operaciones utilizadas para calcular el determinado habra sido mayor
signicativamente.
Si el orden del determinante es grande y si, adems, la mayora de los elementos
de la matriz son diferentes de cero, el clculo del determinante haciendo uso de la
denicin puede ser tedioso y propenso a error. No solo eso, el tiempo que, incluso
una computadora invierta en el clculo, podra superar lo aceptable para este clculo
(horas, das). Por ello conviene estudiar las propiedades de los determinantes, las cuales
facilitan enormemente su clculo.
50 Determinantes
2.2 Propiedades
Teorema 2.1 Si A = (a
ij
)
n
es una matriz triangular inferior o superior, entonces
[A[ =
n
i=1
a
ii
= a
11
a
22
a
nn
En otras palabras, el determinante de una matriz triangular inferior o superior es igual
al producto de los elementos de su diagonal.
Demostracin. Es inmediata si para el clculo de det(A) se elige el desarrollo por
menores por la primera la o columna, segn A sea triangular inferior o superior. En
ese caso, solo hay que calcular un determinante de orden n1, cuyo valor se multiplicar
por el primer elemento de la diagonal: a
11
. La matriz de orden n1 cuyo determinante
se calcular, tambin es una triangular inferior o superior.
El carcter recursivo de la denicin de determinante, permite utilizar la recursin
para la demostracin de varias de sus propiedades, como la que acabamos de realizar.
Luego del ejemplo, el lector podr aplicar el mtodo para demostrar otra propiedad de
los determinantes.
Ejemplo 2.15
4 0 0
7 2 0
34 8 1
= (4) 2 (1) = 8.
j=1
(1)
r+j
c
rj
det(C
j
r
).
Por la denicin de C, tenemos que c
rj
= a
rj
+ b
rj
, por lo tanto:
det(C) =
n
j=1
(1)
r+j
a
rj
det(C
j
r
) +
n
j=1
(1)
r+j
b
rj
det(C
j
r
).
2.2 Propiedades 51
Por otro lado, las matrices C
j
r
, A
j
r
y B
j
r
son iguales entre s, porque la nica diferencia
entre las matrices A, B y C es la la r-sima que, al ser eliminada de cada una, producen
las matrices C
j
r
, A
j
r
y B
j
r
respectivamente. Por lo tanto, tenemos que:
det(C) =
n
j=1
(1)
r+j
a
rj
det(A
j
r
) +
n
j=1
(1)
r+j
b
rj
det(B
j
r
) = det(A) + det(B).
Ejemplo 2.16
Sean las matrices
A =
_
_
1 2 3
4 6 8
6 8 10
_
_
y B =
_
_
1 2 3
4 8 6
6 8 10
_
_
.
Utilice el teorema anterior para hallar [A[ +[B[.
Solucin. Las matrices A y B tienen iguales sus las, excepto la segunda. Escribamos una
matriz C de orden 3 tal que su primera y tercera las sean iguales a la primera y tercera las
de A y B, respectivamente, y su segunda la sea igual a la suma de las segundas las de A y
B:
C =
_
_
1 2 3
0 2 2
6 8 10
_
_
.
Las matrices A, B y C cumplen con las condiciones del teorema y podemos escribir:
[A[ +[B[ = [C[ =
1 2 3
0 2 2
6 8 10
= 2
1 3
6 10
= 2
1 2
6 8
1 2 3
4 6 10
6 8 8
= 32, [B[ =
1 2 3
4 8 6
6 8 10
= 8,
[A[ +[B[ = 32 + 8 = 24 = [C[.
j=1
(1)
r+j
b
rj
[B
j
r
[ =
n
j=1
(1)
r+j
(a
rj
)[A
j
r
[
=
_
n
j=1
(1)
r+j
a
rj
[A
j
r
[
_
= [A[.
Por lo tanto, [B[ = [A[.
Ejemplo 2.17
Sea la matriz
A =
_
_
1 3 3
4 12 4
2 6 1
_
_
.
Utilice la propiedad anterior para calcular el determinante de la matriz A.
Solucin.
[A[ =
1 3 3
4 12 4
2 6 1
= 4
1 3 3
1 3 1
2 6 1
= 4 3
1 1 3
1 1 1
2 2 1
1 3 3
4 12 4
2 6 1
j=1
(1)
r+j
a
rj
[A
j
r
[ =
n
j=1
(1)
r+j
0[A
j
r
[ = 0,
pues a
rj
= 0 para todo j I
m
, pues A
r
es nula.
La siguiente propiedad arma que si existe un mltiplo de todos los elementos de
una matriz, el determinante de la matriz es el producto de dicho mltiplo elevado a la
potencia n y el determinante de la matriz obtenida al dividir cada uno de los elementos
de la matriz original por el mltiplo. En la jerga matemtica, se suele decir que el
mltiplo ha sido sacado n veces como factor fuera del determinante de la matriz.
2.2 Propiedades 53
Teorema 2.5 Sean la matriz A = (a
ij
)
n
y K. Entonces [A[ =
n
[A[.
Demostracin. Utilicemos la induccin matemtica sobre n, el orden de la matriz A.
1. Si n = 1, entonces A = (a
11
). Por lo tanto, A = (a
11
). Luego, por la denicin de
determinante, tenemos que:
[A[ = a
11
= [A[.
2. Ahora supongamos que [A[ =
k
[A[ para k 1. Vamos a probar que si el orden
de A es k + 1, entonces [A[ =
k+1
[A[.
La primera la de la matriz A es
_
a
11
a
12
a
1n
_
.
Adems, cada la de la matriz A es el producto de por la la correspondiente
de A. Entonces, si desarrollamos el determinante de A por menores respecto a la
primera la, obtendremos lo siguiente:
[A[ =
k+1
j=1
(1)
1+j
(a
1j
)[A
j
1
[
=
k+1
j=1
(1)
1+j
a
1j
[A
j
1
[.
Como A
j
1
es una matriz de orden k, entonces, por la hiptesis de induccin, tenemos
que
[A
j
1
[ =
k
[A
j
1
[.
Por lo tanto:
[A[ =
k+1
j=1
(1)
1+j
a
1j
k
[A
j
1
[ =
k+1
k+1
j=1
(1)
1+j
a
1j
[A
j
1
[ =
k+1
[A[,
como se quera demostrar.
Ejemplo 2.18
Sea la matriz
A =
_
8 4
20 24
_
.
Use la propiedad anterior para calcular el determinante de la matriz A.
54 Determinantes
Solucin.
[A[ =
8 4
20 24
4 2 4 1
4 5 4 6
= 4
2
2 1
5 6
= 16(12 5) = 16 7 = 112.
Un clculo directo con la denicin da, obviamente, igual resultado:
[A[ =
_
8 4
20 24
_
= 8 24 20 4 = 192 80 = 112.
_
A
i
i ,= r, i ,= r + 1,
A
r+1
i = r,
A
r
i = r + 1.
Ahora, calculemos el determinante de B por menores de la la r + 1:
[B[ =
n
j=1
(1)
(r+1)+j
b
(r+1)j
[B
j
r+1
[.
Pero B
j
r+1
= A
j
r
y b
r+1
j = a
rj
, como se puede ver en la denicin de B. Entonces:
[B[ =
n
j=1
(1)
(r+1)+j
a
rj
[A
j
r
[
=
n
j=1
(1)
(r+j)
(1)a
rj
[A
j
r
[
= (1)
n
j=1
(1)
(r+j)
a
rj
[A
j
r
[.
Es decir, [B[ = [A[.
Ahora mostremos que se requiere un nmero impar de intercambios consecutivos
para lograr el intercambio entre las las r y s. Procedamos as:
2.2 Propiedades 55
1. Vamos a colocar la la nmero r en la posicin s. Para ello, intercambios A
r
con
A
r+1
, luego con A
r+2
, y as hasta intercambiar con A
s
. En este proceso se han
realizado (s r) intercambios consecutivos.
2. Ahora hay que llevar la la A
s
, que en este momento se encuentra en la la
nmero s1, ya que la la nmero s est ahora ocupada por A
r
, a la la nmero
r. Esto signica que hay que intercambiar las las nmero r y nmero s 1. El
paso anterior nos dice que requeriremos (s r 1) (uno menos que el anterior).
Por lo tanto, se requiere (s r) +(s r) 1 = 2(s r) 1 que es, como se puede ver,
un nmero impar.
Teorema 2.7 Si dos las (o columnas) distintas de un determinante son iguales, entonces el
determinante es igual a cero.
Demostracin. Sea A una matriz que tiene dos las iguales. Sea B la matriz obtenida
de A al intercambiar dichas las iguales. Entonces, B = A y, por el teorema 2.6,
[B[ = [A[. Por lo tanto [A[ = [A[, de donde [A[ = 0.
Ejemplo 2.19
[A[ =
1 3 3
4 12 4
2 6 1
F
2
F
3
=
1 3 3
2 6 1
4 12 4
C
1
C
2
=
3 1 3
6 2 1
12 4 4
1 2 3
2 4 5
1 10 4
F
2
+3F
1
=
1 2 3
1 10 14
1 10 14
F
3
F
2
=
1 2 3
1 10 14
0 0 0
= 0.
Ejemplo 2.21
Hallar el valor del determinante
+ 1 2
+ 2 + 7
2 2 + 2 + 6
.
Solucin.
+ 1 2
+ 2 + 7
2 2 + 2 + 6
F
2
F
1
F
3
2F
1
=
+ 1 2
0 1 + 9
0 0 + 10
= ( + 10).
j=1
(1)
1+j
a
1j
[
A
j
1
[
=
n
j=1
(1)
1+j
a
j1
[(A
1
j
)
t
[.
Pero la matriz A
1
j
es de orden k. Entonces, por la hiptesis de induccin, tenemos
que [(A
1
j
)
t
[ = [A
j
1
[. Por lo tanto:
[A
t
[ =
n
j=1
(1)
1+j
a
j1
[A
1
j
[.
Pero el trmino de la derecha de esta igualdad, es el determinante de A al desarrollar
el menor por la primera columna de A. Es decir:
n
j=1
(1)
1+j
a
j1
[A
1
j
[ = [A[.
Por lo tanto, [A
t
[ = [A[.
Denicin 2.2 (Matriz semidescompuesta) Una matriz A M
n
se denomina matriz semides-
compuesta si es de la forma
_
B O
C D
_
,
donde B M
rr
, D M
ss
, O M
rs
(matriz nula), C M
sr
y r +s = n.
Una matriz descompuesta tambin es de la forma
_
B C
O D
_
,
con B M
rr
, D M
ss
, O M
sr
, C M
rs
y r + s = n.
En los dos casos a las matrices B y D se les llama clulas diagonales de la matriz
A.
58 Determinantes
Teorema 2.11 El determinante de una matriz semidescompuesta es igual al producto de los
determinantes de sus clulas diagonales.
Es decir, si
_
B C
O D
_
,
es una matriz semidescompuesta, entonces su determinante es igual a [B[ [D[.
Demostracin. Utilicemos induccin sobre n, el orden de la matriz A.
1. Si n = 2 y
A =
_
a
11
0
a
21
a
22
_
,
tenemos que
[A[ =
a
11
a
12
a
21
a
22
= a
11
a
22
.
2. Supongamos que el teorema es verdadero para cada matriz semidescompuesta de
orden k. Vamos a probar que si A una matriz semidescompuesta de orden k +1,
es decir, si
A =
_
B O
C D
_
,
donde B = (b
ij
)
r
y D = (d
ij
)
s
, con r + s = k + 1, se verica que
[A[ = [B[ [D[.
Puesto que a
1j
= b
1j
para j = 1, 2, . . . , r, y a
1j
= 0 para j = r + 1, . . . , k + 1, se
tiene que
[A[ =
k+1
j=1
(1)
1+j
a
1j
[A
j
1
[ =
r
j=1
(1)
1+j
b
1j
[A
j
1
[.
Por otro lado, A
j
1
son matrices descompuestas de orden k cuyas clulas diagonales
son B
j
1
, j = 1, 2, . . . , r y D. Entonces, por la hiptesis de induccin, tenemos que:
[A
j
1
[ = [B
j
1
[ [D[,
lo que produce que
[A[ =
r
j=1
(1)
1+j
b
1j
[B
j
1
[[D[ =
_
r
j=1
(1)
1+j
b
1j
[B
j
1
[
_
[D[ = [B[ [D[.
El siguiente teorema es, en realidad, un corolario de este ltimo.
2.2 Propiedades 59
Teorema 2.12 Si A, B M
n
, entonces [AB[ = [A[ [B[.
Es decir, el determinante de un producto de matrices es igual al producto de los deter-
minantes de las matrices. No existe una propiedad similar para la suma de matrices.
Demostracin. La aplicacin del teorema anterior a la siguiente matriz semidescom-
puesta:
C =
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
a
1n
0 0 0
a
21
a
22
a
2n
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
0 0 0
1 0 0 b
11
b
12
b
1n
0 1 0 b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 b
n1
b
n2
b
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
,
donde A = (a
ij
)
n
y B = (b
ij
)
n
produce el resultado buscado.
Corolario 2.13 Sean A
1
, A
2
, . . . , A
m
m matrices cuadradas de orden n. Entonces se tiene que
[A
1
A
2
A
m
[ = [A
1
[ [A
2
[ [A
m
[
Demostracin. Por induccin sobre m.
De este corolario se deduce inmediatamente el siguiente teorema.
Teorema 2.14 Sean A M
n
y m N. Entonces [A
m
[ = [A[
m
.
Se entiende que A
m
es la abreviacin de AA A, donde A aparece m veces.
Ejemplo 2.22
Sea la matriz
A =
_
_
1 3 4
2 7 6
3 8 12
_
_
.
Halle [A
n
[.
Solucin. Primero encontremos [A[ usando las propiedades vistas anteriormente:
[A[ =
1 3 4
2 7 6
3 8 12
F
2
2F
1
F
3
+3F
1
=
1 3 4
0 1 2
0 1 0
F
3
F
2
=
1 3 4
0 1 2
0 0 2
= 1 1 (2) = 2
Aplicamos la ltima propiedad:
[A
n
[ = [A[
n
= (2)
n
.
60 Determinantes
2.3 Determinantes y matrices inversibles
Teorema 2.15 Si A M
n
es una matriz inversible, entonces
[A[ , = 0 y [A
1
[ =
1
[A[
.
Demostracin. Como A es inversible, existe A
1
y A
1
A = I. Entonces:
[A
1
A[ = [I[.
Pero
[A
1
A[ = [A
1
[ [A[ y [I[ = 1.
Por lo tanto
[A
1
[ [A[ = 1,
de donde [A
1
[ , = 0 y [A
1
[ =
1
[A[
.
Ejemplo 2.23
Se sabe que la matriz
A =
_
_
1 0 1
3 1 4
0 1 0
_
_
es inversible. Calcular [A
1
[.
Solucin. Como
[A[ =
1 0 1
3 1 4
0 2 0
= 2
1 1
3 4
= 2(4 + 3) = 14,
tenemos que
[A
1
[ =
1
[A[
=
1
14
=
1
14
.
k=1
a
rk
A
rk
r 1, 2, . . . , n,
o por la s-sima columna como
[A[ =
n
k=1
a
ks
A
ks
s 1, 2, . . . , n.
Denicin 2.4 (Matriz adjunta) Se denomina adjunta de la matriz A M
n
, notada adj A, a la
matriz transpuesta de la matriz de los cofactores de A, es decir, adj(A) = (cof A)
t
.
Teorema 2.16 Si A = (a
ij
)
n
, entonces
n
k=1
a
ij
A
jk
= 0 para todo i y para todo j tal que i ,= j.
Esto signica que el producto de la i-sima la de la matriz A, A
i
, por la j-sima la,
con j ,= i, de la matriz cof A es igual a cero.
Demostracin. Sea B la matriz tal que B
s
= A
r
y el resto de sus las son iguales a las
correspondientes de A. Entonces [B[ = 0.
Por otro lado, de la denicin de B tambin tenemos que:
[B[ =
n
j=1
(1)
j+s
b
sj
[B
j
s
[ =
n
j=1
(1)
j+a
a
rj
[A
j
s
[.
Entonces
[B[ =
n
j=1
a
rk
A
j
s
.
Entonces, por la denicin de cofactor, tenemos que
n
j=1
a
rj
A
sj
= [B[ = 0.
Esto signica que el producto de una la r de A por una la s (s ,= r) de cof A es cero.
Adems, obsrvese que
n
j=1
a
rj
A
sj
= [A[
para r = 1, 2, . . . , n.
El siguiente teorema nos permitir obtener un mtodo alternativo para calcular la
inversa de una matriz.
62 Determinantes
Teorema 2.17 Sea la matriz A = (a
ij
) M
n
. Entonces Aadj(A) = [A[ I
n
.
Demostracin. Sea C = Aadj(A). Entonces:
c
ij
=
n
k=1
a
ik
A
jk
.
Entonces, por el teorema 2.16, tenemos que c
ij
= 0 si i ,= j y c
ii
= [A[. Por lo tanto:
Aadj A =
_
_
_
_
_
[A[ 0 0
0 [A[ 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 [A[
_
_
_
_
_
= [A[I,
por el teorema 2.11.
Ejemplo 2.24
Sea la matriz
A =
_
_
1 0 1
3 1 4
0 1 0
_
_
.
Calcular A adj(A).
Solucin. Calculemos
[A[ =
1 0 1
3 1 4
0 1 0
1 1
3 4
= 7
Por el teorema anterior:
A adj(A) = [A[ I
3
= 7
_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
_
7 0 0
0 7 0
0 0 7
_
_
.
Vericacin:
cof A =
_
_
4 0 3
1 0 1
1 7 1
_
_
, adj(A) = (cof A)
t
=
_
_
4 1 1
0 0 7
3 1 1
_
_
,
A adj(A) =
_
_
1 0 1
3 1 4
0 1 0
_
_
_
_
4 1 1
0 0 7
3 1 1
_
_
=
_
_
7 0 0
0 7 0
0 0 7
_
_
= 7
_
_
1 0 0
0 1 0
0 0 1
_
_
= [A[ I
3
.
a b
c d
= ad cb.
Entonces la matriz A es inversible si y solo si ad cb ,= 0.
64 Determinantes
2. Sea la matriz A tal que ad cb ,= 0. Tenemos que
[A[ = ad cb, cof A =
_
d c
b a
_
, adj A = (cof A)
t
=
_
d b
c a
_
.
Entonces tenemos que
A
1
=
1
[A[
adj A =
1
ad cb
_
d b
c a
_
.
Ejemplo 2.26
Sea la matriz
A =
_
_
1 0 1
3 1 4
0 1 0
_
_
.
Si la matriz A es inversible, calcular su inversa A
1
.
Solucin. Hallemos el determinante de la matriz:
[A[ =
1 0 1
3 1 4
0 1 0
= 7 ,= 0.
Entonces la matriz A es inversible. De un ejercicio anterior tenemos su adjunta:
adj A =
_
_
4 1 1
0 0 7
3 1 1
_
_
La inversa de la matriz A es
A
1
=
1
[A[
adj A =
1
7
_
_
4 1 1
0 0 7
3 1 1
_
_
.
Vericacin:
A
1
A =
1
7
_
_
4 1 1
0 0 7
3 1 1
_
_
_
_
1 0 1
3 1 4
0 1 0
_
_
=
1
7
_
_
7 0 0
0 7 0
0 0 7
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
= I
3
.
n
=
1 1 1 1 1
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2
.
Desarrollo. Utilicemos el desarrollo por menores de la primera columna. Obtenemos
lo siguiente:
n
=
1 1 1 1 1
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2
2 0 0 0 0
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2
(1)
1 1 1 1 1
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2 0
0 0 0 1 2
= 2
n1
+
n1
= 2
n1
+ 2
n2
+ 2
2
+
2
= 2
n1
+ 2
n2
+ 2
2
+ 2
1
+ 2
0
=
n1
i=0
2
i
=
2
n
1
2 1
= 2
n
1.
66 Determinantes
4. Sea la matriz A M
n
antisimtrica. Demostrar que si n es impar, [A[ = 0.
Demostracin. Supongamos que A es antisimtrica. Entonces A
t
= A. Por lo
tanto, [A
t
[ = [A[. Pero, [A[ = (1)
n
[A[. As que [A[ = [A[, ya que n es impar.
Esto signica que [A[ = 0.
5. Para qu valores de a R la matriz
A =
_
_
1 2 3
a 1 3
1 1 a
_
_
es inversible? Hallar la inversa para dichos valores.
Desarrollo. Hallemos el determinante de la matriz A:
[A[ =
1 2 3
a 1 3
1 1 a
F
2
aF
1
F
3
1F
1
=
1 2 3
0 1 + 2a 3 3a
0 1 a 3
= (1 + 2a)(a 3) + (3 + 3a) = 2a
2
2a = 2a(a 1).
Si a R 0, 1, [A[ , = 0 y, por lo tanto, la matriz A es inversible.
Ahora calculemos la inversa para a R 0, 1. En primer lugar, calculemos los
cofactores de la matriz A:
A
11
=
1 3
1 a
= a 3, A
12
=
a 3
1 a
= a
2
3,
A
13
=
a 1
1 1
= a 1, A
21
=
2 3
1 a
= 2a 3,
A
22
=
1 3
1 a
= a 3, A
23
=
1 2
1 1
= 1,
A
31
=
2 3
1 3
= 3, A
32
=
1 3
a 3
= 3a + 3,
A
33
=
1 2
a 1
= 2a + 1.
Ya podemos hallar la inversa:
A
1
=
1
[A[
adj A =
1
[A[
(cof A)
t
=
1
2a(a 1)
_
_
a 3 2a 3 3
a
2
3 a 3 1
3 3a + 3 2a + 1
_
_
.
Sistemas de
ecuaciones
lineales 3
3.1 Ecuaciones lineales
La ecuacin
a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= b,
donde los coecientes a
1
, a
2
, . . . , a
n
y el trmino independiente b son constantes co-
nocidas, se llama lineal en las incgnitas x
1
, x
2
, . . . , x
n
. Se llama lineal porque todas
las incgnitas estn elevadas a la potencia 1 y porque los coecientes a
1
, a
2
, . . . , a
n
no
contienen a ninguna de las incgnitas.
Ejemplo 3.27 La ecuacin
2x +y 5z + 3w = 3
es una ecuacin lineal en las incgnitas x, y, z y w.
Ninguna de las ecuaciones
2x +y 5z
2
+ 3w = 3,
2x +y 5z + 3xw = 3,
2x
1
+y 5z + 3w = 3
2x + cos y 5z + 3w = 3,
2x +y 5z + 3 ln w = 3,
es una ecuacin lineal.
Resolver una ecuacin lineal es encontrar los valores de las incgnitas que satisfacen
la ecuacin; es decir, encontrar los valores que al sustituir las incgnitas, reducen la
ecuacin a una identidad. El conjunto de valores que satisfacen la ecuacin se llama
solucin de la ecuacin. En concreto, una sucesin de nmeros s
1
, s
2
, . . . , s
n
se llama
solucin de la ecuacin lineal
a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= b,
si al sustituir x
1
= s
1
, x
2
= s
2
, . . . , x
n
= s
n
en la ecuacin, la proposicin
a
1
s
1
+ a
2
s
2
+ + a
s
x
n
= b,
obtenida por la sustitucin, es verdadera.
68 Sistemas de ecuaciones lineales
Ejemplo 3.28 La sucesin s
1
= 2, s
2
= 4, s
3
= 4, s
4
= 3 es una solucin de la ecuacin
lineal
2x
1
+x
2
5x
3
+ 3x
4
= 3.
En efecto, al hacer las sustituciones x
1
= s
1
, x
2
= s
2
, x
3
= s
3
, x
4
= s
4
en la ecuacin, ella se
transforma en identidad:
2x
1
+x
2
5x
3
+ 3x
4
= 2s
1
+s
2
5s
3
+ 3s
4
= 2 2 + 4 5 4 + 3 3
= 4 + 4 20 + 9
= 3.
La sucesin r
1
= 2, r
2
= 4, r
3
= 1, r
4
= 0 es otra solucin de la ecuacin lineal porque
esos valores tambin satisfacen la ecuacin:
2x
1
+x
2
5x
3
+ 3x
4
= 2r
1
+r
2
5r
3
+ 3r
4
= 2 (2) + (4) 5 (1) + 3 0
= 4 4 + 5 + 0
= 3.
La sucesin t
1
= 4, t
2
= 3, t
3
= 0, t
4
= 2 no es solucin de la ecuacin lineal porque no la
reduce a una identidad:
2x
1
+x
2
5x
3
+ 3x
4
= 2t
1
+t
2
5t
3
+t
4
= 2 4 + 3 5 0 + 3 2
= 8 + 3 + 0 + 6 = 17 ,= 3.
i=1
c
i
a
i1
_
x
1
+
_
m
i=1
c
i
a
i2
_
x
2
+ +
_
m
i=1
c
i
a
in
_
x
n
=
n
j=1
_
n
i=1
c
i
a
ij
_
x
j
=
m
i=1
c
i
b
i
,
la cual se llama combinacin lineal de las ecuaciones del sistema lineal.
Ejemplo 3.29 Sea el sistema lineal
2x 3y = 1,
x + 2y = 4.
Multipliquemos la primera ecuacin por 1 y la segunda por 2:
2x + 3y = 1,
2x + 4y = 8.
Sumamos miembro a miembro las dos ecuaciones anteriores. La nueva ecuacin
4x + 7y = 9
es una combinacin lineal de las ecuaciones del sistema lineal.
Denicin 3.4 (Sistemas lineales equivalentes) Se dice que dos sistemas lineales AX = B y
CX = D son equivalentes si cada una de las ecuaciones del un sistema es una combinacin
lineal de las ecuaciones del otro sistema.
El siguiente teorema muestra la importancia de los sistemas equivalentes.
Teorema 3.1 Dos sistemas lineales equivalentes tiene exactamente las mismas soluciones.
Demostracin. Supongamos que AX = B y CX = D son dos sistemas lineales equi-
valentes. Vamos a probar que tienen las mismas soluciones. Para ello, vamos a probar
que s es solucin de AX = B si y solo si es solucin de CX = D.
3.3 Solucin de un sistema lineal 71
En primer lugar, supongamos que s es una solucin de AX = B, donde A es de
orden mn. Esto signica que para cada i I
m
, la ecuacin i-sima de este sistema,
n
j=1
a
ij
x
j
= b
i
,
es satisfecha por s; es decir, se verica la igualdad:
n
j=1
a
ij
s
j
= b
i
, (3.2)
donde s = (s
1
, s
2
, , s
n
)
t
.
Vamos a probar que s es solucin del sistema CX = D. Para ello, recordemos que
cada ecuacin de este sistema, es una combinacin lineal del otro sistema. Esto signica
que, para cada i I
m
, la ecuacin i-sima de este sistema es de la forma
n
j=1
_
m
i=1
c
i
a
ij
_
x
j
=
m
i=1
c
i
b
i
. (3.3)
Mostremos a continuacin que s satisface cada una de estas ecuaciones. Para ello,
reemplacemos x
j
por s
j
en lado izquierdo de la ecuacin (3.3):
n
j=1
_
m
i=1
c
i
a
ij
_
s
j
=
n
j=1
_
m
i=1
c
i
a
ij
s
j
_
=
m
i=1
_
n
j=1
c
i
a
ij
s
j
_
=
n
i=1
c
i
_
m
j=1
a
ij
s
j
_
.
Es decir:
n
j=1
_
m
i=1
c
i
a
ij
_
s
j
=
n
i=1
c
i
_
m
j=1
a
ij
s
j
_
. (3.4)
Pero la igualdad (3.2) produce en la igualdad (3.4) lo siguiente:
n
j=1
_
m
i=1
c
i
a
ij
_
s
j
=
n
i=1
c
i
b
i
.
Es decir, s satisface cada ecuacin (3.3) del sistema CX = D.
Se deja al lector la demostracin de que s es solucin del sistema AX = B si es
solucin del sistema CX = D.
Una forma rpida de saber si dos sistemas lineales AX = B y CX = D son o no
equivalentes es hallando las matrices escalonadas reducidas por las de las matrices
ampliadas (A [ B) y (C [ D). Si dichas matrices ampliadas son iguales, los sistema son
equivalentes. Caso contrario no son equivalentes.
Denicin 3.5 (Sistemas lineales homogneos y no homogneos) Un sistema de ecuaciones
lineales AX = B se llama homogneo si B = O. Si B ,= Oel sistema se llama no homogneo.
72 Sistemas de ecuaciones lineales
Teorema 3.2 Sean Ay B dos matrices de orden n y equivalentes por las. Entonces los sistemas
homogneos AX = O y BX = O son equivalentes; es decir, tienen las mismas soluciones.
Demostracin. Supongamos que la matriz A
1
se obtiene a partir de A por la aplicacin
de una operacin elemental por la. Es decir, A
1
= eA, donde e es una operacin
elemental. Se tiene, entonces, que A
1
X = O, pues el sistema A
1
X = O es equivalente al
sistema AX = O, ya que cualquier operacin elemental por las hace que las ecuaciones
del segundo sistema sean combinacin lineal de las del primero.
En efecto, si e es del primer tipo, todas las ecuaciones del segundo sistema, salvo
una, son idnticas a las del primer sistema (en este caso, todas esas ecuaciones se han
obtenido del primer sistema tomando todos los escalares iguales a 0, excepto uno de
ellos que ha tomado el valor 1). La ecuacin diferente del segundo sistema es el producto
de la correspondiente del primer sistema por un escalar diferente de 0; luego, tambin
es una combinacin lineal.
Ahora bien, como B es equivalente con A, existe una sucesin de matrices A
1
, . . .,
A
n
= B, y una sucesin de operaciones elementales por la e
1
, . . ., e
n
tales que
A
i+1
= e
i
A
i
,
A
1
= e
1
A y B = e
n
A
n
. Por lo demostrado al inicio, tenemos que A
i
X = O para todo
i. Entonces, BX = O.
Todava no sabemos cuando un sistema lineal tiene o no solucin, y en caso de
tenerla, no sabemos si ella es nica. Pero con lo visto hasta aqu, ya podemos resolver
sistemas lineales.
3.3.1 Mtodos de solucin
La idea general del mtodo de solucin de un sistema lineal es hallar un sistema equi-
valente ms simple de resolver que el original. Existen dos mtodos que se diferencian
en el tipo de sistema equivalente al que se llega.
Mtodo de Gauss
En el mtodo de Gauss se halla una matriz escalonada de la matriz ampliada (A [ B)
del sistema lineal AX = B. Veamos cmo funciona con un ejemplo.
Ejemplo 3.30
Sea el sistema lineal
x
1
+ x
2
+ x
3
+ x
4
= 6,
x
1
+ x
2
+3x
3
+ 3x
4
= 12,
x
1
+ x
2
+2x
3
+ 3x
4
= 12,
x
1
+ 3x
2
+3x
3
+ 3x
4
= 14.
Resuelva el sistema por el mtodo de Gauss.
3.3 Solucin de un sistema lineal 73
Solucin. Sea (A [ B) la matriz ampliada del sistema. Hallemos una matriz escalonada de la
matriz ampliada:
(A [ B)
_
_
_
_
1 1 1 1 [ 6
1 1 3 3 [ 12
1 1 2 3 [ 12
1 3 3 3 [ 14
_
_
_
_
F
2
F
1
F
3
F
1
F
4
F
1
_
_
_
_
1 1 1 1 [ 6
0 0 2 2 [ 6
0 0 1 2 [ 6
0 2 2 2 [ 8
_
_
_
_
1
2
F
2
1
2
F
4
_
_
_
_
1 1 1 1 [ 6
0 0 1 1 [ 3
0 0 1 2 [ 6
0 1 1 1 [ 4
_
_
_
_
F
2
F
4
_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 1 1 [ 3
_
_
_
_
F
4
F
3
_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
4
_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
= (C [ D).
El sistema CX = D
x
1
+x
2
+x
3
+ x
4
= 6,
x
2
+x
3
+ x
4
= 4,
x
3
+ 2x
4
= 6,
x
4
= 3,
es equivalente al original AX = B, pero es ms fcil de resolver. Se lo resuelve al empezar a
encontrar el valor de las incgnitas desde la ltima ecuacin hacia la primera:
x
4
= 3,
x
3
= 6 2x
4
= 6 2 3 = 0,
x
2
= 4 x
3
x
4
= 4 0 3 = 1,
x
1
= 6 x
2
x
3
x
4
= 6 1 0 3 = 2.
Hemos encontrado que el sistema tiene solucin y que tal solucin es nica. Veriquemos que
la solucin encontrada del sistema CX = D es tambin solucin del sistema original AX = B.
Es decir, si la matriz
S =
_
2 1 0 3
_
t
es solucin del sistema CX = D, veriquemos que tambin es solucin del sistema AX = B:
AS =
_
_
_
_
1 1 1 1
1 1 3 3
1 1 2 3
1 3 3 3
_
_
_
_
_
_
_
_
2
1
0
3
_
_
_
_
=
_
_
_
_
6
12
12
14
_
_
_
_
= B.
Mtodo de Gauss-Jordan
En el mtodo de Gauss-Jordan, se halla la matriz escalonada reducida por las de la
matriz ampliada del sistema lineal.
74 Sistemas de ecuaciones lineales
Ejemplo 3.31
Resolver el sistema lineal del ejemplo anterior por el mtodo de Gauss-Jordan.
Solucin. Hallemos la matriz escalonada reducida por las de la matriz ampliada del sistema
partiendo desde la ya encontrada matriz escalonada:
(A [ B)
_
_
_
_
1 1 1 1 [ 6
1 1 3 3 [ 12
1 1 2 3 [ 12
1 3 3 3 [ 14
_
_
_
_
_
_
_
_
1 1 1 1 [ 6
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
1
F
2
_
_
_
_
1 0 0 0 [ 2
0 1 1 1 [ 4
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
2
F
3
_
_
_
_
1 0 0 0 [ 2
0 1 0 1 [ 2
0 0 1 2 [ 6
0 0 0 1 [ 3
_
_
_
_
F
2
+F
4
F
3
2F
4
_
_
_
_
1 0 0 0 [ 2
0 1 0 0 [ 1
0 0 1 0 [ 0
0 0 0 1 [ 3
_
_
_
_
= (D [ F)
El sistema lineal DX = F, equivalente al sistema original AX = B, puede escribirse explci-
tamente como
x = 2, y = 1, z = 0, w = 3,
el cual, a su vez, es ya la solucin del sistema.
Obsrvese que en este caso el sistema lineal tiene solucin nica y que:
1. El rango de la matriz de coecientes es igual al rango de la matriz ampliada:
ran A = 4 = ran(A [ B)
2. Dicho rango es igual al nmero de incgnitas:
ran A = ran(A [ B) = 4 = n
Ejemplo 3.32
Resolver por el mtodo de Gauss-Jordan el sistema lineal
x + 2y + w = 7,
x + y + z w = 3,
3x + y + 5z 7w = 1.
Solucin.
3.3 Solucin de un sistema lineal 75
Sea (A [ B) la matriz ampliada del sistema lineal. Hallemos su matriz escalonada reducida
por las:
(A [ B) =
_
_
1 2 0 1 [ 7
1 1 1 1 [ 3
3 1 5 7 [ 1
_
_
F
2
F
1
F
3
3F
1
_
_
1 2 0 1 [ 7
0 1 1 2 [ 4
0 5 5 10 [ 20
_
_
F
2
_
_
1 2 0 1 [ 7
0 1 1 2 [ 4
0 5 5 10 [ 20
_
_
F
1
2F
2
F
3
+5F
2
_
_
1 0 2 3 [ 1
0 1 1 2 [ 4
0 0 0 0 [ 0
_
_
= (C [ D)
La tercera ecuacin
0x + 0y + 0z + 0w = 0
del sistema CX = D tiene como solucin cualesquiera conjunto de valores de las incgnitas
x, y, z y w. Por lo tanto, cualesquiera solucin de las dos primeras ecuaciones ser tambin
solucin de la tercera. Por ello el sistema lineal CX = D lo escribimos as:
x + 2z 3w = 1,
y z + 2w = 4.
Para empezar a dar la solucin del sistema, pensemos solamente en la segunda ecuacin.
Parece que hay una gran amplitud para los valores de y, z y w. Intentemos escogiendo valores
arbitrarios para z y w. Sean z = a R y w = b R. Para la incgnita y ya no podemos
escoger cualquier valor, sino que lo encontramos despejando y de la segunda ecuacin:
y = 4 +z 2w = 4 +a 2b.
Procedamos de igual manera con la primera ecuacin. Como los valores de z y w ya estn
jados, despejamos x:
x = 1 2z + 3w = 1 2a + 3b
Escribamos la solucin del sistema CX = D en forma de la matriz
S =
_
_
_
_
1 2a + 3b
4 +a 2b
a
b
_
_
_
_
, a, b R.
Como los parmetros a y b pueden asumir cualquier valor en los nmeros reales tenemos que
el sistema CX = D tiene nmero innito de soluciones. Por ejemplo, S
1
y S
2
son dos de
dichas soluciones:
S
1
=
_
_
_
_
3
1
1
2
_
_
_
_
si a = 1, b = 2 y S
2
=
_
_
_
_
6
0
2
1
_
_
_
_
si a = 2, b = 1.
Podramos vericar que S
1
y S
2
son soluciones del sistema CX = D y tambin del sistema
AX = B. Ms bien, veriquemos de una vez que la matriz S es solucin del sistema original
AX = B que se nos dio a resolver. Sean a, b R. Entonces:
AS =
_
_
1 2 0 1
1 1 1 1
3 1 5 7
_
_
_
_
_
_
1 2a + 3b
4 +a 2b
a
b
_
_
_
_
76 Sistemas de ecuaciones lineales
=
_
_
(1 2a + 3b) + 2(4 +a 2b) + 0 +b
(1 2a + 3b) + (4 +a 2b) +a b
3(1 2a + 3b) + (4 +a 2b) + 5a 7b
_
_
=
_
_
7
3
1
_
_
= B.
Observemos que en este ejemplo:
ran A = 2 = ran(a [ B)
y que el rango es menor que el nmero de incgnitas:
ran A = ran(a [ B) = r = 2 < 4 = n.
Observemos tambin que el nmero de parmetros es igual al nmero de incgnitas menos
el rango: n r = 4 2 = 2.
Ejemplo 3.33
Si es posible, resolver el sistema lineal
x + 2y + 3z = 6,
2x + 3y 5z = 4,
x + 9y + 4z = 10.
Solucin. Sea (A [ B) la matriz ampliada del sistema lineal. Hallemos su matriz escalonada
reducida por las:
(A [ B) =
_
_
1 2 3 [ 6
2 3 5 [ 4
1 9 4 [ 10
_
_
F
2
+2F
1
F
3
F
1
_
_
1 2 3 [ 6
0 7 1 [ 16
0 7 1 [ 4
_
_
F
3
F
2
_
_
1 2 3 [ 6
0 7 1 [ 16
0 0 0 [ 12
_
_
= (C [ D).
El sistema equivalente (CX = D) puede escribirse as:
x + 2y + 3z = 6,
7y + z = 16,
0x + 0y + 0z = 12.
Claramente se ve que no existen nmeros x, y y z que satisfagan la tercera ecuacin. Si la
tercera ecuacin no tiene solucin, entonces el sistema lineal AX = B tampoco tiene solucin.
Observemos que, en este caso, el rango de la matriz de los coecientes es menor que el
rango de la matriz ampliada del sistema:
ran A = 2 < 3 = ran(A [ B).
En los tres ejemplos anteriores hemos encontrado que en los que existe solucin,
el rango de la matriz de los coecientes es igual al rango de la matriz ampliada del
3.3 Solucin de un sistema lineal 77
sistema. Si, adems, ese rango es igual al nmero de incgnitas la solucin es nica; pero
si el rango es menor al nmero de incgnitas, el sistema lineal tiene nmero innito de
soluciones. Tambin hemos encontrado que si el rango de la matriz de los coecientes
es menor que el rango de la matriz ampliada del sistema, entonces el sistema no tiene
solucin. Por supuesto, los ejemplos estudiados no son sucientes para concluir que
esto siempre es as. Sin embargo, se puede demostrar que esto ocurre as efectivamente,
por lo que enunciamos el siguiente teorema, e invitamos al lector a que realice la
demostracin por s mismo.
Teorema 3.3 (Soluciones de un sistema lineal) Sea el sistema lineal de m ecuaciones con n
incgnitas cuya representacin matricial es AX = B.
1. Si ran A < ran(A [ B), el sistema no tiene solucin.
2. Si ran A = ran(A [ B) = r, el sistema tiene solucin.
(a) Si, adems, r = n, tal solucin es nica.
(b) Si, adems, r < n, el sistema tiene nmero innito de soluciones con n r parmetros.
Cuando el sistema lineal tiene nmero innito de soluciones, estas se consiguen
asignando parmetros a cualesquiera n r incgnitas. Por facilidad se asignan los
parmetros a aquellas variables que corresponden a las columnas de la matriz de los
coecientes que no contienen el primer elemento no nulo de una la.
En un sistema lineal homogneo la matriz de trminos independientes B es nula.
Por tal razn, en un sistema homogneo, siempre se cumple que ran A = ran(A [ B).
El siguiente corolario expresa dicho resultado.
Corolario 3.4 Un sistema lineal homogneo AX = O siempre tiene solucin.
En los sistemas homogneos tenemos otro criterio para determinar el nmero de
soluciones que tiene el sistema.
Teorema 3.5 Si en el sistema AX = O hay menos ecuaciones que incgnitas; es decir, si la
matriz A es de orden mn con m < n, el sistema tiene un nmero innito de soluciones.
Demostracin. Sea R la matriz escalonada reducida por las equivalente a A. Entonces
el sistema RX = O tiene las mismas soluciones que el sistema AX = O. Analicemos,
pues, las soluciones del sistema con R.
Sea r el nmero de las no nulas en R. Entonces r m < n. Supongamos que el
elemento principal no nulo de R de la la i est en la columna k
i
. Adems, supongamos
que las incgnitas x
k
i
aparecen solamente en la i-sima ecuacin RX = O (con i I
r
).
Ahora bien, sean u
1
, u
2
, . . . , u
nr
las incgnitas restantes, que son diferentes de
x
k
i
. Las ecuaciones del sistema tienen, entonces, la forma siguiente:
x
k
i
+
nr
j=1
ij
u
j
= 0
78 Sistemas de ecuaciones lineales
para i I
r
.
De esta ltima igualdad, para cada valor que se asignen a los u
j
con j = 1, 2, . . . , n
r, se obtienen soluciones no nulas del sistema RX = O. Por lo tanto, este sistema tiene
un nmero innito de soluciones.
Si el sistema lineal AX = B tiene igual nmero de ecuaciones que de incgnitas
es ms fcil saber si el sistema tiene o no solucin con base en el conocimiento del
determinante [A[. El siguiente teorema nos lo dice cmo.
Teorema 3.6 (Soluciones de un sistema cuadrado) Sea el sistema lineal de n ecuaciones con n
incgnitas cuya representacin matricial es AX = B.
1. Si [A[ , = 0, el sistema tiene solucin nica.
2. Si [A[ = 0, el sistema o no tiene solucin o tiene nmero innito de soluciones.
Demostracin. 1. Si [A[ , = 0, A es inversible. Entonces, existe A
1
, por lo que AX = B
implica X = A
1
B. Es decir, el sistema tiene solucin. Por la unicidad de la inversa,
si Y es una solucin de AX = B, necesariamente se tiene que Y = A
1
B. Esto
signica que el sistema tiene una sola solucin.
2. Si [A[ = 0, existe una matriz C, equivalente a A tal que todos los elementos de una
la son iguales al nmero 0. Supongamos que i sea el ndice de esa la. Sea D tal
que CX = D. Si d
i
= 0, estamos en el caso de que el sistema tiene menos ecuaciones
que incgnitas, lo que signica que el sistema (cualquiera de los dos, ya que son
equivalentes) tienen un nmero innito de soluciones. En el caso de que d
i
,= 0, el
sistema no tiene solucin, pues el rango de C es menor que el rango de la matriz
ampliada (C [ D).
Si el sistema lineal es homogneo tenemos el siguiente corolario.
Corolario 3.7 Sea el sistema lineal homogneo de n ecuaciones con n incgnitas cuya repre-
sentacin matricial es AX = O.
1. Si [A[ = 0, el sistema tiene nmero innito de soluciones.
2. Si [A[ , = 0, el sistema tiene solucin nica, la trivial; es decir, la matriz columna nula.
Si tenemos un sistema lineal cuadrado que tiene solucin nica, se cuenta con un
procedimiento que utiliza los determinantes, llamado regla de Cramer, para hallar su
solucin. No se presenta la demostracin.
Teorema 3.8 (Regla de Cramer) La solucin de un sistema lineal AX = B, con A M
n
inver-
sible, viene dada por
x
i
=
1
[A[
a
11
a
12
a
1(i1)
b
1
a
1(i+1)
a
1n
a
21
a
22
a
1(i1)
b
1
a
1(i+1)
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
22
a
1(i1)
b
1
a
1(i+1)
a
nn
, i = 1, 2, . . . , n.
3.4 Ejercicio resuelto 79
Ejemplo 3.34
Usar la regla de Cramer para encontrar la solucin del sistema lineal
x + 2y + 3z = 13,
2x + 3y + z = 10,
3x + y + 2z = 13.
Solucin. Sea AX = B la representacin matricial del sistema. Hallemos el determinante de
la matriz de coecientes:
[A[ =
1 2 3
2 3 1
3 1 2
= 18 ,= 0.
Entonces el sistema tiene solucin nica que la hallamos con la regla de Cramer:
x =
1
18
13 2 3
10 3 1
13 1 2
=
1
18
(36) = 2,
y =
1
18
1 13 3
2 10 1
3 13 2
=
1
18
(18) = 1,
z =
1
18
1 2 13
2 3 10
3 1 13
=
1
18
(54) = 3.
_
_
_
_
p 0 0 [ m
p + 1 1 1 [ 2m+ 2
1 0 1 [ m
p + 1 1 1 [ p 2
_
_
_
_
F
2
F
1
F
4
F
1
_
_
_
_
p 0 0 [ m
1 1 1 [ m+ 2
1 0 1 [ m
1 1 1 [ p m2
_
_
_
_
F
2
F
3
_
_
_
_
p 0 0 [ m
0 1 0 [ 2
1 0 1 [ m
1 1 1 [ p m2
_
_
_
_
F
4
+F
2
_
_
_
_
p 0 0 [ m
0 1 0 [ 2
1 0 1 [ m
1 0 1 [ p m
_
_
_
_
F
4
F
3
_
_
_
_
p 0 0 [ m
0 1 0 [ 2
1 0 1 [ m
0 0 0 [ p 2m
_
_
_
_
= (C [ D).
Dependiendo de los valores de m y p el rango de la matriz A sera igual o menor que
el rango de la matriz ampliada (A [ B) y, por lo tanto, el sistema AX = B tendr
o no solucin. Estudiemos cada caso.
Sea p ,= 2m. Entonces
ranA = 2 < 3 = ran(A [ B)
y el sistema AX = B no tiene solucin.
Sea p = 2m. El sistema AX = B se convierte en el sistema
2mx = m,
y = 2,
x + z = m.
Sea EX = F su representacin matricial. El determinante de la matriz de los
coecientes es
[E[ =
2m 0 0
0 0 0
1 0 1
= 2m.
El valor del determinante depende del valor de m. Entonces:
si m = 0, el determinate [E[ es igual a cero; el sistema EX = F se convierte
en el sistema
y = 2,
x + z = m.
el cual tiene nmero innito de soluciones. Sea z = r R. Entonces
x = r. El nmero innito de soluciones viene dado por la matriz
S =
_
_
r
2
r
_
_
, r R.
3.4 Ejercicio resuelto 81
Si m ,= 0, el determinate [E[ es distinto de cero. El sistema EX = F tiene,
pues, una sola solucin:
S =
_
_
1/2
2
m1/2
_
_
.
En resumen:
a) Sean p, m R tales que p = 2m y m ,= 0. Entonces el sistema dado tiene la
solucin nica
S =
_
_
1/2
2
m1/2
_
_
.
b) Sean m = 0 y p = 0. Entonces el sistema dado tiene nmero innito de solu-
ciones dados por la matriz
S =
_
_
r
2
r
_
_
, r R.
c) Sean p, m R tales que p ,= 2m. Entonces el sistema dado no tiene solucin.
82 Sistemas de ecuaciones lineales
Espacios vectoriales
por Felipe Navas
Edicin y revisin: Juan Carlos Trujillo
Espacios
vectoriales 4
4.1 Objetivos
El objetivo general de este captulo es:
Fundamentar la dimensin de un subespacio vectorial ortogonal real a partir
de una base ortonormal o de los elementos esenciales que lo tipican en un
tiempo mximo de 30 minutos para un subespacio vectorial de dimensin a
los ms 4.
Para alcanzar el objetivo general, se proponen los siguientes objetivos especcos:
1. Identicar los espacios vectoriales (e.v.) usuales y sus propiedades a partir de la
denicin a un nivel de familiarizacin.
2. Identicar un subespacio vectorial de dimensin nita real a partir de las propie-
dades bsicas que lo tipican a un nivel reproductivo.
3. Identicar la dependencia lineal de un conjunto nito de vectores en un e.v. real,
utilizando sistemas de ecuaciones lineales a un nivel reproductivo.
4. Caracterizar la cpsula lineal S a partir de un conjunto de vectores S nito y
no vaco, a un nivel reproductivo. Los elementos de S puede ser vectores de R
n
(con n 4); polinomios de grado menor que o igual a 3; o matrices de orden
mn (con m 4 y n 4).
5. Fundamentar una base nita de un subespacio vectorial (s.e.v.) que tiene como
elementos a vectores de R
n
, polinomios o matrices, a partir de los elementos
esenciales que le tipican, a un nivel reproductivo.
6. Determinar la interseccin y la suma de s.e.v. reales nitos a partir de las pro-
piedades bsicas de conjuntos, a un nivel productivo.
7. Fundamentar la dimensin de uno o ms s.e.v. reales nitos a partir de las pro-
piedades esenciales que lo tipican, a un nivel de asimilacin productivo.
8. Clasicar las funciones a partir de la denicin de producto interno (p.i.) en los
espacios vectoriales ms importantes, a un nivel reproductivo.
86 Espacios vectoriales
9. Calcular un conjunto de vectores ortogonales a partir de un conjunto linealmente
independiente, usando el proceso de Gram-Schmidt, a un nivel reproductivo.
10. Fundamentar la suma directa de subespacios vectoriales a partir de las propieda-
des de los subespacios vectoriales ortogonales y sus bases, a un nivel constructivo.
4.2 Denicin de espacio vectorial 87
4.2 Denicin de espacio vectorial
Denicin 4.1 (Espacio vectorial) Sean:
V : un conjunto no vaco.
(K, , ): un campo;
+: una operacin interna denida sobre V ;
: una operacin externa denida de K en V .
Se dice que (V, K, +, ) es un espacio vectorial si y solamente si:
1. Conmutativa. Para todo u V y todo v V :
u +v = v +u.
2. Asociativa. Para todo u V , v V y w V :
(u +v) +w = u + (v +w).
3. Existencia del neutro aditivo. Existe e V tal que para todo v V :
e +v = v +e = v.
4. Existencia del inverso aditivo. Para todo v V , existe v V tal que:
v +v = v + v = e.
5. Asociativa mixta. Para todo K, K y todo v V :
( ) v = ( v).
6. Neutro multiplicativo. Sea 1 K, el neutro multiplicativo de K. Para todo v V :
1 v = v.
7. Distributiva de respecto de +. Para todo K y todo u V y v V :
(u +v) = u + v.
8. Distributiva de respecto de . Para todo K y K, y todo v V :
( ) v = ( v) + ( v).
Se suele decir que el conjunto V , con las operaciones + y , es un espacio vectorial
sobre el campo K.
88 Espacios vectoriales
4.2.1 Observaciones
1. A los elementos del espacio vectorial V se les denomina vectores y a los elementos
de campo K, escalares.
2. En la denicin de espacio vectorial hay cuatro operaciones distintas: dos del cam-
po K y dos del conjunto V , a las que denominaremos las operaciones del espacio
vectorial (V, K, +, ).
A pesar de ello, en la prctica, se suele utilizar + tambin para . Al respecto de
y de , ambos smbolos se suelen omitir (al igual que el punto de la multiplicacin
en los nmeros reales).
La razn para estas simplicaciones de notacin se debe a que las operaciones + y
pueden ser distinguidas una de otra fcilmente. Lo mismo sucede entre y .
Considerando estas simplicaciones de notacin, por ejemplo, las dos distributivas
se escribirn de la siguiente manera:
(u + v) = (u) + (v) y ( + )v = v + v.
3. Que la operacin + sea una operacin interna denida sobre V signica que para
todo u V y todo v V , debe ocurrir que:
(u + v) V.
Esto se indica diciendo que la operacin + es cerrada y que satisface la propiedad
clausurativa.
Que la operacin sea una operacin externa denida de K en V quiere decir que
para todo K y todo v V , debe ocurrir que:
v V.
Esto se expresa diciendo que la operacin es cerrada y que satisface la propiedad
clausurativa.
4. Para la vericacin de que un cierto conjunto es un espacio vectorial, hay que cer-
ciorarse antes que las operaciones + y son, efectivamente, cerradas.
5. Si en (V, K, +, ), estn sobreentendidas las operaciones + y , pero no el campo, se
suele decir que V es un espacio vectorial sobre K.
4.2.2 Ejemplos
Los espacios vectoriales con los cuales trabajaremos principalmente son lo siguientes.
1. El conjunto de los nmeros reales sobre s mismo: (R, R, +, ).
Si las operaciones + y son la suma y producto usual entre nmeros reales, el
conjunto R es un espacio vectorial sobre s mismo, ya que R es un campo.
4.2 Denicin de espacio vectorial 89
2. El conjunto R
2
sobre R: (R
2
, R, +, ).
El conjunto de pares ordenados de nmeros reales
R
2
= (x
1
, x
2
) : x
1
R x
2
R
es un espacio vectorial sobre el campo R si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
) R
2
, v = (y
1
, y
2
) R
2
, y R. Entonces, se dene:
(a) u + v = (x
1
, x
2
) + (y
1
, y
2
) = (x
1
+ y
1
, x
2
+ y
2
); y
(b) u = (x
1
, x
2
) = (x
1
, x
2
).
3. El conjunto R
3
sobre R: (R
3
, R, +, ).
El conjunto de triadas ordenadas de nmeros reales
R
3
= (x
1
, x
2
, x
3
) : x
1
R x
2
R x
3
R
es un espacio vectorial sobre el campo R si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
, x
3
) R
3
, v = (y
1
, y
2
, y
3
) R
3
, y R. Entonces, se dene:
(a) u + v = (x
1
, x
2
, x
3
) + (y
1
, y
2
, y
3
) = (x
1
+ y
1
, x
2
+ y
2
, x
3
+ y
3
); y
(b) u = (x
1
, x
2
, x
3
) = (x
1
, x
2
, x
3
).
4. El conjunto R
n
sobre R: (R
n
, R, +, ) con n > 3.
El conjunto de n-tuplas ordenadas de nmeros reales
R
n
= (x
1
, x
2
, . . . , x
n
) : x
i
R, 1 i n
es un espacio vectorial sobre el campo R si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
, . . . , x
n
) R
n
, v = (y
1
, y
2
, . . . , y
n
) R
n
, y R. Entonces, se
dene:
(a) u + v = (x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+ y
1
, x
2
+ y
2
, . . . , x
n
+ y
n
); y
(b) u = (x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
).
5. El conjunto K
n
sobre K, donde K es un campo: (K
n
, K, +, ) con n 1.
El conjunto de n-tuplas ordenadas de elementos del campo K
K
n
= (x
1
, x
2
, . . . , x
n
) : x
i
R, 1 i n
es un espacio vectorial sobre el campo K si se denen las operaciones + y de la
siguiente manera.
Sean u = (x
1
, x
2
, . . . , x
n
) K
n
, v = (y
1
, y
2
, . . . , y
n
) K
n
, y K. Entonces, se
dene:
(a) u + v = (x
1
y
1
, x
2
y
2
, . . . , x
n
y
n
); y
(b) u = ( x
1
, x
2
, . . . , x
n
),
90 Espacios vectoriales
donde y son las operaciones internas del campo K.
6. El conjunto M
mn
sobre R: (M
mn
, R, +, ).
El conjunto de las matrices de nmeros reales de orden m por n
M
mn
=
_
A = (a
ij
)
mn
: a
ij
R, 1 i m, 1 j n
_
es un espacio vectorial sobre R si la operacin + es l suma usual entre matrices y
es el producto usual entre matrices.
Es decir, si A = (a
ij
) M
mn
, B = (b
ij
) M
mn
, y R, entonces:
(a) A+ B = (a
ij
+ b
ij
); y
(b) A = (a
ij
).
7. El conjunto de polinomios P
n
[x] sobre R: (P
n
[x], R, +, ).
El conjunto de los polinomios con coecientes reales de grado menor que o igual a n
P
n
[x] =
_
p : p(x) =
k
i=0
a
j
x
j
, x R, a
j
R, 1 j k, k n
_
es un espacio vectorial sobre R si la operacin + es la suma usual entre polinomios
y es el producto usual entre un nmero real y un polinomio.
Es decir, si p P
n
[x] y q P
n
[x], y R, entonces:
(a) (p + q)(x) = p(x) + q(x); y
(b) (p)(x) = p(x)
para todo x R.
8. El conjunto de las funciones reales F sobre R: (F, R, +, ).
El conjunto de las funciones reales
F = f : f : R R
es un espacio vectorial sobre R si la operacin + es la suma usual entre funciones y
es el producto usual entre un nmero real y una funcin.
Es decir, si f F y g F, y R, entonces:
(a) (f + g)(x) = f(x) + g(x); y
(b) (f)(x) = f(x)
para todo x R.
Utilizaremos estos espacios vectoriales para ilustrar cmo se demuestran cada una
de las propiedades que un conjunto, sobre el cual se han denido dos operaciones, debe
satisfacer para que sea un espacio vectorial.
1. La operacin + en (R
2
, R, +, ) es asociativa; es decir, se verica que para
todo u R
2
, v R
2
y w R
2
:
(u +v) +w = u + (v +w).
4.2 Denicin de espacio vectorial 91
Demostracin. Supongamos que u = (x
1
, x
2
), v = (y
1
, y
2
) y w = (z
1
, z
2
). Entonces:
(u + v) + w = [(x
1
, x
2
) + (y
1
, y
2
)] + (z
1
, z
2
) deniciones de u, v y w,
= (x
1
+ y
1
, x
2
+ y
2
) + (z
1
, z
2
) denicin de + en R
2
,
= ([x
1
+ y
1
] + z
1
, [x
2
+ y
2
] + z
2
) denicin de + en R
2
,
= (x
1
+ [y
1
+ z
1
], x
2
+ [y
2
+ z
2
]) asociativa de R,
= (x
1
, x
2
) + (y
1
+ z
1
, y
2
+ z
2
) denicin de + en R
2
,
= (x
1
, x
2
) + [(y
1
, y
2
) + (z
1
, z
2
)] denicin de + en R
2
,
= u + (v + w) deniciones de u, v y w.
Por lo tanto, para todo u, v y w en R
2
:
(u + v) + w = u + (v + w).
2. Existencia del neutro aditivo en (R
3
, R, +, ); es decir, debemos probar
que la siguiente proposicin es verdadera:
(e R
3
)(v R
3
)(e +v = v +e = v).
La demostracin que viene a continuacin es de existencia. Esto quiere decir que
debemos exhibir un elemento de e R
3
que satisfaga la denicin de elemento
neutro. Por el orden de los cuanticadores, el elemento buscado e es independiente
de todo elemento de R
3
.
Demostracin. Sea e = (0, 0, 0). Vamos a probar que para todo v = (x
1
, x
2
, x
3
), con
x
i
R para i = 1, 2, 3, se verica la igualdad e + v = v.
En efecto:
e + v = (0, 0, 0) + (x
1
, x
2
, x
3
) deniciones de e y v,
= (0 + x
1
, 0 + x
2
, 0 + x
3
) denicin de + en R
3
,
= (x
1
, x
2
, x
3
) = v inverso aditivo en R.
Por lo tanto, e + v = v.
Por la propiedad conmutativa, tenemos que e + v = v + e. Por lo tanto, se ha
demostrado tambin que v + e = v.
Entonces, se ha demostrado que la proposicin
(e R
3
)(v R
3
)(e + v = v + e = v)
es verdadera.
No es difcil probar, adems, que el elemento neutro en cualquier espacio vectorial
es nico. En este texto, lo representaremos con 0
v
.
92 Espacios vectoriales
3. Existencia del inverso aditivo en (R
n
, R, +, ); es decir, debemos probar
que la siguiente proposicin es verdadera:
(v R
n
)( v R
n
)( v +v = v + v = 0
v
).
Esta tambin es una demostracin de existencia. En este caso, por el orden de los
cuanticadores, el elemento v depende de v. Esto quiere decir que, para valores
diferentes de v, v tambin puede ser diferente.
Es obvio que para mostrar esta igualdad, ya debemos conocer a 0
v
en R
n
. No es
difcil probar que 0
v
= (0, 0, , 0) (n ceros).
Demostracin. Sea v = (x
1
, x
2
, , x
n
) R
n
. Vamos a probar que el vector buscado
v se dene del siguiente modo:
v = (x
1
, x
2
, , x
n
),
donde cada x
i
es el inverso aditivo de x
i
R, para i = 1, 2, . . . , n.
Entonces, tenemos que:
v + v = (x
1
, x
2
, , x
n
) + (x
1
, x
2
, , x
n
) deniciones de v y v,
= (x
1
+ (x
1
), x
2
+ (x
2
), . . . , x
n
+ (x
n
)) denicin de + en R
n
,
= (0, 0, . . . , 0) inverso aditivo en R,
= 0
v
denicin de 0
v
en R.
Por lo tanto, v + v = 0
v
. Y, por la propiedad conmutativa de +, se tiene tambin
que v + v = 0
v
.
En resumen, hemos demostrado que
(v R
n
)(v R
n
)(v + v = v +v = 0
v
).
Se puede demostrar fcilmente que el elemento inverso es nico. Con v se suele
representar el inverso aditivo de v.
4. La operacin + en (K
n
, K, +, ) es conmutativa; es decir, se verica para
todo u K
n
y todo v K
n
que:
u +v = v +u.
Demostracin. Sean u = (x
1
, x
2
, , x
n
) K
n
y v = (y
1
, y
2
, , y
n
) K, donde
cada x
i
y y
i
son elementos del campo K para todo i = 1, 2, . . . , n. Entonces, como
la operacin + en el campo K es conmutativa, tenemos que:
u + v = (x
1
, x
2
, , x
n
) + (y
1
, y
2
, , y
n
) deniciones de u y v,
= (x
1
+ y
1
, x
2
+ y
2
, , x
n
+ y
n
) denicin de + en R
n
,
= (y
1
+ x
1
, y
2
+ x
2
, , y
n
+ x
n
) conmutativa de + en R,
= (y
1
, y
2
, , y
n
) + (x
1
, x
2
, , x
n
) denicin de + en R
n
,
= v + u deniciones de v y u.
Por lo tanto, u + v = v + u.
4.2 Denicin de espacio vectorial 93
5. Las operaciones + y en el espacio (M
mn
, R, +, ) satisface la propiedad
asociativa mixta; es decir, se verica para todo R, todo R y toda
A M
mn
que:
()A = (A).
Demostracin. Sean R, R y A =
_
a
ij
_
mn
M
mn
, con a
ij
R. Entonces:
()A = ()
_
a
ij
_
mn
denicin de A,
= (()a
ij
)
mn
denicin de en M
mn
,
= ((a
ij
))
mn
asociativa del producto en R,
= (a
ij
)
mn
denicin de en M
mn
,
=
_
(a
ij
)
mn
_
denicin de en M
mn
,
= (A) denicin de A.
Por lo tanto, ()A = (A).
Esta propiedad es denominada asociativa mixta porque tiene que ver con dos ope-
raciones: la multiplicacin de un escalar por un elemento del espacio vectorial y la
multiplicacin entre dos escalares.
6. El neutro multiplicativo del campo R, el nmero 1 satisface la siguiente
propiedad:
(p P
n
[x])(1 p = p).
Hay que demostrar que la funcin 1 p es igual a la funcin p. Por ello, recordemos
que dos funciones f y g son iguales si y solo si tienen el mismo dominio y f(x) = g(x)
para todo x elemento del dominio.
Demostracin. Sea p P
n
[x]. El dominio de p es R. Entonces, debemos demostrar
que
(1 p)(x) = p(x)
para todo x R.
Sea x R. Entonces:
(1 p)(x) = 1 p(x) denicin de en P
n
[x],
= p(x) el 1 es el neutro multiplicativo en R.
Por lo tanto, (1 p)(x) = p(x) para todo x R, lo que prueba, a su vez, que es
verdadera la siguiente proposicin:
(p P
n
[x])(1 p = p).
94 Espacios vectoriales
7. Las operaciones + y del espacio vectorial de funciones reales (F, R, +, )
satisfacen la propiedad distributiva; es decir, se verica para todo R,
todo f F y todo g F que:
(f +g) = f +g.
Demostracin. Sean R, f F, g F. Debemos demostrar que:
((f + g)(x) = (f + g)(x)
para todo x R, ya que el el conjunto R es el dominio de f, de g y de f + g,
respectivamente.
Sea x R. Entonces:
((f + g))(x) = (f + g)(x) denicin de en F,
= (f(x) + g(x)) denicin de + en F,
= f(x) + g(x) distributiva en R,
= (f)(x) + (g)(x) denicin de en F,
= (f + g)(x) denicin de + en F.
Por lo tanto, hemos probado que
((f + g))(x) = ((f) + (g))(x)
para todo x R, con lo cual hemos probado que:
( R)(f F)(g F)((f + g) = f + g).
En una expresin vectorial, los signos de agrupacin determinan el orden que se
deben realizar las operaciones. En ausencia de ellos, se conviene en efectuar las
operaciones externas en primer lugar, y luego las operaciones internas, siempre de
izquierda a derecha.
Por ejemplo:
2(3, 4) + (1, 5) + 3[(1, 0) + (0, 1)] = (6, 8) + (1, 5) + 3(1, 1)
= (6, 8) + (1, 5) + (3, 3)
= (2, 10).
4.3 Propiedades de los espacios vectoriales
Teorema 4.1 (Propiedades aditiva y multiplicativa) Sean (V, K, +, ) un espacio vectorial, K,
u V , v V y w V . Se verican las siguientes propiedades:
1. Aditiva: si u = v, entonces u +w = v +w.
4.3 Propiedades de los espacios vectoriales 95
2. Multiplicativa: si u = v, entonces u = v.
Demostracin. Sean K, u V , v V y w V .
1. Aditiva:
u = v hiptesis,
u + w = u + w axioma de identidad de la igualdad,
u + w = v + w sustitucin de v por u en la igualdad anterior ya que
u = v.
2. Multiplicativa:
u = v hiptesis,
u = u axioma de identidad de la igualdad,
u = v v se sustituye por u en la igualdad anterior ya que u = v.
Teorema 4.2 (Propiedades cancelativas) Sean (V, K, +, ) un espacio vectorial, K, u V ,
v V y w V . Se verican las siguientes propiedades:
1. Cancelativa de la suma: si u +w = v +w, entonces u = v.
2. Cancelativa de la multiplicacin: si ,= 0 y u = v, entonces u = v.
Demostracin. Sean K, u V , v V y w V .
1. Cancelativa de la suma:
1. u + w = v + w hiptesis,
2. (u + w) + (w) = (v + w) + (w) propiedad aditiva,
3. u + (w + (w)) = v + (w + (w)) propiedad asociativa,
4. u + 0
v
= v + 0
v
denicin de inverso aditivo,
5. u = v denicin de 0
v
.
2. Cancelativa de la multiplicacin: sea ,= 0; entonces, existe
1
:
1. u = v hiptesis,
2.
1
[ u] =
1
[ v] propiedad multiplicativa,
3. (
1
) u = (
1
) v propiedad asociativa mixta,
4. 1 u = 1 v denicin de inverso multiplicativo en K,
5. u = v denicin de 1.
Teorema 4.3 (Propiedades de los espacios vectoriales) Sea (V, K, +, ) un espacio vectorial.
Entonces, para todo K y todo v V , se tiene que:
96 Espacios vectoriales
1. 0
v
= 0
v
.
2. 0 v = 0
v
.
3. a v = 0
v
= 0 v = 0
v
.
4. (1) v = v.
Demostraciones. En todo lo que sigue, representar un elemento cualquiera de K y
v uno cualquiera de V .
1. Ya que 0
v
es el neutro aditivo de V , tenemos que:
0
v
= 0
v
+ 0
v
. (4.1)
Por otro lado, la denicin de 0
v
y la propiedad distributiva en V nos permite
escribir lo siguiente:
0
v
= (0
v
+ 0
v
) = 0
v
+ 0
v
. (4.2)
Entonces, por la propiedad transitiva de la igualdad aplicada a (4.1) y (4.2), tenemos
que:
0
v
+ 0
v
= 0
v
+ 0
v
.
De esta igualdad se colige que 0
v
tambin es un neutro aditivo en V . Pero 0
v
es
nico. Entonces:
0
v
= 0
v
.
2. Como 0
v
es el neutro aditivo de V , tenemos que:
0 v = 0 v + 0
v
. (4.3)
Por otro lado, la denicin de 0 K y la propiedad distributiva en V nos permite
escribir lo siguiente:
0 v = (0 + 0) v = 0 v + 0 v. (4.4)
Entonces, por la propiedad transitiva de la igualdad aplicada a (4.3) y (4.4), tenemos
que:
0 v + 0 v = 0 v + 0
v
.
De esta igualdad se concluye que 0 v tambin es un neutro aditivo en V . Pero 0
v
es nico. Entonces:
0 v = 0
v
.
3. En primer lugar, demostremos que si v = 0
v
, entonces o bien = 0 o bien v = 0
v
(o ambos). Utilicemos el mtodo por contradiccin.
Para ello, supongamos que v = 0
v
, y que ,= 0 y v ,= 0
v
. Entonces, existe
1
y:
1
( v) =
1
0
v
multiplicativa,
1
)v =
1
0
v
asociativa mixta,
1 v =
1
0
v
denicin de
1
,
v =
1
0
v
denicin de 1,
v = 0
v
denicin de 0
v
.
4.4 Subespacios vectoriales 97
Por lo tanto v = 0
v
. Pero esta igualdad contradice la hiptesis de que v ,= 0
v
.
Entonces, lo supuesto es falso; es decir, es verdad que = 0 o v = 0
v
siempre que
v = 0
v
.
Ahora debemos probar la recproca: si = 0 o v = 0
v
, entonces v = 0
v
. Pero
esta implicacin no es ms que la disyuncin de las dos primeras propiedades que
ya hemos demostrado que son verdaderas.
4. Vamos a demostrar que (1) v = v:
(1) v = (1) v + 0
v
denicin de 0
v
,
= (1) v + (v + (v)) denicin de v,
= [(1) v + v] + (v) asociativa en V ,
= [(1) v + 1 v] + (v) axioma del neutro multiplicativo en V ,
= (1 + 1) v + (v) distributiva en V ,
= 0 v + (v) axioma del inverso aditivo en K,
= 0
v
+ (v) segunda propiedad de este teorema,
= v denicin de 0
v
.
Por lo tanto, hemos demostrado que (1) v = v.
4.4 Subespacios vectoriales
Denicin 4.2 (Subespacio vectorial) Sean (V, K, +, ) un espacio vectorial y W V . Se dice
que W es un subespacio vectorial (s.e.v.) de V si y solamente si (W, K, , ) es un espacio
vectorial, donde y son las restricciones de + y a W.
Puesto que
u v = u + v y u v = u v
para todo u W y v W, decir que W es un subespacio vectorial de V es equivalente
a decir que W es un espacio vectorial sobre K con las mismas operaciones de V . Por
esta razn, se acostumbra utilizar la misma notacin para las operaciones de W que
de V , aunque, en sentido estricto, son diferentes porque poseen dominios diferente. En
adelante, seguiremos esta convencin.
Ejemplo 4.35
El conjunto
W = (x
1
, x
2
, x
3
) R
3
: x
3
= 2x
1
+x
2
es un subespacio vectorial de (R
3
, R, +, ).
98 Espacios vectoriales
Demostracin. En primer lugar, debemos asegurarnos de que la restricciones de las operaciones
+ y de R
3
a W, respectivamente, sean una operacin interna y una externa en W. En otras
palabras, debemos asegurarnos de que las restricciones sean cerradas:
1. si u W y v W, entonces u +v W; y
2. si K y u W, entonces u W.
En efecto:
1. Clausurativa de + en W.
Sean u = (x
1
, x
2
, x
3
) W y v = (y
1
, y
2
, y
3
) W. Vamos a probar que u + v = (x
1
+
y
1
, x
2
+y
2
, x
3
+y
3
) W; es decir, vamos a probar que
x
3
+y
3
= 2(x
1
+y
1
) + (x
2
+y
2
).
Como u W y v W, tenemos que
x
3
= 2x
1
+x
2
y y
3
= 2y
1
+y
2
.
Si sumamos los lados izquierdos entre s y los derechos entre s de estas dos igualdades,
obtenemos, al aplicar las propiedades asocitiva y conmutativa de + y en R, que:
x
3
+y
3
= (2x
1
+x
2
) + (2y
1
+y
2
) = (2x
1
+ 2y
1
) + (y
1
+y
2
).
Por lo tanto, gracias a la propiedad distributiva en R, concluimos nalmente que:
x
3
+y
3
= 2(x
1
+y
1
) + (x
2
+y
2
).
Es decir, hemos probado que u +v W para todo u W y todo v W.
2. Clausurativa de en W.
Sean u = (x
1
, x
2
, x
3
) W y R. Probemos que u = (x
1
, x
2
, x
3
) W:
x
3
= (2x
1
+x
2
) u W,
= 2(x
1
) +x
2
distributiva y conmutativa en R.
Por lo tanto u W para todo u W y todo R.
Una vez que hemos constatado que las restricciones de + y a W son cerradas, podemos
proceder a vericar el cumplimiento de los ocho axiomas que denen un espacio vectorial.
Como van a interactuar elementos de V y de W, utilizaremos y para las operaciones de
W. El lector puede probar a escribir las mismas demostraciones que estn a continuacin sin
realizar la distincin entre ambos grupos de operaciones, y podr constatar por s mismo o
por s misma la prdida de claridad.
1. Conmutativa: (u W)(v W)(u v = v u):
u v = u +v es restriccin de + a W y u W y v W,
= v +u + es conmutativa,
= v u es restriccin de + a W y u W y v W.
2. Asociativa: (u W)(v W)(v W)(u v = v u):
u (v w) = u + (v +w) es restriccin de + a W y u W, v W y w W,
= (u +v) +w + es asociativa,
= (u v) w es restriccin de + a W y u W, v W y w W.
4.4 Subespacios vectoriales 99
3. Existencia del neutro aditivo: (e W)(w W)(w e = w):
Denamos e = 0
R
3 = (0, 0, 0). Veamos que e W:
0 = 2 0 + 0 = 0 + 0 = 0.
Por lo tanto, si w W, tenemos que w V , de donde:
w e = w +e = w + 0
R
3 = w.
4. Existencia del inverso aditivo: (w W)( w W)(w + w = 0
W
):
Denamos w = w = (x
1
, x
2
, x
3
), donde w = (x
1
, x
2
, x
3
). Veamos que w W:
x
3
= (2x
1
+x
2
) = 2(x
1
) + (x
2
).
Adems, por la denicin de w, se verica que:
w w = w + (w) = 0
R
3.
5. Asociativa mixta: ( R)( R)(w W)( ( w) = () w):
( w) = (w) es restriccin de a W, w W y w W,
= ()w Asociativa mixta en R
3
,
= () w es restriccin de a W y w W.
6. Neutro multiplicativo: (w W)(1 w = w), donde 1 K:
1 w = 1 w es restriccin de a W y w W,
= w 1 es el neutro multiplicativo en V y w V .
7. Distributiva: (u W)(v W)( K)( (u v) = u v).
La demostracin se deja al lector como ejercicio.
8. Distributiva: ( K)( K)(w W)( +) w = u w).
La demostracin se deja al lector como ejercicio.
i=1
W
i
= W
1
W
2
W
n
es un subespacio vectorial de V .
Demostracin. Por induccin sobre n.
Ejemplo 4.37
Los conjuntos W
1
= (x
1
, x
2
, x
3
) : x
2
x
3
= 0 y W
2
= (x
1
, x
2
, x
3
) : x
1
= x
2
x
3
j=1
j
v
j
=
1
v
1
+
2
v
2
+ +
n
v
n
,
donde
1
,
2
, . . . ,
n
son elementos de K.
Denicin 4.4 (Un vector es combinacin lineal de vectores) Sean (E, K, +, ) un espacio vec-
torial y v
1
, v
2
, . . . , v
n
elementos de V . Un vector u V es una combinacin lineal de los vectores
v
1
, v
2
, . . . , v
n
si existen n escalares
1
,
2
, . . . ,
n
tales que
u =
n
j=1
j
v
j
=
1
v
1
+
2
v
2
+ +
n
v
n
.
Ejemplo 4.38
Sea p un vector del espacio (P
2
[x], R, +, ) denido por
p(x) = 1 +x x
2
para todo x R. Es p una combinacin lineal de q P
2
[x] y r P
2
[x] donde
q(x) = 1 + 2x
2
y r(x) = 2 +x +x
2
para todo x R?
Solucin. Queremos saber si existen R y R tales que
p = q +r.
Para averiguarlo, supongamos que s existen. Entonces, para todo x R, se verica la
siguiente igualdad:
p(x) = q(x) +r(x). (4.5)
Es decir, es verdadera la igualdad:
1 +x x
2
= (1 + 2x
2
) +(2 +x +x
2
)
para todo x R.
Ahora bien, si realizamos la suma de los dos polinomio en el lado derecho de la igualdad,
obtenemos que:
1 +x x
2
= ( + 2) +x + (2 +)x
2
104 Espacios vectoriales
para todo x R. Entonces, por la denicin de igualdad de polinomios, tenemos que y ,
en el caso de que existieran, satisfaran el siguiente sistema de tres ecuaciones:
+ 2 = 1
= 1
2 + =1.
(4.6)
Veamos qu valores de y satisfacen este sistema.
Para ello, trabajemos con la matriz ampliada de este sistema:
_
_
1 2 1
0 1 1
2 1 1
_
_
_
_
1 2 1
0 1 1
0 0 0
_
_
_
_
1 0 1
0 1 1
0 0 0
_
_
Como el rango de la matriz es 2, entonces el sistema tiene solucin nica: = 1 y = 1.
Veamos, entonces, si estos valores satisfacen la igualdad (4.5):
p(x) +q(x) = (1)(1 + 2x
2
) + (1)(2 +x +x
2
)
= (1 + 2) +x + (2 + 1)x
2
= 1 +x x
2
= p(x).
Es decir, existen dos escalares y tales que p = q + r. En otras palabras, p s es una
combinacin lineal de q y r.
Ejemplo 4.39
Para qu valores del nmero real a el vector u = (a, 0, 0) R
3
es una combinacin
lineal de los vectores v = (0, 1, 1) y w = (1, 1, 1)?
Solucin. Buscamos el valor de a para que u sea una combinacin lineal de v y w. La pregunta
es, entonces, qu valor o valores debe tomar a para que existan dos escalares y tales que
u = v +w?
Supongamos que esos dos escalares existen. Entonces, debe satisfacerse la siguiente igual-
dad:
(a, 0, 0) = (0, 1, 1) +(1, 1, 1).
Como
(a, 0, 0) = (0, 1, 1) +(1, 1, 1) = (, , +),
entonces y deben satisfacer el siguiente sistema de tres ecuaciones lineales:
= a
= 0
+ = 0.
Resolvamos este sistema:
_
_
0 1 a
1 1 0
1 1 0
_
_
_
_
0 1 a
0 2 0
1 1 0
_
_
_
_
0 1 a
0 0 2a
1 1 0
_
_
.
Para que el sistema tenga solucin, debemos tener que 2a = 0; es decir, que a = 0.
Por lo tanto, el vector nulo de R
3
es una combinacin lineal de (0, 1, 1) y (1, 1, 1) (los
escalares respectivos son = 1 y = 0).
4.6 Cpsula lineal de un conjunto 105
4.6 Cpsula lineal de un conjunto
Denicin 4.5 (Cpsula) Sean (V, K, +, ) un espacio vectorial y S V tal que S ,= . La
cpsula de S es el conjunto formado por todos los elementos de V que se pueden expresar como
una combinacin lineal de elementos de S. En otras palabras, la cpsula de S es el conjunto de
todas las combinaciones lineales de elementos de S.
La cpsula de S es representada por S. Por lo tanto:
S = v V : v =
n
j=1
v
j
,
j
K, v
j
V .
Ejemplo 4.40
Sea S = 1 +x, 1 +x
2
, 1 +x
3
subconjunto de P
3
[x] con las operaciones usuales de
suma de polinomios y producto de un escalar por un polinomio. Calcular la cpsula
de S.
Solucin. Sea p S. Entonces p P
3
[x], por lo que:
p(x) = a +bx +cx
2
+dx
3
para todo x R.
Por otro lado, como p S, existen , , y en R tales que
p(x) = a +bx +cx
2
+dx
3
= (1 +x) +(1 +x
2
) +(1 +x
3
)
para todo x R.
Puesto que:
a +bx +cx
2
+dx
3
= (1 +x) +(1 +x
2
) +(1 +x
3
) = ( + +) +x +x
2
+x
3
,
por la denicin de igualdad entre polinomios, podemos concluir que:
S = p(x) = a +bx +cx
2
+dx
3
P
3
[x] : + + = a, = b, = c, = d.
Para determinar cmo son los elementos de S, debemos determinar los coecientes a, b, c
y d (esto es lo que signica calcular S). Para ello, resolvamos el sistema de cuatro ecuaciones
lineales:
+ + = a
= b
= c
=d.
Para ello, trabajemos con la matriz ampliada:
_
_
_
_
1 1 1 a
1 0 0 b
0 1 0 c
0 0 1 d
_
_
_
_
_
_
_
_
1 1 1 a
0 1 1 a +b
0 1 0 c
0 0 1 d
_
_
_
_
106 Espacios vectoriales
_
_
_
_
1 1 1 a
0 1 1 a +b
0 0 1 a +b +c
0 0 1 d
_
_
_
_
_
_
_
_
1 1 1 a
0 1 1 a +b
0 0 1 a +b +c
0 0 0 a +b +c +d
_
_
_
_
.
Por lo tanto, el sistema tiene solucin si y solo si se verica que:
a +b +c +d = 0.
De esta manera, la cpsula de S est formada por todos los vectores p tal que
p(x) = a +bx +cx
2
+dx
3
y a +b +c +d = 0.
Entonces, tenemos que:
S = a +bx +cx
2
+dx
3
P
3
[3] : a +b +c +d = 0.
Ejemplo 4.41
Si S = (1, 1), (0, 3) R
2
, calcular S.
Solucin. De la denicin de S tenemos:
S = (a, b) R
2
: (a, b) = (1, 1) +(0, 3), , R
= (a, b) R
2
: (a, b) = (, + 3), , R
= (a, b) R
2
: = a, + 3 = b, , R.
Por lo tanto, para caracterizar los elementos de S, debemos determinar las condiciones bajos
las cuales el sistema
=a
+ 3 = b
(4.7)
tenga solucin.
Para ello, observemos que:
_
1 0 a
1 3 b
_
_
1 0 a
0 3 a +b
_
.
De manera que el sistema (4.7) tiene solucin para cualquier par de valores para a y b, ya
que el determinante de la matriz de coecientes es diferente de 0 independientemente de los
valores de a y de b. En otras palabras:
(a, b) S a R y b R.
Por lo tanto:
S = (a, b) R
2
: a R, b R = R
2
.
Teorema 4.7 Sean (V, K, +, ) un espacio vectorial y S V tal que S ,= . Entonces la cpsula
de S es un subespacio vectorial de V .
4.7 Subespacio vectorial generado por un subconjunto 107
Demostracin. Para probar que S es un subespacio vectorial de V , vamos a utilizar
el teorema 4.4 (pgina 99). Es decir, debemos probar que:
1. S , = .
2. ( K)(u S)(v S)(u + v S).
Procedamos as.
1. Para probar que S , = , demostremos que 0
v
S. Para ello, debemos probar que
0
v
es una combinacin de elementos de S.
Y es as, pues, como S ,= , existe v S. Por otro lado, sabemos que
0
v
= 0 v.
Entonces 0
v
es una combinacin lineal de un elemento de S, por lo que 0
v
S.
2. Sean K, u S y v S. Existen, entonces, escalares
1
,
2
, . . . ,
n
,
1
,
2
,
m
y elementos de S u
1
, u
2
, . . . , u
m
, v
1
, v
2
, . . . , v
n
tales que
u =
1
u
1
+
2
u
2
+ +
m
u
m
y v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Por lo tanto:
u + v = (
1
u
1
+
2
u
2
+ +
m
u
m
) + (
1
v
1
+
2
v
2
+ +
n
v
n
)
= (
1
)u
1
+ (
2
)u
2
+ + (
m
)u
m
+
1
v
1
+
2
v
2
+ +
n
v
n
.
Es decir, u+v es una combinacin lineal de elementos de S, por lo que u+v S.
Hemos demostrado, entonces, que S es un subespacio vectorial de V .
4.7 Subespacio vectorial generado por un subconjunto
Denicin 4.6 (Subespacio generado) Sean (V, K, +, ) un espacio vectorial y S V . El subes-
pacio vectorial generado por S es el subespacio vectorial que se obtiene al intersecar todos los
subespacios vectoriales de V que contienen a S.
Dado que la interseccin de dos conjuntos siempre est contenida en cualquiera de
los dos conjuntos, el subespacio generado por un conjunto ser el subespacio vectorial
ms pequeo que contenga al conjunto.
De manera ms precisa, el subespacio generado por S es el conjunto
s.e.v.(S) =
W : W s.e.v. V, S W.
Sabemos que la interseccin de un nmero nito de subespacios vectoriales es un subes-
pacio vectorial. No es difcil demostrar que esta armacin es cierta para cualquier
108 Espacios vectoriales
nmero de subespacios. Por lo tanto, el conjunto s.e.v.(S) es un subespacio vectorial
de V . Adems, por la denicin de interseccin, tenemos que es nica y que
s.e.v.(S) W
para todo W subespacio vectorial de V .
En otras palabras, si W es un subespacio vectorial de V tal que S W, debe
suceder que s.e.v.(S) W. Esto signica que el subespacio vectorial generado por S
es el subespacio vectorial ms pequeo que contiene a S.
Ejemplo 4.42
Qu subespacio genera el conjunto vaco?
Solucin. Sea S = . Como el conjunto N = 0
v
es un subespacio vectorial de V (es no vaco
y las dos operaciones heredadas de V son cerradas), tenemos que es el subespacio vectorial
de V ms pequeo que contiene a S, ya que N. Por lo tanto, el espacio generado por
el conjunto vaco es el subespacio vectorial con un solo elemento, el vector nulo de V . A este
espacio se lo denomina subespacio nulo de V .
Teorema 4.8 Sean (V, K, +, ) un espacio vectorial y S V tal que S ,= . Entonces el subes-
pacio generado por S es igual a S.
Demostracin. Vamos a probar que S es el subespacio vectorial ms pequeo que
contiene a S. Para ello, demostraremos que:
1. S S; y
2. si W es un subespacio vectorial de V tal que S W, entonces S W.
Procedamos.
1. Sea v S. Debemos probar que v S. Pero esto se sigue inmediatamente del
hecho de que v = 1 v, por lo que v es una combinacin lineal de un elemento de S;
es decir, v est en la cpsula de S.
2. Sea W un subespacio vectorial de V que contiene a S. Vamos a probar que la cpsula
de S est contenida en W. Para ello, sea v S. Probemos que v W.
Por ser v un elemento de la cpsula de S, existen escalares
1
,
2
, . . . ,
n
y vectores
de S v
1
, v
2
, . . . , v
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.8)
Por otro lado, cada v
i
tambin es un elemento de W ya que S W. Por lo tanto, lo
que expresa la igualdad (4.8) es lo siguiente: el vector v es una combinacin lineal
de elementos de W. Pero W es un subespacio vectorial, por lo que las operaciones
+ y son cerradas. Entonces, cualquier combinacin lineal de elementos de W est
en W; es decir, v W.
Hemos demostrado, entonces, que todo elemento de S es un elemento de W, lo
que prueba que S W.
4.8 Bases de espacios vectoriales 109
En resumen, hemos probado que el menor subespacio vectorial que contiene a S
es su cpsula. Esto signica, entonces, que el subespacio vectorial generado por S es,
precisamente, su cpsula.
Ejemplo 4.43
Si p(x) = x
2
+ 1, el conjunto S = p(x), p
(x), p
(x) +p
(x)
= a +bx +cx
2
P
:
[x]a +bx +cx
2
= (x
2
+ 1) +(2x) +(2)
= a +bx +cx
2
P
:
[x]a +bx +cx
2
= ( + 2) + 2x +x
2
= a +bx +cx
2
P
:
[x] + 2 = a, 2 = b, = c.
Entonces, para determinar los elementos a, b y c, debemos averiguar bajo qu condiciones
necesarias y sucientes el sistema
+ 2 =a
2 = b
= c
(4.9)
tiene solucin.
Para ello, miremos su matriz ampliada:
_
_
1 0 2 a
0 2 0 b
1 0 0 c
_
_
_
_
1 0 2 a
0 2 0 b
0 0 2 a +c
_
_
.
Como el determinante de la matriz de coecientes es diferente de 0, independientemente de
a, b y c, entonces el sistema (4.9) tiene solucin para todo a, b y c. Por lo tanto S = P
2
[x].
En otras palabras, el conjunto
p, p
, p
genera todo P
2
[x].
4.8 Bases de espacios vectoriales
Denicin 4.7 (Dependencia e independencia lineal) Sean (V, K, +, ) un espacio vectorial y
S = v
1
, v
2
, . . . , v
n
un subconjunto nito de V .
1. El conjunto S es linealmente independiente(li) si y solamente si la combinacin lineal
1
v
1
+
2
v
2
+ +
n
v
n
= 0
v
,
denominada combinacin lineal nula, tiene como solucin nica la solucin trivial:
j
= 0
para todo j 1, 2, . . . , n. En otras palabras, el conjunto S es li si:
1
v
1
+
2
v
2
+ +
n
v
n
= 0
v
=
1
=
2
= =
n
= 0.
110 Espacios vectoriales
2. El conjunto S es linealmente dependiente (ld) si y solo si no es linealmente independiente.
Es decir, si la combinacin lineal nula tiene un nmero innito de soluciones. En otras
palabras, el conjunto S es ld si:
1
v
1
+
2
v
2
+ +
n
v
n
= 0
v
j 1, 2, . . . , n tal que
j
,= 0.
De la denicin es claro que un conjunto no puede ser linealmente independiente
y dependiente al mismo tiempo. Esto lo podemos ver de otra manera: la combinacin
lineal nula produce un sistema de ecuaciones lineales homogneo que, como sabemos,
o tiene una sola solucin la trivial, o tiene un nmero innito de soluciones. En el
primer caso, el conjunto es li; en el segundo, es ld.
Ejemplo 4.44
El conjunto S = p, p
, p
es li en (P
2
[x], R, +, ), donde
p(x) = 1 +x
2
para todo x R.
Solucin. Supongamos que
1
p +
2
p
+
3
p
= 0
v
. (4.10)
Vamos a probar que
1
=
2
=
3
= 0.
Para todo x R, la igualdad (4.10) implica la siguiente:
1
p(x) +
2
p
(x) +
3
p
(x) = 0;
es decir, es verdad que:
1
(1 +x
2
) +
2
(2x) +
3
(2) = (
1
+ 2
3
) + 2
2
x +
1
x
2
= 0
para todo x R. Por lo tanto, por la denicin de igualdad entre polinomios, tenemos que:
1
+ 2
3
= 0, 2
2
= 0,
1
= 0,
de donde obtenemos que
1
=
2
=
3
= 0. En otras palabras, el conjunto S es linealmente
independiente.
Ejemplo 4.45
Sea S = (1, a, 1), (1, 0, 1), (1 +a, 1, 0) R
3
. Para qu valores de a el conjunto
S es li? Para qu valores de a es ld?
Solucin. Sean , y escalares tales que
(1, a, 1) +(1, 0, 1) +(1 +a, 1, 0) = (0, 0, 0). (4.11)
Entonces, se verica que:
( + (1 +a), a +, +) = (0, 0, 0).
4.8 Bases de espacios vectoriales 111
Por lo tanto, los nmeros , y que satisfacen la igualdad (4.11) satisfacen el siguiente
sistema de tres ecuaciones lineales:
+ (1 +a) = 0
a + = 0
+ = 0.
(4.12)
Ahora debemos determinar para qu valores de a, este sistema tiene como nica solucin
la trivial y para qu valores tiene un nmero innito de soluciones.
Para ello, calculemos el determinante de la matriz de coecientes del sistema:
1 1 1 +a
a 0 1
1 1 0
2 0 1 +a
a 0 1
1 1 0
2 1 +a
a 1
= a
2
+a 2 = (a + 2)(a 1).
Por lo tanto, el determinante es igual a 0 si y solo si a = 2 o a = 1.
Esto signica que el sistema (4.12) tiene un nmero innito de soluciones si y solo si
a = 2 o a = 1. Por lo tanto, conjunto S es linealmente dependiente cuando a = 2 o a = 1;
y es linealmente independiente si a ,= 2 y a ,= 1.
Observaciones
1. Todo conjunto nito que contiene el vector nulo es linealmente dependiente, pues
0
v
= 1 0
v
; es decir, hay al menos un escalar diferente de 0 en la combinacin nula.
2. Si un conjunto contiene un subconjunto linealmente dependiente, entonces el con-
junto tambin es linealmente dependiente.
3. Todo subconjunto de un conjunto linealmente independiente tambin es linealmente
independiente.
Denicin 4.8 (Base) Sean (V, K, +, ) un espacio vectorial y B V . El conjunto B es una
base del espacio vectorial V si y solamente si B es linealmente independiente y B genera V ; es
decir, el subespacio vectorial generado por B es el espacio vectorial V .
En otras palabras, B es una base de B si y solo si:
1. B es linealmente independiente; y
2. B = V .
Ejemplo 4.46
El conjunto B = p, p
, p
, donde p(x) = 1 + x
2
para todo x R, es una base del
espacio vectorial (P
2
[x], R, +, ).
Solucin. En un ejemplo anterior, probamos que el conjunto B es linealmente independiente;
tambin se demostr que B = P
2
[x]. Por lo tanto B es una base de (P
2
[x], R, +, ).
112 Espacios vectoriales
Ejemplo 4.47
El conjunto
B = 1, x 1, (x 1)
2
, (x 1)
3
= p P
3
[x] : p(x) = (1) +(x 1) +(x
2
2x + 1) +(x
3
3x
2
+ 3x 1)
= p P
3
[x] : p(x) = ( + ) + ( 2 + 3)x + ( 3)x
2
+x
3
a b
1 2
= 0
_
es un subespacio vectorial de (M
22
, R, +, ). Encontrar una base para W.
Solucin. Para ello, procedamos de la siguiente manera:
W =
__
a b
c d
_
M
22
:
a b
1 2
= 0
_
=
__
a b
c d
_
M
22
: 2a b = 0
_
=
__
a b
c d
_
M
22
: 2a = b
_
=
__
a 2a
c d
_
M
22
: a, c, d R
_
.
Ahora bien, como:
_
a 2a
c d
_
=
_
a 2a
0 0
_
+
_
0 0
c 0
_
+
_
0 0
0 d
_
= a
_
1 2
0 0
_
+c
_
0 0
1 0
_
+d
_
0 0
0 1
_
,
tenemos que:
W =
_
a
_
1 2
0 0
_
+c
_
0 0
1 0
_
+d
_
0 0
0 1
_
: a, c, d R
_
=
___
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
___
.
Por lo tanto, el conjunto
B =
__
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
genera W, ya que B = W.
114 Espacios vectoriales
Ahora probemos que B es linealmente independiente. Para ello, supongamos que , y
escalares tales que:
_
1 2
0 0
_
+
_
0 0
1 0
_
+
_
0 0
0 1
_
=
_
0 0
0 0
_
. (4.15)
Esta igualdad implica que
_
2
_
=
_
0 0
0 0
_
,
la que, a su vez, implica, por la denicin de igualdad entre matrices, que se veriquen las
siguientes igualdades:
= 0, 2 = 0, = 0, = 0.
En resumen, la igualdad (4.15) implica que = = = 0. Esto signica que B es un
conjunto linealmente independiente.
Hemos probado, entonces, que B genera M
22
y es linealmente independiente; entonces,
B es una base del espacio (M
22
, R, +, ).
Cul es el papel de una base? Para contestar esta pregunta, supongamos que
B = v
i
: i I
n
= 1, 2, . . . , n
es una base de un espacio vectorial V . Por un lado, como B genera V , cada elemento
de V se expresa como una combinacin lineal de elementos de B. Pero, por ser B
linealmente independiente, esa combinacin lineal es nica.
En efecto. Sea v V . Existen entonces n escalares
i
con i I
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Supongamos, adems, que
i
con i I
n
son escalares tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Por lo tanto:
1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
,
de donde obtenemos que:
(
1
1
)v
1
+ (
2
2
)v
2
+ + (
n
n
)v
n
= 0
v
.
Pero, como B es un conjunto linealmente independiente, entonces esta ltima igualdad
implica que:
(
1
1
) = (
2
2
) = = (
n
n
) = 0;
es decir, tenemos que
1
=
1
,
2
=
2
, . . . ,
n
=
n
.
En otras palabras, v se expresa de manera nica como combinacin lineal de los ele-
mentos de la base.
A los escalares
i
con i I
n
se les conoce con el nombre de coordenadas del vector
v respecto de la base B.
Las coordenadas de un vector de una base son utilizadas para representar e identi-
car a un vector respecto de una base. Muchas veces, en lugar de hablar de v respecto
de la base, hablaramos de la n-upla (
1
,
2
, . . . ,
n
).
4.8 Bases de espacios vectoriales 115
Teorema 4.9 Sean (V, K, +, ) un espacio vectorial y S = v
1
, v
2
, . . . , v
m
V . Si S genera el
espacio V , entonces cualquier conjunto de V linealmente independiente tiene m elementos a lo
ms.
Demostracin. Es suciente probar que cualquier conjunto que tenga ms de m ele-
mentos es linealmente dependiente.
En efecto, una vez probado esto, supongamos que W fuera linealmente indepen-
diente. Si tuviera ms de m elementos, sera linealmente dependiente; es decir, no sera
linealmente independiente, lo que entrara en contradiccin con la hiptesis de que s
lo es.
Sea, entonces, un conjunto W = w
1
, w
2
, . . . , w
n
V tal que n > m. Vamos a
demostrar que este conjunto es linealmente dependiente.
Para ello, sean
j
, con j 1, 2, . . . , n, escalares tales que:
1
w
1
+
2
w
2
+ +
n
w
n
= 0
v
. (4.16)
Vamos a demostrar esta ecuacin tiene un nmero innito de soluciones.
Como S genera el espacio V , cualquier elemento de V es una combinacin lineal
de elementos de S. En particular, cada elemento de W es una combinacin lineal de
elementos de S. Por lo tanto, cada elemento de W se puede expresar de la siguiente
manera:
w
1
=
11
v
1
+
21
v
2
+ +
m1
v
m
w
2
=
12
v
1
+
22
v
2
+ +
m2
v
m
w
n
=
1n
v
1
+
2n
v
2
+ +
mn
v
m
.
Si ahora sustituimos los w
j
por sus combinaciones lineales de elementos de S, la
igualdad (4.16) implica la siguiente:
1
(
11
v
1
+ +
m1
v
m
) +
2
(
12
v
1
+ +
m2
v
m
) + +
n
(
1n
v
1
+ +
mn
v
m
) = 0
v
.
Si ahora agrupamos respecto de cada v
j
, obtenemos la siguiente igualdad:
(
11
1
+ +
1n
n
)v
1
+(
21
1
+ +
2n
n
)v
2
+ +(
m1
1
+ +
mn
n
)v
m
= 0
v
.
Esta ecuacin tiene, al menos, la solucin trivial; es decir, todos los escalares de
cada v
j
iguales a 0 son una solucin de esta ecuacin. Por lo tanto, se obtiene:
11
1
+
12
2
+ +
1n
n
= 0
21
1
+
22
2
+ +
2n
n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m1
1
+
m2
2
+ +
mn
n
= 0,
un sistema homogneo de m ecuaciones y n incgnitas (cada
i
).
Puesto que n > m (ms incgnitas que ecuaciones), podemos concluir que hay un
nmero innito de soluciones
j
. Esto signica que el conjunto W es linealmente
dependiente.
116 Espacios vectoriales
Ejemplo 4.49
El conjunto
B =
__
1 2
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
es una base del subespacio vectorial
W =
__
a b
c d
_
M
22
:
a b
1 2
= 0
_
.
Demuestre que el conjunto
S =
__
1 2
3 0
_
,
_
0 0
1 0
_
,
_
0 0
4 3
_
,
_
2 4
1 0
__
es linealmente dependiente.
Solucin. Como B es una base de (M
22
, R, +, ), entonces es un conjunto linealmente inde-
pendiente que tiene 3 elementos. Entonces, por el teorema 4.9, cualquier conjunto de M
22
con cuatro o ms elementos debe ser linealmente dependiente. Ese es el caso de S, que tiene
cuatro elementos.
La principal consecuencia del ltimo teorema es que todas las bases tienen el mismo
nmero de elementos. En efecto, supongamos que B y B
respectivamente.
Ahora bien, B genera el espacio V y tiene m elementos. Entonces, como B
es
linealmente independiente, por el teorema 4.9, se debe cumplir que n m. Si ahora
intercambiamos B y B
a b
1 2
= 0
_
,
podemos concluir que dim(W) = 3.
Cuando el nmero de elementos de una base es nito, se dice que el espacio vectorial
es de dimensin nita.
A continuacin, exhibiremos las bases de los principales espacios vectoriales que
estamos estudiando en este libro. Estas bases son denominadas cannicas en el sentido
de que se ajustan a un canon o modelo ideal
1
Ejemplo 4.51
1. En el espacio vectorial (R, K, +, ), el conjunto C = 1 es linealmente independiente, pues
la igualdad 1 = 0 implica necesariamente que = 0, ya que 1 ,= 0. Adicionalmente, la
cpsula de C es R, pues
C = 1 R : R = R : R = R.
Por lo tanto, C es una base para (R, K, +, ), y es la cannica. Adems, dim(R) = 1.
2. En el espacio (R
2
, K, +, ), el conjunto
C = (1, 0), (0, 1)
es la base cannica y dim(R
2
) = 2.
En efecto:
(a) C es linealmente independiente, porque la igualdad
(1, 0) +(0, 1) = (0, 0)
implica que:
(, ) = (0, 0),
de donde: = = 0.
(b) C genera R
2
, pues:
C = (1, 0) +(0, 1) : R, R = (, ) : R, R = R
2
.
3. En el espacio (R
3
, K, +, ), la base cannica es:
C = (1, 0, 0), (0, 1, 0), (0, 0, 1).
Por lo tanto, dim(R
3
) = 3.
4. En el espacio (R
n
, K, +, ), la base cannica es:
C = (1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1).
Entonces, dim(R
n
) = n.
1
Diccionario panhispnico de dudas de la Real Academia Espaola, Edicin 2005.
118 Espacios vectoriales
5. En el espacio (C, K, +, ), la base cannica es:
C = 1, .
Por lo tanto, dim(C) = 2.
6. En el espacio (C
2
, K, +, ), la base cannica es:
C = (1, 0), (, 0), (0, 1), (0, ).
Por lo tanto, dim(C
2
) = 4.
7. En el espacio (P
n
[x], R, +, ), la base cannica es:
C = 1, x, x
2
, . . . , x
n
.
Entonces, dim(P
n
[x]) = n + 1.
8. En el espacio (M
22
, R, +, ), la base cannica es:
C =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
.
1
v
1
+
2
v
2
+ +
m
v +
m+1
u = 0
v
. (4.17)
Vamos a demostrar que
i
= 0 para todo i I
m+1
.
Si
m+1
,= 0, de la igualdad (4.17), obtenemos que:
u =
1
m+1
v
1
2
m+1
v
2
m
m+1
v
m
,
lo que implica que u B. Pero esto no es posible, por lo que concluimos que = 0.
Entonces, la igualdad (4.17) se transforma en la siguiente:
1
v
1
+
2
v
2
+ +
m
v = 0
v
,
y de aqu se desprende que
i
= 0 para todo i I
m
, ya que el conjunto B es linealmente
independiente.
En resumen,
i
= 0 para todo i I
m+1
, lo que signica que B u es linealmente
independiente.
Teorema 4.14 Sea (W, K, +, ) un espacio vectorial de dimensin n, entonces todo subconjunto
linealmente independiente de W es nito y es parte de una base de W.
Demostracin. Puesto que dim(W) = n, cualquier base de W tiene n elementos. Ade-
ms, como todo conjunto linealmente independiente de W debe tener n elementos a lo
ms, ese conjunto es nito.
Por otro lado, sea S W linealmente independiente. Si S generara W, entonces
S sera una base de W (por lo tanto, parte de una base). Supongamos, entonces, que
S ,= W. Existe, entonces, w
1
W tal que w
1
,= W. Entonces, por el teorema
anterior, el conjunto S
1
= S w
1
es linealmente independiente.
Si S
1
generara W, entonces S, que es subconjunto de S
1
, sera parte de una base
de W. Pero, si S
1
,= W, entonces volvera a realizar el proceso anterior hasta obtener
un conjunto B de n elementos y linealmente independiente, lo que no llevara ms all
de n m pasos, donde m es el nmero de elementos de S.
Pero este conjunto sera una base para W, porque si no generara W, entonces,
ejecutando un paso ms el proceso anterior, obtendramos un conjunto linealmente
independiente con n + 1 elementos, lo que es imposible, pues dim(W) = n.
120 Espacios vectoriales
Consecuencia inmediata del proceso utilizado en la demostracin de este teorema
es que si dim(W == n, todo conjunto linealmente independiente de n elementos es
una base de W. Resumamos este resultado en el siguiente corolario.
Corolario 4.15 Sea (V, K, +, ) un espacio vectorial tal que dim(V ) = n. Entonces, un conjunto
B linealmente independiente es una base de V si y solo si tiene n elementos.
La utilidad de este resultado es evidente: si dim(V ) = n es conocido, para deter-
minar que un conjunto con n elementos es base, nicamente hay que constatar que es
linealmente independiente, ya no es necesario mostrar que tambin genera V .
Tambin es verdad que si el conjunto tiene n elementos y genera el espacio, es una
base. Para probar esta armacin, requerimos algunos probar an algunos resultados
adicionales. Antes de hacerlo, veamos un ejemplo.
Ejemplo 4.52
Determinar si el conjunto
B = (0, 1, 1), (1, 0, 1), (1, 1, 0)
es una base del espacio vectorial (R
3
, K, +, ).
Solucin. Puesto que B tiene tres elementos y la dimensin de R
3
es 3, para determinar si B
es una base, es suciente determinar si es un conjunto linealmente independiente.
Para ello, sean , y escalares tales que:
(0, 1, 1) +(1, 0, 1) +(1, 1, 0) = (0, 0, 0). (4.18)
Entonces:
( +, +, +) = (0, 0, 0).
Por lo tanto, si la igualdad (4.18) fuera verdadera, entonces , y satisfaran el siguiente
sistema de ecuaciones:
+ = 0
+ = 0
+ = 0,
cuya matriz de coecientes:
_
_
0 1 1
1 0 1
1 1 0
_
_
tiene determinante es diferente de 0, pues:
0 1 1
1 0 1
1 1 0
0 1
1 0
1 0
1 1
= (1) + 1 = 2.
Por lo tanto, la solucin del sistema (4.18) es la trivial: = = = 0.
En otras palabras, el conjunto B es linealmente independiente y, por lo tanto, es una base
de R
3
.
4.9 Dimensin de un espacio vectorial 121
Ejemplo 4.53
El conjunto de R
3
B = (1, 0, 1), (1, 1, 0)
es linealmente independiente. Obtener una base B
para R
3
de manera que B
con-
tenga a B.
Solucin. El procedimiento a utilizar es el dado en la demostracin del teorema 4.14. Consiste
en aadir un elemento u R
3
tal que u , B. Sabemos que este elemento existe, porque B
no puede ser una base de R
3
, ya que B tiene dos elementos, mientras que dim(R
3
) = 3.
Empecemos, entonces, obteniendo la cpsula de B:
B = (a, b, c) R
3
: (a, b, c) = (1, 0, 1) +(1, 1, 0)
= (a, b, c) R
3
: (a, b, c) = ( +, , )
= (a, b, c) R
3
: + = a, = b, = c).
Ahora determinemos las condiciones que deben cumplir a, b y c para que el sistema
+ =a
= b
= c
(4.19)
tenga solucin. Para ello, trabajemos con su matriz ampliada:
_
_
1 1 a
0 1 b
1 0 c
_
_
_
_
1 1 a
0 1 b
0 1 a +c
_
_
_
_
1 1 a
0 1 b
0 1 a b +c
_
_
.
Por lo tanto, el sistema 4.19 tiene solucin si y solo si
a +b +c = 0.
Entonces:
B = (a, b, c) R
3
: c = a +b.
Ahora busquemos un elemento de R
3
que no est en B. Por ejemplo, el vector (0, 0, 1)
(la tercera coordenada no es la suma de las dos primeras) no est en B. Por lo tanto, el
conjunto B
es una base de R
3
y contiene a B.
El siguiente es otro corolario del teorema (4.9).
Teorema 4.16 Sea (V, K, +, ) un espacio vectorial de dimensin n. Si W es un subespacio
vectorial propio de V (es decir, W V y W ,= V ), entonces W tiene dimensin nita y
dim(W) < dim(V ).
Demostracin. Sea B una base de W. Entonces B V . Como B es linealmente in-
dependiente y V tiene dimensin nita, B tiene n elementos a lo ms (teorema 4.14).
Por lo tanto:
dim(W) dim(V ) = n.
122 Espacios vectoriales
Esto signica que la dimensin de W es nita.
Ahora probemos que n no puede ser la dimensin de W, con lo que quedar demos-
trado que dim(W) < dim(V ).
Ya que W es un subconjunto propio de V , entonces B = W ,= V . Sea, entonces,
u V tal que u , B. Como B es linealmente independiente, por el teorema 4.13 pode-
mos concluir que Bu es linealmente independiente. Entonces, por el teorema 4.14,
B u es parte de una base de V . Esto signica que:
dim(W) < dim(W) + 1 dim(V ).
Teorema 4.17 Sean (V, K, +, ) un espacio vectorial y S un subconjunto nito de V . Si S es
linealmente dependiente y v S es combinacin lineal de los dems elementos de S, entonces:
S = S v .
Demostracin. Supongamos que S = v
1
, v
2
, . . . , v
n
y que v = v
j
con j I
n
=
1, 2, . . . , n. Vamos a probar que S S v y que S v S.
1. Sea u S. Entonces existen n escalares
i
con i I
n
tales que
u =
1
v
1
+
2
v
2
+ +
j
v
j
+ +
n
v
n
.
Por otro lado, por hiptesis, sabemos que existen n1 escalares
i
con i I
n
j
tales que:
v
j
=
1
v
1
+ +
j1
v
j1
+
j+1
v
j+1
+ +
n
v
n
.
Si sustituimos este valor de v
j
en la primera igualdad, obtenemos que:
u =
1
v
1
+ +
j1
v
j1
+
j+1
v
j+1
+ +
n
v
n
,
donde
i
=
i
+
i
j
para cada i I
n
j.
Pero esta igualdad nos dice que u es combinacin lineal de los elementos de Sv
j
.
Es decir, u S v
j
.
En otras palabras, hemos probado que todo elemento de S es elemento de S
v
j
.
2. Sea u S v
j
. Mostremos que u S. Pero esto es verdadero, porque, al ser
u combinacin lineal de elementos de S v
j
, tambin es combinacin lineal de S,
ya que S S v
j
.
4.9 Dimensin de un espacio vectorial 123
Ejemplo 4.54
Sea
S =
__
1 0
0 1
_
,
_
0 2
1 1
_
,
_
2 2
1 3
__
.
Obtener:
1. la cpsula de S, S; y
2. una base y la dimensin de S.
Solucin.
1. Observemos que el conjunto S es linealmente dependiente, ya que
2
_
1 0
0 1
_
+ (1)
_
0 2
1 1
_
=
_
2 2
1 3
_
.
Por el teorema anterior, al eliminar el vector
_
2 2
1 3
_
de S, la cpsula de S menos ese vector sigue siendo igual a la cpsula de S:
S =
___
1 0
0 1
_
,
_
0 2
1 1
___
=
__
a b
c d
_
M
22
:
_
a b
c d
_
=
_
1 0
0 1
_
+
_
0 2
1 1
__
.
Ahora veamos qu condiciones deben satisfacer a, b, c y d para que el sistema
=a
2 = b
= c
+ = d
(4.20)
tenga solucin. De las matrices equivalentes de la matriz ampliada:
_
_
_
_
1 0 a
0 2 b
0 1 c
1 1 d
_
_
_
_
_
_
_
_
1 0 a
0 2 b
0 1 c
0 1 a +d
_
_
_
_
_
_
_
_
1 0 a
0 1 a +d
0 1 c
0 2 b
_
_
_
_
_
_
_
_
1 0 a
0 1 a +d
0 0 a +c +d
0 0 2a +b + 2d
_
_
_
_
concluimos que el sistema (4.20) tiene solucin si
a +c +d = 0 y 2a +b + 2d = 0.
Por lo tanto:
S =
__
a b
c d
_
M
22
: a +c +d = 0, 2a +b + 2d = 0
_
.
124 Espacios vectoriales
2. El conjunto
__
1 0
0 1
_
,
_
0 2
1 1
__
es el ideal para ser la base de S. Para conrmarlo, lo nico que resta por hacer es probar
que es linealmente independiente. Para ello, sean y escalares tales que:
_
1 0
0 1
_
+
_
0 2
1 1
_
=
_
0 0
0 0
_
.
De esta igualdad, se obtiene que
_
2
+
_
=
_
0 0
0 0
_
,
de donde tenemos que = 0 y = 0. Por lo tanto, este conjunto es linealmente indepen-
diente y, por lo tanto, una base de S. Finalmente, podemos armar que dim(S) = 2.
f
1
(x) f
2
(x) f
n
(x)
f
1
(x) f
2
(x) f
n
(x)
f
1
(x) f
2
(x) f
n
(x)
f
(n1)
1
(x) f
(n1)
2
(x) f
(n1)
n
(x)
para todo x
n
i=1
n1
j=1
Dm(f
(j)
i
).
126 Espacios vectoriales
Teorema 4.19 Sea S = f
1
, f
2
, . . . , f
n
subconjunto del espacio vectorial (F, R, +, ). Si cada
elemento de S es una n 1 veces diferenciables, entonces S es linealmente independiente si y
solo existe al menos x
n
i=1
n1
j=1
Dm(f
(j)
i
) tal que W(x) ,= 0.
Ejemplo 4.57 Sea S = f, sen, cos donde f(x) = x para todo x R. Con ayuda del
wronskiano tambin podemos probar que S es linealmente independiente, pues, para todo
x R se tiene que:
W(x) =
x sen x cos x
1 cos x senx
0 sen x cos x
x 0 0
1 cos x senx
0 sen x cos x
= x
cos x sen x
sen x cos x
.
Por lo tanto:
W(x) = x(cos
2
x sen
2
x) = x(sen
2
x + cos
2
x) = x.
Luego, para x ,= 0, tenemos que W(x) ,= 0.
4.10 Suma de subespacios vectoriales
Denicin 4.11 (Suma de subespacios) Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
dos
subespacios vectoriales de V . Se dene W
1
+W
2
por:
W
1
+W
2
= v V : v = w
1
+w
2
, w
1
W
1
, w
2
W
2
.
Es decir, W
1
+W
2
es el conjunto de todos los elementos del espacio vectorial V que
se pueden expresar como la suma de un elemento del subespacio vectorial W
1
con otro
elemento del subespacio vectorial W
2
.
Teorema 4.20 Sean (V, K, +, ) y W
1
y W
2
dos subespacios vectoriales de V . Entonces, W
1
+
W
2
es un subespacio vectorial de V .
Demostracin. 1. Es inmediato que W
1
+W
2
es diferente del vaco ya que 0
v
W
1
+W
2
,
pues 0
v
= 0
v
+ 0
v
y 0
v
es tanto elemento de W
1
como de W
2
(por ser subespacios
vectoriales de V ).
4.10 Suma de subespacios vectoriales 127
2. Sean K, u W
1
+ W
2
y v W
1
+ W
2
. Probemos que u + v tambin es un
elemento de W
1
+ W
2
.
Existen u
1
W
1
, u
2
W
2
, v
1
W
1
y v
2
W
2
tales que
u = u
1
+ u
2
y v = v
1
+ v
2
.
Entonces:
u + v = (u
1
+ u
2
) + (v
1
+ v
2
)
= (u
1
+ v
1
) + (u
2
+ v
2
) W
2
+ W
2
,
ya que u
1
+ v
1
W
1
y u
2
+ v
2
W
2
(W
1
y W
2
son subespacios vectoriales).
Teorema 4.21 Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
subespacios vectoriales de V
de dimensin nita. Si B
1
y B
2
son bases de W
1
y W
2
, respectivamente, entonces W
1
+ W
2
=
B1 B
2
.
Demostracin. Vamos a probar que W
1
+W
2
B
1
B
2
y que B
1
B
2
W
1
+W
2
.
1. Sea w W
1
+W
2
. Mostremos que w B
1
B
2
; es decir, probemos que w es una
combinacin lineal de elementos de la unin de las dos bases.
Supongamos que B
1
= u
1
, u
2
, . . . , u
m
y B
2
= v
1
, v
2
, . . . , v
n
. Sean u W
1
y
v W
2
tales que w = u+v. Existen, entonces escalares
i
con i I
m
= 1, 2, . . . , m
y
j
con j I
n
= 1, 2, . . . , n tales que
u =
1
u
1
+
2
u
2
+ +
m
u
m
y v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.23)
Por lo tanto:
w =
1
u
1
+
2
u
2
+ +
m
u
m
+
1
v
1
+
2
v
2
+ +
n
v
n
, (4.24)
donde los u
i
y v
j
pertenecen a W
1
W
2
. Esto signica que u + v B
1
B
2
.
2. Sea w B
1
B
2
. Entonces existen escalares
i
y
j
que satisfacen la igual-
dad (4.24). Es inmediato entonces que w = u + v con u y v dados en la igual-
dad (4.23). Por lo tanto, w W
1
+ W
2
.
Teorema 4.22 (de la dimensin) Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
dos subespa-
cios vectoriales de V de dimension nita. Entonces, se verica la siguiente igualdad:
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
128 Espacios vectoriales
Demostracin. Si uno de los dos subespacios vectoriales es el espacio nulo, la demostra-
cin es inmediata. En efecto, si fuera el caso que W
1
= 0
v
, entonces W
1
+ W
2
= W
2
y W
1
W
2
= 0
v
, y dim(W
1
) = dim(W
1
W
2
) = 0. Por lo tanto:
dim(W
1
+ W
2
) = dim(W
2
) = 0 + dim(W
2
) 0
= dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Supongamos ahora que tanto W
1
como W
2
son ambos diferentes del espacio nulo.
Realizaremos la demostracin en dos casos.
1. Supongamos que W
1
W
2
= 0
v
. Debemos probar, entonces, que la dimensin de
W
1
+ W
2
es la suma de las dimensiones de W
1
y W
2
respectivamente.
Para ello, vamos a probar que una base para W
1
+W
2
se obtiene mediante la unin
entre una base de W
1
y otra de W
2
. Como W
1
W
2
= 0
v
, entonces, si B
1
y B
2
son bases de W
1
y W
2
respectivamente, se tiene que B
1
B
2
= (ya que el vector
nulo no puede ser nunca un elemento de una base). Por lo tanto, la unin de las dos
bases contiene m + n elementos donde m es el nmero de elementos de B
1
y n el
nmero de elementos de B
2
. Con ello se prueba que
dim(W
1
+ W
2
) = m + n =
= dim(W
1
) + dim(W
2
)
= dim(W
1
) + dim(W
2
) dim(W
1
W
2
),
ya que W
1
W
2
= 0
v
.
Probemos, entonces, que si B
1
= u
1
, u
2
, . . . , u
m
es una base de W
1
y B
2
=
v
1
, v
2
, . . . , v
n
es una base de W
2
, entonces B
1
B
2
es una base para W
1
+ W
2
.
Por el teorema 4.21, sabemos que B
1
B
2
genera W
1
+W
2
. Por lo tanto, solo resta
probar que la unin de las bases es linealmente independiente.
Sean
i
con i I
m
= 1, 2, . . . , m y
j
con j I
n
= 1, 2, . . . , n escalares tales
que
m
i=1
i
u
i
+
n
j=1
j
v
j
= 0
v
.
Entonces:
m
i=1
i
u
i
=
n
j=1
j
v
j
.
Por un lado, tenemos que
m
i=1
i
u
i
W
1
y
n
j=1
j
v
j
W
2
,
y por otro, tenemos que W
1
W
2
= 0
v
. Entonces:
m
i=1
i
u
i
=
n
j=1
j
v
j
= 0
v
.
Por lo tanto, ya que B
1
y B
2
son ambos linealmente independientes, tenemos que
i
= 0 y
j
= 0 para todo i I
m
y todo j I
n
. Esto demuestra que B
1
B
2
es
linealmente independiente.
4.10 Suma de subespacios vectoriales 129
2. Supongamos que W
1
W
2
,= 0
v
. Como W
1
W
2
es subconjunto tanto de W
1
como
de W
2
, que son de dimensin nita, por el teorema 4.16, la interseccin tambin es
un espacio de dimensin nita y, adems, se verica que:
dim(W
1
W
2
) dim(W
1
) y dim(W
1
W
2
) dim(W
2
).
Sea B = w
i
: i I
p
= 1, 2, . . . , p una base de W
1
W
2
. Por el teorema 4.14, B
es parte de una base de B
1
, una de W
1
, y parte de B
2
, una base de W
2
.
Sean B
1
= w
i
, u
j
: i I
p
, j I
m
= 1, 2, . . . , m y B
2
= w
i
, v
j
: i I
p
, k
I
n
= 1, 2, . . . , m. Entonces
dim(W
1
) = p + m y dim(W
2
) = p + n. (4.25)
Observemos que ningn u
j
puede ser igual a algn v
k
, pues si fuera as, digamos
que u
1
= v
1
, por ejemplo, entonces u
1
y v
1
estaran en la interseccin de W
1
W
2
y
seran uno de los w
i
, pues, de lo contrario, ya no sera p la dimensin de W
1
W
2
.
Por esto, basta que probemos que
B
1
B
2
= w
i
, u
j
, v
k
: i I
p
, j I
m
, k I
n
es una base de W
1
+ W
2
para demostrar el teorema, pues, la unin de las bases
contendra exactamente
p + m + n
elementos, de donde tendramos, con ayuda de la igualdad (4.25), que
dim(W
1
+ W
2
) = p + m+ n
= (p + m) + (p + n) p
= dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Demostremos, entonces, que B
1
B
2
es una base, para lo cual, es suciente con
probar que es linealmente independiente, ya que, por el teorema 4.21, genera el
espacio W
1
+ W
2
.
Sean, entonces,
i
con i I
m
,
j
con j I
n
y
k
k I
p
escalares tales que:
p
k=1
k
w
k
+
m
i=1
i
u
i
+
n
j=1
j
v
j
= 0
v
. (4.26)
Entonces:
p
k=1
k
w
k
+
m
i=1
i
u
i
=
n
j=1
j
v
j
. (4.27)
Pero
p
k=1
k
w
k
+
m
i=1
i
u
i
W
1
y
n
j=1
j
v
j
W
2
,
junto con la igualdad (4.27), implica que:
j=1
j
v
j
W
1
W
2
.
130 Espacios vectoriales
Entonces, como B es una base de W
1
W
2
, existen p escalares
k
con k I
p
tales
que
j=1
j
v
j
=
p
k=1
k
w
k
,
de donde obtenemos que:
p
k=1
k
w
k
+
n
j=1
j
v
j
= 0
v
.
Pero esta igualdad implica que
k
= 0 y
j
= 0 para todo k I
p
y todo j I
n
, ya
que B
2
es un conjunto linealmente independiente.
Entonces, la igualdad (4.27) se expresa de la siguiente manera:
p
k=1
k
w
k
+
m
i=1
i
u
i
= 0
v
,
de donde se obtiene que
k
= 0 y = 0 para todo k I
p
y todo i I
m
, ya que B
1
es un conjunto linealmente independiente.
En resumen, hemos probado que la igualdad (4.26) implica que todos los escalares
i
,
j
y
k
son iguales a 0. Es decir, hemos probado que B
1
B
2
es linealmente
independiente, y con ello, que es una base de W
1
+ W
2
.
4.11 Suma directa de subespacios vectoriales
Denicin 4.12 (Suma directa) Sean (V, K, +, ) un espacio vectorial y W
1
y W
2
dos subespa-
cios vectoriales de V . La suma directa de W
1
y W
2
, representada por W
1
W
2
se dene de la
siguiente manera:
W
1
W
2
= w V : (!u W
1
)(!v W
2
)(w = u +v).
Teorema 4.23 Sean (V, K, +, ) un espacio vectorial y U, W
1
y W
2
subespacios de dimensin
nita de V . Entonces:
U = W
1
W
2
si y solo si U = W
1
+W
2
y W
1
W
2
= 0
v
.
Demostracin. 1. Si U = W
1
W
2
, es inmediato, de la denicin de suma directa que
U = W
1
+W
2
. As que probemos que la interseccin de W
1
y W
2
es el espacio nulo.
Supongamos lo contrario. Esto signica que existe v ,= 0
v
tal que v W
1
W
2
.
Entonces, por un lado, tenemos que
2v = v + v
4.11 Suma directa de subespacios vectoriales 131
est en W
1
W
2
. Por otro, tenemos que
2v = 2v + 0
v
.
Como la cada elemento de la suma directa se expresa de manera nica como la suma
de dos elementos, uno de W
1
y otro de W
2
, necesariamente tiene que suceder que
v = 2v y que v = 0
v
, ambas armaciones imposibles. Por lo tanto, W
1
W
2
= 0
v
.
2. Supongamos ahora que U = W
1
+ W
2
y que W
1
W
2
= 0
v
. Para probar que U
es la suma directa de W
1
y W
2
, vamos a probar que cada elemento de W
1
+ W
2
se
expresa de manera nica como la suma un elemento de W
1
con otro de W
2
.
Sean u = v + w U tal que v W
1
y w W
2
. Supongamos que existen v
W
1
y
w
W
2
tales que u = v
+ w
+ w
,
de donde obtenemos que
v v
= w
w. (4.28)
Pero v v
W
1
y w
w W
2
. Por lo tanto, la igualdad (4.28) implica que
v v
W
1
W
2
y w
w W
1
W
2
.
De donde, como W
1
W
2
= 0
v
, tenemos que
v v
= 0
v
y w
w = 0
v
.
Por lo tanto v = v
y w = w
i
con i I
n
= 1, 2, . . . , n tales que:
v =
n
i=1
i
u
i
=
m
i=1
i
u
i
+
n
i=m+1
i
u
i
= u + v,
donde
u =
m
i=1
i
u
i
y v =
n
i=m+1
i
u
i
.
Entonces u U y v W. Por lo tanto, v U + W; es decir, V U + W.
En resumen, hemos probado que V = U + W.
2. Sea v U W. Vamos a probar que v = 0
v
, con lo cual quedara demostrado que
U W = 0
v
.
Como u U y u V , existen escalares
i
tales que
v =
m
i=1
i
u
i
=
n
i=m+1
i
u
i
.
Por lo tanto:
0
v
= v v =
m
i=1
i
u
i
i=m+1
i
u
i
,
de donde se tiene que
m
i=1
i
u
i
+
n
i=m+1
(
i
)u
i
= 0
v
.
Como B es linealmente independiente, tenemos que todos los
i
= 0. Por lo tanto,
v = 0
v
.
Ejemplo 4.58
Sea U = a + bx + cx
2
+ dx
3
P
3
[x] : a 2b c = 0, b c d = 0 un
subespacio vectorial de (P
3
[x], R, +, ). Encontrar un subespacio vectorial W tal
que P
3
[x] = U W.
Solucin. Vamos a utilizar la demostracin del teorema 4.25, ya que en ella se describe el
siguiente procedimiento para encontrar W:
4.11 Suma directa de subespacios vectoriales 133
1. Encontrar una base para U.
2. Si U es el espacio nulo, entonces W = P
3
[x].
3. Si U es el V , entonces W es el espacio nulo.
4. Si U no es ni el espacio nulo ni V , entonces W = B B
1
, donde B es una base de V
obtenida a partir de B
1
, una base de U.
En este caso, es fcil ver que U ni es el espacio nulo ni P
3
[x]. Entonces, lo que tenemos
que hacer es: encontrar una base para U y luego completar esa base a una para P
3
[x].
1. Una base para U.
U = a +bx +cx
2
+dx
3
P
3
[x] : a = 2b +c, d = b c
= (2b +c) +bx +cx
2
+ (b c)x
3
P
3
[x] : b R, c R
= (2b +bx +bx
3
) + (c +cx
2
cx
3
) P
3
[x] : b R, c R
= b(2 +x +x
3
) +c(1 +x
2
x
3
) P
3
[x] : b R, c R.
Sea B
1
= 2 +x +x
3
, 1 +x
2
x
3
. Entonces U = B
1
. Para que B
1
sea una base de U,
es suciente que sea linealmente independiente. Veamos si es as efectivamente.
Sean y dos escalares tales que
(2 +x +x
3
) +(1 +x
2
x
3
) = 0 + 0x + 0x
2
+ 0x
3
.
Por lo tanto:
(2 +)x +x
2
+ ( )x
3
= 0 + 0x + 0x
2
+ 0x
3
,
de donde es inmediato que = 0 y = 0 son los nicos valores que satisface esta igualdad.
Por lo tanto, B
1
es linealmente independiente.
En resumen, hemos encontrado una base para U, el conjunto B
1
.
2. Una base para V que contenga a B
1
. El procedimiento a seguir es el utilizado en la demos-
tracin del teorema 4.14, y consiste en lo siguiente:
(a) Si B
1
genera V (es decir, U = V ), entonces B
1
es una base de V .
(b) Si U es diferente de V , entonces se determina si B
2
= B
1
v
1
, donde v
1
V B
1
,
genera V . En caso armativo, B
2
es la base buscada. En el caso contrario, se repite
este paso hasta encontrar B.
Como dim(P
3
[x]) = 4, entonces U, cuya dimensin es 2, no es igual a P
3
[x]. Por lo tanto,
debemos aplicar el segundo paso del procedimiento descrito. Cuntas veces? Exactamente
dos.
En primer lugar, busquemos un polinomio de P
3
[x] que no est en U. Por ejemplo, x, ya
que a ,= 2b c, pues a = 0, b = 1 y c = 0. Sea B
2
= B
1
x. Como tiene tres elementos,
entonces no genera P
3
[x], cuya dimensin es 4.
Volvemos al segundo paso del procedimiento: buscar un vector que est en P
3
[x] pero no
en B
2
. Para esto, determinemos B
2
:
B
2
= p(x) = a +bx +cx
2
+dx
3
P
3
[x] : p(x) = (2 +x +x
3
) +(1 +x
2
x
3
) +x
= p(x) = a +bx +cx
2
+dx
3
P
3
[x] : p(x) = (2 +)( +)x +x
2
+ ( )x
3
_
_
_
_
1 1 0 d
1 0 1 b
0 1 0 c
2 1 0 a
_
_
_
_
_
_
_
_
1 1 0 d
0 1 1 b d
0 1 0 c
0 3 0 a 2d
_
_
_
_
_
_
_
_
1 1 0 d
0 1 1 b d
0 1 0 c
0 0 0 a 3c 2d
_
_
_
_
.
Por lo tanto, para que el sistema (4.29) tenga solucin, se debe satisfacer la igualdad:
a 3c 2d = 0.
Entonces:
B
2
= a +bx +cx
2
+dx
3
P
3
[x] : a 3c 2d = 0.
El polinomio x
2
no es elemento de B
2
, pues, como a = 0, b = 0, c = 1 y d = 0, entonces
a 3c 2d = 3 ,= 0. Entonces
B
= B
1
x
2
es una base de P
3
[x] y W = B
B
1
=
x, x
2
_
. Por lo tanto:
W = ax +bx
2
: a R, b R.
Ejemplo 4.59
Sean
W
1
= (x, y, z) R
3
: x+y +z = 0 y W
2
= (x, y, z) R
3
: 2x+y = 0, y z = 0
dos espacios vectoriales de (R
3
, R, +, ). Calcular W
1
+W
2
y probar que:
R
3
= W
1
W
2
.
Solucin. Por el teorema 4.21, sabemos que W
1
+W
2
= B
1
B
2
, donde B
1
y B
2
son bases
de W
1
y W
2
respectivamente. Por lo tanto, para calcular la suma de W
1
y W
2
, encontremos
una base para cada uno.
4.11 Suma directa de subespacios vectoriales 135
1. Una base para W
1
:
W
1
= (x, y, z) R
3
: x +y +z = 0
= (y z, y, z) R
3
: y R, z R
= y(1, 1, 0) +z(1, 0, 1) R
3
: y R, z R.
Por lo tanto, el conjunto B
1
= (1, 1, 0), (1, 0, 1) genera W
1
.
Veamos si B
1
es linealmente independiente. Para ello, sean y escalares tales que:
(1, 1, 0) +(1, 0, 1) = (0, 0, 0).
De esta igualdad, obtenemos que:
= 0, = 0, = 0,
de donde = = 0 es la nica solucin. Por lo tanto, B
1
es linealmente independiente, y,
por lo tanto, es una base de W
1
.
2. Una base para W
2
:
W
2
= (x, y, z) R
3
: 2x +y = 0, y z = 0
= (x, y, z) R
3
: y = 2x, z = y = 2x
= (x, 2x, 2x) R
3
: x R
= x(1, 2, 2) R
3
: x R.
Por lo tanto, el conjunto B
2
= (1, 2, 2) genera W
2
. Puesto que tambin es linealmente
independiente, pues tiene un solo elemento y ese elemento es diferente de 0
v
2
, B
2
es una
base de W
2
.
3. Determinacin de W
1
+W
2
. Recordemos que: W
1
+W
2
= B
1
B
2
. Vamos a probar que
B
1
B
2
es linealmente independiente. Como tiene tres elementos, entonces va a generar
R
3
, es decir, W
1
+ W
2
= R
3
. Pero esto implica, por el teorema de la dimensin, que
dim(W
1
W
2
) = 0, de donde W
1
W
2
= 0
v
. Es decir, W
1
W
2
= R
3
.
4. El conjunto B
1
B
2
es linealmente independiente. En efecto, sean , y escalares tales
que
(1, 1, 0) +(1, 0, 1) +(1, 2, 2) = (0, 0, 0).
Entonces los escalares satisfacen el siguiente sistema de ecuaciones lineales
+ = 0
2 = 0
2 = 0
que tiene solucin nica, la trivial, pues la matriz de coecientes es equivalente a una
triangular superior cuyo rango es igual a 3:
_
_
1 1 1 0
1 0 2 0
0 1 2 0
_
_
_
_
1 1 1 0
0 1 1 0
0 1 2 0
_
_
_
_
1 1 1 0
0 1 1 0
0 0 3 0
_
_
.
Por lo tanto, B
1
B
2
es un conjunto linealmente independiente.
2
Si v ,= 0
v
, entonces la igualdad v = 0
v
implica que = 0 (ver el teorema 4.3). Es decir, el
conjunto v es linealmente independiente.
136 Espacios vectoriales
Ejemplo 4.60
Sean W
1
, W
2
y W
3
tres subespacios vectoriales de un espacio vectorial V de dimen-
sin nita tales que:
1. W
1
W
2
;
2. W
1
+W
3
= W
2
+W
3
; y
3. W
1
W
3
= W
2
W
3
.
Entonces W
1
= W
2
.
Solucin. Del teorema de la dimensin, podemos armar que
dim(W
1
W
3
) = dim(W
1
) + dim(W
3
) dim(W
1
+W
3
)
y que
dim(W
2
W
3
) = dim(W
2
) + dim(W
3
) dim(W
2
+W
3
).
La segunda hiptesis implica que
dim(W
1
+W
3
) = dim(W
2
+W
3
)
y la tercera,
dim(W
1
W
3
) = dim(W
2
W
3
).
Por lo tanto:
dim(W
1
) + dim(W
3
) dim(W
1
+W
3
) = dim(W
2
) + dim(W
3
) dim(W
2
+W
3
)
dim(W
1
) + dim(W
3
) = dim(W
2
) + dim(W
3
)
dim(W
1
) = dim(W
2
).
De la primera hiptesis, W
1
es un subespacio vectorial de W
2
y una base de W
1
tiene el
mismo nmero de elementos que una base de W
2
. Entonces la base de W
1
genera W
2
. Esto
signica que W
1
= W
2
.
4.12 Producto interno
Denicin 4.13 (Producto interno) Sean (V, K, +, ) un espacio vectorial y K el campo de los
nmeros reales o complejos. Un producto interno sobre V es una funcin , : V V K
tal que:
1. Linealidad: (u V )(v V )(w V )(u +v, w = u, w +v, w).
2. Homogeneidad: ( K)(u V )(v V )(u, v = u, v).
3. Simetra de Herminte: (u V )(v V )(u, v = v, u).
4. Positividad: (v V 0
v
)(v, v > 0).
4.12 Producto interno 137
Observaciones
1. Por la simetra de Hermite, tenemos que u, u = u, u; es decir, el conjugado de
u, u es el mismo. Esto signica que u, u siempre es un nmero real, y es positivo
cuando u ,= 0
v
.
2. Si u = 0
v
, entonces u, v = 0, pues u = 0 u, de donde, por la homogeneidad, se
tiene que u, v = 0 u, v = 0 u, v = 0.
3. De la observacin anterior, si u = 0
v
, entonces u, u = 0. Recprocamente, si
u, u = 0, entonces u = 0
v
, pues, si u ,= 0
v
, por la positividad, tendramos que
u, u > 0.
4. A la estructura de espacio vectorial junto con un producto interno se le denomina
espacio con producto interior.
A continuacin, presentamos los productos internos ms usuales para los espacios
que aparecen frecuentemente en este texto.
1. En el espacio vectorial (R
2
, K, +, ):
u, v = x
1
y
1
+ x
2
y
2
,
donde u = (x
1
, x
2
) y v = (y
1
, y
2
).
2. En el espacio vectorial (R
3
, K, +, ):
u, v = x
1
y
1
+ x
2
y
2
+ x
3
y
3
,
donde u = (x
1
, x
2
, x
3
) y v = (y
1
, y
2
, y
3
).
3. En el espacio vectorial (R
n
, K, +, ):
u, v =
n
j=1
x
i
y
i
= x
1
y
1
+ x
2
y
2
+ + x
n
y
n
,
donde u = (x
1
, x
2
, , x
n
) y v = (y
1
, y
2
, y
3
).
4. En el espacio vectorial (C
n
, C, +, ):
u, v =
n
j=1
x
i
y
i
,
donde u = (x
1
, x
2
, , x
n
) y v = (y
1
, y
2
, y
3
).
5. En el espacio vectorial (P
n
[x], R, +, ):
p, q =
n
j=1
a
j
b
j
,
donde p(x) =
n
j=1
a
j
x
j
y q(x) =
n
j=1
b
j
x
j
.
138 Espacios vectoriales
6. En el espacio vectorial (M
nn
, R, +, ):
A, B = tr(AB
t
) =
n
i=1
n
j=1
a
ij
b
ij
,
donde A = (a
ij
) y B = (b
ij
).
Sobre un conjunto, se pueden denir varios productos internos. En el siguiente
ejemplo, se ilustra esta situacin.
Ejemplo 4.61
Denimos la funcin , en P
2
[x] P
2
[x] por:
p, q =
jJ
p(j)q(j),
donde J = 1, 0, 1. Probar que esta funcin es un producto interno sobre
(P
2
[x], R, +, ).
Solucin.
1. Linealidad. Sean p, q y r en P
2
[x]. Debemos probar que
p +q, r = p, r +q, r .
Demostracin.
p +q, r =
jJ
(p +q)(j)r(j)
=
jJ
[(p(j) +q(j)]r(j)
=
jJ
[(p(j)r(j) +q(j)r(j)]
=
jJ
(p(j)r(j) +
jJ
q(j)r(j) = p, r +q, r .
2. Homogeneidad. Sean R y p y q en P
2
[x]. Vamos a probar que
p, q = p, q .
Demostracin.
p, q =
jJ
[p(j)]q(j)
=
jJ
[p(j)q(j)]
=
jJ
p(j)q(j) = p, q .
4.12 Producto interno 139
3. Simetra de Hermite. Como K = R, entonces el conjugado de cualquier elemento de K
es l mismo. Por ello, lo que debemos probar es:
p, q = q, p
para todo p y q en P
2
[x].
Demostracin.
p, q =
jJ
p(j)q(j)
=
jJ
q(j)p(j) = q, p .
4. Positividad. Sea p P
2
[x] 0
v
. Vamos a demostrar que:
p, p > 0.
Demostracin. Tenemos que
p, p =
jJ
p
2
(j).
Ahora bien, como p no es nulo y su grado es a lo ms 2, entonces no puede tener ms
de dos races. Esto signica que 1, 0 y 1 no pueden ser, los tres, races de p. En otras
palabras, al menos uno de los tres nmeros p(1), p(0) y p(1) es distinto de 0.; es decir,
existe k J tal que p(k) ,= 0, por lo que p
2
(k) > 0.
Por otro lado, para todo j J k, tenemos que p
2
(j) 0. Entonces:
p, p = p
2
(k) +
jJ{k}
p
2
(j) > 0.
En resumen, la funcin , es un producto interno sobre (P
2
[x], R, +, ).
Teorema 4.26 (Propiedades del producto interno) Sean (V, K, +, ) un espacio vectorial y ,
un producto interno. Entonces:
1. (u V )(v V )(w V )(u, v +w = u, v +u, w).
2. ( K)(u V )(v V )(u, v = u, v).
3. (u V )(0
v
, u = 0).
4. Si (u V )(u, w = 0), entonces w = 0
v
.
5. Si v, v = 0, entonces v = 0
v
.
Demostracin. Sean u, v, w elementos de V y de K.
140 Espacios vectoriales
1.
u, v + w = v + w, u Simetra de Hermite.
= v, u +w, u Linealidad.
= v, u +w, u El conjugado de una suma es la suma
de los conjugados.
= u, v +u, w Simetra de Hermite.
2.
u, v = v, u Simetra de Hermite.
= v, u Homogeneidad.
= v, u El conjugado de un producto es el
producto de los conjugados de cada
factor.
= u, v Simetra de Hermite.
3. Se demostr en la segunda observacin a la denicin de producto interno.
4. La demostracin se deja para el lector.
5. Se demostr en la tercera observacin a la denicin de producto interno.
Teorema 4.27 (Desigualdad de Cauchy-Schwarz) Sea , un producto escalar denido sobre
un espacio vectorial (V, K, +, ). Entonces se satisface la desigualdad
[ u, v [
_
u, u
_
v, v
para todo u V y todo v V .
Aunque el teorema es verdadero para cualquier campo K, la demostracin que
presentamos a continuacin se la realiza para el caso K = R. Esto signica que u, v =
v, u y no aparecer el conjugado de un nmero en ninguna expresin.
Demostracin. Si u = 0
v
, entonces, por un lado:
[ u, v [ = [0[ = 0.
Por otro lado:
_
u, u
_
v, v = 0
_
v, v = 0.
Por lo tanto:
[ u, v [ =
_
u, u
_
v, v
cuando u = 0
v
.
Supongamos ahora que u ,= 0
v
. Denamos w as:
w = v
u, v
u, u
u.
4.12 Producto interno 141
Entonces:
w, w =
_
v
u, v
u, u
u, v
u, v
u, u
u
_
=
_
v, v
u, v
u, u
u
_
_
u, v
u, u
u, v
u, v
u, u
u
_
= v, v
u, v
u, u
v, u
u, v
u, u
u, v +
u, v
u, u
u, v
u, u
u, u
= v, v
u, v
u, u
u, v
u, v
u, u
u, v +
u, v
u, u
u, v
= v, v
u, v
u, u
u, v
w, w =
v, v u, u u, v
2
u, u
.
Puesto que w, w 0, entonces
v, v u, u u, v
2
u, u
0,
y, como u, u > 0, obtenemos que
v, v u, u u, v
2
0,
de donde se verica que
u, v
2
v, v u, u .
Por lo tanto:
[ u, v [
_
u, u
_
v, v.
Denicin 4.14 (Norma) Sea (V, K, +, ) un espacio vectorial. Una norma sobre V es una fun-
cin || : V R que satisface las siguientes propiedades:
1. Positividad: (v V 0
v
)(|v| > 0).
2. Homogeneidad: ( K)(v V )(|v| = [[ |v|).
3. Desigualdad triangular: (u V )(v V )(|u +v| |u| +|v|).
A un espacio vectorial junto con una norma denida sobre l se le conoce con el
nombre de espacio normado.
La desigualdad de Cauchy-Schwarz puede ser reformulada de la siguiente manera
mediante la norma:
[ u, v [ |u| |v|
para todo u y todo v en un espacio normado V .
142 Espacios vectoriales
Teorema 4.28 (Norma inducida) Sea (V, K, +, ) un espacio vectorial sobre el que se ha denido
un producto interno , . Entonces la funcin de || : V R denida por
|v| =
_
v, v
para todo v V es una norma sobre V .
A esta norma se le conoce con el nombre de norma inducida sobre V por el producto interno
sobre V .
Demostracin. Sean u y v elementos de V y un escalar.
1. Positividad. Supongamos que v ,= 0
v
. Entonces, por la positividad del producto
interno, tenemos que v, v > 0. Por lo tanto, |v|
2
> 0, de donde |v| > 0.
2. Homogeneidad.
|v|
2
= v, v
= v, v
= [[
2
|v|
2
.
Por lo tanto, |v| = [[ |v|.
3. Desigualdad triangular. La demostracin de esta propiedad se realiza nicamente
para el caso en que K = R.
|u + v|
2
= u + v, u + v
= u, u +u, v +v, u +v, v
= |u|
2
+u, v +u, v +|v|
2
= |u|
2
+ 2 u, v + |v|
2
|u|
2
+ 2[ u, v [ +|v|
2
|u|
2
+ 2 |u| |v| +|v|
2
= (|u| +|v|)
2
.
Por lo tanto, |u + v| |u| +|v|.
Ejemplo 4.62 En el espacio (R
4
, R, +, ), con el producto interno usual, tenemos que
|(4, 2, 0, 3)|
2
= (4, 2, 0, 3), (4, 2, 0, 3)
= 4 4 + (2)(2) + (0)(0) + (3)(3)
= 16 + 4 + 9.
Por lo tanto, |(4, 2, 0, 3)| =
29.
4.13 Ortogonalidad 143
4.13 Ortogonalidad
Denicin 4.15 (Vectores ortogonales) Sean (V, K, +, ) un espacio vectorial y , un producto
interno denido sobre V .
1. Dos vectores u y v de V son ortogonales si y solamente si u, v = 0.
2. Un conjunto S de V es ortogonal si y solamente si todo par de elementos distintos de S
son ortogonales.
Observaciones
1. El vector nulo 0
v
es ortogonal a cualquier vector, pues 0
v
, v = 0 para todo v V .
2. Si S V es distinto de 0
v
, para que sea un conjunto ortogonal, debe tener al
menos dos elementos.
Ejemplo 4.63 En el espacio (R
3
, R, +, ), con el producto interno usual, el conjunto
S = (1, 0, 1), (2, 1, 2), (1, 4, 1)
es ortogonal pues:
(1, 0, 1), (2, 1, 2) = 2 + 0 2 = 0;
(1, 0, 1), (1, 4, 1) = 1 + 0 + 1 = 0;
(2, 1, 2), (1, 4, 1) = 2 + 4 2 = 0.
En otras palabras, hemos mostrado que u, v = 0 para todo u S y todo v S tal que
u ,= v.
Teorema 4.29 Sean (V, K, +, ) un espacio vectorial, , un producto interno sobre V y S V
tal que 0
v
, S. Si S es un conjunto ortogonal, entonces S es linealmente independiente.
Demostracin. Supongamos que S = v
i
: i I
n
= 1, 2, . . . , n. Sean
i
con i I
n
escalares tales que:
n
i=1
i
v
i
= 0
v
. (4.30)
Sea j I
n
. Entonces:
0 = 0
v
, v
j
=
_
n
i=1
i
v
i
, v
j
_
=
n
i=1
i
v
i
, v
j
j
v
j
, v
j
= 0. (4.31)
Puesto que v
j
,= 0
v
(ya que 0
v
, S), entonces v
j
, v
j
> 0. Esto signica que la
igualdad (4.31) implica que
j
= 0.
En resumen, hemos probado que la igualdad (4.30) implica que
j
= 0 para todo
j I
n
; es decir, hemos probado que S es un conjunto linealmente independiente.
Ejemplo 4.64 En el espacio (R
3
, R, +, ), el conjunto
s = (1, 0, 1), (2, 1, 2), (1, 4, 1)
es una base, ya que es linealmente independiente, pues es ortogonal como se prob en el
ejemplo anterior.
Recurdese que es suciente probar que S es linealmente independiente para que sea una
base de R
3
, ya que S tiene tres elementos y la dimensin de R
3
es 3.
Teorema 4.30 (Proceso de Gram-Schmidt) Sean (V, K, +, ) un espacio vectorial y , un pro-
ducto interno sobre V . Si el conjunto S
1
= v
i
V : i I
n
= 1, 2, . . . , n es linealmente
independiente, entonces existe un conjunto ortogonal S
2
= w
i
: i I
n
, donde:
1. w
1
= v
1
; y
2. w
i
= v
i
i1
j=1
v
i
, w
j
w
j
, w
j
w
j
para cada i I
n
1;
y tal que S
2
= S
1
.
Denicin 4.16 (Base ortogonal) Sean (V, K, +, ) un espacio vectorial y , un producto in-
terno sobre V . Una base B de V es ortogonal su B es un conjunto ortogonal.
Ejemplo 4.65 En (R
3
, R, +, ), el conjunto
B = (1, 0, 1), (2, 1, 2), (1, 4, 1)
es una base ortogonal.
Teorema 4.31 Todo espacio vectorial de dimension nita mayor que o igual a dos sobre el cual
se ha denido un producto interno tiene una base ortogonal.
4.13 Ortogonalidad 145
Demostracin. Sea B
1
una base de V , un espacio vectorial tal que dim(V ) 2. Enton-
ces B
1
tiene al menos dos elementos. Si se aplica el proceso de Gram-Schmidt, a partir
de B
1
se obtiene un conjunto ortogonal B con el mismo nmero de elementos que B
1
y tal que B = B
1
. Como B
1
genera V , entonces B tambin genera V . Entonces
B es una base pues tiene el mismo nmero de elementos que la dimensin de V . En
resumen, B es una base ortogonal de V .
Teorema 4.32 Sean (V, K, +, ) un espacio vectorial, , un producto interno sobre V y S V .
Si S = v
i
: i I
n
es ortogonal, entonces el conjunto
S
=
i
v
i
: i I
n
es ortogonal, donde
i
,= 0 para todo i I
n
.
Demostracin. Sean i I
n
y j I
n
tales i ,= j. Vamos a probar que
i
v
i
y
j
v
j
son
ortogonales:
i
v
i
,
j
v
j
=
i
j
v
i
, v
j
=
i
j
0 = 0,
pues S es un conjunto ortogonal.
Denicin 4.17 (Conjunto ortogonal) Sean (V, K, +, ) un espacio vectorial, , un producto
interno sobre V y S V . El conjunto S es ortonormal si es ortogonal y la norma de cada uno de
sus elementos es igual a 1. En particular, una base es ortonormal si es un conjunto ortonormal.
Corolario 4.33 Todo espacio vectorial de dimensin nita mayor que o igual a dos sobre el cual
se ha denido un producto interno tiene una base ortonormal.
Demostracin. Sea B
_
.
Entonces B es ortogonal, ya que B
i=1
u, v
i
|v
i
|
2
v
i
.
Demostracin. Dado que B es una base de V , cada u de V es combinacin lineal nica
de elementos de B. Esto signica que existen n escalares nicos
i
con i I
n
tales que
u =
n
i=1
i
v
i
.
Sea j I
n
. Entonces:
u, v
j
=
_
n
i=1
i
v
i
, v
j
_
=
n
i=1
i
v
i
, v
j
=
n
i=1
i
v
i
, v
j
=
j
v
j
, v
j
,
pues B es un conjunto ortogonal, por lo que v
i
, v
j
= 0 para todo i ,= j. Por lo tanto:
u, v
j
=
j
v
j
, v
j
=
j
|v
j
|
2
.
para cada j I
n
.
Ahora bien, como B es una base, ningn v
j
puede ser igual a 0
v
. Por lo tanto,
tenemos que |v
j
| , = 0. Entonces, tenemos que las coordenadas de u respecto de B
estn dadas por:
j
=
u, v
j
|v
j
|
2
para cada j I
n
, lo que implica que:
u =
n
i=1
u, v
i
|v
i
|
2
v
i
.
Ejemplo 4.66
Sea
W =
__
a b
c d
_
: a +d = b +c
_
un subespacio vectorial de (M
22
, R, +, ) dotado con el producto interno usual.
Encontrar una base ortonormal de W.
4.13 Ortogonalidad 147
Solucin. En primer lugar, vamos a encontrar una base para W. A continuacin, utilizaremos
el proceso de Gram-Schmidt para obtener, a partir de dicha base, una ortonormal.
1. Puesto que:
W =
__
a b
c d
_
: a = b +c d
_
=
__
b +c d b
c d
_
: b R, c R, d R
_
=
__
b b
0 0
_
+
_
c 0
c 0
_
+
_
d 0
0 d
_
: b R, c R, d R
_
=
_
b
_
1 1
0 0
_
+c
_
1 0
1 0
_
+d
_
1 0
0 1
_
: b R, c R, d R
_
,
el conjunto
B
1
=
__
1 1
0 0
_
,
_
1 0
1 0
_
,
_
1 0
0 1
__
genera el subespacio W. Es fcil probar que B
1
es linealmente independiente, por lo que
se deja esta tarea al lector. Por lo tanto B
1
es una base de W.
2. Ahora apliquemos el proceso de Gram-Schmidt (teorema 4.30) para obtener, a partir de
B
1
, una base ortonormal para W.
Nombremos con v
1
, v
2
y v
3
los elementos de B
1
(en el orden de izquierda a derecha en
el que estn escritos arriba). Sea B
2
= w
1
, w
2
, w
3
la base ortogonal producida por el
mtodo de Gram-Schmidt. Entonces:
w
1
= v
1
=
_
1 1
0 0
_
.
El elemento w
2
se dene as:
w
2
= v
2
v
2
, w
1
w
1
, w
1
w
1
.
Ahora bien, tenemos que:
(a) v
2
, w
1
= tr(w
2
w
t
1
) = tr
_
_
1 0
1 0
__
1 1
0 0
_
t
_
= tr
__
1 0
1 0
__
1 0
1 0
__
=
_
1 0
1 0
_
= 1.
(b) w
1
, w
1
= tr(w
1
w
t
1
) = tr
_
_
1 1
0 0
__
1 1
0 0
_
t
_
= tr
__
1 1
0 0
__
1 0
1 0
__
=
_
2 0
0 0
_
= 2.
Entonces:
w
2
=
_
1 0
1 0
_
1
2
_
1 1
0 0
_
=
_
1
2
1
2
1 0
_
.
Por ltimo, el elemento w
3
se dene de la siguiente manera:
w
3
= v
3
v
3
, w
1
w
1
, w
1
w
1
v
3
, w
2
w
2
, w
2
w
2
.
Para encontrarlo, realicemos los siguientes clculos:
(a) v
3
, w
1
= tr(v
3
w
t
1
) = tr
__
1 0
0 1
__
1 0
1 0
__
= tr
_
1 0
1 0
_
= 1.
148 Espacios vectoriales
(b) v
3
, w
2
= tr(v
3
w
t
2
) = tr
__
1 0
0 1
__
1
2
1
1
2
0
__
= tr
_
1
2
1
1
2
0
_
=
1
2
.
(c) w
2
, w
2
= tr(v
2
w
t
2
) = tr
__
1
2
1
2
1 0
__
1
2
1
1
2
0
__
= tr
_
1
2
1
2
1
2
1
_
=
3
2
.
Por lo tanto:
w
3
=
_
1 0
0 1
_
+
1
2
_
1 1
0 0
_
+
1
3
_
1
2
1
2
1 0
_
=
_
1
3
1
3
1
3
1
_
.
Ya tenemos, entonces, una base ortogonal de W: el conjunto B
2
= w
1
, w
2
, w
3
.
3. Nos falta nicamente obtener la base ortonormal. Eso lo hacemos a partir de B
2
al multi-
plicar a cada vector de B
2
por el recproco de su norma. Sean e
i
tales que:
e
i
=
1
|w
i
|
w
i
.
Ya conocemos las normas de w
1
y w
2
. Calculemos la de w
3
:
w
3
, w
3
= tr
_
_
1
3
1
3
1
3
1
__
1
3
1
3
1
3
1
_
t
_
= tr
__
1
3
1
3
1
3
1
__
1
3
1
3
1
3
1
__
= tr
_
2
9
2
9
2
9
10
9
_
=
4
3
.
Entonces, B = e
1
, e
2
, e
3
es la base ortonormal de W:
B =
_
2
_
1 1
0 0
_
,
_
2
3
_
1
2
1
2
1 0
_
,
3
2
_
1
3
1
3
1
3
1
_
_
, se dene por:
W
= u V : (w W)(u, w = 0).
Es decir, el ortogonal del subespacio vectorial W est constituido por todos los vectores de V
que son ortogonales a cada uno de los elementos de W.
Es sencillo probar que el ortogonal de un subespacio vectorial tambin es un subes-
pacio vectorial. As que esta demostracin se deja como ejercicio para el lector. En el
siguiente teorema, se enuncia esta propiedad y, adems, se enuncia una caracterizacin
del ortogonal de un subespacio: para saber si un vector es elemento del ortogonal, basta
comprobar que ese elemento es ortogonal a cada uno de los elementos de la base del
subespacio vectorial.
Precisemos estas ideas en el siguiente teorema.
Teorema 4.35 Sean (V, K, +, ) un espacio vectorial, , un producto interno sobre V y W un
subespacio vectorial de V . Entonces:
1. W
es un subespacio vectorial de W.
4.13 Ortogonalidad 149
2. Si B es una base de W, entonces:
W
= u W : (w B)(u, w = 0).
Demostracin. Demostraremos nicamente el segundo punto. Es claro que
W
u W : (w B)(u, w = 0).
Por lo tanto, para establecer la igualdad, supongamos que u es tal que
u, w = 0
para todo w B = v
1
, v
2
, . . . , v
n
, una base de W, y probemos que u W
t
.
Sea v W. Existen, entonces, n escalares
i
con i I
n
tales que
v =
n
i=1
i
v
i
.
Por lo tanto:
u, v =
_
u,
n
i=1
i
v
i
_
=
n
i=1
i
u, v
i
= 0,
pues u, v
i
= 0 para todo i I
n
, ya que v
i
B. Por lo tanto, v W
t
, con lo que
queda el teorema demostrado.
Teorema 4.36 Sean (V, K, +, ) un espacio vectorial de dimensin nita, , un producto in-
terno sobre V y W un subespacio vectorial de V . Entonces V = W W
.
Demostracin. En primer lugar, vamos a demostrar que V = W + W
y luego que
W W
= 0
v
.
1. Como V es de dimensin nita, W tambin lo es. Sea B = e
i
: i I
n
una base
ortonormal de V (teorema 4.31 y proceso de Gram-Schmidt).
Dado v V , vamos a construir un w W y un elemento w
.
Est claro que, si encontrramos, por ejemplo w W
, entonces w
se denira por
w
= v w.
El w W que buscamos, debe ser de la forma
w =
n
i=1
i
e
i
, (4.32)
ya que B es una base de W. Por lo tanto, todo el trabajo que vamos a realizar a
continuacin est dirigido a saber cmo son esos
i
.
En primer lugar, v w debe ser un elemento de W
i=1
i
e
i
, e
j
_
= 0
v, e
j
_
n
i=1
i
e
i
, e
j
_
= 0
v, e
j
=
_
n
i=1
i
e
i
, e
j
_
v, e
j
=
n
i=1
i
e
i
, e
j
v, e
j
=
j
e
j
, e
j
=
j
.
La penltima igualdad en la ltima equivalencia se verica porque e
i
, e
j
= 0 si
i ,= j, ya que B es ortogonal. Y la ltima igualdad es verdadera ya que la base es
ortonormal, por lo que la norma de cada vector e
j
es igual a 1.
En resumen, tenemos que
v w, e
j
= 0
j
= v, e
j
.
Por lo tanto, si denimos w como
w =
n
j=1
v, e
j
e
j
,
entonces v w es ortogonal a cada elemento de la base B, por lo que, por el
teorema 4.35, tenemos que v w es ortogonal a todo elemento de W. Esto signica
que v w W
. Sea, entonces, w
= v w. Entonces w
y, por lo tanto,
v = w +w
con w W y w
.
2. Probemos ahora que WW
= 0
v
. Para ello, sea u WW
. Entonces u W
.
Por lo tanto:
u, v = 0
para todo v W. En particular, para v = u, ya que u W. As, tenemos que:
u, u = 0.
Pero esto implica que u = 0
v
. Es decir, W W
= 0
v
.
4.13 Ortogonalidad 151
Ejemplo 4.67
Sea
W = p P
2
[x] : (x R)[p(x) = p(x + 1)].
Entonces W es un subespacio vectorial de (P
2
[x], R, +, ). La funcin , : P
2
[x]
P
2
[x] R denida por
p, q =
_
1
0
p(x)q(x)dx
es un producto interno sobre P
2
[x].
1. Obtener una base para W.
2. Encontrar W
.
3. Ilustrar que P
2
[x] = W W
.
Solucin.
1.
W = a +bx +cx
2
P
2
[x] : a +bx +cx
2
= a +b(x + 1)
2
+c(x + 1)
2
= a +bx +cx
2
P
2
[x] : a +bx +cx
2
= (a +b +c) + (b + 2c)x +cx
2
= a +bx +cx
2
P
2
[x] : a = a +b +c, b = b + 2c, c = c
= a +bx +cx
2
P
2
[x] : b +c = 0, 2c = 0
= a +bx +cx
2
P
2
[x] : a R, b = 0, c = 0
= a P
2
[x] : a R.
Por lo tanto, el conjunto B = p donde p(x) = 1 para todo x R genera el subespacio
W. Es, adems, base de W porque es linealmente independiente (tiene un solo elemento
diferente del vector nulo).
2. Por el teorema 4.35, tenemos que
W
= q P
2
[x] : q, p = 0,
donde p(x) = 1 para todo x R. Entonces, si q W
, tenemos que:
q, p =
_
1
0
(a +bx +cx
2
)(1)dx = 0,
donde q(x) = a +bx +cx
2
. Esto signica que:
a +
1
2
b +
1
3
c = 0.
En resumen:
W
= a +bx +cx
2
P
2
[x] : 6a + 3b + 2c = 0.
3. En primer lugar, si p W W
= 0
v
.
152 Espacios vectoriales
Por otro lado, como W
=
_
a +bx +cx
2
P
2
[x] : a =
b
2
c
3
_
=
_
b
2
c
3
+bx +cx
2
P
2
[x] : b R, c R
_
=
_
b
_
1
2
+x
_
+c
_
1
3
+x
2
_
P
2
[x] : b R, c R
_
,
tenemos que el conjunto
_
1
2
+x,
1
3
+x
2
_
genera W
.
Adems, es sencillo probar que este conjunto es linealmente independiente, por lo que
tambin es una base de W
. As que dim(W
) = dim(W) + dim(W
) dim(W W
) = 1 + 2 0 = 3,
lo que prueba que W W
= P
2
[x].
Denicin 4.19 (Base ordenada) Sean (V, K, +, ) un espacio vectorial y B una base de V . Se
dice que B es ordenada si sus elementos son considerados como una sucesin.
Al decir que los elementos de B son considerados como una sucesin, estamos
suponiendo que existe una funcin f : I
n
V , donde n es el nmero de elementos
de B, tal que a cada j I
n
, f(n) es un elemento de B. El orden que hay entre los
elementos de I
n
es el que impone el orden en B. As, el 1 es el primer elemento de
I
n
, entonces, v
1
= f(1) ser el primer elemento de la base; v
2
= f(2) ser el segundo
elemento de la base, pues 2 es el segundo elemento de I
n
, etctera.
La siguiente denicin impone la nocin de orden a las coordenadas de un vec-
tor respecto de una base. As, podemos hablar de la primera coordenada, la segunda
coordenada, etctera, de un vector respecto de una base ordenada. Precisemos esta
idea.
Denicin 4.20 (Coordenadas de un vector respecto de una base) Sean (V, K, +, ) un espacio
vectorial de dimensin n y B = v
i
: i I
n
una base ordenada de V . Para cada v V , el
elemento (
1
,
2
, ,
n
) en K
n
tal que
v =
n
i=1
i
v
i
se denomina coordenadas de v respecto de B. El escalar
j
es la jsima coordenada de v.
Dado el vector v, sus coordenadas respecto a la base ordenada B, se representa por
[v]
B
. Es decir, [v]
B
K
n
.
4.13 Ortogonalidad 153
Es comn representar tambin las coordenadas de un vector v como una matriz de
una sola columna. En efecto, si (
1
,
2
, ,
n
) son las coordenadas de v respecto de
una base B, entonces las coordenadas tambin se representan por:
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
.
Ejemplo 4.68
Sea
B =
__
1 0
0 1
_
,
_
0 1
1 0
_
,
_
0 0
1 1
_
,
_
1 1
0 0
__
una base ordenada del espacio vectorial (M
22
, R, +, ). Encontrar las coordenadas
del vector
v =
_
1 2
1 2
_
respecto de B.
Solucin. Debemos encontrar el vector (, , , ) R
4
tal que
_
1 2
1 2
_
=
_
1 0
0 1
_
+
_
0 1
1 0
_
+
_
0 0
1 1
_
+
_
1 1
0 0
_
.
Entonces, los escalares , , y satisfacen el siguiente sistema de ecuaciones lineales:
= 1
+ = 2
=1
+ = 2.
(4.34)
Resolvamos este sistema:
_
_
_
_
1 0 0 1 1
0 1 0 1 2
0 1 1 0 1
1 0 1 0 2
_
_
_
_
_
_
_
_
1 0 0 1 1
0 1 0 1 2
0 0 1 1 1
0 0 1 1 1
_
_
_
_
_
_
_
_
1 0 0 1 1
0 1 0 1 2
0 0 1 1 1
0 0 0 2 2
_
_
_
_
_
_
_
_
1 0 0 0 2
0 1 0 0 1
0 0 1 0 0
0 0 0 1 1
_
_
_
_
.
Por lo tanto:
= 2, = 1, = 0, = 1.
Entonces, las coordenadas del v es el vector de R
4
: (2, 1, 0, 1).
Denicin 4.21 (ngulo entre dos vectores) Sean (V, K, +, ) un espacio vectorial, u V y
v V . El ngulo formado entre u y v es el nmero tal que 0 y
cos =
u, v
|u| |v|
.
154 Espacios vectoriales
Ejemplo 4.69 Sean p(x) = x + x
2
y q(x) = 1 + x elementos de P
2
[x]. Entonces, el
ngulo formado entre u y v cumple la siguiente igualdad:
cos =
x +x
2
, 1 +x
_
|x +x
2
| |1 +x|
==
(0)(1) + (1)(1) + (1)(0)
0
2
+ 1
2
+ 1
2
_
(1)
2
+ 1
2
+ 0
2
=
1
2
=
1
2
.
Por lo tanto, =
3
(es decir, 30
).
Denicin 4.22 (Proyeccin ortogonal) Sean (V, K, +, ) un espacio vectorial, u V y v V .
La proyeccin ortogonal de u respecto a v es el vector v donde
=
u, v
|v|
2
.
La proyeccin v es representado por Proy
v
(u).
Ntese que el vector u v es ortogonal a v, pues
u v, v = u, v v, v = u, v
u, v
v, v
v, v = u, v u, v = 0.
Esta situacin se ilustra en el siguiente dibujo:
u
u
w = Proy
v
(u)
=
u, v
|v|
2
v
Ejemplo 4.70 En el espacio (R
3
, R, +, ), el vector u = (1, 0, 1) tiene como proyeccin
respecto de v = (1, 1, 2) al vector:
v =
u, v
|v|
2
v =
1 + 2
1 + 1 + 4
(1, 1, 2) =
_
1
6
,
1
6
,
1
3
_
.
Aplicaciones lineales
por Jos Luis Toro
Edicin y revisin: Juan Carlos Trujillo
Aplicaciones
lineales 5
El objetivo general de este captulo es:
Resolver problemas sobre transformaciones lineales, denidas sobre un es-
pacio vectorial de dimensin nita, utilizando la matriz asociada respecto
de cualquier base, a un nivel reproductivo.
Para alcanzar el objetivo general, se proponen los siguientes objetivos especcos:
1. Identicar una aplicacin lineal a partir de su denicin y familiarizarse con sus
propiedades.
2. Calcular bases para el ncleo y la imagen de una aplicacin lineal usando la denicin
y las propiedades a un nivel reproductivo.
3. Resolver problemas de biyectividad a partir de las deniciones y propiedades de una
aplicacin lineal a un nivel reproductivo.
4. Resolver problemas con las operaciones entre las aplicaciones lineales y la inversa
de una aplicacin lineal usando las deniciones y sus propiedades a un nivel repro-
ductivo.
5. Calcular la matriz asociada a una aplicacin lineal respecto de dos bases, una del
dominio y otra del espacio de llegada, respectivamente, donde las dimensiones de
ambos espacios no sea mayor que 4, y utilizando los elementos esenciales que los
tipican a un nivel reproductivo.
6. Resolver problemas sobre las matrices asociadas a una aplicacin lineal mediante
las propiedades que la tipican a un nivel reproductivo.
158 Aplicaciones lineales
5.1 Introduccin
Las funciones continuas son aquellas que conservan ciertas propiedades topolgicas de
los nmeros reales. En los espacios vectoriales interesa, en cambio, conservar las estruc-
turas algebraicas (operaciones como la suma y el producto por un escalar); es decir, se
trata de que la aplicacin sea tal que conserve las dos operaciones fundamentales que
denen la estructura de espacio vectorial.
En el conjunto de todas las funciones, las lineales son las ms importantes. Una
buena parte de las Matemticas est dedicada a resolver interrogantes relacionadas con
las aplicaciones lineales. Por otra parte, stas son de inters en s mismas, y muchas
aplicaciones importantes son lineales. Adicionalmente, es posible, a menudo, aproximar
una aplicacin arbitraria mediante una aplicacin lineal, cuyo estudio es mucho ms
sencillo que el de la aplicacin original.
Denicin 5.1 (Aplicacin lineal) Sean (V, K, +, ) y (W, K, , ) dos espacios vectoriales (am-
bos estn denidos sobre el mismo campo ). Una funcin de V en W, f : V W, es una
aplicacin lineal si y solo si para todo K, u V y v V se verica que:
1. Conservacin de +: f(u +v) = f(u) f(v).
2. Conservacin de : f( u) = f(u).
Obsrvese que una aplicacin es lineal cuando conserva las dos operaciones del
espacio vectorial de salida.
En efecto, si u y v estn en V , y f(u) y f(v) son sus imgenes en W bajo f,
entonces, la primera condicin de la denicin asegura que la imagen de la suma de
u + v tiene que ser, necesariamente, la suma de las imgenes de u y de v.
Lo mismo sucede con el producto por un escalar: si K, la segunda condicin
arma que la imagen de u bajo f debe ser el producto de por la imagen de u bajo
f. ste es el signicado de conservacin de las dos operaciones.
Es fcil demostrar el siguiente teorema, por lo que se deja al lector su prueba, que
permite simplicar la demostracin de que una aplicacin es lineal:
Teorema 5.1 Sean (V, K, +, ) y (W, K, , ) dos espacios vectoriales sobre el mismo campo
K. Una funcin f : V W es lineal si y solo si
f( u +v) = f(u) f(v)
para todo u V , v V y K.
Vamos a representar con L(V, W) al conjunto de todas las aplicaciones lineales de
V en W. Es decir:
L(V, W) = f : V W : f es lineal.
Un nombre alternativo para las aplicaciones lineales es el de transformaciones
lineales. En este texto, utilizaremos preferentemente el primero. En la denicin de
aplicacin lineal, cuando los espacios V = W, se suele utilizar el nombre operador
lineal sobre V en lugar de aplicacin lineal; y, cuando W = K, el nombre que se
utiliza es forma lineal sobre V .
5.1 Introduccin 159
De aqu en adelante, no diferenciaremos las operaciones de V y de W, pues, en el
contexto, siempre se podr distinguir si el uso de + se reere a la operacin en V o
en W. Tambin omitiremos la mayora de las veces el smbolo para el producto por un
escalar; as, escribiremos solamente u en lugar de u.
Los dos teoremas siguientes conrman el hecho de que una aplicacin lineal conserva
la estructura de espacio vectorial del espacio de salida. En efecto, el primer teorema
muestra que una aplicacin lineal hace corresponder el vector nulo del espacio de salida
con el vector nulo del espacio de llegada.
Teorema 5.2 Para toda f L(V, W), se verica que f(0
V
) = 0
W
.
Demostracin. Dado que 0
V
= 0 v para todo v V , entonces, ya que f es una
aplicacin lineal, tenemos que:
f(0
V
) = f(0 v) = 0f(v) = 0
W
.
Si no hay lugar a confusin, utilizaremos 0 para indicar tanto el elemento neutro
de K como el vector nulo de cualquier espacio vectorial.
El siguiente teorema muestra que el inverso aditivo se conserva; es decir, el inverso
aditivo de la imagen de un vector es la imagen del inverso aditivo del vector.
Teorema 5.3 Para todo v V y toda f L(V, W), se verica que f(v) = f(v).
Demostracin. f(-v) = f((-1)v) = (-1)f(v) = -f(v).
De este teorema, es inmediato que si f es lineal, entonces f(u v) = f(u) f(v).
5.1.1 Ejemplos
1. Aplicacin lineal nula: es la funcin O
f
: V W denida por
O
f
(v) = 0
para todo v V . Es fcil ver que esta aplicacin es lineal.
2. Aplicacin lineal identidad: es la funcin I : V V denida por
I(v) = v
para todo v V . Es fcil constatar que esta aplicacin es lineal.
3. Reexin con respecto al eje horizontal x: es la funcin : R
2
R
2
denida
por
1
(x, y) = (x, y).
Probemos que es una aplicacin lineal.
1
Escribiremos f(x, y) en lugar de f((x, y)) siempre que no haya lugar a confusin.
160 Aplicaciones lineales
Demostracin. Sean u = (x
1
, x
2
) y v = (y
1
, y
2
) elementos de R
2
y R. Entonces:
(u + v) = ((x
1
, x
2
) + (y
1
, y
2
)) denicin de u y v,
= (x
1
+ y
1
, x
2
+ y
2
) suma en R
2
,
= (x
1
+ y
1
, (x
2
+ y
2
)) denicin de ,
= (x
1
, x
2
) + (y
1
, y
2
) suma en R
2
,
= (x
1
, x
2
) + (y
1
, y
2
) producto por un escalar en R
2
,
= (x
1
, x
2
) + (y
1
, y
2
) denicin de ,
= (u) + (v) denicin de u y de v.
4. La funcin f : R R denida por f(x) = x
2
no es una aplicacin lineal.
Demostracin. Sean x R y y R. Por un lado, tenemos que
f(x + y) = (x + y)
2
= x
2
+ 2xy + y
2
.
Por otro lado, se cumple que
f(x) + f(y) = x
2
+ y
2
.
Entonces, f(x + y) = f(x) + f(y) si y solo si 0 = 2xy; es decir, si y solo si x = 0 o
y = 0. Por lo tanto, si x ,= 0 y y ,= 0, se tiene que
f(x + y) ,= f(x) + f(y).
Esto signica que f no es una aplicacin lineal.
5. Es la funcin g : C C, denida por g(z) = z, una aplicacin lineal si se considera
C un espacio vectorial sobre C? En el caso de que C sea un espacio vectorial sobre
R?
Desarrollo.
(a) Si C se considera como un espacio sobre C, g no es lineal, pues, por un lado se
tiene que:
g((1 + )) = g( 1) = 1 ,
pero por el otro lado, que:
g(1 + ) = 1 ;
es decir:
g((1 + )) ,= g(1 + ).
Por lo tanto g no es lineal.
5.1 Introduccin 161
(b) Si C es el espacio vectorial sobre R, tenemos que para cualquier escalar , se
cumple que:
g(u + v) = u + v
= u + v
= u + v
= u + ve,
= g(u) + g(v),
ya que = (ya que es un nmero real). Por lo tanto, g s es una aplicacin
lineal.
6. Sea W un subespacio vectorial de un espacio vectorial V provisto de un producto
interno. Dado v V , existe un nico vector proyeccin de v sobre W dado por:
w = v
v, n
|n|
n
n,
donde n es un vector ortogonal a W. En el siguiente dibujo se ilustra la relacin
entre v, w y n:
W
v
w
n
v, n
|n|
2
n
La aplicacin p: V W denida por
p(v) = v
v, n
|n|
n
n,
es una aplicacin lineal, lo que es sencillo probar pues el producto interno es lineal
respecto a la primera componente.
7. Sea f : R
3
R
2
denida por
f(x, y, z) = (x z, y + z).
Entonces f es una aplicacin lineal.
Demostracin. Sean u = (x
1
, x
2
, x
3
) y v = (y
1
, y
2
, y
3
) elementos de R
3
y R.
Entonces:
f(u + v) = f((x
1
, x
2
, x
3
) + (y
1
, y
2
, y
3
))
162 Aplicaciones lineales
= f(x
1
+ y
1
, x
2
+ y
2
, x
3
+ y
3
)
= (x
1
+ y
1
(x
3
+ y
3
), (x
2
+ y
2
) + (x
3
+ y
3
))
= ((x
1
x
3
) + (y
1
y
3
), (x
2
+ x
3
) + (y
2
+ y
3
))
= ((x
1
x
3
), (x
2
+ x
3
)) + (y
1
y
3
, y
2
+ y
3
)
= (x
1
x
3
, x
2
+ x
3
) + (y
1
y
3
, y
2
+ y
3
)
= f(x
1
, x
2
, x
3
) + f(y
1
, y
2
, y
3
).
Por lo tanto, la funcin f es una aplicacin lineal.
5.2 Isomorsmo entre espacios vectoriales
Denicin 5.2 (Isomorsmo) Una aplicacin f : V W es un isomorsmo entre V y W si y
solo si f es lineal y biyectiva. Dos espacios vectoriales V y W son isomorfos si y solo si existe
un isomorsmo de V sobre W. Se utilizar la notacin V
= W para indicar que V y W son
isomorfos.
Ejemplo 5.71
Sea f : P
n
[x] R
n+1
denida por
f(p) = (a
0
, a
1
, . . . , a
n
)
para todo p P
n
[x] tal que
p(x) =
n
j=1
a
j
x
j
.
Es f un isomorsmo entre P
n
[x] y R
n+1
?
Solucin.
1. Veamos si f es una aplicacin lineal. Para ello, sean R, p y q en P
n
[x], donde
p(x) =
n
j=1
a
j
x
j
y q(x) =
n
j=1
b
j
x
j
.
Entonces:
(p +q)(x) = p(x) +q(x) =
n
j=1
(a
j
+b
j
)x
j
.
Por lo tanto:
f(p +q) = (a
0
+b
0
, a
1
+b
1
, . . . , a
n
+b
n
)
= (a
0
, a
1
, . . . , a
n
) + (b
0
, b
1
, . . . , b
n
)
= (a
0
, a
1
, . . . , a
n
) + (b
0
, b
1
, . . . , b
n
)
= f(p) +f(q).
Es decir, f es una aplicacin lineal.
5.2 Isomorsmo entre espacios vectoriales 163
2. Veamos ahora si f es inyectiva. Para ello, supongamos que f(p) = f(q), donde
p(x) =
n
j=1
a
j
x
j
y q(x) =
n
j=1
b
j
x
j
.
Entonces
(a
0
, a
1
, . . . , a
n
) = (b
0
, b
1
, . . . , b
n
),
de donde, por la igualdad en R
n+1
, tenemos que a
j
= b
j
para todo j 0, 1, . . . , n. Por
lo tanto p = q. Es decir, f es inyectiva.
3. Finalmente, veamos si f es sobreyectiva. Para ello, sea v = (a
0
, a
1
, . . . , a
n
) R
n+1
. Vamos
a averiguar si existe p P
n
[x] tal que f(p) = v.
Si se dene
p(x) =
n
j=1
a
j
x
j
para todo x R, entonces es inmediato que f(p) = v. Es decir, f es sobreyectiva.
Tenemos, entonces, que la aplicacin f es lineal y sobreyectiva. Por lo tanto, es un isomorsmo
entre P
n
[x] y R
n+1
.
Teorema 5.4 El conjunto L(V, W) es un subespacio vectorial del espacio de todas las funciones
de V en W con las operaciones usuales. Es decir:
1. si f L(V, W) y g L(V, W), entonces f +g L(V, W); y
2. si f L(V, W) y K, entonces f L(V, W).
En otras palabras, la suma de aplicaciones lineales es una aplicacin lineal, y el producto de un
escalar y una aplicacin lineal es una aplicacin lineal.
Demostracin. Sean K, f L(V, W) y g L(V, W). Entonces, para todo u V
y todo v V :
(f + g)(u + v) = f(u + v) + g(u + v) denicin de suma de fun-
ciones,
= [f(u) + f(v)] + [g(u) + g(v)] f y g son aplicaciones li-
neales,
= [f(u) + g(u)] + [f(v) + g(v)] asociativa, conmutativa y
distributiva en W,
= (f + g)(u) + (f + g)(v) denicin de suma de fun-
ciones.
Por lo tanto, f + g L(V, W).
164 Aplicaciones lineales
Ahora probemos que f L(V, W) si K. Sean K, u V y v V .
Entonces:
(f)(u + v) = f(u + v) denicin del producto de un
escalar y una funcin,
= [f(u) + f(v)] f es una aplicacin lineal,
= f(u) + f(v) distributiva en W y conmuta-
tiva en K,
= (f)(u) + (f)(v) denicin del producto de un
escalar y una funcin.
Por lo tanto, f es una aplicacin lineal de V en W.
La composicin de dos aplicaciones lineales tambin es una aplicacin lineal, como
lo probamos a continuacin.
Teorema 5.5 Sean f L(V, W) y g L(W, U). Entonces g f L(V, U).
Demostracin. Sean K, u V y v V . Entonces:
(g f)(u + v) = g(f(u + v)) denicin de composicin de
funciones,
= g(f(u) + f(v)) f es lineal,
= g(f(u)) + g(f(v)) g es lineal,
= (g f)(u) + (g f)(v) denicin de composicin de
funciones.
Por lo tanto g f L(V, U).
Otra operacin que preserva la linealidad es la inversin de funciones.
Teorema 5.6 Sea f L(V, W) y biyectiva. Entonces f
1
L(W, V ).
Demostracin. Sean K, u W y v W. Vamos a probar que
f
1
(u + v) = f
1
(u) + f
1
(v).
Para ello, sea w = f
1
(u+v). Entonces, por la denicin de inversa, tenemos que
f(w) = u + v.
Ahora bien, como f es sobreyectiva, existen nicos u V y v V tales que
u = f( u) y v = f( v).
5.2 Isomorsmo entre espacios vectoriales 165
Por lo tanto,
f(w) = f( u) + f( v),
de donde, como f es lineal, tenemos lo siguiente:
f(w) = f( u + v).
Y, como f es inyectiva, entonces:
w = u + v,
que, como u = f
1
(u) y v = f
1
(v), equivale a:
f
1
(u + v) = f
1
(u) + f
1
(v).
Es decir, f
1
es una aplicacin lineal.
Ejemplo 5.72
Sean f : V U y g: U W tales que g f es lineal y g es lineal e inyectiva.
Probemos que f es lineal.
Solucin. Sean K, u V y w V . Vamos a probar que
f(u +v) = f(u) +f(v).
Como g f es lineal, tenemos que
(g f)(u +v) = (g f)(u) + (g f)(v).
De la denicin de compuesta, esta igualdad se escribe as:
(g f)(u +v) = g(f(u)) +g(f(v)).
Como g es lineal, tenemos que:
g(f(u +v)) = g(f(u) +f(v)).
Y, esta igualdad, junto con la inyectividad de g, implica que
f(u +v) = f(u) +f(v).
Es decir, f es lineal.
El siguiente ejemplo es similar al anterior, salvo que se elimina la hiptesis de que
g sea inyectiva. Se mantiene la conclusin de que f es lineal?
Ejemplo 5.73
Sean f : V U y g: U W tales que g f es lineal y g es lineal. Es f es lineal?
166 Aplicaciones lineales
Solucin. La condicin de inyectividad para g es inevitable para que f sea lineal. En efecto,
si f : R
2
R
2
denida por
f(x, y) = (x
2
, y),
entonces f no es lineal, como el lector puede vericar fcilmente.
Por otro lado, sea g la aplicacin lineal de R
2
en s mismo denida por
g(x, y) = (0, y).
Esta funcin es lineal pero no inyectiva. Lo primero es de demostracin sencilla. Lo segundo
se obtiene al observar que
g(1, 1) = (0, 1) = g(1, 1),
pero (1, 1) ,= (1, 1).
Finalmente, es fcil probar tambin que g f es lineal.
Teorema 5.7 Una aplicacin lineal de un espacio lineal de dimensin nita queda completamente
determinada por lo valores que tome en la base. De manera ms precisa, sean V es un espacio
de dimensin nita n y W un espacio vectorial, ambos sobre un campo K, B = e
i
una base
de V y f L(V, W). Entonces, f queda determinada por los valores f(e
i
).
Demostracin. Sea v V . Como B es una base de V , existen escalares
i
tales que
v =
n
j=1
j
e
j
.
Entonces, como f es lineal, tenemos que
f(v) =
n
j=1
j
f(e
j
).
Es decir, el valor de f(v) para todo v V queda determinado por f(e
j
), a ms de los
j
propios de v.
En otras palabras, para denir una aplicacin lineal en un espacio de dimensin
nita, es suciente con denir la aplicacin para cada uno de los elementos de una base
del espacio.
Ejemplo 5.74
Sea f L(R
2
, R
3
) tal que
f(1, 1) = (1, 2, 1) y f(1, 1) = (2, 1, 3).
Determinar f.
5.2 Isomorsmo entre espacios vectoriales 167
Solucin. Dado que B = (1, 1), (1, 1) es una base de R
2
, podemos obtener f(x, y) para
todo (x, y) R
2
.
Para ello, encontremos, en primer lugar, las coordenadas de (x, y) respecto de B. Sean
R y R tales que
(x, y) = (1, 1) +(1, 1).
Entonces, y satisfacen el siguiente sistema de dos ecuaciones lineales:
+ = x
+ =y,
cuya nica solucin es fcil hallar:
=
x y
2
y =
x +y
2
.
Entonces:
f(x, y) = f((1, 1) +(1, 1))
= f(1, 1) +f(1, 1)
= (1, 2, 1) +(2, 1, 3)
= ( + 2, 2 , + 3).
Como:
+ 2 =
x y
2
+ 2
x +y
2
=
3x +y
2
2 = 2
x y
2
x +y
2
=
x 3y
2
+ 3 =
x y
2
+ 3
x +y
2
= x + 2y,
se tiene que
f(x, y) =
_
3x +y
2
,
x 3y
2
, 2 + 2y
_
.
n
tales que
v =
n
j=1
j
v
j
.
Denamos la aplicacin f de V en W de la siguiente manera:
f(v) =
n
j=1
j
w
j
.
Dada la unicidad de los
j
, f est bien denida.
Ahora probemos que f es lineal y que f(v
j
) = w
j
para cada j con 1 j n.
168 Aplicaciones lineales
1. Sean u V y v V . Entonces existe escalares
j
y
j
tales que:
u =
n
j=1
j
v
j
y v =
n
j=1
j
v
j
.
Entonces, tenemos que
f(u) =
n
j=1
j
w
j
y f(v) =
n
j=1
j
w
j
.
Para K tenemos que:
u + v =
n
j=1
(
j
+
j
)v
j
.
Por lo tanto:
f(u + v) = f
_
n
j=1
(
j
+
j
)v
j
_
=
n
j=1
(
j
+
j
)w
j
=
n
j=1
j
w
j
+
n
j=1
j
w
j
= f(u) + f(v).
Es decir, f es lineal.
2. Para cada i con 1 i n, se tiene que
v
i
=
n
j=1
i
j
v
j
,
donde
i
j
=
_
1 si j = i,
0 si j ,= i.
Por lo tanto:
f(v
i
) =
n
j=1
i
j
w
j
= w
i
.
Finalmente, el lector puede probar fcilmente que f es nica.
Ejemplo 5.75
Sea
W =
_
(x, y, z) R
3
: x y +z = 0
_
.
Denir una aplicacin lineal de R
2
en W.
5.2 Isomorsmo entre espacios vectoriales 169
Solucin. Consideremos la base cannica en R
2
y los vectores w
1
= (1, 1, 0) y w
2
= (0, 1, 1)
son elementos de W. Entonces, por teorema 5.8, existe un nica aplicacin lineal f de R
2
en
W tal que
f(1, 0) = w
1
y f(0, 1) = w
2
.
Ahora bien, dado (x, y) R
2
, tenemos que
f(x, y) = f(x(1, 0) +y(0, 1))
= xf(1, 0) +yf(0, 1)
= xw
1
+yw
2
= x(1, 1, 0) +y(0, 1, 1)
= (x, x +y, y).
En resumen, f es una aplicacin de R
2
en W denida por
f(x, y) = (x, x +y, y).
j=1
j
v
j
y v =
n
j=1
j
v
j
.
Por lo tanto, de f(u) = f(v), obtenemos que
n
j=1
j
w
j
=
n
j=1
j
w
j
,
de donde:
n
j=1
(
j
j
)w
j
= 0.
Puesto que B
w
es linealmente independiente, entonces
j
j
= 0
para todo j tal que 1 j n.
Pero esto signica que
j
=
j
para todo j de donde u = v.
170 Aplicaciones lineales
2. Sobreyectividad: sea w W; debemos hallar v V tal que w = f(w).
Como B
w
es una base de W, existen escalares
j
tales que
w =
n
j=1
j
w
j
.
Dado que f(v
j
) = w
j
, el v que buscamos es
v =
n
j=1
j
v
j
.
En efecto, tenemos que
f(v) =
n
j=1
j
f(v
j
) =
n
j=1
j
w
j
= w.
Ejemplo 5.76
Sea f : R
3
R
3
denida por
f(x, y, z) = (x y +z, x +y +z, x +y z).
Probar que f es biyectiva.
Solucin. Es fcil probar que f es lineal. Ahora, apliquemos el teorema 5.9 para mostrar que
f es un isomorsmo, con lo cual probaremos que f es biyectiva.
Probemos, entonces, que f aplica la base cannica de R
3
en una base. De manera ms
precisa, probemos que el conjunto
B = f(1, 0, 0), f(0, 1, 0), f(0, 0, 1)
es linealmente independiente (con lo cual ya sabramos que es una base de R
3
).
El conjunto B es
B = (1, 1, 1), (1, 1, 1), (1, 1, 1).
Sean , y escalares tales que
(1, 1, 1) +(1, 1, 1) +(1, 1, 1) = 0.
Entonces estos escalares satisfacen el siguiente sistema de ecuaciones lineales:
+ = 0
+ + = 0
+ = 0.
Ahora bien, el determinante de este sistema es igual a:
1 1 1
1 1 1
1 1 1
1 1 1
0 2 0
1 1 1
= 2
1 1
1 1
= 4 ,= 0.
Por lo tanto, el sistema tiene una nica solucin y esa solucin es la trivial: = = = 0.
En resumen, f es un isomorsmo.
5.3 Ncleo de una aplicacin lineal 171
5.3 Ncleo de una aplicacin lineal
Denicin 5.3 (Ncleo) Sea f L(V, W). El ncleo de f, representado por A(f) es el con-
junto de todos los elementos v de V tales que f(v) = 0; es decir:
A(f) = v V : f(v) = 0.
En la caracterizacin de una aplicacin lineal, el ncleo, junto la imagen, juegan
un rol fundamental. Recordemos que la imagen de una funcin, en particular de una
aplicacin lineal f es el conjunto
Im(f) = w W : (v V )(f(v) = w).
Teorema 5.10 Sea f L(V, W). Entonces A(f) es un subespacio vectorial de V y Im(f) son
subespacio vectorial de W.
Demostracin.
1. En primer lugar, 0 A(f) pues f(0) = 0. Por otro lado, si K, u y v en A(f),
entonces:
f(u + v) = f(u) + f(v) = 0 + 0 = 0,
ya que f(u) = f(v) = 0. Por lo tanto u +v A(f). Hemos demostrado, entonces,
que A(f) es un subespacio vectorial de V .
2. Dado que f(0) = 0, se tiene que 0 Im(f). Adems, w
1
y w
2
en Im(f), entonces
existen v
1
y v
2
en V tales que
w
1
= f(v
1
) y w
2
= f(v
2
).
Ahora, si K, entonces
w
1
+ w
2
= f(v
1
) + f(v
2
) = f(v
1
+ v
2
).
Por lo tanto w
1
+w
2
Im(f), ya que v
1
+v
2
V . Esto prueba que Im(f) es un
subespacio vectorial de W.
Ejemplo 5.77
Sea f : R
3
R
3
denida por
f(x, y, z) = (x y +z, x +y +z, x 3y +z).
Encontrar la dimensin de A(f) y de Im(f).
Solucin.
172 Aplicaciones lineales
1. Para determinar la dimensin de A(f) caractericemos, en primer lugar, sus elementos; y
luego encontremos una base para l.
Dado que
A(f) = (x, y, z) : f(x, y, z) = 0 = (0, 0, 0)
= (x, y, z) : (x y +z, x +y +z, x 3y +z) = (0, 0, 0),
el ncleo de f es el conjunto solucin del sistema de tres ecuaciones con tres incgnitas
cuya matriz ampliada es la siguiente:
_
_
1 1 1 0
1 1 1 0
1 3 1 0
_
_
.
Ahora bien, tenemos que:
_
_
1 1 1 0
1 1 1 0
1 3 1 0
_
_
_
_
1 1 1 0
0 2 0 0
0 0 0 0
_
_
_
_
1 0 1 0
0 1 0 0
0 0 0 0
_
_
.
Por lo tanto:
A(f) = (x, y, z) : x +z = 0 y y = 0
= (x, 0, x) : x R.
Ahora, una base para A(f) la obtenemos as:
A(f) = (x, 0, x) : x R
= x(1, 0, 1) : x R
= (1, 0, 1) .
Y como el conjunto B = (1, 0, 1) es linealmente independiente (ya que tiene un so-
lo elemento diferente de 0), tenemos que B es una base para A(f), y, por lo tanto,
dim(A(f)) = 1.
2. Hagamos un procedimiento similar para obtener la dimensin de la imagen de f. Por un
lado, tenemos que:
Im(f) = (r, s, t) : ((x, y, z))(f(x, y, z) = (r, s, t))
= (r, s, t) : ((x, y, z))((x y +z, x +y +z, x 3y +z) = (r, s, t)).
Entonces, la imagen de f es el conjunto solucin del sistema de ecuaciones cuya matriz
ampliada es:
_
_
1 1 1 r
1 1 1 s
1 3 1 t
_
_
.
Con el mismo procedimiento realizado en el caso del ncleo, obtenemos que
_
_
1 1 1 r
1 1 1 s
1 3 1 t
_
_
_
_
1 0 1 r
0 2 0 s r
0 0 0 t 2r +s
_
_
.
5.3 Ncleo de una aplicacin lineal 173
Entonces:
Im(f) = (r, s, t) : t 2r +s = 0
= (r, s, 2r s) : r R, s R
= r(1, 0, 2) +s(0, 1, 1) : r R, s R.
Esto signica que
B = (1, 0, 2), (0, 1, 1)
genera Im(f). Adems, como B es linealmente independiente (algo que es fcil demostrar,
por lo que se deja al lector la tarea), tenemos que dim(Im(f)) = 2.
_
1 1 1 0
2 0 0 0
_
_
0 1 1 0
1 0 0 0
_
,
tenemos que
A(f) = (x, y, z) R
3
: x = 0, y = z = (0, z, z) : z R.
Por lo tanto, la solucin general del sistema 5.2 es:
(1, 1, 1) + (0, z, z) = (1, 1 +z, 1 +z)
para todo z R.
El siguiente teorema arma que la independencia lineal es conservada por las apli-
caciones lineales inyectivas.
Teorema 5.13 Sea f L(V, W) tal que A(f) = 0. Entonces, si B = v
1
, v
2
, . . . , v
n
V
es linealmente independiente, entonces S = f(v
1
), f(v
2
), . . . , f(v
n
) es linealmente indepen-
diente.
Demostracin. Sean
i
escalares tales que
n
j=1
i
f(v
i
) = 0.
Vamos a probar que
i
= 0 para todo i I
n
.
Dado que f es lineal, tenemos que
n
j=1
i
f(v
i
) = f
_
n
j=1
i
v
i
_
= 0.
5.3 Ncleo de una aplicacin lineal 175
Como el ncleo de f contiene nicamente a 0, esta igualdad implica que
n
j=1
i
v
i
= 0.
A su vez, esta igualdad implica que todos los
i
son iguales a 0, pues B es un conjunto
linealmente independiente. Por lo tanto, S tambin es linealmente independiente.
El siguiente teorema arma que la imagen por una aplicacin lineal de un conjunto
generador del espacio de salida es igual a la imagen de la aplicacin.
Teorema 5.14 Sea f L(V, W). Si B = v
1
, v
2
, . . . , v
n
genera V , entonces f(B) genera la
imagen Im(f) de f.
Demostracin.
1. Probemos que f(B) Im(f). Para ello, sea w f(B). Entonces existe escalares
j
tales que
w =
n
j=1
i
f(v
i
),
pues f(B) = f(v
i
) : i I
n
.
De la linealidad de f, obtenemos que:
w =
n
j=1
i
f(v
i
) = f
_
n
j=1
i
v
i
_
.
Si denimos
v =
n
j=1
i
v
i
,
entonces v V , ya que B genera V , y w = f(v). Por lo tanto, existe v V tal que
w = f(v). Esto signica que w Im(f).
2. Ahora probemos que Im(f) f(B). Para ello, sea w Im(f). Existe, entonces,
v V tal que w = f(v). Como B genera V , entonces existen escalares
j
tales que
v =
n
j=1
j
v
j
.
Entonces
w = f(v) = f
_
n
j=1
j
v
j
_
=
n
j=1
j
f(v
j
).
Es decir, w f(B).
176 Aplicaciones lineales
Corolario 5.15 Sea f L(V, W) tal que A(f) = 0. Entonces, B = v
j
: j I
n
es una
base de V si y solo si S = f(B) es una base de Im(f).
En otras palabras, la dimensin de la imagen de f es igual a la dimensin de V .
Demostracin. Si el conjunto B es una base de V , entonces B es linealmente inde-
pendiente y genera V . Por lo tanto, dado que f es inyectiva, ya que A(f) = 0
(teorema 5.11), por el teorema 5.13, f(B) es linealmente independiente; y por el teo-
rema 5.14, f(B) genera Im(f). Por lo tanto, f(B) es una base de Im(f).
Recprocamente, si f(B) es una base de Im(f), entonces es un conjunto linealmente
independiente y genera Im(f). Probemos que B es una base de V .
Para ello, sea v V . Entonces f(v) Im(f). Por lo tanto, existe escalares
j
tales
que
f(v) =
n
j=1
j
f(v
j
).
Por la linealidad de f, de esta igualdad obtenemos que:
f(v) = f
_
n
j=1
j
v
j
_
.
Y por la inyectividad de f, esta igualdad implica que:
v =
n
j=1
j
v
j
.
Por lo tanto, B genera V .
Ahora probemos que B es linealmente independiente. Sean
j
escalares tales que
n
j=1
j
v
j
= 0.
Entonces, por la linealidad de f, obtenemos que:
f
_
n
j=1
j
v
j
_
=
n
j=1
j
f(v
j
) = f(0) = 0.
Como f(B) es linealmente independiente, concluimos que todos los
j
son iguales a 0.
Entonces, f(B) es linealmente independiente.
Teorema 5.16 Sea f L(V, W) con V un espacio de dimensin nita. Entonces:
dim(V ) = dim(A(f)) + dim(Im(f)).
Demostracin.
5.3 Ncleo de una aplicacin lineal 177
1. Supongamos que A(f) = V . Entonces f(u) = 0 para todo v V . Por lo tanto,
Im(f) = 0. Entonces
dim(A(f)) + dim(Im(f)) = dim(V ) + 0 = dim(V ).
2. Supongamos que A(f) ,= V . Sea u V tal que f(u) ,= 0. Entonces Im(f) ,= 0.
Si A(f) = 0, por el corolario 5.15, la dimensin de Im(f) es igual a la dimensin
de V . Entonces:
dim(V ) = dim(Im(f)) = dim(Im(f)) + dim(A(f)),
ya que dim(A(f)) = 0.
Ahora supongamos que A(f) ,= 0. Sean W = w
j
: j I
s
una base de Im(f)
y B = v
j
: j I
s
donde f(v
j
) = w
j
. De la denicin de funcin, se colige que la
cardinalidad de B es s.
Sea C = u
k
: k I
r
con r < s una base para A(f). Probemos que
T = v
j
, u
k
: j I
s
, k I
r
es una base para V , lo que probara que la dimensin de V es igual a la suma de las
dimensiones del ncleo y de la imagen.
En primer lugar, si v V , entonces f(v) est en Im(f). Existen, entonces, s escalares
j
tales que
f(v) =
s
j=1
j
w
j
=
s
j=1
j
f(v
j
).
De esta igualdad, por la linealidad de f, obtenemos que:
f
_
v
s
j=1
j
v
j
_
= 0.
Entonces
v
s
j=1
j
v
j
A(f) .
Por lo tanto, existen r escalares
j
tales que
v
s
j=1
j
v
j
=
r
j=1
j
u
j
.
Entonces, se verica que
v =
s
j=1
j
v
j
+
r
j=1
j
u
j
.
Por lo tanto v T; es decir, T genera V .
Ahora probemos que T es linealmente independiente. Para ello, sean
j
s escalares
y
j
r escalares tales que
r
j=1
j
v
j
+
s
j=1
j
u
j
= 0. (5.3)
178 Aplicaciones lineales
Entonces:
f
_
r
j=1
j
v
j
+
s
j=1
j
u
j
_
=
r
j=1
j
f(v
j
) +
s
j=1
j
f(u
j
)
=
r
j=1
j
w
j
= 0,
ya que u
j
A(f).
Como B es linealmente independiente, tenemos que los
j
= 0 para todo j I
s
.
Entonces, la igualdad 5.3 se expresa de la siguiente manera:
s
j=1
j
u
j
= 0.
Pero C es linealmente independiente. Entonces, esta ltima igualdad implica que
j
= 0 para todo j I
r
, lo que termina por demostrar que T es linealmente
independiente y, por lo tanto, es una base para V .
Teorema 5.17 Sean V y W dos espacios vectoriales de dimensin n y f L(V, W). Entonces
f es inyectiva si y solo si es sobreyectiva.
Demostracin.
1. Supongamos que f es inyectiva. Entonces dim(V ) = dim(Im(f)), ya que A(f) =
0. Como dimW = n, entonces dim(Im(f)) = n, de donde Im(f) = W; es decir, f
es sobreyectiva.
2. Ahora supongamos que f es sobreyectiva. Por el teorema de la dimensin, esto
signica que dim(A(f)) = 0, de donde A(f) = 0; es decir, f es inyectiva.
Teorema 5.18 Sea f L(V, W) con V y W espacios de dimensin nita. Entonces, si f es
biyectiva, entonces dim(V ) = dim(W).
Demostracin. Como f es inyectiva, A(f) = 0, de donde, por el teorema de la
dimensin tenemos que
dim(V ) = dim(Im(f)).
Como f es sobreyectiva, Im(f) = W; entonces, dim(V ) = dim(W).
5.3 Ncleo de una aplicacin lineal 179
Ejemplo 5.79
Sea f L(V, V ) tal que
f
2
2f +I
V
= 0,
donde I
V
es la identidad en V y f ,= I
V
. Demostrar que existe u V tal que u ,= 0
y f(u) = u. El vector u se denomina punto jo de f.
Solucin. Sea v V . Entonces
(f
2
2f +I
V
)(v) = 0.
Por lo tanto:
f(f(v)) 2f(v) +I
V
(v) = f(f(v)) f(v) f(v) +v
= [f(f(v)) f(v)] [f(v) v]
= f(f(v) v) [f(v) v] = 0.
De modo que
f(f(v) v) = f(v) v.
Como f ,= I
V
, existe w V tal que f(w) ,= w. Sea, entonces, u = f(w) w. Esto signica
que u ,= 0 y que
f(u) = f(f(w) w) = f(w) w = u.
Ejemplo 5.80
Sean f y g elementos de L(V, V ). Demuestre que:
1. Si f = f g y g = g f, entonces A(f) = A(g).
2. Si f = f f, entonces A(I
V
f) = Im(f).
3. A(f) Im(f) = 0 si y solo si f(f(v)) = 0 f(v) = 0.
Solucin.
1. Sea v A(f). Entonces f(v) = 0. Por lo tanto:
g(v) = g(f(v)) = g(0) = 0.
Es decir, v A(g).
Hemos demostrado, entonces, que A(f) A(g). El mismo razonamiento, pero aplicando
la hiptesis f = f g nos permite establecer que A(g) A(f).
2. Sea v A(I
V
f). Entonces (I
v
f)(v) = 0; es decir, se verica que f(v) = v. Por lo
tanto, v Im(f).
Recprocamente, si v Im(f), existe u V tal que v = f(u). Entonces
f(v) = f(f(u)) = (f f)(u) = f(u) = v.
Por lo tanto, f(v) = I
V
(v), de donde v A(I
V
f).
180 Aplicaciones lineales
3. (a) Supongamos que A(f) Im(f) = 0. Sea v V tal que f(f(v)) = 0. Entonces
f(v) A(f). Pero f(v) Im(f); es decir, v A(f) Im(f). Como el nico elemento
comn entre A(f) y Im(f) es el vector 0, entonces, necesariamente, f(v) = 0.
(b) Supongamos que f(f(v)) = 0 f(v) = 0. Sea u A(f) Im(f). Vamos a demostrar
que u = 0.
Como u Im(f), existe v V tal que f(v) = u. Por lo tanto, f(f(v)) = f(u) = 0,
pues u A(f). Entonces, por hiptesis, f(v) = 0; es decir, u = 0, ya que u = f(v).
Ejemplo 5.81
Existe una aplicacin lineal f de R
2
en R
3
tal que
A(f) = 2, 1 y Im(f) = 1, 1, 1 ?
En el caso de que exista tal aplicacin, describirla. Es nica?
Solucin. El teorema de la dimensin (teorema 5.16) asegura que si f es lineal, entonces
dim(A(f)) + dim(Im(f)) = dim(R
2
).
Como las dimensiones de los conjuntos A = 2, 1 y B = 1, 1, 1 son 1 y 1, respec-
tivamente, entonces, en caso de existir tal f, su existencia no contradira con el teorema de la
dimensin. De modo que, podemos intentar encontrar una tal f.
Para la construccin de f, podemos utilizar la idea de la demostracin del teorema de la
dimensin para encontrar una base del espacio de salida, R
2
a partir de las bases de A(f) y
de Im(f), respectivamente.
Si el lector lee con atencin la demostracin citada, encontrar que, si f es una aplicacin
lineal con ncleo del conjunto A y con imagen el conjunto B, entonces una base para R
2
es
la siguiente: C = (2, 1), (x
1
, x
2
), donde f(x
1
, x
2
) = (1, 1, 1). Por lo tanto, para denir f
basta elegir (x
1
, x
2
) tal que C sea linealmente independiente (con lo cual ya ser una base de
R
2
) y asignar (1, 1, 1) como imagen de (x
1
, x
2
) bajo f.
Por ejemplo, (x
1
, x
2
) puede ser el vector (1, 0). Entonces, f(1, 0) = (1, 1, 1). Ahora, para
cualquier (x, y), ya que C es una base de R
2
, existen escalares y tales que
(x, y) = (1, 0) +(2, 1).
Es fcil mostrar que = x 2y y que = y.
Ya podemos determinar f:
f(x, y) = f((1, 0) +(2, 1)) = f(1, 0) +f(2, 1)
= (1, 1, 1) + 0 = (x 2y)(1, 1, 1)
= (x 2y, x 2y, 2y x).
El lector puede comprobar fcilmente que f es lineal y que su ncleo e imagen son los
indicados en el enunciado del ejemplo. Adems puede constatar que f no es nica, porque
depende de el elemento que se elija para denir la base C; por ejemplo, determine el lector la
aplicacin f que se obtiene si se elige (0, 1) para obtener C.
Aplicaciones
lineales y
matrices 6
En este captulo, los elementos de K
n
sern vistos tanto como vectores que se escriben
horizontalmente:
X = (x
1
, x
2
, . . . , x
n
)
o como matrices de n las y una columna:
X = (x
1
, x
2
, . . . , x
n
)
t
=
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
6.1 Aplicacin lineal asociada a una matriz
Teorema 6.1 Dada la matriz A = (a
ij
) M
mn
, la aplicacin f
A
denida por
f
A
: K
n
K
m
X f
A
(X) = AX
es una aplicacin lineal; es decir, f
A
L(K
n
, K
m
). Esta aplicacin se denomina aplicacin
lineal asociada a la matriz A.
Demostracin. Las propiedades de espacio vectorial del espacio de matrices nos permite
probar que f
A
es lineal. Para ello, sean X y Y en K
n
y en K. Entonces:
f
A
(X + Y ) = A(X + Y )
= A(X) + AY
= AX + AY = f
A
(X) + f
A
(Y ).
Ejemplo 6.82 Dada la matriz
A =
_
1 1 1
2 1 0
_
,
182 Aplicaciones lineales y matrices
la aplicacin lineal asociada es f
A
: R
3
R
2
tal que
f
A
(x, y, z) = A
_
_
x
y
z
_
_
.
Puesto que
AX =
_
1 1 1
2 1 0
_
_
_
x
y
z
_
_
=
_
x y +z
2x y
_
,
tenemos que
f
A
(x, y, z) = (x y +z, 2x y).
j=1
x
j
e
j
.
Por lo tanto, de la linealidad de f, tenemos que
f(x) =
n
j=1
x
j
f(e
j
).
Pero, como f(e
j
) K
m
, existen escalares a
ij
tales que
f(e
i
) =
m
i=1
a
ij
f
i
.
Por lo tanto:
f(x) =
n
j=1
x
j
_
m
i=1
a
ij
f
i
_
f
i
=
m
i=1
_
n
j=1
a
ij
x
j
_
f
i
.
Por lo tanto:
f(x) =
_
n
j=1
a
ij
x
j
_
= Ax
t
,
donde
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
.
Las columnas de la matriz A son, entonces, las coordenadas de las imgenes de los
elementos de la base cannica de K
n
bajo f respecto de la base cannica de K
m
.
Denicin 6.1 (Matriz asociada a una aplicacin lineal) La matriz A se denomina matriz aso-
ciada a la aplicacin lineal f respecto de las bases cannicas C
m
y C
n
. Se la representa
as:
A = [f]
Cn
Cm
.
Si las bases estn sobre entendidas, entonces se escribir simplemente [f] para indicar la matriz
A.
184 Aplicaciones lineales y matrices
Ejemplo 6.83 Sea f L(R
3
, R
2
) denida por
f(x, y, z) = (x +z, y 2z).
Vamos a encontrar la matriz asociada a f respecto de las bases cannicas de R
3
y R
2
respec-
tivamente.
Recordemos que los conjuntos
B
1
= (1, 0, 0), (0, 1, 0), (0, 0, 1) y B
1
= (1, 0), (0, 1),
son las bases cannicas de R
3
y R
2
respectivamente. De la demostracin del teorema 6.3, la
matriz asociada a f es de orden 2 3 y tiene por columnas las coordenadas de las imgenes
de los vectores de la base cannica de R
3
respecto de la base cannica de R
2
. Por ello, el
procedimiento que vas a seguir es el siguiente:
1. Calcular f(C
1
), la imagen de cada uno de los elementos de la base cannica de R
3
.
2. Calcular las coordenadas de cada elemento de f(C
1
) respecto de C
2
.
Procedamos.
1. f(1, 0, 0) = (1+0, 00) = (1, 0), f(0, 1, 0) = (0, 10) = (0, 1) y f(0, 0, 1) = (0+1, 02) =
(1, 2).
2. [f(1, 0, 0)]
C
2
=
_
1
0
_
, [f(, 1, 0)]
C
2
=
_
0
1
_
y [f(, 0, 1)]
C
2
=
_
1
2
_
.
Por lo tanto, la matriz asociada a f es:
A = [f]
C
1
C
2
=
_
1 0 1
0 1 2
_
.
Por la construccin de A, debe vericarse que f(x) = AX
t
, lo que sucede efectivamente:
_
1 0 1
0 1 2
_
_
_
x
y
z
_
_
=
_
x + 0 +z
0 +y 2z
_
=
_
x +z
y 2z
_
.
x
x
y
u
f(u)
Para ello, encontremos la ley de asignacin de f en
primer lugar. En el dibujo, est la informacin necesaria
para calcular f(u) dado u. Tenemos, entonces que si u =
(x, y), entonces
x = [[u[[ cos y y = [[u[[ sen .
Adems, si (x
, y
) = f(u), entonces
x
= [[f(u)[[ cos( +) y y
= xcos y sen y y
= y cos +xsen .
Por lo tanto, para cada (x, y) R
2
, f se dene as:
f(x, y) = (xcos y sen, y cos +xsen ).
Ahora bien, calculemos las coordenadas de f(1, 0) y f(0, 1) respecto a la base cannica.
Puesto que
f(1, 0) = (cos 0, 0 + sen ) = (cos , sen)
f(0, 1) = (0 sen , cos + 0) = (sen , cos ),
tenemos que:
[f(1, 0)] = (cos , sen ) y [f(0, 1)] = (sen , cos ).
Por lo tanto, la matriz asociada a f es:
A = [f] =
_
cos sen
sen cos
_
.
Por ejemplo, el vector que resulta de rotar 45 grados al vector (2, 1) tiene por coordenadas
_
cos 45 sen45
sen 45 cos 45
__
2
1
_
=
_
_
_
_
2
2
2
2
2
2
2
2
_
_
_
_
_
2
1
_
=
_
_
_
_
2
2
3
2
2
_
_
_
_
.
j=1
x
j
f(v
j
).
Existen, entonces, escalares
ij
tales que
f(v
j
) =
m
i=1
ij
w
i
para cada j I
n
.
Por lo tanto:
f(v) =
n
j=1
x
j
m
i=1
ij
w
i
=
n
i=1
_
n
j=1
ij
x
j
_
w
i
.
Tenemos, entonces, que:
[f(v)]
B
2
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
n
j=1
1j
x
j
n
j=1
2j
x
j
.
.
.
n
j=1
mj
x
j
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
x
1
x
2
.
.
. x
n
_
.
De manera que:
[f(v)]
B
2
= Av.
Como se puede ver, la matriz A es la matriz cuyas columnas son las coordenadas
de las imgenes de los vectores de la base B
1
bajo f respecto a la base B
2
. La matriz
A es denominada matriz asociada a la aplicacin lineal f respecto a las bases
ordenadas B
1
y B
2
. Se la suele representar con [f]
B
1
B
2
.
Con esta notacin, la propiedad de la matriz asociada se expresa de la siguiente
manera:
[f(v)]
B
2
= [f]
B
1
B
2
[v]
B
1
.
6.2 Matriz asociada a una aplicacin lineal 187
Ejemplo 6.85 La aplicacin f L(M
22
, P
2
[x]) se dene por
f
_
a b
c d
_
= a + (b c)x +dx
2
.
Encontremos la matriz asociada a f respecto a las bases cannicas:
B
1
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
y B
2
= 1, x, x
2
.
Para ello, es suciente con calcular las imgenes de los elementos de la base B
1
bajo f:
f
_
1 0
0 0
_
= 1 + (0 0)x + 0x
2
= 1,
f
_
0 1
0 0
_
= 0 + (1 0)x + 0x
2
= x,
f
_
0 0
1 0
_
= 0 + (0 1)x + 0x
2
= x,
f
_
0 0
0 1
_
= 0 + (0 0)x + 1x
2
= x
2
.
Entonces, las coordenadas de esta cuatro imgenes respecto a la base cannica dan la siguiente
matriz:
[f] =
_
_
_
_
1 0 0 0
0 1 1 0
0 0 0 0
0 0 0 1
_
_
_
_
.
Ahora calculemos la matriz de f, pero respecto de las siguientes bases:
B
1
=
__
1 1
0 0
_
,
_
0 1
1 0
_
,
_
0 0
1 1
_
,
_
1 0
0 1
__
y B
2
= 1 x, x
2
, x +x
2
.
Para ello, debemos obtener las imgenes de los elementos de la base B
1
bajo f y, luego,
las coordenadas de estas imgenes respecto de la base B
2
. Empecemos con el clculo de las
imgenes:
f
_
1 1
0 0
_
= 1 + (1 0)x + 0x
2
= 1 +x,
f
_
0 1
1 0
_
= 0 + (1 1)x + 0x
2
= 2x,
f
_
0 0
1 1
_
= 0 + (0 1)x +x
2
= x +x
2
,
f
_
1 0
0 1
_
= 1 + (0 0)x +x
2
= 1 +x
2
.
Ahora encontremos las coordenadas de estos cuatro vectores respecto de la base B
2
. Para
ello, encontremos una frmula general para encontrar las coordenadas cualquier elemento de
P
2
[x].
Sea p P
2
[x] tal que p(x) = a +bx +cx
2
. Buscamos los escalares
j
tales que
a +bx +cx
2
=
1
(1 x) +
2
(x
2
) +
3
(x +x
2
).
188 Aplicaciones lineales y matrices
De esta igualdad, obtenemos que los escalares
j
deben satisfacer el siguiente sistema de
ecuaciones lineales:
1
= a
1
+
3
= b
2
+
3
=c.
Las siguientes equivalencias:
_
_
1 0 0 a
1 0 1 b
0 1 1 c
_
_
_
_
1 0 0 a
0 0 1 a +b
0 1 1 c
_
_
_
_
1 0 0 a
0 0 1 a +b
0 1 0 a b +c
_
_
,
implican que
1
= a,
2
= a +b y
3
= a b +c. Entonces:
[a +bx +cx
2
]
B
2
= (a, a +b, a b +c).
Con ayuda de esta frmula, obtenemos las coordenadas de las cuatro imgenes calculadas:
_
f
_
1 1
0 0
__
B
2
= [1 +x]
B
2
= (1, 2, 2),
_
f
_
0 1
1 0
__
B
2
= [2x]
B
2
= (0, 2, 2),
_
f
_
0 0
1 1
__
B
2
= [x +x
2
]
B
2
= (0, 2, 1),
_
f
_
1 0
0 1
__
B
2
= [1 +x
2
]
B
2
= (1, 0, 1).
Y ya podemos obtener la matriz asociada a f respecto de las bases B
1
y B
2
:
[f]
B
1
B
2
=
_
_
1 0 0 1
2 2 2 0
2 2 1 1
_
_
.
Con ayuda de esta matriz podemos calcular las coordenadas del vector
_
f
_
1 1
0 0
__
B
2
.
Para ello, usaremos la matriz [f]
B
1
B
2
, pues se verica la igualad siguiente:
[f(x)]
B
2
= [f]
B
1
B
2
[x]
t
B
1
.
Entonces, lo que primero tenemos que hacer es obtener las coordenadas de x respecto de B
1
.
Estas coordenadas son la solucin del sistema cuya matriz ampliada es:
_
_
_
_
1 0 0 1 1
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
_
_
_
_
.
Y, puesto que
_
_
_
_
1 0 0 1 1
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0
1
2
0 1 0 0
1
2
0 0 1 0
1
2
0 0 0 1
1
2
_
_
_
_
_
_
_
_
_
_
_
,
6.2 Matriz asociada a una aplicacin lineal 189
tenemos que
[x]
B
1
= (
1
2
,
1
2
,
1
2
,
1
2
).
Por lo tanto:
_
f
_
1 1
0 0
__
B
2
=
_
_
1 0 0 1
2 2 2 0
2 2 1 1
_
_
_
_
_
_
1
2
1
2
1
2
1
2
_
_
_
_
=
_
1 1 1
_
.
Denicin 6.2 (Rango de una aplicacin lineal) Sea f L(V, W) donde V y W tienen di-
mensin nita. Sea A la matriz asociada a f respecto a dos bases cualesquiera en V y W
respectivamente. Entonces, el rango de f es la diferencia entre la dimensin de V y el ncleo
de f:
ran(f) = dim(V ) dimA(f) .
Por lo tanto, el rango de f es igual a la dimensin de la dimensin de la imagen de f.
Cuando el espacio de salida y el de llegada sean el mismo y la matriz asociada sea
respecto de la misma base en ambos espacios, por ejemplo si B es la base, entonces
usaremos la notacin [f]
B
para la matriz asociada.
Ejemplo 6.86
Sea f L(C
2
, C
2
) denida por
f(z
1
, z
2
) = (z
1
, (1 +)z
2
z
1
).
El conjunto
B = (, 0), (0, 1)
es una base de C
2
sobre C. Calculemos la matriz asociada a f respecto de B.
Solucin. En primer lugar, calculemos las imgenes de los elementos de la base B:
f(, 0) = (, (1 +) 0 ) = (1, ),
f(0, 1) = ( 0, (1 +) 1 0) = (0, 1 +).
Ahora bien, las coordenadas de cualquier elemento (z
1
, z
2
) de C
2
respecto de B se obtienen
de la siguiente equivalencia:
_
0 z
1
0 1 z
2
_
_
1 0 ()z
1
0 1 z
2
_
.
Entonces
[(z
1
, z
2
)]
B
= (()z
1
, z
2
).
En particular, para calcular [f(, 0)]
B
, hacemos z
1
= 1 y z
2
= . Entonces:
[f(, 0)]
B
= (()(1), ) = (, ).
190 Aplicaciones lineales y matrices
Y, para calcular [f(0, 1)]
B
, hacemos z
1
= 0 y z
2
= 1 +. Entonces:
[f(0, 1)]
B
= (()(0), 1 +) = (0, 1 +).
Por lo tanto:
[f]
B
=
_
0
1 +
_
.
Ejemplo 6.87
Sea f L(R
3
, R
3
) denida por
f(x, y, z) = (y z, x +z, x +y).
El conjunto
B = (1, 1, 0), (1, 0, 1), (0, 1, 1)
es una base para R
3
.
1. Calcular la matriz asociada a f respecto de B y C (la primera vista como base
del espacio de salid y la segunda, como base del espacio de llegada).
2. Si f es invertible, determinar f
1
.
Solucin.
1. Las imgenes bajo f de cada elemento de B son:
f(1, 1, 0) = (1, 1, 0),
f(1, 0, 1) = (1, 2, 1),
f(0, 1, 1) = (0, 1, 1).
Por lo tanto:
[f(1, 1, 0)]
C
= (1, 1, 0),
[f(1, 0, 1)]
C
= (1, 2, 1),
[f(0, 1, 1)]
C
= (0, 1, 1).
Entonces:
[f]
B
C
=
_
_
1 1 0
1 2 1
0 1 1
_
_
.
2. Se tiene que [[f]
B
C
[ = 4. Por lo tanto, la matriz asociada es invertible. Esto signica que
[f]
B
C
[x]
B
= 0 =[x]
B
= 0. (6.1)
Por lo tanto, si x A(f), entonces f(x) = 0, de donde, por la implicacin (6.1), todas las
coordenadas de x respecto de B son iguales a 0; es decir x = 0. Por lo tanto A(f) = 0.
Entonces, f es invertible.
Para hallar f
1
debemos resolver la ecuacin
f(x, y, z) = (a, b, c) (6.2)
6.3 Matriz de cambio de base 191
para todo (a, b, c) R
3
, pues
f
1
(a, b, c) = (x, y, z).
La igualdad (6.2) implica que (x, y, z) deben satisfacer el siguiente sistema de ecuaciones
lineales:
y z =a
x + +z = b
x +y = c
.
Como la solucin de este sistema es
x =
1
2
(a +b c), y =
1
2
(a +b +c) y z =
1
2
(a +b +c),
entonces
f
1
(a, b, c) =
1
2
(a +b c, a +b +c, a +b +c).
_
0 5 a + 2b
1 2 b
_
_
0 1
a+2b
5
1 2 b
_
_
0 1
a+2b
5
1 0
2ab
5
_
.
Por lo tanto:
[(a, b)]
T
=
_
2a b
5
,
a + 2b
5
_
.
En particular:
[(1, 1)]
T
=
_
2 1
5
,
1 + 2
5
_
=
_
1
5
,
3
5
_
[(1, 1)]
T
=
_
2 1
5
,
1 + 2
5
_
=
_
3
5
,
1
5
_
.
Tenemos ya la matriz de transicin de S a T:
[I
R
3]
S
T
=
_
_
_
1
5
3
5
3
5
1
5
_
_
_.
2. La matriz de transicin de T a S es la matriz inversa de la matriz de transicin de S a T.
Por lo tanto:
[I
R
3]
T
S
=
_
[I
R
3]
S
T
_
1
=
_
1
5
3
5
3
5
1
5
_
1
=
_
1
5
_
1 3
3 1
__
1
= 5
_
1 3
3 1
_
1
= 5
1
10
_
1 3
3 1
_
.
6.3 Matriz de cambio de base 195
3. Dado que
[(3, 4)]
S
=
_
1
2
7
2
_
,
tenemos que
[(3, 4)]
B
=
_
1
5
3
5
3
5
1
5
__
1
2
7
2
_
=
_
2
1
_
.
Ejemplo 6.90
Sea
L(R
2
, R
2
) una rotacin de unidades. Entonces:
1. Una rotacin de unidades seguida de una de unidades es igual a una nica
rotacin de + unidades; es decir:
=
+
.
2. Deshacer una rotacin de unidades es igual a realizar una rotacin de
unidades. Es decir:
.
Solucin.
1. Dado que [
] = [
][
] = [
][
]
=
_
cos sen
sen cos
__
cos sen
sen cos
_
=
_
cos cos sen sen cos sen sen cos
sen cos + cos sen cos cos sen sen
_
=
_
cos( +) sen( +)
sen( +) cos( +)
_
= [
+
].
Por lo tanto, se verica que
=
+
.
2. Dado que [
1
] = [
]
1
y que:
[
1
] = [
]
1
=
_
cos sen
sen cos
_
1
=
_
cos sen
sen cos
_
=
_
cos() sen()
sen() cos()
_
= [
].
Por lo tanto, se verica que
1
.
196 Aplicaciones lineales y matrices
Teorema 6.9 Sean V y W dos espacios vectoriales tales que dim(V ) = n y dim(W) = m,
f L(V, W), S
1
y S
2
dos bases ordenadas de V , y T
1
y T
2
dos bases ordenadas de W.
Entonces:
[f]
S
2
T
2
= Q
1
[f]
S
1
T
1
P,
donde P = [I
V
]
S
2
S
1
y Q = [I
W
]
T
2
T
1
.
Demostracin. Con ayuda de siguiente diagrama, podemos visualizar las relaciones
existentes entre las coordenadas de v y f(v) segn las bases que se elijan en los espacios
V y W:
(V, S
1
)
f
(W, T
1
)
I
V
_
I
W
(V, S
2
)
f
(W, T
2
)
Por ejemplo, si leemos la segunda lnea horizontal, tenemos que para todo v V :
[f(v)]
T
2
= [f]
S
2
T
2
[v]
S
2
. (6.4)
Ahora, si leemos la columna de la derecha, tenemos que
[f(v)]
T
2
= [I
W
]
T
1
T
2
[f(v)]
T
1
. (6.5)
En cambio, la la superior nos dice que
[f(v)]
T
1
= [f]
S
1
T
1
[v]
S
1
. (6.6)
Entonces, de las igualdades (6.6) y (6.5), obtenemos que
[f(v)]
T
2
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[v]
S
1
. (6.7)
Por lo tanto, de las igualdades (6.4) y (6.7), resulta que
[f]
S
2
T
2
[v]
S
2
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[v]
S
1
. (6.8)
Ahora, la lectura de la columna de la izquierda nos informa que
[v]
S
1
= [I
V
]
S
2
S
1
[v]
S
2
,
que al reemplazar el lado derecho de esta igualdad en (6.8) nos permite proceder de la
siguiente manera:
[f]
S
2
T
2
[v]
S
2
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[v]
S
1
= [I
W
]
T
1
T
2
[f]
S
1
T
1
[I
V
]
S
2
S
1
[v]
S
2
=
_
[I
W
]
T
2
T
1
_
1
[f]
S
1
T
1
[I
V
]
S
2
S
1
[v]
S
2
.
Por lo tanto:
[f]
S
2
T
2
=
_
[I
W
]
T
2
T
1
_
1
[f]
S
1
T
1
[I
V
]
S
2
S
1
,
que es lo que queramos demostrar.
6.3 Matriz de cambio de base 197
Ejemplo 6.91
Dada
[f]
T
S
=
_
_
1 0 1
0 1 1
1 1 0
_
_
,
donde
B = (1, 1, 0), (1, 0, 1), (0, 1, 1)
y S es una base de R
3
.
1. Determinar [I
R
3]
C
B
, donde C es la base cannica de R
3
.
2. Determinar [f]
C
S
.
Solucin. En primer lugar, del teorema (6.9), tenemos que
[f]
B
S
= [I
R
3]
S
S
[f]
B
S
[I
R
3]
C
B
= [f]
B
S
[I
R
3]
C
B
, (6.9)
ya que [I
R
3]
S
S
= I.
1. Como C es la base cannica, la matriz [I
R
3]
B
C
tiene por columnas las coordenadas de los
elementos de B respecto de C. Por lo tanto:
[I
R
3]
B
C
=
_
_
1 1 0
1 0 1
0 1 1
_
_
.
Entonces
[I
R
3]
C
B
=
_
[I
R
3]
B
C
_
1
=
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
.
2. Ahora ya podemos calcular [f]
C
S
a partir de la igualdad (6.9):
[f]
C
S
= [f]
B
S
[I
R
3]
C
B
=
_
_
1 1 0
1 0 1
0 1 1
_
_
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
=
1
2
_
_
1 0 1
0 0 1
0 1 1
_
_
.
En este ltimo ejemplo, podemos ver que las dos matrices que representan a f, la
segunda es diagonal. Esto la hace ms sencilla en el sentido de que en las operaciones
que se hagan con ella, el trabajo requiere menos esfuerzo (por la presencia de los ceros,
excepto en la diagonal).
Denicin 6.3 (Matrices semejantes) Dos matrices cuadradas A y B de orden n son semejan-
tes o similares si existe una matriz P inversible tal que B = P
1
AP.
De esta denicin, es inmediato que dos matrices asociadas a una misma aplica-
cin lineal f de un espacio vectorial en s mismo son siempre semejantes, gracias al
corolario 6.10 en la pgina 197.
6.3 Matriz de cambio de base 199
Denicin 6.4 (Diagonizable) Sean V un espacio vectorial de dimensin nita y f L(V, V ).
Una base B de V diagonaliza a f si y solo si la matriz asociada a f respecto a B, es de-
cir, la matriz [f]
B
B
, es una matriz diagonal. En este caso, se dice que la aplicacin lineal f es
diagonizable.
No toda matriz es diagonizable. En el siguiente captulo, se establecern condiciones
necesarias y sucientes para que una matriz sea diagonizable.
Teorema 6.11 Sean V un espacio vectorial real de dimensin n, B
1
= u
j
y B
2
= v
j
dos
bases ortonormales de V . Entonces la matriz [I
V
]
B
1
B
2
es ortogonal.
Demostracin. Sea P = [I
V
]
B
1
B
2
. Debemos probar que P
1
= P
t
. Para ello, calculemos
en primer lugar P y luego P
1
.
1. Dado que B
2
es una base ortonormal de V , para cada j, podemos escribir u
j
de
la siguiente manera:
u
j
=
n
i=1
u
j
, v
i
v
i
.
Por lo tanto, las coordenadas de u
j
respecto de B
2
son:
[u
j
]
B
2
= (u
j
, v
1
, u
j
, v
2
, . . . , u
j
, v
i
) .
Entonces:
[I
V
]
B
1
B
2
=
_
_
_
_
_
u
1
, v
1
u
2
, v
1
. . . u
n
, v
1
u
1
, v
2
u
2
, v
2
. . . u
n
, v
2
.
.
.
.
.
.
.
.
.
.
.
.
u
1
, v
n
u
2
, v
n
. . . u
n
, v
n
_
_
_
_
_
.
En otras palabras, el trmino general de la matriz P es u
j
, v
i
.
2. Recordemos que la inversa de [I
V
]
B
1
B
2
es [I
V
]
B
2
B
1
(ver el corolario 6.7 en la pgi-
na 192). Ahora bien, tenemos que
P = [I
V
]
B
1
B
2
= (u
j
, v
i
).
Si intercambiamos B
2
con B
1
en el clculo de P, obtenemos que
P
1
= [I
V
]
B
2
B
1
= (v
j
, u
i
).
Ahora solo falta probar que P
1
= P
t
. Pero esto es inmediato, ya que
u
j
, v
i
= v
i
, u
j
= v
i
, u
j
,
ya que V es un espacio vectorial sobre R. Por lo tanto, la inversa de P es la transpuesta
de P.
200 Aplicaciones lineales y matrices
Ejemplo 6.93
Sean
B
1
=
__
1
2
1
2
_
,
_
2
1
2
__
y B
2
=
__
4
5
3
5
_
,
_
3
5
4
5
__
dos bases ortonormales de R
2
. Encontrar la matriz de transicin de B
1
a B
2
.
Solucin. Sean u
k
los elementos de B
1
y v
k
los de B
2
. Entonces, por el teorema 6.11, la matriz
de transicin de B
1
a B
2
es:
[I
R
2]
B
1
B
2
= (u
j
, v
i
).
As que, calculemos todos los productos escalares u
j
, v
i
:
u
1
, v
1
=
__
1
2
1
2
_
,
_
4
5
3
5
_
_
=
7
5
2
,
u
1
, v
2
=
__
1
2
1
2
_
,
_
3
5
4
5
_
_
=
1
5
2
,
u
2
, v
1
=
__
2
1
2
_
,
_
4
5
3
5
_
_
=
1
5
2
,
u
2
, v
2
=
__
2
1
2
_
,
_
3
5
4
5
_
_
=
7
5
2
.
Por lo tanto:
[I
R
2]
B
1
B
2
=
1
5
2
_
7 1
1 7
_
.
v, A
t
u
_
.
Demostracin. La igualdad es fcilmente obtenida de la siguiente manera:
Av, u = (Av)
t
u
= (v
t
A
t
)u
= v(A
t
u) =
v, A
t
u
_
.
Ejemplo 6.94
Sea f L(R
n
, R
n
) tal que
|f(u)| = |u|
para todo u R
n
. Demuestre que:
1. Para todo u R
n
y todo v R
n
, se verica que
f(u), f(v) = u, v .)
2. La matriz [f] es ortogonal.
6.3 Matriz de cambio de base 201
Solucin.
1. Dado que
|f(u v)| = |u v| ,
y que f es lineal, tenemos que
|f(u) f(v)|
2
= |u v|
2
. (6.10)
Por otro lado, tenemos que
|f(u) f(v)|
2
= f(u) f(v), f(u) f(v)
= f(u), f(u) 2 f(u), f(v) +f(v), f(v)
= |f(u)|
2
2 f(u), f(v) +|f(v)|
2
.
De donde, concluimos que:
|f(u) f(v)|
2
= |f(u)|
2
2 f(u), f(v) +|f(v)|
2
. (6.11)
Por otro lado, tambin tenemos que
|u v|
2
= u v, u v
= u, u 2 u, v +v, v ,
de donde obtenemos que:
|u v| = |u|
2
2 u, v +|v|
2
. (6.12)
Finalmente, la propiedad transitiva aplicada a las igualdades (6.10), 6.11 y 6.12 muestra
que
|f(u)|
2
2 f(u), f(v) +|f(v)|
2
= |u|
2
2 u, v +|v|
2
,
de donde obtenemos que
2 f(u), f(v) = 2 u, v ;
es decir:
f(u), f(v) = u, v ,
que es lo que queramos demostrar.
2. Sea A = [f]. Debemos probar que A
1
= A
t
. Para ello, vamos a utilizar la propiedad 6.1
y la igualdad establecida en el numeral anterior.
Sea v R
n
. Entonces
f(v) = Av,
y, dado que f(u), f(v) = u, v, se verica la siguiente igualdad:
Au, Av = u, v .
Ahora bien, por la propiedad 6.1, la ltima igualdad implica que
u, A
t
Av
_
= u, v ,
de donde
u, A
t
Av v
_
= 0
para todo u R
n
.
202 Aplicaciones lineales y matrices
Esto signica que A
t
Av v R
n
= 0, de donde
A
t
Av v = 0
para todo v R
n
; es decir:
A
t
Av = v.
Por lo tanto, A
t
A = I, de donde A
1
= A
t
.
Ejemplo 6.95
Sea f L(R
3
, R
3
) tal que
f(1, 1, 0) = (1, 1, 1), f(1, 0, 1) = (1, 1, 1), y f(0, 1, 1) = (1, 1, 1).
Sean
B
1
= (1, 0, 1), (0, 1, 1), (1, 1, 1) y B
2
= (1, 1, 1), (1, 1, 0), (1, 1, 1)
dos bases de R
3
. Determine:
[I
R
3]
B
2
B
1
, [f]
B
1
B
1
, [f]
B
2
B
1
y [f]
B
1
B
2
.
Solucin. Sea C la base cannica de R
n
.
1.
[I
R
3]
B
2
B
1
= [I
R
3]
C
B
1
[I
R
3]
B
2
C
=
_
[I
R
3]
B
1
C
_
1
[I
R
3]
B
2
C
=
_
_
1 0 1
0 1 1
1 1 1
_
_
1
_
_
1 1 1
1 1 1
1 0 1
_
_
.
Entonces
[I
R
3]
B
2
B
1
=
_
_
0 1 2
0 1 0
1 2 1
_
_
.
2.
[f]
B
1
B
1
= [I
R
3]
C
B
1
[f]
B
1
C
=
_
[I
R
3]
B
1
C
_
1
[f]
B
1
C
=
_
_
1 0 1
0 1 1
1 1 1
_
_
1
_
_
_
_
1 1
1
2
1 1
1
2
1 1
1
2
_
_
_
_
.
6.3 Matriz de cambio de base 203
Por lo tanto:
[f]
B
1
B
1
=
_
_
2 0 0
0 2 0
1 1
1
2
_
_
.
3.
[f]
B
2
B
1
= [f]
B
1
B
1
[f]
B
2
B
1
=
_
_
2 0 0
0 2 0
1 1
1
2
_
_
_
_
0 1 2
0 1 0
1 2 1
_
_
.
Por lo tanto:
[f]
B
2
B
1
=
_
_
0 2 4
0 2 0
1
2
3
5
2
_
_
.
4.
[f]
B
1
B
2
= [I
R
3]
B
1
B
2
[f]
B
1
B
1
=
_
_
0 1 2
0 1 0
1 2 1
_
_
1
_
_
2 0 0
0 2 0
1 1
1
2
_
_
.
Por lo tanto:
[f]
B
1
B
2
=
_
_
_
0 2
1
2
0 2 0
1 1 0
_
_
_.
(t) = AX(t). Por ejemplo, en un sistema vibratorio con varias cuerpos sujetos a
varios resortes, los valores de los coecientes a
ij
dependern de las masas m
i
de los
cuerpos y las constantes elsticas k
i
de los resortes, las variables x
i
sern los desplaza-
mientos de los cuerpos, y los valores resultan ser los cuadrados de las frecuencias de
oscilacin del sistema vibratorio.
Los valores y vectores propios tambin se usan en la solucin de sistemas de ecua-
ciones diferenciales lineales homogneas, en estadstica, en las cadenas de Markov que
se usan para la prediccin de eventos futuros o para analizar modelos de crecimiento
de una poblacin, en geometra analtica para identicar y gracar cnicas y cudricas,
etc. El problema original radica en modelar el sistema, analizarlo y sacar conclusiones
sobre su aplicabilidad.
7.2 Nociones fundamentales
Denicin 7.1 (Valor propio y vector propio de una aplicacin lineal) Sea f una aplicacin lineal
de un espacio vectorial V sobre un campo K en V . Se dice que un vector v V no nulo es un
vector propio de la aplicacin lineal f asociado con valor propio K si se cumple que
f(v) = v.
En la literatura matemtica es comn llamar a los valores y vectores propios valores
y vectores caractersticos, autovalores y autovectores, o eigenvalores y eigenvectores,
respectivamente.
Ejemplo 7.96 Sea la aplicacin lineal f L(V, V ) tal que f(v) = v. Entonces = 1 es
un valor propio de f y todo vector v V no nulo es un vector propio de f asociado con valor
propio = 1.
7.2 Nociones fundamentales 207
Ejemplo 7.97 Sea la aplicacin lineal f L(V, V ) tal que f(v) = 0
V
. Entonces = 0 es
un valor propio de f y todo vector v V no nulo es un vector propio de f asociado con valor
propio = 0.
Teorema 7.1 Sean f L(V, V ) y V
= v V [ f(v) = v. Entonces V
es un subespacio
vectorial del espacio vectorial V .
Demostracin.
1. 0
V
V
.
En efecto,
f(u + v) = f(u) + f(v)
= (u) + (v)
= (u + v),
por lo cual u + v V
.
El subespacio vectorial V
M
n1
es el subespacio
vectorial propio de la matriz A, asociado con valor propio .
Teorema 7.2 Sean f L(V, V ) y K. Sea A la matriz asociada a f. Las siguientes arma-
ciones son equivalentes:
a) es un valor propio de A (o de f).
b) La matriz (A I) no es inversible (o f I
V
no es inversible.
c) [A I[ = 0.
Demostracin.
1. a) b): si es un valor propio de f, entonces existe un vector v no nulo tal que
f(v) = v que se puede escribir como
(f I
V
)(v) = 0
y como v ,= 0 podemos escribir
A(f I
V
) ,= 0
V
,
de donde concluimos que f I
V
no es inyectiva y, por lo tanto, no es inversible.
2. b) c): si f I
V
no es inversible, entonces AI no es inversible, razn por la
cual det(AI) = 0.
7.2 Nociones fundamentales 209
3. c) a): si det(AI) = 0, entonces existe un vector v no nulo tal que
(AI)v = O.
Esta ltima expresin es un sistema lineal homogneo que tiene soluciones no nulas
y lo podemos escribir as:
Av Iv = O,
Av = v + O,
Av = v.
Esta ltima expresin muestra que es un valor propio de la matriz A o de la
aplicacin lineal f.
El teorema anterior permite encontrar los valores propios de una aplicacin lineal
f o de su matriz asociada A por medio de la solucin de la ecuacin
det(A I) = 0.
Los vectores propios v de la matriz A se encuentran resolviendo el sistema lineal ho-
mogneo
(AI)v = O.
Ejemplo 7.98
Hallar los valores y vectores propios de la matriz
A =
_
10 18
6 11
_
.
Solucin. Para hallar los valores propios de la matriz A resolvemos la ecuacin [AI[ = 0:
_
10 18
6 11
_
_
1 0
0 1
_
= 0,
10 18
6 11
= 0,
(10 )(11 ) + 108 = 0,
2
+ 2 = 0,
( 1)( + 2) = 0.
Luego los valores propios de la matriz A son
1
= 2 y
2
= 1.
Calculemos ahora los vectores propios de la matriz A.
Sea el valor propio
1
= 2. Para hallar los vectores propios v asociados con valor propio
1
= 2 resolvemos el sistema lineal
(A
1
I)v = O,
_
10
1
18
6 11
1
__
u
1
u
2
_
=
_
0
0
_
,
210 Valores y vectores propios
_
10 (2) 18
6 11 (2)
__
u
1
u
2
_
=
_
0
0
_
,
_
12 18
6 9
__
u
1
u
2
_
=
_
0
0
_
.
Para resolver el sistema lineal homogneo
12u
1
18u
2
= 0,
6u
1
9u
2
= 0,
hallamos su matriz escalonada reducida por las:
(A
1
I [ O) =
_
12 18 [ 0,
6 9 [ 0,
_
_
2 3 [ 0,
0 0 [ 0,
_
.
Sea u
2
= 2r R 0. Entonces u
1
= 3r y
v =
_
3r
2r
_
, r R 0
nos da el conjunto de vectores propios de la matriz A asociados al valor propio
1
= 2.
En particular, si r = 1 obtenemos
v
1
=
_
3
2
_
,
un vector propio de la matriz A asociado al valor propio
1
= 2.
El subespacio vectorial propio asociado con valor propio
1
= 2 es
V
1
=2
=
___
3
2
___
.
Sea el valor propio
2
= 1. Solo indicamos los pasos de obtencin del vector propio asociado
a
2
:
(A
2
I)v = O,
_
10
2
18
6 11
2
__
u
1
u
2
_
=
_
0
0
_
,
_
9 18
6 12
__
u
1
u
2
_
=
_
0
0
_
,
(A
1
I [ O) =
_
9 18 [ 0
6 12 [ 0
_
_
1 2 [ 0
0 0 [ 0
_
.
Sea u
2
= r R 0. Entonces u
1
= 2r y
v =
_
2r
r
_
, r R 0
nos da el conjunto de vectores propios de la matriz A asociados al valor propio
2
= 1. En
particular, si r = 1 obtenemos
v
2
=
_
2
1
_
,
un vector propio de la matriz A asociado al valor propio
2
= 1.
El subespacio vectorial propio asociado con valor propio
2
= 1 es
V
2
=1
=
___
2
1
___
.
7.2 Nociones fundamentales 211
Veriquemos que (
3r
2r
), r R 0 da el conjunto de vectores propios de la matriz A
asociados con valor propio
1
= 2:
Av =
_
10 18
6 11
__
3r
2r
_
=
_
6r
4r
_
= 2
_
3r
2r
_
=
1
v, para todo r R.
1 2
7 8
= 0,
( 1)( 6) = 0.
Los valores propios de la matriz A son
1
= 1 y
2
= 6.
Hallemos los vectores propios de la matriz A.
Sea el valor propio
1
= 1.
(A
1
I)v = O,
_
1 1 2
7 8 1
__
u
1
u
2
_
=
_
0
0
_
,
_
2 2
7 7
__
u
1
u
2
_
=
_
0
0
_
.
El sistema lineal se reduce a la ecuacin u
1
u
2
= 0. Sea u
2
= r, r R 0. Entonces
u
1
= r. Si r = 1 tenemos que
v
1
=
_
1
1
_
es un vector propio de la matriz A asociado con valor propio
1
= 1.
Sea el valor propio
2
= 6.
(A
2
I)v = O,
_
1 6 2
7 8 6
__
u
1
u
2
_
=
_
0
0
_
,
_
7 2
7 2
__
u
1
u
2
_
=
_
0
0
_
.
El sistema lineal se reduce a la ecuacin 7u
1
+2u
2
= 0. Sea u
2
= 7r, r R0. Entonces
u
1
= 2r. Si r = 1 tenemos que
v
2
=
_
2
7
_
es un vector propio de la matriz A asociado con valor propio
2
= 6.
7.2 Nociones fundamentales 213
Los vectores propios v
1
y v
2
de la matriz A son los vectores coordenados de los vectores propios
u
1
y u
2
, respectivamente, de la aplicacin lineal f. Es decir, v
1
= [w
1
]
C
y v
2
= [w
1
]
C
. Por lo
tanto,
w
1
= 1 e
1
+ 1 e
2
= 1(1, 0) + 1(0, 1) = (1, 1) R
2
es un vector propio de la aplicacin lineal f asociado con valor propio
1
= 1, y
w
2
= 2 e
1
+ 7 e
2
= 2(1, 0) + 7(0, 1) = (2, 7) R
2
es un vector propio de la aplicacin lineal f asociado con valor propio
2
= 6.
Los conjuntos
W
1
=1
= (1, 1) y W
2
=6
= (2, 7)
son los subespacios vectoriales propios de la aplicacin lineal f asociados a los valores propios
1
= 1 y
2
= 2, respectivamente.
7.2.1 Polinomio caracterstico
Hay una forma interesante para escribir el polinomio caracterstico de una matriz.
1. Si tenemos la matriz
A =
_
a b
c d
_
,
entonces el polinomio caracterstico de la matriz A puede escribirse como
p
A
() = [AI[
=
a b
c d
=
2
(a + d) + (ad bc)
=
2
tr(A) +[A[.
2. Si tenemos la matriz
A =
_
_
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
_
_
,
entonces el polinomio caracterstico de la matriz A puede escribirse como
p
A
() = [AI[
=
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
=
3
+ tr(A)
2
k +[A[,
donde
k =
a
1
b
1
a
2
b
2
b
2
c
2
b
3
c
3
a
1
c
1
a
3
c
3
.
214 Valores y vectores propios
3. Si tenemos la matriz
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
,
entonces el polinomio caracterstico de la matriz A puede escribirse como
p
A
() = [AI[
=
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
= (1)
n
_
n1
+
2
n2
n3
+ + (1)
n
n
_
,
donde
1
= tr(A),
2
=
i<j
a
ii
a
ij
a
ji
a
jj
3
=
i<j<r
a
ii
a
ij
a
ir
a
ji
a
jj
a
jr
a
ri
a
rj
a
rr
,
.
.
.
n
= [A[.
Podemos decir que
2
es la suma de todos los menores diagonales de segundo orden
de la matriz A,
3
es la suma de todos los menores diagonales de tercer orden de la
matriz A, etc.
Antes de dar la siguiente denicin recordemos que un polinomio de grado n tiene
n races no necesariamente distintas.
Denicin 7.4 (Multiplicidad algebraica y geomtrica) Sea p
A
() el polinomio caracterstico de
grado n de la matriz A de orden n. el polinomio tiene n races y puede escribirse como
p
A
() = (
1
)
r
1
(
2
)
r
2
(
m
)
rm
,
donde r
1
+r
2
+ r
m
= n.
1. Se llama multiplicidad algebraica del valor propio
i
al nmero r
i
, i = 1, 2, . . . , m.
2. Se llama multiplicidad geomtrica del valor propio
i
a la dimensin del subespacio
vectorial V
i
, i = 1, 2, . . . , m.
En otras palabras, la multiplicidad algebraica de un valor propio es el nmero de
veces que se repite dicho valor propio, y la multiplicidad geomtrica es el nmero de
vectores propios linealmente independientes que genera el valor propio. Si la multipli-
cidad algebraica de un valor propio es 1, entonces la multiplicidad geomtrica tambin
es 1. Pero si la multiplicidad algebraica es p > 1, p n, entonces la multiplicidad
geomtrica puede ser 1 o 2 o hasta p. Todo valor propio tiene asociado con menos un
vector propio.
7.2 Nociones fundamentales 215
Ejemplo 7.100
Hallar las multiplicidades algebraica y geomtrica de los valores propios de la matriz
A =
_
_
2 1 1
0 3 1
2 1 3
_
_
.
Solucin. Hallemos los valores propios de la matriz A:
p
A
() =
2 1 1
0 3 1
2 1 3
=
3
+ 8
2
20 + 16 = ( 2)
2
( 4) = 0.
Entonces
1
= 2 y
2
= 4 son los valores propios de la matriz A, de multiplicidades algebraicas
2 y 1, respectivamente. La multiplicidad geomtrica de
2
es 1.
Hallemos los vectores propios de la matriz A.
Sea el valor propio
1
= 2.
(A
1
I)v = O,
(A
1
I [ O) =
_
_
0 1 1 [ 0
0 1 1 [ 0
2 1 1 [ 0
_
_
_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
.
Sea u
3
= r R 0. Entonces, u
1
= r y u
2
= r y
v =
_
_
r
r
r
_
_
r R 0
es el conjunto de vectores propios de la matriz A asociados con valor propio
1
= 2. Si
r = 1, tenemos
v
1
=
_
_
1
1
1
_
_
que es un vector propio de la matriz A asociados con valor propio
1
= 2, y
V
1
=2
=
_
_
_
_
_
_
1
1
1
_
_
_
_
_
_
es el subespacio vectorial propio de la matriz A asociado con valor propio
1
= 2. Como la
dimensin del subespacio vectorial propio V
1
=2
es 1, entonces la multiplicidad geomtrica
del valor propio
1
= 2 es 1.
Sea el valor propio
2
= 4.
(A
2
I)v = O,
(A
2
I [ O) =
_
_
2 1 1 [ 0
0 1 1 [ 0
2 1 1 [ 0
_
_
_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
.
216 Valores y vectores propios
Entonces
v =
_
_
r
r
r
_
_
r R 0
es el conjunto de vectores propios de la matriz A asociados con valor propio
2
= 4. El
vector
v
2
=
_
_
1
1
1
_
_
es un vector propio de la matriz A asociado con valor propio
2
= 4, y
V
2
=4
=
_
_
_
_
_
_
1
1
1
_
_
_
_
_
_
es el subespacio vectorial propio de la matriz A asociado con valor propio
2
= 4. La
multiplicidad geomtrica del valor propio
2
= 4 es 1.
1
v
1
+
2
v
2
+ +
k
v
k
= 0
V
,
entonces
1
=
2
= =
k
= 0.
La demostracin es por induccin.
i. Demostracin para k = 1. si
1
v
1
= 0
V
entonces
1
= 0, puesto que v
1
,= 0
V
.
ii. Suponemos que es verdad para j y demostraremos para j + 1. Sea
1
v
1
+
2
v
2
+ +
j
v
j
+
j+1
v
j+1
= 0
V
. (7.1)
Entonces
j+1
v
1
+
2
j+1
v
2
+ +
j
j+1
v
j
+
j+1
j+1
v
j+1
= 0
V
. (7.2)
De (7.1):
1
f(v
1
) +
2
f(v
2
) + +
j
f(v
j
) +
j+1
f(v
j+1
) = 0
V
. (7.3)
Entonces
1
v
1
+
2
2
v
2
+ +
j
j
v
j
+
j+1
j+1
v
j+1
= 0
V
. (7.4)
Hacemos (7.2) - (7.4):
1
(
j+1
1
)v
1
+
2
(
j+1
2
)v
2
+ +
j
(
j+1
j
)v
j
= 0
V
. (7.5)
7.3 Matrices simtricas 217
Como los valores propios son distintos dos a dos tenemos que
j+1
j
para j =
1, 2, . . . , k 1. Luego de (4) se concluye que
1
=
2
= =
j
= 0,
por hiptesis inductiva. De (7.1) se tiene a
j+1
v
j+1
= 0
V
, por lo cual a
j+1
= 0 pues
v
j+1
,= 0
V
. Por i. y ii. se concluye el teorema.
Corolario 7.5 Sea la aplicacin lineal f L(V, V ) tal que dim(V ) = n. Si
1
,
1
, . . . ,
n
son n
valores propios de f distintos dos a dos, entonces los n vectores propios v
1
, v
2
, . . . , v
n
asociados
forman una base del espacio vectorial V .
7.3 Matrices simtricas
Teorema 7.6 Toda matriz simtrica A M
n
(R) posee n valores propios reales, no necesaria-
mente distintos.
Demostracin. Sea un valor propio de la matriz A. Entonces existe una matriz v no
nula tal que Av = v. Por demostrar que =
. Tenemos que
Av, v = v, v = v, v = |v|
2
, (7.6)
Av, v = v, A
t
v = v, Av = v, v =
v, v =
|v|
2
. (7.7)
De (7.6) y (7.7) tenemos que
|v|
2
=
|v|
2
.
Como v ,= 0
V
, =
. Es decir, es un nmero real.
Teorema 7.7 Los vectores propios de una matriz simtrica real, asociados a valores propios
distintos, son ortogonales.
Demostracin. Sean
i
y
j
dos valores propios de una matriz simtrica A M(R)
tales que
i
,=
j
. Sean v
i
y v
j
los vectores propios asociados de la matriz A asociados
a los valores propios
i
y
j
, respectivamente, es decir:
Av
i
=
i
v
i
y Av
j
=
j
v
j
.
Por demostrar que v
i
, v
j
= 0 para i ,= j. En efecto:
Av
i
, v
j
=
i
v
i
, v
j
=
i
v
i
, v
j
, (7.8)
Av
i
, v
j
= v
i
, A
t
v
j
= v
i
, Av
j
= v
i
,
j
v
j
=
j
v
i
, v
j
=
j
v
i
, v
j
. (7.9)
De (7.8) y (7.9):
(
i
j
) v
i
, v
j
= 0.
Pero (
i
j
) ,= 0, por lo cual v
i
, v
j
= 0.
218 Valores y vectores propios
Corolario 7.8 Sean la aplicacin lineal f L(V, V ) y la matriz simtrica A M
n
(R) asociada
a f con respecto a cualquier base. Si la matriz A tiene n valores propios distintos dos a dos,
entonces los vectores propios de f forman una base ortogonal del espacio vectorial V .
Ejemplo 7.101
Sean f L(R
3
, R
3
) y
A = [f]
C
C
=
_
_
9 3 0
3 12 3
0 3 9
_
_
.
Calcular los valores y vectores propios de la matriz A y de la aplicacin lineal f.
Solucin. Hallemos los valores propios de la matriz A:
p
A
() = [A I[
=
9 3 0
3 12 3
0 3 9
= (
3
30
2
+ 279 810)
= ( 6)( 9)( 15)
= 0,
de donde encontramos
1
= 6,
2
= 9, y
3
= 15,
que son los valores propios de la matriz A y la aplicacin lineal f.
Encontremos los vectores propios de la matriz A:
Sea el valor propio
1
= 6:
(A
1
I [ O =
_
_
3 3 0 [ 0
3 6 3 [ 0
0 3 3 [ 0
_
_
_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
1
=
_
_
1
1
1
_
_
es un vector propio de la matriz A asociado al valor propio
1
= 6. Fcilmente se encuentra
que u
1
= (1, 1, 1) es un vector propio de la aplicacin lineal f asociado al valor propio
1
= 6.
Sea el valor propio
2
= 9:
(A
1
I [ O =
_
_
0 3 0 [ 0
3 3 3 [ 0
0 3 0 [ 0
_
_
_
_
1 0 1 [ 0
0 1 0 [ 0
0 0 0 [ 0
_
_
,
7.3 Matrices simtricas 219
de donde tenemos que
v
2
=
_
_
1
0
1
_
_
es un vector propio de la matriz A asociado al valor propio
2
= 9 y u
2
= (1, 0, 1) es un
vector propio de la aplicacin lineal f asociado al valor propio
2
= 9.
Sea el valor propio
3
= 15:
(A
1
I [ O =
_
_
6 3 0 [ 0
3 3 3 [ 0
0 3 6 [ 0
_
_
_
_
1 0 1 [ 0
0 1 2 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
3
=
_
_
1
2
1
_
_
es un vector propio de la matriz A asociado al valor propio
3
= 15 y u
3
= (1, 2, 1) es un
vector propio de la aplicacin lineal f asociado al valor propio
3
= 15.
La matriz A de este ejemplo es simtrica y podemos vericar las propiedades enunciadas
anteriormente para las matrices simtricas:
Los valores propios de la matriz,
1
= 6,
2
= 9, y
3
= 15, son nmeros reales.
Como los valores propios de la matriz A son distintos dos a dos, los vectores propios de la
matriz A tambin son distintos dos a dos y, por ser matriz simtrica, son ortogonales:
v
1
, v
2
= tr(v
1
v
t
2
) = 0,
v
1
, v
3
= tr(v
1
v
t
3
) = 0,
v
2
, v
3
= tr(v
2
v
t
3
) = 0.
Igual cosa sucede con los vectores propios de la aplicacin lineal f:
u
1
, u
2
= (1, 1, 1), (1, 0, 1) = 0,
u
1
, u
3
= (1, 1, 1), (1, 2, 1) = 0,
u
2
, u
3
= (1, 0, 1), (1, 2, 1) = 0.
Los vectores propios de la matriz A constituyen una base
B
1
= v
1
, v
2
, v
3
=
_
_
_
_
_
1
1
1
_
_
,
_
_
1
0
1
_
_
,
_
_
1
2
1
_
_
_
_
_
ortogonal del espacio vectorial M
31
, y los vectores propios de la aplicacin lineal f cons-
tituyen una base
B
2
= u
1
, u
2
, u
3
= (1, 1, 1), (1, 0, 1), (1, 2, 1)
del espacio vectorial R
3
.
= u V [ u, v
1
= 0.
Es claro que dim(W) = n 1.
Sea f[
W
L(W, W) la aplicacin lineal f restringida al subespacio vectorial W. La
matriz asociada a esta aplicacin lineal sigue siendo simtrica. Luego, por hiptesis
inductiva, se tiene que existe una base ortogonal de vectores propios de f para el
subespacio vectorial W. Sea S = u
1
, u
2
, . . . , u
n1
dicha base.
Como u
i
, v
1
= 0 para todo i = 1, 2, . . . , n1, el conjunto B = v
1
, u
1
, u
2
, . . . , u
n1
es una base ortogonal para el espacio vectorial V , formada por vectores propios de
f.
De esta propiedad se deduce que de toda matriz simtrica real de orden n se pueden
obtener n vectores propios ortogonales. Esto signica que la multiplicidad geomtrica
de un un valor propio de una matriz simtrica real es igual a la multiplicidad algebraica
de dicho valor propio.
Ejemplo 7.102
Sea la matriz
A =
_
_
3 2 4
2 0 2
4 2 3
_
_
asociada a la aplicacin lineal f L(R
3
, R
3
) con respecto a la base cannica.
a. Calcular los valores propios de la matriz A y la aplicacin lineal f, y los
vectores propios de f.
b. Construir una base ortogonal del espacio vectorial R
3
, formada por vectores
propios de f.
Solucin.
7.3 Matrices simtricas 221
a. Hallemos los valores propios de A y f:
p
A
() = [A I[
=
3 2 4
2 2
4 2 3
= (
3
6
2
15 8)
= ( + 1)
2
( 8)
= 0,
de donde encontramos
1
= 1, y
2
= 8,
que son los valores propios de la matriz A y la aplicacin lineal f. El valor
1
= 1 es
de multiplicidad algebraica 2 y
2
= 8, de multiplicidad algebraica 1. Como A es una
matriz simtrica, la multiplicidad geomtrica de los dos valores es necesariamente igual a la
algebraica: esto signica que
1
genera dos vectores propios y
2
genera un vector propio.
Encontremos los vectores propios de la matriz A:
Sea el valor propio
1
= 1:
(A
1
I [ O =
_
_
4 2 4 [ 0
2 1 2 [ 0
4 2 4 [ 0
_
_
_
_
2 1 2 [ 0
0 0 0 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
1
=
_
_
1
2
0
_
_
y v
2
=
_
_
0
2
1
_
_
son dos vectores propios de la matriz A asociados al valor propio
1
= 1. De donde
u
1
= (1, 2, 0) y u
2
= (0, 2, 1)
son dos vectores propios de la aplicacin lineal f asociados al valor propio
1
= 1.
Sea el valor propio
2
= 8:
(A
1
I [ O =
_
_
5 2 4 [ 0
2 8 2 [ 0
4 2 5 [ 0
_
_
_
_
1 0 1 [ 0
0 2 1 [ 0
0 0 0 [ 0
_
_
,
de donde tenemos que
v
3
=
_
_
2
1
2
_
_
es un vector propio de la matriz A asociado al valor propio
2
= 8 y
u
3
= (2, 1, 2)
u
3
= (2, 1, 2) es un vector propio de la aplicacin lineal f asociado al valor propio
2
= 8.
222 Valores y vectores propios
b. Debido a que A es matriz simtrica, el vector propio u
3
es ortogonal a u
1
y u
2
:
u
3
, u
1
= (2, 1, 2), (1, 2, 0) = 0,
u
3
, u
2
= (2, 1, 2), (0, 2, 1) = 0,
pero u
1
y u
2
no son necesariamente ortogonales, como en efecto es el caso:
u
1
, u
2
= (1, 2, 0), (0, 2, 1) = 4 ,= 0.
Sin embargo el conjunto u
1
, u
2
se puede ortogonalizar con el proceso de Gram-Schmidt; el
nuevo conjunto est formado por vectores que siguen siendo vectores propios de la aplicacin
lineal f asociados al valor propio
1
= 1. Ortogonalicemos, pues el conjunto u
1
, u
2
:
Sean
w
1
= u
1
= (1, 2, 0),
w
2
= u
2
u
2
, w
1
|w
1
|
2
w
1
= (0, 2, 1)
(0, 2, 1), (1, 2, 0)
|(1, 2, 0)|
2
(1, 2, 0)
= (0, 2, 1)
4
5
(1, 2, 0)
= (0, 2, 1)
_
4
5
,
8
5
, 0
_
=
_
4
5
,
2
5
, 1
_
.
Si llamamos w
3
= u
3
= (2, 1, 2),
B = w
1
, w
2
, w
3
=
_
(1, 2, 0),
_
4
5
,
2
5
, 1
_
, (2, 1, 2)
_
es una base ortogonal del espacio vectorial R
3
formada por vectores propios de la aplicacin
lineal f.
7.4 Diagonalizacin
Denicin 7.5 (Diagonalizable) Sea f L(V, V ). Se dice que f es diagonalizable si y solo si
existe una base B tal que la representacin matricial de f respecto de B es una matriz diagonal.
Observaciones
1. Una matriz A = [f]
C
C
es diagonalizable si y solo si existe una base B tal que
[f]
B
B
= [Id]
C
B
[f]
C
C
[Id]
B
C
es una matriz diagonal.
7.4 Diagonalizacin 223
2. Una matriz A es diagonalizable si y solo si existe una matriz P inversible tal que la
matriz
D = P
1
AP
es una matriz diagonal.
3. Si una matriz A es diagonalizable, entonces A es semejante a una matriz diagonal
D.
4. Dos matrices semejantes tienen los mismos valores propios.
Teorema 7.10 Sea f L(V, V ) tal que dim(V ) = n. Entonces f es diagonalizable si y solo si
f tiene n vectores linealmente independientes.
Demostracin. Sea A = [f]
C
C
.
1. Supongamos que f tiene n vectores propios linealmente independientes. Demostre-
mos que f es diagonalizable. Para ello, mostraremos que hay una base B de V
respecto de la cual la matriz A es diagonal.
Sean v
1
= (v
11
v
21
v
n
1)
t
, v
2
= (v
12
v
22
v
n2
)
t
, . . . , v
n
= (v
1n
v
2n
v
nn
)
t
los n vectores propios linealmente independientes y sean
1
,
2
, . . . ,
n
los valores
propios asociados, respectivamente (no todos los
i
son necesariamente distintos).
Sea
P =
_
_
_
_
v
11
v
12
v
1n
v
21
v
22
v
2n
v
n1
v
n2
v
nn
_
_
_
_
.
Como el conjunto v
1
, v
2
, . . . , v
n
es linealmente independiente, entonces la matriz
P es inversible. Adems, se tiene que:
AP =
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
v
11
v
12
v
1n
v
21
v
22
v
2n
v
n1
v
n2
v
nn
_
_
_
_
=
_
Av
1
Av
2
Av
n
_
=
_
1
v
1
2
v
2
n
v
n
_
=
_
_
_
_
1
v
11
2
v
12
n
v
1n
1
v
21
2
v
22
n
v
2n
1
v
n1
2
v
n2
n
v
nn
_
_
_
_
=
_
_
_
_
v
11
v
12
v
1n
v
21
v
22
v
2n
v
n1
v
n2
v
nn
_
_
_
_
_
_
_
_
1
0 0
0
2
0
0 0
n
_
_
_
_
.
224 Valores y vectores propios
Por lo tanto
AP = PD, (7.10)
donde D = diag
1
,
2
, . . . ,
n
es una matriz diagonal cuya diagonal tiene a los
valores propios de A.
Finalmente, de (7.10), tenemos que
D = P
1
AP;
es decir, la matriz A es semejante a una matriz diagonal; por lo tanto, A es diago-
nalizable, como se quera demostrar.
2. Supongamos, ahora, que f es diagonalizable. Probemos que f tiene n vectores pro-
pios linealmente independientes.
Como f es diagonalizable, la matriz A tambin lo es; por lo tanto, existe una matriz
P, inversible, tal que la matriz
D = P
1
AP (7.11)
es una matriz diagonal. Sean v
1
, v
2
, . . . , v
n
las columnas de la matriz P; entonces,
cada v
i
es un vector de V . Sean
i
los elementos de la diagonal de D.
Por un lado, tenemos que:
PD =
_
v
1
v
2
v
n
_
_
_
_
_
1
0 0
0
2
0
0 0
n
_
_
_
_
=
_
1
v
1
2
v
2
n
v
n
_
.
Por otro,
AP = A
_
v
1
v
2
v
n
_
=
_
Av
1
Av
2
Av
n
_
.
Por lo tanto, por la denicin de igualdad de matrices aplicado a (7.11), podemos
concluir que
Av
i
=
i
v
i
;
es decir, los vectores v
i
son los vectores propios de A y
i
los valores propios aso-
ciados. Finalmente, como P es inversible, el conjunto v
1
, v
2
, . . . , v
n
es linealmente
independiente.
De la demostracin, podemos ver que si una aplicacin lineal f es diagonalizable,
existe siempre una matriz P inversible tal que D = P
1
[f]
C
C
P que es diagonal, donde
los elementos de esta diagonal son, precisamente, los valores propios de [f
C
C
], y las
columnas de P son los vectores propios correspondientes; es decir, la matriz asociada
a f respecto a la base formada por estos vectores propios tiene una representacin
diagonal.
Corolario 7.11 Si A M
n
tiene n valores propios distintos dos a dos, entonces A es diagonali-
zable.
7.4 Diagonalizacin 225
Corolario 7.12 Toda matriz simtrica A M
n
(R) es diagonalizable.
Teorema 7.13 Sea f L(V, V ) y dim(V ) = n. Si f tiene una representacin matricial A
simtrica, entonces existe una matriz ortogonal P tal que la matriz P
t
AP es una matriz diagonal
donde los valores propios de A son los elementos de la diagonal.
Demostracin. Como A es simtrica, es diagonalizable. Entonces, por el teorema 7.10,
la matriz P de los vectores propios de A tal que
D = P
1
AP (7.12)
es la matriz diagonal de los valores propios de A.
Tenemos, adems, que P
t
P = I, puesto que los vectores columnas de I son orto-
normales, de manera que P
1
= P
t
. As, por (7.12), tenemos que D = P
t
AP.
Denicin 7.6 (Matriz diagonalizable ortogonalmente) Una matriz A M
n
se dice que es diago-
nalizable ortogonalmente si y solo si existe una matriz ortogonal P tal que la matriz D = P
t
AP
es diagonal.
Ejemplo 7.103
Determinar una matriz P ortogonal tal que D = P
t
AP sea diagonal, donde A es la
matriz simtrica real
A =
_
_
3 2 4
2 0 2
4 2 3
_
_
.
Solucin. Por el teorema 7.13, la matriz buscada es la matriz de los vectores propios orto-
normales.
La matriz tiene dos valores propios:
1
= 1 y
2
= 8. Hay dos vectores propios asociados
a
1
y son:
v
1
=
1
5
(1, 2, 0) y v
2
=
5
3
_
4
5
,
2
5
, 1
_
.
El vector propio asociado a
2
es:
v
3
=
1
3
(2, 1, 2).
Por lo tanto, la matriz P buscada es:
1
3
5
_
_
3 4 2
5
6 2
5
0 5 2
5
_
_
.
226 Valores y vectores propios
A pesar de que no es necesario, pues el teorema 7.13 nos lo garantiza, veriquemos que
P
t
AP es la matriz diagonal de los valores propios:
P
t
AP =
1
45
_
_
3 6 0
4 2 5
16
5 8
5 16
5
_
_
_
_
3 2 4
2 0 2
4 2 3
_
_
_
_
3 4 2
5
6 2
5
0 5 2
5
_
_
=
1
45
_
_
45 0 0
0 45 0
0 0 360
_
_
= diag1, 1, 8.
1
(t) = 3x
1
(t) x
2
(t)
x
2
(t) = 2x
1
(t) + 2x
2
(t);
es decir: X
(t) = AX(t) es
X(t) =
2
i=1
c
i
e
i
t
v
i
,
siempre que A sea diagonalizable, donde c
i
son constantes arbitrarias, que se determinan a
partir de las condiciones iniciales del sistema, los
i
son los valores propios de A y los v
i
son
los vectores propios asociados a los valores
i
, respectivamente.
228 Valores y vectores propios
a) Los valores y vectores propios de A son
1
= 1 con v
1
= (1, 2),
2
= 4 con v
2
= (1, 1).
Entonces la solucin general del sistema es:
_
x
1
(t)
x
2
(t)
_
= c
1
e
t
_
1
2
_
+c
2
e
4t
_
1
1
_
;
es decir:
_
x
1
(t) = c
1
e
t
+c
2
e
4t
x
2
(t) = 2c
2
e
t
c
2
e
4t
.
Para hallar las constantes c
i
, se utilizan las condiciones iniciales:
x
1
(0) = c
1
+c
2
= 90
x
2
(0) = 2c
1
c
2
= 150.
Luego de resolver este sistema de ecuaciones lineales, se obtiene que c
1
= 80 y c
2
= 10. Por
lo tanto, la solucin particular del sistema de ecuaciones diferenciales, bajo las condiciones
iniciales es:
_
x
1
(t) = 80e
t
+ 10e
4t
x
2
(t) = 160e
t
10e
4t
.
Si t se mide en aos, al cabo de 6 meses (t = 1/2), se tiene que las poblaciones son
x
1
(t) = 206 ejemplares y x
2
(t) 190 ejemplares.
b) Segn la solucin particular, se tiene que x
1
(t) no se anula para ningn valor de t, y que
x
2
(t) s se anula. En efecto, 160e
t
10e
4t
= 0 implica que t 11 meses; es decir, al cabo
de aproximadamente 11 meses, la especie x
2
se elimina.
A I
(A I)
t
A
t
I
= p
A
t ().
2. Sea A una matriz de orden n diagonalizable, y sean
i
con i 1, 2, . . . , n, los
valores propios de A (no necesariamente distintos). Demuestre que:
(a) Tr(A) =
n
i=1
i
. (b) [A[ =
n
i=1
i
.
Demostracin. Como A es diagonalizable, existe una matriz P inversible tal que
diag
1
,
2
, . . . ,
n
= P
1
AP.
7.6 Ejercicios resueltos 229
(a) Tenemos que A = PDP
1
. Por lo tanto:
Tr(A) = Tr((PD)P
1
)
= Tr(P
1
(PD))
= Tr(P
1
PD)
= Tr(ID)
= Tr(D) =
n
i=1
i
.
(b) De A = PDP
1
, tenemos que:
[A[ = [(PD)P
1
[
= [P[[D[[P
1
[
= [D[ =
n
i=1
i
.
Los resultados demostrados son vlidos, aunque la matriz A no sea diagonaliza-
ble; sin embargo, la demostracin requiere de la teora de las formas cannicas de
Jordan, tema que no se trata en este libro.
Adems, estos resultados son tiles ara calcular los valores propios de una matriz
de orden 2 sin hallar el polinomio caracterstico, pues se tiene dos ecuaciones no
lineales con dos incgnitas. Tambin pueden ser tiles para vericar que los valores
propios encontrados en una matriz son correctos.
3. Sea f L(V, V ) una aplicacin biyectiva. Demuestre que
a) todos los valores propios de f son no nulos; y
b) si es un valor propio de f, entonces
1
es un valor propio de f
1
.
Demostracin.
(a) Supongamos que 0 es un valor propio de f; entonces, existe v V tal que v ,= 0
y f(v) = 0v = 0. Por lo tanto, v = 0, pues f es biyectiva, lo que es imposible. La
contradiccin tambin puede verse con el hecho de que si 0 fuera una valor propio,
entonces el ncleo de f sera distinto del espacio nulo, lo que es imposible por ser f
inyectiva.
(b) Si es un valor propio de f, entonces ,= 0. Sea v V tal que v ,= 0 y f(v) = v.
Por lo tanto, por ser f
1
una funcin, tenemos que
f
1
(f(v)) = f
1
(v),
de donde:
v = f
1
(v),
lo que implica que
f
1
(v) =
1
v;
es decir,
1
es un valor propio de f
1
.
230 Valores y vectores propios
Cuando f L(V, V ) es una funcin biyectiva, la matriz asociada f con respecto
a cualquier base es inversible. Luego, si es un valor propio de una matriz inversible,
entonces ,= 0 y
1
es un valor propio de A
1
. Ntese tambin que los vectores
propios de A y de su inversa son los mismos.
4. Sean f L(V, V ) y un valor propio de f. Determine los valores propios de f
2
,
f
3
y f
n
con n N.
Solucin. Si es un valor propio de la aplicacin lineal f, existe un vector no nulo v V
tal que f(v) = v.
Entendemos f
2
como f f. Tomando en cuenta que f es aplicacin lineal, tenemos que
f
2
(v) = f(f(v)) = f(v) = f(v) = (v) =
2
v;
es decir, f
2
(v) =
2
v, por lo cual
2
es valor propio de f
2
.
Entendemos f
3
como f f f. De manera similar, y usando el resultado anterior,
tenemos que
f
3
(v) = f(f
2
(v)) = f(
2
v) =
2
f(v) =
2
(v) =
3
v,
por lo que concluimos que
3
es un valor propio de la aplicacin lineal f
3
.
Demostraremos por induccin que si es valor propio de la aplicacin lineal f, entonces
n
, con n N, es valor propio de f
n
.
i. Anteriormente demostramos para n = 2.
ii. Suponiendo que es verdad para n, demostraremos que es verdad para n + 1.
Si es un valor propio de la aplicacin lineal f, existe un vector no nulo v V tal
que f(v) = v.
Por hiptesis inductiva, el nmero
n
es valor propio de la aplicacin lineal f
n
. Por
lo anterior, y tomando en cuenta que la aplicacin f
n
es lineal, podemos escribir
f
n+1
(v) = f(f
n
(v)) = f(
n
v) =
n
f(v) =
n
(v)) =
n+1
v;
es decir,
f
n+1
(v) =
n+1
v,
que es equivalente a decir que
n+1
es valor propio de la aplicacin lineal f
n+1
.
5. Los vectores v
1
y v
2
son dos vectores propios de una aplicacin lineal f, asociados
a los valores propios distintos
1
y
2
, respectivamente. Si v
1
+ v
2
(con K y
K) es un vector propio de f, entonces = 0 o = 0, pero no ambos.
Demostracin. Si v
1
y v
2
son vectores propios, son vectores no nulos. Decir que v
1
y v
2
son dos vectores propios de una aplicacin lineal f es equivalente a decir que
f(v
1
) =
1
v
1
y f(v
2
) =
2
v
2
.
Por ser f una aplicacin lineal, podemos escribir:
f(v
1
+v
2
) = f(v
1
) +f(v
2
) = (
1
v
1
) +(
2
v
2
).
Pero, por hiptesis
f(v
1
+v
2
) = (v
1
+v
2
).
7.6 Ejercicios resueltos 231
Por transitividad, tenemos que
(
1
v
1
) +(
2
v
2
) = (v
1
+v
2
) = ()v
1
+ ()v
2
,
de donde
1
= y
2
= .
Supongamos que ,= 0 y ,= 0. Entonces
1
= y
2
= , es decir
1
=
2
, lo cual es
una contradiccin. Por lo tanto, o bien = 0 o bien = 0.
Tampoco es posible que = = 0, pues, en ese caso, el vector 0 sera un vector propio,
ya que
v
1
+v
2
= 0
es un vector propio por hiptesis.
6. Sea la aplicacin lineal f (V, V ) tal que dim(Im(f)) = 1 y dimV 2. Demostrar
que
a. existe un vector v V tal que f(v) es un vector propio de la aplicacin lineal
f,
b. = 0 es un valor propio de f.
Demostracin.
a. Como V = N
f
Im(f), entonces existe un vector v V tal que v = w+f(v), donde
f(v) ,= 0
v
, pues Im(f) ,= 0
v
y w N
f
. Es decir,
f(v) = v w.
La aplicacin f es lineal y podemos escribir
f(f(v)) = f(v w) = f(v) f(w).
Pero como w N
f
, f(w) = 0
v
y
f(f(v)) = f(v),
que signica que f(v) es un vector propio de la aplicacin lineal f asociado al valor
propio = 1.
b. Como dimN
f
= dimV dim(Im(f)) y, adems, dim(Im(f)) = 1 y dimV 2,
entonces
dimN
f
1,
lo cual signica que
N
f
,= 0
v
.
Entonces, existe un vector w N
f
no nulo tal que f(w) = 0
v
, y podemos escribir
f(w) = 0w,
lo cual signica que w es un vector propio de la aplicacin lineal f asociado al valor
propio = 0.
232 Valores y vectores propios
7. Sea la aplicacin lineal f /(P
2
(t), P
2
(t)) tal que
f(a + bt + ct
2
) = c + (b a)t + (a b + c)t
2
.
a. Encontrar los valores y vectores propios de la aplicacin lineal f.
b. Es diagonalizable la aplicacin lineal f?
Solucin.
a. Para encontrar los valores y vectores propios de la aplicacin lineal f necesitamos
primero hallar una representacin matricial de ella, y encontrar los valores y vectores
propios de esa matriz. Los valores propios de la matriz son tambin los valores propios
de la aplicacin lineal.
Sea el polinomio p(t) = a + bt + ct
2
. Por facilidad escogemos la base cannica C =
e
1
, e
2
, e
3
= 1, t, t
2
del espacio vectorial P
2
(t). Claramente, tenemos los vectores
coordenados
[p(t)]
C
=
_
_
a
b
c
_
_
, [f(p(t))]
C
=
_
_
a
a +b
a b +c
_
_
.
Tenemos que
[f(e
1
)]
C
= [f(1)]
C
= [t +t
2
]
C
=
_
_
0
1
1
_
_
,
[f(e
2
)]
C
= [f(t)]
C
= [t t
2
]
C
=
_
_
0
1
1
_
_
,
[f(e
3
)]
C
= [f(t
2
)]
C
= [1 +t
2
]
C
=
_
_
1
0
1
_
_
.
Con los tres vectores coordenados anteriores, escritos como columnas, obtenemos la
representacin matricial [f]
C
C
de la aplicacin lineal f con respecto a la base cannica
C:
[f]
C
C
=
_
_
0 0 1
1 1 0
1 1 1
_
_
.
Sea A = [f]
C
C
. Veriquemos que la Matriz A representa a la aplicacin lineal f:
[f]
C
C
[p(t)]
C
=
_
_
0 0 1
1 1 0
1 1 1
_
_
_
_
a
b
c
_
_
=
_
_
a
a +b
a b +c
_
_
= [f(p(t))]
C
.
Hallemos los valores propios de la matriz A, los cuales tambin son los valores propios
de la aplicacin lineal f:
p
A
() = [A I[ =
0 1
1 1 0
1 1 1
=
2
( 2) = 0.
Los valores propios de la matriz A y la aplicacin lineal f son
1
= 0 de multiplicidad
algebraica 2, y
2
= 2 de multiplicidad algebraica 1 y geomtrica 1.
Hallemos los vectores propios de la matriz A y de la aplicacin lineal f.
7.6 Ejercicios resueltos 233
Sea el valor propio
1
= 0. Para hallar los vectores propios v asociados con el
valor propio
1
= 0 resolvemos el sistema lineal
_
A
1
I
_
v = O, donde v =
_
_
u
1
u
2
u
3
_
_
.
Para hallar el vector v resolvemos el sistema de ecuaciones lineales
_
A
1
I [ O
_
=
_
_
0 0 1 [ 0
1 1 0 [ 0
1 1 1 [ 0
_
_
_
_
0 0 1 [ 0
1 1 0 [ 0
0 0 0 [ 0
_
_
y encontramos que u
3
= 0 y u
2
= u
1
. Si u
1
= 1, u
2
= 1.
De donde v
1
=
_
_
1
1
0
_
_
es un vector propio de la matriz A asociado al valor propio
1
= 0. El vector propio v
1
de la matriz A es el vector coordenado del vector
propio p
1
(t) de la aplicacin lineal f. Por lo tanto, si [p
1
(t)]
C
= v
1
=
_
_
1
1
0
_
_
,
entonces p
1
(t) = 1 +t.
Sea el valor propio
2
= 2. Hallemos rpidamente su vector propio asociado:
_
A
2
I [ O
_
=
_
_
1 0 1 [ 0
1 1 0 [ 0
1 1 1 [ 0
_
_
_
_
2 0 1 [ 0
1 1 0 [ 0
0 0 0 [ 0
_
_
,
de donde u
3
= 2u
1
y u
2
= u
1
. Si u
1
= 1, u
2
= 1 y u
3
= 2.
Por lo cual v
2
=
_
_
1
1
2
_
_
es un vector propio de la matriz A asociado al valor
propio
2
= 2.
Entonces p
2
(t) = 1t +2t
2
es un vector propio de la aplicacin lineal f asociado
al valor propio
2
= 2.
Veriquemos que p
1
(t) y p
2
(t) son vectores propios de la aplicacin lineal f:
f(p
1
(t)) = f(1 +t) = 0 + (1 1)t + (1 1 + 0)t
2
= 0 = 0(1 +t) =
1
p
1
(t),
f(p
2
(t)) = f(1 t + 2t
2
) = 2 + (1 1)t + (1 + 1 + 2)t
2
= 2(1 t + 2t
2
) =
2
p
2
(t).
b. Debido a que la representacin matricial de la aplicacin lineal f tiene un valor propio
repetido, ella no es diagonalizable. En consecuencia, la aplicacin lineal f tampoco
es diagonalizable.
8. Demostrar que si A = PDP
1
, entonces A
n
= PD
n
P
1
para todo n N.
Demostracin. Demostraremos por induccin.
(i) Para n = 1.
Si A = PDP
1
, entonces A
1
= PD
1
P
1
, pues A = A
1
y D = D
1
234 Valores y vectores propios
(ii) Suponemos que es verdad para n y demostraremos que es verdad para n + 1.
Es decir, si A
n
= PD
n
P
1
es verdadero, por demostrar que A
n+1
= PDP
1
.
En efecto,
A
n+1
= A
n
A
= PD
n
P
1
PDP
1
por hiptesis inductiva
= PD
n
IDP
1
= PD
n
DP
1
= PD
n+1
P
1
.
Por (i) y (ii) se tiene que si A = PDP
1
, entonces A
n
= PD
n
P
1
para todo n N.
9. Dada la matriz A =
_
_
1 2 1
2 0 2
1 2 1
_
_
, hallar la matriz A
n
.
Solucin. Primero hallemos los valores propios de la matriz A.
p
A
() = [A I[ =
1 2 1
2 2
1 2 1
= ( + 2)( 4) = 0
Los valores propios de la matriz A son
1
= 2,
2
= 0,
3
= 4.
Debido a que los tres valores propios son distintos entre s la matriz A es diagonalizable.
Ahora encontremos los vectores propios de la matriz A.
Sea el valor propio
1
= 2. Para hallar los vectores propios v asociados con el valor
propio
1
= 2 resolvemos el sistema lineal
_
A
1
I
_
v = O, donde v =
_
_
u
1
u
2
u
3
_
_
.
Para hallar el vector v resolvemos el sistema de ecuaciones lineales
_
A
1
I [ O
_
=
_
_
3 2 1 [ 0
2 2 2 [ 0
1 2 3 [ 0
_
_
_
_
1 0 1 [ 0
1 1 1 [ 0
1 0 1 [ 0
_
_
_
_
1 0 1 [ 0
2 1 0 [ 0
0 0 0 [ 0
_
_
y encontramos que u
3
= u
1
y u
2
= 2u
1
. Si u
1
= 1, u
2
= 2 y u
3
= 1. De donde
v
1
=
_
_
1
2
1
_
_
es un vector propio de la matriz A asociado al valor propio
1
= 2.
Sea el valor propio
2
= 0. Resumimos el hallazgo del vector propio asociado:
_
A
2
I [ O
_
=
_
_
1 2 1 [ 0
2 0 2 [ 0
1 2 1 [ 0
_
_
_
_
0 2 0 [ 0
1 0 1 [ 0
0 0 0 [ 0
_
_
,
de donde u
2
= 0 y u
3
= u
1
. Si u
1
= 1, u
3
= 1. De donde v
2
=
_
_
1
0
1
_
_
es un vector
propio de la matriz A asociado al valor propio
2
= 0.
7.6 Ejercicios resueltos 235
Sea el valor propio
3
= 4. Hallemos el vector propio asociado:
_
A
3
I [ O
_
=
_
_
3 2 1 [ 0
2 4 2 [ 0
1 2 3 [ 0
_
_
_
_
4 0 4 [ 0
2 4 2 [ 0
3 2 1 [ 0
_
_
_
_
1 0 1 [ 0
0 1 1 [ 0
0 0 0 [ 0
_
_
,
de donde u
3
= u
2
= u
1
. Si u
1
= 1, u
3
= u
2
= 1. As, pues, v
3
=
_
_
1
1
1
_
_
es un vector
propio de la matriz A asociado al valor propio
3
= 4.
Por el Teorema 4 de la pgina 160 los 3 vectores propios, por ser distintos entre s, son li-
nealmente independientes. Por el Corolario 1 de la pgina 169 la matriz A es diagonalizable.
Es decir, existe una matriz P inversible tal que
D = P
1
AP
donde las columnas de la matriz P son los vectores propios de la matriz A y los elementos
de la diagonal de la matriz diagonal D son los valores propios de la matriz A. Sea la matriz
P formada con los vectores propios v
1
, v
2
y v
3
de la matriz A:
P =
_
_
1 1 1
2 0 1
1 1 1
_
_
.
Su matriz inversa es
P
1
=
1
6
_
_
1 2 1
3 0 3
2 2 2
_
_
.
Se deja como ejercicio vericar que la matriz P
1
AP es la matriz diagonal
D =
_
_
2 0 0
0 0 0
0 0 4
_
_
.
Por ser D una matriz diagonal tenemos que
D
n
= 2
n
_
_
(1)
n
0 0
0 0 0
0 0 2
n
_
_
.
Por el ejercicio anterior tenemos que
A
n
= PD
n
P 1
=
2
n
6
_
_
1 1 1
2 0 1
1 1 1
_
_
_
_
(1)
n
0 0
0 0 0
0 0 2
n
_
_
_
_
1 2 1
3 0 3
2 2 2
_
_
=
2
n
6
_
_
1 1 1
2 0 1
1 1 1
_
_
_
_
(1)
n
2(1)
n
(1)
n
0 0 0
2
n+1
2
n+1
2
n+1
_
_
=
2
n
6
_
_
2
n+1
+ (1)
n
2
n+1
2(1)
n
2
n+1
+ (1)
n
2
n+1
2(1)
n
2
n+1
+ 4(1)
n
2
n+1
2(1)
n
2
n+1
+ (1)
n
2
n+1
2(1)
n
2
n+1
+ (1)
n
_
_
.
236 Valores y vectores propios
Tabla de
contenidos
I Matrices, determinantes y sistemas lineales 3
Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Matrices 7
1.1 Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Multiplicacin de matrices . . . . . . . . . . . . . . . . . . . . . 13
1.3 Operaciones elementales de la de una matriz . . . . . . . . . . . . . . 17
1.4 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.6 Otras matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2 Determinantes 47
2.1 Denicin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Determinantes y matrices inversibles . . . . . . . . . . . . . . . . . . . 60
2.4 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3 Sistemas de ecuaciones lineales 67
3.1 Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.2 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 68
3.3 Solucin de un sistema lineal . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3.1 Mtodos de solucin . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4 Ejercicio resuelto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
II Espacios vectoriales y producto interno 83
4 Espacios vectoriales 85
4.1 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2 Denicin de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 87
4.2.1 Observaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.2.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
238 TABLA DE CONTENIDOS
4.3 Propiedades de los espacios vectoriales . . . . . . . . . . . . . . . . . . 94
4.4 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.6 Cpsula lineal de un conjunto . . . . . . . . . . . . . . . . . . . . . . . 105
4.7 Subespacio vectorial generado por un subconjunto . . . . . . . . . . . . 107
4.8 Bases de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 109
4.9 Dimensin de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 116
4.10 Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 126
4.11 Suma directa de subespacios vectoriales . . . . . . . . . . . . . . . . . . 130
4.12 Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.13 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
III Aplicaciones lineales 155
5 Aplicaciones lineales 157
5.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.1.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
5.2 Isomorsmo entre espacios vectoriales . . . . . . . . . . . . . . . . . . . 162
5.3 Ncleo de una aplicacin lineal . . . . . . . . . . . . . . . . . . . . . . 171
6 Aplicaciones lineales y matrices 181
6.1 Aplicacin lineal asociada a una matriz . . . . . . . . . . . . . . . . . . 181
6.2 Matriz asociada a una aplicacin lineal . . . . . . . . . . . . . . . . . . 182
6.3 Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . 191
7 Valores y vectores propios 205
7.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.2 Nociones fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.2.1 Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . 213
7.3 Matrices simtricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
7.4 Diagonalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
7.5 Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
7.6 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228