Вы находитесь на странице: 1из 205

Notas de lgebra lineal

Alfredo Gmez Rodrguez


Instituto de Fsica y Facultad de Ingeniera, U.N.A.M
Abril de 2012
ii
ndice general
Introduccin XI
I Introduccin al lgebra lineal 1
1. Breve historia del lgebra lineal 5
1.1. Las ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Las matrices y las transformaciones lineales . . . . . . . . . . . . 6
1.4. Independencia lineal, bases y dimensin . . . . . . . . . . . . . . 6
1.5. Los espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . 7
2. Aplicaciones del lgebra lineal 9
2.1. Aplicaciones a otras ramas de las matemticas. . . . . . . . . . . 9
2.2. Aplicaciones a la fsica . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Aplicaciones a la ingeniera y a otras ramas del saber. . . . . . . 10
II Espacios vectoriales. 11
3. Concepto de espacio vectorial 13
3.1. Algunos ejemplos de espacios vectoriales . . . . . . . . . . . . . . 15
3.1.1. Los espacios R
n
. . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.2. Los espacios C
n
. . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.3. Los espacios 1
n
. . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.4. Los espacios '(:, :) . . . . . . . . . . . . . . . . . . . . 20
3.1.5. Los espacios '
+
(:, :) . . . . . . . . . . . . . . . . . . . . 21
3.2. Algunas propiedades bsicas de los espacios vectoriales. . . . . . 22
3.3. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4. Sistemas de ecuaciones lineales homogneas. . . . . . . . . . . . . 27
3.5. combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1. Des-sumando y des-multiplicando . . . . . . . . . . . . . . 29
3.6. generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
iii
iv NDICE GENERAL
3.6.1. cmo encontrar un generador para el espacio solucin de
un sistema lineal homogneo. . . . . . . . . . . . . . . . . 31
3.7. Independencia lineal y dependencia lineal . . . . . . . . . . . . . 32
3.7.1. Cmo determinar la dependencia o independencia? . . . 34
3.8. bases y dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.8.1. Algunos resultados adicionales . . . . . . . . . . . . . . . 44
3.9. coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.10. cambio de base y matriz de transicin . . . . . . . . . . . . . . . 47
3.10.1. Encontrando la matriz de transicin. . . . . . . . . . . . . 48
3.11. Isomorsmos y el principio del isomorsmo . . . . . . . . . . . . 51
3.11.1. Principio del isomorsmo . . . . . . . . . . . . . . . . . . 53
3.11.2. cambio de base de nuevo . . . . . . . . . . . . . . . . . . . 53
3.12. Espacios rengln y columna . . . . . . . . . . . . . . . . . . . . . 54
3.13. El espacio nulo de una matriz . . . . . . . . . . . . . . . . . . . . 59
3.14. La estructura de los sistemas inhomogneos. . . . . . . . . . . . . 59
3.15. Espacios de funciones, Wronskianos . . . . . . . . . . . . . . . . . 60
3.15.1. dependencia e independencia lineal de funciones. . . . . . 61
III Transformaciones lineales 67
4. Transformaciones lineales 71
4.0.2. algunas propiedades de las transformaciones lineales. . . . 72
4.1. algunas transformaciones importantes . . . . . . . . . . . . . . . 73
4.1.1. ejemplos de transformaciones lineales. . . . . . . . . . . . 73
4.2. ncleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2.1. imagen y suprayectividad. . . . . . . . . . . . . . . . . . . 79
4.2.2. Ncleo e inyectividad. . . . . . . . . . . . . . . . . . . . . 79
4.3. teorema de la dimensin. . . . . . . . . . . . . . . . . . . . . . . . 80
4.4. representaciones matriciales. . . . . . . . . . . . . . . . . . . . . . 80
4.4.1. la matriz de transicin de nuevo . . . . . . . . . . . . . . 81
4.4.2. calculando la matriz asociada a una transformacin lineal. 82
4.4.3. Dada la matriz calcular la regla de correspondencia . . . . 84
5. lgebra de transformaciones 85
5.1. Suma de transformaciones lineales. . . . . . . . . . . . . . . . . . 85
5.2. Producto por nmeros. . . . . . . . . . . . . . . . . . . . . . . . . 86
5.3. La suma de dos transformaciones lineales es lineal . . . . . . . . 86
5.4. Linealidad del producto por un nmero . . . . . . . . . . . . . . 87
5.5. El conjunto de todas las transformaciones lineales de \ en \ es
un espacio vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.5.1. hay un zero (elemento idntico) para la suma de trans-
formaciones? . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.5.2. hay un negativo (inverso aditivo) para la suma de trans-
formaciones ? . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.6. Matriz asociada a la suma y producto por nmeros. . . . . . . . 88
NDICE GENERAL v
5.7. Composicin de transformaciones. . . . . . . . . . . . . . . . . . 90
5.7.1. denicin de composicin. . . . . . . . . . . . . . . . . . . 90
5.7.2. La composicin de dos transformaciones lineales es lineal. 90
5.7.3. Matriz de la composicin de dos transformaciones lineales. 91
5.7.4. Las propiedades ms importantes de estas operaciones . . 91
6. La transformacin inversa. 95
6.1. La inversa de una transformacin. . . . . . . . . . . . . . . . . . 95
6.1.1. la inversa es nica . . . . . . . . . . . . . . . . . . . . . . 95
6.1.2. la inversa de una transformacin lineal es lineal . . . . . . 96
6.1.3. La matriz de la inversa. . . . . . . . . . . . . . . . . . . . 97
6.1.4. Criterios de invertibilidad. . . . . . . . . . . . . . . . . . . 97
6.1.5. La inversa de una composicin. . . . . . . . . . . . . . . . 98
6.1.6. un ejemplo completo . . . . . . . . . . . . . . . . . . . . . 99
6.2. Cambio de base y matrices . . . . . . . . . . . . . . . . . . . . . 102
6.3. Matrices vacas . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7. Geometra de las transformaciones (I). 105
7.1. Haciendo geometra en R
2
. . . . . . . . . . . . . . . . . . . . . . 105
7.2. Efecto de transformaciones lineales sobre rectas y segmentos . . 105
7.3. Areas de paralelogramos y de imgenes de paralelogramos bajo
transformaciones lineales. . . . . . . . . . . . . . . . . . . . . . . 106
7.4. Quiralidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.4.1. ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8. eigenvalores y eigenvectores 109
8.1. algunas deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.1.1. en trminos de las matrices. . . . . . . . . . . . . . . . . . 110
8.2. Hallando los eigenvalores . . . . . . . . . . . . . . . . . . . . . . . 110
8.3. hallando los eigenvectores. . . . . . . . . . . . . . . . . . . . . . 111
8.3.1. primeros ejemplos . . . . . . . . . . . . . . . . . . . . . . 111
8.4. Un ejemplo sencillo. . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.5. Para obtener eigenvalores y eigenvectores. . . . . . . . . . . . . . 114
8.6. Matriz de un operador en una eigenbase. . . . . . . . . . . . . . . 114
8.6.1. independencia de eigenvectores. . . . . . . . . . . . . . . . 114
8.6.2. Matriz diagonalizadora . . . . . . . . . . . . . . . . . . . . 115
8.7. Un ejemplo completo . . . . . . . . . . . . . . . . . . . . . . . . . 116
9. Interpretacin geomtrica de las transformaciones lineales (II).123
IV Espacios con producto interior 125
10.Espacios con producto interior 127
10.1. Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
10.2. Concepto de producto interior . . . . . . . . . . . . . . . . . . . . 127
vi NDICE GENERAL
10.3. Ejemplos de productos interiores . . . . . . . . . . . . . . . . . . 128
10.4. Algunas propiedades de los productos interiores . . . . . . . . . . 132
10.5. La desigualdad de Cauchy-Schwarz . . . . . . . . . . . . . . . . . 132
10.6. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
10.6.1. motivacin. . . . . . . . . . . . . . . . . . . . . . . . . . . 134
10.6.2. Caso general. . . . . . . . . . . . . . . . . . . . . . . . . . 134
10.7. Distancias (mtricas) . . . . . . . . . . . . . . . . . . . . . . . . . 138
10.8. ngulos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
10.9. Conjuntos ortogonales, normales y ortonormales . . . . . . . . . 140
10.9.1. Los conjuntos ortogonales son independientes . . . . . . . 141
10.9.2. expansin con respecto a una base ortonormal . . . . . . . 141
10.10.Matriz con respecto a una base ortonormal. . . . . . . . . . . . . 142
10.11.Productos y cordenadas . . . . . . . . . . . . . . . . . . . . . . . 142
10.12.complementos ortogonales . . . . . . . . . . . . . . . . . . . . . . 143
10.13.Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
10.13.1.Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . 144
10.13.2.Caso general . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.14.Mejor aproximacin. . . . . . . . . . . . . . . . . . . . . . . . . . 147
10.15.Mtodo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 148
10.15.1.Formulacin del problema. . . . . . . . . . . . . . . . . . . 148
10.15.2.Idea bsica . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.15.3.Formulacin explcita . . . . . . . . . . . . . . . . . . . . 149
11.Cuadrados mnimos. 151
11.0.4. motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11.0.5. Teora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11.1. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
11.1.1. usando un poco de clculo . . . . . . . . . . . . . . . . . . 155
11.1.2. otros comentarios . . . . . . . . . . . . . . . . . . . . . . . 155
11.1.3. un caso general y tpico . . . . . . . . . . . . . . . . . . . 156
11.1.4. otro enfoque . . . . . . . . . . . . . . . . . . . . . . . . . 157
V Operadores lineales en espacios con producto interi-
or. 159
11.2. productos interiores y funciones lineales . . . . . . . . . . . . . . 161
12.Operadores adjuntos 163
12.1. Matriz del operador adjunto con respecto a una base ortonormal. 164
12.2. Propiedades del adjunto . . . . . . . . . . . . . . . . . . . . . . . 165
12.3. regla de correspondencia del adjunto . . . . . . . . . . . . . . . . 166
12.3.1. y si la base no era ortonormal? . . . . . . . . . . . . . . 168
12.4. Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
NDICE GENERAL vii
13.Operadores y matrices Hermiteanos, antihermiteanos, simtri-
cos, antisimtricos, unitarios, ortogonales y normales. 171
13.1. Algunas deniciones bsicas . . . . . . . . . . . . . . . . . . . . . 171
13.2. Algunos teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
13.3. Teorema espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . 176
13.4. resolucin espectral . . . . . . . . . . . . . . . . . . . . . . . . . . 178
13.4.1. productos exteriores . . . . . . . . . . . . . . . . . . . . . 178
13.4.2. resolucin espectral del operador y de la identidad . . . . 179
13.4.3. Proyectores de nuevo . . . . . . . . . . . . . . . . . . . . . 183
14.Cudricas. 185
14.1. Introduccin a las ideas principales . . . . . . . . . . . . . . . . . 185
14.1.1. propiedades de A . . . . . . . . . . . . . . . . . . . . . . . 186
14.2. diagonalizacin de formas cuadrticas. . . . . . . . . . . . . . . . 186
14.3. cnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
14.4. supercies cudricas. . . . . . . . . . . . . . . . . . . . . . . . . . 188
VI Bibliografa 189
viii NDICE GENERAL
Prefacio
Estas son las notas para un curso de lgebra lineal. Estas notas estn en un
proceso de continua revisin, para versiones ms recientes puede Usted consultar
http://www.paginaspersonales.unam.mx/acad/alfredogomez
ix
x PREFACE
Introduccin
El plan 2006 para la asignatura lgebra lineal impartida en la Divisin
de Ciencias Bsicas de la Facultad de Ingeniera de la UNAM nos ha obligado
a revisar nuestras notas de clase. El resultado de dicha revisin es el presente
juego de notas, que no pretenden ser sino eso, notas. El lector indudablemente
notar algunos de los inumerables errores en este texto, y los errores no son
nada ms de ortografa o redaccin. Sin embargo, esta obra es, como toda obra
humana, perfectible y jams perfecta. Agradecer si me informan de los errores
bajo el principio de error detectado, error eliminado.
La revisin 2008 del plan de estudios indica agregar el tema operadores lin-
eales en espacios con producto interno que es tratado brevemente en el presente
texto. Otro tema nuevo en la revisin es el de introduccin al lgebra lineal; este
tema comprende los subtemas historia del lgebra lineal y aplicaciones del
lgebra lineal a la ingeniera que tambin se tratan aqu de manera breve.
Uno de los tpicos ms polmicos para el profesor de lgebra lineal es el de
las aplicaciones. Frecuentemente por aplicaciones se entienden aplicaciones a
las matemticas y esto deja frustrados a nuestros estudiantes que quieren ver
las aplicaciones a la ingeniera. Y al hablar de aplicaciones a la ingeniera se
mencionan algunos ejemplos tribilines", es decir, triviales. Llamar aplicaciones
a cualquier ejemplito en el que aparezcan sistemas de ecuaciones, determinantes
o matrices es como llamar humorista a alguien que cuenta un chiste cada veinte
aos. Reto a mis colegas profesores de lgebra lineal a que muestren ejemplos no
triviales de aplicaciones a la ingeniera. El presente autor, siendo fsico, conoce
dos aplicaciones monumentales del lgebra lineal a la fsica: la mecnica cuntica
y la teora de la relatividad. existe algo comparable entre las aplicaciones a la
ingeniera?no sera (como ms de un autor ha sugerido), ms conveniente dar
un curso orientado a las matrices y olvidarnos de espacios vectoriales, productos
interiores, adjuntos, operadores Hermitianos y un largo etc.?
Hemos escrito un segundo folleto dedicado a mostrar algunas aplicaciones,
entre ellas algunas aplicacines simples a la mecnica cuntica y a la relatividad;
pero hemos tratado de no incluir aquellas aplicaciones que el lector encontrar
en muchos de los textos de lgebra lineal disponibles, sobre todo las tribilines.
Hace ya algunos aos los fsicos prometieron darnos computadoras cun-
ticas. Al momento de escribir estas notas aun no cumplen su promesa y, por
desgracia, en otras ocasiones (los cuasicristales, los superconductores) no las han
cumplido. Sin embargo de lograrse la computacin cuntica nuestro modesto
xi
xii INTRODUCCIN
curso se convertira en uno de los ms importantes; sugiero al lector que le eche
un ojo a un texto de informacin cuntica, ver en l lgebra lineal y ms lgebra
lineal.
Parte I
Introduccin al lgebra
lineal
1
3
En esta parte del curso damos un breve paseo por la historia del lgebra
lineal y sealamos algunas de sus aplicaciones a la ingeniera.
4
Captulo 1
Breve historia del lgebra
lineal
Esta resea ser, por necesidad, muy breve y nos contentasremos con mostrar
nicamente los sucesos ms relevantes.
El tratamiento est inspirado por el libro A History of Abstract Algebra
escrito por Israel Kleiner y publicado por la editorial Birkhuser en 2007.
1.1. Las ecuaciones lineales
Alrededor del ao 2000 A.C los Babilonios eran capaces de resolver sis-
temas lineales de dos ecuaciones con dos incgnitas.
Tambin alrededor de 2000 A.C los Chinos podan resolver ecuaciones de
3 3
El estudio moderno de los sistemas de ecuaciones arranca con Leibniz
(1646-1716) en 1693. Leibniz invent el concepto de determinante.
En 1750 Cramer (1704-1752) inventa la regla para resolver sistemas lineales
que lleva su nombre.
Euler (1707-1783) es el primero en notar que los sistemas lineales pueden
carecer de solucin o la solucin puede no ser nica.
Gauss (1777-1855) inventa el mtodo de los cuadrados mnimos en 1811 y
desarrolla la ahora llamada eliminacin Gausiana. Estudi las condiciones
bajo las cuales los sistemas tienen soluciones y son nicas.
1.2. Los determinantes
una de las primeras publicaciones sobre determinantes fue la de Maclaurin
(16981746). Este autor los us para resolver sistemas de 2 2 y 3 3.
5
6 CAPTULO 1. BREVE HISTORIA DEL LGEBRA LINEAL
Vandermonde (1735 1796) estudia en 1772 los determinantes per se y no
en relacin con la solubilidad de sistemas de ecuaciones.
Laplace (1749 1827) muestra en 1772 cmo expandir determinantes por
medio de cofactores.
Cauchy (1789 1857) presenta el primer estudio sistemtico de los deter-
minantes y descubri muchas de sus propiedades (como que det(1) =
det() det(1)).
En 1843 Cayley (18211895) hace geometra analtica en : dimensiones
usando determinantes.
Alrededor de 1870 Dedekind (1831 1916) usa los determinantes para es-
tablecer algunos resultados en teora de los nmeros.
Weierstrass (1815 1897) y Kronecker (1823 -1891) estudiaron los deter-
minantes de manera rigurosa introducindolos de manera axiomtica.
1.3. Las matrices y las transformaciones lineales
Las matrices, en cuanto tablas de nmeros, aparecen en las matemticas
chinas alrededor del ao 200 A.C.
El primer uso serio de las matrices se halla en el estudio por Gauss (1777-
1855) de las formas cuadrticas binarias. En su trabajo se encuentra ya la
multiplicacin de matrices.
En la geometra analtica de los siglos XVII y XVIII se estudiaron trans-
formaciones lineales y sus matrices.
Eisenstein (1823 1852) y Hermite (1822 1901), extendiendo el trabajo
de Gauss, continan con el uso de matrices en formas cuadrticas.
1.4. Independencia lineal, bases y dimensin
Dedekind (1831 1916) y Weber (18421913) llegaron a usar los conceptos
de combinacin lineal y base aunque sin denirlos de la manera moderna.
Las ideas de Dedekind y de Weber fueron llevadas a la perfeccin por
Steinitz (8711928) y Artin (18981962), en el contexto de la teora de los
campos.
Con los cuaterniones (tambin llamados cuaternios), Hamilton (1805
1865) presenta la primera estructura que es sin lugar a dudas un espacio
vectorial.
generalizando las ideas de Hamilton, Cayley (18211895) y Graves (1806
1870) introducen los octoniones.
1.5. LOS ESPACIOS VECTORIALES. 7
Se piensa que el primero en denir el concepto de espacio vectorial es
Pierce (18091880) en su obra Linear associative algebra.
Euler(1707-1783) y Lagrange (17361813) estudian la analoga entre los
sistemas de ecuaciones y las ecuaciones diferenciales.
la relacin entre lgebra y geometra fue estudiada por Descartes (1596
1650) y Fermat (1601-1665) a principios del siglo XVII y Euler continu
en el siglo XVIII extendiendo el estudio a tres dimensiones. La forma
moderna se alcanza con Monge (1746-1818).
1.5. Los espacios vectoriales.
La nocin moderna de espacio vectorial es introducida por Peano (1858
1932) en 1888.
El concepto geomtrico de vector parte de Wessel (1745-1818) y culmina
con Gauss (17771855).
Es Hamilton (18051865) el primero en ver a los nmeros complejos como
parejas ordenadas de nmeros reales.
El lgebra de vectores se da, por una parte con Hamilton y sus cuater-
niones y por otra con Gibbs (1839 1903) y Heaviside (1850 1925) quienes
estudian los vectores de la forma en que los conocemos en la actualidad.
La generalizacin a tres o mas dimensiones se debe a Hamilton, Cayley y
Grassmann (8091877).
Podemos decir que el lgebra lineal (como entendemos el trmino ahora)
se debe fundamentalmente a Peano y Grassmann.
Weyl (18851955) aplica estas ideas a la fsica y en particular a la rela-
tividad en el siglo XX.
Con Banach (18921945) se habla ya de espacios vectoriales normados.
El lenguaje moderno ya se aprecia en la obra de Noether (18821935) en
pleno siglo XX.
Una denicin de espacio vectorial reconocible por los lectores del siglo
XXI se presenta en la obra de van der Waerden (1903-1996).
Como podr apreciar el lector, el lgebra lineal que estudiamos en este curso
es algo muy reciente.
8 CAPTULO 1. BREVE HISTORIA DEL LGEBRA LINEAL
Captulo 2
Aplicaciones del lgebra
lineal
A groso modo podemos dividir las aplicaciones del lgebra lineal en tres
grandes porciones:
aplicaciones del lgebra lineal a otras ramas de las matemticas.
aplicaciones a la fsica
aplicaciones a la ingeniera y otras ramas del conocimiento.
2.1. Aplicaciones a otras ramas de las matemti-
cas.
De una manera muy escueta sealaremos algunas aplicaciones:
El concepto de derivada, vista como transformacin lineal, es quiz lo ms
relevante del lgebra lineal en toda la matemtica. En breve, la derivada
es la mejor aproximacin lineal a una funcin en una vecindad de un
punto.
La diagonalizacin de matrices encuentra uso en el anlisis de las formas
cuadrticas y de las conicas que stas representan.
Los productos interiores y la mejor aproximacin dan lugar al mtodo de
los cuadrados mnimos.
2.2. Aplicaciones a la fsica
los productos interiores encuentran aplicacin en cristalografa para de-
scribir cristales y sus propiedades.
9
10 CAPTULO 2. APLICACIONES DEL LGEBRA LINEAL
La mecnica cuntica es la mayor aplicacin existente del lgebra lineal.
Todo en mecnica cuntica ocurre en espacios vectoriales complejos con
producto interior.
La relatividad tambin usa constantemente los conceptos del lgebra lin-
eal. Piense por ejemplo en las transformaciones de Lorentz.
En mecnica de materiales tenemos los tensores de deformacin y de es-
fuerzo; no son mas que transformaciones lineales.
En mecnica tenemos el tensor de inercia. Se trata de la transformacin
lineal que nos da el momento angular en funcin de la velocidad angular.
2.3. Aplicaciones a la ingeniera y a otras ramas
del saber.
En economa se usan mucho las matrices y la programacin lineal. Muchos
modelos son lineales.
En ingeniera de control se necesitan frecuentemente matrices, eigenvalores
y eigenvectores.
En la teora de grcos (grafos) se usan las matrices de adyacencia e
incidencia para caracterizar los grafos. Tambin las relaciones se describen
con matrices.
De hacerse realidad el sueo de la computadoras cunticas, el lgebra
lineal se convertir en la rama de las matemticas con ms aplicaciones.
Por desgracia esto es todava un sueo, y pesadilla para aquellos a quienes
no les agrada el lgebra lineal.
Parte II
Espacios vectoriales.
11
Captulo 3
Concepto de espacio
vectorial
Un espacio vectorial sobre el campo 1 es un conjunto \ cuyos elementos
llamamos vectores y con dos operaciones, la primera es una suma
+ : \ \ \
y la segunda es un producto de vectores por escalares (nmeros del campo 1)
: 1\ \
que satisfacen las siguientes propiedades.
1)Si a, / \ entonces a +/ \ (cerradura)
2)Si a, / \ entonces a +/ = / +a (propiedad conmutativa)
3)Si a, /, c \ entonces (a +/) +c = a + (/ +c) (propiedad asociativa)
4) Hay un elemento 0 \ con la propiedad de que si a \ entonces
0 +a = a + 0 = a.
5) Para todo elemento a \ hay otro elemento (a) \ (llamado
negativo de a) y que tiene la propiedad de que a + (a) = (a) +a = 0.
6) Si c 1 y a \ entonces c a \
7) Si a \ entonces 1 a = a
8)Si c, , 1 y a \ entonces (c +,) a = c a +, a
9) Si c 1 y a, / \ entonces c (a +/) = c a +c /
10)Si c, , 1 y a \ entonces (c,) a = c(, a) = ,(ca)
13
14 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Notacin 1 ordinariamente usaremos la notacin (y el contexto indica si
es vector o escalar) para indicar un vector en un espacio vectorial. Otras
posibilidades son ,

, etc. En mecnica cuntica se usa la llamada notacin
de Dirac en donde los vectores se denotan como [ (y a esto se le llama
ket, esto es una broma pues en ingles el smbolo es un bracket por lo que
su mitad derecha [ es un ket). Una notacin frecuente para los vectores es
del tipo pero note usted que la barra tambin se usa en matemticas para la
conjugacin de nmeros complejos (si . = r + ij entonces . = r ij, a veces
para la conjugacin se usa el smbolo + y .
+
= r ij).
Comentario 2 La operacin + es, por lo tanto, una ley de composicin interna
en tanto que la operacin es una ley de composicin externa.
Comentario 3 Note usted que el smbolo + es ambiguo. A veces es la suma
de nmeros, a veces es la suma de vectores. El contexto debe remover las am-
biguedades. Esto es similar a lo que ocurre en programacin orientada a objetos
cuando tenemos una sobrecarga (overloading). Si por cualquier razn necesi-
tamos distinguir notacionalmente las operaciones podemos usar + y .
Comentario 4 Algunos autores llaman a una accin del campo 1 sobre los
vectores.
Cuando 1 = R decimos que el espacio vectorial es real, cuando 1 = C
decimos que se trata de un espacio vectorial complejo. A veces a 1 se le llama
campo base (ground eld).
Los axiomas 1 y 6 son redundantes dado que se ha supuesto que la suma de
vectores es una operacin binaria y que el producto de vectores por nmeros
es una operacion externa. De hecho el axioma 2 tambin sale sobrando en el
sentido de que un sistema que satisfaga los restantes axiomas tambin debe
necesariamente satisfacer el axioma 2 (le gustara intentar la demostracin de
esto?).
El ejemplo ms sencillo de espacio vectorial es el espacio de todas las e-
chas (tcnicamente llamadas vectores geomtricos o segmentos dirigidos)
en dos o tres dimensiones, esto es, el espacio de los vectores que ya conocemos,
entendidos como objetos con magnitud, direccin y sentido. Como ejemplos de
echas podemos citar las fuerzas, el vector de posicion de una partcula, la ve-
locidad, la aceleracin, el campo elctrico y el campo magntico. Lo que tienen
en comn es que pueden ser representados pictricamente mediante echas. Pero
lo que hace que estas echas sean vectores es el hecho de que podemos combinar
dos echas y n para formar una tercera echa + n (mediante la regla del
paralelogramo) y que podemos combinar un nmero real c y una echa para
formar una nueva echa (aquella cuyo tamao es [ c [ veces el de y tiene el
mismo sentido que si c 0 y el sentido opuesto si c < 0 ). Dejo al lector
el checar que el conjunto de las echas con esta adicin y multiplicacin por
nmeros es un espacio vectorial real.
3.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 15
Ejercicio 5 Muestre que el conjunto de todas las echas en el espacio bidi-
mensional ordinario, con las operaciones descritas anteriormente, forma un es-
pacio vectorial real.
Comentario 6 Suele llamarse espacio a un conjunto con algo de estructura.
As hablamos de espacios vectoriales, espacios normados, espacios mtricos y
espacios topolgicos.
Comentario 7 A veces en vez de espacio vectorial se usa la expresin es-
pacio lineal.
Comentario 8 Algunos autores usan en vez de un campo 1 un anillo 1. En
este caso (con los mismos axiomas) decimos que se trata de un mdulo sobre
el anillo 1 en vez de un espacio vectorial sobre el campo 1. Nosotros no
trataremos los mdulos en lo absoluto.
Comentario 9 En general usaremos el mismo smbolo (por ejemplo \ ) para
referirnos al conjunto (de vectores) o a la estructura (espacio vectorial). Si fuera
necesario distinguirlos podramos usar \ = [ \ [, +, para denotar el espacio
vectorial \ construido con el conjunto [ \ [. Pero en este curso no tendremos
que preocuparnos por esto.
3.1. Algunos ejemplos de espacios vectoriales
Adems del espacio vectorial real de las echas (vectores geomtricos), ten-
emos algunos ejemplos importantes de espacios vectoriales.
3.1.1. Los espacios R
n
Sea : un entero positivo y
R
n
= (r
1
, r
2
, ...r
n
) [ r
I
R \i = 1, 2...:
el conjunto de todas las eneadas ordenadas (es decir, no es lo mismo (a, /) que
(/, a)) de nmeros reales. Aqu se entiende que dos elementos r y j de R
n
dados
por
r = (r
1
, r
2
, ...r
n
)
j = (j
1
, j
2
, ...j
n
)
son iguales si y slo si \i = 1, 2...:
r
I
= j
I
En R
n
denimos la suma de r = (r
1
, r
2
, ...r
n
) R
n
y j = (j
1
, j
2
, ...j
n
) R
n
como aquel elemento r +j R
n
dado por
r +j = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
)
16 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
y denimos el producto de c R y r = (r
1
, r
2
, ...r
n
) R
n
como el elemento
cr R
n
dado por
cr = (cr
1
, cr
2
, ...cr
n
)
Puede demostrarse que R
n
con la suma y el producto por escalares recien
denidos es un espacio vectorial real, procediendo de la manera siguiente:
Si a, / R
n
entonces a = (r
1
, r
2
, ...r
n
) y / = (j
1
, j
2
, ...j
n
) con todas las
r
I
y las j
I
reales. Entonces a + / = (r
1
+ j
1
, r
2
+ j
2
, ...r
n
+ j
n
) con lo
que se ve que a + / tiene exctamente : componentes y todas ellas son
reales pues, por la cerradura en los reales, r
I
+j
I
es real para toda i. Esto
prueba la cerradura.
Si a, / R
n
entonces a = (r
1
, r
2
, ...r
n
) y / = (j
1
, j
2
, ...j
n
) con todas las
r
I
y las j
I
reales. Por ello a+/ = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) en tanto que
/ +a = (j
1
+r
1
, j
2
+r
2
, ...j
n
+r
n
) = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) y donde
el ltimo paso es vlido por la conmutatividad de la suma de nmeros
reales. Esto prueba que a +/ = / +a y la operacin + es conmutativa.
Si a, /, c R
n
entonces a = (r
1
, r
2
, ...r
n
) / = (j
1
, j
2
, ...j
n
) y c = (.
1
, .
2
, ....
n
)
con todas las r
I
, las j
I
y las .
I
reales. Entonces / + c = (j
1
+ .
1
, j
2
+
.
2
, ...j
n
+.
n
) y a+(/+c) = (r
1
+(j
1
+.
1
), r
2
+(j
2
+.
2
), ...r
n
+(j
n
+.
n
)).
Por otra parte a + / = (r
1
+ j
1
, r
2
+ j
2
, ...r
n
+ j
n
) y (a + /) + c =
((r
1
+ j
1
) + .
1
, (r
2
+ j
2
) + .
2
, ...(r
n
+ j
n
) + .
n
) = (r
1
+ (j
1
+ .
1
), r
2
+
(j
2
+ .
2
), ...r
n
+ (j
n
+ .
n
)) donde el ltimo paso se desprende de la aso-
ciatividad de nmeros reales. Por ello a +(/ +c) = (a +/) +c y se vale la
asociatividad.
Para vericar el axioma cuatro necesitamos primero indagar quin es el
cero. Sabemos que 0 R
n
y que para cualquier a R
n
se debe cumplir el
que a + 0 = 0 +a = a por lo que, con la misma a usada anteriormente si
0 = (j
1
, j
2
, ...j
n
) tenemos que a + 0 = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) = a =
(r
1
, r
2
, ...r
n
) de modo que
r
1
+j
1
= r
1
r
2
+j
2
= r
2
...
r
n
+j
n
= r
n
y resulta que j
1
= j
2
...j
n
= 0 (el nmero cero). Por ello 0 = (0, 0, ..,0) (el
0 del lado izquierdo es el cero en R
n
en tanto que los : ceros en el lado
derecho representan el nmero cero de los reales). Sabiendo quin debe de
ser el cero, es fcil ver que, en realidad, 0 = (0, 0..,0) es el cero de R
n
. En
efecto, si a = (r
1
, r
2
, ...r
n
) entonces a + 0 = (r
1
+ 0, r
2
+ 0, ...r
n
+ 0) =
(r
1
, r
2
, ...r
n
) = a.
Igual que en el caso anterior, dado un elemento a tenemos primero que
deducir quin es su inverso a y luego demostrar que en efecto es el inverso.
3.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 17
Como a R
n
a = (j
1
, j
2
, ...j
n
) y si a = (r
1
, r
2
, ...r
n
) entonces a+(a)
ser (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
) = 0 = (0, 0, ..,0) y
r
1
+j
1
= 0
r
2
+j
2
= 0
...
r
n
+j
n
= 0
y
j
1
= r
1
j
2
= r
2
...
j
n
= r
n
y concluimos que (a) = (r
1
, r
2
, ... r
n
). Que ste es realmente el
negativo se desprende del hecho de que a+(a) = (r
1
r
1
, r
2
r
2
, ...r
n

r
n
) = (0, 0, ..,0) = 0.
Si c R y a = (r
1
, r
2
, ...r
n
) R
n
entonces ca = (cr
1
, cr
2
, ...cr
n
) y
vemos que ca es una eneada de nmeros reales, demostrando que ca R
n
.
Si c, , R, y a R
n
entonces, para a = (r
1
, r
2
, ...r
n
) tenemos que
(c +,)(a) = ((c +,)r
1
, (c +,)r
2
, ...(c +,)r
n
)
= (cr
1
+,r
1
, cr
2
+,r
2
, ...cr
n
+,r
n
)
por la distributividad de la multiplicacin de nmeros reales. Por otra
parte
ca +,a = (cr
1
+,r
1
, cr
2
+,r
2
, ...cr
n
+,r
n
)
mostrando que (c +,)(a) = ca +,a.
Si a, / R
n
y c R entonces
c(a +/) = c(r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
)
= (c(r
1
+j
1
), c(r
2
+j
2
), ...c(r
n
+j
n
))
= (cr
1
+cj
1
, cr
2
+cj
2
, ...cr
n
+cj
n
)
valindose el ltimo paso por la distributividad entre nmeros reales. Por
otra parte
ca +c/ = (cr
1
+cj
1
, cr
2
+cj
2
, ...cr
n
+cj
n
)
de donde se ve que c(a +/) = ca +c/.
18 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Si c, , R y a R
n
entonces
(c,)a = ((c,)r
1
, (c,)r
2
, ...(c,)r
n
)
pero
c(,a) = c(,r
1
, ,r
2
, ...,r
n
) = (c(,r
1
), c(,r
2
), ...c(,r
n
))
= ((c,)r
1
, (c,)r
2
, ...(c,)r
n
)
por la asociatividad del producto de nmeros reales. Por ello (c,)a =
c(,a). Similarmente (c,)a = ,(ca).
1a = 1(r
1
, r
2
, ...r
n
) = (1r
1
, 1r
2
, ..,1r
n
) = (r
1
, r
2
, ...r
n
) con lo que 1a = a.
Concluimos que R
n
, con las operaciones arriba denidas, es un espacio vec-
torial real.
3.1.2. Los espacios C
n
De una manera anloga sea : un entero positivo y
C
n
= (r
1
, r
2
, ...r
n
) [ r
I
C \i = 1, 2...:
el conjunto de eneadas ordenadas de nmeros complejos. Se entiende aqu que
dos elementos r y j de C
n
dados por
r = (r
1
, r
2
, ...r
n
)
j = (j
1
, j
2
, ...j
n
)
son iguales si y slo si \i = 1, 2...:
r
I
= j
I
En C
n
denimos la suma de r = (r
1
, r
2
, ...r
n
) C
n
y j = (j
1
, j
2
, ...j
n
) C
n
como aquel elemento r +j C
n
dado por
r +j = (r
1
+j
1
, r
2
+j
2
, ...r
n
+j
n
)
y denimos el producto de c C y r = (r
1
, r
2
, ...r
n
) C
n
como el elemento
cr C
n
dado por
cr = (cr
1
, cr
2
, ...cr
n
)
Puede demostrarse que C
n
con la suma y el producto por nmeros complejos
recin denidos es un espacio vectorial complejo.
Ejercicio 10 Demuestre que C
n
con la suma y el producto por nmeros com-
plejos denidos arriba es un espacio vectorial complejo.
Ejercicio 11 Si C
n
se equipa con la misma suma que se deni en el ejercicio
anterior pero la multiplicacin por escalares se restringe a nmeros reales, es
la estructura resultante un espacio vectorial real?
3.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 19
Notacin 12 Los vectores de C
n
y R
n
pueden representarse en las siguientes
formas que son equivalentes:
(r
1
, r
2
, ...r
n
)
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
_
r
1
r
2
... r
n
_
T
y frecuentemente consideramos estos vectores como si fueran matrices de 1 :
o : 1 . El punto central es que los vectores de C
n
(o de .R
n
) son colecciones
de exactamente : nmeros complejos (o reales). De la misma manera, consider-
amos a los separadores entre los nmeros como matematicamente irrelevantes,
de manera que un espacio vaco, una coma, un punto y coma etc. (el llamado
espacio blanco de la computacin) podran ser usados para separar los nmeros.
Notacin 13 Hay una notacin til que restringimos a C
n
. Si denotamos por
al vector
=
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
entonces, por el smbolo
+
denotamos el transpuesto conjugado (adjunto) del
vector y

+
= (r
1
r
2
...r
n
)
que vemos como una matriz de 1 :
3.1.3. Los espacios P
n
Sea :un entero positivo y
1
n
= a
0
+a
1
r +a
2
r
2
+...a
n
r
n
[ a
I
R \i = 0, 1...:
el conjunto de todos los polinomios con coecientes reales y grado menor o igual
a :. Aqu se entiende que dos miembros 1(r)y Q(r)de 1
n
dados por
1(r) = a
0
+a
1
r +a
2
r
2
+...a
n
r
n
Q(r) = /
0
+/
1
r +/
2
r
2
+.../
n
r
n
son iguales si y slo si \i = 0, 1...:
a
I
= /
I
20 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
En 1
n
denimos la suma de 1(r) = a
0
+ a
1
r + a
2
r
2
+ ...a
n
r
n
1
n
y
Q(r) = /
0
+/
1
r +/
2
r
2
+.../
n
r
n
1
n
como el elemento (1 +Q) (r) 1
n
dado
por
(1 +Q) (r) = (a
0
+/
0
) + (a
1
+/
1
) r + (a
2
+/
2
) r
2
+... (a
n
+/
n
) r
n
y denimos el producto de c R y 1(r) = a
0
+a
1
r+a
2
r
2
+...a
n
r
n
1
n
como
el elemento cr 1
n
dado por
(c1) (r) = (ca
0
) + (ca
1
) r + (ca
2
) r
2
+... (ca
n
) r
n
Puede demostrarse que 1
n
con la suma y el producto por nmeros reales
recin denidos es un espacio vectorial real.
Ejercicio 14 Demuestre que 1
n
con la suma y el producto por nmeros reales
denidos anteriormente es un espacio vectorial real.
3.1.4. Los espacios M(m; n)
Sean :y :enteros positivos y
'(:, :) =
_

_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
[a
I
R \i = 0, 1...:\, = 0, 1...:
_

_
el conjunto de todas las matrices reales de ::.
Para referirnos a los elementos de una matriz dada '(:, :) usaremos
la notacin a
I
= []
I
y diremos que = 1 (con , 1 '(:, :) ) si y slo
si \i = 0, 1...:\, = 0, 1...:
[]
I
= [1]
I
Denimos una suma en '(:, :) mediante
[+1]
I
= []
I
+ [1]
I
(\i = 0, 1...:\, = 0, 1...:) donde se sobreentiende que , 1 '(:, :).
La multiplicacin de elementos de '(:, :) por nmeros reales se dene
mediante
[c]
I
= c[]
I
(\i = 0, 1...: \, = 0, 1...:) con '(:, :).
'(:, :) con las operaciones anteriormente denidas es un espacio vectorial
real.
Ejercicio 15 Demuestre que '(:, :) con la suma y el producto por nmeros
reales denidos anteriormente es un espacio vectorial real.
Comentario 16 Ya hemos visto que '(:, :) es un espacio vectorial y, anteri-
ormente, que es un anillo con unidad. Se dice, en este caso, que se trata de un
lgebra.
3.1. ALGUNOS EJEMPLOS DE ESPACIOS VECTORIALES 21
3.1.5. Los espacios M

(m; n)
Similarmente denimos (para enteros positivos :y :)
'
+
(:, :) =
_

_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
[a
I
C \i = 0, 1...:\, = 0, 1...:
_

_
como el conjunto de todas las matrices complejas de ::.
Para referirnos a los elementos de una matriz dada '
+
(:, :) usaremos
la notacin
a
I
= []
I
y diremos que = 1 (con , 1 '
+
(:, :) ) si y slo si \i = 0, 1...:\, =
0, 1...:
[]
I
= [1]
I
Denimos una suma en '
+
(:, :) mediante
[+1]
I
= []
I
+ [1]
I
(\i = 0, 1...:\, = 0, 1...:) donde se entiende que , 1 '
+
(:, :).
La multiplicacin de elementos de '(:, :) por nmeros complejos se dene
mediante
[c]
I
= c[]
I
(\i = 0, 1...:\, = 0, 1...:) y con '
+
(:, :).
'
+
(:, :) con estas operaciones es un espacio vectorial complejo.
Ejercicio 17 Demuestre que '
+
(:, :) con la suma y el producto por nmeros
complejos denidos anteriormente es un espacio vectorial complejo.
Comentario 18 Tambin se usan las notaciones '
nn
(R) o '
nn
(C) en vez
de '(:, :) y '
+
(:, :).
Comentario 19 Todo campo puede ser visto como un espacio vectorial sobre
l mismo (tome : = 1 en las deniciones de C
n
y de R
n
). Por ello el campo
de los nmeros complejos puede verse como espacio vectorial complejo, esto
contesta la pregunta que frecuentemente se hace de si hay espacios complejos de
echas (vectores geomtricos). De acuerdo con la interpretacin geomtrica
de los complejos (diagrama de Argand), los complejos son echas que pueden
sumarse y multiplicarse por nmeros. Pero en este caso al multiplicar un vector
por un nmero se le cambia el tamao y se le rota o gira ( si el vector r se
multiplica por el nmero . = jc
I0
entonces su tamao se altera por un factor j
y su ngulo de fase se incrementa por 0).
22 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Comentario 20 Si 1 es un campo y G un subcampo, entonces tambin 1 puede
pensarse como un espacio vectorial sobre G .
Comentario 21 En el caso de los espacios de polinomios podramos denir
espacios de polinomios con coecientes sobre otros campos aparte del de los
nmeros reales.
Ejemplo 22 Otros ejemplos de espacios vectoriales seran:
a) el conjunto de todas las secuencias r
I
(i = 1...) de nmeros reales o com-
plejos. La suma se dene como (r + j)
I
= r
I
+ j
I
y el producto por nmeros
como (cr)
I
= cr
I
.
b) si l y \ son espacios vectoriales sobre un mismo campo, el producto carte-
siano de l y \ se dene como
l \ = (n, ) [ n l, \
deniendo la suma mediante
(n
1
,
1
) + (n
2
,
2
) = (n
1
+n
2
,
1
+
2
)
y el producto como
c(n, ) = (cn, c)
Esto permitira, por ejemplo, tener un espacio donde los vectores sean parejas
de polinomios, o parejas en donde el primer elemento sea un polinomio y el
segundo una matriz. A esta construccin se le llama suma directa externa.
c) Si o es un conjunto, el conjunto de todas las funciones de o a los reales (o
los complejos o a cualquier otro campo)
1 = ) : o R
es un espacio vectorial si denimos
() +q)(r)) = )(r) +q(r)
y
(c))(r) = c)(r)
3.2. Algunas propiedades bsicas de los espacios
vectoriales.
Hay varias propiedades importantes de todos los espacios vectoriales.
El axioma 4 indica que hay un vector especial 0 que tiene la propiedad de
que 0 + = + 0 = para todo \ , demostramos a continuacin que slo
hay un vector con estas propiedades:
Teorema 23 Sea \ un espacio vectorial sobre un campo 1. Entonces si . \
tiene la propiedad de que . + = + . = para todo \ entonces . = 0 .
En palabras: el idntico aditivo es nico.
3.2. ALGUNAS PROPIEDADES BSICAS DE LOS ESPACIOS VECTORIALES.23
Demostracin. . = . + 0 (por el axioma 4)
= 0 (porque . + 0 = 0)
Analogamente, dado , el vector cuya existencia se asevera en el axioma
5 es nico y tenemos el teorema:
Teorema 24 Sea \ un espacio vectorial sobre el campo 1 y sea \ . Si
n \ tiene la propiedad de que +n = n+ = 0 entonces n = (el inverso
es nico).
Demostracin. n = n + 0 (por el axioma 4)
= n + ( + ()) (por el axioma 5)
= (n +) + () (por el axioma 3
= 0 + () (por las propiedades que supusimos para n)
= (por el axioma 4)
De hecho tenemos una forma dbil del teorema 23 que a menudo es til:
Teorema 25 Sea \ un espacio vectorial sobre el campo 1 y sea \ . Si
n \ tiene la propiedad de que +n = entonces n = 0.
Demostracin. () +( +n) = () + (por las propiedades asumidas para
n)
( +) +n = 0 (por los axiomas 3 y 4)
0 +n = 0 (por el axioma 5)
n = 0 (por el axioma 4)
Teorema 26 Sea \ un espacio vectorial (real o complejo). Entonces 0 = 0
\ \ .
Demostracin. Dado que 0 = 0 + 0(por el axioma 4)
= 0 + ( + ()) (por el axioma 5)
= (0 +) + ()(por el axioma 3)
= (0 + 1) + ()(por el axioma 7)
= (0 + 1) + () (por el axioma 8)
= (1) + () (pues en todo campo 1 + 0 = 1)
= + () (por el axioma 7)
= 0 (por el axioma 4)
Note que no se us la propiedad conmutativa de la suma.
Teorema 27 Sea \ un espacio vectorial (real o complejo). Entonces (1) =

Demostracin. Dado que (1) = (1) + 0 (axioma 4)


= (1) + ( + ()) (axioma 5)
= ((1) +) + () (axioma 3)
= ((1) + 1) + () (axioma 7)
= ((1 + 1)) + () (axioma 8)
= ((0)) + () (en todo campo 1 + (1) = 0)
= 0 + () (teorema anterior)
= (axioma 4)
De nuevo, note que no se us la propiedad conmutativa de la suma.
24 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Teorema 28 Sea \ un espacio vectorial(real or complejo). Entonces si ` es
un nmero (real or complejo dependiendo de si el espacio \ es real o complejo)
tenemos que `0 = 0 (momentneamente llamar 0 al vector cero y 0 al nmero
cero).
Demostracin. `0 = `(00) (por el teorema 26)= (`0)0 (por el axioma 10)
= 00 (propiedades bsicas de los nmeros)
= 0 (por el teorema 26)
Teorema 29 Sea \ un espacio vectorial (real o complejo). Entonces si \
entonces () = .
Demostracin. Puesto que + () = 0 (axioma 5)
() = (por el teorema 24)
Teorema 30 Sea \ un espacio vectorial (real o complejo) ` un nmero y
\ . Entonces si ` = 0 entonces ` = 0 o = 0.
Demostracin. Si ` = 0 el teorema es verdadero. Suponga que ` ,= 0 de modo
que `
1
.
Entonces `
1
(`) = `
1
0 = 0 (por el teorema 28)
pero `
1
(`) = (`
1
`) (por el axioma 10)
= 1 (propiedades bsicas de los nmeros reales o complejos )
= (por el axioma 7)
Consecuentemente = 0.
Ejercicio 31 Demuestre que si \ es un espacio vectorial, \ y ` es un
nmero, entonces (`) = (`) = `().
Ejercicio 32 Pruebe que si \ es un espacio vectorial, \ y ` es un nmero,
entonces (`)() = `.
Ejercicio 33 Pruebe que si \ es un espacio vectorial y n+n = +n entonces
n =
Ejercicio 34 Pruebe que si \ es un espacio vectorial y `n = ` para algn
nmero ` ,= 0 entonces n = .
3.3. Subespacios
Denicin 35 Sea \ un espacio vectorial. Decimos que \ es un subespacio
de \ si: a) \ \ , /) \ es un espacio vectorial con las mismas operaciones
que \ .
Comentario 36 Porlas mismas operaciones que \ entendemos lo siguiente:
Si a,/ \, puesto que \ \ tenemos que a,/ \ , y consecuentemente
podemos formar su suma a + /; decimos que esta suma es la que es inducida
3.3. SUBESPACIOS 25
en \ por la suma en \ . Similarmente, si a \,puesto que \ \ tenemos
que a \ , consecuentemente podemos formar el producto `a (donde ` es un
nmero); decimos que este producto es el que es inducido en \ por el producto
en \ .
Un subespacio es, entonces, un subconjunto que tambin es un espacio vec-
torial. Note que todo espacio \ es un subespacio de s mismo (un subespacio
trivial ). A n de vericar si un conjunto \ es un subespacio de un espacio
vectorial \ tendramos, en principio, que vericar que \ \ y que \ (con
la suma y producto inducidos por \ ) es un espacio vectorial. En la prctica es
mucho ms sencillo usar el siguiente teorema:
Teorema 37 Sea \ un espacio vectorial. Entonces \ es un subespacio de \
si y slo si las siguientes cuatro condiciones se cumplen: a) \ \ , /) \ ,= c,
c) Si a, / \ entonces a +/ \ (cerradura) y d) Si / es un nmero y a \
entonces / a \.
Demostracin. =
Si \ es un subespacio de \ , entonces \ \
Si \ es un subespacio de \ , entonces es un espacio vectorial, consecuente-
mente \ ,= c pues 0 \ por el axioma 4
Si \ es un subespacio de \ ,entonces es un espacio vectorial, consecuente-
mente por el axioma 1 si a, / \ entonces a +/ \.
Si \ es un subespacio de \ , entonces es un espacio vectorial, consecuente-
mente por el axioma 6 si / es un nmero y a \ entonces / a \.
=
Si \ cumple las cuatro condiciones, entonces el hecho de que cumple los
axiomas 1,2,3,5,6,7,8,9 y 10 es una consecuencia simple del hecho de que \ es
un espacio vectorial y la demostracin se deja como ejercicio. El axioma 4 es
ms sutil:
Puesto que (por la hiptesis /) \ ,= c , \ tiene algn elemento, llmelo
r, entonces (por la hiptesis d) 0r \, pero (por la hiptesis a) si 0r \
then 0r \ , pero por el teorema 4 0r = 0. Entonces 0 \. Para cualquier
a \ dado que tambin es cierto que a \ a + 0 = 0 +a = a y el axioma 4
se cumple.
Ejercicio 38 Llene los huecos en la prueba del teorema 37.
Ejemplo 39 Si \ es un espacio vectorial y \ = 0 entonces \ es, trivial-
mente, un subespacio de \ , se llama espacio nulo. Los subespacios triviales
de \ son, entonces, \ mismo y 0.
Ejemplo 40 Claramente c no puede ser un subespacio de ningn espacio pues
0 , c.
Ejercicio 41 Sea \ un espacio vectorial y a \ tal que a ,= 0. es 0, a un
subespacio de \ ? Vemos que 0, a , = c y que 0, a \ . Comencemos con la
26 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
cerradura con respecto a la multiplicacin por escalares. Si c 1 y r 0, a
entonces cr debe de ser uno de c0, ca o sea 0,ca. Con el caso cr = 0 no hay
problema, pero cuando r = a tenemos que ca debe de ser 0 o a. El primer caso
implica que c o a sea cero, pero a no es cero de modo que c debe de ser cero. El
segundo caso implica que ca = a y (c1)a = 0 implicando que c = 1. Por ello
la cerradura no puede cumplirse si c no es cero o uno. Por ello concluimos que
0, a no es cerrado bajo multiplicacin escalar y no es un subespacio. De hecho
tampoco es cerrado bajo la suma, pues al sumar r +j con ambos sumandos en
0, a las posibilidades son las de la tabla siguiente
r j r +j
0 0 0
0 a a
a 0 a
a a 2a
y vemos que cuando tenemos
a+a = 2a para que valga la cerradura 2a 0, a o sea 2a = 0 o 2a = a. Ambos
casos implicaran que a = 0 contrario a las hiptesis. 0, a no es cerrado bajo
suma tampoco.
Teorema 42 Si l y \ son subespacios de \, entonces l \ es tambin es
subespacio de \.
Demostracin. 1) Claramente el 0 \ tambin satisface 0 l y 0 \ con
lo que 0 l \
2) Claramente l\ \
3) si r, j l \ entonces r, j l y r, j \ con lo que r+j l y r+j \
(pues l y \ son subespacios) y r+j l\ probando la cerradura bajo adicin.
4) si r l\ y c 1 entonces r l y r \ con lo que cr l y cr \ (por
la cerradura bajo multiplicacin escalar de los subespacios) y cr l \ con lo
que l\ tambin es cerrado bajo multiplicacin.
Consecuentemente l \ es un subespacio de \.
Sin embargo l ' \ no es un subespacio en general, aunque l ' \ ,= c
(0 l ' \ ) y l ' \ \ resulta que las cerraduras pueden fallar. Esto se
ve claramente con un ejemplo: considere \ = R
2
, l = c(1, 0) [ c R
y \ = ,(0, 1) [ , R, dejo al lector vericar que tanto l como \ son
subespacios de \. Pero (1, 0) + (0, 1) = (1, 1) , l ' \ pues (1, 1) , l y
(1, 1) , \ . Tambin deber el lector mostrar que l ' \ s es cerrado bajo la
multiplicacin por escalares. Es la cerradura bajo + la que causa problemas.
Comentario 43 Si vemos al espacio vectorial como una estructura algebraica,
podemos pensar al subespacio como una subestructura. En matemticas es muy
comn estudiar estructuras y luego sus posibles subestructuras.
Ejemplo 44 Si l y \ son subespacios de \, entonces podemos denir la suma
de l y \ como
l +\ = n + [ n l, \
y dejamos como ejercicio para el lector el vericar que l +\ es un subespacio
de \.
3.4. SISTEMAS DE ECUACIONES LINEALES HOMOGNEAS. 27
3.4. Sistemas de ecuaciones lineales homogneas.
Una clase especial pero importante de subespacios es la formada por los
conjuntos solucin de sistemas de ecuaciones lineales homogeneas.
El sistema ms general tiene la forma:
a
11
r
1
+a
12
r
2
+...a
1n
r
n
= 0
a
21
r
1
+a
22
r
2
+..a
2n
r
n
= 0
.
.
.
a
n1
r
1
+a
n2
r
2
+..a
nn
r
n
= 0
y decimos que es un sistemas de ecuaciones lineales homogeneas de : equaciones
en : incgnitas.
Si denimos una matriz de :: como
=
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
y la matriz A de : 1(que consideramos como un elemento de R
n
o de C
n
)
mediante
A =
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
entonces podemos escribir el sistema como
A = 0
donde
0 =
_
_
_
_
_
0
0
.
.
.
0
_
_
_
_
_
es el vector cero de R
n
(o C
n
segn sea el caso).
Es conveniente denir el conjunto solucin de este sistema como
o = A 1
n
[ A = 0
donde 1
n
quiere decir R
n
o C
n
segn sea el caso.
Teorema 45 o es un subespacio de 1
n
28 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Demostracin. a) claramente o 1
n
/) o ,= c pues 0 = 0 (aqu el 0 en la izquierda es el cero de 1
n
, en tanto
que el cero en la derecha es el cero de 1
n
) y 0 o.
c) si r,j o entonces r = 0 y j = 0, por lo que (r + j) = r + j =
0 + 0 = 0 y r +j o.
d) si r o y ` 1 entonces (`r) = `(r) = `0 = 0 de modo que `r o
.
La conclusin se desprende del teorema 9.
3.5. combinaciones lineales
En todo lo que sigue sea \ un espacio vectorial.
Sea c =
1
,
2
, ...
n
\ un conjunto de : vectores en \ . Una combinacin
lineal de los vectores en c es una expresin de la forma
c
1

1
+c
2

2
+...c
n

n
donde c
1
, c
2
...c
n
son nmeros.
Ejemplo 46 es r = (9, 2, 7) combinacin lineal de n = (1, 2, 1) y =
(6, 4, 2)?
Lo que hay que preguntarse es si existen escalares c y , tales que r = cn +,.
Si existieran
(9, 2, 7) = c(1, 2, 1) +,(6, 4, 2) = (c + 6,, 2c + 4,, c + 2,)
por lo que tenemos el sistema lineal inhomogneo
c + 6, = 9
2c + 4, = 2
c + 2, = 7
cuya matriz aumentada es
_
_
1 6 9
2 4 2
1 2 7
_
_
~
_
_
1 6 9
0 8 16
0 8 16
_
_
~
_
_
1 6 9
0 1 2
0 1 2
_
_
~
_
_
1 6 9
0 1 2
0 0 0
_
_
~
_
_
1 0 3
0 1 2
0 0 0
_
_
indicando que
c = 3
, = 2
y r es, en efecto, combinacin lineal de u y .
3.5. COMBINACIONES LINEALES 29
Ejemplo 47 es r = (9, 3, 7) combinacin lineal de n = (1, 2, 1) y =
(6, 4, 2)?
Lo que hay que preguntarse es si existen escalares c y , tales que r = cn +,.
Si existieran
(9, 3, 7) = c(1, 2, 1) +,(6, 4, 2) = (c + 6,, 2c + 4,, c + 2,)
por lo que tenemos el sistema lineal inhomogneo
c + 6, = 9
2c + 4, = 3
c + 2, = 7
cuya matriz aumentada es
_
_
1 6 9
2 4 3
1 2 7
_
_
~
_
_
1 6 9
0 8 15
0 8 16
_
_
~
_
_
1 6 9
0 8 15
0 1 2
_
_
~
_
_
1 0 3
0 0 1
0 1 2
_
_
~
_
_
1 0 3
0 0 1
0 1 2
_
_
~
_
_
1 0 0
0 0 1
0 1 0
_
_
~
_
_
1 0 0
0 1 0
0 0 1
_
_
que no tiene soluciones. Luego r no es combinacin lineal de n y .
3.5.1. Des-sumando y des-multiplicando
Hay un truco que usaremos fecuentemente y que consiste en tomar vectores
de R
n
o de C
n
y descomponerlos combinaciones lineales. Un ejemplo vale un
milln de palabras:
Considere el vector (2r + 3j, r + 8j), usando las regla para la suma y
producto por escalares vemos que
(2r + 3j, r + 8j) = (2r, r) + (3j, 8j)
= r(2, 1) +j(3, 8)
30 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
en el primer rengln hemos descompuesto la expresin en dos sumandos, uno
que slo incluye la variable r y otro que slo incluye la variable j; a continuacin
hemos factorizado los escalares r y j.
3.6. generadores
Teorema 48 Sea \ un espacio vectorial y c =
1
,
2
, ...
n
\ . El conjunto
Gc:(c) = Gc:(
1
,
2
, ...
n
) de todas las combinaciones lineales de elementos en
c y denido por
Gc:(c) = c
1

1
+c
2

2
+...c
n

n
[ c
I
1 \i = 1, 2...:
es un subespacio de \ .
Demostracin. a) Gc:(c) claramente es un subconjunto de \ .
/) 0 = 0
1
+ 0
2
+..,0
n
, de modo que 0 Gc:(c) y Gc:(c) ,= c
c) Si r, j Gc:(c) entonces r = c
1

1
+ c
2

2
+ ...c
n
y j = d
1

1
+ d
2

2
+
...d
n

n
donde los c
I
y los d
I
son nmeros. Entonces r +j = (c
1
+d
1
)
1
+ (c
2
+
d
2
)
2
+...(c
n
+d
n
)
n
y r +j Gc:(c)
d) Si r Gc:(c) entonces r = c
1

1
+c
2

2
+...c
n

n
donde los c
I
son nmeros.
Entonces para ` 1
`r = (`c
1
)
1
+ (`c
2
)
2
+...(`c
n
)
n
y `r Gc:(c).
La conclusin se sigue del teorema 9.
Algunos autores escriben en vez de Gc:(
1
,
2
, ...
n
) 1(
1
,
2
, ...
n
) o incluso
(
1
,
2
, ...
n
).
Decimos que estos vectores generan un subespacio Gc:(c) de \ , o que los
vectores son un conjunto generador para Gc:(c). En general, decimos que c
genera \ si \ = Gc:(c). En otras palabras, un conjunto c es un generador de
un espacio \ si cada vector de \ es una combinacin lineal de vectores en c.
Por los ejemplos anteriores, podemos ver que n = (1, 2, 1) y = (6, 4, 2)
no generan R
3
pues hay vectores que no son combinaciones lineales de n y .
En general, un conjunto generador para R
n
o C
n
est dado por
(1, 0, 0..,0), (0, 1, 0, ..,0), ...(0, 0, 0..,1)
un conjunto generador para 1
n
est dado por
1, r, r
2
...r
n

en tanto que un conjunto generador para '(:, :) y '


+
(:, :) es
_

_
_
_
_
_
_
1 0 ... 0
0 0 ... 0
.
.
.
0 0 ... 0
_
_
_
_
_
,
_
_
_
_
_
0 1 ... 0
0 0 ... 0
.
.
.
0 0 ... 0
_
_
_
_
_
, ...,
_
_
_
_
_
0 0 ... 0
0 0 ... 0
.
.
.
0 0 ... 1
_
_
_
_
_
_

_
Todo espacio tiene un nmero innito de posibles generadores.
Ms adelante mostraremos cmo obtener generadores de conjuntos solucin
de sistemas lineales homogneos.
3.6. GENERADORES 31
Ejemplo 49 R
3
contiene los vectores (1, 0, 0) y (0, 1, 0) y o = Gc:((1, 0, 0), (0, 1, 0))
es un subespacio de R
3
. pero o no coincide con R
3
pues (1, 0, 0), (0, 1, 0) no
genera R
3
(por ejemplo (0, 0, 1) no est en o).
En lgebra lineal se consideran dos clases importantes de problemas relativos
a generadores:
Dado un conjunto
1
,
2
, ...
n
determinar el espacio generado
Gc:(
1
,
2
, ...
n
).
Dado un espacio, determinar un generador.
3.6.1. cmo encontrar un generador para el espacio solu-
cin de un sistema lineal homogneo.
Veamos primero, mediante un ejemplo, la estrategia bsica.
Considere el sistema
3r + 5j 4. = 0
3r 2j + 4. = 0
6r +j 8. = 0
La matriz de coecientes es
_
_
3 5 4
3 2 4
6 1 8
_
_
cuya forma escalonada reducida por renglones es:
_
_
1 0
4
3
0 1 0
0 0 0
_
_
por lo que un sistema equivalente (en el sentido de tener exactamente las mismas
soluciones) es
r
4
3
. = 0
j = 0
En la matriz reducida debemos identicar las columnas pivote, es decir las
columnas con un uno delantero (o principal). stas sosn la primera y la segunda
columna. Las variables correspondientes (r y j) se llaman variables ligadas y las
restantes (. en este caso) se llaman variables libres . La parte crucial consiste
en tomar el vector genrico de R
3
(pues el conjunto solucin es un subespacio
de R
3
) y reexpresarlo en trminos de las variables libres usando las ecuaciones
anteriores de modo que
(r, j, .) = (
4
3
., 0, .) = .(
4
3
, 0, 1)
32 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Factorizando los escalares, obtenemos las combinaciones lineales que dan todas
las soluciones, de ellas podemos inferir el generador (los vectores cuyas combi-
naciones lineales dan las soluciones).
Por ello un generador para el espacio solucin del sistema propuesto es
(
4
3
, 0, 1)
En el caso general lo que hay que hacer es:
del sistema o inferimos la matriz de coecientes '
calculamos la forma escalonada reducida por renglones de la matriz '
de inferimos el sistema de ecuaciones o
t
que es equivalente a o.
de inferimos cules son las variables ligadas (las que corresponden a
colunmas conteniendo los unos principales, delanteros o pivotes).
de inferimos cules son las variables libres (las que no son ligadas).
tomamos el vector genrico = (r
1
, r
2
...r
n
) de 1
n
(: es el nmero de
incgnitas)
reexpresamos usando las ecuaciones de o
t
poniendo las variables ligadas
en trminos de las libres.
reescribimos factorizando los escalares de manera que se vea que las
soluciones son combinaciones lineales de ciertos vectores de 1
n
.
estos vectores constituyen un generador.
3.7. Independencia lineal y dependencia lineal
Considere un espacio vectorial \ , un conjunto c =
1
,
2
, ...
n
\ y la
ecuacin lineal
r
1

1
+r
2

2
+...r
n

n
= 0
donde los nmeros r
1
, r
2
..r
n
son incgnitas cuyos valores deseamos determinar.
En otras palabras, deseamos ver cules combinaciones lineales de vectores en c
dan el vector cero.
Obviamente, si r
1
= r
2
= ...r
n
= 0 la combinacin lineal correspondiente
da 0 (se dice que la combinacin lineal es trivial). Pero nos preguntamos si hay
soluciones en las que no todos los coecientes sean cero.
Denicin 50 Dado un espacio vectorial \ y un conjunto c =
1
,
2
, ...
n

\ decimos que c es linealmente independiente (o que los vectores en c son
linealmente independientes) si
r
1

1
+r
2

2
+...r
n

n
= 0 = r
1
= r
2
= ...r
n
= 0
3.7. INDEPENDENCIA LINEAL Y DEPENDENCIA LINEAL 33
Por otro lado, decimos que c es linealmente dependiente (o que los vectores
en c son linealmente dependientes) si hay nmeros r
1
, r
2
..r
n
, no todos cero, y
tales que
r
1

1
+r
2

2
+...r
n

n
= 0
Ejercicio 51 Demuestre que cualquier conjunto que contenga al vector cero 0
es linealmente dependiente. Sea el conjunto
1
,
2
, ...
n
, 0, entonces
0
1
+ 0
2
+..,0
n
+ 1

0 =

0
y tenemos una combinacin lineal de los vectores que da cero y no todos los
coecientes son cero (el coeciente de

0 es uno)
Teorema 52 Sea \ un espacio vectorial, o =
1
,
2
, ...
n
un subconjunto
de \ que es linealmente independiente y T un subconjunto de o. Entonces T
tambin es independiente.
Demostracin. Suponga (renumerando los vectores si es necesario) que T =

1
,
2
, ...
|
con / _ :, es dependiente, entonces existen r
1
, r
2
..r
|
, no todos
cero, y tales que r
1

1
+r
2

2
+...r
|

|
= 0 pero esto implica que r
1

1
+r
2

2
+
...r
|

|
+0
|+1
+.,0
n
= 0 y tenemos una combinacin lineal de
1
,
2
, ...
n
que
da cero y no todos los coecientes son cero, lo cual contradice la independencia
de o.
Corolario 53 Sea \ un espacio vectorial, o =
1
,
2
, ...
n
un subconjunto
de \ y T un subconjunto de o linealmente dependiente. Entonces o tambin es
dependiente.
Pero no es cierto que un subconjunto de un conjunto linealmente dependiente
sea necesariamente dependiente ni que si o tiene un subconjunto independiente
o tenga que ser independiente.
En resumidas cuentas
o independiente = T independiente
T dependiente = o dependiente
y note por favor que las proposiciones son contrapositivas la una de la otra.
En general la proposicin 1 = Q es lgicamente equivalente a ~ Q =~ 1.
La aseveracin falsa o dependiente= T dependiente es la conversa de T
dependiente= o dependiente y la contrapositiva de T independiente= o
independiente.
Si se nos dice que a, / es dependiente, entonces ra +j/ = 0 para nmeros
r y j no ambos cero. Suponga que r ,= 0, entonces a = (

r
)/ y los vectores son
colineales (o paralelos).
Si se nos dice que a, /, c es dependiente, entonces ra + j/ + .c = 0 para
nmeros r , j y . no todos cero. Suponga que r ,= 0, entonces a = (

r
)/+(
:
r
)c
y los vectores son coplanares.
34 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Teorema 54 Sea \ un espacio vectorial y o =
1
,
2
, ...
n
un subconjunto
de \ . Si
n
es combinacin lineal de
1
,
2
, ...
n1
entonces o es linealmente
dependiente.
Demostracin. Existen, por hiptesis, nmeros r
1
, r
2
..r
n1
tales que
n
=
r
1

1
+r
2

2
+...r
n1

n1
de modo que r
1

1
+r
2

2
+...r
n1

n1
+(1)
n
= 0
con lo que tenemos una combinacin lineal de vectores de
1
,
2
, ...
n
que no
es trivial y da cero. Por ello o es dependiente.
Y hay un converso,
Teorema 55 Sea \ un espacio vectorial y o =
1
,
2
, ...
n
un subconjunto
de \ . Si o es linealmente dependiente, entonces uno de los vectores de o es
combinacin lineal de los restantes.
Demostracin. Si o es linealmente dependiente entonces hay nmeros no todos
cero y tales que r
1

1
+r
2

2
+...r
n1

n1
+r
n

n
= 0. Suponga que r
1
,= 0 (y lo
mismo vale si es otro el que no es cero) entonces
1
= (
1
r1
)(r
2

2
+...r
n1

n1
+
r
n

n
) demostrando el teorema.
3.7.1. Cmo determinar la dependencia o independen-
cia?
Si le dan a Usted un espacio vectorial \ y un conjunto c =
1
,
2
, ...
n
\
y le preguntan si c es linealmente independiente lo que debe de hacer es plantear
la ecuacin r
1

1
+r
2

2
+...r
n

n
= 0 y resolverla (se convertir eventualmente en
un sistema homogneo de ecuaciones lineales). Si la nica solucin es la trivial, el
conjunto es linealmente independiente. Si hay otras soluciones, c es linealmente
dependiente.
Ejemplo 56 son los vectores de R
3
(1, 3, 2), (1, 2, 5) y (0, 1, 4) independi-
entes o dependientes?.La ecuacin a resolver es
r
1
(1, 3, 2) +r
2
(1, 2, 5) +r
3
(0, 1, 4) = (0, 0, 0)
o
(r
1
r
2
, 3r
1
+ 2r
2
+r
3
, 2r
1
+ 5r
2
+ 4r
3
) = (0, 0, 0)
que da lugar al sistema lineal homogneo
r
1
r
2
= 0
3r
1
+ 2r
2
+r
3
= 0
2r
1
+ 5r
2
+ 4r
3
= 0
cuya matriz de coecientes es
=
_
_
1 1 0
3 2 1
2 5 4
_
_
3.7. INDEPENDENCIA LINEAL Y DEPENDENCIA LINEAL 35
y al reducir
~
_
_
1 1 0
0 5 1
0 7 4
_
_
~
_
_
1 1 0
0 1
1
5
0 7 4
_
_
~
_
_
1 0
1
5
0 1
1
5
0 0
13
5
_
_
~
_
_
1 0
1
5
0 1
1
5
0 0 1
_
_
~
_
_
1 0 0
0 1 0
0 0 1
_
_
por lo que el sistema original es equivalente al sistema
r
1
= 0
r
2
= 0
r
3
= 0
cuya solucin es la trivial y los vectores son independientes.
Ejemplo 57 Considere el subconjunto
, =
__
1 16
4 13
_
,
_
2 3
3 4
_
,
_
1 2
2 1
__
de '(2, 2) . es , linealmente dependiente o linealmente independiente?.Planteamos
la ecuacin bsica que es la de una combinacin lineal de vectores de , que de
cero:
r
_
1 16
4 13
_
+j
_
2 3
3 4
_
+.
_
1 2
2 1
_
=
_
0 0
0 0
_
y
_
r + 2j . 16r + 3j + 2.
4r + 3j 2. 13r + 4j +.
_
=
_
0 0
0 0
_
de modo que
r + 2j . = 0
16r + 3j + 2. = 0
4r + 3j 2. = 0
13r + 4j +. = 0
36 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
que es un sistema lineal homogneo cuya matriz de coecientes es
=
_
_
_
_
1 2 1
16 3 2
4 3 2
13 4 1
_
_
_
_
y al reducir
~
_
_
_
_
1 2 1
16 3 2
4 3 2
13 4 1
_
_
_
_
~
_
_
_
_
1 2 1
0 35 14
0 5 2
0 30 12
_
_
_
_
~
_
_
_
_
1 2 1
0 5 2
0 5 2
0 5 2
_
_
_
_
~
_
_
_
_
1 2 1
0 5 2
0 0 0
0 0 0
_
_
_
_
~
_
_
_
_
1 2 1
0 1
2
5
0 0 0
0 0 0
_
_
_
_
~
_
_
_
_
1 0
1
5
0 1
2
5
0 0 0
0 0 0
_
_
_
_
y un sistema equivalente al original es
r +
.
5
= 0
j
2
5
. = 0
Las variables ligadas de este sistema, que son las variables correspondientes
a las columnas con los unos delanteros (unos principales, pivotes), o sea r y j.
Las variables libres son las restantes, o . en nuestro caso. A partir de aqu la
receta es: ponga todo en funcin de las variables libres.
Por ello un vector en el conjunto solucin del sistema ser
(r, j, .) = (
.
5
,
2
5
., .) = .(
1
5
,
2
5
, 1)
indicando que todos los mltiplos de (
1
5
,
2
5
, 1) dan soluciones. Por ello para
cualquier . ,= 0 tendremos soluciones no triviales. En conclusin, los vectores
de , son linealmente dependientes.
Comentario 58 De los ejemplos anteriores se puede ver que, al reducir la ma-
triz de coecientes, si hay al menos una variable libre el sistema tendr solu-
ciones no triviales. Si no hay variables libres y todas son ligadas la nica
solucin posible al sistema lineal homogneo ser la trivial.
3.8. BASES Y DIMENSIN 37
3.8. bases y dimensin
Denicin 59 Sea \ un espacio vectorial. Una base c =
1
,
2
..
n
es un
conjunto que: 1) genera \. 2) es linealmente independiente.
Si \ es un espacio vectorial y c es una base, entonces dado \ hay
nmeros c
1
, c
2
...c
n
con la propiedad de que
=
n

I=1
c
I

I
pues c genera a \ . Estos nmeros son nicos, pues si tuviramos que
=
n

I=1
d
I

I
entonces (restando ambas ecuaciones)
0 =
n

I=1
(c
I
d
I
)
I
lo cual implica que \i
c
I
= d
I
pues el conjunto c es linealmente independiente.
Tenemos el siguiente teorema bsico:
Teorema 60 Sea \ un espacio vectorial sobre el campo 1. Sea c =
1
,
2
..
n

una base de \ . Sea n


1
, n
2
..n
n
\ y suponga que : : . Entonces , =
n
1
, n
2
..n
n
es linealmente dependiente.
Demostracin. Ofrecemos aqu una prueba sencilla usando algunos hechos
elementales sobre sistemas de ecuaciones, una demostracin alternativa puede
hallarse en el libro de Lang [1]
Dado que c es una base, todo elemento de , puede ser expresado como una
combinacin lineal de vectores de c, consecuentemente
n
1
= c
11

1
+c
12

2
+...c
1n

n
n
2
= c
21

1
+c
22

2
+...c
2n

n
.
.
.
n
n
= c
n1

1
+c
n2

2
+...c
nn

n
y una combinacin lineal de los vectores de , que de 0 debe satisfacer
0 =
1
n
1
+
2
n
2
+...
n
n
n
38 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
de modo que
0 =
n

I=1

I
n
I
=
n

I=1

I
n

=1
c
I

=
n

=1
_
n

I=1
c
I

I
_

pero como c es linealmente independiente


_
n

I=1
c
I

I
_
= 0
que es un conjunto de : ecuaciones con : incgnitas y : :. Es bien sabido
que un sistema lineal homogneo en el cual el nmero de incgnitas excede al
de ecuaciones siempre tiene una solucin no trivial. Por ello podemos encontrar
nmeros
1
,
2
...
n
no todos cero, y tales que una combinacin lineal de vec-
tores de c con estos nmeros como coecientes da cero. Luego , es linealmente
dependiente.
Este teorema tiene una consecuencia importante:
Teorema 61 Sea \ un espacio vectorial y sean c y , bases de \ . Entonces c
y , tienen el mismo nmero de elementos.
Demostracin. Sean c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
dos bases. Si :
: entonces, por el teorema 61 tenemos que , es linealmente dependiente, con-
tradiciendo el que , sea una base. Si : : entonces, de nuevo, por el teorema
61 tenemos que w c es linealmente dependiente, contradiciendo el que c sea una
base. Por lo tanto : = :.
Denicin 62 Sea \ un espacio vectorial. Si \ tiene una base con un nmero
nito de elementos, se dice que \ es de dimensin nita. De lo contrario decimos
que \ es de dimensin innita.
Denicin 63 En vista del hecho de que cualesquiera dos bases en un espacio
de dimensin nita tienen el mismo nmero de elementos (gracias al teorema
61) podemos hacer la siguiente denicin:
Denicin 64 Sea \ un espacio vectorial de dimensin nita.El nmero :
de elementos en cualquier base se llama la dimensin del espacio y se denota
mediante dim(\ ).
Comentario 65 En lo que sigue se supondr que todos los espacios vectoriales
son de dimensin nita.
Ejemplo 66 En R
n
el conjunto c = (1, 0, 0..,0), (0, 1, 0, ..,0), ...(0, 0, .,1)) es
una base, se llama base cannica de R
n
. Por ello dim(R
n
) = :.
3.8. BASES Y DIMENSIN 39
Ejemplo 67 En C
n
la base c = (1, 0, 0..,0), (0, 1, 0, ..,0), ...(0, 0, .,1)) es la
base cannica. Por ello dim(C
n
) = :
Ejemplo 68 En 1
n
la base cannica es 1, r, r
2
...r
n
y dim(1
n
) = : + 1.
Ejemplo 69 En '(:, :) y en '
+
(:, :) la base cannica est dada por
_

_
_
_
_
_
_
1 0 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 0
_
_
_
_
_
,
_
_
_
_
_
0 1 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 0
_
_
_
_
_
, ...
_
_
_
_
_
0 0 ... 0
0 0 ... 0
.
.
.
.
.
. ...
.
.
.
0 0 ... 1
_
_
_
_
_
_

_
y dim('(:, :)) = dim('
+
(:, :)) = ::
Ejemplo 70 Es = (1, 0) una base de R
2
?.
Ms adelante veremos que dado que el conjunto tiene un slo elemento y
dim(R
2
) = 2, no puede ser una base. Pero analicemos, como ejemplo de los
clculos habituales en este tema, el asunto en detalle. Como (1, 0) ,= (0, 0) el
conjunto es linealmente independiente. Pero no genera R
2
pues
(r, j) = c(1, 0)
implica que
r = c
j = 0
y ningn vector de R
2
con j ,= 0 puede ser combinacin lineal de vectores en .
Conrmamos que no es una base de R
2
.
Ejemplo 71 Es = (1, 0), (0, 1) una base de R
2
?. Claramente genera
R
2
pues
(r, j) = (r, 0) + (0, j) = r(1, 0) +j(0, 1)
y es independiente pues si
r(1, 0) +j(0, 1) = (0, 0)
tendremos que
(r, j) = (0, 0)
y r = 0 y j = 0. es una base de R
2
.
Ejemplo 72 Es = (1, 0), (0, 1), (1, 1) una base de R
2
?. Ms adelante ver-
emos que dado que dim(R
2
) = 2, no puede ser una base. Pero, si procedemos
directamente, vemos que genera R
2
pues
(r, j) = c(1, 0) +,(0, 1) +(1, 1)
40 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
implica que
(r, j) = (c +, , +)
y
r = c +
j = , +
cuya matriz aumentada es
_
1 0 1 r
0 1 1 j
_
que ya est en forma escalonada reducida por renglones. Las columnas pivote
son la primera y la segunda, las variables ligadas son, por lo tanto, c y , en
tanto que hay slo una variable libre: . Por ello el sistema tiene soluciones,
de hecho un nmero innito de ellas. genera a R
2
. Sin embargo no es
linealmente independiente pues
(0, 0) = (c +, , +)
implica
c + = 0
, + = 0
que tiene soluciones no triviales (por ejemplo = 1, c = , = 1. no es base
de R
2
.
Hemos visto que para que un conjunto sea una base es preciso que sea un
generador y que sea linealmente independiente. Sin embargo si conocemos la
dimensin del espacio obtenemos criterios ms sencillos.
Teorema 73 Sea \ un espacio vectorial con dim(\ ) = :. Si c =
1
,
2
..
n

genera a \ entonces es linealmente independiente y, consecuentemente, es una


base de \ .
Teorema 74 Sea \ un espacio vectorial con dim(\ ) = :. Si c =
1
,
2
..
n

es linealmente independiente entonces genera a \ y, consecuentemente, es una


base de \ .
Cuando el espacio es \ = 0 se dice que es de dimensin cero. No hemos
tenido oportunidad de demostrar que si l es subespacio de \ entonces dim(l) _
dim(\ ) pero ms adelante usaremos este teorema.
Ejemplo 75 Demuestre que (1, 2, 1), (2, 9, 0), (3, 3, 4) es una base de R
3
.
Primero veamos la independencia, suponga que
r(1, 2, 1) +j(2, 9, 0) +.(3, 3, 4) = (0, 0, 0)
3.8. BASES Y DIMENSIN 41
por lo que
r + 2j + 3. = 0
2r + 9j + 3. = 0
r + 4. = 0
cuya matriz de coecientes es
_
_
1 2 3
2 9 3
1 0 4
_
_
que tiene como forma escalonada reducida por renglones
_
_
1 0 0
0 1 0
0 0 1
_
_
de modo que un sistema equivalente es
r = 0
j = 0
. = 0
probando que los vectores son independientes.
Como tenemos tres vectores independientes en un espacio de dimensin tres,
resulta que forman base. Sin embargo, para ilustrar el punto, veamos que los
vectores tambin generan a R
3
. Tome cualquier (a, /, c) R
3
y preguntmonos
si es combinacin lineal de (1, 2, 1), (2, 9, 0) y (3, 3, 4)
r(1, 2, 1) +j(2, 9, 0) +.(3, 3, 4) = (a, /, c)
por lo que
r + 2j + 3. = a
2r + 9j + 3. = /
r + 4. = c
de modo que el problema puede ser parafraseado preguntando si este sistema
lineal inhomogneo es consistente para cualquir eleccin de (a, /, c). Hay varias
formas de contestar esto, la primera es notar que
dct
_
_
1 2 3
2 9 3
1 0 4
_
_
= 1
con lo que =
_
_
1 2 3
2 9 3
1 0 4
_
_
es una matriz invertible y el sistema inhomogneo
r = j tiene siempre solucin nica. Otra opcin es ver que, como la forma
42 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
escalonada reducida por renglones de es la identidad, la matriz es invertible.
Ms adelante veremos mejores mtodos pero ahora hagmoslo por los mtodos
Gaussianos que ya conocemos:
El sistema
r + 2j + 3. = a
2r + 9j + 3. = /
r + 4. = c
tiene como matriz aumentada
_
_
1 2 3 a
2 9 3 /
1 0 4 c
_
_
y al reducirla queda
_
_
1 0 0 8/ 36a + 21c
0 1 0 5a / 3c
0 0 1 9a 2/ 5c
_
_
indicando que el sistema es compatible para todos los valores de a , / y c .
El siguiente ejemplo es ms complicado e ilustra la manera de extraer una
base para espacios solucin de sistemas lineales homogneos.
Ejemplo 76 Determine una base y la dimensin del espacio de soluciones del
sistema homogneo
2r
1
+ 2r
2
r
3
+r
5
= 0
r
1
r
2
+ 2r
3
3r
4
+r
5
= 0
r
1
+r
2
2r
3
r
5
= 0
r
3
+r
4
+r
5
= 0
Para resolverlo escribimos la correspondiente matriz de coecientes
_
_
_
_
2 2 1 0 1
1 1 2 3 1
1 1 2 0 1
0 0 1 1 1
_
_
_
_
3.8. BASES Y DIMENSIN 43
que puede ser reducida
~
_
_
_
_
0 0 3 0 3
1 1 2 3 1
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 3 0 3
0 0 0 3 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 0 3 0
0 0 0 3 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 0 1 0
0 0 0 1 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
0 0 0 0 0
0 0 0 1 0
1 1 2 0 1
0 0 1 1 1
_
_
_
_
~
_
_
_
_
1 1 2 0 1
0 0 1 1 1
0 0 0 1 0
0 0 0 0 0
_
_
_
_
~
_
_
_
_
1 1 2 0 1
0 0 1 0 1
0 0 0 1 0
0 0 0 0 0
_
_
_
_
~
_
_
_
_
1 1 0 0 1
0 0 1 0 1
0 0 0 1 0
0 0 0 0 0
_
_
_
_
y las variables ligadas (las que corresponden a las columnas con unos principales)
son r
1
, r
3
y r
4
por lo que las variables libres son r
2
y r
5
. Un sistema equivalente
al original es
r
1
+r
2
+r
5
= 0
r
3
+r
5
= 0
r
4
= 0
y podemos extraer una base escribiendo el vector genrico de R
5
como (r
1
, r
2
, r
3
, r
4
, r
5
)
44 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
y reexpresndolo en trminos de las variables libres como
(r
1
, r
2
, r
3
, r
4
, r
5
) = (r
2
r
5
, r
2
, r
5
, 0, r
5
) =
r
2
(1, 1, 0, 0, 0) +r
5
(1, 0, 1, 0, 1)
de donde vemos que un generador para el espacio solucin es
(1, 1, 0, 0, 0), (1, 0, 1, 0, 1)
pero una gracia de la reduccin Gaussiana es que este mtodo siempre da vec-
tores independientes (decimos esto sin demostracin) por lo que es tambin una
base. La dimensin del conjunto solucin es dos.
Comentario 77 A veces es conveniente pensar en los elementos de una base en
un orden dado. Entonces hablamos de una base ordenada. As pues c = , n
y , = n, son la misma base pero diferentes bases ordenadas.
Comentario 78 que el procedimiento Gaussiano d siempre vectores indepen-
dientes requiere, para su demostracin, el teorema de la dimensin que se ver
ms adelante junto con el concepto de rango.
3.8.1. Algunos resultados adicionales
Hay algunos resultados importantes pero que, por no aparecer en nuestro
programa, sern simplemente presentados de manera breve:
Sea \ un espacio vectorial con dim(\ ) = :. Si c =
1
,
2
, ...
n
con
: < : es un conjunto linealmente independiente, entonces podemos hallar
vectores
n+1
,
n+2
, ...
n
tales que , =
1
,
2
, ...
n
sea una base de \ .
Esti a veces se enuncia diciendo que un conjunto linealmente independiente
puede completarse a una base.
Si \ es un subespacio de \ entonces dim(\) _ dim(\ ). An ms,
dim(\) = dim(\ ) si y slo si \ = \.
3.9. coordenadas
Dado un espacio vectorial \ equipado con una base c =
1
,
2
..
n
ya
hemos visto que cualquier vector \ puede escribirse de manera nica como
=
n

I=1
c
I

I
Los nmeros c
1
, c
2
...c
n
se llaman coordenadas de con respecto a la base c.
Claramente estos nmeros cambian si cambiamos de la base c a otra base ,. El
vector de R
n
(o C
n
)
()
o
= (c
1
, c
2
...c
n
)
3.9. COORDENADAS 45
se llama vector de coordenadas de con respecto a la base c.
La matriz de : 1 (que puede ser pensada como un vector de R
n
o de C
n
)
dada por
[]
o
=
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
se llama matriz de coordenadas de con respecto a la base c.
Ejemplo 79 Las coordenadas de un vector (r
1
, r
2
...r
n
) en R
n
o C
n
con respec-
to a la base cannica es la misma eneada (r
1
, r
2
...r
n
) , es decir, ((r
1
, r
2
...r
n
))
c
= (r
1
, r
2
...r
n
) donde c denota la base cannica.
Ejemplo 80 Las coordenadas de un vector 1(r) = a
0
+ a
1
r + ...a
n
r
n
en 1
n
con respecto a la base cannica son (j(r))
c
= (a
0
, a
1
, ...a
n
).
Ejemplo 81 En \ = 1
4
considere la base =
1
,
2
,
3
,
4
,
5
dada por

1
= 1

2
= 1 +r

3
= 1 +r +r
2

4
= 1 +r +r
2
+r
3

5
= 1 +r +r
2
+r
3
+r
4
Obtener las coordenadas en la base del vector = 2 + 3r + 2r
2
+ 5r
3
2r
4
.
Hay que encontrar los escalares c
1
, c
2
, c
3
, c
4
y c
5
tales que
= c
1

1
+c
2

2
+c
3

3
+c
4

4
+c
5

5
o sea
2 + 3r + 2r
2
+ 5r
3
2r
4
= c
1
(1) +c
2
(1 +r) +c
3
(1 +r +r
2
) +c
4
(1 +r
2
+r
3
) +c
5
(1 +r +r
2
+r
3
+r
4
)
de modo que
2 + 3r + 2r
2
+ 5r
3
2r
4
= (c
1
+c
2
+c
3
+c
4
+c
5
)(1)+
(c
2
+c
3
+c
4
+c
5
)(r)+
(c
3
+c
4
+c
5
)(r
2
)+
(c
4
+c
5
)(r
3
)+
c
5
r
4
46 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
o sea
c
1
+c
2
+c
3
+c
4
+c
5
= 2
c
2
+c
3
+c
4
+c
5
= 3
c
3
+c
4
+c
5
= 2
c
4
+c
5
= 5
c
5
= 2
cuya matriz aumentada es
_
_
_
_
_
_
1 1 1 1 1 2
0 1 1 1 1 3
0 0 1 1 1 2
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
que se reduce como
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 1 1 1 3
0 0 1 1 1 2
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 0 0 0 1
0 0 1 1 1 2
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 0 0 0 1
0 0 1 0 0 3
0 0 0 1 1 5
0 0 0 0 1 2
_
_
_
_
_
_
~
_
_
_
_
_
_
1 0 0 0 0 1
0 1 0 0 0 1
0 0 1 0 0 3
0 0 0 1 0 7
0 0 0 0 1 2
_
_
_
_
_
_
y el sistema equivalente es
c
1
= 1
c
2
= 1
c
3
= 3
c
4
= 7
c
5
= 2
3.10. CAMBIO DE BASE Y MATRIZ DE TRANSICIN 47
Note que el sistema tambin podra haberse resuelto por sustitucin regresiva,
pero nosotros seguimos la poltica de usar Gauss-Jordan.
3.10. cambio de base y matriz de transicin
En esta seccin consideramos el siguiente escenario: Sea \ un espacio vec-
torial con dim(\ ) = :, sean c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
dos bases de
\ . Sean \ y
[]
o
=
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
[]
o
=
_
_
_
_
_
d
1
d
2
.
.
.
d
n
_
_
_
_
_
las matrices de coordenadas con respecto a las bases c y , respectivamente.
Queremos ver cul es la conexin entre []
o
y []
o
, esto es, queremos ver cul
es la relacin que hay entre las coordenadas de un vector dado con respecto a
dos bases diferentes.
Dado que , es una base, dados
I
(con i = 1...:) deben existir nmeros 1
I
tales que

I
=
n

=1
1
I
n

en otras palabras, 1
I
es la ,sima coordenada en la base , del isimo vector
de la base c. Entonces, puesto que
=
n

I=1
c
I

I
tenemos que
=
n

I=1
c
I
_
_
n

=1
1
I
n

_
_
=
n

=1
_
n

I=1
1
I
c
I
_
n

pero como
=
n

=1
d

resulta que, por la unicidad de las coordenadas, que


d

=
n

I=1
1
I
c
I
48 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
La matriz 1 con elementos [1]
I
= 1
I
se llama matriz de transicin de la
base c a la base , y se denota como '
o
o
, las ecuaciones anteriores claramente
implican que
[]
o
= '
o
o
[]
o
y '
o
o
es una matriz tal que da las coordenadas de con respecto a la base
, mediante una sencilla multiplicacin de '
o
o
por las coordenadas de con
respecto a la base c. Es de importancia prctica el notar que '
o
o
es la matriz
cuya ,sima columna contiene las coordenadas en la base , del ,simo vector
de la base c.
Igualmente, si queremos pasar de la base , a la base c tendremos que
[]
o
= '
o
o
[]
o
de modo que, combinando las ltimas ecuaciones,
[]
o
= '
o
o
[]
o
= '
o
o
'
o
o
[]
o
y como sto vale para cualquier []
o
tendremos que
'
o
o
'
o
o
= 1
nn
donde 1
nn
es la identidad de : :.
Esto implica que las matrices de transcicin son no-singulares y que
'
o
o
=
_
'
o
o
_
1
3.10.1. Encontrando la matriz de transicin.
Considere el ejemplo:
En R
3
tenemos las bases
c = (1, 1, 1), (0, 1, 1), (0, 0, 1)
, = (1, 0, 1), (1, 2, 1), (1, 2, 2)
Calcular la matriz '
o
o
de transicin de la base , a la base c .
La solucin ocial se obtiene hallando las coordenadas de los vectores de
la base , en trminos de la base c. Por ello
(1, 0, 1) = :
11
(1, 1, 1) +:
21
(0, 1, 1) +:
31
(0, 0, 1)
(1, 2, 1) = :
12
(1, 1, 1) +:
22
(0, 1, 1) +:
32
(0, 0, 1)
(1, 2, 2) = :
13
(1, 1, 1) +:
23
(0, 1, 1) +:
33
(0, 0, 1)
con lo que
:
11
= 1
:
11
+:
21
= 0
:
11
+:
21
+:
31
= 1
3.10. CAMBIO DE BASE Y MATRIZ DE TRANSICIN 49
y
:
11
= 1
:
21
= 1
:
31
= 1
Similarmente
:
12
= 1
:
12
+:
22
= 2
:
12
+:
22
+:
32
= 1
con lo que
:
12
= 1
:
22
= 1
:
32
= 1
y nalmente
:
13
= 1
:
13
+:
23
= 2
:
13
+:
23
+:
33
= 2
por lo que
:
13
= 1
:
23
= 1
:
33
= 0
y
'
o
o
=
_
_
1 1 1
1 1 1
1 1 0
_
_
Ahora vamos a ver cmo resolver el problema de manera econmica:
Formamos matrices y 1 que tienen en sus columnas las coordenadas
(respecto a la base cannica de R
n
o C
n
segn sea el caso) de los vectores
de las bases c y , respectivamente.
Forme una nueva matriz 1 que se obtiene yuxtaponiendo y 1
1 = [, 1]
50 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
hagamos la reduccin Gaussiana de esta matriz (forma escalonada reduci-
da por renglones)
=
_
_
1 0 0
1 1 0
1 1 1
_
_
1 =
_
_
1 1 1
0 2 2
1 1 2
_
_
C =
_
_
1 0 0 1 1 1
1 1 0 0 2 2
1 1 1 1 1 2
_
_
y haciendo la reduccin
1 =
_
_
1 0 0 1 1 1
0 1 0 1 1 1
0 0 1 1 1 0
_
_
La matriz buscada es simplemente el bloque derecho
'
o
o
=
_
_
1 1 1
1 1 1
1 1 0
_
_
Lo present con un ejemplo pero funciona siempre en espacios R
n
o C
n
, que
son todos los espacios de dimensin nita, en vista del principio del isomorsmo
(que es el tema que sigue).
Para recordar todo el tema conviene usar el siguiente esquema:
1. Sean c =
1
, ...
n
y , = n
1
, ...n
n
las bases y un vector.
2. entonces []
o
= '
o
o
[]
o
3. si tomamos =

resulta que
[

]
o
=
_

_
0
.
.
.
1
.
.
.
0
_

_
donde el 1 aparece en el lugar ,-simo.
4. pero multiplicar ' por este vector nos da la ,sima columna de '.
5. luego las columnas de ' tienen las coordenadas de los vectores de la base
c expresados en trminos de la base , .
3.11. ISOMORFISMOS Y EL PRINCIPIO DEL ISOMORFISMO 51
3.11. Isomorsmos y el principio del isomors-
mo
Recuerde de su curso de lgebra que si y 1 son conjuntos y
) : 1
es un mapeo entre y 1, se llama dominio de ) y 1 es el codominio de ).
Decimos que ) es inyectiva si \r, j
)(r) = )(j) = r = j
o, lo que es lo mismo
r ,= j = )(r) ,= )(j)
y decimos que ) es suprayectiva si \j 1 r tal que )(r) = j.
Denicin 82 Un mapeo ) : 1 es una biyeccin (o es una funcin biyec-
tiva) si y slo si es inyectiva y suprayectiva.
La importancia de las biyecciones reside en el hecho elemental de que un
mapeo tiene un mapeo inverso si y slo si es una biyeccin.
Se dice que dos espacios vectoriales son isomrcos (o isomorfos) cuando
son bsicamente el mismo espacio en lo que a estructura algebraica se reere.
Esto ocurre cuando estn relacionados por una biyeccin que tambin preserva
la estructura algebraica; ms rigurosamente, tenemos la denicin:
Denicin 83 Decimos que dos espacios \ y \ son isomrcos (y escribimos
\ ~ \ ) si hay un mapeo c : \ \ tal que: 1) c es una biyeccin, 2) para
cualesquiera n, en \ tenemos que c(n +) = c(n) +c() y 3) para cualquier
nmero c y cualquier vector n tenemos que c(cn) = cc(n). En este caso el
mapeo c se llama isomorsmo entre \ y \.
Teorema 84 La relacin de isomorsmo ~ entre espacios es una relacin de
equivalencia.
Demostracin. a) \ ~ \ puesto que c : \ \ y con regla de correspondencia
c(r) = r \r (el mapeo identidad) claramente satisface las condiciones para ser
un isomorsmo.
/) Si \ ~ \ entonces hay un isomorsmo c : \ \ y el mapeo c
1
:
\ \ es tambin un isomorsmo (la demostracin es mejor posponerla hasta
que veamos que la inversa de una funcin que cumple las propiedades 2 y 3
tambin las cumple).
c) Si l ~ \ y \ ~ \ entonces hay isomorsmos c : l \ y c : \ \
y el mapeo compuesto c c : l \ es tambin un isomorsmo (tambinesto
se ver ms adelante). Consecuentemente l ~ \.
52 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Teorema 85 Si \ es un espacio vectorial : dimensional con una base c en-
tonces el mapeo c : \ R
n
(o c : \ C
n
si \ es complejo) y dado por
c() = []
o
es un isomorsmo, se llama isomorsmo de coordenadas.
Demostracin. a) Sea c =
1
,
2
..
n
, entonces para cualesquiera , n \
tenemos que
=
n

I=1
c
I

I
n =
n

I=1
d
I

I
entonces
+n =
n

I=1
(c
I
+d
I
)
I
lo cual quiere decir que
[ +n]
o
= []
o
+ [n]
o
/) si es un nmero y =

n
I=1
c
I

I
entonces
=
n

I=1
(c
I
)
I
lo cual quiere decir que
[]
o
= []
o
c) El mapeo es inyectivo puesto que []
o
= [n]
o
implica que
=
n

I=1
c
I

I
= n
d) el mapeo es suprayectivo, puesto que dado
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
hay un vector \
tal que []
o
=
_
_
_
_
_
c
1
c
2
.
.
.
c
n
_
_
_
_
_
, a saber, =

n
I=1
c
I

I
.
Corolario 86 Cualesquiera dos espacios \ y \ de la misma dimensin nita
son isomrcos.
Demostracin. Sea : = dim(\ ) = dim(\) y sea 1 R
n
o C
n
dependiendo de
si el espacio es real o complejo. Entonces \ ~ 1 y \ ~ 1 , pero como ~ es una
relacin de equivalencia, por la simetra, \ ~ 1 y 1 ~ \ y por la transitividad
\ ~ \.
3.11. ISOMORFISMOS Y EL PRINCIPIO DEL ISOMORFISMO 53
Figura 3.1: Ilustracin del cambio de base.
3.11.1. Principio del isomorsmo
Dos espacios isomrcos son el mismo espacio en lo que a estructura alge-
braica se reere. Por esta razn, cuando resolvemos cualquier problema en un
espacio dado, podemos, si queremos, mapear el espacio a otro espacio isomr-
co, resolver el problema en el nuevo espacio y regresar al espacio original con la
respuesta. Esta aseveracin pragmtica se conoce como principio del isomor-
smo.
Debe enfatizarse que dos espacios isomrcos son lo mismo slo en lo que
a estructura algebraica ( de espacio vectorial) se reere. Por ejemplo, 1
2
y R
3
son isomorfos pero en 1
2
podemos diferenciar e integrar los vectores en tanto
que en R
3
no (excepto en un sentido trivial). Son similares slo como espacios
vectoriales, por ejemplo en '(2, 2) podemos multiplicar los vectores y obtener
un anillo, pero en R
4
(que es isomorfo a '(2, 2)) normalmente nos restringimos
a la estructura de espacio vectorial.
Es tambin interesante notar que un isomorsmo mapea combinaciones lin-
eales en combinaciones lineales (y con los mismos coecientes), vectores lin-
ealmnete independientes en vectores linealmente independientes y vectores lin-
ealmente dependientes en vectores linealmente dependientes.
3.11.2. cambio de base de nuevo
Como ya hemos visto, al elegir una base para \ (digamos, la base 1), au-
tomticamente tenemos un isomorsmo (de coordenadas) c
1
: \ 1
n
(aqu
1 representa al campo sobre el cual tenemos el espacio \ ). Similarmente, para
otra base C tendremos un isomorsmo c
c
: \ 1
n
. El mapeo compuesto
c
c
c
1
1
: 1
n
1
n
es tambin un isomorsmo entre 1
n
y l mismo. La
situacin se representa de manera esquemtica en el diagrama siguiente:
Ms adelante veremos cul es el parentesco entre c
c
c
1
1
y la matrz de
transicin.
54 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
3.12. Espacios rengln y columna
Considere una matriz real o compleja de :: donde
=
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
El isimo rengln de es el vector de R
n
o C
n
denido por
1
I
() = (a
I1
, a
I2
, ...a
In
)
en tanto que la ,sima columna de es el vector de R
n
o C
n
denido por
C

() =
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
de modo que puede ser vista de las siguiente tres manera equivalentes:
Como un arreglo rectangular de :: nmeros.
Como una coleccin de : vectores en R
n
o C
n
.
Como una coleccin de : vectores en R
n
o C
n
.
En adicin introducimos la siguiente denicin:
Denicin 87 El espacio rengln de la matriz real o compleja de : :
(1c:()) es el subespacio de R
n
o C
n
generado por los : renglones de .
Denicin 88 El espacio columna de la matriz real o compleja de : :
(Co|()) es el subespacio de R
n
o C
n
generado por las : columnas de .
Comentario 89 Debe de notarse que 1c:() = Co|(
T
) y que 1c:(
T
) =
Co|() pues la operacin de transposicin intercambia renglones y columnas.
Los conceptos de espacio rengln y espacio columna tienen una estrecha
conexin con las operaciones elementales sobre las matrices y los mtodos de
Gauss y Gauss-Jordan para resolver sistemas de ecuaciones lineales. recuerde
que las operaciones elementales sobre una matriz son de los siguientes tipos:
intercambiar cualesquiera dos renglones
multiplicar cualquier rengln (visto como si fuera un vector de R
n
o C
n
)
por cualquier nmero c.que no sea cero
3.12. ESPACIOS RENGLN Y COLUMNA 55
agregar a cualquier rengln cualquier mltiplo de otro renglon.
Tenemos un teorema importante:
Teorema 90 Las operaciones elementales sobre una matriz no cambian su
espacio rengln 1c:().
Demostracin. a)Al intercambiar dos renglones tenemos el mismo generador.
/) Al multiplicar un vector (digamos que el

) por c ,= 0 vemos que toda


combinacin lineal =

n
I=1
c
I

I
se puede escribir con un trmino (
cj
o
)(c)
c) La dejamos al lector.
Sorprendentemente, las dimensiones de los espacios rengln y columna de
una matriz siempre son iguales:
Teorema 91 Sea una matriz cualquiera, real o compleja. La dimensin de
su espacio rengln y de su espacio columna son iguales. Este nmero comn se
llama rango de la matriz.
Ejemplo 92 Hallar una base y la dimensin del espacio rengln de
=
_
_
1 3 4 2
2 1 3 1
3 4 7 1
_
_
Como
~
_
_
1 3 4 2
0 5 5 5
3 4 7 1
_
_
~
_
_
1 3 4 2
0 5 5 5
0 5 5 5
_
_
~
_
_
1 3 4 2
0 1 1 1
0 1 1 1
_
_
~
_
_
1 3 4 2
0 1 1 1
0 0 0 0
_
_
~
_
_
1 0 1 1
0 1 1 1
0 0 0 0
_
_
tenemos que el espacio rengln de tambin es generado por
(1, 0, 1, 1), (0, 1, 1, 1)
56 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
(el vector cero puede omitirse siempre de una lista de generadores). Adems, a
causa del esclonamiento los vectores no cero que quedan en la forma escalonada
reducida por renglones son independientes, pues
c(1, 0, 1, 1) +,(0, 1, 1, 1) = (0, 0, 0, 0)
implica que
(c, ,, c +,, c +,) = (0, 0, 0, 0)
y c = , = 0 con lo que concluimos que los vectores son independientes. Luego
la base pedida es (1, 0, 1, 1), (0, 1, 1, 1) y el espacio es de dimensin dos.
Comentario 93 Los vectores rengln no cero de una forma escalonada reduci-
da por renglones son, siempre, linealmente independientes gracias al escalamien-
to. Lo mismo ocurre con los vectores no cero de cualquier forma escalonada.
Ejemplo 94 Determine una base para el subespacio \ de R
5
generado por

1
= (1, 2, 1, 4, 3)

2
= (3, 1, 2, 2, 4)

3
= (2, 1, 1, 1, 0)

4
= (2, 4, 6, 11, 5)
Como \ es tambin el espacio rengln de
=
_
_
_
_
1 2 1 4 3
3 1 2 2 4
2 1 1 1 0
2 4 6 11 5
_
_
_
_
3.12. ESPACIOS RENGLN Y COLUMNA 57
y
~
_
_
_
_
1 2 1 4 3
0 5 5 10 5
0 3 3 9 6
0 8 8 19 11
_
_
_
_
~
_
_
_
_
1 2 1 4 3
0 1 1 2 1
0 1 1 3 2
0 8 8 19 11
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 2 1
0 0 0 1 1
0 0 0 3 3
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 2 1
0 0 0 1 1
0 0 0 1 1
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 2 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_
~
_
_
_
_
1 0 1 0 1
0 1 1 0 1
0 0 0 1 1
0 0 0 0 0
_
_
_
_
de modo que una base de \ es
(1, 0, 1, 0, 1), (0, 1, 1, 0, 1), (0, 0, 0, 1, 1)
y dim(\ ) = 3.
Comentario 95 Por todo lo anterior podemos decir que al ir haciendo la re-
duccin de una matriz vamos cambiando de generador (en cada paso intermedio
los renglones siguen siendo generadores del mismo espacio rengln). Al nal
acabamos con una base, la base puede tener menos elementos que el conjunto
generador inicial, esto se reeja en el hecho de que la forma escalonada tiene
algunos renglones que constan exclusivamente de ceros.
Comentario 96 Nosotros hemos seguido la poltica de hacer reducciones a for-
ma escalonada reducida por renglones pero lo anteriormente dicho sobre espacios
rengln y sus bases tambin se aplica a las formas escalonadas. Los renglones no
cero de cualquier forma escalonada (reducida o no) forman una base del espacio
rengln.
58 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Considere el espacio '
22
(R) de las matrices cuadradas de 22 con entradas
reales y el subespacio \ generado por
o =
__
1 2
3 4
_
,
_
7 4
1 0
_
,
_
4 3
1 2
__
proporcione una base para \.
Solucin 97 Seleccionamos una base de '
22
(R), a saber, la base cannica
, =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
Usamos el isomorsmo de coordenadas c : '
22
(R) R
4
denido mediante
c(:) = [:]
o
Bajo el isomorsmo, la imagen de o es
o
t
= (1, 2, 3, 4), (7, 4, 1, 0), (4, 3, 1, 2)
Por ello el espacio generado por o
t
es el espacio rengln de la matriz
' =
_
_
1 2 3 4
7 4 1 0
4 3 1 2
_
_
Usando operaciones elementales reducimos ' para obtener
_
_
1 0
7
5

8
5
0 1
11
5
14
5
0 0 0 0
_
_
Por ello el espacio generado por o
t
tiene la base
=
_
(1, 0,
7
5
,
8
5
), (0, 1,
11
5
,
14
5
)
_
Usando el isomorsmo inverso resulta que una base de \ es
__
1 0
7
5
8
5
_
,
_
0 1
11
5
14
5
__
Comentario 98 Ya hemos visto que la dimensin del espacio columna de una
matriz es igual a la dimensin del espacio rengln y que ste nmero es el rango
de la matriz. Por otra parte, al hacer la reduccin Gaussiana de la matriz, vemos
que el rango es igual al nmero de pivotes (y al nmero de renglones no-cero en
su forma reducida).
3.13. EL ESPACIO NULO DE UNA MATRIZ 59
3.13. El espacio nulo de una matriz
Sea una matriz (real o compleja) de : : . El espacio nulo de es el
espacio solucin del sistema lineal homogneo correspondiente, es decir
:n||() = r 1
n
[ r = 0
La dimensin del espacio nulo est dada por el nmero de variables libres en
el correspondiente sistema. Ms adelante veremos que siempre : = ra:qo() +
dim(:n||()) .
3.14. La estructura de los sistemas inhomog-
neos.
Considere el sistema lineal inhomogneo
a
11
r
1
+a
12
r
2
+...a
1n
r
n
= /
1
a
21
r
1
+a
22
r
2
+..a
2n
r
n
= /
2
.
.
.
a
n1
r
1
+a
n2
r
2
+..a
nn
r
n
= /
n
donde no todos los nmeros /
I
son cero, y re-escribmoslo usando las matrices
=
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
A =
_
_
_
_
_
r
1
r
2
.
.
.
r
n
_
_
_
_
_
/ =
_
_
_
_
_
/
1
/
2
.
.
.
/
n
_
_
_
_
_
como
A = /
El conjunto solucin de este sistema es el conjunto
o = A 1
n
[ A = /
donde 1 es R
n
o C
n
segn sea el caso.
60 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Teorema 99 o no es un subespacio de 1
n
.
Demostracin. a) claramente o 1
n
/)es bien sabido que algunos sistemas de ecuaciones lineales inhomogneos
no tienen soluciones (sistemas inconsistentes). Consecuentemente no siempre es
el caso que o ,= c.
c) Sean r, j o, entonces r = / y j = / de modo que (r + j) =
r +j = / +/ = 2/ y no puede ocurrir que (r +j) = / a menos que / = 0,
en cuyo caso el sistema era homogneo. Concluimos que o no es cerrado bajo
adicin de vectores.
d) Sean r o y un nmero. Entonces r = / por lo que (r) = r = /
y no puede ocurrir que (r) = / a menos que / = /, esto es, a menos que
/ = 0 (en cuyo caso el sistema era homogneo) o = 1 . En este ltimo caso o
no es cerrado bajo multiplicacin por escalares.
3.15. Espacios de funciones, Wronskianos
Considere el conjunto de todas las funciones que tienen como dominio el
intervalo cerrado [a, /] R y codominio R
T = q : [a, /] R
Es posible denir una suma en T. Para ), q T dena () +q) : [a, /] R
por medio de
() +q) (r) = )(r) +q(r)
para toda r [a, /].
Tambin se puede denir una multiplicacin de nmeros reales por elementos
de T. Para ) T y c R dena (c)) : [a, /] R mediante
(c))(r) = c()(r))
para toda r [a, /].
Resulta que, T con estas operaciones, es un espacio vectorial real.
Teorema 100 T, con las operaciones recin denidas, es un espacio vectorial
real.
Demostracin. 1)por denicin, si ), q T entonces ) +q T
2)puesto que () +q) (r) = )(r) +q(r) = q(r) +)(r) = (q +))(r) se sigue que
) +q = q +) para cualesquiera ), q T.
3) dado que () + (q +/))(r) = )(r) + (q +/)(r) = )(r) +q(r) +/(r) =
() +q)(r) +/(r) = (() +q) +/)(r) tenemos que () + (q +/)) = (() +q) +/)
para cualesquiera ), q, / T.
4) dena 0 : [a, /] R mediante 0(r) = 0. Entonces, claramente, ) + 0 =
0 +) = ) para toda ) T.
5) dada ) T dena ()) : [a, /] R mediante ())(r) = )(r). Entonces
es fcil ver que ) + ()) = ()) +) = 0 para toda ) T.
3.15. ESPACIOS DE FUNCIONES, WRONSKIANOS 61
6) por denicin, si ) T y c R entonces c) T
7) sean c, , R, y ) T. Como ((c+,)))(r) = (c+,))(r) = c)(r)+,)(r) =
(c) +,))(r) se desprende que (c +,)) = c) +,) para cualesquiera c, , R
y ) T.
8)Como
(c() +q))(r) = c(() +q)(r))
= c()(r) +q(r)) = c)(r) +cq(r)
= (c) +cq) (r)
, se desprende que c() +q) = c) +cq para toda c R y cualesquiera ), q T.
9)Puesto que (c(,)))(r) = c((,))(r)) = c(,)(r)) = (c,))(r) = ((c,)))(r)
tenemos que c(,)) = (c,)) para cualesquiera c, , R y ) T.
10)Como (1))(r) = 1()(r)) = )(r) se sigue que 1) = ) para toda ) T.
Algunos de los subespacios importantes de T son los subespacios de todas
las funciones de [a, /] R que son contnuas, diferenciables, integrables, etc.
El espacio T no es de dimensin nita, esto se puede ver considerando la
secuencia innita de funciones linealmente independientes 1, r, r
2
, .....
3.15.1. dependencia e independencia lineal de funciones.
Considere el espacio T o cualquiera de sus subespacios y c = )
1
, )
2
..)
n

T .El conjunto c es linealmente dependiente si y slo si hay nmeros c
1
, c
2
..c
n
, no todos cero, tales que
c
1
)
1
+c
2
)
2
+...c
n
)
n
= 0
pero esta ecuacin implica que para toda r [a, /]
c
1
)
1
(r) +c
2
)
2
(r) +...c
n
)
n
(r) = 0
dando, de facto, un nmero innito de condiciones sobre los coecientes.
mtodo 1 (por inspeccin)
Este mtodo se puede explicar mejor con un ejemplo.
Ejemplo 101 Determine si el conjunto cos
2
(r), sin
2
(r), 5 es linealmente de-
pendiente o linealmente independiente.
Como :c:
2
(r) +cos
2
(r) = 1 tenemos que 5:c:
2
(r) +5 cos
2
(r) = 5 o 5:c:
2
(r) +
5 cos
2
(r) 5 = 0 probando que el conjunto es dependiente.
El mtodo depende de la posibilidad de conocer una relacin entre las fun-
ciones. Por ello las siguientes relaciones son a menudo tiles:
:c:
2
(r) + cos
2
(r) = 1
62 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
:c:(r +j) = :c:(r) cos(j) + cos(r):c:(j)
co:(r +j) = cos(r) cos(j) :c:(r):c:(j)
:c:(2r) = 2:c:(r) cos(r)
cos(2r) = cos
2
(r) :c:
2
(r) = 1 2:c:
2
(r) = 2 cos
2
(r) 1
log(rj) = log(r) + log(j)
exp(r +j) = exp(r) exp(j)
etc. Casi cualquier identidad trigonomtrica, exponencial o logartmica puede
ser til.
Note que este mtodo puede servirnos para descubrir que el conjunto es
dependiente pero que no puede ser usado para establecer que el conjunto es
independiente.
mtodo 2 (escoja valores para las funciones).
De nuevo, esto se explica mejor con un ejemplo.
Ejemplo 102 Encuentre si el conjunto r :c:(r), cos(r) es linealmente de-
pendiente o linealmente independiente.
Tome una combinacin lineal c r :c:(r) + , cos(r) = 0 . Como esto debe de
valer para cualquier nmero real r se vale en particular para r = 0 por lo que
, = 0 . Entonces c r :c:(r) = 0 y tomando esta vez r =
t
2
tenemos que
ot
2
= 0
y c = 0. Consecuentemente, el conjunto es linealmente independiente.
Este mtodo consiste en escojer valores arbitrarios (pero escogidos inteligen-
temente!) para la variable independiente de modo que podamos concluir que
todos los coecientes de la combinacin lineal son cero. Note que este mtodo
puede ser usado para descubrir que el conjunto es linealmente independiente
pero no puede ser usado para demostrar que es linealmente dependiente. Este
mtodo, al igual que el precedente, no siempre funciona.
Vale la pena ver en algn detalle porqu el mtodo no siempre sirve. Suponga
que el conjunto es
o = )
1
(r), )
2
(r), ...)
n
(r)
y que usamos los valores de r dados por r
1
, r
2
...r
n
.
Si las ecuaciones de dependencia
c
1
)
1
(r
1
) +c
2
)
2
(r
1
) +...c
n
)
n
(r
1
) = 0
c
1
)
1
(r
2
) +c
2
)
2
(r
2
) +...c
n
)
n
(r
2
) = 0
.
.
.
c
1
)
1
(r
n
) +c
2
)
2
(r
n
) +...c
n
)
n
(r
n
) = 0
3.15. ESPACIOS DE FUNCIONES, WRONSKIANOS 63
implican que todas las c
I
son cero, entonces las funciones son independientes.
Aunque otra eleccin de las r

tuviera soluciones no triviales, como las ecua-


ciones deben de valer para toda r, la conclusin no vara, son independientes.
Pero si con la eleccin original hay soluciones no triviales, eso no garantiza
la dependencia pues existe la posibilidad de que otra eleccin de las r

implique
que la nica solucin sea la trivial.
As que jams use este mtodo para probar dependencia.
Si : = : entonces tendremos tantas incgnitas como ecuaciones, en este
caso podemos usar un teorema de lgebra elemental que dice que dicho sistema
tiene solucin no trivial si y solo si el determinante de la matriz de coecientes
se anula. Por ello si el determinante no vale cero, podemos concluir que solo
tendr la solucin trivial.
el mtodo del Wronskiano.
Hay un tercer mtodo de gran importancia en el contexto de las ecuaciones
diferenciales.
Suponga que c = )
1
, )
2
..)
n
T consiste de funciones que son diferencia-
bles al menos : 1 veces en [a, /]. Entonces, tomando derivadas sucesivamente
de la combinacin lineal c
1
)
1
+c
2
)
2
+...c
n
)
n
= 0 tendremos
c
1
)
1
+c
2
)
2
+...c
n
)
n
= 0
c
1
d)
1
dr
+c
2
d)
2
dr
+...c
n
d)
n
dr
= 0
c
1
d
2
)
1
dr
2
+c
2
d
2
)
2
dr
2
+...c
n
d
2
)
n
dr
2
= 0
.
.
.
c
1
d
n1
)
1
dr
n1
+c
2
d
n1
)
2
dr
n1
+...c
n
d
n1
)
n
dr
n1
= 0
dando un sistema lineal homogneo de : ecuaciones en : incgnitas c
1
, c
2
...c
n
.
Pero semejante sistema tiene una solucin no trivial si y slo si el determinante
de su matriz de coecientes es cero, por ello tenemos que si para alguna r [a, /]
det
_
_
_
_
_
_
_
_
)
1
)
2
... )
n
J}1
Jr
J}2
Jr
...
J}n
Jr
J
2
}1
Jr
2
J
2
}2
Jr
2
...
J
2
}n
Jr
2
.
.
.
.
.
. ...
.
.
.
J
n1
}1
Jr
n1
J
n1
}2
Jr
n1
...
J
n1
}n
Jr
n1
_
_
_
_
_
_
_
_
,= 0
entonces la nica solucin posible es la trivial y las funciones son linealmente
independientes. Esto es equivalente a decir que si las funciones son dependientes
entonces el determinante es cero para todas las r en el dominio de las funciones.
64 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
El Wronskiano de las funciones, denotado por \()
1
(r), )
2
(r)...)
n
(r)) se de-
ne como
\()
1
(r), )
2
(r)...)
n
(r)) = det
_
_
_
_
_
_
_
_
)
1
)
2
... )
n
J}1
Jr
J}2
Jr
...
J}n
Jr
J
2
}1
Jr
2
J
2
}2
Jr
2
...
J
2
}n
Jr
2
.
.
.
.
.
. ...
.
.
.
J
n1
}1
Jr
n1
J
n1
}2
Jr
n1
...
J
n1
}n
Jr
n1
_
_
_
_
_
_
_
_
y si para alguna r [a, /] \()
1
(r), )
2
(r)...)
n
(r) ,= 0 entonces las funciones
son linealmente independientes (si las funciones son linealmente dependientes
entonces \()
1
(r), )
2
(r)...)
n
(r) = 0 \r).
El converso no es, en general, verdadero. Si \()
1
(r), )
2
(r)...)
n
(r) = 0 \r
las ecuaciones ciertamente tienen soluciones no triviales pero stas podran ser
diferentes para diferentes valores de r como se ilustra en el siguiente ejemplo.
Ejemplo 103 Considere las funciones ) : (, ) R y q : (, ) R
denidas mediante
)(r) = r
2
q(r) =[ r [ r
Entonces
\()(r), q(r)) = det
_
r
2
[ r [ r
2r 2 [ r [
_
2 [ r [ r
2
2 [ r [ r
2
= 0
pero si las funciones satiscieran r
1
)(r) +r
2
q(r) = 0, entonces usando nuestro
mtodo dos con r = 1 y r = 1 tendramos
r
1
r
2
= 0
r
1
+r
2
= 0
de modo que r
1
= r
2
= 0 probando que las funciones ) y q son linealmente
independientes. De hecho ) = q en [0, ) y ) = q in (, 0] .
Sin embargo si hay otras restriccciones impuestas sobre )
1
y )
2
(como la de
ser soluciones de ciertas ecuaciones diferenciales), la condicin del Wronskiano
puede ser tanto necesaria como suciente.
Como ejemplo sencillo, suponga que para las funciones ) y q
\()(r), q(r)) = det
_
)(r) q(r)
J}
Jr
J
Jr
_
= )(r)
dq
dr
q(r)
d)
dr
= 0
3.15. ESPACIOS DE FUNCIONES, WRONSKIANOS 65
y que )(r) ,= 0 para toda r en su dominio, entonces
d
(r)
}(r)
dr
=
)(r)
J(r)
Jr
q(r)
J}(r)
Jr
)(r)
2
=
0
)(r)
2
= 0
e integrando
q(r)
)(r)
=
para alguna constante real . Entonces 1q(r) )(r) = 0 y las funciones son
dependientes. En el ejemplo de ms arriba )(0) = q(0) = 0 y esta demostracin
no se aplica.
Comentario 104 Si tenemos una funcin ) : 1 y C entonces
podemos denir una funcin q : C 1 mediante la regla de correspondencia
q(r) = )(r) para toda r C. La funcin q recibe el nombre de restriccin
de ) al conjunto C y suele denotarse como q = ) [
c
. A veces los libros dicen
cosas como las funciones son independientes en (10, 10) pero dependientes
en (0, 10), e incluso barbaridades como independencia o dependencia en un
punto. Lo correcto podra ser las funciones ) y / son independientes pero sus
restricciones ) [
c
y q [
c
son dependientes.
Ejemplo 105 Considere el conjunto :c:(r), cos(r) . El Wronskiano ser
n(:c:(r), cos(r)) = det
_
:c:(r) cos(r)
cos(r) :c:(r)
_
= :c:
2
(r) cos
2
(r)
= 1 ,= 0
Por lo tanto las funciones son independientes.
66 CAPTULO 3. CONCEPTO DE ESPACIO VECTORIAL
Parte III
Transformaciones lineales
67
69
Cuando uno ya ha estudiado una estructura (como la de espacios vectoriales)
incluyendo sus subestructuras (como los subespacios) ya es hora de estudiar los
morsmos que en este caso son las tgransformaciones lineales.
En buena medida el lgebra lineal estudia los espacios vectoriales y las trans-
formaciones lineales entre espacios, tema al que nos dedicamos en esta parte.
La importancia de las transformaciones lineales radica en que preservan
estructura, en el sentido que ms adelante se ver.
70
Captulo 4
Transformaciones lineales
Sean \ y \ espacios vectoriales sobre un mismo campo 1. Una transfor-
macin de \ a \ es cualquier funcin
T : \ \
(lo cual tambin suele escribirse como
\
T

\
)
Las transformaciones son, pues, funciones entre espacios vectoriales.
Cuando \ = \ se dice que T es un operador.
Comentario 106 Algunos sinnimos de funcin:mapeo, aplicacin (este l-
timo vocablo es usado por los autores espaoles). Toda transformacin es una
funcin pero no toda funcin es una transformacin.
Sean \ y \ espacios vectoriales. Una transformacin lineal de \ a \ es
una transformacin T : \ \ que satisface las siguientes dos propiedades:
Para todo , n en \ tenemos que T( +n) = T() +T(n)
Para todo en \ y todo c en 1 tenemos que T(c) = cT()
Cuando \ = \ se suele llamar a T operador lineal en \ .
Comentario 107 He aqu un ejemplo de transformacin que satisface la primera
condicin pero no la segunda:
T : C C
T(.) = .
pues
T(a +/) = (a +/) = a +/ = T(a) +T(/)
T(,/) = ,/ = , / = ,T(/) ,= ,T(/)
71
72 CAPTULO 4. TRANSFORMACIONES LINEALES
Comentario 108 Un ejemplo de transformacin que cumple la segunda condi-
cin mas no la primera sera:
T : R
2
R
2
T(r, j) =
_
(r, j) si r = 0 o j = 0
(0, 0) en los restantes casos
Comentario 109 Un isomorsmo es una transformacin lineal biyectiva.
Comentario 110 Se dice que las transformaciones lineales preservan estruc-
tura porque mapean una suma en otra suma y un producto por nmeros en otro
producto por nmeros.
Comentario 111 Ya hemos mencionado que en matemticas cuando uno es-
tudia estructuras algebraicas considera luego las subestructuras. Tambin ocurre
que uno indaga los mapeos que preservan estructura, a ellos se les llama, en
general, morsmos. Si el morsmo tiene el mismo dominio y codominio puede
ser llamado operador lineal o endomorsmo.
Comentario 112 Un endomorsmo que tambin es isomorsmo se llama au-
tomorsmo.
4.0.2. algunas propiedades de las transformaciones lineales.
Teorema 113 Sean \ y \ espacios vectoriales y T : \ \ una transforma-
cin lineal. Entonces:
T(
^
0) =
^
0 (aqu
^
0 es el vector cero para distinguirlo del escalar cero)
T(a) = T(a)
T(a /) = T(a) T(/)
T(

n
I=1
c
I

I
) =

n
I=1
c
I
T(
I
) donde los c
I
1 y
I
\ (i = 1, 2...:)
Pruebas:
T(
^
0) = T(0
^
0) = 0T(
^
0) =
^
0
T(a) = T((1)a) = (1)T(a) = T(a)
T(a /) = T(a +(1)/) = T(a) +T((1)/) = T(a) +(1)T(/) = T(a)
T(/)
(demostracin por induccin) si : = 1 el teorema es cierto pues, en este
caso T(

1
I=1
c
I

I
) = T(c
1

1
) = c
1
T(
1
) =

1
I=1
c
I
T(
I
).
Suponga ahora que el teorema es cierto para : = /, entonces T(

|+1
I=1
c
I

I
) =
T(

|
I=1
c
I

I
+c
|+1

|+1
) = T(

|
I=1
c
I

I
) +T(c
|+1

|+1
) =

|
I=1
c
I
T(
I
) +
c
|+1
T(
|+1
)
=

|+1
I=1
c
I
T(
I
) completando el paso inductivo.
4.1. ALGUNAS TRANSFORMACIONES IMPORTANTES 73
4.1. algunas transformaciones importantes
La identidad 1
\
: \ \ en \ se dene como
1
\
= \ \
y la transformacin cero
^
0 : \ \ se dene mediante
^
0 = 0 \ \
Como
1
\
(a +/) = a +/ = 1
\
(a) +1
\
(/)
1
\
(,a) = ,a = ,(1
\
(a))
y
^
0(a +/) = 0 =
^
0a +
^
0/
^
0(,a) = 0 = ,0 = ,
^
0(a)
tenemos que tanto
^
0 como 1
\
son transformaciones lineales.
Hay otro tipo de transformaciones cuya importancia ser evidente ms tarde.
Considere los espacios R
n
y R
n
(o C
n
y C
n
) y una matriz real (o compleja)
de ::. Denamos la transformacin
T : R
n
R
n
(o T : C
n
C
n
segn el caso) mediante
T(r) = r
en donde el elemento r R
n
se visualiza como un vector columna, es decir,
como matriz de : 1 de modo que r es el producto de dos matrices, una de
: : y otra de : 1 dando por rersultado una matriz de : 1 (o sea, un
vector de R
n
). Esta transformacin, llamada matriz por vector, es lineal pues
por las propiedades de la multiplicacin matricial tenemos que
T(r +j) = (r +j) = r +j = T(r) +T(j)
T(,r) = (,r) = ,r = ,T(r)
4.1.1. ejemplos de transformaciones lineales.
Ejemplo 114 Considere T : R
3
R
2
denida mediante
T(r, j, .) = (2r + 3j + 4., r + 2j +.)
es T una transformacin lineal?
a) Considere a = (r, j, .) y / = (r
t
, j
t
, .
t
). Entonces a+/ = (r+r
t
, j+j
t
, .+.
t
)
74 CAPTULO 4. TRANSFORMACIONES LINEALES
y
T(a) = (2r + 3j + 4., r + 2j +.)
T(/) = (2r
t
+ 3j
t
+ 4.
t
, r
t
+ 2j
t
+.
t
)
T(a) +T(/)
= (2r + 3j + 4. + 2r
t
+ 3j
t
+ 4.
t
, r + 2j +. +r
t
+ 2j
t
+.
t
)
T(a +/)
= (2(r +r
t
) + 3(j +j
t
) + 4(. +.
t
), (r +r
t
) + 2(j +j
t
) + (. +.
t
))
= (2r + 3j + 4. + 2r
t
+ 3j
t
+ 4.
t
, r + 2j +. +r
t
+ 2j
t
+.
t
)
con lo que T(a +/) = T(a) +T(/)
b)Sea c R . Entonces si a = (r, j, .) tendremos que ca = (cr, cj, c.) y
T(ca) = (2cr + 3cj + 4c., cr + 2cj +c.)
= c((2r + 3j + 4., r + 2j +.))
= cT(a)
con lo que T(ca) = cT(a) y la transformacin es lineal.
Ejemplo 115 Del ejemplo anterior, si T : R
3
R
2
est dada por T(r, j, .) =
(2r + 3j 4., r + 2j +.) podemos decir que, como
_
2 3 4
1 2 1
_
_
_
r
j
.
_
_
=
_
2r + 3j + 4.
r + 2j +.
_
la transformacin lineal T es de la forma r con =
_
2 3 4
1 2 1
_
.
Comentario 116 Espero que el lector no se sienta confundido por el hecho de
que en algn momento un vector de (digamos) R
3
se escriba como = (r, j, .)
o como =
_
_
r
j
.
_
_
o incluso = (r j .). Lo que dene al vector de R
3
es
el tener exactamente tres componentes y ser stas nmeros del campo 1. Los
signos de agrupacin, los separadores o la disposicin de los elementos (vertical,
horizontal etc.) son matemticamente irrelevantes pero, segn el contexto, una
notacin puede ser ms conveniente que otra.
Ejemplo 117 En 1
n
considere la transformacin T : 1
n
1
n
denida medi-
ante
T(1(r)) =
d1(r)
dr
Como
a) T(1(r) +Q(r)) =
J(1(r)+Q(r))
Jr
=
J1(r)
Jr
+
JQ(r)
Jr
= T(1(r)) +T(Q(r)) y
b) T(,1(r)) =
Jo1(r)
Jr
= ,
J1(r)
Jr
= ,T(1(r)) tenemos que T es lineal. Hemos
4.1. ALGUNAS TRANSFORMACIONES IMPORTANTES 75
usado varias propiedades comunes de la derivada, tales como el hecho de que la
derivada de una suma de funciones es la suma de las derivadas y que la derivada
del producto de un nmero por una funcin es el nmero por la derivada de la
funcin.
Ejercicio 118 Considere T : 1
n
R denida mediante
T(1(r)) =
_
1
0
1(r)dr
es T lineal?
Ya hemos visto que una transformacin lineal mapea una combinacin lineal
en otra.
Teorema 119 Sean \ y \ espacios vectoriales y T : \ \ una transforma-
cin lineal. Sea
1
,
2
...
n
\ un conjunto linealmente dependiente. Entonces
T(
1
), T(
2
)...T(
n
) tambin es linealmente dependiente.
Demostracin. Como
1
,
2
...
n
es linealmente dependiente, existen nmeros

1
,
2
, ...
n
, no todos cero, tales que
n

I=1

I
= 0
y por lo tanto
T
_
n

I=1

I
_
= 0
_
n

I=1

I
T(
I
)
_
= 0
probando que T(
1
), T(
2
)...T(
n
) es linealmente dependiente.
De aqu se sigue que si T(
1
), T(
2
)...T(
n
) es linealmente independiente,
entonces
1
,
2
...
n
tiene que ser linealmente independiente.
El converso del teorema no es cierto como se puede ver con un contraejemplo:
Ejemplo 120 Considere T : R
2
R
2
dada por T(r, j) = (r, 0), entonces el
conjunto (1, 0), (0, 1) es independiente pero T(1, 0), T(0, 1) = (1, 0), (0, 0)
es dependiente.
Para especicar completamente una transformacin lineal basta con dar sus
valores en una base cualquiera, como se muestra en el siguiente teorema:
Teorema 121 Una transformacin lineal queda determinada por sus valores en
una base cualquiera.
76 CAPTULO 4. TRANSFORMACIONES LINEALES
Demostracin. Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal. Sea
=
1
,
2
, ...
n

una base de \ . Llamemos n


I
= T(
I
). Entonces si \ tendremos que
=
n

I=1
c
I

I
donde c
1
, c
2
, ..c
n
son las coordenadas de en la base . Por lo tanto
T() = T
_
n

I=1
c
I

I
_
=
n

I=1
T(c
I

I
)
=
n

I=1
c
I
T(
I
) =
n

I=1
c
I
n
I
lo cual quiere decir que el valor de T() est determinado completamente por
las coordenadas de y los valores de T en la base.
Ejemplo 122 cmo son las transformaciones lineales j de un campo 1 a un
espacio vectorial \ (sobre el campo 1)? Es fcil ver que
j(r) = j(r1) = rj(1)
por lo que las transformaciones lineales de 1 a \ son multiplicacin por un
vector j(1). Conversamente, si c(r) = r con \ c es lineal. Hay una
correspondencia biunvoca entre los mapeos lineales j : 1 \ y los vectores de
\ .
4.2. ncleo e imagen
Denicin 123 Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal
El ncleo (kernel) de T se dene como
(T) = ker(T) = r \ [ Tr = 0
La imagen (recorrido,rango ) de T se dene como
Im(T) = Tr [ r \
Teorema 124 Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal. Entonces ker(T) es un subespacio de \ .
4.2. NCLEO E IMAGEN 77
Demostracin. a) de la denicin vemos que ker(T) \
b) Como T(0) = 0 tenemos que 0 ker(T) y ker(T) ,= c
c) Si a, / ker(T) entonces T(a) = 0 y T(/) = 0 por lo que T(a + /) =
T(a) +T(/) = 0 + 0 = 0 y a +/ ker(T)
d) Si a ker(T) y c es un escalar, entonces T(a) = 0 por lo que T(ca) =
cT(a) = c0 = 0 y ca ker(T) Q.E.D.
Teorema 125 Sean \ y \ espacios vectoriales y T : \ \ una transfor-
macin lineal. Entonces Im(T) es un subespacio de \.
Demostracin. a) De la denicin vemos que Im(T) \
b) Como T(0) = 0 tenemos que 0 y Im(T) ,= c
c) Si a, / Im(T) entonces existen c, d \ tales que T(c) = a y T(d) = / con
lo que T(c + d) = T(c) + T(d) = a + / y, por ello, existe c + d \ tal que
T(c +d) = a +/ y a +/ Im(T)
d) Si a Im(T) y es un escalar, entonces existe c \ tal que T(c) = a, por
ello T(c) = T(c) = a por lo
que existe c \ tal que T(c) = a y a Im(T). Q.E.D.
Ejemplo 126 El ncleo de
^
0 es todo \ pues
^
0(r) = 0 para todo r \ y la
imagen de
^
0 es 0. El ncleo de 1
\
es 0 en tanto que la imagen es \ .
Ejemplo 127 Sea T : R
3
R
3
la transformacin lineal dada por
T(r, j, .) = (r + 2j +., 3r +j 2., r 7j 6.)
Dar bases para ker(T) y Im(T).
a) un vector (r, j, .) ker(T) si y slo si T(r, j, .) = 0 por lo que
(r + 2j +., 3r +j 2., r 7j 6.) = (0, 0, 0)
o
r + 2j +. = 0
3r +j 2. = 0
r 7j 6. = 0
y el ncleo buscado es el conjunto solucin de este sistema lineal homogneo.
La matriz de coecientes es
=
_
_
1 2 1
3 1 2
1 7 6
_
_
78 CAPTULO 4. TRANSFORMACIONES LINEALES
y
~
_
_
1 2 1
0 5 5
0 5 5
_
_
~
_
_
1 2 1
0 1 1
0 1 1
_
_
~
_
_
1 2 1
0 1 1
0 0 0
_
_
~
_
_
1 0 1
0 1 1
0 0 0
_
_
y un sistema equivalente al original (en el sentido de tener las mismas solu-
ciones) es
r . = 0
j +. = 0
en el cual las variables ligadas son r y j en tanto que . es la nica variable
libre. Por ello, los vectores en el conjunto solucin estn dados por
(r, j, .) = (., ., .) = .(1, 1, 1)
y una base del ncleo es 1 = (1, 1, 1)).
b) para hallar la imagen note que
T(r, j, .) = (r + 2j +., 3r +j 2., r 7j 6.)
= (r, 3r, r) + (2j, j, 7j) + (., 2., 6.)
= r(1, 3, 1) +j(2, 1, 7) +.(1, 2, 6)
por lo que un generador para la imagen es el conjunto
(1, 3, 1), (2, 1, 7), (1, 2, 6)
y de aqu hay que extraer una base. Para ello notemos que la imagen es el espacio
rengln de
1 =
_
_
1 3 1
2 1 7
1 2 6
_
_
4.2. NCLEO E IMAGEN 79
y como
1 ~
_
_
1 3 1
0 5 5
0 5 5
_
_
~
_
_
1 3 1
0 1 1
0 1 1
_
_
~
_
_
1 3 1
0 1 1
0 0 0
_
_
~
_
_
1 0 4
0 1 1
0 0 0
_
_
de modo que una base de la imagen es
(1, 0, 4), (0, 1, 1)
Ntese que 1 =
T
. Esto siempre es cierto, la imagen es el espacio columna de
la matriz cuando la transformacin es del tipo T(r) = r.
4.2.1. imagen y suprayectividad.
La imagen es, entre otras cosas, una herramienta para valorar la suprayec-
tividad. Para ello disponemos del siguiente:
Teorema 128 Sean \ y \ espacios vectoriales, T : \ \ una transforma-
cin lineal. Entonces T es suprayectiva si y slo si
Im(T) = \
Demostracin. Sea T suprayectiva. Claramente Im(T) \, ahora bien, si
r \ entonces, como T es suprayectiva, existe a \ tal que T(a) = r pero
esto implica que r Im(T) por lo que \ Im(T) y Im(T) = \.
Conversamente, sea Im(T) = \. Si r \ entonces como \ = Im(T)
r Im(T) .con lo que r = T(a) para alguna a \ y la funcin es suprayectiva.
4.2.2. Ncleo e inyectividad.
El ncleo es bsicamente una herramienta para valorar inyectividad, para
ello resulta muy til el siguiente:
Teorema 129 Sean \ y \ espacios vectoriales, T : \ \ una transforma-
cin lineal. Entonces T es inyectiva si y slo si
(T) = 0
80 CAPTULO 4. TRANSFORMACIONES LINEALES
Demostracin. Sea T inyectiva. Si r (T) entonces T(r) = 0 = T(0) lo
cual, por la inyectividad, implica que r = 0, por otra parte ya sabemos que
0 (T) por lo que (T) = 0.
Conversamente, sea (T) = 0. Si T(r) = T(j) entonces T(r) T(j) = 0
y T(r j) = 0 con lo que (r j) (T) y r j = 0 (pues (T) = 0) y
r = j. Luego T es inyectiva.
4.3. teorema de la dimensin.
Teorema 130 (de la dimensin). Sean \ y \ espacios vectoriales, T : \ \
una transformacin lineal, c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
bases de \ y
\ respectivamente. Entonces
dim(\ ) = dim((T)) + dim(Im(T))
Si T es biyectiva, dim((T)) = 0 y dim(Im(T)) = dim(\) = : con lo que
dim(\ ) = dim(\). Es decir, si T es biyectiva, las dimensiones del dominio y
codominio coinciden, pero el converso no es cierto en general.
Comentario 131 Muchos autores llaman a dim(Im(T)) rango de T, pero
cuidado con este trmino que es usado con diversos signicador. A dim((T))
se le llama nulidad de T.
Comentario 132 Cuando la transformacin T : \ \ es del tipo T(r) =
r donde es una matriz y r una matriz de una sola columna, Im(T) es
simplemente el espacio columna col() .
Comentario 133 Cuando la transformacin T : \ \ es del tipo T(r) =
r donde es una matriz y r una matriz de una sola columna, (T) se llama
espacio nulo de .
Comentario 134 Por lo anterior el teorema de la dimensin tambin se ex-
presa como n=rango+nulidad ( es de ::)
Comentario 135 El ncleo (=espacio nulo) es, por lo tanto, el espacio solu-
cin de r = 0 .
4.4. representaciones matriciales.
Sean \ y \ espacios vectoriales, y c =
1
,
2
..
n
y , = n
1
, n
2
..n
n

bases de \ y \ respectivamente.
Si T : \ \ es una transformacin lineal, como T

\ existen nmeros
'
I
tales que
T

=
dim(V)

I=1
'
I
n
I
4.4. REPRESENTACIONES MATRICIALES. 81
La matriz denida de esta manera recibe el nombre de matriz de T relativa
a las bases c y , y se representa como '
o
o
(T).
La importancia de esta matriz puede verse tomando \ , que puede es-
cribirse en trminos de la base c y
=
dim(\ )

|=1
c
|

|
(aqu los nmeros c
I
son las coordenadas de en la base c) y entonces
T() = T
_
_
dim(\ )

|=1
c
|

|
_
_
=
dim(\ )

|=1
c
|
T(
|
) =
dim(\ )

|=1
c
|
dim(V)

I=1
'
I|
n
I
=
dim(V)

I=1
_
_
dim(\ )

|=1
'
I|
c
|
_
_
n
I
(aqu hemos usado libremente el hecho de que en un espacio vectorial podemos
reordenar las sumas como deseemos). De aqu se ve que
dim(\ )

|=1
'
I|
c
|
es la i-
sima coordenada de T() en la base ,. Tambin vemos que
dim(\ )

|=1
'
I|
c
|
es la
i-sima componente de '[]
o
por lo que obtenemos el resultado fundamental
de que
[T]
o
= '
o
o
(T)[]
o
donde []
o
y [T]
o
son las coordenadas de y T en sus respectivas bases.
Ms adelante veremos una manera fcil de calcular '
o
o
(T) en ciertos casos
(Si la base , es ortonormal '
|
= n
|
, T

donde es el producto interior


que ser discutido en el prximo captulo).
Note que si dim(\ ) = : y dim(\) = : entonces '
o
o
(T) es de ::.
Esquemticamente
\
T

\
c
o
| c
o
|
1
n 1

(T)

1
n
donde c
o
y c
o
son los isomorsmos de coordenadas. En la literatura se dice
que el diagrama conmuta o que es un diagrama conmutativo, esto quiere decir
que da lo mismo ir directamente de \ a \ mediante T que ir primero de \ a 1
n
mediante el isomorsmo de coordenadas, de 1
n
a 1
n
mediante multiplicacin
por '
o
o
(T) y nalmente llegar a \ mediante c
1
o
.
4.4.1. la matriz de transicin de nuevo
Sea 1
\
el operador identidad en un espacio \ . Sean c =
1
,
2
..
n
y
, = n
1
, n
2
..n
n
dos bases de \ y '
o
o
la matriz de transicin de c a ,. Sea
: = dim(\ ).
82 CAPTULO 4. TRANSFORMACIONES LINEALES
Entonces:
1. '
o
o
(1
\
) = 1
nn
.
2. '
o
o
(1
\
) = 1
nn
3. '
o
o
(1
\
) = '
o
o
pues
[1
\
]
o
= []
o
= '
o
o
(1
\
)[]
o
4. '
o
o
(1
\
) = '
o
o
=
_
'
o
o
_
1
pues
[1
\
]
o
= []
o
= '
o
o
(1
\
)[]
o
Adems, sea 1 : \ \ el operador lineal denido en las bases mediante
1(
I
) = n
I
entonces:
1.
'
o
o
(1) = 1
nn
por la mera denicin de matriz asociada.
2.
'
o
o
(1) =
_
'
o
o
_
1
= '
o
o
4.4.2. calculando la matriz asociada a una transformacin
lineal.
El esquema que proponemos para sistematizar el clculo de la matriz asoci-
ada a una transformacin lineal es el siguiente:
1. evale la transformacin en cada uno de los vectores de la base c, es decir,
T(
1
), T(
2
)...T(
n
).
2. calcule las coordenadas de cada vector T(

) en la base ,.
3. las coordenadas de T(

) forman la ,-sima columna de '


o
o
(T)
4. Note que si : = dim(\ ) y : = dim(\) entonces '
o
o
(T) ser una matriz
de ::.
Ejemplo 136 Sea T : R
3
R
3
la transformacin lineal denida mediante
T(r, j, .) = (2r 3j +., r j ., r +j + 5.)
4.4. REPRESENTACIONES MATRICIALES. 83
y equipe a R
3
con su base cannica c = (1, 0, 0), (0, 1, 0), (0, 0, 1) tanto para
el dominio como para el codominio. Calcule la matrz '
o
o
(T).
Solucin: De acuerdo con el esquema recomendado calculamos
T(1, 0, 0) = (2, 1, 1) = (2)(1, 0, 0) + (1)(0, 1, 0) + (1)(0, 0, 1)
T(0, 1, 0) = (3, 1, 1) = (3)(1, 0, 0) + (1)(0, 1, 0) + (1)(0, 0, 1)
T(0, 0, 1) = (1, 1, 5) = (1)(1, 0, 0) + (1)(0, 1, 0) + (5)(0, 0, 1)
en donde hemos re-escrito el resultado como combinacin lineal de los vectores
de la base (en este caso es muy fcil pues es la base cannica).
Por ello la matriz solicitada es
'
o
o
(T) =
_
_
2 3 1
1 1 1
1 1 5
_
_
Note que
_
_
2 3 1
1 1 1
1 1 5
_
_
_
_
r
j
.
_
_
=
_
_
2r 3j +.
r j .
r +j + 5.
_
_
Ejemplo 137 Considere la transformacin lineal o : 1
3
1
2
denida medi-
ante
o() =
d
dr
y considere las bases
c = 1, r, r
2
, r
3

, = 1, r, r
2

para 1
3
y 1
2
respectivamente. Calcule la matriz de o en las bases dadas.
Solucin: Por el algoritmo recomendado, calculamos
o(1) = 0 = (0)(1) + (0)(r) + (0)(r
2
)
o(r) = 1 = (1)(1) + (0)(r) + (0)(r
2
)
o(r
2
) = 2r = (0)(1) + (2)(r) + (0)(r
2
)
o(r
3
) = 3r
2
= (0)(1) + (0)(r) + (3)(r
2
)
y por ello
'
o
o
(o) =
_
_
0 1 0 0
0 0 2 0
0 0 0 3
_
_
84 CAPTULO 4. TRANSFORMACIONES LINEALES
4.4.3. Dada la matriz calcular la regla de correspondencia
A veces tenemos el problema inverso. Si se nos d '
o
o
(T) podemos inferir
la regla de correspondencia de T ? La respuesta es armativa, la clave es, una
vez ms,
[T]
o
= '
o
o
(T)[]
o
Ejemplo 138 Si T : R
2
R
3
tiene como matriz asociada a las bases cannicas
de R
2
y R
3
'
o
o
=
_
_
2 3
1 0
4 3
_
_
entonces para R
2
si []
o
=
_
r
j
_
[T]
o
= '
o
o
(T)[]
o
=
_
_
2 3
1 0
4 3
_
_
_
r
j
_
=
_
_
2r + 3j
r
4r + 3j
_
_
por lo que
T = (2r + 3j) (1, 0, 0) + (r) (0, 1, 0) + (4r + 3j) (0, 0, 1)
= (2r + 3j, r, 4r + 3j)
Captulo 5
lgebra de
transformaciones
Hemos visto cmo en un espacio vectorial hay dos operaciones de tal manera
que los vectores pueden sumarse y multiplicarse por nmeros. Ahora vamos a ver
que las transformaciones tambin pueden sumarse y multiplicarse por numeros.
5.1. Suma de transformaciones lineales.
En este captulo sean \ y \ dos espacios vectoriales sobre el mismo campo
1 y o : \ \ y T : \ \ dos transformaciones.
Vamos a denir una nueva transformacin llamada suma de o y T que
denotaremos como o + T. Recuerde usted que para denir cualquier funcin
(transformacin o no) se requiere:
especicar un dominio
especicar un codominio
especicar una regla de correspondencia
Por ello denimos o +T como aquella transformacin tal que:
su dominio es \
su codominio es \
su regla de correspondencia est denida para cualquier r \ mediante
(o +T)(r) = o(r) +T(r)
Nte que el signo + del lado izquierdo se reere a la suma de transforma-
ciones, en tanto que el signo + del lado derecho es la suma en \.
85
86 CAPTULO 5. LGEBRA DE TRANSFORMACIONES
En resumidas cuentas
o +T : \ \
(o +T)(r) = o(r) +T(r)
5.2. Producto por nmeros.
Dado un nmero c 1 y una transformacin vamos a denir una nueva
transformacin o : \ \ llamada producto de c y de o y que denotaremos
como co.
cT se dene con las siguientes estipulaciones:
su dominio es \
su codominio es \
su regla de correspondencia, para cualquier r \ y cualquier c 1 es
(co)(r) = c(o(r))
5.3. La suma de dos transformaciones lineales es
lineal
Suponga, de momento, que tanto o como T son lineales, tome r, j \ ,
entonces
(o +T)(r +j) = o(r +j) +T(r +j)
= o(r) +o(j) +T(r) +T(j)
= (o(r) +T(r)) + (o(j) +T(j))
= (o +T)(r) + (o +T)(j)
donde hemos usado tanto la denicin de o +T como la linealidad de o y de T
.
Anlogamente, para r \ y c 1 tendremos
(o +T)(cr) = o(cr) +T(cr)
= co(r) +cT(r)
= c(o(r) +T(r))
= c((o +T)(r))
completando la prueba de la linealidad.
5.4. LINEALIDAD DEL PRODUCTO POR UN NMERO 87
5.4. Linealidad del producto por un nmero
Suponga, de momento, que T es lineal, tome r, j \ , entonces y c 1,
entonces
(cT)(r +j) = c(T(r +j))
= c(T(r) +T(j))
= cT(r) +cT(j)
= (cT)(r) + (cT)(j)
donde hemos usado tanto la denicin de cT como la linealidad de T .
Anlogamente, para r \ y , 1 tendremos
(cT)(,r) = c(T(,r))
= c(,T(r))
= c,(T(r))
= ,(cT(r))
= ,((cT)(r))
completando la prueba de la linealidad.
5.5. El conjunto de todas las transformaciones
lineales de V en W es un espacio vectorial.
Al conjunto de todas las transformaciones lineales de \ en \
T = T : \ \ [ T es lineal
se le denota por
1i:(\, \)
o
:or(\, \)
o
hom(\, \)
Vamos a ver que T es un espacio vectorial.
5.5.1. hay un zero (elemento idntico) para la suma de
transformaciones?
Primeramente vamos a suponer que s lo hay a n de descubrir quin es.
Suponga pues que existe

0 : \ \ y tal que para todo o T tenemos que
o +

0 =

0 +o = o. Entonces para cualquier r \


(o +

0)(r) = o(r) +

0(r) = o(r)
88 CAPTULO 5. LGEBRA DE TRANSFORMACIONES
con lo que

0(r) = 0
para todo r \ y

0 es la transformacin cero anteriormente discutida.
Conversamente, hay que vericar que

0 hace bien su trabajo. Evaluemos
pues para r \
(o +

0)(r) = o(r) +

0(r) = o(r) + 0 = o(r)


= 0 +o(r) =

0(r) +o(r) = (

0 +o)(r)
con lo que o +

0 =

0 +o = o .
5.5.2. hay un negativo (inverso aditivo) para la suma de
transformaciones ?
Sea o T. Primero supondremos que existe H T y tal que o + H =
H +o =

0 . Entonces para todo r \


(o +H)(r) = o(r) +H(r) =

0(r) = 0
y tenemos que
H(r) = o(r) = ((1)o)(r)
con lo que el candidato a negativo es o = (1)o.
Vericamos que en efecto
(o + (1)o)(r) = o(r) + ((1)o)(r) = o(r) o(r) = 0
De hecho 1i:(\, \) es un espacio vectorial sobre 1 con las operaciones
de suma y producto por elementos de 1 que hemos denido, dejamos la
demostracin (usando los axiomas para los espacios vectoriales) al lector, ya
habiendo hecho la parte ms difcil (la existencia del cero y del inverso).
5.6. Matriz asociada a la suma y producto por
nmeros.
De nuevo sean \ y \ dos espacios vectoriales sobre el mismo campo 1 y
o : \ \ y T : \ \ dos transformaciones lineales. Sea c 1. Equipemos
ahora a \ y \ con las bases =
1
,
2
, ...
n
y 1 = n
1
, n
2
, ...n
n
respecti-
vamente.
Cul ser la matriz '
.
1
(o +T) ?
Ciertamente esperamos que, para cualquier r \
[(o +T)(r)]
1
= '
.
1
(o +T) [r]
.
pero como
[(o +T)(r)]
1
= [o(r) +T(r)]
1
= [o(r)]
1
+ [T(r)]
1
5.6. MATRIZ ASOCIADA A LA SUMA Y PRODUCTO POR NMEROS.89
y adems
[o(r)]
1
= '
.
1
(o) [r]
.
[T(r)]
1
= '
.
1
(T) [r]
.
resulta que
[(o +T)(r)]
1
= '
.
1
(o) [r]
.
+'
.
1
(T) [r]
.
=
_
'
.
1
(o) +'
.
1
(T)
_
[r]
.
con lo que obtenemos que
'
.
1
(o +T) [r]
.
=
_
'
.
1
(o) +'
.
1
(T)
_
[r]
.
y como esto vale para cualquier r \
'
.
1
(o +T) = '
.
1
(o) +'
.
1
(T)
de modo que la matriz de la suma de dos transformaciones lineales es la suma
de las matrices de las transformaciones.
De una manera anloga, Cul ser la matriz '
.
1
(co) ?
Ciertamente esperamos que, para cualquier r \
[(co)(r)]
1
= '
.
1
(co) [r]
.
pero como
[(co)(r)]
1
= [c(o(r))]
1
= c[o(r)]
1
y adems
[o(r)]
1
= '
.
1
(o) [r]
.
resulta que
[(co)(r)]
1
= c'
.
1
(o) [r]
.
=
_
c'
.
1
(o)
_
[r]
.
con lo que obtenemos que
'
.
1
(co) [r]
.
=
_
c'
.
1
(o)
_
[r]
.
y como esto vale para cualquier r \
'
.
1
(co) = c'
.
1
(o)
de modo que la matriz del producto de un nmero por una transformacin es
el producto del nmero por la matriz de la transformacin.
Comentario 139 De hecho los espacios 1i:(\, \) y '(:, :) (o '
+
(:, :)
segn el caso) son isomorfos. El isomorsmo es o '
.
1
(o).
90 CAPTULO 5. LGEBRA DE TRANSFORMACIONES
5.7. Composicin de transformaciones.
Sabemos que matrices del mismo tamao pueden sumarse y hemos visto
que esto corresponde a la suma de transformaciones. Tambin sabemos que las
matrices pueden multiplicarse por nmeros, y que esto corresponde al producto
de nmeros por transformaciones.
Pero las matrices tambin pueden multiplicarse entre s cuando son con-
formables (es decir, el primer factor tiene tantas columnas como renglones tiene
el segundo factor). a qu operacin entre transformaciones corresponde esto?.
5.7.1. denicin de composicin.
Sean \, \, 7 espacios vectoriales sobre un mismo campo 1. Si o : \
\ y T : \ 7 son transformaciones entonces podemos denir una nueva
transformacin T o de la siguiente manera:
su dominio es \
su codominio es 7
su regla de correspondencia es
(T o)(r) = T(o(r))
Lo anterior suele ponerse en forma de diagrama
\
S

\
T o | T
7
y se dice que el diagrama es conmutativo, con ello se quiere decir que da lo
mismo ir primero de \ a \ mediante o y luego de \ a 7 mediante T que ir
directamente de \ a 7 mediante T o.
5.7.2. La composicin de dos transformaciones lineales es
lineal.
Sean 1, o, \, \, T, \ y 7 como en la subseccin anterior pero suponga que
tanto o como T son lineales. Sean r, j \ , entonces
(T o)(r +j) = T(o(r +j)) por la denicin de composicin
= T(o(r) +o(j)) por la linealidad de o
= T(o(r)) +T(o(j)) por la linealidad de T
= (T o)(r) + (T o)(j) por la denicin de composicin
5.7. COMPOSICIN DE TRANSFORMACIONES. 91
anlogamente, sea r \ y c 1, entonces
(T o)(cr) = T(o(cr)) por la denicin de composicin
= T(co(r))por la linealidad de o
= cT(o(r))por la linealidad de T
= c[(T o)(r)] por la denicin de composicin
5.7.3. Matriz de la composicin de dos transformaciones
lineales.
Equipemos ahora a \ , \ y 7 con las bases =
1
,
2
, ...
n
y 1 =
n
1
, n
2
, ...n
n
y C = .
1
, .
2
, ....

respectivamente.
Entonces el trabajo de '
.
c
(T o) es (para cualquier r \ )
[(T o)(r)]
c
= '
.
c
(T o) [r]
.
pero por una parte
[(o)(r)]
1
= '
.
1
(o) [r]
.
[(T)(r)]
c
= '
1
c
(T) [r]
1
y por otra
(T o)(r) = T(o(r))
con lo que
[(T o)(r)]
c
= [(T(o(r))]
c
= '
1
c
(T) [o(r)]
1
= ('
1
c
(T))'
.
1
(o) [r]
.
= ('
1
c
(T)'
.
1
(o)) [r]
.
= '
.
c
(T o) [r]
.
y como esto vale para cualquier r tendremos que
'
.
c
(T o) = '
1
c
(T)'
.
1
(o)
con lo que la matriz de una composicin es el producto de las matrices de las
transformaciones. Note, como mnemotecnia, que en el lado izquierdo no aparece
el nombre de la base que a la derecha aparece dos veces, una vez arriba y otra
vez abajo.
5.7.4. Las propiedades ms importantes de estas opera-
ciones .
Ahora el escenario ser un poco ms complicado.
92 CAPTULO 5. LGEBRA DE TRANSFORMACIONES
Sean l, \, \ y A espacios vectoriales y 1, G, H, o, T transformaciones lin-
eales
1 : l \
G : l \
H : \ A
o : \ \
T : \ \
entonces:
o (1 +G) = o 1 +o G (distributividad)
(o +T) 1 = o 1 +T 1 (otra distributividad)
c(o 1) = (co) 1 = o (c1) (c 1)
H (o 1) = (H o) 1 (asociatividad)
T 1
\
= T (1
\
es la identidad en \ )
1
V
T = T (1
V
es la identidad en \)
Recuerde usted que dos funciones son iguales si y slo si:
tienen el mismo dominio
tienen el mismo codominio
tienen la misma regla de correspondencia.
Tome, por ejemplo, la primera igualdad. Las expresiones a ambos lados
tienen el mismo dominio (que es l, el dominio de 1 y G) y el mismo codo-
minio, que es \ (el codominio de o). Si r l tendremos que
(o (1 +G))(r) = o((1 +G)(r))por la denicin de composicin
= o(1(r) +G(r))por la denicin de suma
= o(1(r)) +o(G(r)) por la linealidad de o
= (o 1)(r) + (o G)(r) por la denicin de composicin
= ((o 1) + (o G)) (r) por la denicin de suma
Para la segunda igualdad, notemos que ambos miembros tienen dominio l
y codominio \, y
((o +T) 1)(r) = (o +T)(1(r)) por la denicin de composicin
= o(1(r)) +T(1(r)) por la denicin de suma
= (o 1)(r) + (T 1)(r) por la denicin de composicin
((o 1) + (T 1)) (r) por la denicin de suma
5.7. COMPOSICIN DE TRANSFORMACIONES. 93
Para la tercera parte ambos miembros tienen dominio l y codominio \, y
c(o 1)(r) = c((o 1)(r)) por la denicin de producto
= co(1(r)) por la denicin de composicin
= (co)(1(r)) por la denicin de producto
= ((co) 1) (r) por la denicin de composicin
y adems
c(o 1)(r) = c((o 1)(r)) por la denicin de producto
= co(1(r)) por la denicin de composicin
= o(c1(r)) por la linealidad de o
= o((c1)(r)) por la denicin de producto
= (o (c1))(r) por la denicin de composicin
Para la cuarta identidad, notamos que ambos lados tienen dominio l y codo-
minio A. Entonces
(H (o 1))(r) = H((o 1)(r)) por la denicin de composicin
=H(o(1(r))) por la denicin de composicin
=(H o)(1(r)) por la denicin de composicin
=((H o) 1)(r) por la denicin de composicin
con lo que vemos que la operacin de composicin es asociativa. Dejo al lector
convencerse de que esta operacin no es conmutativa.
La quinta identidad involucra a \ como dominio en ambos lados y a \
como codominio. Tenemos, pues
(T 1
\
)(r) = T(1
\
(r)) por la denicin de composicin
= T(r) por la denicin de identidad en \
en tanto que la sexta tambin involucra a \ como dominio en ambos lados y a
\ como codominio y un sencillo cmputo revela que
(1
V
T)(r) = 1
u
(T(r)) por la denicin de composicin
= T(r) por la denicin de identidad en \
Por ello las matrices identidad (del tamao adecuado) se comportan como iden-
tidades derecha o izquierda con respecto a la multiplicacin matricial. Recuerde
que la composicin (o la multiplicacin de matrices) no son operaciones binarias
(en el conjunto de todas las transformaciones lineales o de todas las matrices)
pues no siempre se pueden realizar.
Comentario 140 es nica esta identidad derecha o izquierda?
Considere
a =
_
1 3 5
2 4 6
_
94 CAPTULO 5. LGEBRA DE TRANSFORMACIONES
y
n =
_
_
5
6
1
3
1
6
1
3
1
3
1
3
1
6
1
3
5
6
_
_
y usted puede vericar facilmente que
an =
_
1 3 5
2 4 6
_
_
_
5
6
1
3
1
6
1
3
1
3
1
3
1
6
1
3
5
6
_
_
=
_
1 3 5
2 4 6
_
= a
pero n no es la matriz identidad.
Captulo 6
La transformacin inversa.
6.1. La inversa de una transformacin.
Sean \ y \ dos espacios vectoriales sobre un campo 1 y T : \ \ una
transformacin.
Decimos que T tiene una inversa (denotada por T
1
) o que es invertible (o
no singular) si existe una transformacin T
1
: \ \ tal que:
T
1
T = 1
\
T T
1
= 1
V
6.1.1. la inversa es nica
Suponga que T : \ \ tuviera dos inversas, denotemos una por T
1
y la
otra por G, entonces
T
1
: \ \
G : \ \
T
1
T = 1
\
T T
1
= 1
u
G T = 1
\
T G = 1
u
por ello
G = G 1
u
= G (T T
1
)
= (G T) T
1
= 1
\
T
1
= T
1
95
96 CAPTULO 6. LA TRANSFORMACIN INVERSA.
6.1.2. la inversa de una transformacin lineal es lineal
Suponga que T : \ \ es una transformacin lineal invertible.
Entonces si T(r) = j tendremos que
T(r) = j =
T
1
(T(r)) = T
1
(j) =
_
T
1
T
_
(r) = T
1
(j) =
1
\
(r) = T
1
(j) =
r = T
1
(j)
y tambin que
r = T
1
(j) =
T(r) = T(T
1
(j)) =
T(r) =
_
T T
1
_
(j) =
T(r) = (1
V
) (j) =
T(r) = (j)
por lo que podemos concluir que
T(r) = (j) == r = T
1
(j)
Por ello una manera sencilla de demostrar que la inversa de una transforma-
cin lineales lineal sera la siguiente:
T
1
(a +/) = T
1
(a) +T
1
(/) ==
(a +/) = T(T
1
(a) +T
1
(/)) ==
(a +/) = T(T
1
(a)) +T(T
1
(/)) ==
(a +/) =
_
T T
1
_
(a) +
_
T T
1
_
(/) ==
(a +/) = 1
V
(a) +1
V
(/) ==
(a +/) = a +/
y como la ltima aseveracin es siempre cierta
T
1
(a +/) = T
1
(a) +T
1
(/)
Anlogamente
T
1
(,a) = ,T
1
(a) ==
T(T
1
(,a)) = T(,T
1
(a)) ==
_
T T
1
_
(,a) = ,(T(T
1
(a))) ==
1
V
(,a) = ,
_
T T
1
_
(a) ==
,a = ,1
V
(a) ==
,a = ,a
6.1. LA INVERSA DE UNA TRANSFORMACIN. 97
y como la ltima igualdad siempre es cierta tenemos que
T
1
(,a) = ,T
1
(a)
6.1.3. La matriz de la inversa.
Sea T : \ \ lineal e invertible, =
1
,
2
, ...
n
una base de \ y
1 = n
1
, n
2
, ...n
n
una base de \.
Como
T
1
T = 1
\
'
.
.
(T
1
T) = '
1
.
(T
1
)'
.
1
(T)
= '
.
.
(1
\
) = 1
tenemos que
'
1
.
(T
1
) =
_
'
.
1
(T)

1
de modo que la matriz de la inversa de T es la inversa de la matriz de T.
Por esto una manera de ver si una transformacin es invertible es ver si su
matriz (respecto a cualquier base que escojamos) es invertible.
6.1.4. Criterios de invertibilidad.
Una transformacin lineal, al igual que cualquier otra funcin, tendr inversa
si y slo si es biyectiva. Ahora bien, una funcin es biyectiva si y slo si es
inyectiva y suprayectiva. Pero ya hemos visto que una transformacin lineal
T : \ \ es inyectiva si y slo si
(T) = 0
o, de manera equivalente, si y slo si
dim((T)) = 0
y que es suprayectiva si y slo si
Im(T) = \
o, lo que es lo mismo, si y slo si
dim(\) = dim(Im(T))
Adems recuerde el teorema de la dimensin:
dim(\ ) = dim((T)) + dim(Im(T))
De aqu podemos sacar algunas conclusiones:
98 CAPTULO 6. LA TRANSFORMACIN INVERSA.
Si T es invertible, entonces dim(\ ) = dim(\). Esto es til sobre todo en
la forma: si dim(\ ) ,= dim(\) entonces T no puede ser invertible.
Cuando dim(\ ) = dim(\), la inyectividad implica dim(\ ) = dim(Im(T)),
pero como Im(T) es un subespacio de \, tendremos que Im(T) = \ y
la transformacin es necesariamente tambin suprayectiva (y biyectiva,
consecuentemente).
Cuando dim(\ ) = dim(\), la suprayectividad implica dim((T)) =
dim(\ ) dim(Im(T)) = dim(\ ) dim(\) = 0, y, por lo tanto, la in-
yectividad de T (y la biyectividad de T, consecuentemente).
6.1.5. La inversa de una composicin.
Sean \, \, 7 espacios vectoriales sobre un mismo campo 1. Si o : \ \
y T : \ 7 son transformaciones invertibles, entonces T o : \ 7 es
invertible y
(T o)
1
= o
1
T
1
La demostracin se basa en ver que T
1
o
1
se comporta como inversa
y por la unicidad debe, entonces, ser la inversa.
As que considere
(T o)
_
o
1
T
1
_
= T (o o
1
) T
1
= T (1
V
) T
1
= (T 1
V
) T
1
= T T
1
= 1
2
y tambin
_
o
1
T
1
_
(T o) = o
1
(T
1
T) o
= o
1
(1
V
) o
= (o
1
1
V
) o
= o
1
o
= 1
\
con lo que se demuestra que (T o)
1
= o
1
T
1
(note el cambio en el orden
de aparicin de o y de T, es importante).
Este teorema tiene su contrapartida entre las matrices, si y 1 son matri-
ces conformables (es decir, que se pueden multiplicar) y tienen inversos, ocurre
que
(1)
1
= 1
1

1
Otras propiedades elementales de las inversas que el lector puede vericar
fcilmente son:
6.1. LA INVERSA DE UNA TRANSFORMACIN. 99
Si c 1 , c ,= 0 y o : \ \ es invertible, entonces co tambin es
invertible y (co)
1
= c
1
o
1
.
Si o : \ \ es invertible, entonces (o
1
)
1
= o.
6.1.6. un ejemplo completo
Sean
\ = ar
2
+/r +c [ a, /, c R
\ =
__
a /
/ c
_
[ a, /, c R
_
T : \ \
T(ar
2
+/r +c) =
_
a +c 3/
3/ a c
_
y equipemos a \ y \ con las bases
= r
2
, r, 1
1 =
__
1 0
0 0
_
,
_
0 1
1 0
_
,
_
0 0
0 1
__
respectivamente.
Primero vamos a calcular '
.
1
(T) y para ello calculamos el efecto de T en la
base usando la regla de correspondencia
T(r
2
) =
_
1 0
0 1
_
= (1)
_
1 0
0 0
_
+ (0)
_
0 1
1 0
_
+ (1)
_
0 0
0 1
_
T(r) =
_
0 3
3 0
_
= (0)
_
1 0
0 0
_
+ (3)
_
0 1
1 0
_
+ (0)
_
0 0
0 1
_
T(1) =
_
1 0
0 1
_
= (1)
_
1 0
0 0
_
+ (0)
_
0 1
1 0
_
+ (1)
_
0 0
0 1
_
con lo que vemos que
'
.
1
(T) =
_
_
1 0 1
0 3 0
1 0 1
_
_
A continuacin vamos a determinar si T tiene inversa. Ya que tenemos la
matriz de T el mejor camino ser indagar si esta matriz es invertible. As pues
_
_
1 0 1 1 0 0
0 3 0 0 1 0
1 0 1 0 0 1
_
_
~
_
_
1 0 1 1 0 0
0 3 0 0 1 0
0 0 2 1 0 1
_
_
~
_
_
1 0 1 1 0 0
0 1 0 0
1
3
0
0 0 1
1
2
0
1
2
_
_
~
_
_
1 0 0
1
2
0
1
2
0 1 0 0
1
3
0
0 0 1
1
2
0
1
2
_
_
100 CAPTULO 6. LA TRANSFORMACIN INVERSA.
de donde vemos que la matriz es invertible y, por lo tanto, T es invertible.
Adems
'
1
.
(T
1
) = '
.
1
(T)
1
=
_
_
1
2
0
1
2
0
1
3
0
1
2
0
1
2
_
_
Notas:
A veces puede usted determinar si la transformacin es invertible verif-
icando si es (o no es) una biyeccin. Tambin ayuda tener en mente el
teorema de la dimensin.
En casos como el del ejemplo, en el que la matriz de la transformacin es
cuadrada, puede usted saber si la matriz (y por lo tanto la transformacin)
es invertible calculando el determinante. En el presente ejemplo
det
_
_
1 0 1
0 3 0
1 0 1
_
_
= 6 ,= 0
conrmando que la matriz es invertible.
Nuestro siguiente paso ser calcular la regla de correspondencia de T
1
.
Dado n =
_
a /
/ c
_
tenemos que [n] =
_
_
a
/
c
_
_
y como
_
T
1
(n)

.
= '
1
.
(T
1
) [n]
1
=
_
_
1
2
0
1
2
0
1
3
0
1
2
0
1
2
_
_
_
_
a
/
c
_
_
=
_
_
o+c
2
b
3
oc
2
_
_
de modo que
T
1
(n) = (
a +c
2
)r
2
+ (
/
3
)r + (
a c
2
)1
En resumidas cuentas:
calculamos la matriz de la transformacin usando su regla de correspon-
dencia
calculamos la inversa de dicha matriz
con esta inversa inferimos la regla de correspondencia de la transformacin
inversa.
6.1. LA INVERSA DE UNA TRANSFORMACIN. 101
Ahora bien, no siempre es preciso recurrir a mtodos matriciales, como ilus-
traremos en seguida.
Dado n =
_
a /
/ c
_
lo que queremos es encontrar T
1
(n) y sabemos que
es un polinomio de grado no mayor a dos, digamos cr
2
+,r + de modo que
T
1
_
a /
/ c
_
= cr
2
+,r +
pero aplicando T a ambos miembros de la ecuacin
_
a /
/ c
_
= T(T
1
_
a /
/ c
_
) = T(cr
2
+,r +)
y usando la regla de correspondencia para T
_
a /
/ c
_
=
_
c + 3,
3, c
_
de modo que
a = c +
/ = 3,
c = c
sistema que podemos resolver para c, , y obtenindose
c =
a +c
2
, =
/
3
=
a c
2
y
T
1
_
a /
/ c
_
=
_
a +c
2
_
r
2
+
_
/
3
_
r +
_
a c
2
_

en concordancia con el resultado obtenido por mtodos matriciales. En este


caso los mtodos matriciales resultaron ms complicados, pero en general son
preferibles pues proporcionan un camino seguro aunque, a veces, largo. El es-
tudiante debe evaluar, ante un problema, si son preferibles mtodos directos o
matriciales. Casi todo problema matemtico admite ms de un camino hacia su
solucin.
El mtodo matricial indica una extensin del principio del isomorsmo: los
vectores se transforman en sus matrices de coordenadas, la transformacin T se
transforma en la matriz '
.
1
(T) .
102 CAPTULO 6. LA TRANSFORMACIN INVERSA.
6.2. Cambio de base y matrices
Sean \ y \ dos espacios vectoriales y T : \ \ una transformacin
lineal. Sean c y c/ dos bases de \ y , y ,/ dos bases de \.
Sean ' = '
o
o
(T) y = '
ot
ot
(T) las correspondientes matrices.
Deseamos indagar cul es la conexin entre ' y .
Para ello usaremos relaciones ya conocidas tales como
[T()]
o
= '[]
o
[T()]
ot
= []
ot
(aqu es cualquier vector de ) y si 1 es la matriz de transicin de c a c/ en
tanto que Q es la matriz de transicin de , a ,/ tendremos que, para cualesquiera
n \ y . \
[n]
ot
= 1[n]
o
[.]
ot
= Q[.]
o
Por ello
[T()]
ot
= Q[T()]
o
= Q'[]
o
= Q'1
1
[]
ot
= []
ot
y como esto vale para cualquier []
ot
resulta que
Q'1
1
=
o
' = Q
1
1
y estas ltimas relaciones nos dicen cmo cambian las matrices cuando cambi-
amos de base tanto en el dominio como en el codominio.
Cuando \ = \ (operador lineal) y c = , y c
t
= ,
t
tendremos que ' =
'
o
o
(T) y = '
o
o
(T) y tambin que 1 = Q por lo que
' = 1
1
1
o
= 1'1
1
Denicin 141 se dice que dos matrices ' y son similares si existe otra
matriz 1, no-singular y tal que = 1'1
1
. La relacin de similaridad es
una relacin de equivalencia.
6.3. MATRICES VACAS 103
6.3. Matrices vacas
En esta seccion consideraremos dos espacios \ y \ de dimensin nita con
dim(\ ) 0 y dim(\) 0 (es decir, ninguno de los dos espacios es trivial).
Considere el subespacio trivial = 0 de \ .
Ahora preguntmonos cmo sern las transformaciones lineales : \.
Como toda transformacin lineal mapea el cero en el cero, concluimos que es
necesariamente la transformacin cero. Note que, por lo anterior, slo hay una
trasnsformacin lineal : \.
y que pasa con las transformaciones lineales 1 : \ ? Resulta que
necesariamente 1(n) = 0 para todo n \. De nuevo la transformacin cero
es la nica transformacin lineal 1 : \ .
Y, nalmente considere C : lineal, para la cual tambin ocurre que
es la transformacin cero.
Si equipamos a \ con una base, cul cree usted que sern las matrices de
, 1 y C? Si la dimensin de \ es :, la matriz de sera de : 0, la de 1 de
0 : y la de C de 0 0!
De hecho algunos programas, como matlab, manejan estas matrices vacas.
podra usted elucidar cmo se multiplican las matrices vacas? qu cree usted
que resulta de multiplicar una matriz de : 0 con una de 0 :? Respuesta:
una matriz cero de ::.
104 CAPTULO 6. LA TRANSFORMACIN INVERSA.
Captulo 7
Geometra de las
transformaciones (I).
7.1. Haciendo geometra en R
2
Es hora de recordar el curso de geometra analtica. Con cada vector de R
2
asociamos tanto una echa como un punto (la punta de la echa). La echa
es el vector de posicin del punto. La suma de vectores tiene una interpretacin
geomtrica en trminos de la regla del paralelogramo en tanto que la multi-
plicacin por nmeros (,a) cambia vectores en vectores paralelos pero con su
tamao alterado por un factor [ , [ y su sentido cambiado si , < 0.
7.2. Efecto de transformaciones lineales sobre
rectas y segmentos
Una recta puede pensarse como el conjunto
/ = 1 = 1
0
+ta [ t R
donde a R
2
, a ,= 0, y 1
0
es un vector dado de R
2
. Decimos que / es la recta
paralela a a que pasa por 1
0
.
Un segmento de recta es un conjunto de la forma
/ = 1 = / +t(a /) [ t [0, 1]
es decir, pasa por / (t = 0), por a (t = 1) y es paralelo a a /. Es el segmento
que va de / a a y tambin podra escribirse como
/ = 1 = r/ +:a [ r, : _ 0, r +: = 1
que se conoce como combinacin convexa de a y /. Las representaciones an-
teriores se llaman paramtricas pues todo depende de los parmetros reales r, :
y t.
105
106 CAPTULO 7. GEOMETRA DE LAS TRANSFORMACIONES (I).
El punto clave es que las transformaciones lineales no singulares mapean
rectas en rectas y segmento en segmentos. Veamos esto con mayor detalle.
Si / es una recta o un segmento de recta, y T : R
2
R
2
es lineal, denimos
el efecto de T sobre / como
T(/) = T(r) [ r /
y si / es una recta
T(/) = T(1
0
+ta) [ t R
pero T(1
0
+ta) = T(1
0
) +tT(a) por lo que
T(/) = T(1
0
) +tT(a) [ t R
y vemos que T(/) es una recta que pasa por T(1
0
) y es paralela a T(a) (aqu
hay que aclarar que si T(a) = 0 entonces la linea recta se mapeara al punto
T(1
0
)).
Algo completamente anlogo ocurre con los segmentos.
Tambin es fcil ver que si / y /
t
son dos rectas paralelas, entonces T(/)
y T(/
t
) son paralelas. T mapea dos rectas que se cruzan en un punto en rec-
tas que se cruzan en un punto. Por ello las transformaciones lineales mapean
paralelogramos en paralelogramos.
A n de asegurar que no vayamos a mapear una recta en un punto (como
vimos ms arriba) se suele restringir el mbito de las transformaciones lineales
a aquellas que son invertibles (el grupo lineal general G1
2
(R)).
7.3. Areas de paralelogramos y de imgenes de
paralelogramos bajo transformaciones lin-
eales.
Sea P un paralelogramos generado por dos vectores a y / que son dos de sus
lados adyacentes. El rea de es el tamao de su base[ a [ multiplicado por su
altura / de modo que
=[ a [ / =[ a [[ / [ :c:(0) =[ a / [
donde 0 es el ngulo entre a y / (conceptos a ser denidos en el tema productos
interiores). Pero de lo que sabemos del producto cruz
=[ a / [=[ a
1
/
2
a
2
/
1
[=[ det
_
a
1
/
1
a
2
/
2
_
[
donde a = (a
1
, a
2
) y / = (/
1
, /
2
).
Si tenemos adems la transformacin lineal T : R
2
R
2
cuya matriz, en la
base cannica, es
' =
_
'
11
'
12
'
21
'
22
_
7.4. QUIRALIDAD. 107
De aqu vemos que si P es generado por los vectores a y / entonces T(P)
estar generado por los vectores T(a) y T(/) por lo que su rea ser

t
=[ det
__
'
11
'
12
'
21
'
22
__
a
1
/
1
a
2
/
2
__
= det
_
'
11
'
12
'
21
'
22
_
det
__
a
1
/
1
a
2
/
2
__
[
=[ det
_
'
11
'
12
'
21
'
22
_
[
y tenemos el importante resultado de que la transformacin cambia al paralel-
ogramo en otro y multiplica su rea por el determinante de la transformacin.
7.4. Quiralidad.
Pero y el signo del determinante? signica algo?. Tiene que ver con quiral-
idad. Expliquemos.
Hay muchos objetos que vienen en dos variedades: derecha e izquierda. Por
ejemplo, hay zapatos derechos y zapatos izquierdos, orejas derechas y orejas
izquierdas, tornillos derechos (de rosca derecha) y tornillos izquierdos. Estos
objetos se llaman quirales (del griego, keirs= mano, por ejemplo quirptero
quiere decir que tiene alas en las manos, la palabra cirujano quiere decir que
cura con las manos, etc). Otros objetos no vienen en dos variedades derecha e
izquierda, por ejemplo las pelotas de football; uno nunca pide una pelota derecha
o izquierda. Tales objetos son aquirales. La propiedad de ser derecho o izquierdo
se llama quiralidad (los fsicos la llaman paridad, en ingles es handedness).
Recomiendo al lector la obra de Lewis Carroll intitulada Alicia a travs del
espejo en donde la protagonista pasa al mundo del espejo, donde la quiralidad
est cambiada (porqu un espejo cambia derecha e izquierda y no cambia arriba
y abajo?).
El signo del determinante da la quiralidad. El rea puede pensarse como con
quiralidad, piense en el producto cruz, implica la regla de la mano derecha.
Si det(T) 0 no hay cambio en quiralidad, pero si det(T) < si lo hay y,
como veremos en seguida, la transformacin tiene un tanto el carcter de un
espejo.
7.4.1. ejemplos
En los ejemplos que siguen, considere un cuadrado de rea uno y su imagen
bajo T(que es un paralelogramo).
' = 1 =
_
1 0
0 1
_
es la identidad, no altera el cuadrado, ni le cambia la
quiralidad pues det(') = 1
' =
_
1 0
0 1
_
cambia cada vector por su negativo. Se llama inversin
central y es, tambin, una rotacin de 180 grados. No cambia la quiralidad
pues det(') = 1 y no altera el rea.
108 CAPTULO 7. GEOMETRA DE LAS TRANSFORMACIONES (I).
' =
_
1 0
0 1
_
reeja el cuadrado sobre el eje de las r. Como buen
espejo cambia la quiralidad y det(') = 1, no altera el rea
.' =
_
1 0
0 1
_
reeja el cuadrado sobre el eje de las j. Como buen
espejo cambia la quiralidad y det(') = 1, no altera el rea
' =
_
1 2
0 1
_
cambia al cuadrado en un paralelogramo que no es cuadra-
do. Sin embargo tiene la misma rea pues det(') = 1 y no se altera la
quiralidad. Es un ejemplo de corte (shear) que tambin podra llamarse
cizalla, cizalladura pero por favor evite la monstruosidad trasquilado.
' =
_
/ 0
0 1
_
/ 0, alarga al cuadrado en la direccin r si k 1(lo
comprime si / < 1). det(') = / reeja el cambio de rea y muestra que
no hay cambio de quiralidad.
' =
_
/ 0
0 /
_
= /1 es una expansin o compresin uniforme en las dos
direcciones. det(') = /
2
.
' =
_
/ 0
0 |
_
es una expansin o compresin diferente en los dos ejes.
det(') = /|.
' =
_
0 1
1 0
_
, ms dicil de visualizar. det(') = 1 por lo que cambia
quiralidades sin alterar reas. Se trata de una reexin a travs de un
espejo j = r.
' =
_
1 0
0 0
_
es una transformacin que todo lo proyecta sobre el eje
r. (ms adelante estudiaremos las proyecciones formalmente). det(') = 0
pues cambia el cuadrado en un segmento que no tiene rea.
' =
_
cos(0) :c:(0)
:c:(0) cos(0)
_
representa una rotacin por un ngulo 0.
det(') = 1 por lo que no hay alteracin ni en rea ni en quiralidad.
De hecho las rotaciones no cambian distancias ni ngulos: mapean un
cuadrado en otro idntico.
Lstima que este tema se ha colocado antes del tema de eigenvalores y eigen-
vectores, pues estos conceptos dicen mucho sobre el signicado geomtrico. Por
ejemplo en una cizalladura siempre hay una (y slo una) direccin en la que los
vectores no cambian, es decir, hay una lnea invariante.
Captulo 8
eigenvalores y eigenvectores
8.1. algunas deniciones
Denicin 142 Sea \ un espacio vectorial y T : \ \ una transformacin
lineal. A estas transformaciones lineales de un espacio a l mismo se les llama
operadores lineales.
Denicin 143 Sea \ un espacio vectorial sobre un campo 1 y T : \ \
un operador lineal. Se dice que \ es un eigenvector de T con eigenvalor
` 1 si ,= 0 y T = `.
Algunos sinnimos de eigenvalor son: valor propio, autovalor, valor carac-
terstico, valor latente.
Algunos sinnimos de eigenvector son: vector propio, vector caracterstico,
autovector, vector latente.
Comentario 144 Algunos autores no exigen que ,= 0 , dicen ellos que 0 es
eigenvector para cualquier eigenvalor.
Denicin 145 Si \ es un espacio vectorial, T : \ \ es una transformacin
lineal y ` un eigenvalor de T, denimos el eigenespacio (o espacio propio, o
espacio caracterstico) 1
X
mediante
1
X
= \ [ T = `
Note usted que el vector cero est en 1
X
pero no es un eigenvector.
Teorema 146 1
X
es un subespacio de \.
Demostracin. a) Claramente 1
X
\
b) Como T(0) = 0 = `0 tenemos que 0 1
X
c) Si a, / 1
X
entonces Ta = `a y T/ = `/ por lo que T(a+/) = T(a) +T(/) =
`a +`/ = `(a +/) y a +/ 1
X
d) Si a 1
X
y , es un escalar, como T(a) = `a tendremos que T(,a) = ,T(a) =
,`a = `(,a) con lo que ,a 1
X
.
109
110 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
8.1.1. en trminos de las matrices.
Suponga que T : \ \ es un operador lineal, que es un eigenvector con
eigenvalor `, que es una base de \ y que ' = '
.
.
(T).
Entonces
[T]
.
= '[]
.
[`]
.
= '[]
.
`[]
.
= '[]
.
por lo que si llamamos n = []
.
tendremos que
'n = `n
y, en trminos de coordenadas, la ecuacin es de la misma forma T = ` o
'n = `n. En lo sucesivo trabajaremos casi siempre con las matrices ms que
con las transformaciones.
Conversamente, si
'
.
.
(T)[]
.
= `[]
.
tendremos que
[T()]
.
= '
.
.
(T)[]
.
= `[]
.
= [`]
.
implicando que
T() = `
Es importante recalcar que el vector n contiene las coordenadas del eigen-
vector en la base .
8.2. Hallando los eigenvalores
Como
'n = `n =
'n `n = 0 =
'n `1n = 0 =
(' `1)n = 0
vemos que los eigenvectores son los vectores no nulos en el ncleo de (' `1).
La ecuacin ('`1)n = 0 representa un sistema lineal homogneo cuya matriz
de coecientes es '`1. Sabemos (de lo visto en el tema de determinantes) que
un sistema de este tipo tiene una solucin no trivial si y slo si el determinante
de la matriz de coecientes es cero, por ello
det(' `1) = 0
8.3. HALLANDO LOS EIGENVECTORES. 111
ecuacin que puede usarse para determinar los posibles valores de `. Note que
en esta ecuacin no aparece n.
De hecho la funcin
1(`) = det(' `1)
es siempre un polinomio en `. El grado de este polinomio es : si la matriz es de
: :. El polinomio se llama polinomio caracterstico de '(hay quien lo llama
polinomio secular, o ecuacin secular) y vemos, pues, que los eigenvalores son
las raices de 1(`).
Cuando : = 2 las raices del polinomio caracterstico se hallan mediante la
frmula elemental para hallar las raices del polinomio ar
2
+ /r + c = 0 que
es r =
b
_
b
2
4oc
2o
. Cuando el polinomio es de grado 3 o 4 es mejor suponer
que se trata de un polinomio con coecientes enteros con una raiz entera: esta
raiz debe de ser un divisor del trmino de grado cero. En los restantes casos se
habrn de usar mtodos numricos ad hoc.
8.3. hallando los eigenvectores.
Sabiendo cules son los eigenvalores hay que resolver ahora
'n = `n
para cada eigenvalor. El conjunto solucin proporcionar, adems, bases para
los eigenespacios.
8.3.1. primeros ejemplos
Sea 1
\
: \ \ la transformacin identidad en \ (dim(\ ) = :). Como
1
\
r = r = 1r
para todo r \ resulta que todo vector r ,= 0 de \ es un eigenvector de 1
\
con eigenvalor 1 . Slo hay un eigenespacio
1
1
= \
pues todo vector r de \ satisface 1
\
r = 1r .
El polinomio caracterstico ser
1
1
V
(`) = det(1
\
`1
\
) = det((1 `)1
\
)
= (1 `)
n
det(1
\
) = (1 `)
n
cuya nica raz es 1 con multiplicidad : .
A continuacin considere O
\
: \ \ , la transformacin cero en \ . Como
para todo r \
O
\
r =

0 = 0

0
112 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
tenemos que todo vector r ,= 0 de \ es un eigenvector de 0
\
con eigenvalor 0.
Slo hay un eigenespacio
1
0
= \
pues todo vector r de \ satisface 0
\
r = 0r .
El polinomio caracterstico ser
1
0
V
(`) = det(0
\
`1
\
)
= det(`1
\
)
= `
n
det(1
\
)
= `
n
y su nica raz es ` = 0 con multiplicidad : .
Por ltimo considere el caso de un operador en un espacio REAL cuya matriz
sea
' =
_
1 2
2 1
_
con lo que
1
1
(`) = (1 `)
2
+ 4
que no tiene raices reales. Por lo tanto el operador no tiene ni eigenvalores ni
eigenvectores.
Estos son ejemplos extremos. En general algunos vectores de \ sern eigen-
vectores y otros no.
8.4. Un ejemplo sencillo.
Considere la matriz
=
_
2 3
0 4
_
un clculo trivial indica que

_
1
0
_
=
_
2 3
0 4
_ _
1
0
_
=
_
2
0
_
= 2
_
1
0
_
por lo que
_
1
0
_
es un eigenvector de con eigenvalor 2.
veamos ahora ms sistemticamente cules son los eigenvalores.
8.4. UN EJEMPLO SENCILLO. 113
El polinomio caracterstico es
j(`) = det [`1]
= det
__
2 3
0 4
_
`
_
1 0
0 1
__
= det
__
2 ` 3
0 4 `
__
= (2 `) (4 `)
con lo que los eigenvalores son
2, 4
Para hallar los eigenvectores hay que usar la ecuacin r = `r usando los
eigenvalores encontrados. As, para ` = 2 tendremos
_
2 3
0 4
_ _
r
j
_
= 2
_
r
j
_
o
2r + 3j = 2r
4j = 2j
sistema que tiene como solucin
j = 0
y cualquier r, es decir, el espacio solucin tiene como una posible base
(1, 0)
que es tambin la base (eigenbase) del eigenespacio 1
2
y que, por consiguiente
tiene dim(1
2
) = 1.
Anlogamente, para ` = 4 tenemos que
_
2 3
0 4
_ _
r
j
_
= 4
_
r
j
_
y
2r + 3j = 4r
4j = 4j
sistema que tiene como espacio solucin los mltiplos de
(
3
2
, 1)
y tambin en este caso dim(1
4
) = 1.
114 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
8.5. Para obtener eigenvalores y eigenvectores.
Obtenga el polinomio caracterstico 1
T
(`) = det(T `1
\
)
Obtenga las raices `
I
(i = 1...:) de 1
T
(`). Estos son los posibles eigen-
valores.
Para cada `
I
resuelva el sistema lineal homogneo
I
`
I

I
= (`
I
)
I
=
0. Toda solucin no nula es un eigenvector. El eigenespacio correspondiente
a `
I
, 1
Xi
es simplemente el espacio solucin de este sistema homogneo.
Una base del eigenespacio ser, pus, una base del correspondiente sistema
lineal homogneo.
Con esto obtendremos todos los espacios caractersticos (o eigenespacios) y
sus bases.
8.6. Matriz de un operador en una eigenbase.
Suponga ahora que la base c consiste de eigenvectores, con lo que T
I
= `
I

I
(i = 1, 2...:) y, por lo tanto, la matriz de T respecto a c es
' =
_
_
_
_
_
`
1
0 ... 0
0 `
2
... 0
.
.
.
.
.
.
0 0 ... `
n
_
_
_
_
_
es decir, una matriz diagonal con los eigenvalores sobre la diagonal.
8.6.1. independencia de eigenvectores.
Tenemos que los eigenvectores correspondientes a diferentes eigenvalores son
independientes.
Teorema 147 Si
1
,
2
..
n
son eigenvectores correspondientes a eigenval-
ores distintos, entonces son linealmente independientes.
Demostracin. : Por induccin en el nmero : de elementos. Para : = 1 slo
hay un eigenvector
1
, como
1
,= 0 (por ser eigenvector) el conjunto
1
es
independiente. Suponga ahora que el teorema es vlido para : = /. Considere
el conjunto
1
,
2
..
|
,
|+1
y la ecuacin de dependencia
c
1

1
+c
2

2
+...c
|

|
+c
|+1

|+1
= 0
de donde
T(c
1

1
+c
2

2
+...c
|

|
+c
|+1

|+1
) = 0
c
1
`
1

1
+c
2
`
2

2
+...c
|
`
|

|
+c
|+1
`
|+1

|+1
= 0
8.6. MATRIZ DE UN OPERADOR EN UNA EIGENBASE. 115
y, multiplicando la ecuacin c
1

1
+ c
2

2
+ ...c
|

|
+ c
|+1

|+1
= 0 por `
|+1
j
restando ambas ecuaciones nos queda
(`
1
`
|+1
)c
1

1
+ (`
2
`
|+1
)c
2

2
+...(`
|
`
|+1
)c
|

|
= 0
pero, por la hiptesis de induccin
1
,
2
..
|
es independiente de modo que
(`
1
`
|+1
)c
1
= 0
(`
2
`
|+1
)c
2
= 0
.
.
.
(`
|
`
|+1
)c
|
= 0
y ninguno de los trminos (`
1
`
|+1
) es cero pues los eigenvalores son todos
distintos. Por ello
c
1
= c
2
... = c
|
= 0
y c
|+1

|+1
= 0 con lo que c
|+1
= 0 y
1
,
2
..
|
,
|+1
es independiente com-
pletando la demostracin.
8.6.2. Matriz diagonalizadora
Vamos a considerar de nuevo los cambios de base. Lo haremos para oper-
adores por lo que nuestro tratamiento ser un caso particular de la discusin ya
presentada anteriormente, pero es de tal importancia que bien vale la pena.
Sean \ un espacio vectorial y T : \ \ una transformacin lineal. Sean
c y c/ dos bases de \ y ' = '
o
o
(T) y = '
ot
o
0 (T) las correspondientes
matrices.
Deseamos indagar cul es la conexin entre ' y .
Para ello usaremos relaciones ya conocidas tales como
[T()]
o
= '[]
o
[T()]
o
0 = []
ot
(aqu es cualquier vector de ) y si 1 es la matriz de transicin de c a c/
tendremos que, para cualesquiera n, . \
[n]
ot
= 1[n]
o
Por ello
[T()]
ot
= 1[T()]
o
= 1'[]
o
= 1'1
1
[]
ot
= []
ot
y como esto vale para cualquier []
ot
resulta que
1'1
1
=
116 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
o
' = 1
1
1
y estas ltimas relaciones nos dicen cmo cambian las matrices cuando cambi-
amos de base.
Ahora tomaremos el caso en que c
t
es una cierta base y c es una eigen-
base. Entonces ' ser una matriz diagonal en cuya diagonal se encuentran los
eigenvalores, llamemos 1 a esta matriz para recordar que es diagonal. Entonces
1 = 1
1
1
Recuerde que 1 es la matriz de transicin de la base c a la base c
t
. Esta
matriz tiene como columnas las coordenadas de la eigenbase en trminos de la
base original, es decir los eigenvectores tal y como se han calculado con el pro-
cedimiento indicado (polinomio caracterstico y sus raices resolver el problema
lineal homogneo correspondiente ( `1) = 0). En este caso 1 recibe el
nombre de matriz diagonalizadora. Recuerde: 1 tiene como columnas los eigen-
vectores.
Comentario 148 Si dim(\ ) = : entonces el polinomio caracterstico ser de
grado : y tendr : raices (sobre el campo de los nmeros complejos). Si stas
son distintas, los eigenvectores formarn una eigenbase y el operador ser diago-
nalizable. Pero si algunos eigenvalores se repiten, entonces el operador puede ser
o no ser diagonalizable. Un teorema importante que no vamos a explicar may-
ormente establece que, si un eigenvalor ` aparece con multiplicidad : entonces
dim(1
X
) _ :.
8.7. Un ejemplo completo
Considere la matriz =
_
_
2 1 1
2 3 2
3 3 4
_
_
. es diagonalizable? En caso ar-
mativo calcular la matriz diagonalizadora.
8.7. UN EJEMPLO COMPLETO 117
El primer paso es el clculo del polinomio caracterstico. Por ello evaluemos
j(`) = det
_
_
_
_
2 1 1
2 3 2
3 3 4
_
_
`
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
= det
_
_
_
_
2 1 1
2 3 2
3 3 4
_
_

_
_
` 0 0
0 ` 0
0 0 `
_
_
_
_
= det
_
_
2 ` 1 1
2 3 ` 2
3 3 4 `
_
_
= (2 `) [(3 `)(4 `) (3)(2)]
(1) [(2)(4 `) (3)(2)]
+ (1) [(2)(3) (3)(3 `)]
= (2 `)
_
(`
2
7` + 12 6

[(8 2` 6] + [(6 9 + 3`)]


= (2 `)
_
(`
2
7` + 6

(2 2`) + (3 + 3`)
= 2`
2
14` + 12 `
3
+ 7`
2
6` 2 + 2` 3 + 3`
= `
3
+ 9`
2
15` + 7
o, en resumidas cuentas
j(`) = `
3
+ 9`
2
15` + 7
El segundo paso es hallar los eigenvalores, que son las raices del polinomio
caracterstico. En este caso el polinomio es de grado tres y tiene coecientes
enteros por lo que buscamos una raz entre los divisores de 7 que son 1 y 7.
Una evaluacin explcita nos dice que
j(1) = 1 + 9 15 + 7 = 0
de modo que el primer eigenvalor encontrado es `
1
= 1. Por ello el polinomio j
puede factorizarse como
j(`) = (` 1)(`)
donde es un polinomio de grado dos. puede ser hallado mediante divisin
sinttica
_
_
-1 9 -15 7
-1 8 -7
-1 8 -7 0 1
_
_
de modo que
(`) = `
2
+ 8` 7
118 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
cuyas raices son
`
2,3
=
(8)
_
(8)
2
(4)(1)(7)
(2)(1)
=
8
_
36
2
=
8 6
2
=
_
1
7
y
`
1
= 1
`
2
= 1
`
3
= 7
observando que el eigenvalor 1 es de multiplicidad 2.
El siguiente paso es calcular los eigenvectores. Comencemos con `
3
= 7. La
ecuacin de eigenvectores es
_
_
2 1 1
2 3 2
3 3 4
_
_
_
_
r
j
.
_
_
= 7
_
_
r
j
.
_
_
o
2r +j +. = 7r
2r + 3j + 2. = 7j
3r + 3j + 4. = 7.
que es equivalente a
5r +j +. = 0
2r 4j + 2. = 0
3r + 3j 3. = 0
8.7. UN EJEMPLO COMPLETO 119
cuya matriz de coecientes es
_
_
5 1 1
2 4 2
3 3 3
_
_
-
_
_
5 1 1
2 4 2
1 1 1
_
_
-
_
_
0 6 4
0 6 4
1 1 1
_
_
-
_
_
0 0 0
0 6 4
1 1 1
_
_
-
_
_
0 0 0
0 3 2
1 1 1
_
_
-
_
_
0 0 0
0 1
2
3
1 1 1
_
_
-
_
_
1 1 1
0 1
2
3
0 0 0
_
_
-
_
_
1 0
1
3
0 1
2
3
0 0 0
_
_
y un sistema equivalente al original es
r
.
3
= 0
j
2.
3
= 0
y como r, j son variables ligadas en tanto que . es la nica variable libre
(r, j, .) = (
.
3
,
2.
3
, .)
por lo que, si tomo . = 3 (para evitar fracciones), una base para 1
7
ser
(1, 2, 3) y dim(1
7
) = 1.
A continuacin tomamos el eigenvalor 1 (de multiplicidad dos).
La ecuacin de eigenvector es, en este caso
_
_
2 1 1
2 3 2
3 3 4
_
_
_
_
r
j
.
_
_
= 1
_
_
r
j
.
_
_
120 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
o
2r +j +. = r
2r + 3j + 2. = j
3r + 3j + 4. = .
y pasando todo al lado izquierdo obtenemos el sistema homogneo
r +j +. = 0
2r + 2j + 2. = 0
3r + 3j + 3. = 0
cuya matriz de coecientes es
_
_
1 1 1
2 2 2
3 3 3
_
_
-
_
_
1 1 1
1 1 1
1 1 1
_
_
-
_
_
1 1 1
0 0 0
0 0 0
_
_
y un sistema equivalente es
r +j +. = 0
aqu r es la nica variable ligada, las variables libres son j y .. Por ello
(r, j, .) = (j ., j, .)
= (j, j, 0) + (., 0, .)
= j(1, 1, 0) +.(1, 0, 1)
y una posible base para 1
1
sera (1, 1, 0), (1, 0, 1) y dim(1
1
) = 2.
Por todo esto, una base para R
3
que sea eigenbase de ser
, = (1, 2, 3), (1, 1, 0), (1, 0, 1)
y si T es el operador cuya matriz es (en alguna base no especicada c)
entonces
'
o
o
(T) =
_
_
2 1 1
2 3 2
3 3 4
_
_
'
o
o
(T) =
_
_
7 0 0
0 1 0
0 0 1
_
_
note que la ltima matriz es diagonal y contiene a los eigenvalores en el orden
elegido.
8.7. UN EJEMPLO COMPLETO 121
Por ltimo, hay que calcular la matriz diagonalizadora. Para ello recuerde
que los vectores obtenidos (es decir (1, 2, 3), (1, 1, 0), (1, 0, 1)) contienen las
coordenadas de los eigenvectores en la base c (de la que no sabemos explcita-
mente quin es). Por ello la matriz que contiene, como columnas, estos nmeros
es la matriz de transicin 1 de la base , a la base c, en nuestro caso
1 =
_
_
1 1 1
2 1 0
3 0 1
_
_
y podemos fcilmente corroborar que en efecto
1
1
1
=
_
_
1
6
1
6
1
6

1
3
2
3

1
3

1
2

1
2
1
2
_
_
_
_
2 1 1
2 3 2
3 3 4
_
_
_
_
1 1 1
2 1 0
3 0 1
_
_
=
_
_
7 0 0
0 1 0
0 0 1
_
_
Por cierto, si le piden que compruebe una ecuacin del tipo 1 = 1
1
1 mejor
compruebe la ecuacin equivalente 1 = 11, es ms fcil (no hay que calcular
ninguna inversa).
Comentario 149 De la ecuacin j(`) = det( `1) podemos ver que j(0) =
det() por lo que el trmino de grado cero del polinomio caracterstico (trmino
independiente) es igual al determinante. Tambin puede demostrarse que, si
es de : :, entonces el coeciente del trmino de grado : 1 es igual a
(1)
n+1
tr().
Comentario 150 Dado que la traza y el determinante no cambian bajo trans-
formaciones de semejanza; si es diagonalizable entonces su traza es la suma
de sus eigenvalores y su determinante el producto. En realidad esto es cierto
aun sin la suposicin de diagonalizabilidad para espacios complejos (toda matriz
compleja es semejante a una matriz triangular superior donde los elementos de
la diagonal son los eigenvalores).
122 CAPTULO 8. EIGENVALORES Y EIGENVECTORES
Captulo 9
Interpretacin geomtrica
de las transformaciones
lineales (II).
Cuando la matriz de la transformacin es ' =
_
/ 0
0 |
_
ya hemos visto
que se trata de expansiones (o contracciones) por factores / y | en las direcciones
r y j respectivamente. Notemos que esta matriz tiene eigenvalores precisamente
/ y | y que los eigenvectores son (0, 1) y (1, 0).
Si la matriz es real y del tipo ' =
_
a /
/ c
_
, es decir, una matriz simtrica,
ocurre (como veremos ms adelante) que ' es diagonalizable y existe una matriz
ortogonal 1 tal que 1
1
'1 es diagonal. Esto quiere decir que hay un sistema
coordenado (dado por los eigenvectores de ') en el cual la transformacin es
del tipo ' =
_
/ 0
0 |
_
. Luego, toda matriz simtrica representa expansiones
o contracciones con respecto a dos ejes perpendiculares.
Los espejos, como ' =
_
0 1
1 0
_
, tienen dos eigenvectores perpendiculares,
uno de los eigenvalores es 1 y el otro es 1, indicando que en la direccin del
espejo nada cambia (linea invariante) y en la direccin perpendicular se cambia
el signo (se reeja).
Mucho ms interesantes son los cortes del tipo ' =
_
1 `
0 1
_
, estos op-
eradores no son diagonalizables. Hay un slo eigenvector ((1, 0) en este caso)
y corresponde al eigenvalor 1. Decimos que hay tan slo una lnea invariante,
es caracterstica de los cortes el tener una lnea (o plano en tres dimensiones)
invariante. En cursos ms avanzados una matriz como ' se dice que est en
forma de bloque de Jordan.
123
124CAPTULO9. INTERPRETACINGEOMTRICADE LAS TRANSFORMACIONES LINEALES (II).
Parte IV
Espacios con producto
interior
125
Captulo 10
Espacios con producto
interior
10.1. Motivacin
Todo estudiante seguramente conoce el producto punto o escalar que le
ensearon desde preparatoria. Es el producto que usamos en los cursos elemen-
tales de fsica para calcular el trabajo hecho por una fuerza (\ =

1

d).
Este producto se dene mediante
a

/ =[ a [ [

/ [ cos(0)
donde [ a [y [

/ [ representan los tamaos de a y de



/ respectivamente y 0 es el
ngulo entre los dos vectores
Aqu no podemos usar este enfoque porque:
no se ha denido lo que signica el tamao de un vector
no se ha denido lo que signica el ngulo entre dos vectores.
10.2. Concepto de producto interior
Denicin 151 Decimos que \ es un espacio con producto interior si es un
espacio vectorial real (complejo) y hay una funcin
: \ \ R
( : \ \ C segn el caso) que asocia con cada par de vectores a, / \ un
nmero real (complejo) a, / y que satisface los siguientes cuatro axiomas:
1)Si a, / \ entonces a, / = /, a . La barra denota conjugacin compleja.
2)Si a, /, c \ entonces a +/, c = a, c +/, c
3) Si a \ y , C (o , R ) entonces ,c, a = ,c, a
4) Si a \ entonces a, a _ 0. a, a = 0 si y slo si a = 0.
127
128 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
Notacin 152 Los productos interiores pueden denotarse de diversas maneras
amn de la ya explicada a, /, entre otras podemos mencionar (a [ /), a /,
a [ / y (a, /). Entindase que no es terriblemente importante cul signo de
agrupacin usemos ( ()) o cul separador empleemos (, [). Los signos de agru-
pacin < y se conocen en ingls como brackets y (hasta donde sabemos)
en espaol son parntesis angulares (creemos que no se llaman ni llaves
ni corchetes [] ni comillas ). En estas notas usaremos preferentemente la no-
tacin a, / para los productos interiores. En los textos de mecnica cuntica
se usa invariablemente la notacin de Dirac a [ /. Como sinnimos podemos
usar productos internos y productos escalares, aunque hay que aclarar que al-
gunos autores reservan este ltimo nombre para el producto habitual en espacios
R
n
(que se ver en seguida).
Comentario 153 En la mecnica cuntica el axioma tres tiene la forma: 3)
Si a \ y / C (o / R ) entonces c, /a = /c, a. no sera mejor usar
en este curso las convenciones habituales en la mecnica cuntica, en donde el
lgebra lineal tiene su ms perfecta y acabada aplicacin?. En lenguaje tcnico;
vamos a usar productos lineales con respecto a su primer factor y antilineales
con respecto al segundo, pero en mecnica cuntica los productos son siempre
antilineales en el primer factor y lineales en el segundo.
Comentario 154 Note que en esta seccin es importante que los espacios sean
especcamente reales o complejos. En las secciones anteriores casi todo era
vlido para espacios sobre campos arbitrarios; pero en la denicin del producto
interior se usan la conjugacin de complejos y el orden (_) en los reales.
10.3. Ejemplos de productos interiores
Ejemplo 155 Considere R
n
y dena
a, / =
n

I=1
a
I
/
I
si
a = (a
1
, a
2
, ...a
n
)
/ = (/
1
, /
2
, .../
n
)
Entonces:
a) /, a =

n
I=1
/
I
a
I
=

n
I=1
a
I
/
I
= a, / (note que hemos usado la conmuta-
tividad del producto de nmeros reales)
10.3. EJEMPLOS DE PRODUCTOS INTERIORES 129
b) Si c = (c
1
, c
2
, ...c
n
) tendremos que
a +/, c =
n

I=1
(a
I
+/
I
)c
I
=
n

I=1
a
I
c
I
+
n

I=1
/
I
c
I
= a, c +/, c
c)si , R
,a, / =
n

I=1
(,a
I
)/
I
= ,
n

I=1
a
I
/
I
= ,a, /
d) claramente si a = 0 tendremos que
a, a =
n

I=1
00
= 0
y, conversamente, si
a, a = 0
=
n

I=1
a
2
I
pero la suma de nmeros no negativos no puede ser cero a menos que todos los
sumandos sean cero de modo que si a, a = 0 entonces a
I
= 0 \i y a = 0.
Adems, como

n
I=1
a
2
I
es la suma de trminos no negativos, debe de satisfacer

n
I=1
a
2
I
_ 0.
Ejemplo 156 Anlogamente, en C
n
denimos
a, / =
n

I=1
a
I

/
I
si
a = (a
1
, a
2
, ...a
n
)
/ = (/
1
, /
2
, .../
n
)
y dejamos la demostracin al lector. Note la barra de conjugacin en la deni-
cin.
130 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
Comentario 157 El producto interior en R
n
puede escribirse como
a, / = a/
T
si pensamos que a y / son un vectores rengln. Alternativamente,
a, / = /
T
a
si pensamos que a y / son un vectores columna.
Comentario 158 El producto en C
n
puede escribirse como
a, / = a/
+
si pensamos que a y / son un vectores rengln. Alternativamente,
a, / = /
+
a
si pensamos que a y / son un vectores columna.
Ejemplo 159 En 1
n
un producto frecuente es el denido por
1(r), Q(r) =
_
b
o
1(r)Q(r)dr
donde a y / son nmeros reales jos (a < /). Es un producto interior pues:
a)
1(r), Q(r) =
_
b
o
1(r)Q(r)dr
=
_
b
o
Q(r)1(r)dr
= Q(r), 1(r)
b)
/1(r), Q(r) =
_
b
o
/1(r)Q(r)dr
= /
_
b
o
1(r)Q(r)dr
= /1(r), Q(r)
10.3. EJEMPLOS DE PRODUCTOS INTERIORES 131
c)
1(r) +Q(r), 1(r) =
_
b
o
(1(r) +Q(r))1(r)dr
=
_
b
o
(1(r)1(r) +Q(r)1(r))dr
=
_
b
o
1(r)1(r)dr +
_
b
o
Q(r)1(r)dr
= 1(r), 1(r) +Q(r), 1(r)
donde 1(r) 1
n
.
d) Si 1(r) = 0 claramente
1(r), 1(r) =
_
b
o
0dr = 0
y, conversamente, si
1(r), 1(r) = 0
=
_
b
o
1(r)
2
dr
pero siendo los polinomios funciones continuas, la nica manera de tener una
integral cero para un integrando no negativo es que el integrando sea cero.
Siendo el integrando no negativo, necesariamente se cumple que
_
b
o
1(r)
2
dr _ 0.
Ejemplo 160 Si sobre una partcula acta una fuerza ) y se desplaza d en-
tonces el trabajo \ estar dado por \ = ) d donde es el producto ordinario
en espacios de dos o tres dimensiones. Cuando la fuerza es variable (en una
dimensin)
\ =
_
b
o
)(t)(t)dt
que tiene la misma forma que el producto interior en 1
n
. Similarmente, en un
circuito con corriente i(t) y diferencia de potencial (t) tendremos que
\ =
_
b
o
i(t)(t)dt
que de nuevo tiene la forma de producto interior entre funciones.
Ejemplo 161 En espacios de matrices, digamos '
+
(:, :) un producto habitual
es el dado por
', = tr('
+
)
y dejo al lector la demostracin. Algunos autores llaman a este producto pro-
ducto de Frobenius.
132 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
Ejemplo 162 En espacios de polinomios 1
n
se dene el producto
1(r), Q(r) =
n+1

I=1
1(r
I
)Q(r
I
)
donde los nmeros r
1
...r
n+1
son distintos. Demuestre usted que es un producto
interior.
10.4. Algunas propiedades de los productos in-
teriores
De los axiomas podemos obtener algunas propiedades bsicas de los produc-
tos interiores.
Teorema 163 Sea \ un espacio vectorial con un producto interior. Entonces:
a) a, / +c = a, / +a, c para cualesquiera a,/ y c \
b) a, ,/ = ,a, / para cualesquiera a,/ \ y , escalar.
c) a, 0 = 0, a = 0
Demostracin. a)
a, / +c = / +c, a
= /, a +c, a
= /, a +c, a
= a, / +a, c
b)
a, ,/ = ,/, a
= ,/, a
= ,/, a
= ,a, /
c) a,

0 = a, 0/ = 0a, / = 0 (/ es cualquier vector, la demostracin de


0, a = 0 es similar)
10.5. La desigualdad de Cauchy-Schwarz
La llamada desigualdad de Cauchy-Schwarz juega un papel muy importante
tanto en el lgebra lineal como en sus aplicaciones. En lgebra lineal est en el
corazn de muchas construcciones geomtricas tales como las normas y distan-
cias. En mecnica cuntica da lugar a las famosas relaciones de incertidumbre
de Heisenberg.
10.5. LA DESIGUALDAD DE CAUCHY-SCHWARZ 133
Teorema 164 Sea \ un espacio vectorial complejo con un producto interior.
Entonces para cualesquiera vectores a y / tenemos que
[ a, / [
2
_ a, a/, /
y la igualdad se cumple si y slo si los vectores son linealmente dependientes.
Demostracin. Si / = 0 la desigualdad se cumple trivialmente. Suponga, pues,
que / ,= 0 y considere la expresin
j = a
a, /
/, /
/, a
a, /
/, /
/
= a, a a,
a, /
/, /
/
a, /
/, /
/, a
+
a, /
/, /
/,
a, /
/, /
/
= a, a
a, /
/, /
a, /
a, /
/, /
/, a
+
a, /
/, /
a, /
/, /
/, /
= a, a 2
a, /
/, /
/, a +
a, /
/, /
/, a
= a, a
a, /
/, /
/, a
pero j _ 0 pues es el producto de un vector consigo mismo, por ello
a, a
a, /
/, /
/, a _ 0
a, a _
a, /
/, /
/, a
a, //, a _ a, a/, /
[ a, / [
2
_ a, a/, /
demostrando la primera parte del teorema.
Suponga ahora que
[ a, / [
2
= a, a/, /
de las ecuaciones anteriores se ve que esto implica que
a
a, /
/, /
/, a
a, /
/, /
/ = 0
y, por lo tanto, que
a
a, /
/, /
/ = 0
a =
a, /
/, /
/
134 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
probando que a, / es dependiente.
Conversamente, si a, / es dependiente, entonces a = ,/ para algn , y
[ ,/, / [
2
=[ , [
2
[ /, / [
2
y
a, a/, / = ,/, ,//, /
= ,,/, //, /
=[ , [
2
[ /, / [
2
10.6. Normas
El tamao si importa!
10.6.1. motivacin.
En el producto escalar elemental a / =[ a [[ / [ cos(0) obtenemos para el
caso especial a = / que a a =[ a [
2
por lo que
[ a [=
_
a a
y donde se entiende que tomamos la raz positiva. Es decir, del producto podemos
inferir el tamao.
10.6.2. Caso general.
En un espacio vectorial con producto interior podemos denir la nocin de
tamao del vector o norma.
Denicin 165 Sea \ un espacio vectorial sobre el campo de los nmeros reales
o los nmeros complejos. Por una norma en \ entenderemos una funcin | | :
\ R que asocia con cada vector r un nmero real |r| que cumple con las
siguientes propiedades:
a) |r| _ 0 \r \ y |r| = 0 si y slo si r = 0.
/) |r| =[ [ |r| \r \ y \ 1(algunos autores llaman a esto propiedad
de homogeneidad).
c) |r +j| _ |r| +|j| (desigualdad del tringulo).
Denicin 166 Un espacio vectorial \ con una norma | | se llama espacio
normado.
Ejemplo 167 En C
n
y en R
n
tenemos, como ejemplos de normas,
| |

=
_
n

I=1
([
I
[)

_1
p
10.6. NORMAS 135
y, cuando j ,
| |
o
= max[
I
[
Si j = 1 tendremos
| |
1
=
n

I=1
([
I
[)
En la norma | |

cuando j = 2 tenemos la norma inducida por el producto


interior habitual (ver el siguiente ejemplo).
Ejercicio 168 Indague el signicado de la homogeneidad de la norma en el
caso de vectores geomtricos en dos o tres dimensiones.
En un espacio dado hay muchas normas posibles, sin embargo si el espacio
est equipado con un producto interior hay una norma especial que proviene del
producto, esta norma se llama norma inducida por el producto interior.
Denicin 169 Sea \ un espacio vectorial complejo con producto interior. La
norma inducida por el producto interior se dene mediante:
|r| =
_
r, r
(la raz positiva).
Ejemplo 170 En R
n
, con el producto interno habitual, tenemos la norma in-
ducida
| |=
_
n

I=1
([
I
[)
2
_1
2
que es una norma tipo | |

con j = 2.
Teorema 171 Sea \ un espacio vectorial complejo con producto interior. La
norma inducida por el producto interior es una norma.
Demostracin. a) De la denicin se ve que |r| _ 0. Si r = 0 |r| =
_
0, 0 =
_
0 = 0 y. por ltimo si |r| = 0 entonces r, r = 0 y r = 0.
b)
|r| =
_
r, r
=
_
r, r
=
_
[ [
2
r, r
=
_
[ [
2
_
|r|
2
=[ [ |r|
136 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
c) Como
|r +j|
2
= r +j, r +j
= r, r +r, j +j, r +j, j
= |r|
2
+|j|
2
+j, r +r, j
= |r|
2
+|j|
2
+j, r +j, r
= |r|
2
+|j|
2
+ 2 Re(j, r)
_ |r|
2
+|j|
2
+ 2 [ Re(j, r) [
_ |r|
2
+|j|
2
+ 2 [ j, r [
_ |r|
2
+|j|
2
+ 2
_
j, jr, r
= |r|
2
+|j|
2
+ 2
_
|r|
2
|j|
2
= |r|
2
+|j|
2
+ 2|r||j|
= (|r| +|j|)
2
y por ello |r +j| _ |r| +|j|
No debe pensarse que toda norma en un espacio vectorial es inducida por
un producto interior.
Si se sabe que en un espacio real la norma es inducida por un producto
interior, entonces puede inferirse cul es el producto interior.
Teorema 172 Sea \ un espacio vectorial real con un producto interior. Sea ||
la norma inducida por el producto interior. Entonces, para cualesquiera a, / en
\ tenemos que
a, / =
1
4
_
|a +/|
2
|a /|
2

Demostracin.
|a +/|
2
= a +/, a +/
= a, a +a, / +/, a +/, /
= |a|
2
+|/|
2
+ 2a, /
y
|a /|
2
= a /, a /
= a, a a, / /, a +/, /
= |a|
2
+|/|
2
2a, /
por lo que
|a +/|
2
|a /|
2
= 4a, /
y
a, / =
1
4
_
|a +/|
2
|a /|
2

10.6. NORMAS 137


Teorema 173 Sea \ un espacio vectorial complejo con un producto interior.
Sea || la norma inducida por el producto interior. Entonces, para cualesquiera
a, / en \ tenemos que
a, / =
1
4
_
|a +/|
2
|a /|
2

+
i
4
_
|a +i/|
2
|a i/|
2

Demostracin.
|a +/|
2
= a +/, a +/
= a, a +a, / +/, a +/, /
= |a|
2
+|/|
2
+ 2 Rea, /
|a /|
2
= a /, a /
= a, a a, / /, a +/, /
= |a|
2
+|/|
2
2 Rea, /
|a +i/|
2
= a +i/, a +i/
= a, a +a, i/ +i/, a +/, /
= |a|
2
+|/|
2
+i [/, a a, /]
= |a|
2
+|/|
2
+ [2i] i Im(/, a)
= |a|
2
+|/|
2
2 Im(/, a)
= |a|
2
+|/|
2
+ 2 Im(a, /)
|a i/|
2
= a i/, a i/
= a, a +a, i/ +i/, a +/, /
= |a|
2
+|/|
2
+ia, / i/, a
= |a|
2
+|/|
2
+i [a, / /, a]
= |a|
2
+|/|
2
+i [2i Ima, /]
= |a|
2
+|/|
2
[2 Ima, /]
por lo que
a, / =
1
4
_
|a +/|
2
|a /|
2

+
i
4
_
|a +i/|
2
|a i/|
2

Estas frmulas que dan los productos interiores se conocen como identidades
de polarizacin.
138 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
Ejemplo 174 La norma | |
o
= max[
I
[ no proviene de un producto
interior. Por ejemplo en R
3
, usando a = (1, 2, 3) y / = (2, 3, 0) y con la
identidad de polarizacin resulta que 2a, / , = 2a, /.
Comentario 175 Como en el ejemplo anterior, a veces se nos pide que veri-
quemos si una cierta norma proviene de un producto interior. Entre los caminos
posibles sealaremos: 1) usar la identidad de polarizacin para obtener el pre-
sunto producto interior. Luego vericar que es en efecto un producto interior.
2) Si la norma proviene de un producto interior entonces debe satisfacerse para
cualesquiera vectores a y / la llamada identidad del paralelogramo (que esper-
amos el lector demuestre)
|a +/|
2
+|a /|
2
= 2 | a |
2
+2 | / |
2
si encontramos algn contraejemplo, entonces la norma no proviene de un pro-
ducto interior. En el ejemplo anterior se puede ver que con a = (1, 0) y / = (0, 1)
se viola la identidad del paralelogramo, conrmando que esa norma no puede
ser la norma inducida por un producto interior. En realidad la condicin de que
cumpla la identidad del paralelogramo es condicin necesaria y suciente para
que la norma provenga de un producto interior, pero la demostracin es bastante
complicada.
10.7. Distancias (mtricas)
En un espacio \ puede denirse la nocin de distancia.
Sea \ un espacio vectorial, una distancia (o mtrica) en \ es una funcin
d : \ \ R que asocia con cada par r, j de vectores de \ un nmero real
d(r, j) que adems satisface las siguientes condiciones:
a) d(r, j) _ 0 \r, j \ y d(r, j) = 0 si y slo si r = j.
/) d(r, j) = d(j, r) \r, j \
c) d(r, j) _ d(r, .) +d(., j) \r, j, . \ (desigualdad del tringulo).
Denicin 176 Un espacio vectorial \ con una mtrica d se llama espacio
mtrico.
En general hay muchas maneras de denir una distancia en un espacio da-
do. Sin embargo, si el espacio es normado, hay una mtrica especial, llamada
mtrica inducida por la norma.
Comentario 177 De hecho las mtricas pueden denirse en conjuntos que no
sean espacios vectoriales, por ejemplo la mtrica discreta mostrada ms adelante
se puede denir en cualquier conjunto.
Denicin 178 Si \ es un espacio vectorial normado, entonces la distancia
inducida por la norma es la funcin denida mediante:
d(r, j) = |r j|
10.7. DISTANCIAS (MTRICAS) 139
Teorema 179 Si \ es un espacio vectorial normado, entonces las distancia
inducida por la norma es una mtrica.
Demostracin. a) Como d(r, j) = |rj| tenemos (propiedades de las normas)
que d(r, j) _ 0. d(r, r) = |r r| = |0| = 0. Adems si d(r, j) = 0 entonces
|r j| = 0 y r j = 0 y r = j.
b) d(r, j) = |r j| = |j r| = d(j, r)
c)
d(r, j) = |r j|
= | (r .) + (. j) | _ | (r .) | +| (. j) |
= d(r, .) +d(., j)
Cuando la norma es inducida por un producto interior, la mtrica inducida
por esta norma se llama mtrica inducida por el producto interior.
Si se sabe que la metrica proviene de una norma, es posible reconstruir la
norma si nos dan la mtrica.
Teorema 180 Sea \ un espacio normado y sea d la mtrica inducida por la
norma. Entonces, para todo a \
|a| = d(a, 0)
Comentario 181 Hemos dado todas las demostraciones pensando en el caso
de un espacio vectorial complejo. Dejamos al lector la tarea de cerciorarse de
que estas demostraciones siguen siendo vlidas en el caso real.
No debe pensarse que todas las mtricas provienen de una norma.
Ejemplo 182 Sea \ un espacio vectorial. Para a, / \ dena
d(a, /) =
_
0 si a = /
1 si a ,= /
Entonces d(a, /) es una mtrica en \ (mtrica discreta).
Ejemplo 183 La mtrica del ejemplo anterior no puede provenir de una norma
pues, si este fuera el caso,
|a| = d(a, 0)
y, para a ,= 0 y ,= 0 [ [, = 1
|a| = d(a, 0) = 1 ,=[ [ |a| =[ [ d(a, 0) =[ [
140 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
10.8. ngulos.
En espacios vectoriales reales puede denirse la nocin de ngulo, en espacios
complejos generalmente no se utilizan los ngulos. Consideremos de nuevo la
ecuacin a / =[ a [ [ / [ cos(0) de donde podemos despejar
cos(0) =
a /
[ a [ [ / [
y denimos el ngulo entre los dos vectores a y / como el ngulo 0 [0, ] que
satisface la equacin anterior.
Cuando 0 =
t
2
cos(0) = 0 y necesariamente a / = 0 .
En trminos de nuestra notacin
cos(0) =
a, /
|a||/|
=
a, /
_
a, a
_
/, /
10.9. Conjuntos ortogonales, normales y orto-
normales
Si un vector en \ tiene norma uno (|| = 1) decimos que est normalizado
(o que es unitario). Si || , = 1 entonces podemos normalizarlo,esto es, obtener
un vector n que es un mltiplo de pero |n| = 1 . Una manera simple de hacer
esto es multiplicando por el nmero (||)
1
(suponiendo, por supuesto, que
|| , = 0) pues
|(||)
1
| = (||)
1
|| = 1
Denicin 184 Un conjunto c =
1
,
2
..
n
se llama normalizadoo nor-
mal si |
I
| = 1 para i = 1, 2..:.
Denicin 185 Se dice que dos vectores y n son ortogonales (perpendicu-
lares) si , n = 0 .
Denicin 186 Se dice que un conjunto c =
1
,
2
..
n
es ortogonal si
I
,

=
0 para i ,= ,.
Denicin 187 Se dice que un conjunto c =
1
,
2
..
n
es ortonormal si es
normal y ortogonal, esto es, si

I
,

= c
I
para todo i, , = 1, 2..:.
Comentario 188 Hemos usado en la denicin precedente la llamada delta de
Kronecker. Es una funcin denida mediante
c
I
=
_
1 si i = ,
0 si i ,= ,
y donde i y , son enteros.
10.9. CONJUNTOS ORTOGONALES, NORMALES YORTONORMALES141
Denicin 189 Se dice que un conjunto c =
1
,
2
..
n
es una base orto-
normal si es ortonormal y es una base. Si el conjunto c es ortogonal pero no
normal, entonces se dice que es una base ortogonal.
10.9.1. Los conjuntos ortogonales son independientes
Teorema 190 Sea \ un espacio vectorial con producto interior y o =
1
,
2
...
n

un conjunto ortogonal de vectores no nulos. Entonces o es linealmente indepen-


diente.
Demostracin.
c
1

1
+c
2

2
+...c
n

n
= 0
c
1

1
+c
2

2
+...c
n

n
,

= 0
c
1

1
,

+c
2

2
,

+...c
n

n
,

= 0
c
1

1
,

+c
2

2
,

+...c
n

n
,

= 0
c

= 0
c

|
2
= 0
c

= 0
donde hemos usado la ortogonalidad y tambin el hecho de que

,= 0
10.9.2. expansin con respecto a una base ortonormal .
Sea c =
1
,
2
..
n
una base ortonormal de un espacio vectorial \ con un
producto interior. Si \ entonces existen nmeros c
1
, c
2
...c
n
, nicos, y con
la propiedad de que
=
n

I=1
c
I

I
Tomando los productos interiores ,
|
obtenemos
,
|
=
n

I=1
c
I

I
,
|

=
n

I=1
c
I

I
,
|

=
n

I=1
c
I
c
I|
= c
|
de modo que
=
n

I=1

I
,
I

142 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR


Si la base es ortogonal pero no ortonormal entonces
=
n

I=1

I
,
I

I
,
I

=
n

I=1

I
,
I

|
I
|
2
10.10. Matriz con respecto a una base ortonor-
mal.
Sean \ y \ espacios vectoriales, suponga que \ tiene un producto interior
, y que c =
1
,
2
..
n
y , = n
1
, n
2
..n
n
son bases de \ y \ respectivamente.
Suponga que , es una base ortonormal.
Si T : \ \ es una transformacin lineal, ya hemos visto que como
T
I
\ existen nmeros '
I
tales que
T

=
n

I=1
'
I
n
I
y tomando productos interiores
T

, n
|
=
n

I=1
'
I
n
I
, n
|

=
n

I=1
'
I
ni, n
|

=
n

I=1
'
I
c
I|
= '
|
y
'
|
= T

, n
|

En particular, cuando \ = \ y c = ,
'
|
= T

,
|

y las matrices se pueden calcular de una manera extraordinariamente simple.


10.11. Productos y cordenadas
Sea \ un espacio con producto interior y c =
1
,
2
..
n
una base ortonor-
mal. Entonces si
a =
n

I=1
a
I

I
/ =
n

=1
/

10.12. COMPLEMENTOS ORTOGONALES 143


tendremos que
a, / =
n

I=1
n

=1
a
I

I
,

=
n

I=1
n

=1
a
I

c
I
=
n

I=1
a
I

/
I
= [/]
+
o
[a]
o
Pero note que [/]
+
o
[a]
o
es meramente el producto cannico en C
n
.
En R
n
tendremos que
a, / = [/]
T
o
[a]
o
= [a]
T
o
[/]
o
y [/]
T
o
[a]
o
es el producto cannico en R
n
.
10.12. complementos ortogonales
Denicin 191 Sea \ un espacio vectorial con un producto interior. Sea \
un subespacio de \ . El complemento ortogonal de \ se dene como el conjunto
\
J
= \ [ , n = 0 \n \
Teorema 192 Sea \ un espacio vectorial con un producto interior. Sean \
un subespacio de \ y \
J
el complemento ortogonal de \. Entonces \
J
es un
subespacio de \ .
Demostracin. a) Claramente (de la denicin) \
J
\
b) Ciertamente 0 \
J
pues 0, n = 0 \n \ y \
J
,= c
c) Si a, / \
J
tendremos que a, n = 0 \n \ y /, n = 0 \n \
pero entonces a +/, n = a, n +/, n = 0 \n \ y a +/ \
J
d) sea , un escalar. Entonces si a \
J
tendremos que a, n = 0 \n \
pero entonces ,a, n = ,a, n = 0 \n \ y ,a \
J
Teorema 193 Sea \ un espacio vectorial con un producto interior. Sean \ un
subespacio de \ y \
J
el complemento ortogonal de \. Entonces dim(\
J
) =
dim(\ ) dim(\)
Demostracin. Sean / = dim(\ ) , : = dim(\) y =
1
,
2
...
n
una
base ortonormal de \. Extendemos esta base a una base ortonormal de \
1 =
1
,
2
...
n
,
n+1
, ..
|
. Aseveramos que los vectores
n+1
, ..
|
son una
base de \
J
. Como son parte de una base (para \ ) son independientes. Ahora
veremos que generan \
J
. Sea r \
J
, como \
J
\ tendremos que
r =
|

I=1

I
r,
I

144 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR


pero r,
I
= 0 para i = : + 1.../ y
r =
|

I=n+1

I
r,
I

con lo que
n+1
, ..
|
genera \
J
y es una base. Por ello dim(\
J
) = dim(\ )
dim(\)
Comentario 194 En la prctica para ver que los vectores de un subespacio son
ortogonales a TODOS los de otro basta con probar esto en una base, si , n
I
=
0 para los vectores de una base n
I
, n
2
, ..n
n
entonces para n =

n
I=1

I
n
I
tendremos que
, n = ,
n

I=1

1
n
I
=
n

I=1

I
, n
I
= 0
10.13. Proyecciones
Como motivacin primeramente vamos a revisar los procedimientos elemen-
tales usados en mecnica para proyectar vectores, luego abordamos el caso ab-
stracto y general.
10.13.1. Motivacin
Suponga que tenemos un vector a y que deseamos hallar su proyeccin en
la direccin de otro vector

/ . Sea 0 el ngulo entre estos vectores, un vector
unitario (de norma 1 ) en la direccin de

/ es n =

b
]

b]
. Del tringulo (ver gura)
y por vil trigonometra tenemos que
[ (a) [=[ a [ cos(0)
10.13. PROYECCIONES 145
pero como
a n =[ a [[ n [ cos(0)
=[ a [ cos(0)
tenemos que
[ (a) [=a n
y un vector de tamao [ (a) [ en la direccin de n es
(a) =a n n
=
a

/
[

/ [
2

/
En la notacin propia del lgebra lineal
(a) =
a, /
|/|
2
/
y es esta expresin la que se generalizar a continuacin.
10.13.2. Caso general
Sean \ un espacio vectorial con producto interior y \ un subespacio de
\ . Si c = n
1
, n
2
..n
n
es una base ortogonal de \ denimos la proyeccin
ortogonal de \ sobre el subespacio \ como la transformacin
: \ \
() =
n

I=1
, n
I

n
I
, n
I

n
I
Teorema 195 es lineal.
Demostracin. Sean a, / \ y , un escalar. Entonces:
a)
(a +/) =
n

I=1
a +/, n
I

n
I
, n
I

n
I
=
n

I=1
a, n
I

n
I
, n
I

n
I
+
/, n
I

n
I
, n
I

n
I
=(a) +(/)
146 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
b)
(,a) =
n

I=1
,a, n
I

n
I
, n
I

n
I
=
n

I=1
,
a, n
I

n
I
, n
I

n
I
= ,
n

I=1
a, n
I

n
I
, n
I

n
I
= ,(a)
Ejemplo 196 Veamos cul es el ncleo de .
r () = (r) = 0
=
n

I=1
r, n
I

n
I
, n
I

n
I
= 0
=
r, n
I

n
I
, n
I

= 0 \i
= r, n
I
= 0 \i
y por ello, el ncleo de es, ni ms ni menos, \
J
.
Ejemplo 197 Ahora veamos cul es la imagen de . De la denicin de
vemos que Im() \. Pero del teorema de la dimensin
dim(\ ) = dim(()) + dim(Im())
dim(\ ) = dim(\
J
) + dim(Im())
dim(Im()) = dim(\ ) dim(\
J
) = dim(\)
de modo que Im() = \.
Teorema 198 \ \ ( ()) \
J
.
Demostracin.
(), n

= , n

(), n

= , n

I=1
, n
I

n
I
, n
I

n
I
, n

= , n

I=1
, n
I

n
I
, n
I

n
I
, n

= , n

, n

= 0
10.14. MEJOR APROXIMACIN. 147
y () es ortogonal a todos los vectores de la base ortogonal de\. Por ello
() es ortogonal a todos los vectores de \ (pues son combinaciones lineales
de los vectores de c).
Este teorema tiene una interpretacin importante. Llamemos n
t
= ()
de modo que = () +n
t
y tenemos a expresado como la suma de un vector
en \ (()) y uno en \
J
.
Los proyectores (otro nombre para las proyecciones) son idempotentes:
Teorema 199 Sea : \ \ una proyeccin ortogonal. Entonces
2
= .
Dejamos la demostracin al lector. Un operador con esta propiedad es llamado
idempotente.
Comentario 200 De la denicin de proyector puede verse que cada uno de
los vectores n
I
es un eigenvector de con eigenvalor 1. Anlogamente, cada
uno de los vectores de cualquier base de \
J
es eigenvector de con eigenvalor
0. Los eigenvalores de son 1 o 0. Dejamos al lector convencerse de que los
proyectores son diagonalizables.
10.14. Mejor aproximacin.
Damos, sin demostracin, el siguiente resultado:
Teorema 201 (de la mejor aproximacin, tambin teorema de proyeccin).
Sea \ un espacio vectorial con producto interior y con la norma inducida |r| =
_
r, r. Sea \ un subespacio de \ con una base ortogonal c = n
1
, n
2
..n
n
.
Entonces para cualquier \ () es el nico punto en \ ms cercano a
y | ()| es la distancia de a \ en el sentido de que () est en \ y
| ()| _ | n| para todo n \.
Ejemplo 202 Considere \ = R
3
(con el producto interior habitual) y \ el
espacio generado por
1
,
2
donde
1
= (0, 1, 0) y
2
= (
4
5
, 0,
3
5
). cul es el
vector de \ ms cercano a n = (1, 1, 1)?
Calculemos
(n) =
n,
1

1
,
1

1
+
n,
2

2
,
2

2
=
(1)
(1)

1

(
1
5
)
(1)

2
= (0, 1, 0)
1
5
(
4
5
, 0,
3
5
)
= (
4
25
, 1,
3
25
)
148 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
Si llamamos n a
n = n (n)
= (1, 1, 1) (
4
25
, 1,
3
25
)
= (
21
25
, 0,
28
25
)
y
n = (
4
25
, 1,
3
25
) + (
21
25
, 0,
28
25
)
que es la suma de un vector en \ y otro en \
J
.
10.15. Mtodo de Gram-Schmidt
Es un mtodo que nos dice cmo obtener bases ortogonales de un espacio
tomando como punto de partida alguna base.
10.15.1. Formulacin del problema.
Sea \ un espacio vectorial con producto interior y sea c =
1
,
2
...
n

una base no-ortogonal. Lo que se desea es construir explcitamente una base


, = n
1
, n
2
...n
n
que sea ortogonal.
10.15.2. Idea bsica
La idea tras el mtodo (o algoritmo) de Gram-Schmidt es comenzar tomando
n
1
=
1
. No podemos tomar n
2
=
2
pues, en general,
2
no va a ser ortogonal
a
1
. Por ello tomamos mejor n
2
como
2
menos su proyeccin sobre el espacio
generado por n
1
. De lo dicho en secciones anteriores, este vector s ser ortogonal
a n
1
. Por ello ya tendremos un conjunto ortogonal n
1
, n
2
. El siguiente paso es
tomar n
3
como
3
menos su proyeccin sobre el espacio generado por n
1
, n
2

y as hasta acabar con una base ortogonal n


1
, n
2
...n
n
.
10.15. MTODO DE GRAM-SCHMIDT 149
10.15.3. Formulacin explcita
En trminos matemticos,
n
1
=
1
n
2
=
2


2
, n
1

n
1
, n
1

n
1
n
3
=
3


3
, n
1

n
1
, n
1

n
1


3
, n
2

n
2
, n
2

n
2
.
.
.
n
|
=
|

|1

I=1

|
, n
I

n
I
, n
I

n
I
.
.
.
n
n
=
n

n1

I=1

n
, n
I

n
I
, n
I

n
I
Una base ortonormal puede obtenerse normalizando ,.
Ejemplo 203 Considere el subespacio de R
3
generado por (1, 0, 2), (0, 1, 3),
hallar una base ortogonal de dicho subespacio, usando el producto interior ha-
bitual en R
3
.
Usando el mtodo de Gram-Schmidt
n
1
= (1, 0, 2)
n
2
= (0, 1, 3)
(0, 1, 3), (1, 0, 2)
(1, 0, 2), (1, 0, 2)
(1, 0, 2)
= (0, 1, 3)
6
5
(1, 0, 2)
=
1
5
[(0, 5, 15) (6, 0, 12)]
=
1
5
(6, 5, 3)
150 CAPTULO 10. ESPACIOS CON PRODUCTO INTERIOR
Captulo 11
Cuadrados mnimos.
11.0.4. motivacin
Una ecuacin de la forma
r = j
donde es una matriz de :: , r es de : 1 y j es de :1, puede:
no tener soluciones
tener una solucin nica
tener un nmero innito de soluciones
Sin embargo a veces lo que nos interesa es saber cul es la r que ms se
acerca a ser una solucin de la ecuacin. Esto es relevante en contextos donde
hay errores experimentales en las medidas, quiz en sentido estricto no haya una
solucin.
Por ello nos planteamos el problema de hallar r
0
tal que
|r
0
j|
2
_ |r j|
2
para cualquier r. Esto es lo que se llama problema de cuadrados mnimos.
11.0.5. Teora
Podemos razonarlo de la siguiente manera:
r
0
est en el espacio columna de , col()
por ello, la pregunta es equivalente a inquirir cul es el vector de col()
ms cercano a j
pero por el teorema de la proyeccin sabemos que ese vector es la proyec-
cin de j sobre col() de modo que r
0
=
col(.)
(j)
151
152 CAPTULO 11. CUADRADOS MNIMOS.
adems sabemos que j r
0
es perpendicular a todo col() y por ello
perpendicular a r para cualquier r
entonces j r
0
, r = 0 para todo r
y se sigue que j, r = r
0
, r
note que r, j = r
T
j por lo que r, j = (r)
T
j = r
T

T
j = r
T
(
T
j) =
r,
T
j
y
T
j, r =
T
r
0
, r
como esto vale para toda r tenemos que

T
j =
T
r
0
es la condicin a satisfacerse. Este resultado suele llamarse ecuaciones
normales para el problema de cuadrados mnimos.
Cuando
T
es invertible (lo cual es el caso si las columnas de son inde-
pendientes),
r
0
=
_

_
1

T
j
da la solucin al problema.
Comentario 204 Una mnemotecnia: Si el problema es r - j entonces

T
r
0
=
T
j , es decir, multiplique ambos miembros de r - j por la
izquierda por
T
, cambie el signo de aproximadamente igual - por el de
igualdad = y cambie r por r
0
.
Comentario 205 De r
0
=
col(.)
(j) y r
0
=
_

_
1

T
j vemos que
col(.)
(j) =

_
1

T
j , expresin que a veces es til.
Ejemplo 206 Considere el problema lineal inhomogneo
r = /
donde
=
_
_
4 0
0 2
1 1
_
_
/ =
_
_
2
0
11
_
_
y primero veamos si podemos resolverlo por los mtodos habituales.
La matriz aumentada es

t
=
_
_
4 0 2
0 2 0
1 1 11
_
_
11.1. APLICACIONES 153
cuya forma escalonada reducida por renglones es
_
_
1 0 0
0 1 0
0 0 1
_
_
indicando que el sistema es inconsistente (recuerda Usted que la huella digital
de un sistema incompatible es el tener un uno delantero en la columna del tr-
mino inhomogneo?).
Sin embargo tiene solucin en el sentido de mnimos cuadrados. Usando las
ecuaciones normales

T
=
_
17 1
1 5
_

T
/ =
_
19
11
_
y por ello, la solucin ptima r
0
ser
r
0
=
_

_
1

T
/
=
_
5
84

1
84

1
84
17
84
__
19
11
_
=
_
1
2
_
11.1. Aplicaciones
Una aplicacin importante surge cuando deseamos ajustar alguna curva a
un conjunto de datos.
Suponga que tenemos una serie de datos (r
I
, j
I
) (i = 1, 2...:) y que sospechamos
que representan (con cierto error experimental) una lnea recta j = :r +/.
Para cada r
I
denimos el residual como j
I
(:r
I
+/) y el problema aqu es
encontrar la : y la / que minimizan la suma de los cuadrados de los residuales.
Si los residuales fueran cero
j
I
= (:r
I
+/)
que se puede reescribir en forma matricial como (consideramos aqu a : y /
como las incgnitas)
A = 1
154 CAPTULO 11. CUADRADOS MNIMOS.
donde
A =
_
/
:
_
=
_
_
_
_
_
1 r
1
1 r
2
.
.
.
.
.
.
1 r
n
_
_
_
_
_
1 =
_
_
_
_
_
j
1
j
2
.
.
.
j
n
_
_
_
_
_
ecuacin que podemos resolver en el sentido de cuadrados mnimos con las
ecuaciones normales.
Con tres datos tendramos
1 =
_
_
j
1
j
2
j
3
_
_
=
_
_
1 r
1
1 r
2
1 r
3
_
_

T
=
_
1 1 1
r
1
r
2
r
3
_

T
=
_
3 r
1
+r
2
+r
3
r
1
+r
2
+r
3
r
2
1
+r
2
2
+r
2
3
_

T
A =
_
3/ +:(r
1
+r
2
+r
3
)
/ (r
1
+r
2
+r
3
) +:
_
r
2
1
+r
2
2
+r
2
3
_
_
y

T
1 =
_
j
1
+j
2
+j
3
r
1
j
1
+r
2
j
2
+r
3
j
3
_
de modo que
3/ +:(r
1
+r
2
+r
3
) = j
1
+j
2
+j
3
/ (r
1
+r
2
+r
3
) +:
_
r
2
1
+r
2
2
+r
2
3
_
= r
1
j
1
+r
2
j
2
+r
3
j
3
y, generalizando,
:/ +:
n

I=1
r
I
=
n

I=1
j
I
/
n

I=1
r
I
+:
n

I=1
r
2
I
=
n

I=1
r
I
j
I
11.1. APLICACIONES 155
tenemos las ecuaciones normales para este caso.
11.1.1. usando un poco de clculo
A =
_
_
_
_
_
/ +:r
1
/ +:r
2
.
.
.
/ +:r
n
_
_
_
_
_
A 1 =
_
_
_
_
_
/ +:r
1
j
1
/ +:r
2
j
2
.
.
.
/ +:r
n
j
n
_
_
_
_
_
c = |A 1 |
2
=
n

I=1
(/ +:r
I
j
I
)
2
(hemos llamado c al residual |A 1 |
2
) y por lo tanto minimizaremos c
cuando
0c
0/
= 0
0c
0:
= 0
o sea
n

I=1
2 (/ +:r
I
j
I
) = 0
n

I=1
2 (/ +:r
I
j
I
) r
I
= 0
y
:/ +:
n

I=1
r
I
=
n

I=1
j
I
/
n

I=1
r
I
+:
n

I=1
r
2
I
=
n

I=1
r
I
j
I
exactamente igual que en el clculo puramente algebraico.
11.1.2. otros comentarios
No entiendo porqu el concepto de pseudoinversa no es parte del curso.
156 CAPTULO 11. CUADRADOS MNIMOS.
Una solucin al problema
r - j
de cuadrados mnimos es
r
0
=

j
donde

es la pseudoinversa (de Moore-Penrose) de . Adems como


r
0
=

j =
col(.)
(j)
tenemos que

col(.)
=

Otra manera de enfocar el problema de los cuadrados mnimos es mediante


la descomposicin Q1, que puede verse como una pequea modicacin del
mtodo de Gram-Schmidt.
Una medida de qu tan bueno fue el ajuste est dada por
c = |A 1 |
2
si c fuera cero tendramos, entonces una solucin exacta. Una c pequea indica
un bun ajuste en tanto que grandes valores de c sealan un pobre ajuste.
11.1.3. un caso general y tpico
Suponga usted que hemos medido una serie de parejas (r
I
, j
I
) con i = 1...:
y que sospechamos que son puntos que, salvo los inevitables errores experimen-
tales, son descritos por un polinomio de grado :, a saber
j = a
0
+a
1
r +a
2
r
2
...a
n
r
n
Si no hubiera errores, tendramos que
a
0
+a
1
r
I
+a
2
r
2
I
...a
n
r
n
I
= j
I
para toda i. Pero este sistema de ecuaciones se puede re-escribir en forma vec-
torial como
a
0
_

_
r
0
1
r
0
2
.
.
.
r
0
n
_

_
+a
1
_

_
r
1
1
r
1
2
.
.
.
r
1
n
_

_
+a
2
_

_
r
2
1
r
2
2
.
.
.
r
2
n
_

_
+...a
n
_

_
r
n
1
r
n
2
.
.
.
r
n
n
_

_
=
_

_
j
1
j
2
.
.
.
j
n
_

_
y en forma matricial como
_

_
1 r
1
1
r
n
1
1 r
1
2
r
n
2
.
.
.
.
.
.
.
.
.
1 r
1
n
r
n
n
_

_
_

_
a
0
a
1
.
.
.
a
n
_

_
=
_

_
j
1
j
2
.
.
.
j
n
_

_
11.1. APLICACIONES 157
y si denimos
=
_

_
1 r
1
1
r
n
1
1 r
1
2
r
n
2
.
.
.
.
.
.
.
.
.
1 r
1
n
r
n
n
_

_
a =
_

_
a
0
a
1
.
.
.
a
n
_

_
j =
_

_
j
1
j
2
.
.
.
j
n
_

_
la ecuacin exacta sera
a = 1
Pero como hemos sealado, en presencias de errores esta ecuacin no tiene
(en general) solucin exacta y buscamos la mejor aproximacin del tipo
a ~ 1
y sabemos que esta mejor aproximacin est dada por las ecuaciones normales

T
a =
T
1
11.1.4. otro enfoque
Consideremos el problema de encontrar la mejor solucin (en el sentido de
cuadrados mnimos) de la ecuacin r = j.
El problema consiste en minimizar la funcin c donde
c(r) =| r j |
2
o sea
c(r) = r j, r j
= r, r j, r r, j +j, j
y por ello si pasamos de r a r + r tendremos que
c(r + r) = (r + r), (r + r)
j, (r + r)
(r + r), j
+j, j
158 CAPTULO 11. CUADRADOS MNIMOS.
o sea,
c(r + r) = r, r +r, r +r, r +r, r
j, r j, r
r, j r, j
+j, j
por lo que
c(r + r) c(r) =
r, r +r, r +r, r
j, r r, j
y la parte lineal (es decir la diferencial de la funcin), es
1c(r, r) =
r, r +r, r j, r r, j =
r,
T
r +r,
T
r r,
T
j r,
T
j =
2r,
T
r 2r,
T
j
y en el punto extremo r
0
necesariamente para toda r tendremos
1c(r, r) = 2r,
T
r 2r,
T
j = 0
o
r,
T
r
0
r,
T
j = 0
y

T
r
0
=
T
j
que son las llamadas ecuaciones normales.
En este enfoque, de hecho, estamos usando la denicin de derivada como
mejor aproximacin lineal. Lo interesante es que no tuvimos que escribir una
sola derivada parcial.
Parte V
Operadores lineales en
espacios con producto
interior.
159
11.2. PRODUCTOS INTERIORES Y FUNCIONES LINEALES 161
11.2. productos interiores y funciones lineales
Hay una conexin entre los productos interiores y las transformaciones lin-
eales del espacio al campo 1
1 : \ 1
En primer lugar, dado un vector \ podemos denir una funcion lineal
mediante
c(r) = r,
y dejamos al lector la comprobacin de que c es lineal.
Conversamente, vamos a ver que si c : \ 1 es lineal entonces existir
algn \ tal que c(r) = r, .
Para ello recordemos que una transformacin lineal queda ja una vez que
damos su efecto en una base. Sea pues c =
1
,
2
..
n
una base ortonormal de
\ . Claramente si
r =
n

I=1
c
I

I
entonces
c(r) = c
_
n

I=1
r
I

I
_
=
n

I=1
r
I
c(
I
)
Dena ahora
=
n

I=1
[c(
I
)]
+

I
Un clculo sencillo revela que
r, = r,
n

I=1
[c(
I
)]
+

=
n

I=1
[c(
I
)] r,
I

=
n

I=1
[c(
I
)] r
I
y
r, = c(r)
En palabras, a cada vector le corresponde una transformacin lineal c(r) =
r, y a cada transformacin lineal c le corresponde un vector =

n
I=1
[c(
I
)]
+

I
. El vector que le corresponde a una transformacin lineal c es nico pues si

t
fuera otro vector con las mismas propiedades que tendramos que
r, = r,
t

y
r,
t
= 0
para todo r \ . Por ello =
t
.
162
Captulo 12
Operadores adjuntos
Sean \ un espacio vectorial sobre 1 de dimensin nita con producto interior
y T : \ \ un operador lineal.
Considere la expresin
c
o
: \ 1
c
o
(r) = T(r), a
Claramente c
o
es lineal para cualquier a \ . Por ello existe un (nico)
vector c
o
\ tal que
c
o
(r) = T(r), a = r, c
o

Ahora prestemos atencin al mapeo


T
+
: \ \
a c
o
aseveramos que es un mapeo lineal, es decir, un operador lineal. Este mapeo
recibe el nombre de adjunto de T, tambin a veces se le llama mapeo dual. Note
que la palabra adjunto o adjunta es ambigua. En teora de matrices se suele
llamar adjunta de a la matrz

que tiene la propiedad de que

=
det()1. Algunos autores, para resolver la confusin, llaman a

adjunta
clsica y a veces adyugada.
Por la denicin de T
+
vemos que
T(r), a = r, c
o

= r, T
+
(a)
ecuacin bsica para deducir las propiedades de los adjuntos.
Para ver que el adjunto es lineal considere
163
164 CAPTULO 12. OPERADORES ADJUNTOS
T(r), a +/ = T(r), a +T(r), /
= r, T
+
(a) +r, T
+
(/)
= r, T
+
(a) +T
+
(/)
= r, T
+
(a +/)
y por ello para todo r \
r, T
+
(a +/) (T
+
(a) +T
+
(/)) = 0
implicando que
T
+
(a +/) = (T
+
(a) +T
+
(/))
Anlogamente como
,/, T(r) = ,/, T(r)
= ,T
+
(/), r
= ,T
+
(/), r
= T
+
(,/), r
tenemos que para todo r \
T
+
(,/) ,T
+
(/), r = 0
y
T
+
(,/) = ,T
+
(/)
Por ello llamamos a T
+
operador (lineal) adjunto a T.
Comentario 207 y si tuvieramos r, T(j)?
r, T(j) = T(j), r
= j, T
+
r
= T
+
j, r
12.1. Matriz del operador adjunto con respecto
a una base ortonormal.
Sea \ un espacio vectorial (real o complejo) con producto interior, T : \
\ un operador lineal y c =
1
,
2
..
n
una base ortonormal de \ . Sean ' =
'
o
o
(T) y = '
o
o
(T
+
). Tal y como ya hemos visto
T(

) =
n

I=1
'
I

I
12.2. PROPIEDADES DEL ADJUNTO 165
por lo que
T(

),
|
=
n

I=1
'
I

I
,
|

=
n

I=1
'
I

I
,
|

=
n

I=1
'
I
c
I|
= '
|
Exactamente lo mismo ocurre para T
+
y
T
+
(

),
|
=
n

I=1

I
,
|

=
n

I=1

I
,
|

=
n

I=1

I
c
I|
=
|
pero, por la denicin de adjunto,

|
= T
+
(

),
|

, T(
|
)
= T(
|
),

= '
|
y las matrices ' y son conjugadas transpuestas (adjuntas) una de la otra.
En la notacin habitual
'
o
o
(T
+
) = ['
o
o
(T)]
+
donde + en la izquierda quiere decir adjunta del operador y la + en la derecha
quiere decir transpuesta conjugada.
12.2. Propiedades del adjunto
De la denicin de adjunto se sigue que:
(T
+
)
+
= T (idempotencia).
Demostracin: Como a, T(/) = T
+
(a), / tenemos que el adjunto de
T
+
ha de ser T.
166 CAPTULO 12. OPERADORES ADJUNTOS
(T +1)
+
= T
+
+1
+
(para cualesquiera operadores T, 1 : \ \ )
Demostracin: a, (T +1)(/) = a, T(/) +1(/) = a, T(/) +a, 1(/) =
T
+
(), / +1
+
(/), a = (T
+
+1
+
)(a), / de donde (T +1)
+
= T
+
+1
+
.
(o T)
+
= T
+
o
+
(si T : \ \ y o : \ )
Demostracin: a, (oT)(a) = a, o(T(/)) = o
+
(a), T(/) = T
+
(o
+
(a)), (/)
= (T
+
o
+
)(a), / de donde se sigue que (o T)
+
= T
+
o
+
.
(cT)
+
= cT
+
para cualquier operador lineal T y cualquier nmero c
Demostracin: a, (cT)(/) = a, cT(/) = ca, T(/) = cT
+
(a), / =
cT
+
(a), / de donde
se sigue que (cT)
+
= cT
+
.
1
+
\
= 1
\
Demostracin: a, 1
\
/ = a, / = 1
\
a, / con lo que 1
+
\
= 1
\
.
A continuacin suponga que r (T) de modo que T(r) = 0. Para cualquier
j \ tendremos que
0 = j, 0
= j, T(r)
= T
+
j, r
de modo que T
+
j es ortogonal a cualquier elemento de (T) y por ello
Im(T
+
) = [(T)]
J
y, anlogamente
[Im(T
+
)]
J
= (T)
e intercambiando los roles de T y T
+
(recuerde que la adjuncin es idempotente).
En resumidas cuentas:
Im(T) = [(T
+
)]
J
[Im(T)]
J
= (T
+
)
12.3. regla de correspondencia del adjunto
A veces tenemos un operador lineal T y se nos pide la regla de correspon-
dencia de su adjunto T
+
.
Ejemplo 208 Considere el espacio R
2
equipado con el producto interior ordi-
nario. Si T : R
2
R
2
est dado por
T(r, j) = (2r +j, r j)
12.3. REGLA DE CORRESPONDENCIA DEL ADJUNTO 167
podemos preguntarnos cul es la regla de correspondencia de
T
+
: R
2
R
2
en cuyo caso tendremos que
(n, ), T(r, j) = (n, ), (2r +j, r j)
= n(2r +j) +(r j)
= (2n +)r + (n )j
= (2n +, n ), (r, j)
= T
+
(n, ), (r, j)
con lo que
T
+
(n, ) = (2n +, n )
y
T
+
= T
Una manera ms sistemtica de resolver estos problemas comprende los sigu-
ientes pasos:
equipe su espacio con una base ortonormal c.
calcule la matriz '
o
o
(T)
por lo sealado arriba, la matriz '
o
o
(T
+
) est dada por la transpuesta
conjugada (adjunta) de '
o
o
(T)
teniendo '
o
o
(T
+
) es fcil deducir la regla de correspondencia de T
+
usando
el hecho de que [T
+
()]
o
= '
o
o
(T
+
)[]
o
.
Es posible tambin seguir una variante: Sea c =
1
,
2
..
n
una base orto-
normal de \ , entonces
T
+
(r) =
n

I=1
T
+
(r),
I

I
=
n

I=1
r, T(
I
)
I
frmula que nos permite calcular T
+
(r). Por supuesto, ambos mtodos son en-
teramente equivalentes.
Ejemplo 209 Para el ejemplo anterior, en la base cannica, la matriz de T es
'(T) =
_
2 1
1 1
_
con lo que la matriz de T
+
es la misma que la de T (pues '(T) es simtrica).
Por ello T
+
= T .
168 CAPTULO 12. OPERADORES ADJUNTOS
12.3.1. y si la base no era ortonormal?
Si la base dada no es ortonormal podramos ortogonalizarla mediante Gram-
Schmidt, lo cual es bastante engorroso.
12.4. Un ejemplo
Considere el espacio 1
2
de los polinomios de grado menor o igual a dos con
coecientes reales y en donde se ha denido el producto interior
1, Q = a
0
/
0
+a
1
/
1
+a
2
/
2
para
1(r) = a
0
+a
1
r +a
2
r
2
Q(r) = /
0
+/
1
r +/
2
r
2
Considere tambin el operador 1 : 1
2
1
2
(derivacin) dado por
1(1(r)) =
d1(r)
dr
Encuentre la matriz asociada a 1 y a su adjunta 1
+
si la base es c =
1, r, r
2
y d la regla de correspondencia de 1
+
.
Para la primera parte calculamos
1(1) = 0 = (0)1 + (0)r + (0)r
2
1(r) = 1 = (1)1 + (0)r + (0)r
2
1(r
2
) = 2r = (0)1 + (2)r + (0)r
2
de modo que
'
o
o
(1) =
_
_
0 1 0
0 0 2
0 0 0
_
_
Ahora bien, la base c es ortonormal pues
1, 1 = 1
r, r = 1
r
2
, r
2
= 1
1, r = r, 1 = 0
1, r
2
= r
2
, 1 = 0
r, r
2
= r
2
, r = 0
por lo que la matriz de 1
+
ser simplemente la transpuesta de la de 1 y
'
o
o
(1
+
) =
_
_
0 0 0
1 0 0
0 2 0
_
_
12.4. UN EJEMPLO 169
La regla de correspondencia de 1
+
se inere facilmente del hecho de que
'
o
o
(1
+
) =
_
_
0 0 0
1 0 0
0 2 0
_
_
con lo que
[1
+
()]
o
= '
o
o
(1
+
)[]
o
por lo que si
= a +/r +cr
2
[]
o
=
_
_
a
/
c
_
_
tendremos que
[1
+
(a +/r +cr
2
)]
o
=
_
_
0 0 0
1 0 0
0 2 0
_
_
_
_
a
/
c
_
_
=
_
_
0
a
2/
_
_
y
1
+
(a +/r +cr
2
) = ar + 2/r
2
170 CAPTULO 12. OPERADORES ADJUNTOS
Captulo 13
Operadores y matrices
Hermiteanos,
antihermiteanos, simtricos,
antisimtricos, unitarios,
ortogonales y normales.
En las aplicaciones tenemos casi siempre operadores lineales en espacios que
tambin tienen productos interiores. De aqu surgen diversas propiedades; las
principales tienen que ver con los operadores Hermiteanos. En lo que sigue
trabajaremos casi exclusivamente con espacios complejos aunque casi todos los
resultados se aplican al caso real.
Cuando el espacio vectorial es real, el adjunto de un operador T tambin
puede ser llamado operador transpuesto y se denota como T
T
.
13.1. Algunas deniciones bsicas
Denicin 210 Se dice que un operador lineal T : \ \ es Hermiteano (o
autoadjunto) si T = T
+
Denicin 211 Se dice que un operador lineal T : \ \ es antihermitiano
si T = T
+
Denicin 212 Se dice que un operador lineal en un espacio real T : \ \
es simtrico si T = T
T
Denicin 213 Se dice que un operador lineal en un espacio real T : \ \
es antisimtrico si T = T
T
171
172CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Denicin 214 Se dice que un operador lineal T : \ \ es unitario si T
1
=
T
+
Denicin 215 Se dice que un operador lineal en un espacio real T : \ \
es ortogonal si T
1
= T
T
Denicin 216 Se dice que un operador lineal T : \ \ es normal si TT
+
=
T
+
T.
Similarmente:
Denicin 217 Se dice que una matriz ' es Hermiteana (o autoadjunta) si
' = '
+
Denicin 218 Se dice que una matriz ' es antihermitiana si ' = '
+
Denicin 219 Se dice que una matriz ' es simtrica si ' = '
T
(aqu la
matriz puede ser real o compleja).
Denicin 220 Se dice que una matriz ' es antisimtrica si ' = '
T
Denicin 221 Se dice que una matriz ' es unitaria si '
1
= '
+
Denicin 222 Se dice que una matriz ' es ortogonal si '
1
= '
T
Denicin 223 Se dice que una matriz ' es normal si ''
+
= '
+
'.
13.2. Algunos teoremas
Al tomar en cuenta que las transformaciones estn asociadas con matrices,
al introducir bases ortonormales, tendremos que estas deniciones son lgicas,
adjuntos de operadores corresponden a adjuntos (conjugadas transpuestas) de
matrices, operadores normales corresponden a matrices normales, operadores
hermitianos corresponden a matrices hermitianas y operadores unitarios corre-
sponden a matrices unitarias.
Teorema 224 Sea \ un espacio vectorial con producto interior, c una base
ortonormal y T : \ \ un operador lineal. Sea ' = '
o
o
(T), entonces T es
normal si y slo si ''
+
= '
+
'.
Demostracin. Suponga que T es normal. Entonces
''
+
= '
o
o
(T)'
o
o
(T)
+
= '
o
o
(T)'
o
o
(T
+
)
= '
o
o
(TT
+
)
= '
o
o
(T
+
T)
= '
o
o
(T
+
)'
o
o
(T)
= '
o
o
(T)
+
'
o
o
(T)
= '
+
'
13.2. ALGUNOS TEOREMAS 173
Conversamente, si ''
+
= '
+
' entonces
''
+
'
+
' = 0
'
o
o
(TT
+
T
+
T) = 0
TT
+
T
+
T = 0
Teorema 225 Sea \ un espacio vectorial con producto interior, c una base
ortonormal , T : \ \ un operador lineal y ' = '
o
o
(T). Entonces T es
hermitiano si y slo si ' = '
+
Demostracin. Sea T hermiteano. Entonces
'
+
= '
o
o
(T
+
)
= '
o
o
(T)
= '
Conversamente, si '
+
= ' entonces
'
+
' = 0
'
o
o
(T
+
T) = 0
T
+
T = 0
Teorema 226 Sea \ un espacio vectorial con producto interior, c una base
ortonormal T : \ \ un operador lineal y ' = '
o
o
(T). Entonces T es
unitario si y slo si '
1
= '
+
Demostracin. Sea T unitario. Entonces '
+
'
+
= '
o
o
(T)
+
= '
o
o
(T
+
)
= '
o
o
(T
1
)
= '
o
o
(T)
1
= '
1
Conversamente, si ' = '
1
entonces:
'
+
'
1
= 0
'
o
o
(T
+
T
1
) = 0
T
+
T
1
= 0
174CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Teorema 227 Si H es un operador Hermiteano en un espacio vectorial com-
plejo con producto interior, entonces es normal.
Demostracin. Como
H
+
H = HH
HH
+
= HH
tenemos que H es trivialmente normal.
Teorema 228 Si l es un operador unitario en un espacio vectorial complejo
con producto interior, entonces es normal.
Demostracin. Como
l
+
l = l
1
l = ll
1
= ll
+
tenemos que l es normal.
Teorema 229 Si l es un operador unitario en un espacio vectorial complejo
con producto interior, entonces para cualesquiera vectores n y
ln, l = n,
Demostracin. Tenemos que
ln, l = n, l
+
l
= n, l
1
l
= n, 1
= n,
Teorema 230 Si ` es un eigenvalor de un operador Hermiteano H en un es-
pacio vectorial complejo con producto interior; entonces ` es real.
Demostracin. Sea ,= 0 un eigenvector de H con eigenvalor `. Entonces
H, = `, = `,
= , H = , ` =

`,
con lo que ` =

` (pues , , = 0).
Teorema 231 Si
1
y
2
son dos eigenvectores de un operador Hermiteano
H en un espacio vectorial complejo con producto interior correspondientes a
eigenvalores diferentes `
1
y `
2
entonces
1
,
2
= 0 .
13.2. ALGUNOS TEOREMAS 175
Demostracin. tenemos que
H
1
,
2
= `
1

1
,
2
= `
1

1
,
2

=
1
, H
2
=
1
, `
2

2
=

`
2

1
,
2
= `
2

1
,
2

con lo que
`
1

1
,
2
= `
2

1
,
2

(`
1
`
2
)
1
,
2
= 0

1
,
2
= 0
pues (`
1
`
2
) ,= 0.
Teorema 232 Si ` es un eigenvalor de un operador unitario l en un espacio
vectorial complejo con producto interior; entonces [ ` [= 1.
Demostracin. tenemos que si l = `
l, l = `, ` = `

`, =[ ` [
2
,
= , l
+
l = , l
1
l = , 1 = ,
con lo que
_
[ ` [
2
1
_
, = 0
[ ` [
2
= 1
pues , , = 0
Tenemos resultados ms generales
Teorema 233 Si es un eigenvector de un operador normal en un espa-
cio vectorial complejo con producto interior correspondiente al eigenvalor `,
entonces es eigenvector de
+
con eigenvalor

`
Demostracin. Sea = ` de modo que
0 =| ` |
2
= `, `
= , , ` `, +`, `
= ,
+

`,
+

+
,

` +

`,

`
= ,
+

`,
+

+
,

` +

`,

`
=
+
,
+

`,
+

+
,

` +

`,

`
=|
+

` |
2
de modo que
+
=

`
Teorema 234 Si
1
y
2
son dos eigenvectores de un operador normal en un
espacio vectorial complejo con producto interior correspondientes a eigenvalores
diferentes `
1
y `
2
entonces
1
,
2
= 0 .
176CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Demostracin. Tenemos que si

1
= `
1

2
= `
2

2
entonces

`
2

1
,
2
=
1
, `
2

2
=
1
,
2

=
+

1
,
2
=

`
1

1
,
2
=

`
1

1
,
2

y
_

`
2

`
1
_

1
,
2
= 0

1
,
2
= 0
pues `
1
,= `
2

Comentario 235 Las matrices unitarias y ortogonales tienen las siguientes


propiedades:
a) los renglones y las columnas forman conjuntos ortonormales (con respecto a
los productos habituales en R
n
y en C
n
)
b) sus determinantes tienen mdulo uno.
13.3. Teorema espectral.
Muy frecuentemente se llama espectro de un operador al conjunto de sus
eigenvalores. Por ello las cuestiones relativas a los eigenvalores suelen recibir el
calicativo de espectrales (nada que ver con los fantasmas).
Ms formalmente:
Denicin 236 Sean \ un espacio vectorial de dimensin nita y T : \ \
un operador lineal. Entonces el espectro de T se dene como
:jcc(T) = ` [ ` es un eigenvalor de T
si el espacio no es de dimensin nita hay que usar una denicin ligeramente
diferente (y ms general):
:jcc(T) = ` [ (T `1) es singular
ambas deniciones son equivalentes en el caso de dimensin nita.
Teorema 237 Si c =
1
,
2
..
n
y , = n
1
, n
2
, ...n
n
son bases ortonormales
en un espacio \ con producto interior, entonces la matriz de transicin de c a
, es una matriz unitaria (ortogonal en el caso real).
13.3. TEOREMA ESPECTRAL. 177
Demostracin. Sean ' la matriz de transicin de , a c y '
1
la matriz de
transicin de c a ,. Entonces
n

=
n

I=1
'
I

I
n

,
|
=
n

I=1
'
I

I
,
|

=
n

I=1
'
I

I
,
|

=
n

I=1
'
I
c
I|
= '
|
Similarmente

|
=
n

I=1
'
1
I|
n
I

|
, n

=
n

I=1
'
1
I|
n
I
, n

=
n

I=1
'
1
I|
n
I
, n

=
n

I=1
'
1
I|
n
I
, n

=
n

I=1
'
1
I|
c
I
= '
1
|
Por ello
'
1
|
=
|
, n

= n

,
|

= '
|
y '
1
= '
+

Daremos ahora, sin demostracin, varios teoremas relativos a la diagonal-


izacin de diversos operadores.
Teorema 238 Sea \ un espacio vectorial complejo de dimensin nita con
producto interior y sea T : \ \ un operador lineal normal. Entonces T es
diagonalizable y tiene una base ortonormal de eigenvectores de T.
178CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Teorema 239 (converso) Sea \ un espacio vectorial complejo de dimensin
nita con producto interior y sea T : \ \ un operador lineal tal que hay una
base ortonormal de \ formada por eigenvectores de T. Entonces T es normal.
Teorema 240 Si ' es una matriz normal entonces existe una matriz unitaria
l tal que l
1
'l es diagonal (la matriz diagonalizadora es unitaria).
Teorema 241 Sea \ un espacio vectorial real de dimensin nita con producto
interior y sea T : \ \ un operador lineal simtrico. Entonces T es diagonal-
izable y tiene una base ortonormal de eigenvectores de T.
Teorema 242 (converso) Sea \ un espacio vectorial real de dimensin nita
con producto interior y sea T : \ \ un operador lineal diagonalizable y tal
que hay una base ortonormal de eigenvectores de T. Entonces T es simtrico.
Teorema 243 Si ' es una matriz simtrica real entonces existe una matriz
ortogonal O tal que O
1
'O es diagonal (la matriz diagonalizadora es ortogo-
nal).
13.4. resolucin espectral
13.4.1. productos exteriores
Suponga que a y / son matrices de : 1 (vectores columna) de modo que
a =
_

_
a
1
a
2

a
n
_

_
y
/ =
_

_
/
1
/
2

/
n
_

_
con lo que si denimos ' = a/
T
' = a/
T
=
_

_
a
1
a
2

a
n
_

_
_
/
1
/
2
/
n

=
_

_
a
1
/
1
a
1
/
2
a
1
/
n
a
2
/
1
a
2
/
2
a
2
/
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n
/
1
a
n
/
2
a
n
/
n
_

_
13.4. RESOLUCIN ESPECTRAL 179
y tenemos que
'
I
= a
I
/

Conversamente, si para una matriz se tiene que '


I
= a
I
/

entonces ' =
a/
T
.Esto resultar importante en la siguiente seccin. Los productos del tipo
' = a/
T
(con a y / vectores columna) se llaman productos exteriores.
13.4.2. resolucin espectral del operador y de la identidad
Sean \ un espacio vectorial complejo con producto interior y T : \ \ un
operador lineal normal. Sean c =
1
,
2
...
n
una eigenbase ortonormal de T
y o = `
1
, `
2
...`
n
el espectro de T.
Considere el operador lineal denido por
T
t
() =
n

I=1
`
I
,
I

I
Este operador es lineal pues para \, n \ y c C
T
t
( +n) =
n

I=1
`
I
+n,
I

I
=
n

I=1
[`
I
,
I

I
+`
I
n,
I

I
]
=
n

I=1
`
I
,
I

I
+
n

I=1
`
I
n,
I

I
= T
t
() +T
t
(n)
y
T
t
(c) =
n

I=1
`
I
c,
I

I
= c
n

I=1
`
I
,
I

I
= cT
t
()
Evaluando T
t
en la base, vemos que
T
t
(

) =
n

I=1
`
I

,
I

I
=
n

I=1
`
I
c
I

I
= `

180CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
por lo que T = T
t
(ambos operadores lineales coinciden en una base).
En conclusin
T() =
n

I=1
`
I
,
I

I
Adems cada operador

I
() = ,
I

I
es un proyector ortogonal sobre el espacio generado por
I
y
T() =
n

I=1
`
I

I
()
o
T =
n

I=1
`
I

I
sta es la llamada descomposicin espectral de T.
Adems como para cualquier vector \ tenemos que
=
n

I=1
,
I

1
obtenemos
1
\
=
n

I=1

I
que es una (hay muchas!) descomposicin espectral de la identidad.
En trminos de alguna otra base ortonormal , = n
1
, n
2
...n
n
la matriz del
proyector
I
ser '
I
= '
o
o
(
I
) con
'
I
||
=
I
n
|
, n
|

= n
|
,
I

I
, n
|

= n
|
,
I

I
, n
|

=
I
, n
|

I
, n
|

que tiene la forma de un producto exterior,


'
I
= [
I
]
o
[
I
]
+
o
Es por esto que, en trminos de matrices, nuestro teorema dice que
' =
n

I=1
`
I
[
I
]
o
[
I
]
+
o
El caso ms comn es cuando , es una base cannica, entonces los [
I
]
o
son los
eigenvectores expresados en dicha base.
13.4. RESOLUCIN ESPECTRAL 181
Ejemplo 244 Consideremos el operador simtrico / : R
2
R
2
denido medi-
ante /(r, j) = (2r + 2j, 2r + 5j).
La matriz de / referida a la base cannica de R
2
es
' =
_
2 2
2 5
_
El polinomio caracterstico es
1(`) = det
_
2 ` 2
2 5 `
_
= `
2
7` + 6
por lo que los eigenvalores son `
1
= 1 y `
2
= 6.
Para `
1
tendremos
_
2 2
2 5
_ _
r
j
_
=
_
r
j
_
por lo que
2r + 2j = r
2r + 5j = j
o
r + 2j = 0
2r + 4j = 0
y una base normalizada para este eigenespacio 1
1
es
\
1
=
1
_
5
(2, 1)
Para `
2
tendremos
_
2 2
2 5
_ _
r
j
_
= 6
_
r
j
_
de modo que
2r + 2j = 6r
2r + 5j = 6j
y
4r + 2j = 0
2r j = 0
con lo que una base normalizada para este eigenespacio 1
6
es
\
2
=
1
_
5
(1, 2)
182CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
y la descomposicin espectral de / es simplemente
/ = `
1

\
1 +`
2

\
2
=
\
1 + 6
\
2
o, explcitamente

\
1(r, j) =
1
5
(r, j), (2, 1)(2, 1)
=
1
5
(2r +j)(2, 1)
=
1
5
(4r 2j, 2r +j)
y

\
2(r, j) =
1
5
(r, j), (1, 2)(1, 2)
=
1
5
(r + 2j)(1, 2)
=
1
5
(r + 2j, 2r + 4j)
y facilmente podemos ver que

\
1(r, j) +
\
2(r, j) =
1
5
(4r 2j, 2r +j) +
1
5
(r + 2j, 2r + 4j)
= (r, j) = 1(r, j)
nos da la resolucin de la identidad y que

\
1(r, j) + 6
\
2(r, j) =
1
5
(4r 2j, 2r +j) +
6
5
(r + 2j, 2r + 4j)
= (2r + 2j, 2r + 5j) = /(r, j)
En trminos puramente matriciales
1
_
5
_
2
1
_
1
_
5
_
2 1

=
1
5
_
4 2
2 1
_
1
_
5
_
1
2
_
1
_
5
_
1 2

=
1
5
_
1 2
2 4
_
y tenemos que
1
5
_
4 2
2 1
_
+
1
5
_
1 2
2 4
_
=
_
1 0
0 1
_
dando la resolucin espectral de la identidad y
(1)
1
5
_
4 2
2 1
_
+ (6)
1
5
_
1 2
2 4
_
=
_
2 2
2 5
_
dndonos la resolucin espectral de ' .
13.4. RESOLUCIN ESPECTRAL 183
13.4.3. Proyectores de nuevo
Cuando vimos los proyectores dimos una expresin en trminos de una base
ortonormal del subespacio sobre el cual se proyecta. Eso lo hicimos as porque
no tenamos las herramientas adecuadas para dar la denicin correcta. La
denicin dada es defectuosa pues requiere dar una base ortonormal; una buena
denicin no debe depender de tal eleccin, debe de ser vlida para cualquier
seleccin de base.
Denicin 245 Sea \ un espacio vectorial con producto interior. Un proyector
ortogonal es un operador lineal : \ \ que es Hermiteano e idempotente
(
2
= ). Un proyector (no necesariamente ortogonal) es un operador idempo-
tente.
184CAPTULO13. OPERADORES YMATRICES HERMITEANOS, ANTIHERMITEANOS, SIMTRICOS, ANTISIMTRICOS, UNITARIOS, ORTOGONALES YNORMALES.
Captulo 14
Cudricas.
14.1. Introduccin a las ideas principales
En geometra analtica frecuentemente nos preguntamos cul es el lugar ge-
omtrico de los puntos en C donde
C = (r, j) [ ar
2
+/rj +cj
2
+dr +cj +) = 0
En primer lugar note que si denimos la matriz simtrica mediante
=
_
a
b
2
b
2
c
_
entonces
[r, j]
_
a
b
2
b
2
c
_ _
r
j
_
= ar
2
+/rj +cj
2
por lo que si
=
_
r
j
_
el trmino ar
2
+/rj +cj
2
es simplemente

Podemos completar la descripcin puramente matricial del conjunto si


denimos,
T = [d, c]
de modo que el trmino dr +cj es
T
185
186 CAPTULO 14. CUDRICAS.
y el conjunto C es simplemente
C = R
2
[
T
+T +) = 0
De la geometra analtica elemental sabemos que representa una cnica
(crculo, parbola, elipse, hiprbola o un caso degenerado).
El propsito de este captulo es mostrar cmo la teora espectral de los
operadores (y las matrices) simtricos nos permite caracterizar la cnica dada
por . Resultados similares se aplican en R
3
.
14.1.1. propiedades de A
es simtrica
es diagonalizable
tiene una eigenbase ortonormal
La matriz diagonalizadora, siendo la matriz de cambio de base entre bases
ortonormales, es ortogonal.
14.2. diagonalizacin de formas cuadrticas.
Consideremos la ecuacin

T
+T +) = 0
donde T = [t
1
, t
2
...t
n
].
Pensamos que la base es la cannica (c) e introducimos otra base (,), eigen-
base ortonormal de ; de esta manera podemos suponer que hay un vector r
de R
3
tal que
= [r]
o
n = [r]
o
y sea 1 la matriz de transicin de , hacia c (recuerde, sta es tambin la matriz
diagonalizadora de ), de modo que = 1n, entonces

T
+T +) = (1n)
T
(1n) +T(1n) +)
= n
T
(1
T
1)n + (T1)n +)
= n
T
(1
1
1)n + (T1)n +)
= 0
Como 1 es la matriz diagonalizadora de resulta que
1 = 1
1
1
14.3. CNICAS 187
donde 1 es diagonal y tiene en su dioagonal los eigenvalores de . Entonces
n
T
(1)n + (T
t
)n +) = 0
en donde hemos denido
T
t
= T1
y se dice que la forma cuadrtica ha sido diagonalizada.
Si los elementos diagonales de 1 son `
I
y las componentes de n son n
I
tendremos que
n
T
(1)n = `
1
n
2
1
+`
2
n
2
2
+...`
n
n
2
n
y no aparecen trminos cruzados n
I
n

.
En resumen, una forma en la que hay trminos cruzados puede convertirse,
mediante un cambio de coordenadas, en otra sin trminos cruzados.
14.3. cnicas
En R
2
la forma cuadrtica ms general es del tipo
Q(r, j) =
_
r j
_
_
a /
/ c
__
r
j
_
= ar
2
+ 2/rj +cj
2
que, mediante el cambio de coordenadas 1 descrito anteriormente se reduce a
n
T
(1)n = `
1
n
2
1
+`
2
n
2
2
Ahora nos preguntamos por el lugar geomtrico de todos los puntos que
satisfacen
n
T
(1)n = `
1
n
2
1
+`
2
n
2
2
= 1
Cuando `
1
= `
2
y `
1
0 tenemos un crculo de radio
_
1,`
1
Cuando `
1
= `
2
y `
1
_ 0 tenemos el conjunto vaco.
Cuando `
1
,= `
2
pero ambas positivas, se trata de una elipse
Cuando `
1
,= `
2
pero una positiva y la otra negativa se trata de una
hiprbola.
Cuando `
1
,= `
2
pero ambas negativas, se trata del conjunto vaco
Cuando `
1
es cero y `
2
0, se trata de dos rectas.
Cuando `
2
es cero y `
1
0, se trata de dos rectas.
Cuando `
1
es cero y `
2
< 0, es el conjunto vaco
Cuando `
2
es cero y `
1
< 0, es el conjunto vaco
Los trminos del tipo T
t
n tambin pueden ser incluidos. El punto importante
es que la diagonalizacin nos permite librarnos de los trminos cruzados, el resto
del anlisis es como en geometra analtica.
188 CAPTULO 14. CUDRICAS.
14.4. supercies cudricas.
En R
3
tenemos una situacin similar que resumimos en la siguiente tabla:
Eigenvalores `
1
, `
2
y `
3
Supercie(s) posibles
Todos con el mismo signo Elipsoide
Dos de un signo Cono elptico, hiperboloide de dos hojas o hiperboloide de una hoja
Uno es cero, dos del mismop signo Paraboloide eliptico o cilindro elptico (caso degenerado)
Uno es cero, dos de signos opuestos Paraboloide hiperblico o cilindro hiperblico (caso degenerado)
Dos son cero y el tercero diferente de cero Cilindro parablico o dos planos paralelos (caso degenerado)
Parte VI
Bibliografa
189
191
El lector podr constatar facilmente que existen centenas de libros de lge-
bra lineal, algunos en espaol. La lista que sigue comprende los que conozco
y uso. Tienen en comn el que tratan tanto de espacios reales como de espa-
cios complejos; muchos de los libros ms usados tratan tan slo de los espacios
reales, pero nuestro temario exige incluir el caso complejo. Existe traduccin al
espaol del libro de Friedberg et al. Para la parte histrica recomiendo el libro
de Kleiner.
192
Bibliografa
[1] Serge Lang. Linear Algebra. Addisson Wesley
[2] Jess Rojo lgebra Lineal. Mc Graw Hill
[3] Seymour Lipschutz. lgebra Lineal. Serie Schaum, Mc Graw Hill
[4] Stephen Friedberg, Lawrence Spence, Arnold Insel. Linear Algebra. Prentice
Hall
[5] Kenneth Homan, Ray Kunze. lgebra Lineal. Prentice Hall.
[6] Israel Kleiner. History of Abstract Algebra.
193

Вам также может понравиться