Академический Документы
Профессиональный Документы
Культура Документы
Primer Curso
ALGEBRA LINEAL I
27 de junio de 2017
2
Indice general
1. Preliminares 1
1.1. Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Numeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Espacios Vectoriales 9
2.1. Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 9
2.2. Teora de la Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3. Aplicaciones Lineales 17
3.1. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Teorema de Isomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4. Geometra Eucldea 23
4.1. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2. Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3. Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5. Endomorfismos 29
5.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.2. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.3. Diagonalizacion de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 31
3
4 INDICE GENERAL
Captulo 1
Preliminares
Ejemplo: Sea n un numero natural, n 2. Diremos que dos numeros enteros a, b Z son
congruentes modulo n cuando b a es multiplo de n:
a b (mod. n) a + c b + c y ac bc (mod. n) cZ
x = [x] := {y X : x y} .
1
2 CAPITULO 1. PRELIMINARES
[x] = [y] x y ; x, y X .
z + u = z + u zu = z u z = z |z| = |z|
|z| = 0 z = 0 |zu| = |z| |u| z + z 2|z| |z + u| |z| + |u|
excepto la ultima. Para demostrarla bastara ver que |z + u|2 (|z| + |u|)2 :
1 z z x y
= 2 = = 2 2 i.
z |z| z z x + y2 x + y2
Exponencial Compleja
Definicion: Si t R, pondremos eti := cos t + i sen t, donde el seno y coseno se consideran
d
en radianes para que dt (eit ) = ieit . Tenemos la formula de Euler (1707-1783)
e2i = 1
z = ei = (cos + i sen )
para algun numero real = arg z que llamamos argumento de z (bien definido salvo la
adicion de un multiplo entero de 2).
Cuando z = x + yi; x, y R, tenemos que
Por otra parte, las formulas del seno y coseno de una suma expresan que
eti et i = e(t+t )i
eti et i = (cos t + i sen t)(cos t + i sen t ) =
( ) ( )
= (cos t)(cos t ) (sen t)(sen t ) + i (cos t)(sen t ) + (sen t)(cos t )
= cos(t + t ) + i sen(t + t ) = e(t+t )i ;
y la igualdad (ei )( e i ) = e(+ )i muestra que
+2k
)i =
e(
2k
n n n
e n ie n i
y vemos que las races n-esimas de un numero complejo no nulo se obtienen multiplicando
una de ellas por las races n-esimas de la unidad.
4 CAPITULO 1. PRELIMINARES
ln z = ln + ( + 2k)i.
1.3. Permutaciones
Definicion: Sean X e Y dos conjuntos. Dar una aplicacion f : X Y es asignar a cada
elemento x X un unico elemento f (x) Y , llamado imagen de x por la aplicacion f .
Si g : Y Z es otra aplicacion, llamaremos composicion de g y f a la aplicacion
( )
g f : X Z, (g f )(x) := g f (x) .
x, y X, f (x) = f (y) x = y
(i.e., cuando, para cada y Y se tiene que f 1 (y) tiene un elemento o ninguno) y diremos
que f es epiyectiva si todo elemento de Y es imagen de algun elemento de X:
es decir, cuando f (X) = Y o, lo que es igual, cuando, para cada y Y se tiene que f 1 (y)
tiene al menos un elemento.
Diremos que f : X Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuando
cada elemento y Y es imagen de un unico elemento de X, de modo que f 1 (y) tiene un
unico elemento, y en tal caso f 1 : Y X s es una aplicacion, llamada aplicacion inversa
de f porque f 1 f = IdX y f f 1 = IdY .
: {1, . . . , n} {1, . . . , n} .
1.3. PERMUTACIONES 5
Dada una permutacion Sn , los factores de (x(1) , . . . , x(n) ) = i<j (x(j) x(i) )
coinciden, eventualmente salvo el signo, con los de (x1 , . . . , xn ). Luego ambos polinomios
coinciden o difieren en un signo, (x(1) , . . . , x(n) ) = (x1 , . . . , xn ), y llamaremos signo
de al numero entero sgn() = 1 tal que
1.4. Matrices
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Dada una matriz A = (aij ) de m filas y n columnas (donde el subndice i indica la fila
y el subndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m r cuyo coeficiente cik de la fila i y columna k es
n
cik = aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
j=1
Determinantes
Definicion: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es
|A| := (sgn )a1(1) . . . an(n)
Sn
y tiene las siguientes propiedades (que se probaran en el curso de Algebra Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai , . . . , An | .
3. |A(1) , . . . , A(n) | = (sgn )|A1 , . . . , An |.
a11 a12 . . . a1n
0 a22 . . . a2n
4. = a11 . . . ann , |In | = 1.
. . . . . . . . . . . .
0 . . . 0 ann
5. |AB| = |A| |B| , |A1 | = |A|1 .
Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai + Aj , . . . , An | , i = j .
Definicion: El adjunto Aij de una matriz A es (1)i+j por el determinante de la matriz
que se obtiene eliminando la fila i y la columna j de la matriz A.
El determinante de A puede calcularse desarrollando por cualquier fila o columna:
|A| = ai1 Ai1 + . . . + ain Ain ,
|A| = a1j A1j + . . . + anj Anj .
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es
A11 . . . An1
1
A1 = ... ... ...
|A|
A1n . . . Ann
1.4. MATRICES 7
(Notese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.
|A1 , . . . , B, . . . , An |
xi =
|A1 , . . . , Ai , . . . , An |
porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i = j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la unica solucion del sistema.
Espacios Vectoriales
e + v = e + v e = e
e+v =v e=0
e + v = 0 v = e
0e=0 , 0=0 , 0 = 0
(e) = ()e = (e) , (e) = e , (1)e = e
(e v) = e v , ( )e = e e
e = 0 = 0 o e = 0
9
10 CAPITULO 2. ESPACIOS VECTORIALES
Ejemplos:
1. En la Geometra eucldea, los segmentos orientados con origen en un punto prefijado O
forman un espacio vectorial real. Este es el ejemplo paradigmatico de espacio vectorial,
que motiva los nombres de los conceptos que iremos introduciendo.
2. K n = K . n. . K = {(1 , . . . , n ), donde 1 , . . . , n K} es un K-espacio vectorial.
Si A es una matriz mn con coeficientes en K, las soluciones del sistema de ecuaciones
lineales homogeneo AX = 0 forman un subespacio vectorial de K n .
3. Fijados dos numeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares definen una estructura de K-espacio vectorial en el conjunto
Mmn (K) de todas las matrices de m filas y n columnas con coeficientes en K.
4. C es un C-espacio vectorial, y tambien es un R-espacio vectorial y un Q-espacio vecto-
rial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque en
cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impo-
ne la existencia del vector nulo. El espacio vectorial que tiene un unico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Sean V y W dos subespacios vectoriales de un espacio vectorial E.
Su interseccion V W := {e E : e V y e W } es el mayor subespacio vectorial
de E contenido en V y en W , y su suma
V + W := {e E : e = v + w para algun v V, w W } = {v + w; v V, w W }
es el menor subespacio vectorial de E que contiene a V y a W .
8. Si e es un vector de un espacio vectorial E, el menor subespacio vectorial de E que
lo contiene es e = Ke := {v E : v = e para algun K} = {e; K}, y
diremos que es el subespacio vectorial de E generado por el vector e.
9. Si e1 , . . . , en son vectores de un espacio vectorial E, entonces
e1 , . . . , en = Ke1 + . . . + Ken = {1 e1 + . . . + n en ; 1 , . . . , n K}
es el menor subespacio vectorial de E contiene a los vectores e1 , . . . , en , y diremos que
es el subespacio vectorial de E generado por e1 , . . . , en .
10. Si E y F son dos K-espacios vectoriales, su producto directo E F es un K-espacio
vectorial cuando la suma y el producto por escalares se definen del siguiente modo:
(e, f ) + (e , f ) := (e + e , f + f ) , (e, f ) := (e, f ) .
Veamos que estas definiciones no dependen de los vectores elegidos en las clases:
Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):
[e] = 0 e V (2.1)
Ke1 + . . . + Ken = E .
1 e1 + . . . + n en = 0 1 = . . . = n = 0 ; donde 1 , . . . , n K.
e = x1 e1 + . . . + xn en ,
12 CAPITULO 2. ESPACIOS VECTORIALES
En efecto, si e = x1 e1 + . . . + xn en = y1 e1 + . . . + yn en , entonces
Ejemplos 2.2.1
4. Las matrices m n que tienen todos sus coeficientes nulos, excepto uno que es la
unidad, definen una base de Mmn (K), base que esta formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.
0 = 1 v1 + . . . + r1 vr1 = [1 v1 + . . . + r1 vr1 ] ,
r1 r1
entonces i=1 i vi Kvr segun 2.1, y i=1 i vi = r vr para algun escalar r .
Como v1 , . . . , vr son linealmente independientes, tenemos que 1 = . . . = r1 = 0.
Ahora, por hipotesis de induccion, r 1 n 1, y concluimos que r n.
Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual numero de vectores.
2.2. TEORIA DE LA DIMENSION 13
Ejemplos 2.2.3
1. Segun los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si
ademas v / Ke, entonces dim K (Ke + Kv) = 2.
Tambien, dimK K n = n y dimK Mmn (K) = mn .
2. En particular dimC C = 1; aunque dimR C = 2, porque 1, i forman una base de
C = R + Ri como R-espacio vectorial.
3. Si E es un Q-espacio vectorial de dimension
finita n, cada base e1 , . . . , en define una bi-
yeccion : K n E, (1 , . . . , n ) = i i ei , y por tanto el conjunto E es numerable.
Como R y C no son numerables, vemos que dim Q R = dim Q C = .
4. El K-espacio vectorial K[x] := {a0 + a1 x + a2 x2 + . . . ; a0 , a1 . . . K}, formado por
todos los polinomios con coeficientes en K en una indeterminada x, tiene dimension
infinita, porque los polinomios 1, x, . . . , xn son linealmente independientes.
El subespacio vectorial Pn := K + Kx + . . . + Kxn , formado por los polinomios de
grado n con coeficientes en K, admite la base 1, x, . . . , xn ; luego dim Pn = n + 1.
5. Por dos puntos distintos p y q = p + e pasa una unica recta p + Ke, formada por los
puntos p + te = tq + (1 t)p, donde t K. El punto p + 12 e = p+q
2 recibe el nombre
de punto medio entre p y q.
6. En un triangulo (tres puntos distintos no alineados a, b, c llamados vertices) tenemos
que e = b a = 0 y v = c a = 0. Ademas v / Ke porque c = a + v no esta en la recta
a + Ke que pasa por a y b. Luego dim (Ke + Kv) = 2, y el plano a + Ke + Kv pasa
por los tres vertices. Y es el unico, si otro plano P = p + V pasase por ellos, entonces
b, c P = a + V ; luego e = b a, v = c a V , as que Ke + Kv V , y ambos
subespacios vectoriales coinciden porque son de dimension 2.
Ademas, las tres medianas (rectas que unen un vertice con el punto medio del lado
opuesto) se cortan en el punto g = a+b+c
3 , llamado baricentro, que divide a cada
mediana en la proporcion 2:1,
( )
a+b+c a 2b+c b 2a+c c 2a+b 2 b+c
= + = + = + =a+ a = ...
3 3 3 2 3 3 2 3 3 2 3 2
c
a+c
2 b+c
2
a b
a+b
2
14 CAPITULO 2. ESPACIOS VECTORIALES
Demostracion: Veamos que {e1 , . . . , en } contiene una base de E, por induccion sobre n.
Si n = 1, e1 = 0 porque Ke1 = E = 0; luego e1 es ya una base de E = Ke1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes,
n forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relacion i=1 i ei = 0 con algun
coeficiente i no nulo. Reordenando los vectores e1 , . . . , en podemos suponer que n = 0.
Despejando en tenemos que en Ke1 + . . . + Ken1 . Luego E = Ke1 + . . . + Ken1 , y por
hipotesis de induccion {e1 , . . . , en1 } contiene una base de E.
Por ultimo, si n = dim E, entonces los vectores e1 , . . . , en ya forman una base de E;
porque una base de E no puede tener menos de n vectores segun 2.2.2.
1 e1 + . . . + m em + e = 0,
Proposicion 2.2.6 Sea E un espacio vectorial de dimension finita. Toda familia {e1 , . . . , er }
de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E.
Por tanto r dim E, y si ademas r = dim E, entonces los vectores e1 , . . . , er ya forman
una base de E.
1 e1 + . . . + s ee = 1 v1 + . . . + r vr
s r
para ciertos escalares 1 , . . . , r . Luego i=1 i ei j=1 j vj = 0, y como los vectores
v1 , . . . , vr , e1 , . . . , es son linealmente independientes, concluimos que 1 = . . . = s = 0.
Ejemplos:
A1 , . . . , An = A1 , . . . , An , B dimA1 , . . . , An = dimA1 , . . . , An , B
s : V1 . . . Vr V1 + . . . + Vr , s(v1 , . . . , vr ) = v1 + . . . + vr ,
Teorema 2.3.1 La condicion necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.
0 = 0 + 0 = e + (e) ,
e = v + w = v + w ; v, v V, w, w W
Ejemplos:
1. Si e1 , . . . , en es una base de un espacio vectorial E, entonces cada vector e E des-
compone de modo unico como combinacion lineal e = 1 e1 + . . . + n en ; luego
E = Ke1 . . . Ken
Aplicaciones Lineales
Toda aplicacion lineal f : E E verifica que f (0) = 0, que f (e) = f (e), y tambien
que f (1 e1 + . . . + n en ) = 1 f (e1 ) + . . . + n f (en ).
( )
En efecto, f (0) = f (0 0) = 0 f (0) = 0, f (e) = f (1)e = (1)f (e) = f (e) y
f (1 e1 + . . . + n en ) = f (1 e1 ) + . . . + f (n en ) = 1 f (e1 ) + . . . + n f (en ).
Proposicion 3.1.1 Si dos aplicaciones f (: E ) E y h : E E son K-lineales, entonces
su composicion hf : E E , (hf )(e) = h f (e) , tambien es K-lineal.
Demostracion: Para todo K y todo e, v E tenemos que
( ) ( )
(hf )(e + v) = h f (e + v) = h f (e) + f (v) = h(f (e)) + h(f (v)) = (hf )(e) + (hf )(v)
( ) ( )
(hf )(e) = h f (e) = h f (e) = h(f (e)) = (hf )(e)
es un subespacio vectorial de E .
Demostracion: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 Ker f
porque f (0) = 0. Ahora, si e1 , e2 Ker f , por definicion f (e1 ) = f (e2 ) = 0, as que
17
18 CAPITULO 3. APLICACIONES LINEALES
Ejemplos:
1. Una aplicacion lineal f : E E es epiyectiva si y solo si Im f = E .
2. Sea V un subespacio vectorial de un espacio vectorial E. La inclusion i : V E,
i(v) = v, es una aplicacion lineal inyectiva y su imagen es Im i = V .
La proyeccion canonica : E E/V , (e) = [e], es una aplicacion lineal epiyectiva y
su nucleo es Ker = V de acuerdo con 2.1 (v. pagina 11).
3. Cada matriz A Mmn (K) define una aplicacion lineal f : K n K m , f (X) = AX,
cuyo nucleo Ker f esta formado por todas las soluciones de la ecuacion homogenea
AX = 0. Por otra parte, la condicion B Im f significa que el sistema de m ecuaciones
lineales con n incognitas AX = B es compatible.
4. Cada familia {e1 , . . . , en } de vectores de un K-espacio vectorial E define una aplicacion
f : K n E , f (1 , . . . , n ) = 1 e1 + . . . + n en ,
que siempre es K-lineal. La imagen de esta aplicacion lineal es Im f = Ke1 +. . .+Ken ,
as que f es epiyectiva cuando e1 , . . . , en generan E.
Ademas la condicion de que e1 , . . . , en sean linealmente independientes significa que
Ker f = 0, de modo que en tal caso la aplicacion lineal f es inyectiva. Por tanto,
cuando e1 , . . . , en forman una base de E, esta aplicacion lineal f es biyectiva.
X = AX (3.2)
3.2. TEOREMA DE ISOMORFIA 19
dim (Im f ) = rg A
Demostracion: Sea e1 , . . . , en una base de E. Como f ( i i ei ) = i i f (ei ), la imagen de
f esta generada por los vectores f (e1 ), . . . , f (en ):
Im f = f (e1 ), . . . , f (en ) ,
Diremos que dos K-espacios vectoriales E y E son isomorfos si existe algun isomorfismo
K-lineal f : E E , en cuyo caso pondremos E E .
Ejemplos:
s : V1 . . . Vn V1 + . . . + Vn , s(v1 , . . . , vn ) = v1 + . . . + vn ,
f : K n E , f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,
E/Ker f Im f
20 CAPITULO 3. APLICACIONES LINEALES
Demostracion: Veamos primero que es una aplicacion bien definida, que (e) no depende
del representante elegido, que si e = v, entonces f (e) = f (v). Ahora bien, si e = v, entonces
e v (modulo Ker f ); luego v e Ker f , 0 = f (v e) = f (v) f (e) y f (e) = f (v).
Veamos ahora que tal aplicacion es lineal:
Corolario 3.2.1 Para toda aplicacion lineal f : E E entre espacios vectoriales de di-
mension finita tenemos que
2.2.7
Demostracion: dim (Im f ) = dim (E/Ker f ) = dim E dim (Ker f ) .
3.2.1 3.1.4
Demostracion: dim (Ker f ) = dim E dim (Im f ) = dim E rg A.
Definicion: Fijada una base de un espacio vectorial de dimension finita E, dar ecuaciones
parametricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores de V (mejor si forman una base de V ), y dar ecuaciones implcitas de V es dar
un sistema homogeneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones
sean las coordenadas de los vectores de V .
Dar ecuaciones parametricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores de la direccion de X, y dar ecuacio-
nes implcitas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las
coordenadas de los puntos de X.
Ejemplo: Fijada una base (e1 , . . . , en ) de un espacio vectorial E, las ecuaciones parametricas
e implcitas del subespacio vectorial nulo son
x1 = 0 x1 = 0
...... , ......
xn = 0 xn = 0
3.2. TEOREMA DE ISOMORFIA 21
cuya direccion V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implcitas de la direccion V .
Si (x1 , x2 , x3 , x4 ) son las coordenadas de un vector de V , entonces
1 4 x1
1 4 x1
2 3 x2
2 = rg
3 2 x3 , 0 = 2 3 x2 = 5x1 + 10x2 5x3
3 2 x3
4 1 x4
1 4 x1
0 = 2 3 x2 = 10x1 + 15x2 5x4
4 1 x4
Como ambos subespacios vectoriales de K 4 tienen dimension 2, coinciden, y 3.3 son las
ecuaciones implcitas de V . Ahora, como X pasa por el punto de coordenadas (2, 1, 1, 3), las
ecuaciones implcitas de X son
}
x1 2x2 + x3 = 1
2x1 3x2 + x4 = 4
Las columnas de la matriz de cambio de base B estan formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
Por tanto, de acuerdo con 3.2, si Y son las coordenadas de un vector e E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = BY .
Por otra parte, tambien tenemos una matriz de cambio de base C Mnn (K) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
modo que Y = CX. Luego X = BCX y Y = CBY , y como estas igualdades son validas
para cualesquiera columnas X, Y , se concluye que BC = CB = I. Es decir, la matriz B es
invertible, y su inversa es la matriz C. En resumen, la relacion entre las coordenadas X e Y
de un mismo vector e E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es
X = BY , Y = B 1 X (3.5)
Aplicaciones Lineales
Sea f : E E una aplicacion lineal y sea A Mmn (K) la matriz de f en ciertas bases
e1 , . . . , en y e1 , . . . , em de E y E respectivamente.
Consideremos nuevas bases v1 , . . . , vn y v1 , . . . , vm de E y E respectivamente, las co-
rrespondientes matrices de cambio de base B Mnn (K) y C Mmm (K), y sea A
Mmn (K) la matriz de f en estas nuevas bases de E y E . Vamos a determinar la nueva
matriz A de f en terminos de la matriz A y las matrices de cambio de base B y C
Sean X e Y las coordenadas de un vector e E en las bases e1 , . . . , en y v1 , . . . , vn
respectivamente, y sean X e Y las coordenadas de f (e) E en las bases e1 , . . . , em y
v1 , . . . , vm respectivamente. De acuerdo con 3.2 tendremos que
X = AX , Y = AY
AX = X = CY = C AY = C AB 1 X .
A = C AB 1 , A = C 1 AB (3.6)
Captulo 4
Geometra Eucldea
Ejemplos:
1. En la geometra eucldea, los vectores con origen en un punto prefijado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus modulos por el coseno del angulo que forman. Este es el ejemplo
paradigmatico de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en Rn es
n
(x1 , . . . , xn ) (y1 , . . . , yn ) := xi yi = x1 y1 + . . . + xn yn .
i=1
23
24 CAPITULO 4. GEOMETRIA EUCLIDEA
e + v2 = (e + v) (e + v) = e e + v v + 2(e v) e e + v v + 2|e v|
e2 + v2 + 2e v = (e + v)2
(de modo que el angulo que forman e y v esta bien definido salvo un signo). El angulo que
forman 3 puntos distintos abc es el angulo que forman los vectores a b y c b. Diremos
que dos vectores e, v E son ortogonales cuando e v = 0; es decir, cuando cos = 0.
Cuando > 0, el angulo que forman e y v coincide con el que forman e y v, porque
(e) (v) (e v) ev
= =
e v || e v e v
Ejemplos:
1. Si en un triangulo abc consideramos los vectores e = b a y v = c a, de modo que
c b = v e, de la igualdad
v e2 = (v e) (v e) = v2 + e2 2(e v)
c
e v = 0 v e2 = e2 + v2
v ve
= /2 c a2 = b a2 + c b2
a e b
3. Si h es el punto de corte de las alturas de un triangulo abc (rectas que pasan por un
vertice y son perpendiculares al lado opuesto) trazadas por c y a, tenemos que
(b a) (h c) = 0 (4.1)
(c b) (h a) = 0 (4.2)
0 = 2(b a) (f a+b
2 ) = (b a) 2f + a a b b (4.3)
0 = 2(c b) (f b+c
2 ) = (c b) 2f + b b c c (4.4)
(b a) (h + 2f 3g) = 0
(c b) (h + 2f 3g) = 0
h 2f 2
g= + = h + (f h)
3 3 3
de modo que el baricentro esta en el segmento que determinan el ortocentro y el
circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por
estos tres puntos recibe el nombre de recta de Euler (1707-1783).
6. Consideremos un cuadrilatero (la figura formada por cuatro puntos ordenados abcd
en los que no hay 3 alineados) y pongamos e = ba, v = da. La condicion de que sea
un paralelogramo (los lados opuestos son paralelos) es que c d = e y c b = v
para ciertos escalares , ; luego c a = e + v = e + v.
d c
e
v v
e
a b
Como los vectores e, v son linealmente independientes, porque los puntos abd no estan
alineados, se sigue que = = 1, de modo que los lados opuestos son iguales, c d =
b a y c b = d a, y las dos diagonales se bisecan mutuamente:
f : E Rd , f (e) = (e v1 , . . . , e vd ) .
Su nucleo es
e (1 v1 + . . . + d vd ) = 1 (e v1 ) + . . . + r (e vd ) = 0 ,
Notese que vi = 0, pues la igualdad ei = (ei u1 )u1 + . . . + (ei ui1 )ui1 e1 , . . . , ei1
dara una relacion de dependencia lineal entre los vectores e1 , . . . , ei .
Para concluir basta ver que u1 , . . . , un forman una base de E.
Como el numero de vectores coincide con la dimension de E, de acuerdo con 2.2.6 es
suficiente probar
que u 1 , . . . , un son linealmente independientes. Ahora bien, si i i ui = 0,
entonces 0 = ( i i ui ) uj = i i ij = j para todo ndice j = 1, . . . , n.
Captulo 5
Endomorfismos
5.1. Polinomios
En este captulo, de nuevo los escalares seran K = Q, R o C.
29
30 CAPITULO 5. ENDOMORFISMOS
A = B 1 AB (5.2)
y tenemos que
para cierta matriz cuadrada A de n 1 columnas. Luego c(x) = (x )c(x), donde c(x) =
|xI A| y, por hipotesis de induccion, c(A) = 0. Ahora
( r )
...
Ar =
0 Ar
( )( ) ( )( )
0 ... c() ... 0 ... c() ...
c(A) = (A I)c(A) = = =0.
0 B 0 c(A) 0 B 0 0
Ejemplos:
1. Para resolver la ecuacion diferencial x = ax + bx, a, b R, planteamos el siguiente
sistema de ecuaciones diferenciales con una nueva funcion incognita y(t):
{ ( ) ( )( ) ( )
x = y x 0 1 x 0 1
, = , A=
y = ay + bx y b a y b a
Si el polinomio caracterstico u2 aub tiene dos races reales y distintas (a2 +4b > 0)
a a2 + 4b
1 , 2 =
2
estas son los valores propios de tal endomorfismo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogeneos
( )( ) ( ) ( )( ) ( )
1 1 x1 0 2 1 x1 0
= , =
b 1 a x2 0 b 2 a x2 0
1 x1 x2 = 0 , 2 x1 x2 = 0
Los vectores propios e1 = (1, 1 ) y e2 = (1, 2 ) forman una base de R2 ,y nos permiten
diagonalizar la matriz A:
( ) ( )
1 0 1 1
D= = B 1 AB , B=
0 2 1 2
x(t) = c1 e1 t + c2 e2 t c1 , c2 R .
x(t) = c et cos(t + ) c, R .
5.3. DIAGONALIZACION DE ENDOMORFISMOS 33
3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesion incognita (yn ):
{ ( ) ( )( )
xn+1 = yn xn+1 0 1 xn
, = , Xn+1 = AXn
yn+1 = ayn + bxn yn+1 b a yn
( ) ( )( ) ( ) ( )1 ( )
xn 1n 2n c1 c1 1 1 x0
= , = (5.3)
yn 1n+1 2n+1 c2 c2 1 2 y0
xn = c1 1n + c2 2n
xn = c1 n + c2 ()n . (5.4)
n ()n
xn = .
5
s : V1 . . . Vm V1 + . . . + Vm , s(v1 , . . . , vm ) = v1 + . . . + vm .
34 CAPITULO 5. ENDOMORFISMOS
altura, 25 ecuaciones
aplicacion, 4 implcitas, 20
biyectiva, 4 parametricas, 20
epiyectiva, 4 endomorfismo, 30
inversa, 4 diagonalizable, 31
inyectiva, 4 epiyectiva, aplicacion, 4
lineal, 17 equivalencia
argumento, 3 , clase de, 1
aurea, proporcion, 33 , relacion de, 1
escalar, 6
baricentro, 13 , producto, 23
base, 11 espacio vectorial, 9
, cambio de, 22 cociente, 11
ortonormal, 27 eucldeo, 26
biyectiva, aplicacion, 4 Euler
, formula de, 3
cambio de base, 22 , recta de, 25
caracterstico, polinomio, 30 exponencial compleja, 4
ciclo, 5
circuncentro, 25 generadores, sistema de, 11
clase de equivalencia, 1 Gram-Schmidt, metodo de, 28
cociente
, conjunto, 1 Hamilton-Cayley, teorema de, 31
, espacio vectorial, 11
complejos, numeros, 2 identidad, 4
composicion, 4 imagen, 4, 17
congruencia, 1, 10 imaginaria, parte, 2
conjugado, 2 impar, permutacion, 5
conjunto cociente, 1 implcitas, ecuaciones, 20
coordenadas, 12 independencia lineal, 11
coseno, 24 inversa
Cramer, regla de, 7 , aplicacion, 4
cuadrilatero, 25 , matriz, 6
invertible, matriz, 6
DAlembert, teorema de, 29 inyectiva, aplicacion, 4
dependencia lineal, 11 isomorfa, teorema de, 19
determinante, 6 isomorfismo, 19
diagonalizable, endomorfismo, 31
diagonalizacion, criterio de, 34 lineal
dimension, 13 , aplicacion, 17
direccion, 10 , dependencia, 11
directa, suma, 16 , independencia, 11
disjuntos, ciclos, 5 , subvariedad, 10
distancia, 23, 27 logaritmo neperiano, 4
35
36 INDICE ALFABETICO
paralelismo, 10
paralelogramo, 25
parametricas, ecuaciones, 20
permutacion, 4
impar, 5
par, 5
perpendicularidad, 27
Pitagoras, teorema de, 24
plano, 13
polinomio caracterstico, 30
producto
de matrices, 6
de numeros complejos, 2
escalar, 23
propio
, valor, 30
, vector, 30
proyeccion
ortogonal, 27
punto, 9
raz simple, 29
rango, 7
, teorema del, 7
real, parte, 2
recta, 13
relacion, 1
de equivalencia, 1
Rouche-Frobenius, teorema de, 7, 15
Runi, regla de, 29