Вы находитесь на странице: 1из 46

Algebra

II (61.08 - 81.02)
Resumen

fiuba-apuntes.github.io

INDICE

Indice
Sobre el proyecto

1. Matrices
1.1. Propiedades generales . . . . . . . . .
1.2. Propiedades de la inversa, la traza y la
1.3. Propiedades de los determinantes . . .
1.4. Subespacios fila, columna y null . . . .

. . . . . . .
traspuesta
. . . . . . .
. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

2. Espacios vectoriales
2.1. Propiedades de los subespacios .
2.2. Independencia lineal . . . . . . .
2.3. Operaciones con subespacios . . .
2.4. Bases . . . . . . . . . . . . . . .
2.5. Coordenadas de un vector en una
2.6. Matriz de cambio de base . . . .
2.7. Teorema de la dimensi
on . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

8
. 8
. 8
. 9
. 9
. 9
. 10
. 10

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

11
11
11
11
13

4. Proyecciones y matrices de proyecci


on
4.1. Propiedades de la proyecci
on . . . . . . . . .
4.2. Proyecci
on y reflexi
on . . . . . . . . . . . . .
4.2.1. Proyecci
on y transformaciones lineales
4.2.2. Reflexi
on y transformaciones lineales .
4.3. Matriz de Householder . . . . . . . . . . . . .
4.4. Rotaciones en R3 . . . . . . . . . . . . . . . .
4.5. Proceso de Gram-Schmidt . . . . . . . . . . .
4.6. Matrices de proyecci
on . . . . . . . . . . . . .
4.7. Inversas y pseudoinversas . . . . . . . . . . .
4.8. Cuadrados mnimos . . . . . . . . . . . . . .
4.8.1. Norma mnima . . . . . . . . . . . . .
4.9. Regresi
on lineal . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

14
14
14
15
16
16
17
17
18
18
19
20
20

5. Transformaciones lineales
5.1. Condiciones para las Transformaciones lineales . . . .
5.2. N
ucleo e Im
agen . . . . . . . . . . . . . . . . . . . . .
5.3. Clasificaci
on de las Transformaciones lineales . . . . .
5.3.1. Monomorfismo(Inyectividad) . . . . . . . . . .
5.3.2. Epimorfismo(Sobreyectividad) . . . . . . . . . .
5.3.3. Isomorfismo(Biyectividad) . . . . . . . . . . . .
5.4. Matriz asociada a una Transformaci
on lineal . . . . . .
5.5. Teorema fundamental de las Transformaciones lineales
5.6. Composici
on de Transformaciones lineales . . . . . . .
5.7. Operadores lineales . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

21
21
21
22
22
22
23
23
24
24
24

6. Autovalores y Autovectores
6.1. Definiciones b
asicas . . . . . . . . . . . . . . . . . . . .
6.2. Autovalores complejos de matriz real . . . . . . . . . .
6.3. Multiplicidad geometrica y algebr
aica de un Autovalor
6.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . .
6.5. Autovalores y Autovectores de operadores lineales . .
6.6. Diagonalizaci
on . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

25
25
25
25
26
26
27

3. Producto interno
3.1. Axiomas . . . . . . . . . . .
3.2. Producto interno can
onico .
3.3. Definiciones . . . . . . . . .
3.4. Matriz asociada al producto

P
agina 1 de 45

. . .
. . .
. . .
. . .
base
. . .
. . .

. . . . .
. . . . .
. . . . .
interno

.
.
.
.

4
4
4
5
5

Algebra
II (61.08 - 81.02) - Resumen

INDICE

6.6.1. Matrices trivialmente diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27


6.6.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6.6.3. Diagonalizaci
on de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 28
7. Matrices hermticas y sim
etricas
7.1. Diagonalizaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2. Descomposici
on espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3. Subespacios invariantes por una transformacion lineal . . . . . . . . . . . . . . . . . . . . . . . .

29
29
30
31

8. Formas cuadr
aticas
32
8.1. Clasificaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.2. Optimizaci
on restringida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
9. Descomposici
on en Valores Singulares (DVS)
9.1. Definici
on . . . . . . . . . . . . . . . . . . . . .
9.2. Subespacios de las DVS . . . . . . . . . . . . .
9.3. Propiedades de las DVS . . . . . . . . . . . . .
9.4. DVS reducida y Pseudoinversa . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

34
34
34
35
35

10.Ecuaciones diferenciales
10.1. Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2. Identidad de Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3. Existencia y unicidad de Problemas de Valores Iniciales (PVI) . . . . .
10.4. Variables separables . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.5. Lineales de 1er orden . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.6. Diferencial exacta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7. Lineales homogeneas de orden superior con coeficientes constantes . .
10.8. Lineales no homogeneas de orden superior con coeficientes constantes .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

37
37
37
38
38
38
39
39
40

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

11.Sistemas de Ecuaciones diferenciales lineales


41
11.1. Sistemas homogeneos con A diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
11.2. Sistemas no homogeneos con A diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
11.3. Sistemas homogeneos con A no diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Colaboradores

44

Historial de cambios

45

Algebra
II (61.08 - 81.02) - Resumen

Pagina 2 de 45

SOBRE EL PROYECTO

Sobre el proyecto
FIUBA Apuntes naci
o con el objetivo de digitalizar los apuntes de las materias que andan rondando por los
pasillos de FIUBA.
Adem
as, queremos que cualquier persona sea libre de usarlos, corregirlos y mejorarlos.
Encontrar
as m
as informaci
on sobre el proyecto o mas apuntes en fiuba-apuntes.github.io.

Por qu
e usamos LaTeX?
LaTeX es un sistema de composici
on de textos que genera documentos con alta calidad tipografica, posibilidad de representaci
on de ecuaciones y f
ormulas matematicas. Su enfoque es centrarse exclusivamente en el
contenido sin tener que preocuparse demasiado en el formato.
LaTeX es libre, por lo que existen multitud de utilidades y herramientas para su uso, se dispone de mucha
documentaci
on que ayuda al enriquecimiento del estilo final del documento sin demasiado esfuerzo.
Esta herramienta es muy utilizado en el
ambito cientfico, para la publicacion de papers, tesis u otros
documentos. Incluso, en FIUBA, es utilizado para crear los enunciados de examenes y apuntes oficiales de
algunos cursos.

Por qu
e usamos Git?
Git es un software de control de versiones de archivos de codigo fuente desde el cual cualquiera puede obtener
una copia de un repositorio, poder realizar aportes tanto realizando commits o como realizando forks para ser
unidos al repositorio principal.
Su uso es relativamente sencillo y su filosofa colaborativa permite que se sumen colaboradores a un proyecto
f
acilmente.
GitHub es una plataforma que, adem
as de ofrecer los repositorios git, ofrece funcionalidades adicionales muy
interesantes como gestor de reporte de errores.

P
agina 3 de 45

Algebra
II (61.08 - 81.02) - Resumen

1 Matrices

1.

1.1.

Matrices

Propiedades generales

Propiedades de matrices
Dadas las matrices A, B, C se tiene que:
A+B =B+A

A + (A) = 0n

A + (B + C) = (A + B) + C

A(B + C) = AB + AC

(A + B) = A + B

(A + B)C = AC + BC

( + )A = A + A

A(BC) = (AB)C

(A) = ()A

(AB) = (A)B = A(B)

A + 0n = A

A0n = 0n

1.2.

Propiedades de la inversa, la traza y la traspuesta

Propiedades de matrices
Dadas las matrices A, B, C se tiene que:
Propiedades de la inversa:
1
A1
Propiedades de la traza:
1

=B

(AB)
(A)
0
(An )

A1 =

A1
, 6=

= A1

n

tr(A + B) = tr(A) +
tr(B)
tr(AB) = tr(BA)
tr(A) = tr(A)
tr(AT ) = tr(A)

adj(A)
|A|

Propiedades de la traspuesta:
T

(A + B)
BT

= AT +

(AB) = B T AT
T
AT
=A
T

(A) = AT
1
T
AT
= A1

Algebra
II (61.08 - 81.02) - Resumen

Pagina 4 de 45

1.3

1.3.

Propiedades de los determinantes

Propiedades de los determinantes

Propiedades de determinantes
Sean A, B Rnm
T
A = |A|

(1.1)

|AB| = |A| |B|

(1.2)

Si B la obtengo de sumar k veces una fila de A sobre otra:


|B| = |A|

(1.3)

Si B la obtengo de intercambiar k veces las fila de A:


|B| = (1)k |A|

(1.4)

Si B la obtengo de multiplicar por k, n veces las filas de A:


|B| = k n |A|

(1.5)

Si A es una matriz triangular:


|A| =

n
Y

aii

(1.6)

i=1

1.4.

Subespacios fila, columna y null

Espacio fila,columna y nulo de matrices


Sean A Rnm , B Rrn , se define:
Espacio Fila: Fif(A) = {x Rm |x es combinacion lineal de las filas de A}
Espacio Columna: Col(A) = {b Rn |Ax = b para alguna x}
Espacio nulo: Nul(A) = {x Rm |Ax = 0}

P
agina 5 de 45

Algebra
II (61.08 - 81.02) - Resumen

1.4

Subespacios fila, columna y null

Propiedades de los espacios definidos


Propiedades:
Nul(A) = Nul(AT A) = Fil(A)

(1.7)

(1.8)

Dim(Col(A)) = Dim(Fil(A))
O
Col(A)
Col(A) = Rn
O
Fil(A)
Fil(A) = Rm

(1.10)
(1.11)

rango (A) + dim Nul(A) = m

(1.13)

Col(BA) Col(B), Iguales si rango (A) = n

(1.14)

Nul(A) Nul(BA), Iguales si rango (B) = n

(1.15)

Si rango (A) = n rango (BA) = rango (B)

(1.16)

Si rango (B) = n rango (BA) = rango (A)

(1.17)

Nul(A ) = Nul(AA ) = Col(A)



rango (A) = rango AT A AT A

Col(A)Col(B) A B = 0

(1.9)

(1.12)

(1.18)

De (1.15) se ve que AT A invertible A invertible

Matrices equivalentes
Dos matrices A y B son equivalentes si existen otras dos matrices E y F regulares tal
que:
A = EBF

(1.19)

Dos matrices equivalentes pueden pensarse como dos descripciones de una misma Transformaci
on Lineal, pero con respecto a bases distintas.

Matrices semejantes
Dos matrices cuadradas A y B son semejantes (notamos A B) si y solo si existe una
matriz P inversible tal que:
B = P 1 AP ,o

(1.20)

(1.21)

A = P BP

Algebra
II (61.08 - 81.02) - Resumen

Pagina 6 de 45

1.4

Subespacios fila, columna y null

Propiedades de matrices semejantes


Dos matrices semejantes pueden pensarse como dos descripciones de un mismo operador
lineal, pero con respecto a bases distintas. Estas dos matrices cumplen que:
|A| = |B|

(1.22)

tr(A) = tr(B)

(1.23)

rango (A) = rango (B)

(1.24)

pA () = pB () (A) = (B)

(1.25)

P
agina 7 de 45

Algebra
II (61.08 - 81.02) - Resumen

2 Espacios vectoriales

2.

2.1.

Espacios vectoriales

Propiedades de los subespacios

Propiedades de los subespacios


S es un subespacio vectorial del espacio VK si y solo si:
0V S

(2.1)

(X + Y ) S, X, Y V y K

(2.2)

2.2.

Independencia lineal

Combinaci
on lineal
El vector x es una combinaci
on lineal de v1 , v2 , . . . , vn si:
x=

n
X

i vi

(2.3)

i=1

Y si a1 , . . . , an no son todos nulos.

Independencia lineal
x es linealmente independiente si:
n
X

i vi = 0 , y

(2.4)

ai = 0i

(2.5)

i=1

Dos vectores son linealmente dependientes si son proporcionales. Un subconjunto de


un conjunto linealmente dependiente sigue siendo linealmente dependiente

Algebra
II (61.08 - 81.02) - Resumen

Pagina 8 de 45

2.3

2.3.

Operaciones con subespacios

Operaciones con subespacios


Operaciones con subespacios

Intersecci
on: S =

n
\

Si = {x V |x Si , i = 1, . . . , n}

i=1

Suma: S =

n
X
i=1

Si = gen

(m
[

)
Bi , donde Bi es una base de Si

i=1

Uni
on: S = S1 S2 es un subespacio cuando S1 S2 o S2 S1
Suma directa: S1 , . . . , Sk est
an en suma directa la union de sus bases es base
de V
Dos subespacios son suplementarios cuando estan en suma directa y su suma es todo
el espacio.

2.4.

Bases
Bases
Si Dim(V ) = n, {v1 , . . . , vn } es base de V si y solo si:
{v1 , . . . , vn } genera V

(2.6)

{v1 , . . . , vn } son linealmente independientes

(2.7)

2.5.

Coordenadas de un vector en una base


Coordenadas de un vector en una base
Si {v1 , . . . , vn } es base de un espacio vectorial B y x

n
X

i vi , entonces

i=1

CB (x) = (1 , . . . , n )
Dado un vector y una base, las coordenadas de ese vector en esa base son u
nicas.
v, w V y k K:

CB (v + w) = CB (v) + CB (w)

(2.8)

CB (k v) = k CB (v)

(2.9)

Finalmente {v1 , . . . , vn } son linealmente independientes {CB (v1 ), . . . , CB (vn )} lo


son para cualquier base de B.

P
agina 9 de 45

Algebra
II (61.08 - 81.02) - Resumen

2.6

2.6.

Matriz de cambio de base

Matriz de cambio de base


Matriz de cambio de base
Sean B = {v1 , . . . , vn } y C = {w1 , . . . , wn } bases del espacio V . Las matrices de cambio
de base son:

|
|
|
CBC = CC (v1 ) CC (v2 ) . . . CC (vn )
(2.10)
|
|
|

|
|
|
1
CCB = CB (w1 ) CB (w2 ) . . . CB (wn ) = CBC
(2.11)
|
|
|
Si B y C son bases ortonormales, entonces CBC es una matriz ortogonal.

2.7.

Teorema de la dimensi
on
Teorema de la dimensi
on
Dados los subespacios S, H y T :
Dim(S + H) = Dim(S) + Dim(H) Dim(S H)
(2.12)
Dim(S + H + T ) = Dim(S) + Dim(H) + Dim(T ) Dim(S (H + T )) Dim(H T )
(2.13)

Algebra
II (61.08 - 81.02) - Resumen

Pagina 10 de 45

3 Producto interno

3.
3.1.

Producto interno
Axiomas
Axiomas del producto interno
Sea <, >: VK VK R un producto interno:
1. (x, y) K y x, y V
2. (x, y) = (y, x) , x, y V
3. (x, y) = (x, y) , x, y V y K
4. (x, y) = (x, y) , x, y V y K
5. (x, y + z) = (x, y) + (x, z) , x, y, z V
6. (x, x) 0, (x, y) = 0 x = 0

3.2.

Producto interno can


onico
Producto interno can
onico
Se definen los siguientes productos internos para los siguientes espacios vectoriales:
Vectores reales: Rn : (x, y) = xT y
Vectores complejos: C n : (x, y) = xH y
Matrices reales: Rnm : (A, B) = tr(AT B)
Matrices complejas: C nm : (A, B) = tr(AH B)
Z b
Funciones reales: PR [a, b] : (p, q) =
p(t)q(t)dt
a

Z
Funciones complejas: PC [a, b] : (p, q) =

p(t)q(t)dt
a

3.3.

Definiciones
Ortogonalidad
Dados x, y:
(x, y) = 0 xy

(3.1)

Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

P
agina 11 de 45

Algebra
II (61.08 - 81.02) - Resumen

3.3

Definiciones

norma de un vector
Se define la norma de un vector como:
2

|x| = (x, x)

(3.2)

La norma de un vector depende del producto interno, pero cumple las siguientes propiedades:
|x| Rx V
|x| 0 (|x| = 0 x = 0)
|k x| = |k| |x|
Desigualdad de Cauchy-Schwarz:
|(x, y)| |x| |y| , x, y VK

(3.3)

La igualdad se cumple si x k y
Desigualdad triangular:
|x + y| |x| + |y|

(3.4)

Teorema de pit
agoras: Si xy entonces:
2

|x + y| = |x| + |y|

(3.5)

La recproca solo vale para R


Identidad del paralelogramo:


2
2
2
2
|x + y| + |x y| = 2 |x| + |y| , x, y V

(3.6)

Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

Angulo
entre dos vectores
Dado x, y:
cos() =

(x, y)
|x| |y|

(3.7)

Con [0, ], x, y 6= 0 para espacios vectoriales reales con producto interno.


Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 12 de 45

3.4

Matriz asociada al producto interno

Complemento ortogonal
Sea A VK A = {x VK |(x, y) = 0, y A}
Para el c
alculo del complemento ortogonal a un subespacio de dimension finita, alcanza
con exigir la ortogonalidad a un sistema de generadores
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

Distancia entre vectores


Dados x,y, se define la funci
on distancia como:
d : VR VR R+ : d(x, y) = |x y| = |y x|

(3.8)

Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.

3.4.

Matriz asociada al producto interno


Matriz de producto interno
Sea B = {v1 , . . . , vk } base de VK . Entonces G K kk , gij = (vi , vj ) es la matriz de
producto interno:

2
|v1 |
. . . (v1 , vk )

..
..
..
G=
(3.9)

.
.
.
(vk , v1 ) . . .

|vk |

Si B es base de VK y G es la matriz del producto interno en esa base, entonces x, y V :


H
(x, y) = CB
(x) G CB (y)

(3.10)

Propiedades de la matriz de producto interno


Dada la matriz G de producto interno se tiene que:
gii 0, i = 1, . . . , k
H

(3.11)

=H

(3.12)

G es definida positiva

(3.13)

(3.14)

G de una Base Ortogonal (BOG) es una matriz diagonal

(3.15)

G de una Base Ortonornal (BON) es una matriz identidad

(3.16)

P
agina 13 de 45

Algebra
II (61.08 - 81.02) - Resumen

4 Proyecciones y matrices de proyecci


on

4.

4.1.

Proyecciones y matrices de proyecci


on

Propiedades de la proyecci
on

Propiedades de la proyecci
on
Sea S V yS su complemento ortogonal, entonces x V :
x = |{z}
u + |{z}
v = PS (x) + PS (x)
S

(4.1)

Se definen las siguientes propiedades:


PS (x) es el vector de S mas proximo a x
PS (v) = v v S y adem
as PS (w) = 0 w S

2
2
2
Por pit
agoras: |x| = |PS (x)| + PS (x) , x V
|PS (x)| |x|. Si |PS (x)| = |x| entonces x S


d(x, S) = PS (x)
d(x, S ) = |PS (x)|

4.2.

Proyecci
on y reflexi
on

Proyecci
on y reflexi
on
Sea S un subespacio de V , y B = {v1 , . . . , vk } una base ortogonal (BOG) de S. Entonces
x V :
PS (x) =

k
X
(vi , x)
vi
(vi , vi )
i=1

(4.2)


RS (x) = 2PS (x) x = 2PS (x) PS (x) + PS (x) = PS (x) PS (x) = x 2PS (x)
(4.3)

Algebra
II (61.08 - 81.02) - Resumen

Pagina 14 de 45

4.2

Proyecci
on y reflexi
on

4.2.1.

Proyecci
on y transformaciones lineales

Proyecciones y Transformaciones lineales


Sea T : VK VK una transformaci
on lineal tal que:
Im(PS ) = S

(4.4)

(4.5)

Nul(PS ) = S

Y sea B = {v1 , . . . , vq , vq+1 , . . . , vn } una base de V, entonces la matriz de la transforma| {z } |


{z
}
S

ci
on lineal es:

[PS ]B =

.
..
0

...
..

.
1
0
..

...

0
..
.

(4.6)

Tantos 1 como la dimensi


on del espacio sobre el cual proyecto, y tantos 0 como la
dimensi
on del complemento ortogonal.
Nota: La matriz de un operador proyecci
on en una Base Ortonormal (BON) es una matriz
de proyecci
on. En cualquiera otra base, no lo es.

P
agina 15 de 45

Algebra
II (61.08 - 81.02) - Resumen

4.3

4.2.2.

Matriz de Householder

Reflexi
on y transformaciones lineales

Proyecciones y Transformaciones lineales


Sea T : VK VK una transformaci
on lineal tal que:
T (v) = v, v S

(4.7)

(4.8)

T (v) = v, v S

Y sea B = {v1 , . . . , vq , vq+1 , . . . , vn } una base de V, enton| {z } |


{z
}
S

ces la matriz de la transformaci


on lineal es:

1
... 0

..
.
.

.
.

1
[T ]B =

.
..
..
.
0

(4.9)

...

Tantos 1 como la dimensi


on del espacio sobre el cual
proyecto, y tantos -1 como la dimension del complemento
ortogonal.

Figura 4.1: Proyeccion y reflexion

Nota: La matriz de un operador proyeccion en una Base Ortonormal (BON) es una matriz de proyeccion. En cualquiera
otra base, no lo es.

4.3.

Matriz de Householder
Propiedades de la proyecci
on
La matriz de reflexi
on sobre un subespacio de dimension n 1 que es ortogonal a un
vector w en un espacio de dimensi
on n se puede obtener mediante la expresion:
H = Id 2

w wT
wT w

(4.10)

Dicha matriz tiene las siguientes propiedades:


Es involutiva: H H = Id
Es simetrica: H T = H
Es inversible: H 1 y H 1 = H
Es ortogonal: H T H = HH T = Id

Algebra
II (61.08 - 81.02) - Resumen

Pagina 16 de 45

4.4

4.4.

Rotaciones en R3

Rotaciones en R3

Rotaciones en R3
Sea B = {v1 , v2 , v3 } una Base Ortonormal (BON) de R3 y sea T la rotacion grados
alrededor del eje vi :

1
0
0
Rotaci
on sobre v1 : [T ]B = 0 cos() sin()
(4.11)
0 sin() cos()

cos() 0 sin()
1
0
Rotaci
on sobre v2 : [T ]B = 0
(4.12)
sin() 0 cos()

cos() sin() 0
Rotaci
on sobre v3 : [T ]B = sin() cos() 0
(4.13)
0
0
1
(4.14)

4.5.

Proceso de Gram-Schmidt

Proceso de Gram-Schmidt
Dada una base {x1 , x2 , . . . , xp } para un subespacio W Rn defina:
1. v1 = x1
2. v2 = x2

3. vp = xp

x2 v1
v1
v1 v1
p1
X
xp vi
i=1

vi vi

vi

Entonces {v1 , v2 , . . . , vp } es una Base Ortogonal (BOG) de W .


Si luego se divde a cada componente por la norma de la base se obtiene una Base Ortogonal
(BON) de W .

P
agina 17 de 45

Algebra
II (61.08 - 81.02) - Resumen

4.6

4.6.

Matrices de proyecci
on

Matrices de proyecci
on
Matriz de proyecci
on
Utilizando el producto interno can
onico de sobre K n , con K = R o K = C.
P K nn es una matriz de proyeccion si y solo si:
P2 = P
P

(4.15)

=P

(4.16)

Dicha matriz tiene las siguientes propiedades:


Col(P ) = Nul(P )
P y = y y Col(P )
Si PS es matriz de proyecci
on sobre S y PS es matriz de proyeccion sobre S

entonces PS + PS = Id
Las columnas de P son una base del espacio sobre el cual proyectan
rango (P ) = tr(P )
det P 6= 0 si P 6= Id
Si P1 y P2 son matrices de proyeccion y P1 P2 = P2 P1 = 0, entonces P1 + P2 es
matriz de proyecci
on y rango (P1 + P2 ) = rango (P1 ) + rango (P2 )
Obtenci
on de la matriz de proyecci
on:
1. Sea Q una matriz cuyas columnas son una Base Ortonormal (BON) de S V .
Entonces la u
nica matriz de proyeccion sobre S es [PS ] = Q QT . La matriz de
proyecci
on sobre S es [PS ] = Id [PS ]
2. Sea B = {v1 , . . . , vq } una base de S, y A la matriz que tiene por columnas a
v1 , . . . , vq . Entonces la u
nica matriz de proyeccion sobre S se obtiene mediante
1 H
H
[PS ] = A A A
A = AA#

4.7.

Inversas y pseudoinversas
Propiedades de la pseudoinversa
Sea A K nq |rango (A) = q. La matriz pseudoinversa de A es A# = AH A

1

AH :

Si A es cuadrada invertible, A1 = A#
A# Rqn
A# A = Id(q)
AA# = [P ]Col(A)
Nul(AA# ) = [Col(A)]

Algebra
II (61.08 - 81.02) - Resumen

Pagina 18 de 45

4.8

4.8.

Cuadrados mnimos

Cuadrados mnimos

Cuadrados mnimos
Sea A K nq , x K q , b Rn . Si Ax = b tiene una solucion extra, entonces
q

b Col(A). Si b
/ Col(A), intentamos
hallar una solucio n x K q(la solucion por cua Ax
b < Au b , u K
b) d(Au, b), u K q
d(Ax,

Ax
b (Son iguales si b Col(A))
Ecuaciones normales

= AT b = b
AT Ax

drados mnimos) tal que:

de

cuadrados

mnimos:

=P
=b
Ax
Col(A) (b) si y solo si:
Col(A)
Ax
Col(A)
b Ax

(4.17)
(4.18)

Figura 4.2: Cuadrados


mnimos

Propiedades de Cuadrados mnimos


= 0 entonces b [Col(A)] . La recproca solo es cierta si A es invertible.
1. Si x
2. Si las columnas de A son linealmente independientes, la solucion por cuadrados
mnimos es u
nica y se obtiene mediante:
= (AT A)1 AT b = A# b
x

(4.19)

= AT b tiene
Si las columnas de A son linealmente dependientes, el sistema AT Ax
=x
p + x
n
infinitas soluciones, y estas son de la forma x
|{z}
Nul(A)

3. Si b Col(A), entonces toda soluci


on de Ax = b es una solucion exacta y por
cuadrados mnimos




4. El error de aproximaci
on  es igual a b b

P
agina 19 de 45

Algebra
II (61.08 - 81.02) - Resumen

4.9

4.8.1.

Regresi
on lineal

Norma mnima
Pseudoinversa de Moore-Pensore

La soluci
on por cuadrados mnimos de norma mnima pertenece al espacio Fil(A)y se
obtiene como:
= A+ b
x

(4.20)

Siendo A+ la pseudoinversa de Moore-Penrose de A.

4.9.

Regresi
on lineal
Regresi
on lineal
Sean los puntos Pi = (xi , yi ) con i = 1, 2, . . . , n. La recta que mejor aproxima a los puntos
es:
y = 0 1 + 1 x
Y los coeficientes i se obtienen resolviendo el sistema:


1 x1
y1


1 x2
y2
0

..
.. = ..
.

.
1
.
1 xn
yn

(4.21)

(4.22)

Si se aproxima por una par


abola se agrega otro nivel de complejidad, con
y = 2 x2 + 1 x + 0 , lo que implica una columna adicional a la matriz para los
terminos cuadr
aticos, una fila adicional para la constante 2 en la variable.
Se siguen agregando columnas a la matriz y filas al vector tantas veces como grados de
complejidad se necesiten.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 20 de 45

5 Transformaciones lineales

5.

Transformaciones lineales

Sea T `(VK , WK ) y A = [T ]BC con B base de V y C base de W la matriz de T .

5.1.

Condiciones para las Transformaciones lineales

Condiciones para ser Transformaci


on lineal
Para que una transformaci
on se considere lineal debe cumplir:
1. T (u + v) = T (u) + T (v), con u, v V
2. T (u + v) = T (u) + T (v), con u, v VK y , K
3. T (0VK ) = 0VK

5.2.

N
ucleo e Im
agen

N
ucleo e Imagen
1
N
ucleo: Nul(T ) = {v VK | T (v) = 0W } = CB
(Nul(A)).
1
Im
agen: Im(T ) = {w WK | T (v) = w con v VK } = CC
(Col(A)).

Ambos son subespacios vectoriales.


La im
agen de una Transformaci
on Lineal puede obtenerse como lo que generan los transformados de una base del espacio de partida.

Teorema de la dimensi
on
Sea T `(V, W ) y sea Dim(V ) = n (finita). Entonces:
Dim(V ) = Dim(Nul(T )) + Dim(Im(T ))

(5.1)

P
agina 21 de 45

Algebra
II (61.08 - 81.02) - Resumen

5.3

5.3.

Clasificacion de las Transformaciones lineales

Clasificaci
on de las Transformaciones lineales

5.3.1.

Monomorfismo(Inyectividad)

Monomorfismo
Una Transformaci
on lineal es inyectiva si verifica:
v1 6= v2 T (v1 ) 6= T (v2 ) , v1 , v2 V

(5.2)

Nul(T ) = {0V } Dim(Im(T )) = Dim(V )

(5.3)

Una Transformaci
on Lineal Inyectiva transforma conjuntos Linealmente Independientes
a conjuntos Linealmente Independientes.
La recproca tambien es cierta: si A es un conjunto Linealmente Independiente y es
transformado en otro conjunto Linealmente Independiente, la Transformacion Lineal
es inyectiva. Es decir: Si T es inyectiva y A es Linealmente Independiente, T (A) es
Linealmente Independiente.
Las matrices asociadas a Transformaciones Lineales inyectivas tienen sus columnas
Linealmente Independientes.
Si Dim(V ) > Dim(W ), T no puede ser inyectiva.

5.3.2.

Epimorfismo(Sobreyectividad)

Epimorfismo
Una Transformaci
on lineal es sobreyectiva si y solo si:
Im(T ) = W

(5.4)

Las matrices asociadas a Transformaciones lineales sobreyectivas tienen sus filas Linealmente Independientes.
Si Dim(W ) > Dim(V ), T no puede ser sobreyectiva.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 22 de 45

5.4

Matriz asociada a una Transformaci


on lineal

5.3.3.

Isomorfismo(Biyectividad)

Biyectividad
Una Transformaci
on lineal es biyectiva si y solo si:
Dim(W ) = Dim(V )

(5.5)

Nul(T ) = {0V }

(5.6)

Es decir, si es Inyectiva y Sobreyectiva a la vez.


T es biyectiva si {v1 , . . . , vn } es base de V {T (v1 ), . . . , T (vn )} es base de W
La matriz asociada a una Transformaci
on lineal biyectiva tiene sus filas y columnas
Linealmente Independientes, o sea que es una matriz inversible, es decir, existe una
transformaci
on lineal inversa T 1 = [T ]1
Si Dim(V ) = Dim(W ), entonces o bien T es inyectiva y sobreyectiva, o no es ninguna de
las dos.

5.4.

Matriz asociada a una Transformaci


on lineal
Matriz de la Transformaci
on lineal
Sea T `(VK , WK ), sea B = {v1 , . . . , vq } base de V y C = {w1 , . . . , wm } base de W .
Entonces T se puede escribir como T (x) = Ax, con A K mq tal que:

|
|
|
(5.7)
A = [T ]BC = CC (T (v1 )) CC (T (v2 )) . . . CC (T (vq ))
|
|
|
Dicha matriz posee las siguientes propiedades:
[T ]BC CB (v) = CC (T (v)) , v V
v Nul(T ) CB (v) Nul(A)
w Im(T ) CC (w) Col(A)
Dim(Im(T )) = rango (A)

Teorema para matrices de Transformaci


on lineal
Sean V y W K-espacios vectoriales (K = R o C). Sea T : V W .
Si B1 y B2 son bases ordenadas de V , y C1 y C2 son bases ordenadas de W , entonces:
rango ([T ]B1 C1 ) = rango ([T ]B2 C2 )

(5.8)

P
agina 23 de 45

Algebra
II (61.08 - 81.02) - Resumen

5.5

5.5.

Teorema fundamental de las Transformaciones lineales

Teorema fundamental de las Transformaciones lineales


Teorema fundamental de las Transformaciones lineales
Sea B = {v1 , . . . , vn } base de V y w1 , . . . , wn vectores de W . Entonces existe y es u
nica
la Transformaci
on lineal que verifica:
T (vi ) = wi , i = 1, . . . , n

(5.9)

Adem
as, dada una Transformaci
on lineal y un par de bases, existe una u
nica matriz
asociada.
La recproca tamben es verdadera: dada una matriz y un par de bases, existe una u
nica
Transformaci
on lineal asociada.

5.6.

Composici
on de Transformaciones lineales
Composici
on de Transformaciones lineales
Sea f `(V, W ) y g `(W, H) g f (V, H). Podemos
encontrar la siguientes propiedades:
Nul(f ) Nul(g f )

(5.10)

Im(g f ) Im(g)

(5.11)
Figura 5.1: Composicion

5.7.

Operadores lineales
Operadores lineales
Un operador lineal es una Transformacion lineal que va de un espacio en si mismo, se
escrbe como T `(V ) y cuenta con las siguientes propiedades:
Si T1 `(V ) y T2 `(V ), entonces T1 T2 `(V )
Si T `(V ), T n = T
| T {z. . . T}
n veces

Algebra
II (61.08 - 81.02) - Resumen

Pagina 24 de 45

6 Autovalores y Autovectores

6.
6.1.

Autovalores y Autovectores
Definiciones b
asicas
Definiciones b
asicas
Autovector: Un vector v 6= 0 es autovector de A K nn K | Av = v
Autoespacio: El autoespacio de A asociado a un autovalor es S (A) = Nul(A I)
Polinomio caracterstico: El polinomio caracterstico de una matriz A K nn es
pA () = |A I|, y tiene grado n. Si K = R el polinomio tiene a lo sumo n races. Si
K = C tiene exactamente n races.
Autovalor: Los autovalores de una matriz son las races de su polinomio caracterstico.
Espectro de una matriz: (A) = { K | es autovalor de A}.

6.2.

Autovalores complejos de matriz real


Autovalores complejos
Supongamos que v es un autovector de A Rnn asociado a = a+b con a, b R, b 6= 0.
Entonces v es tambien un autovector de A Rnn asociado a = a b.
En particular si {v1 , . . . , vn } es una base de S , entonces {v1 , . . . , vn } es una base de S

6.3.

Multiplicidad geom
etrica y algebr
aica de un Autovalor
Multiplicidad de Autovalores
Se define:
mg () = Dim(S (A))
.
ma () = n
umero de veces que aparece como raz del polinomio caracterstico.
Siempre se verifica que:
1 mg () ma ()

(6.1)

P
agina 25 de 45

Algebra
II (61.08 - 81.02) - Resumen

6.4

6.4.

Propiedades

Propiedades
Propiedades de Autovalores y Autovectores
Sea A K nn :
A es singular 0 es un autovalor de A mg (0) = nk rango (A) = k < n
Dos autovectores asociados a autovalores distintos son Linealmente Independientes
Si A K 2x2 , entonces pA () = 2 tr(A) + |A|
Si todas las filas o columnas de A sumas s, entonces s es autovalor de A.
Sea p(t) un polinomio de grado k. Si es autovalor de A, entonces se cumple que
p() es autovalor de p(A), y para cada autovalor de p(A) existe un autovalor
de A tal que p() = .
Si es autovalor de A:
es autovalor de AT

1 es autovalor de A1 y S1 A1 = S (A)
r es autovalor de r A
k es autovalor de Ak , con k N
+ r es autovalor de A + r I

6.5.

Autovalores y Autovectores de operadores lineales


Autovalores y Autovectores de Operadores lineales
T : VK VK . Un vector v 6= 0 es autovector de T T (v) = v, con autovalor de
T.
S (T ) = {x V | T (x) = x y autovalor de T } = Nul(T I). Si B es base de V y A
es la matriz de T en esa base, entonces:
(A) = (T )B base de V

(6.2)

x es autovector de T CB (x) es autovector de [T ]B = A

(6.3)

Se deducen las siguientes propiedades:


T (x) = x T n (x) = n x, n N
Si es autovalor de T , 1 es autovalor de T 1
Si h es un polinomio en K y T (x) = Ax, entonces:
[h(A)] = h[(A)]

(6.4)

Sh() h(A) = S (A)

(6.5)

T : VK VK es regular 0
/ (T )

Algebra
II (61.08 - 81.02) - Resumen

Pagina 26 de 45

6.6

Diagonalizaci
on

6.6.

Diagonalizaci
on
Diagonalizaci
on
Los siguientes enunciados son equivalentes para definir si A K nn es diagonalizable:
AD
una base de K n compuesta por autovectores de A
A tiene n autovalores Linealmente Independientes
mg () = ma () (A)
P invertible y D diagonal tal que:
A = P DP 1

(6.6)

Siendo P la matriz de autovectores y D la matriz diagonal de autovalores.

6.6.1.

Matrices trivialmente diagonalizables


Diagonalizaciones triviales
Matriz nula:
Autovalores: 0
Autovectores: Cualquier vector no nulo
Matriz identidad:
Autovalores: 1
Autovectores: Cualquier vector no nulo
Matriz diagonal:
Autovalores: aii , los elementos de la diagonal
Autovectores: Los que tienen sus componentes nulas, excepto la n-esima.
Matriz escalar:
Autovalores: k R
Autovectores: Cualquier vector no nulo
Matriz de proyecci
on:
Autovalores: 1 con ma (1) = mg (1) = Dim(S) y 0 con ma (0) = mg (0) =
Dim(S )
Autovectores: Los vectores de S asociados a 1 y los asociados a S a 0
Matriz de reflexi
on:
Autovalores: 1 con ma (1) = mg (1) = Dim(S) y -1 con ma (0) = mg (0) =
Dim(S )
Autovectores: Los vectores de S asociados a 1 y los asociados a S a -1

P
agina 27 de 45

Algebra
II (61.08 - 81.02) - Resumen

6.6

6.6.2.

Diagonalizaci
on

Propiedades
Propiedades de la diagonalizaci
on
n
Si A es diagonalizable entonces An es diagonalizable (DA
= DAn y (An ) = n (A)).
La recproca es falsa

Si A C nn tiene n autovalores distintos entonces A es diagonalizable. La recproca


es falsa
|A| =

n
Y

i = pA (0)

i=1

tr(A) =

n
X

i=1

6.6.3.

Diagonalizaci
on de transformaciones lineales
Diagonalizaci
on de Transformaciones Lineales

Los siguientes enunciados son equivalentes para decir que T `(VK ) con Dim(VK ) = n,
es diagonalizable:
B base de VK tal que [T ]B es diagonal
B base de VK formada por autovectores de T
T tiene n autovectores Linealmente Independientes
Esa base B y [T ]B = diag((T )).
Si A = [T ]H , H cualquiera base, entonces T es diagonalizable si y solo si A es diagonalizable.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 28 de 45

7 Matrices hermticas y simetricas

7.

7.1.

Matrices hermticas y sim


etricas

Diagonalizaci
on

Matriz antisimetrica
Matriz antisim
etrica: Si A Rnn es antisimetrica (AT = A) entonces:
Los autovalores de A son imaginarios puros o nulos
Los autovectores asociados a autovalores distintos son ortogonales
A es diagonalizable unitariamente.

Matriz simetrica(hermtica)
Matriz sim
etrica(hermtica): Si A Rnn es simetrica (B C nn es hermtica) si y
solo si:
A es diagonalizable ortogonalmente:
A = P DP T

(7.1)

B = P DP H

(7.2)

B es diagonalizable unitariamente:

Con D real.
Se deducen las siguientes propiedades:
A y B tienen n autovalores reales
Los elementos de la diagonal de A y B son reales
|A| R
Dim(S (A)) = ma () (A)
Dim(S (B)) = ma () (B)
Los autovectores asociados a autovalores distintos son ortogonales

P
agina 29 de 45

Algebra
II (61.08 - 81.02) - Resumen

7.2

Descomposicion espectral

Matriz ortogonal(unitaria)
Matriz ortogonal(unitaria): Si A Rnn es ortogonal (B C nn es unitaria) si y
solo si:
AAT = AT A = Id
T

A =A

(7.3)

BB H = B H B = Id

(7.4)

=B

(7.5) Las
(7.6)

columnas de A y B son Base Ortonormal de Rn y C n respectivamente.


Se deducen las siguientes propiedades:
|A| = 1. Si |A| = 1, A es la matriz de rotacion
Los autovalores tienen m
odulo 1 y pueden ser reales o complejos
Son matrices unitariamente diagonalizables
Los autovectores asociados a autovalores distintos son ortogonales
Preservan los productos internos: (Ax, Ay) = (x, y)
Preservan las normas asociadas al producto interno: |Ax| = |x|
Si C es unitaria, BC y CB son unitarias tambien.

7.2.

Descomposici
on espectral

Descomposici
on espectral de matrices simetricas
Si A = P DP 1 = P DP T , las columnas de P son autovectores ortonormales u1 , . . . , un de
A y los autovalores correspondientes 1 , . . . , n estan en la matriz diagonal D. Entonces:
A=

n
X

i ui uTi

(7.7)

i=1

Algebra
II (61.08 - 81.02) - Resumen

Pagina 30 de 45

7.3

7.3.

Subespacios invariantes por una transformacion lineal

Subespacios invariantes por una transformaci


on lineal
Subespacios invariantes por una transformacion lineal
S K n es invariante por A K nn x S | Ax S
S V es invariante por T `(V ) x S | T (x) S
Se deducen las siguientes propiedades:
Si es autovalor de T , entonces S (T ) es un subespacio invariante por T , puesto
que:
x S (T ) T (x) = x S (T )

(7.8)

No todo subespacio invariante es un autoespacio de T , pero s los de dimension 1

P
agina 31 de 45

Algebra
II (61.08 - 81.02) - Resumen

8 Formas cuadr
aticas

8.

Formas cuadr
aticas

Formas cuadr
aticas
Una forma cuadr
atica en Rn es una funcion Q : Rn R tal que:
Q(x) = xT Ax

(8.1)

Donde A es una matriz simetrica Rnn .

Teorema de los ejes principales


Sea A una matriz simetrica Rnn . Entonces existe un cambio ortogonal de variable,
x = P y, donde P es una matriz ortogonal tal que |P | = +1 e y es el nuevo vector,
que transforma la forma cuadr
atica xT Ax a una forma cuadratica yT Dy sin terminos
cruzados:
T

T
xT Ax = (P y) A (P y) = yT P
AP} y = yT Dy = g(y)
| {z

(8.2)

Perspectiva geometrica de los ejes principales


Sea la forma cuadr
atica Q(x) = xT Ax, con A = P DP T .
El conjunto de todas las x Rn | xT Ax = c es una elipse, una hiperbola, dos rectas, un
punto o ninguno.
Si A es diagonal, la gr
afica est
a en posicion estandar. Si A no es diagonal, la grafica
est
a girada hasta salirse de la posici
on estandar. Los ejes principales son los autovectores
de A y son el nuevo sistema de coordenadas para los cuales la grafica esta en posicion
est
andar.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 32 de 45

8.1

8.1.

Clasificaci
on

Clasificaci
on
Clasificaci
on de las formas cuadr
aticas
Una forma cuadr
atica Q(x) = xT Ax es:
Definici
on

Criterio I

Criterio II

Definida positiva

Q(x) > 0,
x 6= 0

a11 > 0,
|A| > 0

Autovalores de A positivos

Semidefinida positiva

Q(x) 0,
x

|Ak | 0,
k = 1, . . . , n

Autovalores de A positivos o nulos

Definida negativa

Q(x) < 0,
x 6= 0

a11 < 0,
|A| > 0

Autovalores de A negativos

Semidefinida negativa

Q(x) 0,
x

|Ak | 0,
k = 1, . . . , n

Autovalores de A negativos o nulos

Indefinida

Q(x)  0

Autovalores de A negativos y/o positivos

8.2.

Optimizaci
on restringida
Teorema de Rayleigh
Sea la forma cuadr
atica Q(x) = xT Ax, con A simetrica. Se verifica:
min (A)

Q(x)
max (A)
k x k2

(8.3)

Sea extremar una forma cuadr


atica f : Rn R, f (x) = xT Ax, (A simetrica), sujeto a
la restricci
on |x| = .
El m
aximo de f es max (A)2 y se alcanza en M = {x Smax (A) | |x| = }
El mnimo de f es min (A)2 y se alcanza en m = {x Smin (A) | |x| = }
Sea extremar una forma cuadr
atica f : Rn R, f (x) = xT Ax,(A simetrica), sujeto a
T
2
la restricci
on x Bx = , y sea B definida q
positiva tal que B = PB DB PBT . Mediante
p
1
el cambio de variable y = DB PBT x x = DB
PB y, esto es equivalente a extremar
q

q
T
1
1
g(y) = yT
DB
PBT APB DB
y sujeto a la restriccion |y| = . Entonces:
M
ax g(y) = Max f (x)

(8.4)

mn g(y) = mn f (x)

(8.5)

Los x en donde se alcanza ese extremo se hallan realizando x = PB y

P
agina 33 de 45

Algebra
II (61.08 - 81.02) - Resumen

9 Descomposicion en Valores Singulares (DVS)

9.
9.1.

Descomposici
on en Valores Singulares (DVS)
Definici
on
Descomposici
on en Valores Singulares (DVS)
Valores singulares: Se define como:
V S(A) =

i , i (AT A)

(9.1)

Sea A una matriz de m n con rango r. Entonces existe una matriz , y existen una
matriz U ortogonal de m m y una matriz V ortogonal de n n tales que A = U V T
donde:


D 0
Rmn es tal que =
, y la matriz diagonal D tiene como elementos
0 0
a los primeros r valores singulares de AT A, ordenados en forma descendente i
. . . r > 0.
V Rnn es una matriz cuyas columnas son unas Base Ortonormal (BON) de
autovectores {v1 , . . . , vn } asociados a los autovalores de AT A.
Avr
Av1
,...,
.
1
r
Las otras columnas se obtienen completando la Base Ortonormal (BON) de Rm .
Las columnas de U son autovectores de AAT
U Rmm es una matriz cuyas primeras r columnas son los vectores

9.2.

Subespacios de las DVS


Subespacios de la DVS
Sea A K mn :

|
A = u1
|
|

D . . .
|

. . . um ... . . .
|
0
{z
} | 0 {z

mm

mn

0 |

0 v1
0 | |
}

T
|
. . . vn
|
{z
}

(9.2)

nn

Si rango (A) = r entonces:


BON de Col(A)

z
}|
{
{ u1 , . . . , ur , ur+1 , . . . , um }
| {z }

(9.3)

BON de Col(A)

BON de Fil(A)

z
}|
{
{ v1 , . . . , vr , vr+1 , . . . , vm }
| {z }

(9.4)

BON de Fil(A)

Algebra
II (61.08 - 81.02) - Resumen

Pagina 34 de 45

9.3

9.3.

Propiedades de las DVS

Propiedades de las DVS


Propiedades de la DVS

rango (A) = rango () = rango T = #V S(A)>0
A Rnn es inversible A tiene n V S positivos
V S(A)>0 = V S(AT )>0
Si A Rnn |A| =

n
Y

V Si (A)

i=1

Si A es cuadrada y definida positiva (A) = V S(A)


Si A B V S(A) = V S(B)
Si B es ortogonal A, AB y BA tienen los mismos valores singulares
Si A es cuadrada y simetrica V Si (a) = |i (A)|
Si las filas de A son una Base Ortonormal (BON), los valores singulares no nulos de
A son 1
Si las columnas de A son una Base Ortonormal (BON), los valores singulares de A
son 1
La matriz AT A (Matriz de Gram de A) es siempre simetrica y semidefinida positiva,
con lo cual nunca tendr
a valores singulares negativos. Sera definida positiva cuando
A tenga columnas Linealmente Independientes.
Sea T : Rm Rn una transformacion lineal tal que T (x) = Ax. Sea la forma
cuadr
atica f (x) = |T (x)|2 = xT (AT A)x. Entonces:

El m
aximo de f (x) sujeto a |x| = 1 es max AT A . Entonces el maximo de

|T (x)| es V Smax (A) y se alcanza en M = {x Rm | x Smax AT A , |x| = 1}

El mnimo de f (x) sujeto a |x| = 1 es min AT A . Entonces el mnimo de

|T (x)| es V Smin (A) y se alcanza en m = {x Rm | x Smin AT A , |x| = 1}

9.4.

DVS reducida y Pseudoinversa


DVS reducida
Sea A Rnm . Si A = U V T y rango (A) = r. Entonces una Descomposicion en Valores
Singulares reducida (DVSr) de A es:
A = Ur r VrT

(9.5)

Siendo Ur Rnr ,r Rrr ,VrT Rrm

P
agina 35 de 45

Algebra
II (61.08 - 81.02) - Resumen

9.4

DVS reducida y Pseudoinversa

Pseudoinversa de Moore-Penrose
Se define la pseudoinversa de Moore-Pensore como:
T
A+ = Vr 1
r Ur

(9.6)

Sea A Rnm , se deducen las siguientes propiedades:


A+ = A# cuando rango (A) = m
A+ A = Vr VrT = PFil(A)
AA+ = Ur UrT = PCol(A)

Algebra
II (61.08 - 81.02) - Resumen

Pagina 36 de 45

10 Ecuaciones diferenciales

10.

Ecuaciones diferenciales

10.1.

Wronskiano
Matriz de Wronski

Sea A = {f1 , . . . , fq } funciones definidas en un invervalo I R, a valores en C, con


derivada hasta el orden q 1 continua en I. La matriz de Wronski de A es,para cada
xI

...
fq (x)
f1 (x)
0
0
f1 (x)
...
fq (x)
00

00
f1 (x)
.
.
.
f
q (x)
(10.1)
MwA (x) =

..
..

.
.
(q1)

f1

(x) . . .

fq(q1) (x)

Se define al Wronskiano como:



f1 (x)
0
f1 (x)
00

wA (x) = |MwA | = f1 (x)
..


.
(q1)
f
(x)
1

...
...
...
...











(q1)
f
(x)
fq (x)
fq0 (x)
fq00 (x)
..
.

(10.2)

Se deducen las siguientes propiedades:


Si existe un x0 I tal que wA (x0 ) 6= 0, entonces las funciones f1 , . . . , fq son
Linealmente Independientes
Si un conjunto es Linealmente Dependiente en I, su wronskiano es la funcion nula.
La recproca es falsa; es verdadera solo si las funciones que componen el wronskiano
son soluciones de una Ecuaci
on Diferencial lineal de orden superior
La derivada del wronskiano es el determinante obtenido derivando la u
ltima fila.
La derivada del wronskiano es la suma de q determinantes.

10.2.

Identidad de Abel
Identidad de Abel

Sea la ecuaci
on diferencial y(x)(n) + an1 y(x)(n1) + . . . + a1 y 0 (x) + a0 y(x) = 0
en un intervalo I R, sea S = {y1 , . . . , yn } el conjunto de las soluciones de la ecuacion
diferencial, y sea Ws el Wronskiano de este conjunto. Entonces se verifica que:
Ws0 (x) = an1 Ws (x)

(10.3)

P
agina 37 de 45

Algebra
II (61.08 - 81.02) - Resumen

10.3

10.3.

Existencia y unicidad de Problemas de Valores Iniciales (PVI)

Existencia y unicidad de Problemas de Valores Iniciales (PVI)


Problemas de Valores Iniciales

Sea el problema an y(x)(n) + an1 y(x)(n1) + . . . + a1 y 0 (x) + a0 y(x) = f (x) sujeto a


la condici
on inigial y(x0 ) = y0 . La condicion de existencia y unicidad de la solucion del
problema de valores iniciales es:
Ecuaci
on diferencial normal en I : an 6= 0, x I
x0 I

(10.4)
(10.5)

10.4.

Variables separables
Variables separables

Ecuacion diferencial

f (x)
g(y)
dy
f (x)
=
dx
g(y)
g(y)dy = f (x)dx

Derivada con diferenciales

G(y) = F (x) + c

Integro

y 0 (x) =

Separo las variables

10.5.

Lineales de 1er orden


Lineales de 1er orden

Obtenemos primero la soluci


on general de la homogenea yH y luego una particular de la
no homogenea yP . La soluci
on buscada sera yG = yH + yP
La soluci
on de la ecuaci
on homogenea Rasociada a y 0 = p(x)y = 0 es de variables
separables, una soluci
on es yH (x) = e p(x)dx
La soluci
on no homogenea se obtiene multiplicando toda la ecuacion por el factor
integrante de Lagrange:
u(v) = e

p(x)dx

(10.6)

Y la ecuaci
on a resolver ser
a [u(v) y(x)]0 = u(v) q(x)

Algebra
II (61.08 - 81.02) - Resumen

Pagina 38 de 45

10.6

Diferencial exacta

10.6.

Diferencial exacta

Diferencial exacta
Son del tipo P (x, y)dx + Q(x, y)dy = 0.
Es diferencial exacta si existe f (x, y) tal que df = P (x, y)dx + Q(x, y)dy, es decir si:
df
= P (x, y)
dx
df
= Q(x, y)
dy

(10.7)
(10.8)

En ese caso, la soluci


on general es f (x, y) = C. Se cumple que la ecuacion anterior es
dQ
dP
=
diferencial exacta si y solo si
dy
dx
Se dice adem
as que (x, y) es un factor integrante de la ecuacion P (x, y)dx+Q(x, y)dy = 0
si al multiplicar la ecuaci
on por (x, y) la ecuacion resulta diferencial exacta.

10.7.

Lineales homog
eneas de orden superior con coeficientes constantes

Lineales homogeneas de orden superior con coeficientes constantes

Son del tipo

n
X

ai y (i) (t) = 0, t I.

i=0

Polinomio caracterstico: p() =

n
X

ai ni

i=0

Espectro de la ecuaci
on diferencial: (p) = { C | p() = 0}
yH (t) = tk et es una soluci
on de la Ecuacion diferencial si (p), con multiplicidad
m, k = 0, 1, . . . , m 1
Si la ecuaci
on diferencial es de coeficientes reales, las races del polinomio caracterstico
aparecer
an conjugadas. Es decir: 1,2 = .Luego:
y1 (t) = et (cos(t) + sin(t))
y2 (t) = et (cos(t) sin(t))
Entonces, gen{y1 , y2 } = gen{et cos(t), et sin(t)}

P
agina 39 de 45

Algebra
II (61.08 - 81.02) - Resumen

10.8

10.8.

Lineales no homogeneas de orden superior con coeficientes constantes

Lineales no homog
eneas de orden superior con coeficientes constantes
Lineales no homogeneas de orden superior con coeficientes constantes

Son del tipo

n
X

ai y (i) (t) = f (x).

i=0

La soluci
on es de la forma yG (x) = yH (x) + yP (x), donde yH (x) se obtiene del caso
anterior, e yP (x) se obtiene mediante algunos de estos metodos:
M
etodo de variaci
on de par
ametros: Aplicable en cualquier caso.
n
X
yP (t) =
ui (x) yi (x), siendo yi (x) las soluciones de yH (x), y ui (x) las funciones
i=1

que satisfacen:

y1
y10
..
.
(n)

y1

y2
y20
..
.

...
...
..
.

(n)

...

y2

0
u01

u02 0
.
.. = ..

.
f (x)
0
(n)
un
yn
an
yn
yn0
..
.

(10.9)

M
etodo de coeficientes indeterminados: Aplicable cuando f (x) es exponencial,
polin
omica o trigonometrica.
k
X
Siendo a2 y 00 (t) + a1 y 0 (t) + a0 y(t) = f (x), con f (x) =
pi (x) emi x , yP (t) =
i=1
k
X

qi (x) emi x

i=1

Si emk x no es soluci
on de la Ecuacion diferencial ordinaria homogenea asociada
(i.e. mk no es soluci
on de a2 2 + a1 + a0 =), qk es un polinomio de grado pk
con coeficientes a determinar
Si emk x si es soluci
on de la Ecuacion diferencial ordinaria homogenea asociada
(i.e. mk no es soluci
on de a2 2 + a1 + a0 =), qk es un polinomio de un grado
mayor que pk con coeficientes a determinar
Una vez armada la yP (t) se reemplaza en la ecuacion diferencial original, e
igualando los terminos semejantes se hallan los coeficientes indeterminados.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 40 de 45

11 Sistemas de Ecuaciones diferenciales lineales

11.

Sistemas de Ecuaciones diferenciales lineales

(
x0 (t) = a11 x + a12 y + b1
y 0 (t) = a21 x + a22 y + b2

11.1.

 0 
a
x
= 11
y0
a21

a12
a22

   
x
b
+ 1 X 0 = AX + B
y
b2

Sistemas homog
eneos con A diagonalizable

Sistemas homogeneos con A diagonalizable


La soluci
on de X 0 = AX + B, (A K nn , con i autovalor de A y vi autovector de A
asociado a i ,es:
c

1
n
|
|
X
i t
1 t
n t ..

X=
(11.1)
ci vi e = v1 e
. . . vn e
.
i=1
|
|
c
n
|
{z
} | {z
}
nn
(t)K

11.2.

Sistemas no homog
eneos con A diagonalizable

Sistemas no homogeneos con A no diagonalizable


Sea el sistema X 0 = AX + B. La soluci
on es XG = XH + XP con:
XH =

n
X

ci vi ei t = (t)C

i=1

XP = (t) u(t), siendo u(t) tal que (t) u0 (t) = B

P
agina 41 de 45

Algebra
II (61.08 - 81.02) - Resumen

11.3

11.3.

Sistemas homogeneos con A no diagonalizable

Sistemas homog
eneos con A no diagonalizable

Sistemas no homogeneos con A diagonalizable


Sea el sistema X 0 = AX. Con A no diagonalizable, proponemos una factorizacion de la
forma A = P JP 1 , donde J C nn es la matriz de Jordan de A que tiene la siguiente
estructura en bloques:

J1 0
0
0
0 J2 0
0

(11.2)
J = .
.
.
..
.. 0
..

0
0 . . . Jl
Donde cada bloque Ji es una matriz de ki ki

i 1
0 i

Ji = .
..
..
.
0

de la forma:

0
0
1
0

..
. 1
...

(11.3)

Para alg
un autovalor i de A.
Dado un autovalor i , su multiplicidad geometrica es el n
umero de bloques de Jordan
correspondientes a i , y su multiplicidad algebraica es la suma de los tama
nos de los
bloques correspondientes a ese autovalor.
0
1
0
Luego: X 0 = AX X=PY
P Y = P JP P Y Y = JY . Resolvemos este sistema y la
soluci
on general del problema se expresara como X(t) = P Y (t)

Sistemas no homogeneos con A R22 no diagonalizable


A necesariamente posee un autovalor doble R de multiplicidad geometrica 1, con lo
cual la matriz J posee un solo bloque correspondiente a :


1
J=
(11.4)
0
Respecto de la matriz P = [v1 , v2 ] debe ser inversible y AP = P J. La matriz P se
obtiene hallando un par de vectores v1 y v2 Linealmente Independientes que satisfagan
las condiciones (A I) v1 = 0 y (A I) v2 = v1 . Observamos que v1 es autovector de
A asociado a

Algebra
II (61.08 - 81.02) - Resumen

Pagina 42 de 45

11.3

Sistemas homogeneos con A no diagonalizable

Sistemas no homogeneos con A R33 no diagonalizable


1. A tiene un autovalor triple R de multiplicidad geometrica 1. En este caso:

1 0
J = 0 1
(11.5)
0 0
Respecto de P = [v1 , v2 , v3 ], estos autovectores deben ser Linealmente independientes y satisfacer las condiciones:
(A I) v1 = 0

(11.6)

(A I) v2 = v1

(11.7)

(A I) v3 = v2

(11.8)

Observemos que v1 es autovector de A asociado a


2. A tiene un autovalor triple R de multiplicidad geometrica 2. En este caso:

1 0
(11.9)
J = 0 0
0 0
Respecto de P = [v1 , v2 , v3 ], estos autovectores deben ser Linealmente independientes y satisfacer las condiciones:
(A I) v1 = 0

(11.10)

(A I) v2 = v1

(11.11)

(A I) v3 = 0

(11.12)

Observemos que v1 y v3 son autovectores de A asociados a


3. A tiene un autovalor doble R de multiplicidad geometrica 1 y un autovalor
R simple. En este caso J debe tener dos bloques de Jordan

1 0
J = 0 0
(11.13)
0 0
Respecto de P = [v1 , v2 , v3 ], estos autovectores deben ser Linealmente independientes y satisfacer las condiciones:
(A I) v1 = 0

(11.14)

(A I) v2 = v1

(11.15)

(A I) v3 = 0

(11.16)

Observemos que v1 y v3 son autovectores de A asociados a y respectivamente.

P
agina 43 de 45

Algebra
II (61.08 - 81.02) - Resumen

COLABORADORES

Colaboradores
Quienes se mencionan a continuaci
on han colaborado y aportado tanto al proyecto FIUBA Apuntes como
en este apunte, redact
andolo, corrigiendolo, agregando graficos, etc.
Mara Ines Parnisari (maineparnisari@gmail.com)
Martn Menendez (menendez91@live.com.ar)

Queres colaborar en el proyecto? Conoce mas sobre el proyecto en fiuba-apuntes.github.io.

Algebra
II (61.08 - 81.02) - Resumen

Pagina 44 de 45

HISTORIAL DE CAMBIOS

Historial de cambios
29/12/2014 Versi
on inicial

P
agina 45 de 45

Algebra
II (61.08 - 81.02) - Resumen

Вам также может понравиться