Академический Документы
Профессиональный Документы
Культура Документы
II (61.08 - 81.02)
Resumen
fiuba-apuntes.github.io
INDICE
Indice
Sobre el proyecto
1. Matrices
1.1. Propiedades generales . . . . . . . . .
1.2. Propiedades de la inversa, la traza y la
1.3. Propiedades de los determinantes . . .
1.4. Subespacios fila, columna y null . . . .
. . . . . . .
traspuesta
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2. Espacios vectoriales
2.1. Propiedades de los subespacios .
2.2. Independencia lineal . . . . . . .
2.3. Operaciones con subespacios . . .
2.4. Bases . . . . . . . . . . . . . . .
2.5. Coordenadas de un vector en una
2.6. Matriz de cambio de base . . . .
2.7. Teorema de la dimensi
on . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
. 8
. 8
. 9
. 9
. 9
. 10
. 10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
11
13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
15
16
16
17
17
18
18
19
20
20
5. Transformaciones lineales
5.1. Condiciones para las Transformaciones lineales . . . .
5.2. N
ucleo e Im
agen . . . . . . . . . . . . . . . . . . . . .
5.3. Clasificaci
on de las Transformaciones lineales . . . . .
5.3.1. Monomorfismo(Inyectividad) . . . . . . . . . .
5.3.2. Epimorfismo(Sobreyectividad) . . . . . . . . . .
5.3.3. Isomorfismo(Biyectividad) . . . . . . . . . . . .
5.4. Matriz asociada a una Transformaci
on lineal . . . . . .
5.5. Teorema fundamental de las Transformaciones lineales
5.6. Composici
on de Transformaciones lineales . . . . . . .
5.7. Operadores lineales . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
22
22
22
23
23
24
24
24
6. Autovalores y Autovectores
6.1. Definiciones b
asicas . . . . . . . . . . . . . . . . . . . .
6.2. Autovalores complejos de matriz real . . . . . . . . . .
6.3. Multiplicidad geometrica y algebr
aica de un Autovalor
6.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . .
6.5. Autovalores y Autovectores de operadores lineales . .
6.6. Diagonalizaci
on . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
25
26
26
27
3. Producto interno
3.1. Axiomas . . . . . . . . . . .
3.2. Producto interno can
onico .
3.3. Definiciones . . . . . . . . .
3.4. Matriz asociada al producto
P
agina 1 de 45
. . .
. . .
. . .
. . .
base
. . .
. . .
. . . . .
. . . . .
. . . . .
interno
.
.
.
.
4
4
4
5
5
Algebra
II (61.08 - 81.02) - Resumen
INDICE
29
29
30
31
8. Formas cuadr
aticas
32
8.1. Clasificaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.2. Optimizaci
on restringida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
9. Descomposici
on en Valores Singulares (DVS)
9.1. Definici
on . . . . . . . . . . . . . . . . . . . . .
9.2. Subespacios de las DVS . . . . . . . . . . . . .
9.3. Propiedades de las DVS . . . . . . . . . . . . .
9.4. DVS reducida y Pseudoinversa . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
34
34
34
35
35
10.Ecuaciones diferenciales
10.1. Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.2. Identidad de Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3. Existencia y unicidad de Problemas de Valores Iniciales (PVI) . . . . .
10.4. Variables separables . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.5. Lineales de 1er orden . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.6. Diferencial exacta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7. Lineales homogeneas de orden superior con coeficientes constantes . .
10.8. Lineales no homogeneas de orden superior con coeficientes constantes .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
37
38
38
38
39
39
40
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
44
Historial de cambios
45
Algebra
II (61.08 - 81.02) - Resumen
Pagina 2 de 45
SOBRE EL PROYECTO
Sobre el proyecto
FIUBA Apuntes naci
o con el objetivo de digitalizar los apuntes de las materias que andan rondando por los
pasillos de FIUBA.
Adem
as, queremos que cualquier persona sea libre de usarlos, corregirlos y mejorarlos.
Encontrar
as m
as informaci
on sobre el proyecto o mas apuntes en fiuba-apuntes.github.io.
Por qu
e usamos LaTeX?
LaTeX es un sistema de composici
on de textos que genera documentos con alta calidad tipografica, posibilidad de representaci
on de ecuaciones y f
ormulas matematicas. Su enfoque es centrarse exclusivamente en el
contenido sin tener que preocuparse demasiado en el formato.
LaTeX es libre, por lo que existen multitud de utilidades y herramientas para su uso, se dispone de mucha
documentaci
on que ayuda al enriquecimiento del estilo final del documento sin demasiado esfuerzo.
Esta herramienta es muy utilizado en el
ambito cientfico, para la publicacion de papers, tesis u otros
documentos. Incluso, en FIUBA, es utilizado para crear los enunciados de examenes y apuntes oficiales de
algunos cursos.
Por qu
e usamos Git?
Git es un software de control de versiones de archivos de codigo fuente desde el cual cualquiera puede obtener
una copia de un repositorio, poder realizar aportes tanto realizando commits o como realizando forks para ser
unidos al repositorio principal.
Su uso es relativamente sencillo y su filosofa colaborativa permite que se sumen colaboradores a un proyecto
f
acilmente.
GitHub es una plataforma que, adem
as de ofrecer los repositorios git, ofrece funcionalidades adicionales muy
interesantes como gestor de reporte de errores.
P
agina 3 de 45
Algebra
II (61.08 - 81.02) - Resumen
1 Matrices
1.
1.1.
Matrices
Propiedades generales
Propiedades de matrices
Dadas las matrices A, B, C se tiene que:
A+B =B+A
A + (A) = 0n
A + (B + C) = (A + B) + C
A(B + C) = AB + AC
(A + B) = A + B
(A + B)C = AC + BC
( + )A = A + A
A(BC) = (AB)C
(A) = ()A
A + 0n = A
A0n = 0n
1.2.
Propiedades de matrices
Dadas las matrices A, B, C se tiene que:
Propiedades de la inversa:
1
A1
Propiedades de la traza:
1
=B
(AB)
(A)
0
(An )
A1 =
A1
, 6=
= A1
n
tr(A + B) = tr(A) +
tr(B)
tr(AB) = tr(BA)
tr(A) = tr(A)
tr(AT ) = tr(A)
adj(A)
|A|
Propiedades de la traspuesta:
T
(A + B)
BT
= AT +
(AB) = B T AT
T
AT
=A
T
(A) = AT
1
T
AT
= A1
Algebra
II (61.08 - 81.02) - Resumen
Pagina 4 de 45
1.3
1.3.
Propiedades de determinantes
Sean A, B Rnm
T
A = |A|
(1.1)
(1.2)
(1.3)
(1.4)
(1.5)
n
Y
aii
(1.6)
i=1
1.4.
P
agina 5 de 45
Algebra
II (61.08 - 81.02) - Resumen
1.4
(1.7)
(1.8)
Dim(Col(A)) = Dim(Fil(A))
O
Col(A)
Col(A) = Rn
O
Fil(A)
Fil(A) = Rm
(1.10)
(1.11)
(1.13)
(1.14)
(1.15)
(1.16)
(1.17)
Col(A)Col(B) A B = 0
(1.9)
(1.12)
(1.18)
Matrices equivalentes
Dos matrices A y B son equivalentes si existen otras dos matrices E y F regulares tal
que:
A = EBF
(1.19)
Dos matrices equivalentes pueden pensarse como dos descripciones de una misma Transformaci
on Lineal, pero con respecto a bases distintas.
Matrices semejantes
Dos matrices cuadradas A y B son semejantes (notamos A B) si y solo si existe una
matriz P inversible tal que:
B = P 1 AP ,o
(1.20)
(1.21)
A = P BP
Algebra
II (61.08 - 81.02) - Resumen
Pagina 6 de 45
1.4
(1.22)
tr(A) = tr(B)
(1.23)
(1.24)
pA () = pB () (A) = (B)
(1.25)
P
agina 7 de 45
Algebra
II (61.08 - 81.02) - Resumen
2 Espacios vectoriales
2.
2.1.
Espacios vectoriales
(2.1)
(X + Y ) S, X, Y V y K
(2.2)
2.2.
Independencia lineal
Combinaci
on lineal
El vector x es una combinaci
on lineal de v1 , v2 , . . . , vn si:
x=
n
X
i vi
(2.3)
i=1
Independencia lineal
x es linealmente independiente si:
n
X
i vi = 0 , y
(2.4)
ai = 0i
(2.5)
i=1
Algebra
II (61.08 - 81.02) - Resumen
Pagina 8 de 45
2.3
2.3.
Intersecci
on: S =
n
\
Si = {x V |x Si , i = 1, . . . , n}
i=1
Suma: S =
n
X
i=1
Si = gen
(m
[
)
Bi , donde Bi es una base de Si
i=1
Uni
on: S = S1 S2 es un subespacio cuando S1 S2 o S2 S1
Suma directa: S1 , . . . , Sk est
an en suma directa la union de sus bases es base
de V
Dos subespacios son suplementarios cuando estan en suma directa y su suma es todo
el espacio.
2.4.
Bases
Bases
Si Dim(V ) = n, {v1 , . . . , vn } es base de V si y solo si:
{v1 , . . . , vn } genera V
(2.6)
(2.7)
2.5.
n
X
i vi , entonces
i=1
CB (x) = (1 , . . . , n )
Dado un vector y una base, las coordenadas de ese vector en esa base son u
nicas.
v, w V y k K:
CB (v + w) = CB (v) + CB (w)
(2.8)
CB (k v) = k CB (v)
(2.9)
P
agina 9 de 45
Algebra
II (61.08 - 81.02) - Resumen
2.6
2.6.
|
|
|
CBC = CC (v1 ) CC (v2 ) . . . CC (vn )
(2.10)
|
|
|
|
|
|
1
CCB = CB (w1 ) CB (w2 ) . . . CB (wn ) = CBC
(2.11)
|
|
|
Si B y C son bases ortonormales, entonces CBC es una matriz ortogonal.
2.7.
Teorema de la dimensi
on
Teorema de la dimensi
on
Dados los subespacios S, H y T :
Dim(S + H) = Dim(S) + Dim(H) Dim(S H)
(2.12)
Dim(S + H + T ) = Dim(S) + Dim(H) + Dim(T ) Dim(S (H + T )) Dim(H T )
(2.13)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 10 de 45
3 Producto interno
3.
3.1.
Producto interno
Axiomas
Axiomas del producto interno
Sea <, >: VK VK R un producto interno:
1. (x, y) K y x, y V
2. (x, y) = (y, x) , x, y V
3. (x, y) = (x, y) , x, y V y K
4. (x, y) = (x, y) , x, y V y K
5. (x, y + z) = (x, y) + (x, z) , x, y, z V
6. (x, x) 0, (x, y) = 0 x = 0
3.2.
Z
Funciones complejas: PC [a, b] : (p, q) =
p(t)q(t)dt
a
3.3.
Definiciones
Ortogonalidad
Dados x, y:
(x, y) = 0 xy
(3.1)
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
P
agina 11 de 45
Algebra
II (61.08 - 81.02) - Resumen
3.3
Definiciones
norma de un vector
Se define la norma de un vector como:
2
|x| = (x, x)
(3.2)
La norma de un vector depende del producto interno, pero cumple las siguientes propiedades:
|x| Rx V
|x| 0 (|x| = 0 x = 0)
|k x| = |k| |x|
Desigualdad de Cauchy-Schwarz:
|(x, y)| |x| |y| , x, y VK
(3.3)
La igualdad se cumple si x k y
Desigualdad triangular:
|x + y| |x| + |y|
(3.4)
Teorema de pit
agoras: Si xy entonces:
2
|x + y| = |x| + |y|
(3.5)
(3.6)
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
Angulo
entre dos vectores
Dado x, y:
cos() =
(x, y)
|x| |y|
(3.7)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 12 de 45
3.4
Complemento ortogonal
Sea A VK A = {x VK |(x, y) = 0, y A}
Para el c
alculo del complemento ortogonal a un subespacio de dimension finita, alcanza
con exigir la ortogonalidad a un sistema de generadores
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
(3.8)
Los elementos pueden ser de cualquier espacio vectorial, se utilizaron vectores por comodidad.
3.4.
2
|v1 |
. . . (v1 , vk )
..
..
..
G=
(3.9)
.
.
.
(vk , v1 ) . . .
|vk |
(3.10)
(3.11)
=H
(3.12)
G es definida positiva
(3.13)
(3.14)
(3.15)
(3.16)
P
agina 13 de 45
Algebra
II (61.08 - 81.02) - Resumen
4.
4.1.
Propiedades de la proyecci
on
Propiedades de la proyecci
on
Sea S V yS su complemento ortogonal, entonces x V :
x = |{z}
u + |{z}
v = PS (x) + PS (x)
S
(4.1)
4.2.
Proyecci
on y reflexi
on
Proyecci
on y reflexi
on
Sea S un subespacio de V , y B = {v1 , . . . , vk } una base ortogonal (BOG) de S. Entonces
x V :
PS (x) =
k
X
(vi , x)
vi
(vi , vi )
i=1
(4.2)
RS (x) = 2PS (x) x = 2PS (x) PS (x) + PS (x) = PS (x) PS (x) = x 2PS (x)
(4.3)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 14 de 45
4.2
Proyecci
on y reflexi
on
4.2.1.
Proyecci
on y transformaciones lineales
(4.4)
(4.5)
Nul(PS ) = S
ci
on lineal es:
[PS ]B =
.
..
0
...
..
.
1
0
..
...
0
..
.
(4.6)
P
agina 15 de 45
Algebra
II (61.08 - 81.02) - Resumen
4.3
4.2.2.
Matriz de Householder
Reflexi
on y transformaciones lineales
(4.7)
(4.8)
T (v) = v, v S
1
... 0
..
.
.
.
.
1
[T ]B =
.
..
..
.
0
(4.9)
...
Nota: La matriz de un operador proyeccion en una Base Ortonormal (BON) es una matriz de proyeccion. En cualquiera
otra base, no lo es.
4.3.
Matriz de Householder
Propiedades de la proyecci
on
La matriz de reflexi
on sobre un subespacio de dimension n 1 que es ortogonal a un
vector w en un espacio de dimensi
on n se puede obtener mediante la expresion:
H = Id 2
w wT
wT w
(4.10)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 16 de 45
4.4
4.4.
Rotaciones en R3
Rotaciones en R3
Rotaciones en R3
Sea B = {v1 , v2 , v3 } una Base Ortonormal (BON) de R3 y sea T la rotacion grados
alrededor del eje vi :
1
0
0
Rotaci
on sobre v1 : [T ]B = 0 cos() sin()
(4.11)
0 sin() cos()
cos() 0 sin()
1
0
Rotaci
on sobre v2 : [T ]B = 0
(4.12)
sin() 0 cos()
cos() sin() 0
Rotaci
on sobre v3 : [T ]B = sin() cos() 0
(4.13)
0
0
1
(4.14)
4.5.
Proceso de Gram-Schmidt
Proceso de Gram-Schmidt
Dada una base {x1 , x2 , . . . , xp } para un subespacio W Rn defina:
1. v1 = x1
2. v2 = x2
3. vp = xp
x2 v1
v1
v1 v1
p1
X
xp vi
i=1
vi vi
vi
P
agina 17 de 45
Algebra
II (61.08 - 81.02) - Resumen
4.6
4.6.
Matrices de proyecci
on
Matrices de proyecci
on
Matriz de proyecci
on
Utilizando el producto interno can
onico de sobre K n , con K = R o K = C.
P K nn es una matriz de proyeccion si y solo si:
P2 = P
P
(4.15)
=P
(4.16)
entonces PS + PS = Id
Las columnas de P son una base del espacio sobre el cual proyectan
rango (P ) = tr(P )
det P 6= 0 si P 6= Id
Si P1 y P2 son matrices de proyeccion y P1 P2 = P2 P1 = 0, entonces P1 + P2 es
matriz de proyecci
on y rango (P1 + P2 ) = rango (P1 ) + rango (P2 )
Obtenci
on de la matriz de proyecci
on:
1. Sea Q una matriz cuyas columnas son una Base Ortonormal (BON) de S V .
Entonces la u
nica matriz de proyeccion sobre S es [PS ] = Q QT . La matriz de
proyecci
on sobre S es [PS ] = Id [PS ]
2. Sea B = {v1 , . . . , vq } una base de S, y A la matriz que tiene por columnas a
v1 , . . . , vq . Entonces la u
nica matriz de proyeccion sobre S se obtiene mediante
1 H
H
[PS ] = A A A
A = AA#
4.7.
Inversas y pseudoinversas
Propiedades de la pseudoinversa
Sea A K nq |rango (A) = q. La matriz pseudoinversa de A es A# = AH A
1
AH :
Si A es cuadrada invertible, A1 = A#
A# Rqn
A# A = Id(q)
AA# = [P ]Col(A)
Nul(AA# ) = [Col(A)]
Algebra
II (61.08 - 81.02) - Resumen
Pagina 18 de 45
4.8
4.8.
Cuadrados mnimos
Cuadrados mnimos
Cuadrados mnimos
Sea A K nq , x K q , b Rn . Si Ax = b tiene una solucion extra, entonces
q
b Col(A). Si b
/ Col(A), intentamos
hallar una solucion x K q(la solucion por cua Ax
b < Au b, u K
b) d(Au, b), u K q
d(Ax,
Ax
b (Son iguales si b Col(A))
Ecuaciones normales
= AT b = b
AT Ax
de
cuadrados
mnimos:
=P
=b
Ax
Col(A) (b) si y solo si:
Col(A)
Ax
Col(A)
b Ax
(4.17)
(4.18)
(4.19)
= AT b tiene
Si las columnas de A son linealmente dependientes, el sistema AT Ax
=x
p + x
n
infinitas soluciones, y estas son de la forma x
|{z}
Nul(A)
P
agina 19 de 45
Algebra
II (61.08 - 81.02) - Resumen
4.9
4.8.1.
Regresi
on lineal
Norma mnima
Pseudoinversa de Moore-Pensore
La soluci
on por cuadrados mnimos de norma mnima pertenece al espacio Fil(A)y se
obtiene como:
= A+ b
x
(4.20)
4.9.
Regresi
on lineal
Regresi
on lineal
Sean los puntos Pi = (xi , yi ) con i = 1, 2, . . . , n. La recta que mejor aproxima a los puntos
es:
y = 0 1 + 1 x
Y los coeficientes i se obtienen resolviendo el sistema:
1 x1
y1
1 x2
y2
0
..
.. = ..
.
.
1
.
1 xn
yn
(4.21)
(4.22)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 20 de 45
5 Transformaciones lineales
5.
Transformaciones lineales
5.1.
5.2.
N
ucleo e Im
agen
N
ucleo e Imagen
1
N
ucleo: Nul(T ) = {v VK | T (v) = 0W } = CB
(Nul(A)).
1
Im
agen: Im(T ) = {w WK | T (v) = w con v VK } = CC
(Col(A)).
Teorema de la dimensi
on
Sea T `(V, W ) y sea Dim(V ) = n (finita). Entonces:
Dim(V ) = Dim(Nul(T )) + Dim(Im(T ))
(5.1)
P
agina 21 de 45
Algebra
II (61.08 - 81.02) - Resumen
5.3
5.3.
Clasificaci
on de las Transformaciones lineales
5.3.1.
Monomorfismo(Inyectividad)
Monomorfismo
Una Transformaci
on lineal es inyectiva si verifica:
v1 6= v2 T (v1 ) 6= T (v2 ) , v1 , v2 V
(5.2)
(5.3)
Una Transformaci
on Lineal Inyectiva transforma conjuntos Linealmente Independientes
a conjuntos Linealmente Independientes.
La recproca tambien es cierta: si A es un conjunto Linealmente Independiente y es
transformado en otro conjunto Linealmente Independiente, la Transformacion Lineal
es inyectiva. Es decir: Si T es inyectiva y A es Linealmente Independiente, T (A) es
Linealmente Independiente.
Las matrices asociadas a Transformaciones Lineales inyectivas tienen sus columnas
Linealmente Independientes.
Si Dim(V ) > Dim(W ), T no puede ser inyectiva.
5.3.2.
Epimorfismo(Sobreyectividad)
Epimorfismo
Una Transformaci
on lineal es sobreyectiva si y solo si:
Im(T ) = W
(5.4)
Las matrices asociadas a Transformaciones lineales sobreyectivas tienen sus filas Linealmente Independientes.
Si Dim(W ) > Dim(V ), T no puede ser sobreyectiva.
Algebra
II (61.08 - 81.02) - Resumen
Pagina 22 de 45
5.4
5.3.3.
Isomorfismo(Biyectividad)
Biyectividad
Una Transformaci
on lineal es biyectiva si y solo si:
Dim(W ) = Dim(V )
(5.5)
Nul(T ) = {0V }
(5.6)
5.4.
|
|
|
(5.7)
A = [T ]BC = CC (T (v1 )) CC (T (v2 )) . . . CC (T (vq ))
|
|
|
Dicha matriz posee las siguientes propiedades:
[T ]BC CB (v) = CC (T (v)) , v V
v Nul(T ) CB (v) Nul(A)
w Im(T ) CC (w) Col(A)
Dim(Im(T )) = rango (A)
(5.8)
P
agina 23 de 45
Algebra
II (61.08 - 81.02) - Resumen
5.5
5.5.
(5.9)
Adem
as, dada una Transformaci
on lineal y un par de bases, existe una u
nica matriz
asociada.
La recproca tamben es verdadera: dada una matriz y un par de bases, existe una u
nica
Transformaci
on lineal asociada.
5.6.
Composici
on de Transformaciones lineales
Composici
on de Transformaciones lineales
Sea f `(V, W ) y g `(W, H) g f (V, H). Podemos
encontrar la siguientes propiedades:
Nul(f ) Nul(g f )
(5.10)
Im(g f ) Im(g)
(5.11)
Figura 5.1: Composicion
5.7.
Operadores lineales
Operadores lineales
Un operador lineal es una Transformacion lineal que va de un espacio en si mismo, se
escrbe como T `(V ) y cuenta con las siguientes propiedades:
Si T1 `(V ) y T2 `(V ), entonces T1 T2 `(V )
Si T `(V ), T n = T
| T {z. . . T}
n veces
Algebra
II (61.08 - 81.02) - Resumen
Pagina 24 de 45
6 Autovalores y Autovectores
6.
6.1.
Autovalores y Autovectores
Definiciones b
asicas
Definiciones b
asicas
Autovector: Un vector v 6= 0 es autovector de A K nn K | Av = v
Autoespacio: El autoespacio de A asociado a un autovalor es S (A) = Nul(A I)
Polinomio caracterstico: El polinomio caracterstico de una matriz A K nn es
pA () = |A I|, y tiene grado n. Si K = R el polinomio tiene a lo sumo n races. Si
K = C tiene exactamente n races.
Autovalor: Los autovalores de una matriz son las races de su polinomio caracterstico.
Espectro de una matriz: (A) = { K | es autovalor de A}.
6.2.
6.3.
Multiplicidad geom
etrica y algebr
aica de un Autovalor
Multiplicidad de Autovalores
Se define:
mg () = Dim(S (A))
.
ma () = n
umero de veces que aparece como raz del polinomio caracterstico.
Siempre se verifica que:
1 mg () ma ()
(6.1)
P
agina 25 de 45
Algebra
II (61.08 - 81.02) - Resumen
6.4
6.4.
Propiedades
Propiedades
Propiedades de Autovalores y Autovectores
Sea A K nn :
A es singular 0 es un autovalor de A mg (0) = nk rango (A) = k < n
Dos autovectores asociados a autovalores distintos son Linealmente Independientes
Si A K 2x2 , entonces pA () = 2 tr(A) + |A|
Si todas las filas o columnas de A sumas s, entonces s es autovalor de A.
Sea p(t) un polinomio de grado k. Si es autovalor de A, entonces se cumple que
p() es autovalor de p(A), y para cada autovalor de p(A) existe un autovalor
de A tal que p() = .
Si es autovalor de A:
es autovalor de AT
1 es autovalor de A1 y S1 A1 = S (A)
r es autovalor de r A
k es autovalor de Ak , con k N
+ r es autovalor de A + r I
6.5.
(6.2)
(6.3)
(6.4)
(6.5)
T : VK VK es regular 0
/ (T )
Algebra
II (61.08 - 81.02) - Resumen
Pagina 26 de 45
6.6
Diagonalizaci
on
6.6.
Diagonalizaci
on
Diagonalizaci
on
Los siguientes enunciados son equivalentes para definir si A K nn es diagonalizable:
AD
una base de K n compuesta por autovectores de A
A tiene n autovalores Linealmente Independientes
mg () = ma () (A)
P invertible y D diagonal tal que:
A = P DP 1
(6.6)
6.6.1.
P
agina 27 de 45
Algebra
II (61.08 - 81.02) - Resumen
6.6
6.6.2.
Diagonalizaci
on
Propiedades
Propiedades de la diagonalizaci
on
n
Si A es diagonalizable entonces An es diagonalizable (DA
= DAn y (An ) = n (A)).
La recproca es falsa
n
Y
i = pA (0)
i=1
tr(A) =
n
X
i=1
6.6.3.
Diagonalizaci
on de transformaciones lineales
Diagonalizaci
on de Transformaciones Lineales
Los siguientes enunciados son equivalentes para decir que T `(VK ) con Dim(VK ) = n,
es diagonalizable:
B base de VK tal que [T ]B es diagonal
B base de VK formada por autovectores de T
T tiene n autovectores Linealmente Independientes
Esa base B y [T ]B = diag((T )).
Si A = [T ]H , H cualquiera base, entonces T es diagonalizable si y solo si A es diagonalizable.
Algebra
II (61.08 - 81.02) - Resumen
Pagina 28 de 45
7.
7.1.
Diagonalizaci
on
Matriz antisimetrica
Matriz antisim
etrica: Si A Rnn es antisimetrica (AT = A) entonces:
Los autovalores de A son imaginarios puros o nulos
Los autovectores asociados a autovalores distintos son ortogonales
A es diagonalizable unitariamente.
Matriz simetrica(hermtica)
Matriz sim
etrica(hermtica): Si A Rnn es simetrica (B C nn es hermtica) si y
solo si:
A es diagonalizable ortogonalmente:
A = P DP T
(7.1)
B = P DP H
(7.2)
B es diagonalizable unitariamente:
Con D real.
Se deducen las siguientes propiedades:
A y B tienen n autovalores reales
Los elementos de la diagonal de A y B son reales
|A| R
Dim(S (A)) = ma () (A)
Dim(S (B)) = ma () (B)
Los autovectores asociados a autovalores distintos son ortogonales
P
agina 29 de 45
Algebra
II (61.08 - 81.02) - Resumen
7.2
Descomposicion espectral
Matriz ortogonal(unitaria)
Matriz ortogonal(unitaria): Si A Rnn es ortogonal (B C nn es unitaria) si y
solo si:
AAT = AT A = Id
T
A =A
(7.3)
BB H = B H B = Id
(7.4)
=B
(7.5) Las
(7.6)
7.2.
Descomposici
on espectral
Descomposici
on espectral de matrices simetricas
Si A = P DP 1 = P DP T , las columnas de P son autovectores ortonormales u1 , . . . , un de
A y los autovalores correspondientes 1 , . . . , n estan en la matriz diagonal D. Entonces:
A=
n
X
i ui uTi
(7.7)
i=1
Algebra
II (61.08 - 81.02) - Resumen
Pagina 30 de 45
7.3
7.3.
(7.8)
P
agina 31 de 45
Algebra
II (61.08 - 81.02) - Resumen
8 Formas cuadr
aticas
8.
Formas cuadr
aticas
Formas cuadr
aticas
Una forma cuadr
atica en Rn es una funcion Q : Rn R tal que:
Q(x) = xT Ax
(8.1)
T
xT Ax = (P y) A (P y) = yT P
AP} y = yT Dy = g(y)
| {z
(8.2)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 32 de 45
8.1
8.1.
Clasificaci
on
Clasificaci
on
Clasificaci
on de las formas cuadr
aticas
Una forma cuadr
atica Q(x) = xT Ax es:
Definici
on
Criterio I
Criterio II
Definida positiva
Q(x) > 0,
x 6= 0
a11 > 0,
|A| > 0
Autovalores de A positivos
Semidefinida positiva
Q(x) 0,
x
|Ak | 0,
k = 1, . . . , n
Definida negativa
Q(x) < 0,
x 6= 0
a11 < 0,
|A| > 0
Autovalores de A negativos
Semidefinida negativa
Q(x) 0,
x
|Ak | 0,
k = 1, . . . , n
Indefinida
Q(x) 0
8.2.
Optimizaci
on restringida
Teorema de Rayleigh
Sea la forma cuadr
atica Q(x) = xT Ax, con A simetrica. Se verifica:
min (A)
Q(x)
max (A)
k x k2
(8.3)
(8.4)
mn g(y) = mn f (x)
(8.5)
P
agina 33 de 45
Algebra
II (61.08 - 81.02) - Resumen
9.
9.1.
Descomposici
on en Valores Singulares (DVS)
Definici
on
Descomposici
on en Valores Singulares (DVS)
Valores singulares: Se define como:
V S(A) =
i , i (AT A)
(9.1)
Sea A una matriz de m n con rango r. Entonces existe una matriz , y existen una
matriz U ortogonal de m m y una matriz V ortogonal de n n tales que A = U V T
donde:
D 0
Rmn es tal que =
, y la matriz diagonal D tiene como elementos
0 0
a los primeros r valores singulares de AT A, ordenados en forma descendente i
. . . r > 0.
V Rnn es una matriz cuyas columnas son unas Base Ortonormal (BON) de
autovectores {v1 , . . . , vn } asociados a los autovalores de AT A.
Avr
Av1
,...,
.
1
r
Las otras columnas se obtienen completando la Base Ortonormal (BON) de Rm .
Las columnas de U son autovectores de AAT
U Rmm es una matriz cuyas primeras r columnas son los vectores
9.2.
|
A = u1
|
|
D . . .
|
. . . um ... . . .
|
0
{z
} | 0 {z
mm
mn
0 |
0 v1
0 | |
}
T
|
. . . vn
|
{z
}
(9.2)
nn
z
}|
{
{ u1 , . . . , ur , ur+1 , . . . , um }
| {z }
(9.3)
BON de Col(A)
BON de Fil(A)
z
}|
{
{ v1 , . . . , vr , vr+1 , . . . , vm }
| {z }
(9.4)
BON de Fil(A)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 34 de 45
9.3
9.3.
n
Y
V Si (A)
i=1
9.4.
(9.5)
P
agina 35 de 45
Algebra
II (61.08 - 81.02) - Resumen
9.4
Pseudoinversa de Moore-Penrose
Se define la pseudoinversa de Moore-Pensore como:
T
A+ = Vr 1
r Ur
(9.6)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 36 de 45
10 Ecuaciones diferenciales
10.
Ecuaciones diferenciales
10.1.
Wronskiano
Matriz de Wronski
...
fq (x)
f1 (x)
0
0
f1 (x)
...
fq (x)
00
00
f1 (x)
.
.
.
f
q (x)
(10.1)
MwA (x) =
..
..
.
.
(q1)
f1
(x) . . .
fq(q1) (x)
...
...
...
...
(q1)
f
(x)
fq (x)
fq0 (x)
fq00 (x)
..
.
(10.2)
10.2.
Identidad de Abel
Identidad de Abel
Sea la ecuaci
on diferencial y(x)(n) + an1 y(x)(n1) + . . . + a1 y 0 (x) + a0 y(x) = 0
en un intervalo I R, sea S = {y1 , . . . , yn } el conjunto de las soluciones de la ecuacion
diferencial, y sea Ws el Wronskiano de este conjunto. Entonces se verifica que:
Ws0 (x) = an1 Ws (x)
(10.3)
P
agina 37 de 45
Algebra
II (61.08 - 81.02) - Resumen
10.3
10.3.
(10.4)
(10.5)
10.4.
Variables separables
Variables separables
Ecuacion diferencial
f (x)
g(y)
dy
f (x)
=
dx
g(y)
g(y)dy = f (x)dx
G(y) = F (x) + c
Integro
y 0 (x) =
10.5.
p(x)dx
(10.6)
Y la ecuaci
on a resolver ser
a [u(v) y(x)]0 = u(v) q(x)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 38 de 45
10.6
Diferencial exacta
10.6.
Diferencial exacta
Diferencial exacta
Son del tipo P (x, y)dx + Q(x, y)dy = 0.
Es diferencial exacta si existe f (x, y) tal que df = P (x, y)dx + Q(x, y)dy, es decir si:
df
= P (x, y)
dx
df
= Q(x, y)
dy
(10.7)
(10.8)
10.7.
Lineales homog
eneas de orden superior con coeficientes constantes
n
X
ai y (i) (t) = 0, t I.
i=0
n
X
ai ni
i=0
Espectro de la ecuaci
on diferencial: (p) = { C | p() = 0}
yH (t) = tk et es una soluci
on de la Ecuacion diferencial si (p), con multiplicidad
m, k = 0, 1, . . . , m 1
Si la ecuaci
on diferencial es de coeficientes reales, las races del polinomio caracterstico
aparecer
an conjugadas. Es decir: 1,2 = .Luego:
y1 (t) = et (cos(t) + sin(t))
y2 (t) = et (cos(t) sin(t))
Entonces, gen{y1 , y2 } = gen{et cos(t), et sin(t)}
P
agina 39 de 45
Algebra
II (61.08 - 81.02) - Resumen
10.8
10.8.
Lineales no homog
eneas de orden superior con coeficientes constantes
Lineales no homogeneas de orden superior con coeficientes constantes
n
X
i=0
La soluci
on es de la forma yG (x) = yH (x) + yP (x), donde yH (x) se obtiene del caso
anterior, e yP (x) se obtiene mediante algunos de estos metodos:
M
etodo de variaci
on de par
ametros: Aplicable en cualquier caso.
n
X
yP (t) =
ui (x) yi (x), siendo yi (x) las soluciones de yH (x), y ui (x) las funciones
i=1
que satisfacen:
y1
y10
..
.
(n)
y1
y2
y20
..
.
...
...
..
.
(n)
...
y2
0
u01
u02 0
.
.. = ..
.
f (x)
0
(n)
un
yn
an
yn
yn0
..
.
(10.9)
M
etodo de coeficientes indeterminados: Aplicable cuando f (x) es exponencial,
polin
omica o trigonometrica.
k
X
Siendo a2 y 00 (t) + a1 y 0 (t) + a0 y(t) = f (x), con f (x) =
pi (x) emi x , yP (t) =
i=1
k
X
qi (x) emi x
i=1
Si emk x no es soluci
on de la Ecuacion diferencial ordinaria homogenea asociada
(i.e. mk no es soluci
on de a2 2 + a1 + a0 =), qk es un polinomio de grado pk
con coeficientes a determinar
Si emk x si es soluci
on de la Ecuacion diferencial ordinaria homogenea asociada
(i.e. mk no es soluci
on de a2 2 + a1 + a0 =), qk es un polinomio de un grado
mayor que pk con coeficientes a determinar
Una vez armada la yP (t) se reemplaza en la ecuacion diferencial original, e
igualando los terminos semejantes se hallan los coeficientes indeterminados.
Algebra
II (61.08 - 81.02) - Resumen
Pagina 40 de 45
11.
(
x0 (t) = a11 x + a12 y + b1
y 0 (t) = a21 x + a22 y + b2
11.1.
0
a
x
= 11
y0
a21
a12
a22
x
b
+ 1 X 0 = AX + B
y
b2
Sistemas homog
eneos con A diagonalizable
1
n
|
|
X
i t
1 t
n t ..
X=
(11.1)
ci vi e = v1 e
. . . vn e
.
i=1
|
|
c
n
|
{z
} | {z
}
nn
(t)K
11.2.
Sistemas no homog
eneos con A diagonalizable
n
X
ci vi ei t = (t)C
i=1
P
agina 41 de 45
Algebra
II (61.08 - 81.02) - Resumen
11.3
11.3.
Sistemas homog
eneos con A no diagonalizable
J1 0
0
0
0 J2 0
0
(11.2)
J = .
.
.
..
.. 0
..
0
0 . . . Jl
Donde cada bloque Ji es una matriz de ki ki
i 1
0 i
Ji = .
..
..
.
0
de la forma:
0
0
1
0
..
. 1
...
(11.3)
Para alg
un autovalor i de A.
Dado un autovalor i , su multiplicidad geometrica es el n
umero de bloques de Jordan
correspondientes a i , y su multiplicidad algebraica es la suma de los tama
nos de los
bloques correspondientes a ese autovalor.
0
1
0
Luego: X 0 = AX X=PY
P Y = P JP P Y Y = JY . Resolvemos este sistema y la
soluci
on general del problema se expresara como X(t) = P Y (t)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 42 de 45
11.3
1 0
J = 0 1
(11.5)
0 0
Respecto de P = [v1 , v2 , v3 ], estos autovectores deben ser Linealmente independientes y satisfacer las condiciones:
(A I) v1 = 0
(11.6)
(A I) v2 = v1
(11.7)
(A I) v3 = v2
(11.8)
1 0
(11.9)
J = 0 0
0 0
Respecto de P = [v1 , v2 , v3 ], estos autovectores deben ser Linealmente independientes y satisfacer las condiciones:
(A I) v1 = 0
(11.10)
(A I) v2 = v1
(11.11)
(A I) v3 = 0
(11.12)
1 0
J = 0 0
(11.13)
0 0
Respecto de P = [v1 , v2 , v3 ], estos autovectores deben ser Linealmente independientes y satisfacer las condiciones:
(A I) v1 = 0
(11.14)
(A I) v2 = v1
(11.15)
(A I) v3 = 0
(11.16)
P
agina 43 de 45
Algebra
II (61.08 - 81.02) - Resumen
COLABORADORES
Colaboradores
Quienes se mencionan a continuaci
on han colaborado y aportado tanto al proyecto FIUBA Apuntes como
en este apunte, redact
andolo, corrigiendolo, agregando graficos, etc.
Mara Ines Parnisari (maineparnisari@gmail.com)
Martn Menendez (menendez91@live.com.ar)
Algebra
II (61.08 - 81.02) - Resumen
Pagina 44 de 45
HISTORIAL DE CAMBIOS
Historial de cambios
29/12/2014 Versi
on inicial
P
agina 45 de 45
Algebra
II (61.08 - 81.02) - Resumen