Академический Документы
Профессиональный Документы
Культура Документы
ETSII-UPM ETSII-UPM
Definición del problema de valores y vectores propios (matriz n×n)
Ax = λ x
que también se puede expresar en la forma
Propiedades de los ( A − λ I)x = 0
Para que exista una solución x distinta de la trivial (x=0), el valor
Valores y Vectores Propios
1
Matrices semejantes Matrices simétricas
ETSII-UPM ETSII-UPM
Dos matrices A y B son “semejantes” si existe una matriz no singular Los valores propios de una matriz real y simétrica son reales
T
M tal que: ¾ Si A es simétrica, el producto x Ax es real, pues es igual a su conjugado
B = M −1AM Ax = λ x; xT Ax = λ xT x = λ x 2
2
2
Lema de Schur Matrices definidas-positivas
ETSII-UPM ETSII-UPM
Para cualquier matriz cuadrada A existe una matriz unitaria U tal que Una matriz simétrica es definida-positiva si cumple
T=UHAU es triangular superior 1) x H Ax > 0, ∀x ≠ 0
¾ Para cualquier matriz n×n siempre es posible encontrar un vector propio x1
asociado con un valor propio λ1 (aunque λ1 sea un valor propio múltiple su
Se puede demostrar que la condición (1) es equivalente a cualquiera
subespacio propio asociado tendrá al menos un vector propio). Construyendo de las condiciones siguientes:
una matriz unitaria U1 cuya primera columna es x1 y eligiendo las demás ¾ Todos los valores propios de A son positivos.
columnas de modo que sean ortogonales, se verificará, para un caso 4×4 2) λi > 0, ∀i
λ1 * * * λ1 * * * λ1 * * *
0 * * * 0 * * * 0 ¾ El determinante de todas las submatrices sobre la diagonal de A es positivo.
AU1 = U1 U1H AU1 = =
0
* * *
0
* * * 0
B2
3) det( A k ) > 0, ∀k
0 * * * 0 * * * 0
¾ Todos los pivots en la descomposición A=LDLH son positivos.
¾ A su vez la matriz B2 es una matriz (n−1) ×(n−1) que tendrá al menos un
vector propio asociado con el valor propio λ2. Existirá una matriz unitaria U2 4) dii > 0, ∀i
cuya segunda columna será dicho vector propio y que cumplirá ¾ La matriz A se puede descomponer en la forma A=RHR, donde R es una
1 0 0 0 λ1 * * * matriz cuyas n columnas son independientes.
0 y1 * * 0 λ * *
U2 = U 2H U1H AU1U 2 =
A = RH R
2
0
y2 * *
0 0
* *
5)
0 y3 * * 0 0 * *
3
Descomposición de valores singulares (3) Descomposición de valores singulares (4)
ETSII-UPM ETSII-UPM
Propiedades del producto UTAV (se pretende demostrar A=UDVT) Propiedades de las matrices U y V en A=UDVT
¾ El elemento (i,j) de este producto matricial será: ¾ Las columnas de U son los vectores propios de AAT
( )
UT AV = uTi Av j = uTi u jσ j =δ ijσ j si j ≤ r por la definición de u j
ij ¾
AAT = UDVT VDT UT = UDDT UT = UΛ ( m ) UT
Las columnas de V son los vectores propios de ATA
=0 si j > r pues Av j = 0
En definitiva, el producto UTAV es igual a una matriz m×m D que sólo tiene AT A = VDT UT UDV T = VDT DV T = VΛ ( n ) V T
¾ ¾ Tanto AAT como ATA tienen los mismos valores propios
distintos de cero los r primeros elementos de la diagonal. Estos elementos son λi = σ i2
Relación de las matrices U y V con los subespacios de A
los valores singulares σj. Por tanto:
¾ Las columnas 1 a r de U son una base ortonormal de Im(A)
UT AV = D ¾ Las columnas r+1 a m de U son una base ortonormal de Ker(AT)
¾ Como las matrices U y V son cuadradas y ortogonales se puede escribir: ¾ Las columnas 1 a r de V son una base ortonormal de Im(AT)
A = UDV T ¾ Las columnas r+1 a n de V son una base ortonormal de Ker(A)
que es la expresión de la Descomposición de Valores Singulares (SVD). Las propiedades anteriores se deducen de las relaciones siguientes:
¾ Como no se ha presupuesto ninguna condición para la matriz A, la SVD existe ¾ Ker(ATA)=Ker(A), pues si Ax=0 también se verifica ATAx=0 y si ATAx=0 se
para cualquier matriz rectangular, cualquiera que sea su rango r. verifica que xTATAx=(Ax)TAx=0, luego Ax=0.
¾ Im(ATA)=Im(AT), pues ambos son los espacios ortogonales complementarios
La SVD tiene propiedades muy importantes, derivadas de la de Ker(ATA) y Ker(A) en Rn.
ortogonalidad de las matrices U y V, y del carácter no negativo de los ¾ Análogamente, Ker(AAT)=Ker(AT), Im(ATA)=Im(A) y Im(AAT)=Im(A)
valores singulares σj.
inversos de los valores singulares de D (que es una matriz m×n) min Ax − b 2 = min UDV T x − b = min DV T x − UT b = min Dy − UT b
x x 2 x 2 y 2
4
Cociente de Rayleigh (3) Teorema mini-max y maxi-min
ETSII-UPM ETSII-UPM
Si en el cociente de Rayleigh la aproximación en el vector propio es Teorema maxi-min para los valores y vectores propios
lineal, la aproximación en el valor propio es cuadrática ¾ El máximo de los mínimos de R(x), sujeto a la restricción x⊥w, es λ2 y se
¾ Si x=xi+εv, siendo v el error en xi, se cumple que R(x)=λi+0(ε2) obtiene cuando x=x2
¾ Demostración ¾ En general, para r≥2
(xT + εv T ) A ( x i + εv ) xTi Ax i + 2εxTi Av + ε 2 v T Av xT Ax
R (x i + εv ) = i T = λr = max min r = 1, 2,...n siendo xT w i = 0, i = 1, 2,..., ( r − 1)
( x i + εv T )(x i + εv ) xTi x i + 2εxTi v + ε 2 v T v wi
x xT x
¾ Como el error v no tiene componente en xi, se cumplirán las relaciones Demostración
v = ∑α j x j Ax i = λx i xTi x j = δ ij xTi Av = 0 vT xi = 0 v T Av = ∑ λ jα 2j ¾ Expresando x en base de vectores propios x = ∑α j x j
j ≠i j ≠i
α 2λ + ... + α r2λr + α r2+1λr +1 + ... + α n2λn
¾ Sustituyendo en la expresión del cociente de Rayleigh R = max min 1 1 2
wi α
j α1 + ... + α r2 + α r2+1 + ... + α n2
λi + 0 + ε 2 ∑ λ jα 2j −1
R (x i + εv ) = j ≠i
= λi + ε 2 ∑ λ jα 2j 1 + ε 2 ∑ α 2j α 2 (λ − λ ) + ... + α r2−1 (λr − λr −1 ) + α r2+1 (λr − λr +1 ) + ... + α n2 (λr − λn )
1 + ε ∑α j
2 2
j ≠i j ≠i R = max min λr − 1 r 1
j ≠i
wi α
j α12 + ... + α r2 + α r2+1 + ... + α n2
¾ Desarrollando en serie el segundo factor y agrupando términos ¾ Las incógnitas de la minimización son los αj, que están restringidos por la
condición de que x sea ortogonal a los vectores wi
R ( xi + ε v ) = λi + ε ∑ λ jα 2j − λi ∑ α 2j + ε 4 (
2
) + ...
j ≠i j ≠i w Ti x = w Ti ∑ α j x j = 0
xT Ax xT w i = 0 i = 1, 2,..., r
b) λ (1)
r = max min T
wi
x ⊥ wi x x w i arbitrario para i = 1, 2,..., r − 1 w r = en
xT Ax
c) λr = max min T xT w i = 0 i = 1, 2,..., r − 1
wi
x ⊥ wi x x