Академический Документы
Профессиональный Документы
Культура Документы
SALTILLO, COAHUILA
JULIO DE 2018
3.6 Método de Krylov
Introducción
|A − λI| = 0 (1)
SALTILLO, COAHUILA
JULIO DE 2018
Definición del Metido de Krylov
F(A) = 0 (3)
SALTILLO, COAHUILA
JULIO DE 2018
Este vector ¯y puede ser libremente elegido, proponiéndose que su conformación
permita realizar de mejor forma las operaciones. Una buena elección es elegir al
vector con la forma:
Ejemplo de aplicación
Sea la matriz:
SALTILLO, COAHUILA
JULIO DE 2018
Se propone al vector ¯y de acuerdo con la forma recomendada:
SALTILLO, COAHUILA
JULIO DE 2018
Finalmente, sustituyendo en la ecuación 8se obtiene finalmente la ecuación
característica de la matriz
A: λ 3 − 2λ + 3 = 0 (17)
La palabra alemana eigen, que se traduce en español como propio, se usó por
primera vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la usó
previamente con un significado parecido). Eigen se ha traducido también como
inherente, característico o el prefijo auto-, donde se aprecia el énfasis en la
importancia de los valores propios para definir la naturaleza única de una
determinada transformación lineal. Las denominaciones vectores y valor
característico también se utilizan habitualmente.
Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se
puede calcular simbólicamente usando el polinomio característico. Sin embargo, a
menudo resulta imposible para matrices extensas, caso en el que se debe usar un
método numérico.
SALTILLO, COAHUILA
JULIO DE 2018
Cálculo de los valores propios
det (A − λI) = 0
Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar
resolviendo el sistema de ecuaciones homogéneo:
(A − λI) v = 0
SALTILLO, COAHUILA
JULIO DE 2018
Una forma más sencilla de obtener vectores propios sin resolver un sistema de
ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que
cada matriz cuadrada satisface su propio polinomio característico. Así, si λ1, λ2, ...,
λn son los valores propios de A se cumple que:
por lo que los vectores columna de (A − λ2I) ... (A − λnI) son vectores propios de λ1.
y porque p(x) = −(x−2) (x−1) (x+ 1) se ve que los valores propios de A son 2, 1 y -1.
El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su
propio polinomio característico. Es decir
SALTILLO, COAHUILA
JULIO DE 2018
3.8 Método de diferencias finitas
El método de las diferencias finitas es un método utilizado para calcular de manera
aproximada las soluciones a las ecuaciones diferenciales usando ecuaciones
diferenciales finitas para aproximar derivadas. Una diferencia finita es una
expresión matemática de la forma:
f (x + b) − f (x + a)
∆h[f](x) = f (x + h) − f(x).
SALTILLO, COAHUILA
JULIO DE 2018
Finalmente, la diferencia central es la media de las diferencias anteriores y
posteriores. Viene dada por
δh[f](x) = f (x + 1 2 h) − f (x − 1 2 h).
Esta fórmula sigue siendo válida en el sentido de que ambos operadores dan el
mismo resultado cuando se aplican a un polinomio. Incluso para funciones analíticas,
las series de la derecha no convergen con seguridad, sino que puede tratarse de
una serie asintótica.
SALTILLO, COAHUILA
JULIO DE 2018
Sin embargo, pueden emplearse para obtener aproximaciones más precisas de la
derivada. Por ejemplo, Los dos primeros términos de la serie llevan a:
SALTILLO, COAHUILA
JULIO DE 2018
3.9. Método de mínimos cuadrados
Mínimos cuadrados y máxima verosimilitud
Teorema del límite central Una medida y, puede considerarse como un variable
aleatoria, distribuida gausianamente entorno a su valor verdadero λ, siempre que el
error total sea la suma de un número grande de contribuciones pequeñas.
Además, el método permite evaluar la bondad con la que la función λ (x, θ) ajusta
los datos experimentales.
Para establecer el método tomamos logaritmos en la pdf que describe los datos:
SALTILLO, COAHUILA
JULIO DE 2018
El principio de máxima verosimilitud establece que la pdf conjunta de las medidas
(y por lo tanto la verosimilitud L) es máxima para los parámetros auténticos. Por lo
tanto, para encontrar los parámetros maximizamos log L(θ) o bien minimizamos la
cantidad:
Si las medidas no son independientes, pero pueden describirse por una pdf conjunta
gaussiana, con matriz de covarianza conocida, la definición anterior se generaliza
a:
SALTILLO, COAHUILA
JULIO DE 2018
donde aj(x) son funciones de x. NB: Requerimos que λ (x; θ) sea lineal en los
parámetros, no que las funciones aj (x) sean lineales en x. Por ejemplo:
SALTILLO, COAHUILA
JULIO DE 2018
Si λ (x; θ) es lineal en θ el chi2 es cuadrático en θ. Expandiendo en Taylor entorno
a los parámetros (en el mínimo la derivada se anula):
Por lo tanto:
SALTILLO, COAHUILA
JULIO DE 2018
Mínimos cuadrados con datos binados
MCM se usa muy a menudo (es más cómodo) pero el problema es que el c2min
resultante no tiene por qué estar distribuido c2 (podemos perder la capacidad de
decidir sobre la calidad del ajuste
Suponer que una cantidad de valores desconocido l ha sido medida N veces (en N
experimentos diferentes), resultando en yi, si, i=1, 2, N independientes.
Puesto que l es el mismo para todos los experimentos, l(x) = cte. y, por tanto:
SALTILLO, COAHUILA
JULIO DE 2018
Cuando las medidas yi no son todas independientes, pero la matriz de covarianza
V se conoce, el procedimiento se generaliza fácilmente. Partiendo de:
SALTILLO, COAHUILA
JULIO DE 2018
Conclusión
Varios de los conceptos aprendidos los pudimos llevar a las aplicaciones como son:
crecimiento de una población en la cual con los ejercicios propuestos podemos ver
cómo va a variar el crecimiento de una población a lo largo de los años y formas
cuadráticas en la cual podemos resolver mucho más fácil y rápidamente las
ecuaciones
Referencias
SALTILLO, COAHUILA
JULIO DE 2018