Вы находитесь на странице: 1из 18

Tecnológico nacional de México

Instituto tecnológico de saltillo

Departamento de ingeniería mecánica-mecatrónica

Sistemas de ecuaciones lineales algebraicas


Consulta de subtemas unidad 3

Estudiante: Fernando Coronado Fuentes

Docente: María Isabel Piña Villanueva

SALTILLO, COAHUILA
JULIO DE 2018
3.6 Método de Krylov
Introducción

El objetivo de este trabajo es presentar la aportación del Análisis numérico a la


obtención del polinomio (o ecuación), valores y vectores característicos; se
presentar ‘a un método que pueda desarrollarse como algoritmo y, en consecuencia,
desarrollado por medio de un programa de computo.

En este sentido, para reconocer los contenidos es necesario disponer de los


antecedentes necesarios del ´algebra lineal en cuanto a los tópicos antes
mencionados. Las matrices de orden nxn no singulares poseen un polinomio
caracter´ısco; las raíces de este polinomio son llamados valores característicos y
cada valor característico tiene asociado un vector característico.

Iniciando con la determinación del polinomio característico. El polinomio


característico de la matriz A se obtiene por medio de la expresión:

|A − λI| = 0 (1)

El resultado de este determinante es un polinomio en función de λ de grado igual


al orden de la matriz A, en este caso, de orden n. Este polinomio característico
posee n raíces, o valores característicos; por lo cual, la matriz A de orden n posee
n valores característicos. El polinomio característico es de la forma:

SALTILLO, COAHUILA
JULIO DE 2018
Definición del Metido de Krylov

Este método se fundamenta en la aplicación del Teorema de Cayley-Hamilton [1],


mismo que establece

que toda matriz A verifica su ecuación característica:

F(A) = 0 (3)

Es decir, si sustituimos a la matriz A en el polinomio 2, el resultado deberá ser cero.


Sin embargo, operativamente es necesario hacer algunos comentarios. De inicio, la
matriz A es de orden n, por lo cual la sustitución arrojará un sistema de n ecuaciones
lineales; en consecuencia, el coeficiente a0 deberá ser diferente de cero. Resulta
conveniente hacer que este coeficiente sea la unidad, por lo cual se divide el
polinomio entero por a0, resultando:

Donde los coeficientes bi se obtienen como bi = ai/a0. Aplicando el teorema de


Cayley-Hamilton en el polinomio 4:

F(A) = An + b1A n−1 + b2A n−2 + ... +bn−1A + bnI = 0 (5)

El polinomio 5 representa un sistema de ecuaciones lineales cuyas incógnitas son


los coeficientes bi.

La solución de este sistema nos proporciona los coeficientes bi que sustituidos en


el polinomio 4 nos proporciona el polinomio característico de A.

Una forma sencilla de realizar este procedimiento es simplificar la elevación de la


matriz A a las potencias necesarias.

Esto se logra multiplicando la matriz A por un vector y compatible diferente de cero.


Debe recordarse que la multiplicación de una matriz por un vector compatibles arroja
un vector.

SALTILLO, COAHUILA
JULIO DE 2018
Este vector ¯y puede ser libremente elegido, proponiéndose que su conformación
permita realizar de mejor forma las operaciones. Una buena elección es elegir al
vector con la forma:

Ubicando al elemento 1 en una posición estratégica de acuerdo con los coeficientes


de A de tal forma que se minimicen las operaciones.

Atendiendo a la anterior recomendación, el sistema que de la forma:

Finalmente, el sistema de ecuaciones puede ser resuelto por el método de


preferencia [2].

Ejemplo de aplicación

Sea la matriz:

El polinomio característico tendrá la forma (de acuerdo con la ecuación 4):

λ 3 + b1λ 2 + b2λ + b3 = 0 (8)

El sistema de ecuaciones tendrá la forma (de acuerdo con la ecuación 6):

SALTILLO, COAHUILA
JULIO DE 2018
Se propone al vector ¯y de acuerdo con la forma recomendada:

Realizando las multiplicaciones:

Realizando las multiplicaciones:

Sustituyendo los resultados 11, 12 y 13 en el esquema 9 se conforma el sistema de


ecuaciones lineales:

Que se expresa en forma más coloquial como:

Cuya solución es:

SALTILLO, COAHUILA
JULIO DE 2018
Finalmente, sustituyendo en la ecuación 8se obtiene finalmente la ecuación
característica de la matriz

A: λ 3 − 2λ + 3 = 0 (17)

3.7 Obtención de Eigenvalores y


Eigenvectores
Los eigenvectores (o vectores propios o auto vectores) de un operador lineal son
los vectores no nulos que, cuando son transformados por el operador, dan lugar a
un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar,
λ, recibe el nombre de eigenvalor (o valor propio o autovalor o valor característico).
A menudo, una transformación queda completamente determinada por sus vectores
propios y valores propios. Un eigenespacio (o espacio propio o auto espacio o
subespacio fundamental) asociado al valor propio λ es el conjunto de vectores
propios con un valor propio común.

La palabra alemana eigen, que se traduce en español como propio, se usó por
primera vez en este contexto por David Hilbert en 1904 (aunque Helmholtz la usó
previamente con un significado parecido). Eigen se ha traducido también como
inherente, característico o el prefijo auto-, donde se aprecia el énfasis en la
importancia de los valores propios para definir la naturaleza única de una
determinada transformación lineal. Las denominaciones vectores y valor
característico también se utilizan habitualmente.

Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se
puede calcular simbólicamente usando el polinomio característico. Sin embargo, a
menudo resulta imposible para matrices extensas, caso en el que se debe usar un
método numérico.

SALTILLO, COAHUILA
JULIO DE 2018
Cálculo de los valores propios

Una herramienta importante para encontrar valores propios de matrices cuadradas


es el polinomio característico: decir que λ es un valor propio de A es equivalente a
decir que el sistema de ecuaciones lineales Av = λv 7→ Av − λv = 0 (factorizando
por v queda) (A − λI) v = 0 (donde I es la matriz identidad) tiene una solución no nula
v (un vector propio), y de esta forma es equivalente al determinante:

det (A − λI) = 0

La función p(λ) = det (A − λI) es un polinomio de λ pues los determinantes se definen


como sumas de productos. Éste es el polinomio característico de A: los valores
propios de una matriz son los ceros de su polinomio característico.
Todos los valores propios de una matriz A pueden calcularse resolviendo la
ecuación pA(λ) = 0. Si A es una matriz n×n, entonces pA tiene grado n y A tiene
como máximo n valores propios. El teorema fundamental del álgebra dice que esta
ecuación tiene exactamente n raíces (ceros), teniendo en cuenta su multiplicidad.
Todos los polinomios reales de grado impar tienen un número real como raíz, así
que para n impar toda matriz real tiene al menos un valor propio real. En el caso de
las matrices reales, para n par e impar, los valores propios no reales son pares
conjugados.

Cálculo de los vectores propios

Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar
resolviendo el sistema de ecuaciones homogéneo:

(A − λI) v = 0

SALTILLO, COAHUILA
JULIO DE 2018
Una forma más sencilla de obtener vectores propios sin resolver un sistema de
ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que
cada matriz cuadrada satisface su propio polinomio característico. Así, si λ1, λ2, ...,
λn son los valores propios de A se cumple que:

(A − λ1I) (A − λ2I) ... (A − λnI) = 0

por lo que los vectores columna de (A − λ2I) ... (A − λnI) son vectores propios de λ1.

Ejemplo: Considérese la matriz

que representa un operador lineal R 3 → R 3. Si se desea computar todos los


valores propios de A, se podría empezar determinando el polinomio característico:

y porque p(x) = −(x−2) (x−1) (x+ 1) se ve que los valores propios de A son 2, 1 y -1.
El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su
propio polinomio característico. Es decir

Efectivamente, para el caso del valor propio 2, se puede comprobar que

de donde (1, 1, -1) es un vector propio asociado a 2.

SALTILLO, COAHUILA
JULIO DE 2018
3.8 Método de diferencias finitas
El método de las diferencias finitas es un método utilizado para calcular de manera
aproximada las soluciones a las ecuaciones diferenciales usando ecuaciones
diferenciales finitas para aproximar derivadas. Una diferencia finita es una
expresión matemática de la forma:

f (x + b) − f (x + a)

Si una diferencia finita se divide por (b − a) se obtiene una expresión similar al


cociente diferencial, que difiere en que se emplean cantidades finitas en lugar de
infinitesimales. La aproximación de las derivadas por diferencias finitas desempeña
un papel central en los métodos de diferencias finitas del análisis numérico para la
resolución de ecuaciones diferenciales.

Diferencias finitas centradas y laterales

Sólo se consideran normalmente tres formas: la anterior, la posterior y la central.


Una diferencia progresiva, adelantada o posterior es una expresión de la forma

∆h[f](x) = f (x + h) − f(x).

Dependiendo de la aplicación, el espaciado h se mantiene constante o se toma el


límite h 7→ 0.

Una diferencia regresiva, atrasada o anterior es de la forma

∇h[f](x) = f(x) − f (x − h).

SALTILLO, COAHUILA
JULIO DE 2018
Finalmente, la diferencia central es la media de las diferencias anteriores y
posteriores. Viene dada por

δh[f](x) = f (x + 1 2 h) − f (x − 1 2 h).

Cálculo de diferencias finitas

La diferencia anterior puede considerarse un operador diferencial que hace


corresponder la función f con ∆f. El teorema de Taylor puede expresarse por la
fórmula

∆h = hD + 1/2 (h 2D 2) + 1/3! (h3D3) + · · · = ehD − 1,

Donde D denota el operador derivada, que hace corresponder f con su derivada f ′,


es decir,

Du = u ′, D2u = u ′′, D3u = u ′′′, . . .

Formalmente, invirtiendo la exponencial,

hD = log (1 + ∆h) = ∆h – 1/2 ∆ h2 + 1/3 ∆ h 3+ · · ·.

Esta fórmula sigue siendo válida en el sentido de que ambos operadores dan el
mismo resultado cuando se aplican a un polinomio. Incluso para funciones analíticas,
las series de la derecha no convergen con seguridad, sino que puede tratarse de
una serie asintótica.

SALTILLO, COAHUILA
JULIO DE 2018
Sin embargo, pueden emplearse para obtener aproximaciones más precisas de la
derivada. Por ejemplo, Los dos primeros términos de la serie llevan a:

El error de la aproximación es del orden de h 2. Las fórmulas análogas para los


operadores posterior y central son:

Derivadas de órdenes mayores

De forma análoga se pueden obtener aproximaciones en diferencias finitas para


derivadas de orden mayor y operadores diferenciales. Por ejemplo, usando la
fórmula de la diferencia central mostrada anteriormente con un espaciado de h/2
para f ′ (x + h/2) y f ′ (x − h/2) y aplicando la fórmula de diferencia central a la derivada
de f ′ en x, obtenemos la aproximación de la diferencia central de la segunda
derivada de f:

SALTILLO, COAHUILA
JULIO DE 2018
3.9. Método de mínimos cuadrados
Mínimos cuadrados y máxima verosimilitud

Teorema del límite central Una medida y, puede considerarse como un variable
aleatoria, distribuida gausianamente entorno a su valor verdadero λ, siempre que el
error total sea la suma de un número grande de contribuciones pequeñas.

Considerar un conjunto y1, y2, yN de variables aleatorias independientes


relacionadas con otra variable xi que se asume conocida sin error.

Cada yi tiene un valor medio λi (desconocido) y una varianza σi 2 (conocida)

Las N medidas de yi pueden considerarse como la medida de un vector aleatorio N-


dimensional con pdf

Suponer además que el valor verdadero de las yi es una función de la variable x


que depende de un vector de parámetros desconocido en principio.

El objetivo del método de mínimos cuadrados es estimar el vector de parámetros θ.

Además, el método permite evaluar la bondad con la que la función λ (x, θ) ajusta
los datos experimentales.

Para establecer el método tomamos logaritmos en la pdf que describe los datos:

SALTILLO, COAHUILA
JULIO DE 2018
El principio de máxima verosimilitud establece que la pdf conjunta de las medidas
(y por lo tanto la verosimilitud L) es máxima para los parámetros auténticos. Por lo
tanto, para encontrar los parámetros maximizamos log L(θ) o bien minimizamos la
cantidad:

Si las medidas no son independientes, pero pueden describirse por una pdf conjunta
gaussiana, con matriz de covarianza conocida, la definición anterior se generaliza
a:

Que reduce a la expresión anterior si la matriz de covarianza es diagonal (medidas


independientes)

Ajuste por mínimos cuadrados en el caso lineal

En el caso más general, un problema de ajuste se reduce a uno de minimización


(del chi2). Sin embargo, cuando λ (x, θ) es una función lineal de los parámetros el
problema puede tratarse analíticamente. Se trata del caso:

SALTILLO, COAHUILA
JULIO DE 2018
donde aj(x) son funciones de x. NB: Requerimos que λ (x; θ) sea lineal en los
parámetros, no que las funciones aj (x) sean lineales en x. Por ejemplo:

El valor de la función λ (x; θ) en un punto dado xi es:

En este caso, la expresión general:

reduce a (en notación matricial):

Para encontrar los parámetros minimizamos el chi2

Si ATV-1A no es singular podemos resolver para los parámetros

Es decir, los parámetros θ son funciones lineales de las medidas y.

Para encontrar la matriz de covarianza de los parámetros propagamos errores

SALTILLO, COAHUILA
JULIO DE 2018
Si λ (x; θ) es lineal en θ el chi2 es cuadrático en θ. Expandiendo en Taylor entorno
a los parámetros (en el mínimo la derivada se anula):

Por lo tanto:

Corresponde a los contornos en el espacio de parámetros cuyas tangentes se


separan una desviación estándar de los parámetros estimados en el mínimo

SALTILLO, COAHUILA
JULIO DE 2018
Mínimos cuadrados con datos binados

Considerar un histograma con N bines y n entradas al que queremos ajustar un


cierto modelo (es decir una hipotética pdf f (x; q)

Ajuste por mínimos cuadrados: Minimiza la cantidad:

Alternativamente (Mínimos cuadrados modificado)

MCM se usa muy a menudo (es más cómodo) pero el problema es que el c2min
resultante no tiene por qué estar distribuido c2 (podemos perder la capacidad de
decidir sobre la calidad del ajuste

Combinación de medidas por mínimos cuadrados

Suponer que una cantidad de valores desconocido l ha sido medida N veces (en N
experimentos diferentes), resultando en yi, si, i=1, 2, N independientes.

Puesto que l es el mismo para todos los experimentos, l(x) = cte. y, por tanto:

Que no es sino la media pesada de las medidas. La varianza se obtiene a partir de


la segunda derivada:

SALTILLO, COAHUILA
JULIO DE 2018
Cuando las medidas yi no son todas independientes, pero la matriz de covarianza
V se conoce, el procedimiento se generaliza fácilmente. Partiendo de:

repitiendo el procedimiento de cancelar la derivada obtenemos:

La varianza se obtiene análogamente:

SALTILLO, COAHUILA
JULIO DE 2018
Conclusión

El método de Krylov debe utilizarse en conjunto con un método de solución de


sistemas de ecuaciones lineales. Esta unión arroja una alternativa muy apropiada
cuando se trata de evitar resolver determinantes de orden mayor considerando que
se debe hacer en forma analítica.

Otro aspecto importante es que las diferencias finitas aproximan cocientes


diferenciales a medida que h se acerca a cero. Así que se pueden usar diferencias
finitas para aproximar derivadas. Esta técnica se emplea a menudo en análisis
numérico, especialmente en ecuaciones diferenciales numéricas ordinarias,
ecuaciones en diferencias y ecuación en derivadas parciales. Los métodos
resultantes reciben el nombre de métodos de diferencias finitas. Las aplicaciones
habituales de los métodos de diferencias finitas son en los campos de la
computación y áreas de la ingeniería como ingeniería térmica o mecánica de fluidos.

Varios de los conceptos aprendidos los pudimos llevar a las aplicaciones como son:
crecimiento de una población en la cual con los ejercicios propuestos podemos ver
cómo va a variar el crecimiento de una población a lo largo de los años y formas
cuadráticas en la cual podemos resolver mucho más fácil y rápidamente las
ecuaciones

Sobre los mínimos cuadrados a partir de la toma de datos experimentales se busca


hacer un ajuste de la distribución que se describe. En el presente informe se
pretende mostrar el uso de un de los muchos métodos presentes para encontrar la
función que describa de forma adecuada una distribución dada haciendo uso de
muchos de las herramientas aportadas por el cálculo.

Referencias

[1] Douglas Burden, Richard. Faires. Análisis Numérico. 2002.

[2] Curtis F. Gerald. Análisis numérico. segunda edición, 1991.

[3] Métodos numéricos para ingenieros Quinta edición, 2007.

SALTILLO, COAHUILA
JULIO DE 2018

Вам также может понравиться