Академический Документы
Профессиональный Документы
Культура Документы
Actividades de Aprendizaje
- Investigar en que situaciones en donde se emplean los métodos de solución de
ecuaciones lineales algebraicas
- Resolver ejercicios donde se utilicen los distintos métodos de solución de ecuaciones
lineales algebraicas, sin el uso de software.
- Elaborar pseudocódigos de los distintos algoritmos de búsqueda soluciones de las
ecuaciones lineales algebraicas.
- Elaborar diagramas de flujo de los distintos algoritmos de búsqueda las ecuaciones
lineales algebraicas.
- Elaborar los programas en un lenguaje de programación o software de aplicación
- Resolver problemas de aplicación a la ingeniería.
Introducción
En esta lectura veremos procedimientos iterativos para resolver un sistema de
ecuaciones lineales. El primero de ellos conocido como el procedimiento de Jacobi
basado en la idea de punto fijo y un segundo procedimiento conocido como método de
Gauss-Seidel el cual es una modificación simple del procedimiento de Jacobi.
Introduciremos el concepto de matriz diagonalmente dominante el cual se relaciona con
la garantía de convergencia en la aplicación de los métodos vistos. Veremos que en
algunos casos es posible replantear el sistema para garantizar la convergencia.
Asimismo se comentara en que situaciones los métodos iterativos son más convenientes
a los métodos directos.
Ejemplo 1.
El sistema lineal
Para ilustrar las dificultades del error de redondeo, se aplicara eliminación Gaussiana a
este sistema usando aritmética de cuatro dígitos con redondeo. El primer elemento pivote
es a (1) 11 = 0:003 y su multiplicador asociado es
El error absoluto tan grande en la solución numérica de x1 resulta del error pequeño de
0:001 al resolver para x2. Este error absoluto fue amplificado por un factor de 20000 en la
solución de x1 debido al orden en el que fueron realizados los cálculos.
El ejemplo 1 ilustra las dificultades que pueden surgir en algunos casos cuando el
elemento pivote a(k) kk es pequeño en relación a los elementos a(k) ij para k ≤ i ≤ n y k ≤
j ≤ n. Las estrategias de pivoteo se llevan a cabo en general seleccionando un nuevo
elemento como pivote a(k) pq intercambiando las filas k y p, e intercambiando las
columnas k y q, si es necesario. La estrategia más simple consiste en seleccionar el
elemento en la misma columna que está debajo de la diagonal y que tiene el mayor valor
absoluto; es decir, se determina p tal que
Ejemplo 2.
Reconsideremos el sistema lineal del ejemplo 1:
Las respuestas con cuatro dígitos que resultan de la sustitución hacia atrás son los
valores correctos x1 = 10:00 y x2 = 1:000. Esta técnica se conoce como pivoteo máximo
de columna o pivoteo parcial.
Este método, que constituye una variación del método de eliminación de Gauss, permite
resolver hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos significativos en las
operaciones aritméticas de la computadora. Este procedimiento se distingue del método
Gaussiano en que cuando se elimina una incógnita, se elimina de todas las ecuaciones
restantes, es decir, las que preceden a la ecuación pivote así como de las que la siguen.
El término X1 se puede eliminar del segundo renglón restando 0.1 veces el primero del
segundo renglón. De una manera similar, restando 0.3 veces el primero del tercer renglón
se elimina el término con X1 del tercer renglón.
1. Ejemplo. A =
2. Ejemplo. Resolver el sistema usando cálculos con 3 dígitos con redondeo al más
cercano:
Obtuvimos la solución
4. Algoritmo Reduce2.
L = {2,-5, 7, 1, 4} imax = 1;
6. Ejemplo. Resolver el sistema usando cálculos con 3 dígitos con redondeo al más
cercano. Aplicar la eliminación gaussiana con el pivoteo parcial.
Factorización LU
Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos
matrices:
A = LU
Donde L es una matriz triangular inferior m×m y U es una matriz escalonada m×n.
Entonces para resolver el sistema:
Ax = b,
Escribimos
Ax = (LU) x = L (Ux).
Ly = b.
Ux = y.
Uso de la factorización LU
Ejemplo 14.1
Use la factorización LU de A:
Solución
Sea y = (y1, y2, y3) un nuevo vector de incógnitas. Primero resolveremos el sistema
triangular inferior Ly = b:
- primera ecuación:
y1 = 11,
- segunda ecuación:
y2 = 70 − 5 y1 = 70 − 5 (11) = 15,
- de la tercera:
y3 = 17 + 2y1 − 3 y2 = 17 + 2 (11) − 3 (15) = −6.
Ahora el sistema Ux = y:
- de la última ecuación:
x3 = 3,
- segunda ecuación:
x2 = 5 − 7/3 x3 = 5 − 7/3 (3) = −2,
- y de la primera:
x1 = 11/4 + 1/2x2 − 1/4 x3 = 11/4 + 1/2 (−2) − 1/4 (−3) = 1
Obtención de la factorización LU
Ejemplo 14.2
Determine una factorización LU de la matriz:
Solución
La idea del método es ir acumulando las inversas de las operaciones hechas sobre los
renglones la matriz para irla trasformando en una matriz escalonada. Y más que
propiamente las inversas de las operaciones sobre los renglones, las matrices
elementales involucradas. Así por ejemplo el primer cálculo que se realiza es hacer un
cero debajo del elemento (1, 1) que es el elemento 2, para ello debemos realizar la
operación R2 ← R2 +3R1, esta operación tiene como matriz elemental la matriz:
E3 E2 E1A = B3
Lo cual indica que lo que debemos acumular son las inversas de las matrices
elementales utilizadas. La forma sistemática de ir acumulando las inversas de las Eis es
ir construyendo la matriz L:
Sin embargo, existen varias técnicas que se pueden utilizar, para resolver grandes
números de ecuaciones simultáneas. Una de las técnicas más útiles es el método de
Gauss-Seidel. Ninguno de los procedimientos alternos es totalmente satisfactorio, y el
método de Gauss-Seidel tiene la desventaja de que no siempre converge a una solución
o de que a veces converge muy lentamente. Sin embargo, este método convergirá siempre a
una solución cuando la magnitud del coeficiente de una incógnita diferente en cada ecuación
del conjunto, sea suficientemente dominante con respecto a las magnitudes de los otros
coeficientes de esa ecuación.
Es difícil definir el margen mínimo por el que ese coeficiente debe dominar a los otros
para asegurar la convergencia y es aún más difícil predecir la velocidad de la
convergencia para alguna combinación de valores de los coeficientes cuando esa
convergencia existe. No obstante, cuando el valor absoluto del coeficiente dominante
para una incógnita diferente para cada ecuación es mayor que la suma de los valores
absolutos de los otros coeficientes de esa ecuación, la convergencia está asegurada. Ese
conjunto de ecuaciones simultáneas lineales se conoce como sistema diagonal.
Ejemplo:
Solución: Primero ordenamos las ecuaciones, de modo que en la diagonal principal estén los
coeficientes mayores para asegurar la convergencia.
X1 = 3.0
X2 = -2.5
X3 = 7.0
|A − λI | = 0 (1)
F (A) = 0 (3)
ȳ = | 1 |
|0|
|0|
|... |
|0|
Ejemplos de la aplicación
Sea la matriz:
Valor propio
Se dice que el número λ, real o complejo, es un valor propio A si existe un vector no nulo
u, real o complejo tal que
Au = λu, es decir (A − λI )u = 0
Vector propio
El vector u se denomina vector propio de A asociado al valor propio λ.
Polinomio característico
En general, el polinomio que resulta de desarrollar |A − λI|, cuyos ceros son precisamente
los valores propios de A, se denomina polinomio característico.
Radio espectral
Se denomina radio espectral ρ de una matriz A al valor ρ(A) = max1≤i≤n|λi|
Este método hace uso de la traza de una matriz. (tr|A|), esta es la suma de los elementos
de la diagonal principal. Este método se expresa por el siguiente conjunto de ecuaciones
concurrentes:
Donde b1, b2,…..bn, son constantes a1,a2,an, de la ecuación característica (4) a 0=1
Si se hace x3=1 se obtiene que para el eigenvalor λ1= 0.416 el eigenvector es:
La idea del método de Diferencias Finitas consiste en aproximar las derivadas que
aparecen en el problema de ecuaciones diferenciales ordinarias (e.d.o.) de forma que se
reduzca a resolver un sistema lineal. Una vez definido el sistema lineal se estudiara
teniendo en cuenta los resultados de los Temas 1 y 2. Comenzamos viendo el método de
Diferencias Finitas para un problema de contorno de segundo orden lineal. En concreto,
consideramos la ecuación lineal:
Con
Usando las fórmulas de diferencias centradas para aproximar las derivadas tenemos (En
el Apéndice de este tema se explica cómo se deduce la siguiente igualdad):
Ax = b;
Aplicamos ahora algunos de los resultados que hemos estudiado para resolución
numérica de sistemas lineales. Por ejemplo, veamos si podemos utilizar los métodos
55 INGENIERIA MECATRONICA /CHL
FEBRERO 2014
ITSSAT
iterativos de Jacobi y Gaus-Seidel. Uno de los criterios para ver si ambos métodos son
convergentes es probar que la matriz es estrictamente diagonal dominante. Para ello,
tenemos que ver que
Como además, tenemos que q > 0, por hipótesis (lo supongamos al principio del tema,
para poder asegurar que el problema de contorno tiene solución), llegamos a que
Así, el estimador de mínimos cuadrados es aquel que minimiza esta función de coste. Es
importante destacar que MCD es un método de aproximación pues no utiliza hipótesis
probabilísticas sobre los datos, sólo su modelo de generación. El caso más sencillo se da
cuando asumimos que la dependencia de la señal con los parámetros es lineal. La matriz
por la que se multiplican los parámetros para generar la señal recibe el nombre de matriz
de observación y sus columnas jugarán un importante papel en este método.
Dependencia Lineal
Encontrar los parámetros que dan la solución al problema, cuando las columnas de la
matriz de observación son linealmente independientes, es muy simple. Basta con calcular
la derivada y la
Matriz Hessiana para observar que ésta última es siempre estrictamente definida positiva,
lo cual, garantiza que la función de coste J (θ) es estrictamente convexa y, por tanto,
existe un único mínimo. Este se obtiene simplemente buscando el único punto crítico de
la función.
Basta observar que J (θ) es una función positiva con una dependencia cuadrática sobre
los parámetros, por tanto, su grafo traza un hiperparaboloide p-dimensional que tiene un
único mínimo y cuyas curvas de nivel son, en el caso más general, híper-elipsoides. Una
vez obtenidos los parámetros que dan la mejor aproximación, ¿cómo podemos obtener
nuestra mejor estima para la señal?… Sólo hace falta sustituir éstos en el modelo de
señal para encontrar la respuesta.
Todos los puntos críticos de la función son, por tanto, mínimos. La expresión analítica de
estos mínimos se determina igualando la derivada de la función a cero y resolviendo el
sistema indeterminado resultante.
En este caso los parámetros originales no son identificables puesto que la solución de
MCD no es única. Lo que sí es identificable es la estima de la señal que proporciona el
método, pues ésta resulta ser común para todos los parámetros solución.
Ejemplo:
En este ejemplo se obtienen los tres parámetros que mejor ajustan una señal cuadrática
a las observaciones y se visualiza gráficamente la señal que proporciona el mejor ajuste
según el Método de mínimos cuadrados.
Interpretación Geométrica
generado por las columnas de H, la norma del error entre un vector x arbitrario y
cualquier punto de este subespacio es mínima, si y sólo si, el error es ortogonal al
subespacio. Además, el punto del subespacio que minimiza la norma del error (la mejor
aproximación de la señal) es único.”
La utilidad del principio de ortogonalidad tiene dos vertientes: por una parte nos permite
obtener la solución del problema de una forma muy elegante sin recurrir a calcular
gradientes y derivadas, por otra, nos proporciona una interpretación geométrica de los
resultados que facilita nuestra comprensión del problema y capacidad de intuición.
Una vez definido el espacio vectorial de Hilbert y el producto interno entre dos vectores,
la demostración del principio de ortogonalidad se obtiene directamente de la ecuación
que nos facilita los puntos críticos.
Matrices de proyección
Llegado este punto nos podemos preguntar ¿cómo es el operador que proyecta
ortogonalmente las observaciones x sobre el subespacio generado por las columnas de
H? Como está claro que la señal estimada es el resultado de esta proyección ortogonal.
La respuesta a esta pregunta se obtiene directamente identificando este operador en la
expresión que nos da la señal estimada como mejor aproximación. Así, comprobamos
que el operador buscado es un operador lineal denominado matriz de proyección
ortogonal.
Otra posible cuestión podría ser ¿cómo encontrar el operador que proyecta las
observaciones sobre el complemento ortogonal del subespacio generado por las
columnas de H?
Por la estructura del problema, las componente de las observaciones que no se puede
expresar sobre M (H) es el error mínimo. Observando la expresión del error en términos
de x resulta fácil identificar el operador de proyección sobre el complemento ortogonal al
subespacio.
4. Las matrices de proyección ortogonal son únicas para cada subespacio, es decir, que
columnas de H que generen el mismo subespacio tienen la misma matriz de proyección.
5. Si somos capaces de expresar el espacio generado por las columnas de H sobre dos
subespacios ortogonales el problema de la proyección se desacopla de forma
independiente sobre cada uno de ellos, de forma que, la proyección conjunta resulta ser
la suma de las proyecciones marginales.
Aumentando el orden
Es posible encontrar una solución recursiva que aprovecha la estima hecha considerando
k-1 parámetros para obtener la solución que tiene en cuenta un parámetro más. Esta
solución recursiva conlleva, a medida que se incrementa el número de parámetros, una
reducción en la carga computacional total, a la vez que evita, mediante la utilización del
lema de inversión, la inversión explícita de matrices (operación que resulta muy costosa
en cuanto a carga computacional).
Esta transparencia facilita un análisis más pormenorizado de los pasos que llevan a la
solución.