Академический Документы
Профессиональный Документы
Культура Документы
CAPITULO IV
SISTEMA DE ECUACIONES LINEALES
C.U. Puno-2018
Nociones Elementales de Matrices
Antes de ver la solución de los Sistemas de Ecuaciones Lineales
haremos un repaso de las fundamentos de las matrices.
2
Nociones Elementales de Matrices
3
Nociones Elementales de Matrices
4
Nociones Elementales de Matrices
5
Nociones Elementales de Matrices
6
Nociones Elementales de Matrices
7
Nociones Elementales de Matrices
8
Solución de sistemas de ecuaciones
lineales
Análisis de Circuitos (ecuaciones de malla y nodos)
Solución Numérica de ecuaciones diferenciales (Método de las
diferencias Finitas)
Solución Numérica de ecuaciones de integrales (Metodo de los
Elementos Finitos, Método de los Momentos)
9
Consistencia (Solubilidad)
El sistema lineal de ecuaciones Ax=b tiene una solución, o es
consistente si y solo si Rango{A}=Rango{A|b}
Un sistema es inconsistente cuando
Rango{A}<Rango{A|b}
10
Operaciones Elementales de filas (ERO)
Las siguientes operaciones aplicadas a la matriz aumentada[A|b],
producen un sistema lineal equivalente
11
Un ejemplo inconsistente
1 2 x1 4
2 4 x 5
2
ERO:Multiplicar la primera fila por -2 y
sumar la segunda fila
1 2
0 0 Rank{A}=1 Entonces
este sistema
de
1 2 4 ecuaciones
0 0 3 Rank{A|b}=2 no es soluble
12
Unicidad de las soluciones
Rango{A}=Rango{A|b}=n
13
Sistemas rango completo (Full-rank)
Si Rango{A}=n
Det{A} 0 A es nonsingular por lo tanto invertible
Solución Única
1 2 x1 4
1 1 x 2
2
14
Matrices de rango deficiente
Si Rango{A}=m<n
Det{A} = 0 A is singular por lo tanto no es invertible
número infinito de soluciones (n-m variables libres)
sistema sub-determinado
1 2 x1 4
2 4 x 8
2
Rank{A}=Rank{A|b}=1
Consistente soluble
15
Sistema de ecuaciones
mal-condicionadas
Una pequeña desviación en las entradas de la matriz A,
causa una gran desviación en la solución.
1 2 x1 3 x1 1
0.48 0.99 x 1.47 x 1
2 2
1 2 x1 3 x1 3
0.49 0.99 x 1.47 x 0
2 2
16
Mal condicionada (continua.....)
Un sistema lineal de
ecuaciones se dice a
ser “mal
condicionada” si la
matriz de coeficientes
tiende a ser singular
17
18
Tipos de ecuaciones de sistemas lineales
a ser estudiados
19
Técnicas de Solución
Métodos directos de solución
Back substitution
a11 a1i a1n x1 b1 a11 a1i a1n x1 b1
ai1 aii ain xi bi 0 ~
a~ii a~in xi bi
ERO
an1 ~
ani ann xn bn 0 0 a~nn xn bn
21
Primer paso de la eliminación
Elemento pivotal a11 a1(1n) x1 b1(1)
(1) (1) (1)
a12 a13
(1) (1) (1) (1)
a21 a22 a23 a2(1n) x2 b2
a31
(1) (1)
a32 (1)
a33 a3(1n) x3 b3(1)
a (1) an(12) an(13) (1) b (1)
n1 ann xn n
a11
(1) (1)
a12 (1)
a13 a1(1n) x1 b1(1)
m2,1 a21
(1) (1) ( 2) ( 2) ( 2)
/ a11 0 a22 a23 a2( 2n) x2 b2
m3,1 a31
(1) (1)
/ a11 0 ( 2)
a32 ( 2)
a33 a3( 2n) x3 b3( 2 )
an(11) / a11
(1) 0 an( 22) an( 23) ( 2) b ( 2 )
mn ,1 ann xn n
22
Segundo paso de la eliminación
a11
(1) (1)
a12 (1)
a13 a1(1n) x1 b1(1)
( 2) ( 2) ( 2) ( 2)
Elemento Pivotal 0 a22 a23 x
a2 n 2 b2
0 ( 2)
a32 ( 2)
a33 a3( 2n) x3 b3( 2 )
0 an( 22) an( 23) ( 2) b ( 2 )
ann x n n
a11
(1) (1)
a12 (1)
a13 a1(1n) x1 b1(1)
( 2) ( 2) ( 2) ( 2)
0 a22 a23 x
a2 n 2 b2
m3, 2 a32
( 2) ( 2)
/ a22 0 0 ( 3)
a33 a3( 3n) x3 b3( 3)
an( 22) / a22
( 2) 0 an( 33) ( 3) b ( 3 )
mn , 2 0 ann x n n
23
Algoritmo de la Eliminación Gaussiana
mr , p arp( p ) / a (ppp )
arp( p ) 0
br( p1) br( p ) mr , p bp( p )
For c=p+1 to n
( p 1)
a rc a ( p)
rc mr , p a ( p)
pc
24
Algoritmo de la sustitución
hacia atrás
a11
(1) (1)
a12 (1)
a13 a1(1n) x1 b1(1)
( 2) ( 2) ( 2)
0 a22 a23 a2( 2n) x2 b2
0 0 ( 3)
a33 a3( 3n) x3 b3( 3)
0 0 0 an( n1) n 1 an( n1) n xn 1 b ( n 1)
n 1
ann xn
bn
(n) (n)
0 0 0 0
bn( n )
xn ( n )
ann
xn 1
a
1
( n 1)
b
( n 1)
n 1 ann11n xn
n 1n 1
1 (i ) n
xi (i ) bi aik xk i n 1, n 2, ,1
(i )
aii k i 1
25
Contador de Operaciones
Número de operaciones aritméticas requeridas por el
algoritmo para completar esta tarea.
Generalmente solo multiplicaciones y divisiones son
contadas.
3 2
Proceso de Eliminación n n 5n
3 2 6
Sustitución hacia atrás n2 n Dominates
2 No eficiente para
diferentes vectores RHS
n3 n
Total n
2
3 3
26
Decomposición LU
A=LU
Ax=b LUx=b
Define Ux=y
Ly=b Resolver y por sustitución hacia adelante
Ux=y Resolver x por sustitución hacia atrás
Las operaciones elementales entre filas debe ser desarrolladas en
b así como en A.
La información de estas operaciones es almacenada en L
En verdad y es obtenida aplicando operaciones elementales al
vector b.
27
Decomposición LU por Eliminación
Gausiana
Existen infinitas formas diferentes para descomponer A.
Una de las más populares es: U=Matriz de la Eliminación Gaussiana
L=Multiplicadores usados para la eliminación
Total
n3 n 2
n
2
3 3
Para diferentes vectores RHS, el sistema puede ser
eficientemente resuelto.
29
Pivoteo
Computadoras usan precisión aritmética finita
Pequeños errores son introducidos en cada operación
aritmética, propagación de errores
Cuando los elementos pivotales son muy pequeños, los
multiplicadores podrían ser muy grandes.
La adición de números de magnitud diferente puede
conducir a la pérdida de significación .
Para reducir el error, se realiza intercambio de filas
para maximizar la magnitud del elemento pivotal.
30
Ejemplo: Sin Pivoteo
1.133 5.281 x1 6.414
aritmética 4-digit 24.14 1.210 x 22.93
2
x1 0.9956
x 1.001 Pérdida de precisión
2
31
Ejemplo: Con Pivoteo
24.14 1.210 x1 22.93
1.133 5.281 x 6.414
2
x1 1.000
x 1.000
2
32
Procedimiento de Pivoteo
a11(1) a12(1) a13(1) a1(i1) a1(1j) a1(1n)
( 2) ( 2) ( 2) ( 2) ( 2)
0 a22 a23 a2i a2 j a2 n
0 0 ( 3)
a33 a3( 3i ) a3(3j) a3(3n)
Parte
Eliminada
0 0 0 aii(i ) aij(i ) ain( i ) Fila
Pivotal
0 0 0 a (jii ) a (jji ) a (jni )
(i ) (i ) (i )
0 0 0 ani anj ann
Columna Pivotal
33
Pivoteo por fila
Más comúnmente llamado procedimiento de
pivoteo parcial
Busque la columna pivotal
34
Pivoteo por filas
a11(1) a12(1) a13(1) a1(i1) a1(1j) a1(1n)
( 2) ( 2) ( 2) ( 2) ( 2)
0 a22 a23 a2i a2 j a2 n
0 0 ( 3)
a33 a3( 3i ) a3(3j) a3(3n) Intercambio
de filas
0 0 0 aii(i ) aij(i ) ain( i )
0 0 0 a (jii ) a (jji ) a (jni )
(i ) (i ) (i )
0 0 0 ani anj ann
Intercambie
estas columnas 37
Pivoteo por filas en Descomposición LU
Cuando dos filas de A se
1 1
intercambian, las filas de 2 2
b deben también ser
3 3
intercambiadas.
Use un vector pivote.
Vector pivote inicial son p i p j
enteros desde 1 hasta n.
j i
Cuando dos filas (i y j)
de A son intercambiadas,
n n
aplicar esto al vector
pivote.
38
Modificando el vector b
39
Descomposición LU
algoritmo con pivoteo parcial
mr ,k ark( k ) / akk( k )
ark( k 1) mr ,k Actualizando la matriz L
For c=k+1 to n
Actualizando la ( k 1)
matriz U a rc a (k )
rc mr ,k a
(k )
kc 40
Ejemplo
0 3 2 12 1
A 4 2 1 b 5 p 2
1 4 2 3 3
4 2 1 2
A 0 3 2 p 1
1 4 2 3
41
Ejemplo (continuación)...
4 2 1 2
A 0 3 2 p 1
1 4 2 3
Elimación de a21 y a31 usando a11 como elemento pivotal
A=LU en forma compacta (en una sola matriz)
4 2 1 2
A 0 3 2 p 1
0 3.5 1.75 3
Multiplicadores (matriz L) l21=0; l31=-0.25
42
Ejemplo (continuación)...
4 2 1 2
A 0 3 2 p 1
0 3.5 1.75 3
4 2 1 2
A 0 3.5 1.75 p 3
0 3 2 1
43
Ejemplo (continuación)...
4 2 1 2
A 0 3.5 1.75 p 3
0 3 2 1
4 2 1 2
A 0 3.5 1.75 p 3
0 0 3.5 1
2 12 5
p 3 b 5 b 3
1 3 12
A’x=b’ LUx=b’
Ux=y
Ly=b’
45
Ejemplo (continuación)...
Ly=b’
1 0 0 y1 5 y1 5
0.25 1 0 y 3 y 1.75
2 Sustitución 2
0 3 / 3.5 1 y3 12 Inversa y3 10.5
Ux=y
4 2 1 x1 5 x1 1
0 3.5 1.75 x 1.75 Sustitución x 2
2 2
0 0 3.5 x3 10.5 Directa x3 3
46
Eliminación de Gauss-Jordan
Los elementos sobre la diagonal se convierten y por
debajo de la diagonal son ceros.
a11
(1) (1)
a12 a1(1n) b1(1) a11
(1) (1)
a12 a1(1n) b1(1)
(1) (1)
a21 a22 a2(1n) b2(1) 0
( 2)
a22 a2( 2n) b2( 2 )
(1) ( 2)
an1 an(12) bn(1)
(1)
0 an( 22) bn
( 2)
ann ann
a11
(1)
0 ( 2)
ann b1( 2 ) a11
(1)
0 0 b1( n 1)
0
( 2)
a22 ( 2)
ann b2( 2 ) 0
( 2)
a22 0 b2( n 1)
0 bn( 3) 0 bn( n )
( 3) (n)
0 ann 0 ann
47
Eliminación de Gauss-Jordan
Casi 50% mas de operaciones aritméticas que la
Eliminación Gaussiana.
Gauss-Jordan (GJ) Eliminación es preferible cuando la
inversa de una matriz es requirido.
A I
Aplicar eliminación GJ para convertir A en una matriz
identidad.
I A 1
48
Diferentes formas de factorización LU
Forma de Doolittle a11 a12 a13 1 0 0 u11 u12 u13
Obtenida por a a23 l21 1 0 0 u22 u23
21 a22
Eliminación Gaussiana a31 a32 a33 l31 l32 1 0 0 u33
Forma de Choleski
l11 0 0 l11 l12 l13
l l 22 0 0 l 22 l 23
21
l31 l32 l33 0 0 l33
49
Forma de Crout
Cálculo de la primera columna de L li1 ai1
a1 j
Cálculo de la primera fila de U u1 j
l 11
Cálculo alternado de las colum. de L y filas de U
j 1
lij aij lik u kj j i, i 1,2, , n
k 1
aij k 1 lik u kj
i 1
uij i j, j 2,3, , n
lii
50
Secuencia de la reducción de Crout
a11 a12 a13 a14 l11 0 0 0 1 u12 u13 u14 2
a a22 a23 a24 l21 l22 0 0 0 1 u23 u24
21 4
a31 a32 a33 a34 l31 l32 l33 0 0 0 1 u34
6
a41 a42 a43 a44 l41 l42 l43 l44 0 0 0 1
1 3 5 7
Implica que:
52
Factorización de Choleski (continua)
Una forma de escribir el algoritmo general,es
53
Solución de Sistemas Lineales de ecuaciones
Complejas
Cz=w
C=A+jB Z=x+jy w=u+jv
(A+jB)(x+jy)=(u+jv)
(Ax-By)+j(Bx+Ay)=u+jv
A B x u
B A y v
Sistema lineal de ecuaciones reales
54
Sistemas grandes y Esparcidos
Cuando el sistema lineal es grande y esparcido (muchas
entradas ceros), los métodos directos llegan a ser
ineficientes por la presencia de términos de relleno.
Los términos de relleno son aquellos que resultan ser
diferentes de cero durante la eliminación
Términos
de
a11 0 a13 a14 0 a11 0 a13 a14 0 relleno
0 a 0 0 a
22 0 a24
Eliminación 22 0 a24 0
a31 0 a33 0 a35 0 0
a33
a34
a35
a41 a42 0 a44 0
0 0 0
a44
a45
0 0 a53 0 a55 0 0 0 0
a55 55
Matrices Esparcidas
La matriz de ecuación de nodos es una matriz
esparcida.
Matrices Esparcidas son almacenadas eficientemente
almacenando solamente las entradas no cero.
Cuando del sistema es muy grande (n=10,000) los
términos de relleno aumentan los requerimientos de
almacenamiento considerablemente.
En tales casos los métodos de solución iterativa debe
ser preferidos en lugar de métodos de solución directa.
56
Problema 1
Resolver por Eliminación Gaussiana con pivoteo parcial
de filas: 4 0 2 3 x 9
1
3 2 2 3 x 14
2
2 4 1 1 x3 9
1 1 1 1 4
x 4
E2-(3/4)E1 =>E2
4 0 2 3 x1 9
E3-(1/2)E1 =>E3 0 2 0.5 0.75 x 7.25
2
E4-(-1/4)E1=>E4 0 4 2 2.5 x3 13.5
0 1 1.5 1.75 4
x 6.25
57
Problema 1
Intercambiamos las Ecuaciones 2 y 3 (E2E3)
4 0 2 3 x1 9
0 4 2 2 .5 x 13.5
2
0 2 0.5 0.75 x3 7.25
0 1 1.5 1. 75 4
x 6.25
4 0 2 3 x1 9
E3-(-1/2)E2 =>E3 0 4 2 2.5 x2 13.5
E4-( 1/4)E2 =>E4 0 0 2 2.375 x3 9.625
0 0 0.5 0.5 x4 0.5
58
Problema 1
E4-(-1/4)E3 =>E4
4 0 2 3 x1 9
0 4 2 2.5 x 13.5
2
0 0 2 2.375 x3 9.625
0 0 0 0.09375 x4 2.90625
59
Problema 2
Obtener la factorización de Doolite:
6 1
A
2 4
Solución 1
A partir de la Eliminacion Gaussiana:
m21= a21/a11 =2/6=1/3 6 1
U
E2-(1/3)E1=>E2 0 13 / 3
1 0 1 0 1 0 6 1
L A L *U *
12
m 1 1 / 3 1 1 / 3 1 0 13 / 3
60
Problema 2
Solución 2 6 1 1 0 u11 u12
A L *U *
2 4 21
l 1 0 u 22
Planteando el producto matricial:
6 u11
1 u12
2 l21u11 l21 1 / 3
4 l21u12 u22 u22 13 / 3
6 1 1 0 6 1
A L *U *
2 4 1 / 3 1 0 13 / 3
61
Problema 3
Resolver por la factorización de Doolite:
6 1 x1 5
2 4 x 6
2
Solución
Del ejercicio anterior ya tenemos la factorización LU:
1 0 6 1 x1 5
L *U * x b *
1 / 3 1 0 13 / 3 x2 6
62
Problema 3
Se obtienen dos sistemas triangulares fáciles de resolver.
Resolviendo el sistema triangular inferior por sustitución
directa:
1 0 z1 5 z1 5
L* z b *
1 / 3 1 2 2
z 6 z 13 / 3
Resolviendo el sistema triangular superior por sustitución
directa:
6 1 x1 z1 5 x1 1
U *x z
0 13 / 3 x2 z2 13 / 3 x2 1
63
Problema 4
Obtener la factorización de Crout:
60 30 20
A 30 20 15
20 15 12
Solucion
Debemos plantear la multiplicacion matricial:
a11 a12 a13 l11 0 0 1 u12 u13
A a21 a22 a23 L *U l21 l22 0 0 1 u23
a31 a32 a33 l31 l32 l33 0 0 1
64
Problema 4
a11 l11
a12 l11u12
a13 l11u13
a21 l21
65
Problema 5
Método de Crout para sistemas tridiagonales
a11 a12 0 0 l11 0 0 0 1 u12 0 0
a 0 l21 l22 0 0 0 1 u23 0
21 a22 a23
0 a32 a33 a34 0 l32 l33 0 0 0 1 u34
0 0 a43 a44 0 0 l43 l44 0 0 0 1
2 1 0 0 2 0 0 0 1 1 / 2 0 0
1 2 1 0 1 3 / 2 0 0 0 1 2 / 3 0
0 1 2 1 0 1 4 / 3 0 0 0 1 3 / 4
0 0 1 2 0 0 1 5 / 4 0 0 1
66
Problema 6
Factorizar por el método de Choleski la siguiente
matriz:
4 1 1
1 4.25 2.75
1 2.75 3.5
Solución
Se requiere que la matriz sea simétrica y definida
positiva para aplicar Choleski.
67
Problema 6
Es evidente que la matriz es simétrica; para
verificar que es definida positiva verificamos si se
satisface el criterio de Silvester:
det 4 0
4 1
det 0
1 4. 25
4 1 1
det 1 4.25 2.75 0
1 2.75 3.5
68
Problema 6
Dado que los determinantes de todos los menores
principales son positivos podemos afirma que la
matriz es definida positiva y podemos aplicar la
factorización de Choleski con seguridad.
A L *U L * L U *U T T
69
Problema 6
Resolviendo la multiplicación matricial:
a 0 0 a b f
b c 0 0 c e
d e f 0 0 f
a 2 4
ba 1 0 0 2 1 / 2 1 / 2
2
4.25 b 2 c 2
1 / 2 2 0 0 2 3 / 2
1 ad
2.75 db ec 1 / 2 3 / 2 1 0 0 1
3.5 d 2 e 2 f 2
70