Вы находитесь на странице: 1из 16

Mtodos Iterativos para la

ecuacin f(x)=0

Estimacin inicial
x
0
tal que f(x
0
) ~ 0
Proceso iterativo
x
1
, x
2
,..., x
k
, x
*
: f(x
*
)=0
Criterio de parada
|f(x
k
)| < tol
d
k
= |x
k+1
- x
k
| < tol

Tipos de convergencia
Error del paso k
e
k
= |x
k
- x
*
| ~ |x
k
- x
k-1
|
Convergencia lineal
e
k+1
/ e
k
cte
Convergencia cuadrtica
e
k+1
/ e
k
2
cte

Mtodo de Biseccin
Determinar un intervalo [a,b] tal que f(a) tiene
signo distinto de f(b) y f continua en [a,b].
Hallar el punto medio c del intervalo.
Elegir, entre [a,c] y [c,b], un intervalo en el
que la funcin cambie de signo.
Repetir los pasos 2 y 3 hasta conseguir un
intervalo con la precisin deseada (f(c) <tol)
(Clave: Teorema de Bolzano)
Teorema de Bolzano
Sea f:Ac continua
y sean a,beA
con f(a)f(b) < 0.

Entonces, existe
c e[a,b] con f(c) = 0.

a

b
f(b)
f(a)
Algoritmo de Biseccin
c =(a+b)/2;
if f(a)*f(c)<=0 %elige [a,c]
b=c;
end
if f(c)*f(b)<=0 %elige [c,b]
a=c;
end
Teorema: El mtodo de la biseccin genera una
sucesin {x
n
} que converge a una raz de f con
|x
n
- |s (b-a)/2
n.
Mtodo de Regula-Falsi
Elegir, entre [a,c] y [c,b],
un intervalo en el que la
funcin cambie de signo.
Repetir los pasos 2 y 3
hasta conseguir la precisin
deseada.
) ( ) ( a f b f
a b
f(a) a c

=

Determinar un intervalo [a,b] tal que f(a) tiene signo
distinto de f(b).
Hallar el punto c que divide el intervalo [a,b] en partes
proporcionales a f(a) y f(b). Sea
a
b c
Biseccin Regula Falsi
Convergencia
lineal de razn 1/2.
Cota de la raz:
(b-a)/2
n
.

La aproximacin
obtenida puede ser
peor que la del paso
anterior.

Ms rpido al
principio.
Convergencia lineal.
Error estimado por:
|x
n
-x
n-1
|
Se aproxima a la raz
por un lado.
Mtodo del Punto Fijo
Transformar la ecuacin f(x) = 0 en una ecuacin equivalente
de punto fijo: x = g(x).
Tomar una estimacin inicial x
0
del punto fijo x
*
de g [x
*

punto fijo de g si g(x
*
) = x
*
].
Para k=1, 2, 3, hasta que converja, iterar x
n+1
= g(x
n
).
Teorema del punto fijo: Sea g:[a,b] [a,b] continua, entonces:
a) g posee almenos un punto fijo.
b) Si adems |g(x)|s k<1, x e[a,b], entonces el punto fijo es
nico y si tomamos x
0
e[a,b], la sucesin x
n+1
= g(x
n
) converge
al punto fijo de g(x).

Convergencia del Mtodo del
Punto Fijo
Aplicar el mtodo del punto
fijo a:
- g(x) = cos x, x
0

- g(x) = 2/x
2
, x
0
=1
- g(x) = sqrt(2/x) , x
0
=1
y analizar los resultados.
Sugerencia: Usar la orden
ITERATES(g(x), x, x
0
, n)
de DERIVE y comparar los dos
ltimos con 2^(1/3).
Tomando x
0
cercano al
punto fijo x
*

=si |g(x
*
)| < 1 los iterados
convergen linealmente a x
*
.
=si |g(x
*
)| > 1 los iterados
no convergen a x
*
.
=si g(x
*
) = 0 los iterados
convergen cuadrticamente
a x
*
.

Algoritmo de Punto Fijo
=Datos
EEstimacin inicial: x
0
EPrecisin deseada: tol
ETope de iteraciones: maxiter
=Proceso: mientras no converja repetir
ENueva estimacin: x = g(x
0
)
EIncremento: incr = |x - x
0
|
EActualizacin: x
0
= x
=Resultado
EEstimacin final: x
Mtodo de Newton
Ecuacin de la tangente

Interseccin con OX

Paso genrico


) )( ( ' ) (
0 0 0
x x x f x f y =
) ( ' ) (
0 0 0 1
x f x f x x =
) ( ' ) (
1 n n n n
x f x f x x =
+
(x
0
, f (x
0
))

x
1

f(x)
Convergencia del mtodo de
Newton
Newton como iteracin
de punto fijo

Derivada de la funcin de
iteracin


Convergencia cuadrtica

Ventaja: converge
cuadrticamente si
- la estimacin inicial es
buena
- no se anula la derivada
Inconveniente: usa la
derivada
- coste de la evaluacin
- disponibilidad
) ( ' ) ( ) g( x f x f x x =
2
) ( '
) ( " ) (
) ( ' g
x f
x f x f
x =
0 ) ( ' si 0 ) ( = =
*
x f
*
x ' g
Algoritmo de Newton
=Datos
Estimacin inicial: x

Precisin deseada: tol
Tope de iteraciones: maxiter
=Proceso: mientras no converja repetir
Incremento: incr = - f(x)/f(x)
Nueva estimacin: x = x + incr
=Resultado
Estimacin final: x
) ( ) (
0 0
x x m x f y =
m x f x x ) (
0 0 2
=
0 1
0 1

x x
) f(x ) f(x
m

=
Mtodo de la secante
Ecuacin de la secante


Interseccin con OX


Pendiente

x
0

x
1

f(x)
x
2

(x
1
,f(x
1
))
(x
0
,f(x
0
))
Algoritmo de la secante
Datos: x
0
, x
1
, y
0

Calcular: y
1
= f(x
1
)
Calcular: incr = -y
1
(x
1
-x
0
)/(y
1
-y
0
)
Nueva estimacin: x
2
= x
1
+ incr
Actualizar para el paso siguiente:
x
0
=x
1
; y
0
=y
1
; x
1
=x
2

Newton versus Secante
El mtodo de Newton, cuando converge, lo hace
cuadrticamente, a costa de evaluar la derivada en
cada paso.
Sin usar la derivada, el mtodo de la secante
proporciona convergencia superlineal.
Las ecuaciones polinmicas pueden resolverse por
el mtodo de Newton, puesto que la derivada se
obtiene fcilmente.

Вам также может понравиться