Вы находитесь на странице: 1из 7

Departamento de Ciencias Exactas

Vega Carlos
NRC 1121
Foro de Métodos Numéricos
17 de febrero de 2018

1
MÉTODOS NUMÉRICOS

MARCO TEÓRICO

INTERPOLACIÓN

Supongamos que queremos estudiar cierto fenómeno del que tenemos una serie de datos
puntuales obtenidos por mediciones realizadas y que deseamos extraer una información más
completa a partir de los datos constatados. Una opción puede ser la de ?reconstruir? el fenómeno
modelizándolo con una función que lo represente de la manera más fiable posible.

Método de LAGRANGE

Una manera de determinar el polinomio interpolador sin resolver un sistema de ecuaciones,


es mediante el método que vamos a estudiar y que llamamos Método de Lagrange. Este método
tiene limitaciones, no permite la ampliación del soporte y requiere un número importante de
operaciones, pero no es difı́cil. Se basa en la construcción del polinomio como iremos descri-
biendo paso a paso.

Los polinomios auxiliares de LAGRANGE

Partimos de un soporte S = x0 , x1 , ..., xn donde ninguno de sus valores se repite y están


ordenados de menor a mayor (aunque esto último no es imprescindible).

Definimos los Polinomios de Lagrange: Lj (x) para j = 0, 1, 2, ..., n de la forma que sigue:

n
Y x − xi
Lj (x) =
x − xi
i=0 j

Observa que tomando un soporte con n + 1 puntos, lo que hemos definido son n + 1 polino-
mios de grado n que cumplen lo siguiente:

Lj (xi ) = 0; si i 6= j

Lj (xj ) = 1; si i = j

El polinomio interpolador de LAGRANGE

Seguimos considerando un soporte S = x0 , x1 , ..., xn donde ninguno de sus valores se repite


y están ordenados de menor a mayor. Con estos datos construimos los polinomios auxiliares de
Lagrange: Lj (x) para j = 0, 1, 2, ..., n y también necesitaremos conocer la familia de imágenes
de los puntos del soporte: y0 , y1 , ..., yn , para yi = f (xi )

Podemos afirmar que si se cumplen las condiciones arriba establecidas, el polinomio:

Vega Carlos 2
MÉTODOS NUMÉRICOS

n
X
Pn (x) = yi Lj (x)
j=0

que tiene grado menor o igual que n, interpola la tabla de valores dada.

Método de MÍNIMOS CUADRADOS

Es una técnica de análisis numérico enmarcada dentro de la optimización matemática, en


la que, dados un conjunto de pares ordenados variable independiente, variable dependiente y
una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que
mejor se aproxime a los datos (un ”mejor ajuste”), de acuerdo con el criterio de mı́nimo error
cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias en las
ordenadas (llamadas residuos) entre los puntos generados por la función elegida y los corres-
pondientes valores en los datos. Especı́ficamente, se llama mı́nimos cuadrados promedio (LMS)
cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para
minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado
esperado, con el mı́nimo de operaciones (por iteración), pero requiere un gran número de ite-
raciones para converger.

La aproximación por mı́nimos cuadrados se basa en la minimización del error cuadrático


medio o, equivalentemente, en la minimización del radicando de dicho error, el llamado error
cuadrático, definido como:

Pk=1
n e2k
Ec (f ) =
n
Para alcanzar este objetivo, se utiliza el hecho que la función f debe poder describirse co-
mo una combinación lineal de una base de funciones. Los coeficientes de la combinación lineal
serán los parámetros que queremos determinar. Por ejemplo, supongamos que f es una función
cuadrática, lo que quiere decir que es una combinación lineal, f (x) = ax2 + bx + c, de las
funciones f1 (x) = x2 , f2 (x) = x y f3 (x) = 1 (m=3 en este caso), y que se pretende determinar
los valores de los coeficientes: a, b, c de modo que minimicen la suma (S) de los cuadrados de
los residuos:

n
X n
X
S= (yi − f (xi ))2 = (yi − ax2i − bxi − c)2
i=1 i=1

Esto explica el nombre de mı́nimos cuadrados. A las funciones que multiplican a los co-
eficientes buscados, que en este caso son: x2 , x y 1, se les conoce con el nombre de funciones
base de la aproximación, y pueden ser funciones cualesquiera. Para ese caso general se deduce
a continuación la fórmula de la mejor aproximación discreta (i.e. para un conjunto finito de
puntos), lineal y según el criterio del error cuadrático medio, que es la llamada aproximación

Vega Carlos 3
MÉTODOS NUMÉRICOS

lineal por mı́nimos cuadrados. Es posible generar otro tipo de aproximaciones, si se toman los
errores máximo o medio, por ejemplo, pero la dificultad que entraña operar con ellos, debido
al valor absoluto de su expresión, hace que sean difı́ciles de tratar y casi no se usen.

EJERCICIO

Dada la siguiente EDO, encuentre una solución polinómica aproximada para 8 subinterva-
los, presente ademas la gráfica.
 00
 y + 2y 0 − y = senh2 (x)
f (x) = y(0) = 0
y(0,5) = π6

b−a 0,5 − 0 1
h= = =
n 8 16
Tenemos los siguientes puntos en x:

x0 = 0;
1
x1 = ;
16
2
x2 = ;
16
3
x3 = ;
16
4
x4 = ;
16
5
x5 = ;
16
6
x6 = ;
16
7
x7 = ;
16
1
x8 =
2

f1 − f−1 yk+1 − yk−1


f0 = =⇒ yk0 =
2h 2h
f1 − 2f0 + f−1 yk+1 − 2yk + yk−1
f 00 = 2
=⇒ yk00 =
h h2

Remplazando en la EDO tenemos que:

Vega Carlos 4
MÉTODOS NUMÉRICOS

 
yk+1 − 2yk + yk−1 yk+1 − yk−1
+2 − yk = f (xk )
h2 2h
yk+1 − 2yk + yk−1 + hyk+1 − hyk−1 − h2 yk
= f (xk )
h2

yk−1 (1 − h) + yk (−2 − h2 ) + yk+1 (1 + h) = h2 f (xk )

yk−1 (1 − h) − yk (2 + h2 ) + yk+1 (1 + h) = h2 f (xk )

Constantes utilizadas:

1 2 1
h2 = ( 16 ) = 256

1 15
(1 − h) = (1 − 16
) = 16

1 2 513
(2 + h2 ) = (2 + ( 16 ) )= 256

1 17
(1 + h) = (1 + 16
) = 16

Entonces tendremos si:

k = 1;
15
y0 ( 16 − y1 ( 513
) 256
) + y2 ( 17
16
1
) = ( 256 1
)senh2 ( 16 )

k = 2;
y1 ( 15
16
) − y2 ( 513
256
) + y3 ( 17
16
1
) = ( 256 2
)senh2 ( 16 )

k = 3;
y2 ( 15
16
) − y3 ( 513
256
) + y4 ( 17
16
1
) = ( 256 3
)senh2 ( 16 )

k = 4;
y3 ( 15
16
− y4 ( 513
) 256
) + y5 ( 17
16
1
) = ( 256 4
)senh2 ( 16 )

k = 5;
y4 ( 15
16
− y5 ( 513
) 256
) + y6 ( 17
16
1
) = ( 256 5
)senh2 ( 16 )

k = 6;
y5 ( 15
16
− y6 ( 513
) 256
) + y7 ( 17
16
1
) = ( 256 6
)senh2 ( 16 )

k = 7;
y6 ( 15
16
− y7 ( 513
) 256
) + y8 ( 17
16
1
) = ( 256 7
)senh2 ( 16 )

Vega Carlos 5
MÉTODOS NUMÉRICOS

Resolviendo el sistema de ecuaciones:

 
y1 y2 y3 y4 y5 y6 y7
1 1
)senh2 ( 16 ) − 0( 15
   

 513

 y1 ( 256 16
)
 − 17 1 2 2
 15256 16
0 0 0 0 0 
 y2  
  ( 256 )senh ( 16 ) 

513 17 1 3
 16 −15256

16
0 0 0 0 
 y3  
  ( 256 )senh2 ( 16 ) 

513 17 1 4
 0
 16
− 256 16
0 0 0 
 y4 =
  ( 256 )senh2 ( 16 ) 

15 513 17 1 2 5
 0
 0 16
− 256 16
0 0 
 y5  
  ( 256 )senh ( 16 ) 

15 513 17 1 6
 0
 0 0 16
− 256 16
0 
 y6   ( 256 )senh2 ( 16 ) 
15 513 17 1 2 7 π 17
 0 0 0 0 16
− 256 16
 y7 ( 256 )senh ( 16 ) − 6 ( 16 )
15 513
0 0 0 0 0 16
− 256
   
0 0
1

 16



 0,092763 

2

 16



 0,174968 

3

 16



 0,248203 

4
x=
 16
y = 
  0,313866 

5

 16



 0,373192 

6

 16



 0,427281 

7

16
  0,477120 
1 π
2 6

Con ayuda del programa realizado en Octave, encontraremos el polı́nomio aproximado, me-
diante LAGRANGE:

RESULTADOS DE LAGRANGE
Programa:

%CARLOS VEGA RIVAS


function P=Lagrange(x,y)
%P=Lagrange([0 1/16 2/16 3/16 4/16 5/16 6/16 7/16 1/2],[0
0.092763 0.174968 0.248203 0.313866 0.373192 0.427281 0.477120 pi/6])
n=length(x);
L=zeros(n,n);
for k=1:n
V=1;
for j=1:n
if k~=j
V=conv(V,poly(x(j)))/(x(k)-x(j));
endif
endfor

Vega Carlos 6
MÉTODOS NUMÉRICOS

L(k,:)=V;
endfor
P=y*L;
x1=min(x):0.001:max(x);
y1=polyval(P,x1);
plot(x1,y1,’g’,x,y,’or’)
legend(’Solucion de EDO’);
xlabel(’eje x’);
ylabel(’eje y’);
title(’Polinomio de Lagrange ’);
P=polyout(P,’x’);
disp("El polinomio es : \n");
endfunction

Solución:

El polinomio es :

P = 0.72175*x^8 - 1.6359*x^7 + 1.4205*x^6 - 0.38615*x^5 - 0.5171*x^4


+ 1.2913*x^3 - 1.5786*x^2 + 1.578*x^1 + 0

GRÁFICA

JJ.png

REFERENCIAS

Método de LAGRANGE. Recuperado el 06 de ENERO del 2018. De: http : //ma1.eii.us.es/


miembros/armario/CNG /tema3cn0405.pdf
Canaldet,(2015) Obtenido de : https://www.youtube.com/watch?v=9vR5uWomNrY

LaTeX

Vega Carlos 7

Вам также может понравиться