Вы находитесь на странице: 1из 49

UNIVERSIDAD NACIONAL DE HUANCAVELICA

Facultad De Ciencias De Ingeniera


Escuela Profesional de Ingeniera Civil Huancavelica

MTODOS NUMRICOS

DIFERENCIACIN

Ing.
Vargas Crispin
Wilber Samuel
Aproximacin Polinomial de Newton
Supongamos que tenemos una funcin tabular y que
queremos realizar su aproximacin mediante un polinomio de
primer grado:

Punto 0 1 i n
x x0 x1 xi xn
f ( x) f x 0 f x1 f ( xi ) f ( xn )

Para un polinomio de primer grado se tiene:

p1 ( x) a0 a1 ( x x0 )

ING. V.C.W. 2
Aproximacin Polinomial de Newton
En donde:
x0 : Es la abscisa del punto 0
a0, a1: Constantes por determinar

x x0 a0 p( x0 ) f x0 a0 f x0
p( x1 ) f x0 f x1 f x0
x x1 a1 ( x x0 ) a1
x x0 x1 x0
Consecuentemente tendremos: a1 f x0 , x1

ING. V.C.W. 3
Aproximacin Polinomial de Newton
f x1 f x0
p1 ( x ) f x0 ( x x0 )
x x0
p1 ( x ) f x0 ( x x0 ) f x0 , x1
Para la aproximacin de un polinomio de segundo grado:

p2 ( x) a0 a1 ( x x0 ) a2 ( x x0 )( x x1 )

En donde:
x0, x1 : Son las abscisas de los puntos 0 y 1
a0, a1, a2: Constantes que debemos encontrar

ING. V.C.W. 4
Aproximacin Polinomial de Newton

x x0 a0 p2 ( x) a0 f x0
p 2 ( x ) a0 f x1 f x0 a f x , x
x x1 a1 a1 1 0 1
x1 x0 x1 x0
f x1 f x0
p ( x ) a0 a1 ( x2 x0 ) f x2 f x0 ( x2 x0 )
x x2 a 2 2 2 a2
( x1 x0 )
( x2 x0 )( x2 x1 ) ( x2 x0 )( x2 x1 )

f x2 f x0 f x1 f x0

( x2 x1 ) ( x1 x0 )
a2
( x2 x0 )

ING. V.C.W. 5
Aproximacin Polinomial de Newton
( f x2 f x0 )( x1 x0 ) ( f x1 f x0 )( x2 x1 )
a2
( x2 x0 )( x2 x1 )( x1 x0 )
a2 f x0 , x1 , x2
Finalmente tenemos:

p2 ( x) f x0 ( x x0 ) f x0 , x1 ( x1 x0 )( x x1 ) f x0 , x1 , x2
Generalizando:
pn ( x) a0 a1 ( x x0 ) a2 ( x x0 )( x x1 ) an ( x x0 )( x x1 ) ( x xn 1 )

ING. V.C.W. 6
Aproximacin Polinomial de Newton
En donde:
x0 , x1 , xn : Son las abscisas de los puntos 0, 1, 2, , n

a0 , a1 , an : Son coeficientes por determinar

a0 f x0 ; a1 f x0 , x1 ; a2 f x0 , x1 , x2 ;; an f x0 , x1 , xn

Entonces:
pn ( x) f x0 ( x x0 ) f x0 , x1 ( x x0 )( x x1 ) f x0 , x1 , x2
( x x0 )( x x1 ) ( x xn ) f x0 , x1 ,, xn
Polinomio de aproximacin de Newton

ING. V.C.W. 7
Aproximacin Polinomial de Newton
Ejemplo:
Determinar la aproximacin polinomial de Newton para la
informacin tabular e interpolar para x = 2.

Diferencias Divididas
Puntos x f[x] 1 Dividida 2 Dividida 3 Dividida
0 1 56
14.2
1 5 113 -0.31
4.5 0.019
2 20 181 0.081
1.68
3 40 214

Para el clculo de los coeficientes del polinomio de Newton, se construye la tabla de diferencias divididas

ING. V.C.W. 8
Aproximacin Polinomial de Newton
Ejemplo:

p1 ( x) a0 a1 ( x x0 ) f x0 f x0 , x1 ( x x0 )
f x1 f x0 113 56 57
f x0 , x1 14.2
x1 x0 5 1 4
p1 ( x) 56 14.2( x 1)
p2 ( x) a0 a1 ( x x0 ) a2 ( x x0 )( x x1 ) f x0 f x0 , x1 ( x x0 )
f x0 , x1 , x2 ( x x0 )( x x1 )

ING. V.C.W. 9
Aproximacin Polinomial de Newton
Ejemplo:

f x1 , x2 f x0 , x1 4.5 14.2 9.7


f x0 , x1 , x2 0.51
x2 x0 20 1 19
f x2 f x1 181 113 68
f x1 , x2 4.5
x2 x1 15 15
p2 ( x) 56 14.2( x 1) 0.51( x 1)( x 5)
p1 (2) 56 14.2(2 1) 70.2
p2 (2) 56 14.2(2 6) 0.51(2 1)(2 5) 70.2 1.53 71.7

ING. V.C.W. 10
Aproximacin Polinomial de Newton
Ejemplo:

p3 ( x) a0 a1 ( x x0 ) a2 ( x x0 )( x x1 ) a3 ( x x0 )( x x1 )( x x3 )

a0 f x0 56; a1 f1 x0 , x1 14.2; a2 f x0 , x1 , x2 0.51

f x1 , x2 , x3 f x0 , x1 , x2 0.081 0.51
a3 f x0 , x1 , x2 , x3
x3 x0 40 1
0.429
0.011
39

ING. V.C.W. 11
Aproximacin Polinomial de Newton
Ejemplo:

f x2 , x3 f x1 , x2 1.68 4.5
f x1 , x2 , x3 0.081
x3 x1 40 5
p3 ( x) 56 14.2( x 1) 0.51( x 1)( x 5)
0.019( x 1)( x 5)( x 20)
f (2) p3 (2) 56 14.2(2 1) 0.51(2 1)(2 5)
0.019(2 1)(2 5)(2 20)
71.7 0.969 72.67

ING. V.C.W. 12
Regresiones
Uno de los aspectos ms relevantes de la Estadstica es el anlisis
de la relacin o dependencia entre variables. Frecuentemente
resulta de inters conocer el efecto que una o varias variables
pueden causar sobre otra, e incluso predecir en mayor o menor
grado valores en una variable a partir de otra.

Los mtodos de regresin estudian la construccin de modelos


para explicar o representar la dependencia entre una variable
respuesta o dependiente (Y) y la(s) variable(s) explicativa(s) o
dependiente(s), X.

ING. V.C.W. 13
Regresin Lineal Simple
La estructura del modelo de regresin lineal es la siguiente:

Y 0 1 X
En esta expresin estamos admitiendo que todos los factores o
causas que influyen en la variable respuesta Y pueden dividirse
en dos grupos: el primero contiene a una variable explicativa X y
el segundo incluye un conjunto amplio de factores no controlados
que englobaremos bajo el nombre de perturbacin o error
aleatorio, , que provoca que la dependencia entre las variables
dependiente e independiente no sea perfecta, sino que est
sujeta a incertidumbre.

ING. V.C.W. 14
Regresin Lineal Simple
Esto se explica de la siguiente manera supongamos , que en el
consumo de gasolina de un vehculo (Y) influyen la velocidad (X)
y una serie de factores como el efecto conductor, el tipo de
carretera, las condiciones ambientales, etc, que quedaran
englobados en el error.
y x

y y


Ordenada en
el origen
(intercepto)
b =tgq coeficiente de regresin
q (pendiente)
a
x
ING. V.C.W. 15
Regresin Lineal Simple
Lo que en primer lugar sera deseable en un modelo de regresin
es que estos errores aleatorios sean en media cero para cualquier
valor x de X, es decir:
E / X x E 0

Por lo tanto:
En dicha expresin se observa que:
La media de , para un valor fijo , vara linealmente con .
Para un valor se predice un valor en dado por = [ / = ] = 0 + 1 , por
lo que el modelo de prediccin puede expresarse tambin Como = 0 + 1 .
El parmetro 0 es la ordenada al origen del modelo (punto de corte con el eje ) y
1 la pendiente, que puede interpretarse como el incremento de la variable
dependiente por cada incremento en una unidad de la variable independiente. Estos
parmetros son desconocidos y habr que estimarlos de cara a realizar predicciones.

ING. V.C.W. 16
Regresin Lineal Simple
Estimacin de los parmetros del modelo:
Partimos de una muestra de valores de X e Y medidos sobre n
individuos:

( x1 , y1 ), ( x2 , y2 ), , ( xn , yn )

Y queremos estimar valores en segn el modelo = 0 + 1 ,


donde 0 y 1 son por el momento desconocidos. Debemos
encontrar entonces de entre todas las rectas la que mejor se
ajuste a los datos observados, es decir, buscamos aquellos
valores de 0 y 1 que hagan mnimos los errores de estimacin.

ING. V.C.W. 17
Regresin Lineal Simple
Para un valor xi, el modelo estima un valor en Y igual a

i 0 1 xi
y
Y el valor observado en Y es igual a yi, con lo cual el error de
estimacin en ese caso vendra dado por:

ei yi yi yi ( 0 1 xi )
Entonces tomaremos como estimaciones de 0 y 1 , que notamos
por 0 y 1 , aquellos valores que hagan mnima la suma de los
errores al cuadrado, que viene dada por:

ING. V.C.W. 18
Regresin Lineal Simple
n n 2

SSE i yi ( 0 1 xi )
e 2

i 1 i 1

De ah que al mtodo de estimacin se le llame mtodo de


mnimos cuadrados. La solucin se obtiene por el mecanismo
habitual, derivando SSE con respecto a 0 y 1 e igualando a 0.
Los estimadores resultan:

SS xy
0 y 1 x 1
SS xx

ING. V.C.W. 19
Regresin Lineal Simple
Siendo:
n n
SS xy (x
i 1
i x ) ( yi y ) x y
i 1
i i nx y

n 2 n
SS xx ( xi x ) i
2 2 2
x n x n x
i 1 i 1
A la recta resultante
Y 0 1 X

Se le llama recta de regresin lineal de Y sobre X.

ING. V.C.W. 20
Regresin Lineal Simple
Ejemplo:
En un ensayo de laboratorio de Resistencia de Materiales, una muestra de concreto
fc= 210 kg/cm2, se someti al equipo de Compresin Simple, para obtener el
esfuerzo que se necesitaba para producir diferentes deformaciones unitarias, siendo
estas los resultados conseguidos:

(/2)
0.0001 14.3
0.0002 28.3 Donde:
0.0003 42.1
: Deformacin Unitaria (Adimensional)
: Esfuerzo (kg/cm2)
0.0004 55.5
0.0005 68.5
0.0006 81.2
0.0007 93.6
0.0008 105.5
0.0009 116.9

ING. V.C.W. 21
Regresin Lineal Simple
( )( ) ( )
0.0001 14.3 -0.0004 -53.022 0.02120889 0.00000016

0.0002 28.3 -0.0003 -39.022 0.01170667 0.00000009

0.0003 42.1 -0.0002 -25.222 0.00504444 0.00000004

0.0004 55.5 -0.0001 -11.822 0.00118222 0.00000001

0.0005 68.5 0 1.178 0 0

0.0006 81.2 1E-04 13.878 0.00138778 1E-08

0.0007 93.6 0.0002 26.278 0.00525556 0.00000004

0.0008 105.5 0.0003 38.178 0.01145333 0.00000009

0.0009 116.9 0.0004 49.578 0.01983111 0.00000016

0.07707 0.0000006

0.0005 67.322 SXY SXX

ING. V.C.W. 22
Regresin Lineal Simple
Con los datos de la tabla anterior se tiene:

SS xy 0.07707 , SS xx 6x10 -7
SS xy
1 0 y 1 x
SS xx

1 128450 0 3.097
La recta de regresin de Y sobre X es por tanto:

Y 3.097 128450 X

ING. V.C.W. 23
Coeficiente de Correlacin Lineal
Nuestro objetivo en adelante ser medir la bondad del ajuste de
la recta de regresin a los datos observados y cuantificar al
mismo tiempo el grado de asociacin lineal existente entre las
variables en cuestin. A mejor ajuste, mejores sern las
predicciones realizadas con el modelo.

Como solucin al inconveniente planteado, para medir la


asociacin lineal entre dos variables X e Y se utiliza una medida
adimensional denominada coeficiente de correlacin lineal,
dado por:
SS xy SS xx
r 1
SS xx SS yy SS yy

ING. V.C.W. 24
Coeficiente de Correlacin Lineal
El coeficiente de correlacin lineal toma valores entre -1 y 1 y su
interpretacin es la siguiente:
Un valor cercano o igual a 0 indica respectivamente poca o
ninguna relacin lineal entre las variables.
Cuanto ms se acerque en valor absoluto a 1 mayor ser el
grado de asociacin lineal entre las variables. Un coeficiente
igual a 1 en valor absoluto indica una dependencia lineal
exacta entre las variables.
Un coeficiente positivo indica asociacin lineal positiva, es
decir, tienden a variar en el mismo sentido.
Un coeficiente negativo indica asociacin lineal negativa, es
decir, tienden a variar en sentido opuesto.

ING. V.C.W. 25
Coeficiente de Determinacin
Segn hemos visto, el coeficiente de correlacin lineal puede
interpretarse como una medida de la bondad del ajuste del
modelo lineal, concretamente, un valor del coeficiente igual a 1 o
-1 indica dependencia lineal exacta, en cuyo caso el ajuste es
perfecto.

No obstante, para cuantificar la bondad del ajuste de un modelo,


lineal o no, se utiliza una medida que se denomina coeficiente
de determinacin lineal 2 , que es la proporcin de variabilidad
de la variable y cuya expresin es:

ING. V.C.W. 26
Coeficiente de Determinacin
n

( y i y)2
SSE
R2 i 1
n
1
( y
SS yy
i y)2
i 1

Que en modelo de regresin lineal coincide con el cuadrado del


coeficiente de correlacin lineal:

R2 r 2
El coeficiente de determinacin toma valores entre 0 y 1, y
cuanto ms se aproxime a 1 mejor ser el ajuste y por lo tanto
mayor la fiabilidad de las predicciones que con l realicemos.

ING. V.C.W. 27
Coeficiente de Determinacin
Para el ejemplo anterior:

SS xy
r
SS xx SS yy
R r
2 2

0.07707
r -7
0.9995
6x10 x9910.01556

R r 2 0.99952 0.999

ING. V.C.W. 28
Regresiones No Lineales
La regresin lineal no siempre da buenos resultados, porque a veces la
relacin entre Y y X no es lineal sino que exhibe algn grado de curvatura.
La estimacin directa de los parmetros de funciones no-lineales es un
proceso bastante complicado. No obstante, a veces se pueden aplicar las
tcnicas de regresin lineal por medio de transformaciones de las
variables originales.

ING. V.C.W. 29
Regresin Logartmica
Se tiene la curva logartmica:

Y 0 1 ln X
Es tambin una recta, pero en lugar de estar referida a las
variables originales X e Y, est referida a logX y a Y.

Para realizar la regresin se hace una linealizacin simple en la


expresin anterior:

Y 0 1 X '

Ya linealizada se aplica el mismo procedimiento de mnimos


cuadrados

ING. V.C.W. 30
Regresin Logartmica
() ()() ( ) ( )
0.0001 -9.21034037 14.3 -1.42242528 -53.022 75.4201491 2.02329366 2811.35605

0.0002 -8.51719319 28.3 -0.7292781 -39.022 28.4580519 0.53184654 1522.73383

0.0003 -8.11172808 42.1 -0.32381299 -25.222 8.16728311 0.10485485 636.160494

0.0004 -7.82404601 55.5 -0.03613091 -11.822 0.4271477 0.00130544 139.764938

0.0005 -7.60090246 68.5 0.18701264 1.178 0.22025933 0.03497373 1.38716049

0.0006 -7.4185809 81.2 0.36933419 13.878 5.12553787 0.13640775 192.592716

0.0007 -7.26443022 93.6 0.52348487 26.278 13.7560192 0.27403641 690.521605

0.0008 -7.13089883 105.5 0.65701627 38.178 25.083421 0.43167037 1457.54272

0.0009 -7.01311579 116.9 0.7747993 49.578 38.4128276 0.60031396 2457.95605

() 195.070697 4.13870272 9910.01556

0.0005 -7.7879151 67.322 SXY SXX SYY

ING. V.C.W. 31
Regresin Logartmica
Entonces:

Y 0 1 X '
Y 434.392 47.133 ln( x )

Con los siguientes coeficientes de correlacin y determinacin:

r 0.9632
R 0.928

ING. V.C.W. 32
Regresin Exponencial
Se tiene la curva exponencial:

Y 0 e 1 X
Tomando logaritmos para linealizar la funcin:

ln(Y ) ln( 0 ) 1 X

Y ' 0 ' 1 X

Ya linealizada se aplica el mismo procedimiento de mnimos


cuadrados

ING. V.C.W. 33
Regresin Exponencial
() ()() ( ) ( )
0.0001 14.3 2.66025954 -0.0004 -1.378 0.00055111 0.00000016 1.8982794

0.0002 28.3 3.3428618 -0.0003 -0.695 0.00020855 0.00000009 0.48327292

0.0003 42.1 3.74004774 -0.0002 -0.298 5.9598E-05 0.00000004 0.08879947

0.0004 55.5 4.01638302 -0.0001 -0.022 2.1657E-06 0.00000001 0.00046903

0.0005 68.5 4.22683375 0 0.189 0 0 0.03564302

0.0006 81.2 4.39691525 1E-04 0.359 3.5888E-05 1E-08 0.12879134

0.0007 93.6 4.53903038 0.0002 0.501 0.0001002 0.00000004 0.25099122

0.0008 105.5 4.65871095 0.0003 0.621 0.0001862 0.00000009 0.38523225

0.0009 116.9 4.76131887 0.0004 0.723 0.00028931 0.00000016 0.52313211

() 0.00143303 0.0000006 3.79461078

0.0005 67.322 4.03804014 SXY SXX SYY

ING. V.C.W. 34
Regresin Exponencial
Entonces:

Y 0 e 1 X

Y 17.182e 2388.380 X

Con los siguientes coeficientes de correlacin y determinacin:

r 0.9497
R 0.902

ING. V.C.W. 35
Regresin Potencial
Se tiene la curva potencial:

Y 0 x 1
Tomando logaritmos para linealizar la funcin:

log(Y ) log( 0 ) 1 log( X )

Y ' 0 ' 1 X '

Ya linealizada se aplica el mismo procedimiento de mnimos


cuadrados

ING. V.C.W. 36
Regresin Potencial
() () ()() ( ) ( )
0.0001 14.3 -4.0000 1.1553 -0.6178 -0.598 0.3696 0.3816 0.3580

0.0002 28.3 -3.6990 1.4518 -0.3167 -0.302 0.0956 0.1003 0.0912

0.0003 42.1 -3.5229 1.6243 -0.1406 -0.129 0.0182 0.0198 0.0167

0.0004 55.5 -3.3979 1.7443 -0.0157 -0.009 0.0001 0.0002 0.0001

0.0005 68.5 -3.3010 1.8357 0.0812 0.082 0.0067 0.0066 0.0067

0.0006 81.2 -3.2218 1.9096 0.1604 0.156 0.0250 0.0257 0.0243

0.0007 93.6 -3.1549 1.9713 0.2273 0.218 0.0495 0.0517 0.0473

0.0008 105.5 -3.0969 2.0233 0.2853 0.270 0.0769 0.0814 0.0727

0.0009 116.9 -3.0458 2.0678 0.3365 0.314 0.1057 0.1132 0.0987

() () 0.7473 0.7806 0.7157

0.0005 67.322 -3.3822 1.7537 SXY SXX SYY

ING. V.C.W. 37
Regresin Potencial
Entonces:

Y 0 x 1

Y 98134.618 X 0.957

Con los siguientes coeficientes de correlacin y determinacin:

r 0.99985
R 0.999707

ING. V.C.W. 38
Caso Polinomial
En la ingeniera, aunque algunos datos exhiben un patrn
marcado, son pobremente representados por una lnea recta,
entonces una curva ser la ms adecuada para ajustarse a los
datos; una alternativa es ajustar polinomios a los datos mediante
regresin polinomial.
La ecuacin de un polinomio de grado n es:
n
y a0 a1 x a2 x 2
an x n
q
i
a i xi

Apliqumosle el mtodo de mnimos cuadrados. La curva


propuesta es:

y a0 a1 x a2 x 2 an x n e

ING. V.C.W. 39
Caso Polinomial
Donde son coeficientes y es el error. Una estrategia es
minimizar la suma de los cuadrados de los residuos ( ), entre la
y medida y la y calculada con el modelo lineal, est dada por:

i ( yi ,medida yi ,mod elo )


2
Sr e 2

Sr ( yi a0 a1 xi a2 x 2 i an xi ) 2
n

ING. V.C.W. 40
Caso Polinomial
Las derivadas parciales estn dadas por:


a0
Sr
a0
(y i a0 a1 xi a2 x 2 i an x n i ) 2


a1
Sr
a1
i 0 1 i 2
( y a a x a x 2
i a n x n
i ) 2



an
Sr
an
(y i a0 a1 xi a2 x 2 i an x n i ) 2

ING. V.C.W. 41
Caso Polinomial
Esto es:


S r 2 ( yi a0 a1 xi a2 x 2 i an x n i )
a0


S r 2 ( yi a0 a1 xi a2 x 2 i an x n i )
a1

Y as sucesivamente hasta la n ecuacin.


Posteriormente se igualan a 0 las ecuaciones:


Sr 0 Sr 0 Sr 0
a0 a1 an

ING. V.C.W. 42
Caso Polinomial
Omitiendo los pasos siguientes, reordenando, para desarrollar el
siguiente sistema de ecuaciones normales:

a0 ( m) a1 xi a2 xi an xi yi
2 n

a0 xi a1 xi a2 xi an xi yi xi
2 3 n 1

a0 xi a1 xi a2 xi an xi yi xi
2 3 4 n2 2


a0 xi a1 xi a2 xi an xi yi xi
n n 1 n2 2n n

Todas las sumatorias son desde i = 1 hasta m (donde m es el


nmero de puntos).

ING. V.C.W. 43
Caso Polinomial
Podemos escribir el sistema de ecuaciones normales obtenido en
la forma:
S x a S xy
Donde:
m x x
2 n
x

x x
2
x 3
x
n 1


x
2 3 4 n2
Sx x x x



x x x x
n n 1 n2 2n

ING. V.C.W. 44
Caso Polinomial
y
a 0
a yx
1 2
a a 2 S xy yx


an yx n


Sx: Matriz de sumatorias de potencias x.
a: Vector de coeficientes. Las constantes del polinomio.
Sxy: Vector de sumatorias de potencias de x con ys.

ING. V.C.W. 45
Caso Polinomial
Ejemplo:
Para el ejercicio anterior encontrar su regresin cuadrtica:


1 0.0001 14.3 0.00000001 1E-12 1E-16 0.00143 0.000000143
2 0.0002 28.3 0.00000004 8E-12 1.6E-15 0.00566 0.000001132
3 0.0003 42.1 0.00000009 2.7E-11 8.1E-15 0.01263 0.000003789
4 0.0004 55.5 0.00000016 6.4E-11 2.56E-14 0.0222 0.00000888
5 0.0005 68.5 0.00000025 1.25E-10 6.25E-14 0.03425 0.000017125
6 0.0006 81.2 0.00000036 2.16E-10 1.296E-13 0.04872 0.000029232
7 0.0007 93.6 0.00000049 3.43E-10 2.401E-13 0.06552 0.000045864
8 0.0008 105.5 0.00000064 5.12E-10 4.096E-13 0.0844 0.00006752
9 0.0009 116.9 0.00000081 7.29E-10 6.561E-13 0.10521 0.000094689

0.0045 605.9 0.00000285 2.025E-09 1.5333E-12 0.38002 0.000268374

ING. V.C.W. 46
Caso Polinomial
S x a S xy

9 0.0045 0.00000285
S x 0.0045 0.00000285 2.025E - 09
0.00000285 2.025E - 09 1.5333E - 12

605.9
S xy 0.38002
0.00026837

ING. V.C.W. 47
Caso Polinomial
S x a S xy
1
9 0.0045 0.00000285 605.9
a 0.0045 0.00000285 2.025E - 09 0.38002

0.00000285 2.025E - 09 1.5333E - 12 0.00026837

1.619047619 - 6785.71429 5952380.952 605.9


a - 6785.71429 34134199.1 - 3.2468E 10 0.38002
5952380.952 - 3.2468E 10 3.24675E 13 0.00026837

ING. V.C.W. 48
Caso Polinomial
Ejemplo:
Finalmente tenemos los coeficientes correspondientes ala
ecuacin cuadrtica :
- 0.26190476
a 146772.5108
- 18322510.8

Y ( X ) -18322510.8X 2 146772.5108X - 0.26190476


r 0.999998281
R 0.999996563

ING. V.C.W. 49

Вам также может понравиться