Вы находитесь на странице: 1из 26

REGRESION Y CORRELACION

PROBABILIDAD Y ESTADISTICA

Sandra Guadalupe Garca Aburto

Semestre: 2

Edgar Eduardo Mora Reyes


3 de Junio del 2014

REGRESION Y CORRELACION

REGRESION Y CORRELACION
CONTENIDO

Introduccin. .................................................................. 1 Regresin ......................................................................2 Regresin simple........................................................3 Regresin no lineal ....................................................4 Regresin mltiple .....................................................5 Correlacin.....................................................................6 Coeficiente de correlacin .........................................7 Coeficiente de determinacin. ..................................8 Prueba de hiptesis para correlacin... .....................9 Conclusin ...................................................................10 Bibliografa...................................................................11

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION

INTRODUCCION
En este trabajo se exponen los temas y algunos ejemplos acerca de la regresin y correlacin; por lo cual se estudia el anlisis de regresin, que consiste en emplear mtodos que permitan determinar la mejor relacin funcional entre dos o ms variables (o relacionadas), al igual que el anlisis de correlacin, que trata del grado de asociacin de dos o ms variables, puesto que el concepto de correlacin est estrechamente vinculado al concepto de regresin. Dentro del anlisis de regresin, se exponen tres subtemas importantes, como: la regresin lineal simple, la regresin no lineal y la regresin mltiple, que suelen identificarse cada una por la relacin entre las variables. Para el anlisis de correlacin es necesario conocer el coeficiente de correlacin, la cual es una medida que permite cuantificar el grado de relacin lineal que existe entre las variables, as como tambin se debe de conocer el Coeficiente de Determinacin, el cual Mide el porcentaje de variacin en la variable respuesta, explicada por la variable independiente. Es ahora cuando se da inicio a este tema tan importante dentro de la probabilidad y estadstica.

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION

Regresin
Cundo existe regresin?
De una forma general, lo primero que suele hacerse para ver si dos variables aleatorias estn relacionadas o no (de ahora en adelante las llamaremos X e Y, denotando con Y a la variable dependiente, y X a la variable independiente o regresora), consiste en tomar una muestra aleatoria. Sobre cada individuo de la muestra se analizan las dos caractersticas en estudio, de modo que para cada individuo tenemos un par de valores (xi, yi) (i=1,..., n). Seguidamente, representamos dichos valores en unos ejes cartesianos, dando lugar al diagrama conocido como diagrama de dispersin o nube de puntos. As, cada individuo vendr representado por un punto en el grfico, de coordenadas, xi, yi. De esa forma, podremos obtener una primera idea acerca de la forma y de la dispersin de la nube de puntos. Al dibujar la nube de puntos, podemos encontrarnos, entre otros, los casos a los que hace referencia la figura 6.1. En primer lugar deberemos distinguir entre dependencia funcional y Dependencia estocstica. En el primer caso la relacin es perfecta: Y=f(X) (ver figura 6.1d y e); es decir, los puntos del diagrama de dispersin correspondiente, aparecen sobre la funcin Y=f(X). Por ejemplo, el caso de la figura 6.1d sera Y=a+bX. Sin embargo, lo que suele ocurrir es que no existe una dependencia funcional perfecta, sino otra dependencia o relacin menos rigurosa que se denomina dependencia estocstica (figura 6.1b y c); entonces, la relacin entre X e Y, podramos escribirla (en el caso de la figura 6.1.b) de la forma Y=a+bX+e, donde e es un error o un residual, debido por ejemplo, a no incluir variables en el modelo que sean importantes a la hora de explicar el comportamiento de Y, y cuyos efectos sean diferentes a los de X; errores aleatorios o de medida, o simplemente a que estamos especificando mal el modelo (por ejemplo, que en lugar de ser una recta, sea una parbola).

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION

Figura 6.1: Tipos de relacin entre dos variables X e Y

El caso de la figura 6.1a se corresponde con el de ausencia de relacin, o independencia. En la dependencia estocstica, se distinguen dos tipos de tcnicas: 1.- Anlisis de Regresin 2.- Anlisis de Correlacin* El Anlisis de correlacin, tiene como fin dar respuesta a las preguntas: a.- Existe dependencia estocstica entre las variables? b.- Cul es el grado de dicha dependencia? * El orden de exposicin de los dos Anlisis es arbitrario. El orden para su estudio puede invertirse.

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION
El Anlisis de regresin: a.- Cul es el tipo de dependencia entre las dos variables? b.- Pueden estimarse los valores de Y a partir de los de X? Con qu precisin? De modo general, diremos que existe regresin de los valores de una variable con respecto a los de otra, cuando hay alguna lnea, llamada lnea de regresin que se ajusta ms o menos claramente a la nube de puntos. Si existe regresin, a la ecuacin que nos describe la relacin entre las dos variables la denominamos ecuacin de regresin. Por ejemplo: Y=a+bX Y=a+bX+cX2

En general, la variable X se conoce como variable independiente, y la Y como variable dependiente. Evidentemente puede ser arbitrario el determinar la existencia de regresin as como el tipo de la misma, ya que depende del autor o del estado de nimo de la persona en un momento determinado. Por lo tanto, se hacen necesarios mtodos estadsticos objetivos, independientes del investigador, para determinar la existencia o no de relacin y el tipo de la misma.

Tipos de regresin
Si las dos variables X e Y se relacionan segn un modelo de lnea recta, hablaremos de Regresin Lineal Simple: Y=a+bx. Cuando las variables X e Y se relacionan segn una lnea curva, hablaremos de Regresin no lineal o curvilnea. Aqu podemos distinguir entre Regresin parablica, Exponencial, Potencial, etc. Cuando tenemos ms de una variable independiente (X1, X2,..., Xp), y una sola variable dependiente Y, hablaremos de Regresin mltiple.

Regresin Lineal Simple


Nos centraremos en primer lugar, en el caso de que la funcin que relaciona las dos variables X e Y sea la ms simple posible, es decir, una lnea recta. Por ello pasaremos a interpretar los coeficientes que determinan una lnea recta.

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION
Toda funcin de la forma Y=a+bX determina, al representarla en el plano una lnea recta, donde X e Y son variables y a y b son constantes. Por ejemplo: Y=3+2X. SIGNIFICADO DE a y b a es la ordenada en el origen, es decir, es la altura a la que la recta corta al eje Y. Se denomina tambin trmino independiente. b, tambin denominada pendiente es la inclinacin de la recta, es decir, es el incremento que se produce en la variable Y cuando la variable X aumenta una unidad. Por ejemplo, en el caso anterior Y=3+2X, por cada unidad que incrementa la X, la Y presenta un incremento medio de 2 unidades. En la recta de regresin -como ya veremos- b recibe el nombre de Coeficiente de regresin. Si b>0, entonces cuando X aumenta Y tambin lo hace (relacin directa). Si b<0, entonces, cuando X aumenta Y disminuye (relacin inversa).

Figura 6.4: Signo de la pendiente en una recta de regresin ESTIMACIN DE LA RECTA DE REGRESIN POR EL MTODO DE LOS MNIMOS CUADRADOS Sean X e Y dos variables aleatorias medidas sobre los mismos individuos, y sean (xi,yi) los pares de observaciones sobre dichos individuos. En primer lugar procederemos a representar el diagrama de dispersin, o nube de puntos. Supongamos que es la obtenida en la figura 6.5. Aunque la nube revele una gran dispersin, podemos observar una cierta tendencia lineal al aumentar X e Y (tendencia que no es del todo exacta; por ejemplo si suponemos

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION
que X es la edad e Y es la talla, obviamente, la talla no slo depende de la edad, adems tambin puede haber errores de medida). Por esa nube de puntos podemos hacer pasar infinitas rectas. De todas ellas debemos elegir una cul?... Obviamente elegiremos la mejor de todas en algn sentido. La recta de regresin debe tener carcter de lnea media, debe ajustarse bien a la mayora de los datos, es decir, pasar lo ms cerca posible de todos y cada uno de los puntos. Llamaremos a la mejor de todas Y*=a+bX (Y* para distinguir los valores de la tabla de los que se habran producido con la recta si la relacin fuese funcional).

Figura 6.5: Nube de puntos y posibles rectas que pueden pasar por ella.

Que pase lo ms cerca posible de todos los puntos, es decir que diste poco de todos y cada uno de ellos significa que hemos de adoptar un criterio particular que en general se conoce como MNIMOS CUADRADOS. Este criterio significa que la suma de los cuadrados de las distancias verticales de los puntos a la recta debe ser lo ms pequea posible (ver figura 6.6). (Obviamente, este es uno de los posibles criterios a adoptar, pero es el ms utilizado).

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION

Figura 6.6: Recta de regresin mostrando los residuos o errores que se minimizan en el procedimiento de ajuste de los Mnimos cuadrados.

Estas distancias verticales se denominan errores o residuos. Entonces el criterio puede expresarse:

Dado que la recta de regresin deber tener carcter de lnea media, esa suma de distancias deber anularse (lo mismo que suceda, como veamos en la primera unidad didctica al tratar de hallar la suma de las diferencias con respecto a la media aritmtica). Por las mismas razones que entonces, para evaluar la dispersin, trabajaremos con esas distancias, pero al cuadrado, de modo que la funcin que deberemos minimizar ser:

En la anterior expresin lo conocemos todo, excepto a y b. Para encontrar dichos valores, con la condicin de que D sea mnima, deberemos hallar las derivadas parciales de D con respecto a a y a b, y resolver el sistema resultante, al igualar las ecuaciones obtenidas a 0. Es decir, el problema se reduce a un problema de mnimos.

Edgar Eduardo Mora Reyes

REGRESION Y CORRELACION

As, obtendremos:

Adecuando convenientemente las ecuaciones anteriores, obtenemos:

Operando y Ecuaciones

reorganizando

trminos,

obtenemos

las

denominadas

Normales de Gauss:

Resolviendo el sistema, obtenemos las expresiones para a y b:

La interpretacin de a y b, es anloga a la que comentbamos en el apartado 6.1.3.2, slo que como ya dijimos entonces, b recibe el nombre de Coeficiente de Regresin.

Edgar Eduardo Mora Reyes

10

REGRESION Y CORRELACION
Como podemos observar, en el numerador de b, aparece la covarianza, y en el denominador la varianza de la variable independiente. Esto hace que el signo de b sea el mismo signo que el de la covarianza, por lo que si b>0, entonces, existe una relacin directa entre las variables, y si b<0 entonces la relacin es inversa. En nuestro ejemplo de talla y edad, b sera el incremento medio que se produce en la talla, por cada incremento unitario de edad; si la edad est en aos, por cada ao aumente la edad. Si queremos predecir un valor yi a partir de un valor concreto de xi, utilizaremos la expresin de la ecuacin donde ahora ya, a y b son conocidos. No olvidemos que ese era uno de los objetivos del anlisis, tratar de conocer valores de Y a partir de los de X:

Suposiciones de la regresin lineal 1. Los valores de la variable independiente X son "fijos". 2. La variable X se mide sin error (se desprecia el error de medicin en X) 3. Existe una subpoblacin de valores Y normalmente distribuido para cada valor de X. 4. Las variancias de las subpoblaciones de Y son todas iguales. 5. Todas las medias de las subpoblaciones de Y estn sobre la misma recta. 6. Los valores de Y estn normalmente distribuidos y son estadsticamen te independientes. Los supuestos del 3 al 6 equivalen a decir que los errores son aleatorios, que se distribuyen normalmente con media cero y variancia . Terminologa: Promedios

Sumas de cuadrados y productos de X e Y.

Edgar Eduardo Mora Reyes

11

REGRESION Y CORRELACION

SCY tambin corresponde a la suma de cuadrados total = SC total Estimacin de parmetros La funcin de regresin lineal simple es expresado como: Y = o + 1X + La estimacin de parmetros consiste en determinar los parmetros o y 1 a partir de los datos mustrales observados; es decir, deben hallarse valores como bo y b1 de la muestra, que represente a o y 1, respectivamente. Empleando el mtodo de los mnimos cuadrados, es decir minimizando la suma de cuadrados de los errores, se determinan los valores de bo y b1, as:

b0: es el valor que representa (estimador) a 0 constituye el intercepto cuando X=0; b1: es el valor que representa (estimador) a 1. Sus desviaciones estndares respectivas son:

Edgar Eduardo Mora Reyes

12

REGRESION Y CORRELACION

Luego, la ecuacin de regresin es: y = bo + b1X El coeficiente de regresin (b1) .- pendiente de la recta de regresin, representa la tasa de cambio de la respuesta Y al cambio de una unidad en X. Si b1=0, se dice que no existe relacin lineal entre las dos variables.

Fuentes de variacin en la regresin lineal Los clculos de regresin pueden ser vistos como un proceso de particin de la suma total de cuadrados; as, grficamente se tiene:

Edgar Eduardo Mora Reyes

13

REGRESION Y CORRELACION

Se observa que la desviacin total para un Yi en particular es igual a la suma de las desviaciones explicada e inexplicada, simblicamente. Luego:

SC total = SC regression + SC residual Suma de Cuadrados del Total (SCT), mide la dispersin (variacin total) en los valores observados de Y. Este trmino se utiliza para el clculo de la variancia de la muestra. Suma de Cuadrados explicada (Suma de Cuadrados debido a la Regresin, SCR) mide la variabilidad total en los valores observados de Y en consideracin a la relacin lineal entre X e Y. Suma de Cuadrados residual (inexplicada, Suma de Cuadrados del Error, SCE) mide la dispersin de los valores Y observados respecto a la recta de regresin Y (es la cantidad que se minimiza cuando se obtiene la recta de regresin). Anlisis de Variancia para la regresin lineal simple Cuando cada particin se asocia a una porcin correspondiente del total de grados de libertad, la tcnica es conocida cono anlisis de variancia (ANVA), que generalmente se presenta en un cuadro de la siguiente forma: Cuadro del ANVA.

Edgar Eduardo Mora Reyes

14

REGRESION Y CORRELACION
Fuentes Grados de Suma Cuadrados Libertad Regresin 1 b1.SPXY (SC) Residual: Error n-2 Diferencia Total n-1 SC Y 2) La prueba estadstica F evala las hiptesis: 0. regresin lineal de Y en funcin de X. Para el ejemplo del grafico (ao base 1990 = 0) Aos (X) Madera Aserrada (Y) 0 1 2 3 4 5 6 7 8 9 489.2 475.2 495.7 585.2 565.7 630.2 624.9 482.2 590.2 834.6 5 4 2 8 2 2 7 7 7 Gl Regresin Residual Total 1 8 9 SC 49223 56303 105526 CM F F0.05 Pr>F 0,0295 Existe de Cuadrados Medios b1.SPXY (CM) SC(residual) (nFc CM(regresin)/ / CM(residual)

49223 6,9941 5,31 7037.8

Modelo de regresin estimado: Total de Madera aserrada (miles de m3) = 467,42 + 24,42 X X = El periodo. R = (49223 / 105526) *100% = 46% Intercepto = 467,42 Tasa = 24,42 Significa que el crecimiento anual es de 24 mil metros cbicos. Intervalos de Confianza Intervalos de confianza para 1 (tasa) En muchos casos es de inters conocer entre que valores se encuentra el coeficiente de regresin de la poblacin 1 para un cierto grado de confianza fijada, este procedimiento permite hallar los valores llamados lmites de confianza, as:

Edgar Eduardo Mora Reyes

15

REGRESION Y CORRELACION
b1 Dnde: t0 es el valor "t" tabular al nivel de significacin y n -2 grados de libertad (t0 = t, n -2). t 0.05, 8 = 2,30; SC X = 82.5; Sb1 = 9,23 Lmite Inferior = 24,42 2,30 (9,23) = 3.12 Limite Superior = 24,42 + 2,30 (9,23) = 45,72 Con estos resultados se puede afirmar al 95% de confianza que la tasa de crecimiento en madera aserrada es positiva y por lo menos se tendr un crecimiento de 3 mil metros cbicos por ao. En funcin del modelo se puede hacer estimaciones para los siguientes aos: 2000 2001 2002 711.7 736.1 760.5 2 5

Estas proyecciones son puntuales, en base al modelo; para ao 2000, X=10, resulta una produccin de 711 mil m3 de madera aserrada. Para obtener lmites de confianza para estos valores predichos, se debe determinar sus desviaciones estndar correspondiente; utilice la siguiente formula:

-2) (S_predicho) Para el 2002, los lmites de confianza son: Lmite Inferior = 760,55 2,30 (111,98) = 502 Limite Superior = 760,55 + 2,30 (111,98) = 1018 Esta informacin significa que para el ao 2002, se estima una produccin de madera aserrada entre 502 a 1018 miles de m3. Prueba de Hiptesis Se plantea los siguientes casos:

Edgar Eduardo Mora Reyes

16

REGRESION Y CORRELACION
a) Cuando 1 = 0; es decir, si la variable Y no est relacionada linealmente con la variable X. Esto equivale a plantear la hiptesis Hp: 1=0, y va una prueba F comparar el valor de F calculado (Fc) con el valor F tabular (Fo), donde Fc=CMR/CME y Fo=F(1,n -2)gl. Si Fc>Fo, se rechaza la hiptesis planteada, esto supone un valor 1 distinto de cero y se concluye que Y se puede expresar en trminos de X linealmente. b) Cuando 1 tiene un valor especfico distinto de cero 10; es decir, Hp: 1=10. En este caso, para la prueba de esta hiptesis se usa el estadstico t de Student. El valor t calculado es hallado mediante la expresin: tc = (b1-10)/Sb1 Si tc > t se rechaza la hiptesis planteada, donde t es el valor de la tabla al nivel y n -2 gl. Para el ejemplo planteado, se rechaza la hiptesis planteada, esto significa que existe una relacin lineal significativa del tiempo y la produccin de madera aserrada total.

Regresin no lineal
Supongamos que al hacer la representacin grfica correspondiente la distribucin bidimensional, hemos obtenido la figura 6.1c. Se observa una clara relacin entre las dos variables, pero desde luego, esa relacin no es lineal. Por tanto, debemos buscar la funcin que ha de describir la dependencia entre las dos variables. Nos limitaremos al estudio de las ms utilizadas: la funcin parablica, la logartmica, la exponencial y la potencial. Parbola de regresin En muchos casos, es una funcin de segundo grado la que se ajusta lo suficiente a la situacin real dada. La expresin general de un polinomio de 2 grado es: Y=a+bX+cX2 Donde a, b y c son los parmetros. El problema consiste, por tanto, en determinar dichos parmetros para una distribucin dada. Seguiremos para ello, un razonamiento similar al que hicimos en el caso del modelo de regresin lineal simple, utilizando el procedimiento de

Edgar Eduardo Mora Reyes

17

REGRESION Y CORRELACION
ajuste de los mnimos cuadrados, es decir, haciendo que la suma de los cuadrados de las desviaciones con respecto a la curva de regresin sea mnima:

Para encontrar los valores de a, b y c que hacen mnima la expresin anterior, deberemos igualar las derivadas parciales de D con respecto a dichos parmetros a cero y resolver el sistema resultante. Las ecuaciones que forman dicho sistema se conocen como ecuaciones normales de Gauss (igual que en el caso de la regresin lineal simple).

Funcin exponencial, potencial y logartmica El problema de ajustar un modelo potencial, de la forma Y=AXb y uno exponencial Y=ABX se reduce al de la funcin lineal, con solo tomar logaritmos.

Si tomamos logaritmos en la expresin de la funcin potencial, obtendremos: logY = logA +b logX

Edgar Eduardo Mora Reyes

18

REGRESION Y CORRELACION
Como vemos es la ecuacin de una recta: Y=a+bX, donde ahora a = logA. De modo que el problema es sencillo, basta con transformar Y en logY y X en logX y ajustar una recta a los valores transformados. El parmetro b del modelo potencial coincide con el coeficiente de regresin de la recta ajustada a los datos transformados, y A lo obtenemos mediante el antilog(a).

Tomando logaritmos en la expresin de la funcin exponencial, obtendremos: logY = logA + logB X Tambin se trata de la ecuacin de una recta Y=a+bX, pero ahora ajustndola a logY y a X; de modo que, para obtener el parmetro A del modelo exponencial, basta con hacer antilog(a), y el parmetro B se obtiene tomando antilogaritmo (b).

La curva logartmica Y = a + b logX es tambin una recta, pero en lugar de estar referida a las variables originales X e Y, est referida a logX y a Y. Hemos visto, cmo, a pesar de ser inicialmente modelos mucho ms complejos que el de una recta, estos tres ltimos se reducen al modelo lineal sin ms que transformar adecuadamente los datos de partida.

El modelo de regresin lineal mltiple


El modelo de regresin lineal mltiple con p variables predictoras y basado en n observaciones Tomadas es de la forma:

Para i = 1,2,.n. Escribiendo el modelo para cada una de las observaciones, ste puede ser considerado como un sistema de ecuaciones lineales de la forma

Edgar Eduardo Mora Reyes

19

REGRESION Y CORRELACION

Que puede ser escrita en forma matricial como

O sea, e X Y (2.2) donde Y es un vector columna n dimensional, X es una matriz n x p', con p'=p+1, b es el vector de coeficientes de regresin a ser estimados, su dimensin es p' y e es un vector columna aleatorio de dimensin n Por ahora, las nicas suposiciones que se requieren son que E(e)=0 y que la matriz de varianzacovarianzas de los errores est dada por Var(e) = 2 In, donde In es la matriz identidad de orden n.

Edgar Eduardo Mora Reyes

20

REGRESION Y CORRELACION

Crrelacin
El anlisis de correlacin emplea mtodos para medir la significacin del grado o intensidad de asociacin entre dos o ms variables. El concepto de correlacin est estrechamente vinculado al concepto de regresin, pues, para que una ecuacin de regresin sea razonable los puntos mustrales deben estar ceidos a la ecuacin de regresin; adems el coeficiente de correlacin debe ser: - grande cuando el grado de asociacin es alto (cerca de +1 o -1, y pequeo cuando es bajo, cerca de cero. - independiente de las unidades en que se miden las variables.

Coeficiente de correlacin Lineal Simple (r).


Es un nmero que indica el grado o intensidad de asociacin entre las variables X e Y. Su valor vara entre -1 y +1; esto es: -1 r 1 Si r = -1, la asociacin es perfecta pero inversa; es decir, a valores altos de una variable le corresponde valores bajos a la otra variable, y viceversa. Si r=+1, tambin la asociacin es perfecta pero directa. Si r=0, no existe asociacin entre las dos variables. Luego puede verse que a medida que r se aproxime a -1 +1 la asociacin es mayor, y cuando se aproxima a cero la asociacin disminuye o desaparece. El coeficiente de correlacin est dada por:

Edgar Eduardo Mora Reyes

21

REGRESION Y CORRELACION
Para los datos de la produccin de madera aserrada total entre los aos 1990 a 1999, existe una asociacin de 0.68.

Coeficiente de Determinacin (R)


Mide el porcentaje de variacin en la variable respuesta, explica da por la variable independiente. De la descomposicin de la suma de cuadrados total, se obtuvo: SCT = SCR + SCE SCR = Suma de cuadrados de la regresin. SCE = Suma de cuadrados residual (error).dividiendo ambos miembros por la SCT, se tiene: 1 = SCR/SCT + SCE/SCT De este resultado, se define el coeficiente de determinacin como: R = 1 - SCE/SCT = SCR/SCT R = SC regresin / SC total Como SCR SCT, se deduce que 0 R 1.

Interpretacin de R:
Se interpreta como una medida de ajuste de los datos observados y proporciona el porcentaje de la variacin total explicada por la regresin. R es un valor positivo, expresado en porcentaje es menor de 100. Tambin, se puede obtener el R ajustado que es la relacin entre cuadrados medios, as: R ajustado = 1 CME / CM Total; Este valor podra ser negativo en algunos casos.

Edgar Eduardo Mora Reyes

22

REGRESION Y CORRELACION
Lo que se espera que ambos R, resulten similares, para dar una confianza al coeficiente de determinacin. Para el ejemplo, resulta: R ajustado = 1 70378 / (105526 / 9) = 0,39 y R = 1 56302,7 / 105525,86 = 0,46

Prueba de hiptesis. El coeficiente de correlacin r puede verse como una medida numrica de qu tan bien un modelo lineal (lnea recta) representa los puntos de un diagrama de dispersin. El diagrama, sin embargo, no contiene todos los puntos posibles o poblacin de puntos. Debido a que r se calcula con base en una muestra aleatoria de puntos, se espera que los valores de r varen de una muestra a otra (tal como la media o la proporcin varan de una muestra a otra). Esto plantea la pregunta de la significancia de r. Puesto de otra manera, cules la probabilidad que la muestra aleatoria de puntos den una correlacin fuerte cuando, en realidad, los puntos de la poblacin no estn correlacionados fuertemente? Como en los casos de la media, la desviacin estndar y la proporcin, se emplear una letra griega (se lee ro) para representar el parmetro poblacional correspondiente a r. Con esto, la significancia de r ser tratada enseguida mediante una prueba de hiptesis del coeficiente de correlacin

Edgar Eduardo Mora Reyes

23

REGRESION Y CORRELACION

Cnclusin
Con respecto al tema, se concluye que la regresin y correlacin, son las dos herramientas estadsticas ms poderosas y verstiles que se pueden utilizar para solucionar problemas comunes en los negocios. La regresin lineal simple y la regresin mltiple, analiza la relacin de dos o mas variables continuas, cuando analiza dos variables a esta se le conoce como variable bivariantes que pueden corresponder a variables cualitativas. La finalidad de una ecuacin de regresin es la de estimar los valores de una variable con base en los valores conocidos de la otra. Del mismo modo, una ecuacin de regresin explica los valores de una variable en trminos de otra. Es decir, se puede intuir una relacin de causa y efecto entre dos o ms variables. El anlisis de regresin nicamente indica qu relacin matemtica podra haber, de existir una. Por otro lado, Al ajustar un modelo de regresin simple o mltiple a una nube de observaciones es importante disponer de alguna medida que permita medir la bondad del ajuste. Esto se consigue con los coeficientes de correlacin. Si el modelo que se ajusta es un modelo de regresin lineal, a R se le denomina coeficiente de correlacin y representa el porcentaje de variabilidad de la Y que explica el modelo de regresin. Estas tcnicas estadsticas constituyen una herramienta til para el anlisis de las variables de un proceso ya que a travs de la aplicacin

Edgar Eduardo Mora Reyes

24

REGRESION Y CORRELACION
de stas, es posible conocer el modelo que siguen y la fuerza con que se encuentran relacionadas.

Bibligrafa
GARCIA CORDOBA J. A. , LOPEZ HERNANDEZ F. A., PALACIOS SANCHEZ Ma A. y RUIZ MARIN, M. (2000), Introduccion a la Estadstica para la Empresa. Horacio Escarabajal Editores, pp 95124. MARTIN PLIEGO LOPEZ, F.J. (2004), Introducion a la Estadstica Economica Y Empresarial. Ed. Prentice Hall. pp. 235372. MONTIEL A.M., RIUS F. y BARON F.J., (1997), Elementos Basicos De Estadstica Economica Y Empresarial. Ed. Prentice Hall. pp. 147186. NOVALES, A., (1996), Estadstica y Econometra, Madrid: Mc Graw-Hill, pp.475516. SANZ J.A.; BEDATE, A.; RIVAS, A. y GONZALEZ, J., (1996), Problemas De Estadstica Descriptiva Empresarial. Ed. Ariel Economa., pp. 131284. Referencias de internet:
http://www.mcgraw-hill-educacion.com/pye01e/cap13/13analisis_de_correlacion_y_regresion.pdf http://aprendeenlinea.udea.edu.co/lms/moodle/file.php/322/Tema_0/REGRESION_LINEAL_MULTIP LE_junio16.doc http://www.dcb.unam.mx/users/nayellimg/htm/Grupo03/docs/infesd_T5.pdf

Edgar Eduardo Mora Reyes

25

REGRESION Y CORRELACION
http://biplot.usal.es/ALUMNOS/BIOLOGIA/5BIOLOGIA/Regresionsimple.pdf

Edgar Eduardo Mora Reyes

26

Вам также может понравиться