Вы находитесь на странице: 1из 4

REGRESION LINEAL

Con frecuencia, las variables que constituyen una distribución bidimensional muestran un
cierto grado de dependencia entre ellas. Un ejemplo típico de esta relación aparece en las
tablas de peso y altura de los grupos de población: aunque no existe una ley causal que
relacione ambas variables, en términos estadísticos se aprecia una dependencia entre ellas
(cuando aumenta la altura, suele hacerlo también el peso). Esta dependencia se refleja en la
nube de puntos que representa a la distribución, de modo que los puntos de esta gráfica
aparecen condensados en algunas zonas.

La concentración de puntos en algunas regiones de la nube refleja la existencia de una


dependencia estadística, y la posibilidad de definir una ecuación de regresión.

En tales casos, se pretende definir una ecuación de regresión que sirva para relacionar las dos
variables de la distribución. La representación gráfica de esta ecuación recibe el nombre
de línea de regresión, y puede adoptar diversas formas: lineal, parabólica, cúbica, hiperbólica,
exponencial, etcétera.

MODELO DE REGRESIÓN LINEAL

El Análisis de Regresión se refiere al cuantum o cantidad de cambio y estudia la relación


funcional que existe entre dos o más variables. Identifica el modelo o función que liga a las
variables, estima sus parámetros y, eventualmente, contrasta o prueba hipótesis acerca de
ellos. Una vez estimado el modelo es posible predecir el valor de la variable denominada
variable dependiente en función de la o las otras variables/s denominada/s independiente/s y
dar una medida de la precisión con que esa estimación se ha hecho.

Dependiendo del objetivo del estudio, los valores o niveles de la/s variable/s independiente/s
pueden ser arbitrariamente modificados por el experimentador, es decir, el investigador
puede fijar los niveles de la variable independiente para los cuales desea estudiar la respuesta
de la variable dependiente. El modelo hallado puede ser usado para predecir el
comportamiento de la variable dependiente para otros niveles de la variable independiente,
que pertenezcan al dominio del estudio.

La regresión es un concepto estadístico estrechamente vinculado al concepto de correlación;


mientras la regresión estudia la naturaleza de la relación entre dos variables dependientes, la
correlación estudia el grado y sentido de la asociación lineal que hay entre un conjunto de
variables y, a diferencia del análisis de regresión, no se identifica ni se estima explícitamente
un modelo funcional para las variables, este siempre se supone lineal.

La estructura del modelo de regresión lineal es la siguiente:

𝑌𝑖 = 𝛽𝑂 + 𝛽1 𝑋 + 𝑒𝑖
En esta expresión estamos admitiendo que todos los factores o causas que influyen en la
variable respuesta Y pueden dividirse en dos grupos: el primero contiene a una variable
explicativa X y el segundo incluye un conjunto amplio de factores no controlados que
englobaremos bajo el nombre de perturbación o error aleatorio, ε, que provoca que la
dependencia entre las variables dependiente, 𝜖,

El modelo de pronóstico de regresión lineal permite hallar el valor esperado de una variable
aleatoria a cuando b toma un valor específico. La aplicación de este método implica un supuesto
de linealidad cuando la demanda presenta un comportamiento creciente o decreciente, por tal
razón, se hace indispensable que previo a la selección de este método exista un análisis de
regresión que determine la intensidad de las relaciones entre las variables que componen el
modelo

Análisis de regresión

El objetivo de un análisis de regresión es determinar la relación que existe entre una variable
dependiente y una o más variables independientes. Para poder realizar esta relación, se debe
postular una relación funcional entre las variables. Cuando se trata de una variable
independiente, la forma funcional que más se utiliza en la práctica es la relación lineal. El análisis
de regresión entonces determina la intensidad entre las variables a través de coeficientes de
correlación y determinación.

La regresión es un concepto estadístico estrechamente vinculado al concepto de correlación;


mientras la regresión estudia la naturaleza de la relación entre dos variables dependientes, la
correlación estudia el grado y sentido de la asociación lineal que hay entre un conjunto de
variables y, a diferencia del análisis de regresión, no se identifica ni se estima explícitamente un
modelo funcional para las variables, este siempre se supone lineal.

Modelos de regresión lineal

1. Regresión lineal simple

El objetivo de un modelo de regresión es tratar de explicar la relación que existe entre una
variable dependiente (variable respuesta) Y un conjunto de variables independientes (variables
explicativas) X1,..., Xn. En un modelo de regresión lineal simple tratamos de explicar la relación
que existe entre la variable respuesta Y y una única variable explicativa X.

Por ejemplo en la muestra de la miel vamos a ver si existe relación lineal entre la acidez libre
(AcLib) y la acidez total (AcTot). Para ver si un modelo de regresión lineal tiene sentido,
comenzamos dibujando un diagrama de dispersión.
Mediante las técnicas de regresión de una variable Y sobre una variable X, buscamos una función
que sea una buena aproximación de una nube de puntos (xi,yi), mediante una curva del tipo:

La estructura del modelo de regresión lineal es la siguiente:

𝑌𝑖 = 𝛽0 + 𝛽𝑖 𝑋1 + 𝑒𝑖
Donde

𝑌𝑖 = 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒
𝛽0 : 𝑒𝑠 𝑙𝑎 𝑜𝑟𝑑𝑒𝑛𝑎𝑑𝑎 𝑒𝑛 𝑒𝑙 𝑜𝑟𝑖𝑔𝑒𝑛 , 𝑜 𝑏𝑖𝑒𝑛 𝑒𝑠 𝑒𝑙 𝑖𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡𝑜
𝛽𝑖 : 𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑙𝑎 𝑟𝑒𝑐𝑡𝑎 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖𝑜𝑛

𝑒𝑖 : 𝑒𝑠 𝑒𝑙 𝑡𝑒𝑟𝑚𝑖𝑛𝑜 𝑑𝑒𝑙 𝑒𝑟𝑟𝑜𝑟, 𝑒𝑠 𝑑𝑒𝑐𝑖𝑟 𝑙𝑎 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 predichos por la
regresión y los valores reales.

2. Regresión lineal múltiple

a regresión lineal múltiple permite generar un modelo lineal en el que el valor de la variable
dependiente o respuesta (Y) se determina a partir de un conjunto de variables independientes
llamadas predictores (X1, X2, X3…). Es una extensión de la regresión lineal simple, por lo que es
fundamental comprender esta última. Los modelos de regresión múltiple pueden emplearse
para predecir el valor de la variable dependiente o para evaluar la influencia que tienen los
predictores sobre ella (esto último se debe que analizar con cautela para no malinterpretar
causa-efecto).

Los modelos lineales múltiples siguen la siguiente ecuación:

𝑌𝑖 = (𝛽0 + 𝛽𝑖 𝑋𝑖1 + 𝛽𝑖 𝑋𝑖2 + ⋯ + 𝛽𝑛 𝑋𝑛𝑖 ) + 𝑒𝑖


 𝛽0 : es la ordenada en el origen, el valor de la variable dependiente YY cuando todos los
predictores son cero.

 𝛽𝑖 : es el efecto promedio que tiene el incremento en una unidad de la variable


predictora XiXi sobre la variable dependiente YY, manteniéndose constantes el resto de
variables. Se conocen como coeficientes parciales de regresión.

 𝑒𝑖 : es el residuo o error, la diferencia entre el valor observado y el estimado por el


modelo.

Es importante tener en cuenta que la magnitud de cada coeficiente parcial de regresión depende
de las unidades en las que se mida la variable predictora a la que corresponde, por lo que su
magnitud no está asociada con la importancia de cada predictor.

3. Recta de regresión

Cuando la línea de regresión se asemeja a una recta (regresión lineal), puede ajustarse a esta
forma geométrica por medio de un método general conocido como método de los mínimos
cuadrados. La recta de ajuste tendrá por ecuación y = ax + b, donde los coeficientes a y b se
calculan teniendo en cuenta que:

 La recta debe pasar por el punto ( ).

 La separación de los puntos de la gráfica de dispersión con respecto a la recta de


regresión debe ser mínima.

Estas dos condiciones conducen a una recta de ajuste expresada por la ecuación:

donde es la media aritmética de la primera variable, la media aritmética de la segunda


variable, sx la desviación típica de la primera variable y sxy un valor denominado covarianza, que
se define por la expresión:

Вам также может понравиться