Вы находитесь на странице: 1из 31

ANÁLISIS DE

REGRESIÓN
PROGRAMA DE INGENIERÍA INDUSTRIAL
2014-2
ESTADÍSTICA II

 Análisis de regresión

 En muchas investigaciones existen dos o más variables que están


relacionadas y puede resultar importante modelar y explorar ésta
relación.
 Ejemplo: 1. El rendimiento del producto de una reacción química
asociado con
 la temperatura.
 Es posible estar interesado en construir un modelo y usarlo para
predecir, optimizar o controlar el proceso.
 REGRESIÓN LINEAL SIMPLE
 En el análisis de regresión simple se desea determinar la relación entre
una sola variable de regresión (x), y la variable respuesta (y).
 Usualmente se supone que la variable x es continua y controlable por
el experimentador.
 Se supone que cada observación puede describirse mediante el
modelo:
 I. 𝑦𝑗 = 𝛽𝑜 + 𝛽1 𝑥𝑗 + 𝜖𝑗 ; 𝑗 = 1,2,3, … , 𝑛
Regresión lineal simple

 Para estimar los parámetros del modelo se utiliza la función de


 mínimos cuadrados obtenida de la anterior ecuación:
2
 L=σ𝑛𝑗=1 𝜖𝑗 2 = σ𝑛𝑗=1 𝑦𝑗 − 𝛽𝑜 + 𝛽1 𝑥𝑗
 Corrigiendo la variable de regresión mediante su promedio,
quedando así:
 𝑌 = 𝛽𝑜 + 𝛽1 𝑋 + 𝛽1 𝑋ത − 𝛽1 𝑋ത + 𝜖
 𝑌 = 𝛽𝑜 + 𝛽1 𝑋ത + 𝛽1 (𝑋 − 𝑋)
ത +𝜖

 Y= 𝛽𝑜 ′ + 𝛽1 (𝑋 − 𝑋)
ത +𝜖
 Empleando el modelo transformado la función de mínimos
cuadrados es:

2
 𝐿 = σ𝑛𝑗=1 𝑦𝑗 − 𝛽 ′ 𝑜 − 𝛽1 𝑥𝑗 − 𝑥ҧ
ESTIMADORES DE MÍNIMOS CUADRADOS

 Los estimadores de mínimos cuadrados de los parámetros se


obtienen derivando parcialmente respecto a
𝛽𝑜 𝑦 𝛽1 , 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑎𝑚𝑒𝑛𝑡𝑒:

σ𝑛 ҧ
𝑗=1 𝑦𝑗 (𝑥𝑗 −𝑥)
 𝛽መ ′ 𝑜
= 𝑦ത 𝛽መ1 = 2
σ𝑛
𝑗=1 𝑥𝑗 −𝑥ҧ

 Entonces el modelo ajustado de regresión lineal simple es:


 𝑦ො = 𝛽መ ′ + 𝛽መ1 (𝑥 − 𝑥)ҧ
𝑜
 En términos de la ecuación original es: 𝑦ො = 𝛽መ𝑜 + 𝛽መ1 . 𝑥; 𝑐𝑜𝑛 𝛽መ ´′ 𝑜 = 𝛽መ . 𝑜 +
𝛽መ1 . 𝑥ҧ
 El término del denominador en 𝛽መ1 𝑠𝑒 𝑝𝑢𝑒𝑑𝑒 𝑒𝑠𝑐𝑟𝑖𝑏𝑖𝑟 𝑐𝑜𝑚𝑜:
2
2 σ𝑛
𝑗=1 𝑥𝑗
 𝑆𝑥𝑥 = σ𝑛𝑗=1 𝑥𝑗 − 𝑥ҧ = σ𝑛𝑗=1 𝑥𝑗 2 − 𝑛
σ𝑛
𝑗=1 𝑥𝑗 σ𝑛
𝑗=1 𝑦𝑗 𝑆𝑥𝑦
 𝑆𝑥𝑦 = σ𝑛𝑗=1 𝑦𝑗 𝑥𝑗 − 𝑥ҧ = σ𝑛𝑗=1 𝑥𝑗 𝑦𝑗 − ; entonces 𝛽መ1 = 𝑆
𝑛 𝑥𝑥
Diagrama de dispersión Impurezas vs Rapidez

20

18

16
Impurezas

14

12

10

8
20 24 28 32 36 40 44
Rapidez
Simple Regression - Impurezas vs. Rapidez
Dependent variable: Impurezas
Independent variable: Rapidez
Linear model: Y = a + b*X

Coefficients Least Squares Standard T


Parameter Estimate Error Statistic P-Value
Intercept -0,289277 1,22079 -0,236959 0,8175
Slope 0,456643 0,0384385 11,8798 0

Analysis of Variance
Source Sum of Squares Df Mean Square F-Ratio P-Value
Model 119,275 1 119,275 141,13 0
Residual 8,45142 10 0,845142
Total (Corr.) 127,727 11
 Ejemplo: Se realizó un estudio para determinar el efecto que tiene la
rapidez de mezclado sobre la cantidad de impureza en una pintura
producida mediante un proceso químico.

Rapidez 20 22 24 26 28 30 32 34 36 38 40 42
Impurezas 8,4 9,5 11,8 10,4 13,3 14,8 13,2 14,7 16,4 16,5 18,9 18,5
 Aplicando las ecuaciones anteriores obtienes en Excel los mismos
resultados que en Statgraphics.
Rapidez Impurezas Imp estim Residuo Cuad del res
Xi Yi xiyi xi¨2 yi¨2 Yiest Yi-Yiest (Yi-Yiest)¨2
20 8,4 168 400 70,56 8,84 -0,44 0,196765878
22 9,5 209 484 90,25 9,76 -0,26 0,065981683
24 11,8 283,2 576 139,24 10,67 1,13 1,276549724
26 10,4 270,4 676 108,16 11,58 -1,18 1,4005326
28 13,3 372,4 784 176,89 12,50 0,80 0,645247513
30 14,8 444 900 219,04 13,41 1,39 1,93206386
32 13,2 422,4 1024 174,24 14,32 -1,12 1,261800643
34 14,7 499,8 1156 216,09 15,24 -0,54 0,287923462
36 16,4 590,4 1296 268,96 16,15 0,25 0,062564517
38 16,5 627 1444 272,25 17,06 -0,56 0,317145807
40 18,9 756 1600 357,21 17,98 0,92 0,852957532
42 18,5 777 1764 342,25 18,89 -0,39 0,151888693
372 166,4 5419,6 12104 8,451421913

beta1 0,456643 0,45664336


beta0 -0,289277 -0,28927739 Var est 0,84514219
xbarra 31
ybarra 13,8666667
Propiedades de los estimadores

 Propiedades

෡ 𝟏 = 𝜷𝟏 ෡ 𝒐 = 𝜷𝒐 ෡𝟏 = 𝝈𝟐
 1. 𝑬 𝜷 𝟐. 𝑬 𝜷 𝟑. 𝑽 𝜷 𝑺𝒙𝒙
𝟏 ഥ𝟐
𝒙
෡ 𝒐 = 𝝈𝟐
 4. 𝑽 𝜷 +
𝒏 𝑺𝒙𝒙

 Por lo general es necesario estimar 𝝈𝟐 . 𝑬𝒔𝒕𝒂 𝒆𝒔𝒕𝒊𝒎𝒂𝒄𝒊ó𝒏 𝒔𝒆 𝒐𝒃𝒕𝒊𝒆𝒏𝒆


usando los residuos.
𝟐 𝑺𝑺
 𝑺𝑺𝑬 = σ𝒏𝒋=𝟏 𝒚𝒋 − 𝒚
ෝ𝒋 ; 𝒚; ෝ𝟐 = 𝑬
𝝈
𝒏−𝟐

 PRUEBAS DE HIPÓTESIS EN REGRESIÓN LINEAL SIMPLE


 Inicialmente se suponen dos situaciones:
 1. Qué el término del error 𝜺 ~ 𝑵𝑰𝑫(𝟎, 𝝈𝟐 )
 2. Que el investigador desea probar las hipótesis de que la
pendiente es igual a un cierto valor.
 Ho : 𝜷𝟏 = 𝜷𝟏𝒐 𝒗𝒔 𝑯𝟏 : 𝜷𝟏 ≠ 𝜷𝟏𝒐
REGRESIÓN LINEAL MÚLTIPLE

 En general la variable respuesta puede estar relacionada con k variables regresoras, obteniendo el
modelo:
 𝒚𝒋 = 𝜷𝒐 + 𝜷𝟏 . 𝒙𝟏 + 𝜷𝟐 . 𝒙𝟐 + ⋯ + 𝜷𝒌 . 𝒙𝒌 +𝜺𝒋.
 A este modelo se le llama modelo de regresión lineal múltiple.
 El método de mínimos cuadrados se igualmente para estimar los coeficientes de regresión.
 Considérese a 𝒙𝒊𝒋 , 𝒍𝒂 𝒋 − é𝒔𝒊𝒎𝒂 𝒐𝒃𝒔𝒆𝒓𝒗𝒂𝒄𝒊ó𝒏 𝒐 𝒏𝒊𝒗𝒆𝒍 𝒅𝒆 𝒍𝒂 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆 𝒙𝒊 , 𝒗é𝒂𝒔𝒆 𝒍𝒂 𝒔𝒊𝒈𝒖𝒊𝒆𝒏𝒕𝒆
 tabla.
Datos para regresión múltiple
y x1 x2 ... xk
y1 x11 x21 ... xk1
y2 x12 x22 ... xk2
. . . .
. . . .
. . . .
yn x1n x2n ... xnk

 En los términos de los datos el modelo está dado por:

 𝒚𝒋 = 𝜷𝒐 + σ𝒌𝒊=𝟏 𝜷𝒊 𝒙𝒊𝒋 + 𝜺𝒋 ; 𝒋 = 𝟏, 𝟐, … , 𝒏
 Al igual que en el caso de la regresión lineal simple, la ordenada en el origen se redefine como:
𝟏
 𝜷′ 𝒐 = 𝜷𝒐 + 𝜷𝟏 𝒙
ഥ𝟏 + 𝜷𝟐 𝒙
ഥ𝟐 + . . . + 𝜷𝒌 ഥ ഥ𝒊 = σ𝒏𝒋=𝟏 𝒙𝒊𝒋 , 𝒄𝒐𝒓𝒓𝒆𝒔𝒑𝒐𝒏𝒅𝒆 𝒂𝒍 𝒏𝒊𝒗𝒆𝒍 𝒑𝒓𝒐𝒎𝒆𝒅𝒊𝒐 𝒑𝒂𝒓𝒂 𝒍𝒂 𝒊 −
𝒙𝒌 , 𝒅𝒐𝒏𝒅𝒆 𝒙 𝒏
é𝒔𝒊𝒎𝒂 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆 de regresión.
Función de mínimos cuadrados

La función de mínimos cuadrados está dada por:


2
L= σ𝑛𝑗=1 𝑦𝑖 − 𝛽 ′ 𝑜 − σ𝑘𝑖=1 𝛽𝑖 (𝑥𝑖𝑗 − 𝑥ҧ𝑖 )
Para la estimación de los parámetros es conveniente definir la suma de
cuadrados corregida de la i-ésima variable de regresión 𝑆𝑖𝑖 :

𝑛 𝑛 2
2 σ𝑛𝑗=1 𝑥𝑖𝑗
𝑆𝑖𝑖 = ෍ 𝑥𝑖𝑗 − 𝑥ҧ𝑖 = ෍ 𝑥𝑖𝑗 2 −
𝑛
𝑗=1 𝑗=1

Y definir también la suma corregida de los productos cruzados 𝑆𝑟𝑠 𝑦 𝑆𝑖𝑠 :

𝑛 𝑛
σ𝑛𝑗=1 𝑥𝑟𝑗 σ𝑛𝑗=1 𝑥𝑠𝑗
𝑆𝑟𝑠 = 𝑆𝑠𝑟 = ෍ 𝑥𝑟𝑗 − 𝑥ҧ𝑟 𝑥𝑠𝑗 − 𝑥ҧ𝑠 = ෍ 𝑥𝑟𝑗 𝑥𝑠𝑗 −
𝑛
𝑗=1 𝑗=1
𝑛 𝑛
σ𝑛𝑗=1 𝑦𝑗 σ𝑛𝑗=1 𝑥𝑖𝑗
𝑆𝑖𝑦 = ෍ 𝑦𝑗 𝑥𝑖𝑗 − 𝑥ҧ𝑖 = ෍ 𝑦𝑗 𝑥𝑖𝑗 − ; 𝑖 = 1,2, … , 𝑘
𝑛
𝑗=1 𝑗=1
Estimadores de mínimos cuadrados

Los estimadores de mínimos cuadrados para 𝛽𝑜 ′ , 𝛽1 , 𝛽2 , … , 𝛽𝑘 deben satisfacer:

𝑛𝛽෠ ′ 𝑜 = ෍ 𝑦𝑗
𝑗=1
𝛽෠1 𝑆𝑖1 + 𝛽෠2 𝑆𝑖2 + ⋯ + 𝛽෠𝑘 𝑆𝑖𝑘 = 𝑆𝑖𝑦 ; 𝑖 = 1,2, … . , 𝑘
Nótese que hay k+1 ecuaciones normales y la solución de estas ecuaciones
serán los estimadores de mínimos cuadrados para los parámetros.
Es más sencillo resolverlas si se utiliza notación matricial.
El modelo expresado matricialmente es: y = 𝑋. 𝛽 + 𝜖, 𝑑𝑜𝑛𝑑𝑒:
y1 1 𝑥11 𝑥21 ... 𝑥 𝑘1
y2 1 𝑥12 𝑥22 ... 𝑥 𝑘2
y = . X= . . .
. . . .
. . . .
yn 1 𝑥1𝑛 𝑥2𝑛 ... 𝑥𝑘𝑛

𝛽′𝑜 𝜖1
𝛽1 𝜖2
.
𝛽 = . 𝜖 =
.
𝛽𝑘 𝜖𝑛
 El método de mínimos cuadrados consiste en elegir los 𝛽 de modo que la su ma de cuadrados de los errores 𝜀𝑖 𝑠𝑒 𝑚𝑖𝑛𝑖𝑚𝑖𝑐𝑒𝑛.
2
 Derivando parcialmente la sumatoria: L=σ𝑛𝑖=1 𝑦𝑖 − 𝛽𝑜 − σ𝑘𝑗=1 𝛽𝑗 𝑥𝑖𝑗 = σ𝑛𝑖=1 𝜀 2 𝑖 , 𝑐𝑜𝑛 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑜 𝑎 𝑙𝑜𝑠 𝛽: 𝑜𝑏𝑡𝑒𝑛𝑒𝑚𝑜𝑠 𝑙𝑎𝑠 𝑒𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 normales:

 𝑛𝛽෠𝑜 + 𝛽෠1 σ𝑛𝑖=1 𝑥𝑖1 + 𝛽෠2 σ𝑛𝑖=1 𝑥𝑖2 + ⋯ + 𝛽෠𝑘 σ𝑛𝑖=1 𝑥𝑖𝑘 = σ𝑛𝑖=1 𝑦𝑖

 𝛽෠𝑜 σ𝑛𝑖=1 𝑥𝑖1 + 𝛽෠1 σ𝑛𝑖=1 𝑥 2 𝑖1 + 𝛽෠2 σ𝑛𝑖=1 𝑥𝑖1𝑥𝑖2 + ⋯ + 𝛽෠𝑘 σ𝑛𝑖=1 𝑥𝑖1 𝑥𝑖𝑘 = σ𝑛𝑖=1 𝑥𝑖1 𝑦𝑖

 . . . . .

 . . . . .

 . . . . .

 𝛽෠𝑜 σ𝑛𝑖=1 𝑥𝑖𝑘 + 𝛽෠1 σ𝑛𝑖=1 𝑥𝑖𝑘 𝑥𝑖1 + 𝛽෠2 σ𝑛𝑖=1 𝑥𝑖𝑘 𝑥𝑖2 + ⋯ + 𝛽෠𝑘 σ𝑛𝑖=1. 𝑥𝑖𝑘 2 = σ𝑛𝑖=1 𝑥𝑖𝑘 𝑦𝑖

 Pero L puede expresarse como: σ𝒏𝒊=𝟏 𝜺𝒊 𝟐 = 𝜺′ . 𝜺 = 𝒚 − 𝑿𝜷 ′ 𝒚 − 𝑿𝜷 = 𝒚′ 𝒚 − 𝜷′ 𝑿′ 𝒚 − 𝒚′ 𝑿𝜷 + 𝜷′ 𝑿′ 𝑿𝜷

 Puesto que 𝜷′ 𝒆𝒔 𝒖𝒏𝒂 𝒎𝒂𝒕𝒓𝒊𝒛 𝒅𝒆 𝒐𝒓𝒅𝒆𝒏 1 x k


 𝑿′ 𝒆𝒔 𝒖𝒏𝒂 𝒎𝒂𝒕𝒓𝒊𝒛 𝒅𝒆 𝒐𝒓𝒅𝒆𝒏 𝒌𝒙𝒏
 y es un vector de orden nx1
 Entonces 𝜷′ 𝑿′ 𝒚 𝒆𝒔 𝒖𝒏𝒂 𝒎𝒂𝒕𝒓𝒊𝒛 𝒅𝒆 𝒐𝒓𝒅𝒆𝒏 𝟏𝒙𝟏 𝒐 𝒖𝒏 𝒆𝒔𝒄𝒂𝒍𝒂𝒓 que es igual a 𝒚′ 𝑿𝜷

 Por lo tanto L= 𝒚′ 𝒚 − 𝟐𝜷′ 𝑿′ 𝒚 + 𝜷′ 𝑿′ 𝑿𝜷

 Derivando respecto a 𝜷 𝒆 𝒊𝒈𝒖𝒂𝒍𝒂𝒏𝒅𝒐 𝒂 𝒄𝒆𝒓𝒐 𝒔𝒆 𝒐𝒃𝒕𝒊𝒆𝒏𝒆: 𝑿′ 𝑿𝜷


෡ = 𝑿′ 𝒚

 Donde 𝜷
෡ = 𝑿′ 𝑿 −𝟏 𝑿′ 𝒚
AJUSTE DE MODELO DE REGRESIÓN

 El modelo de regresión ajustado es: 𝑦ො = 𝑋 𝛽෠


 La varianza 𝜎 2 𝑠𝑒 𝑒𝑠𝑡𝑖𝑚𝑎 𝑐𝑜𝑛:

𝑆𝑆𝐸
 𝜎ො 2 = ; p es el número de parámetros a estimar p= k+1.
𝑛−𝑝

 𝑆𝑆𝐸 = σ𝑛𝑖=1 𝑦𝑖 − 𝑦ො𝑖 2


= σ𝑛𝑖=1 𝑒 2 𝑖 = 𝑒 ′ . 𝑒

 Ejemplo: En la siguiente tabla se muestran 16 observaciones de la


viscosidad de un polímero(y) y dos variables del proceso, la temperatura
de reacción (x1) y la velocidad de alimentación del catalizador (x2).
Datos viscosidad
Observ Te mp(x1, °c)Veloc (x2) Viscoc
1 80 8 2256
2 93 9 2340
3 100 10 2426
4 82 12 2293
5 90 11 2330
6 99 8 2368
7 81 8 2250
8 96 10 2409
9 94 12 2364
10 93 11 2379
11 97 13 2440
12 95 11 2364
13 100 8 2404
14 85 12 2317
15 86 9 2309
16 87 12 2328
Ejemplo

 La estimación de los parámetros obtenidos en Excel son:

1 80 8 2256
1 93 9 2340
1 100 10 2426
1 82 12 2293
1 90 11 2330 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
X= 1 99 8 y= 2368 X' = 80 93 100 82 90 99 81 96 94 93 97 95 100 85 86 87
1 81 8 2250 8 9 10 12 11 8 8 10 12 11 13 11 8 12 9 12
1 96 10 2409
1 94 12 2364
1 93 11 2379 14,18 -0,13 -0,2235
1 97 13 2440 inv(X'X)= -0,13 0 -5E-05
1 95 11 2364 -0,22 -0 0,02222
1 100 8 2404
1 85 12 2317
1 86 9 2309 16 1458 164 37577 1566
1 87 12 2328 X'X = 1458 133560 14946 X'y = 3429550 β= 7,621
164 14946 1726 385562 8,585
Resultados en Statgraphics

 En Statgraphics se obtienen los mismos resultados:


Error T
Parametros Estimación Estándar Statistic P-Valor
CONSTANTE 1566,08 61,5918 25,4267 0
Temperatura 7,62129 0,61843 12,3236 0
Veloc 8,58485 2,43868 3,52028 0,0038

Análisis de varianza
F Variac SS g.l CME F P-Valor
Model 44157,1 2 22078,5 82,5 0
Residual 3478,85 13 267,604
Total (Corr.) 47635,9 15

R-squared = 92,697 percent


R-squared (adjusted for d.f.) = 91,5735 percent
Prueba de hipótesis en regresión múltiple
 En regresión lineal múltiple ciertas pruebas de hipótesis acerca de los
parámetros son una ayuda importante para medir la utilidad del modelo.
 Para estos procedimientos se requiere que 𝜀𝑖 ≈ 𝑁𝐼𝐷 0, 𝜎 2 .
 Como resultado de este supuesto se tiene que 𝐸 𝑦𝑖 = 𝛽𝑜 + σ𝑘𝑗=1 𝛽𝑗 𝑥𝑖𝑗
 Y varianza igual a: 𝑉 𝑦𝑖 = 𝜎 2
 La prueba de significación de la regresión es el procedimiento para determinar
si existe una relación lineal entre la variable respuesta y un subconjunto de las
variables regresoras 𝑥1 , 𝑥2 , … , 𝑥𝑘 . 𝐿𝑎𝑠 ℎ𝑖𝑝ó𝑡𝑒𝑠𝑖𝑠 𝑎𝑝𝑟𝑜𝑝𝑖𝑎𝑑𝑎𝑠 𝑠𝑜𝑛:
 Ho: 𝛽1 = 𝛽2 , … = 𝛽𝑘 = 0
 H1: 𝛽𝑗 ≠ 0, 𝑝𝑎𝑟𝑎 𝑎𝑙𝑔ú𝑛 𝑗.
 El rechazo de Ho, significa que al menos una de las variables regresoras,
𝑥1 , … , 𝑥𝑘 , 𝑐𝑜𝑛𝑡𝑟𝑖𝑏𝑢𝑦𝑒 𝑑𝑒 𝑚𝑎𝑛𝑒𝑟𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎 𝑎𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛.

 Siguiendo con el enfoque del análisis de varianza es claro que:


 𝑌𝑖 − 𝑌ത = 𝑌෠𝑖 − 𝑌ത + 𝑌𝑖 − 𝑌෠𝑖
2 2
 σ𝑛𝑖=1 𝑌𝑖 − 𝑌ത 2
= σ𝑛𝑖=1 𝑌෠𝑖 − 𝑌ത + σ𝑛𝑖=1 𝑌𝑖 − 𝑌෠𝑖

 SST = SSR + SSE


Observaciones generales

 La SSE toma en cuenta la variación de los datos con respecto a la recta de


regresión estimada.
 Si todos los datos se encuentran sobre la recta estimada, el valor de todos los
residuos es cero, es decir SSE= 0.
 Entre más grande es el valor de SSE, mayor es la contribución de la
componente del error a la variación de las observaciones o mayor es la
incertidumbre cuando se estima la respuesta mediante el uso de la ecuación
de regresión.
 La SSR representa la variación de la observación que es atribuible al efecto
lineal de x sobre Y.
 El modelo lineal especificado anteriormente, la única restricción que impone es
que sea lineal en los parámetros desconocidos.
 Una ecuación especificada por: 𝒚𝒋 = 𝜷𝒐 + 𝜷𝟏 . 𝒙𝟏 + 𝜷𝟐 . 𝒙𝟐 + ⋯ + 𝜷𝒌 . 𝒙𝒌 +𝜺𝒋 ,
 se denomina modelo de primer orden.
 Si hay dos variables que interactúan el modelo es de la forma:
 𝒚𝒋 = 𝜷𝒐 + 𝜷𝟏 . 𝒙𝟏 + 𝜷𝟐 . 𝒙𝟐 + 𝜷𝟑 𝒙𝟏 𝒙𝟐 + ⋯ + 𝜷𝒌 . 𝒙𝒌 +𝜺𝒋 , 𝐝𝐨𝐧𝐝𝐞 𝒙𝟑 = 𝒙𝟏 𝒙𝟐
 Para este caso el significado de
𝜷𝟏 𝒚 𝜷𝟐 , 𝒄𝒂𝒎𝒃𝒊𝒂, 𝒆𝒔 𝒅𝒆𝒄𝒊𝒓 𝒍𝒂 𝒅𝒆𝒓𝒊𝒗𝒂𝒅𝒂 𝒑𝒂𝒓𝒄𝒊𝒂𝒍 𝒅𝒆 𝒍𝒂 𝒓𝒆𝒔𝒑𝒖𝒆𝒔𝒕𝒂 𝒎𝒆𝒅𝒊𝒂 con
respecto a 𝒙𝟏 𝒙𝟐 , representa el efecto sobre la respuesta media por unidad de
cambio en 𝒙𝟏 𝒙𝟐 , 𝒄𝒖𝒂𝒏𝒅𝒐 𝒙𝟐 𝒙𝟏 𝒔𝒆 𝒎𝒂𝒏𝒕𝒊𝒆𝒏𝒆 𝒇𝒊𝒋𝒂.
 Otro caso es cuando el modelo es de la forma:
 𝒚𝒋 = 𝛽𝑜 + 𝛽1 . 𝑥𝑗 + 𝛽2 . 𝑥𝑗 2 + ⋯ + 𝛽𝑘 . 𝑥𝑗 𝑘 +𝜺𝒋 ; j= 1,2, …,n
 Este modelo es conocido como modelo curvilineal o polinomial.

 El modelo general expresado matricialmente como: Y = 𝑋. 𝛽 + 𝜖, bajo el caso


de la teoría normal se cumple que:
 𝑌~ 𝑁 𝑿𝜷, 𝜎 2 𝑰 𝜀~𝑁 𝑶, 𝜎 2 𝑰 , 𝑑𝑜𝑛𝑑𝑒 𝑉 𝑌 = 𝑉 𝜀 = 𝜎 2 𝑰
 Para la estimación de los parámetros por mínimos cuadrados se utiliza la
expresión:
 𝜷 = 𝑿′ 𝑿 −𝟏 𝑿′ 𝒀; 𝒚 𝒍𝒂 𝒆𝒄𝒖𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒓𝒆𝒈𝒓𝒆𝒔𝒊ó𝒏 𝒆𝒔𝒕𝒊𝒎𝒂𝒅𝒂 𝒆𝒔 𝒀
෡ = 𝑿𝜷
 Cada 𝜷𝒋 𝒕𝒊𝒆𝒏𝒆 una distribución normal, tal que 𝑬 𝜷𝒋 = 𝛽𝑗 , 𝑦 𝑙𝑎 𝑉 𝛽𝑗 = 𝑐 𝑗+1 𝜎 2 ,
j=0, 1, 2,…,k, donde 𝑐 𝑗+1 𝑒𝑠 𝑒𝑙 𝑒𝑙𝑒𝑚𝑛𝑡𝑜 𝑑𝑒 𝑙𝑎 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 𝑗 + 1 𝑑𝑒 𝑋 ′ 𝑋 −1
𝑌 ′ 𝑌−𝛽′ 𝑋 ′ 𝑌
 Un estimador no sesgado de la varianza del error es: 𝑆 = 2
, donde n es
𝑛−𝑚
el número de observaciones y m es el número de parámetros a estimar.
 Una estimación de 𝑉(𝜷𝒋 ) es: 𝑠 2 𝜷𝒋 = 𝑐 𝑗+1 𝑠2
 La hipótesis apropiada para probar Ho es:
 Ho: 𝛽1 = 𝛽2 = ⋯ = 𝛽𝑘 = 0 𝑣𝑠 𝐻1: 𝛽𝑗 ≠ 0 𝑝𝑎𝑟𝑎 𝑎𝑙𝑔ú𝑛 𝑗 = 1,2, … , 𝑘.
Modelo lineal general
 Un estimador no sesgado de la varianza del error es:

𝑌 ′ 𝑌−𝛽′ 𝑋 ′ 𝑌
 𝑌= , el numerador es la suma de cuadrados de los residuos y el
𝑛−𝑚
denominador es el número de observaciones menos el número de parámetros.
 TABLA ANOVA
 La tabla anova para el modelo lineal general es:

N° g. l. Suma de Cuadrados Cuadrados medios Estadística F


Fuente de variac
σ 𝑌𝑖 2 𝑆 𝑅 (𝑚 − 1)
Regresión k=m-1 𝛽 ′ 𝑋′ 𝑌 − SCR/(m-1)
𝑛 𝑆𝑆𝐸 (𝑛 − 𝑚)
Error n-m 𝑌′ 𝑌 − 𝛽 ′ 𝑋′ 𝑌 SSE/(n-m)

σ 𝑌𝑖 2
Total n-1 𝑌′ 𝑌 −
𝑛

 Para este modelo la noción del coeficiente de determinación se extiende para


dar origen a lo que se conoce como coeficiente de correlación múltiple o
coeficiente de determinación múltiple. Este coeficiente se define como:
𝑆𝐶𝑅 𝑆𝑆𝐸
 𝑅2 = =1− , 𝑒𝑠𝑡𝑎 𝑒𝑥𝑝𝑟𝑒𝑠𝑖ó𝑛 𝑚𝑖𝑑𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑐𝑖ó𝑛 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑙𝑎𝑠
𝑆𝑆𝑇 𝑆𝑆𝑇
observaciones con respecto a su media atribuible a la ecuación de regresión
estimada.
Principio de la suma de cuadrados extra

 𝑅 2 , es una medida relativa de que tanto las variables de predicción incluidas


en el modelo explican la variación de las observaciones.
 Entre más cercano a 1 es el valor de 𝑅 2 mayor es la cantidad de la variación
total que puede explicarse por medio de los términos que aparecen en el
modelo.
 Algo importante a tener en cuenta es que por sí mismo un R cuad no puede
validar el modelo propuesto, ni tener un valor de R cuad cercano a 1,
necesariamente implica que la ecuación de regresión estimada sea
apropiada para realizar una predicción.
 PRINCIPIO DE LA SUMA DE CUADRADOS EXTRAS
 La inclusión de una variable de predicción en un modelo de regresión no
implica que tenga un efecto substancial sobre la variable respuesta.
 Cuando un investigador identifica un conjunto de variables de predicción,
queda por comprobar si algunas realmente lo hacen.
 El procedimiento apropiado para encontrar los efectos individuales de las
variables de predicción se basa en el principio de la suma de cuadrados
extra.
 Este principio permite determinar la reducción en la suma de los cuadrados
de los errores cuando se introduce un coeficiente adicional de regresión.
 Cabe señalar que a pesar de que la SSE siempre disminuye conforme se
añaden más términos al modelo, el incremento de la SCR tiene un límite
conforme se suman más términos al modelo.
Principio de la suma de cuadrados extra

 Una estrategia lógica en regresión lineal múltiple es la de añadir no


cualesquiera términos al modelo, sino sólo aquellos que incrementen en forma
significativa la SCR, disminuyendo de esta manera significativamente la SSE.
 Recuerda que SSE = SST – SSR
 Para ilustrar el principio de la suma de cuadrados extra se emplearán los
siguientes datos:
Obs Y x1 x2 x3 x4
1 6 ,9 3 8 ,4 6 ,1 220 235
2 1 4 ,4 4 0 ,3 4 ,8 231 307
3 7 ,4 40 6 ,1 217 212
4 8 ,5 3 1 ,8 0 ,2 316 365
5 8 4 0 ,8 3 ,5 210 218
6 2 ,8 4 1 ,3 1 ,8 267 235
7 5 3 8 ,1 1 ,2 274 285
8 1 2 ,2 5 0 ,8 8 ,6 190 205
9 10 3 2 ,2 5 ,2 236 267
10 1 5 ,2 3 8 ,4 6 ,1 220 300
11 2 6 ,8 4 0 ,3 4 ,8 231 367
12 14 3 2 ,2 2 ,4 284 351
13 1 4 ,7 3 1 ,8 0 ,2 316 379
14 6 ,4 4 1 ,3 1 ,8 267 275
15 1 7 ,6 3 8 ,1 1 ,2 274 365
16 2 2 ,3 5 0 ,8 8 ,6 190 275
17 2 4 ,8 3 2 ,2 5 ,2 236 360
18 26 3 8 ,4 6 ,1 220 365
19 3 4 ,9 4 0 ,3 4 ,8 231 395
20 1 8 ,2 40 6 ,1 217 272
21 2 3 ,2 3 2 ,2 2 ,4 284 424
22 18 3 1 ,8 0 ,2 316 428
23 1 3 ,1 4 0 ,8 3 ,5 210 273
24 1 6 ,1 4 1 ,3 1 ,8 267 358
25 3 2 ,1 3 8 ,1 1 ,2 274 444
26 3 4 ,7 5 0 ,8 8 ,6 190 345
27 3 1 ,7 3 2 ,2 5 ,2 236 402
28 3 3 ,6 3 8 ,4 6 ,1 220 410
29 3 0 ,4 40 6 ,1 217 340
30 2 6 ,6 4 0 ,8 3 ,5 210 347
31 2 7 ,8 4 1 ,3 1 ,8 267 416
32 4 5 ,7 5 0 ,8 8 ,6 190 407
Ejemplo

 Se tiene el propósito de desarrollar una ecuación de regresión para estimar


la producción de gasolina como una función de las propiedades de
destilación de cierto tipo de petróleo crudo.
 X1: la gravedad del petróleo x2: la presión del vapor del petróleo crudo
 X3: punto del 10% ASTM para el petróleo crudo(°F) x4: punto ASTM final para
la gasolina(°F).
Multiple Regression - Cant gasol
Dependent variable: Cant gasol
Independent variables:
Gravedad
Presión
ASTM
astmgasol

Parameter Estimate ErrorStandard T P-Value


CONSTANT -6,82077 10,1232 -0,67378 0,5062
Gravedad 0,227246 0,0999366 2,2739 0,0311
Presión 0,553726 0,369752 1,49756 0,1458
ASTM -0,149536 0,0292292 -5,11597 0
astmgasol 0,15465 0,00644584 23,9922 0

Analysis of Variance
Source SS gl CM F-Ratio P-Value
Model 3429,27 4 857,318 171,71 0
Residual 134,804 27 4,99274
Total (Corr.) 3564,08 31

R-squared = 96,2177 percent


 Para ilustrar el principio de la suma de cuadrados extra se emplearán de estos
datos solo las variables 𝑥2 𝑦 𝑥3 ajustando todas las posibles regresiones de la
producción de gasolina. Existen tres ecuaciones de regresión, dos que toman en
cuenta a 𝑥2 𝑦 𝑥3 en forma individual y la tercera que contiene ambas variables.

ANOVA
F variac SS gl Mean Square F-Ratio P-Value
Model 525,738(x2) 1 525,738 5,19 0,03
Residual 3038,34 30 101,278 𝑦ො = 13.0 + 1. 𝑥2
Total (Corr.) 3564,08 31

Source SS gl Mean Square F-Ratio P-Value


Model 353,7(x3) 1 353,7 3,31 0,0791 𝑦ො = 1.3 − 0.0 𝑥 3
Residual 3210,38 30 107,013
Total (Corr.) 3564,08 31

Source SS gl Mean Square F-Ratio P-Value 𝑦ො = −2. 2 + 2.2 𝑥 2 + 0.0 𝑥3


Model 547,49(x2,x3) 2 273,745 2,63 0,0891
Residual 3016,59 29 104,02
Total (Corr.) 3564,08 31

 En el análisis es importante anotar que la suma total de cuadrados es la misma sin


importar el número de variables regresoras que se incluyan en el modelo.
 Si suponemos que el modelo original es: 𝑌𝑖 = 𝛽𝑜 + 𝜀𝑖 ; 𝑙𝑎 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑑𝑒 𝑌 𝑠𝑜𝑏𝑟𝑒 𝑥2 ,
Ejemplo Prater

 𝑆𝑆𝑅 𝑥2 = 2 , es la reducción en la suma de los cuadrados cuando se añade el término


𝛽2 𝑥2 , al modelo 𝑌𝑖 = 𝛽𝑜 + 𝜀𝑖 . La inclusión de este nuevo término en el modelo representa la
suma extra de cuadrados en la que disminuye 𝑆𝑆𝐸 .
 Si la hipótesis nula se planteara en términos de que:
 Ho: 𝛽2 = 0
 Se rechazaría porque el f observado es F= 5,19 > 𝐹0,95;1,30 = ,1
 Pero para Ho: 𝛽3 = 0, 𝑛𝑜 𝑝𝑢𝑒𝑑𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟𝑠𝑒, F= 3,31< 4,17
 Es importante anotar que la SSE cuando se incluyen en el modelo tanto a 𝑥2 , 𝑐𝑜𝑚𝑜 𝑎 𝑥3 es
igual a 3016,59. Pero cuando solo está en el modelo 𝑥2 , 𝑙𝑎 𝑆𝑆𝐸 = 3038,3 .
 Lo anterior quiere decir que la diferencia entre SSE(𝑥2 ) 𝑦 𝑆𝑆E(𝑥2 , 𝑥3 ) 𝑑𝑒𝑏𝑒 𝑠𝑒𝑟 la suma de
cuadrados extras debido a la inclusión del término 𝛽3 𝑥3 𝑒𝑛 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜. Esta diferencia se
denota como: 𝑆𝑆𝑅 𝑥3 𝑥2 = 𝑆𝑆𝐸 𝑥2 − 𝑆𝑆𝐸 𝑥2 , 𝑥3 = 3038,3 − 301 , = 21,
 Esta cantidad representa la reducción adicional en la suma de cuadrados de los errores
cuando se introduce 𝑥3 𝑒𝑛 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑞𝑢𝑒 𝑦𝑎 𝑐𝑜𝑛𝑡𝑖𝑒𝑛𝑒 𝑎 𝑥2 .
 Ahora puesto que una reducción en la suma de los cuadrados de los errores significa un
aumento en la suma de cuadrados de la regresión, entonces:
 𝑆𝑆𝑅 (𝑥2 ,𝑥3 ) = 𝑆𝑆𝑅 (𝑥3 𝑥2 )+𝑆𝑆𝑅 (𝑥2 )
 = 21,75 + 525,74
 = 547,49 que es el mismo valor que coincide con el obtenido en
Statgraphics.
Modelo lineal general

 De la misma manera se puede generalizar el resultado anterior cuando se tienen 3 variables regresoras,
escribiendo:

 𝑠𝑠𝑅 𝑥1 , 𝑥2 , 𝑥3 = 𝑆𝑆𝑅 (𝑥2 ) + 𝑆𝑆𝑅 𝑥1 𝑥2 + 𝑆𝑆𝑅 𝑥3 𝑥2 , 𝑥1

 EL PROBLEMA DE LA MULTICOLINEALIDAD

 Es bastante frecuente obtener conclusiones erradas con un punto de vista casual para la aplicación de
análisis de regresión, cuando no se tiene una completa apreciación de los problemas en estudio.
 El enfoque en el análisis de regresión no debe ser simplemente maximizar el coeficiente de correlación
múltiple, sin tomar en cuenta los coeficientes de regresión estimados y sus desviaciones estándar o la de
comprobar las suposiciones fundamentales del análisis de regresión.
 Un problema frecuente en regresión lineal múltiple es el que algunas de las variables de predicción están
correlacionadas.
 Si existe una correlación muy fuerte entre dos o más variables, los resultados serán muy ambiguos
respecto a los coeficientes de regresión estimados.
 Las correlaciones altas son indicios de lo que se denomina multicolinealidad.
 Esto surge con frecuencia cuando hay datos deficientes o cuando no es posible diseñar experimentos
en forma estadística recabando los datos en arreglos balanceados.
 La presencia de multicolinealidad no impide tener un buen ajuste, ni evita que la respuesta sea en forma
adecuada predicha dentro del intervalo de observaciones; mas sin embargo si afecta en forma severa
las estimaciones de mínimos cuadrados.
 Si el coeficiente de correlación simple entre dos variables es cero, entonces se dice que las variables son
ortogonales, que es una de las principales razones en el diseño de experimentos la de adquirir factores o
variables de este tipo.
Multicolinealidad
 Para ilustrar los efectos de ortogonalidad se examinarán los datos que aparecen en la
siguiente tabla, que consiste en la temperatura aparente Y, como una función de la
temperatura del aire (x1) y de la humedad relativa (x2).

Y(°F) x1(°F) x2(%)


66 70 20 Multiple Regression - Tempa
72 75 20 Dependent variable: Tempa
77 80 20 Independent variables:
67 70 30 Tempaire
73 75 30 Humedad
78 80 30
68 70 40
74 75 40 Parameter Estimate Error Statistic P-Value
79 80 40 CONSTANT -12,8333 1,80534 -7,10853 0,0004
Tempaire 1,1 0,02357 46,669 0
Humedad 0,1 0,01179 8,48528 0,0001
Matriz de correlación
CONSTANT Tempaire Humedad Análisis de varianza
CONSTANT 1 -0,9792 -0,1958 Source SS gl CM F-Ratio P-Value
Tempaire -0,9792 1 0 Model 187,5 2 93,75 1125 0
Humedad -0,1958 0 1 Residual 0,5 6 0,0833333
Total (Corr.) 188 8

R-squared = 99,734 percent

 Estos resultados indican que por cada grado que aumenta la temperatura del aire, la
tempa aparente aumenta 1.1 grados y por cada incremento en porcentaje de la
humedad relativa, la tempa aumenta 0.1 grados. Es evidente también que el coeficiente
de correlación entre las variables x1 y x2 es cero, por lo que se concluye que son
variables ortogonales.
Mejor conjunto de variables de predicción

 DETERMINACIÓN DEL MEJOR CONJUNTO DE VARIABLES DE PREDICCIÓN


 Un problema esencial en el análisis de regresión es determinar cuáles de las
 variables iniciales deberán incluirse en el modelo de regresión:
 Un investigador decidirá por aquellas que tengan la mayor probabilidad de
contener los factores más importantes para la respuesta dada.
 Para esto es necesario tener una manera de determinar de la lista inicial de
variables aquellas que mejor describan el cambio en la respuesta promedio.
 Entonces si k es el número inicial de potenciales de variables de predicción, al
incluir el término constante, el número de términos en el modelo lineal completo es
m= k+1.
 Cuando se tienen k+1 términos en un modelo, hay:
 1. Una ecuación que no contiene ninguna variable de predicción
෡=𝒀
 𝒀 ഥ
 2. Hay k ecuaciones cada una con una variable de predicción
 ෝ = 𝜷𝒐 + 𝜷𝟏 𝒙𝟏 ; 𝒚
𝒚 ෝ = 𝜷𝒐 + 𝜷𝟐 𝒙𝟐 ; … ; 𝒚
ෝ = 𝜷𝒐 + 𝜷𝒌 𝒙𝒌
 3. Hay k.(k-1)/2 ecuaciones cada una con dos variables de predicción, etc.
 Cuando k es grande, se han desarrollado técnicas para la selección de variables.
De todas maneras si se sospecha de multicolinealidad la técnica más usual es el
procedimiento de regresión por pasos, de las cuales hay dos: selección hacia
adelante y eliminación hacia atrás, (forward stepwise y back stepwise).
Stepwise

 El procedimiento de selección hacia adelante comienza con una



 ecuación que no contiene variables de predicción.
 La primera variable que se incluye es aquella que produce la mayor
reducción en SSE, ésta es la variable con el coeficiente de correlación
simple más alto para la respuesta dada.
 Con base en una prueba de hipótesis, si el coeficiente de regresión es
significativamente diferente de cero, la variable permanece en la ecuación
y se comienza la búsqueda de la segunda variable.
 El proceso continúa hasta que la significancia estadística no sea discernible
para el coeficiente de la última variable que entró en la ecuación de
regresión.
 El procedimiento de selección hacia atrás comienza con la ecuación de
regresión que contiene a todas las variables de predicción.
 Luego se van eliminando una a la vez las variables menos importantes con
base en su contribución a la reducción en el valor de la SSE. Por ejemplo la
primera variable por omitir será aquella cuyo efecto sobre la reducción en la
SSE dada la presencia de las demás variables sea el más pequeño.

CRITERIOS

 Criterios de comparación y evaluación de las ecuaciones

 Para evaluar y comparar las ecuaciones de regresión es necesario tener


criterios efectivos, dos de los más útiles son: el cuadrado medio del error y el
criterio Cp.
 Estudiaremos en particular el CME. Este valor se define como:
𝑺𝑺𝑬
 𝑪𝑴𝑬 = ෝ𝟐
= 𝒗𝒂𝒓𝒊𝒂𝒏𝒛𝒂 𝒓𝒆𝒔𝒊𝒅𝒖𝒂𝒍 𝝈
𝒏−𝒎

 Es importante recordar que la SSE no puede aumentar si se permiten más


variables en el modelo, no ocurre lo mismo con el CME. Véase por ejemplo
en la diapositiva 24 la 𝑺𝑺𝑬 𝒙𝟐 = 𝟑𝟎𝟑𝟖, 𝟑𝟒 𝒚 𝑺𝑺𝑬 𝒙𝟐 , 𝒙𝟑 = 𝟑𝟎𝟏𝟔, 𝟓𝟗,
𝒆𝒔 𝒅𝒆𝒄𝒊𝒓 𝑺𝑺𝑬 𝒙𝟐 > 𝑺𝑺𝑬 𝒙𝟐 , 𝒙𝟑
 Pero el 𝑪𝑴𝑬 𝒙𝟐 = 𝟏𝟎𝟏, 𝟐𝟖 < 𝟏𝟎𝟒, 𝟎𝟐 = 𝑪𝑴𝑬 𝒙𝟐 , 𝒙𝟑 .
 Entonces con este criterio puede determinarse el conjunto de variables de
predicción que minimice a CME, hasta el momento para el que la inclusión
de más variables ya no garantice la reducción en el CME.
Criterio Cp
 El criterio Cp

 Sabemos que la varianza residual 𝑺𝟐 es un estimador no sesgado de la varianza del


error 𝝈𝟐 solo cuando se ha escogido la forma correcta para el modelo de regresión.
σ𝒏 𝟐
𝒊=𝟏 𝑨 𝒊
De otra manera puede comprobarse que: 𝑬 𝑺 = 𝝈 +
𝟐 𝟐
, donde p es el
𝒏−𝒑
número de términos que aparecen en el modelo, incluido el término constante.
 Y por otro lado 𝑨𝒊 = 𝑬 𝒀𝒊 − 𝐄 𝒀
෡ 𝒊 , 𝒆𝒔 𝒆𝒍 𝒔𝒆𝒔𝒈𝒐.
 Ahora para una ecuación de regresión que contenga p términos, se define 𝑺𝑺𝑬𝒑 =
(n-p)𝑺𝟐 𝒑
σ𝒏 𝟐
𝒊=𝟏 𝑨 𝒊
 Luego 𝑬 𝑺𝑺𝑬𝒑 = 𝒏 − 𝒑 𝑬 𝑺𝟐 𝒑 = 𝒏 − 𝒑 (𝝈𝟐 + )= 𝒏 − 𝒑 𝝈𝟐 + σ𝒏𝒊=𝟏 𝑨𝒊 𝟐 ;
𝒏−𝒑
despejando obtenemos que
 σ𝒏𝒊=𝟏 𝑨𝒊 𝟐 = 𝑬 𝑺𝑺𝑬𝒑 − 𝒏 − 𝒑 𝝈𝟐
 Un estimador de 𝑬 𝑺𝑺𝑬𝒑 es 𝑺𝑺𝑬𝒑 𝒚 𝑺𝒌 𝟐 𝒆𝒔 𝒖𝒏 𝒆𝒔𝒕𝒊𝒎𝒂𝒅𝒐𝒓 𝒅𝒆 𝝈𝟐 , 𝒅𝒐𝒏𝒅𝒆
 𝑺𝒌 𝟐 =𝑪𝑴𝑬. 𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒌 𝒆𝒔 𝒆𝒍 𝒆𝒔𝒕𝒊𝒎𝒂𝒅𝒐𝒓 𝒅𝒆 𝝈𝟐 .
𝑺𝑺𝑬𝒑
 Por último Cp = 𝟐 − 𝒏 − 𝟐𝒑 . Esta última expresión se obtiene al utilizar la
𝑺𝒌
definición del cuadrado medio del error total estandarizado. Por ejemplo para
obtener el valor de Cp para la regresión de Y sobre 𝒙𝟐 𝒚 𝒙𝟑 , 𝒔𝒂𝒃𝒆𝒎𝒐𝒔 𝒒𝒖𝒆
𝑺𝑺𝑬 𝒙𝟐 , 𝒙𝟑 = 𝟑𝟎𝟏𝟔, 𝟓𝟗 y CME(x1,x2,x3,x4) = 4,99.
𝟑𝟎𝟏𝟔,𝟓𝟗
 Entonces Cp = − 𝟑𝟐 − 𝟐 𝟒 = 𝟓𝟖𝟎, 𝟓𝟐
𝟒,𝟗𝟗

Вам также может понравиться