Академический Документы
Профессиональный Документы
Культура Документы
Regresin y correlacin
3.1.
Consideremos una v.a. bidimensional (X; Y ). Los dos casos extremos que se pueden dar
respecto a la relacin entre X e Y son los siguientes:
- Independencia. Si X e Y son independientes, la variable X no ofrece ninguna
informacin sobre Y (ni Y sobre X). Todas las distribuciones condicionadas (Y =X = x)
coinciden con la distribucin marginal de Y .
- Dependencia funcional. Decimos que hay dependencia funcional cuando existe
una funcin h tal que Y = h(X) (o una funcin g con X = g(Y )). Conociendo el valor x
que ha tomado X se conoce el valor y que ha tomado Y : se tiene que y = h(x). Esto es,
P fY = h(x)=X = xg = 1. De este modo, la variable X ofrece informacin completa sobre
Y . Las distribuciones condicionadas (Y =X = x) son degeneradas: (Y =X = x)
h(x). Por
3. Regresin y correlacin
h
m n E (Y
h (X))2
(3.1)
Podemos estar interesados en la relacin de la altura, ahora no solo con el peso, sino
con el peso, el dimetro torcico, y el dimetro craneal, considerados conjuntamente. Estudiaremos los planos de regresin y las supercies de regresin, que son la extensin
de la recta y la curva de regresin en el caso en que X no es unidimensional.
3.2.
Rectas de regresin
L(a; b) = E[(Y
(3.2)
2bE[XY ] + 2abE[X]
2
2aE[Y ] .
(3.3)
Para obtener los valores a y b con los que se minimiza L(a; b) derivamos e igualamos a cero
las derivadas:
dL
= 2a + 2bE[X] 2E[Y ] = 0
da
dL
= 2bE[X 2 ] 2E[XY ] + 2aE[X] = 0 .
db
(3.4)
(3.5)
E[X]
Cov(X; Y )
2
X
XY
2
X
E[XY ] E[X]E[Y ]
Cov(X; Y )
=
=
2
2
2
E[X ] (E[X])
X
XY
2
X
(3.6)
=
(3.7)
Por tanto, la funcin lineal y = h(x), con h(x) = a + bx, con la que se alcanza el mnimo
h
i
m na;b L(a; b) = m nh E (Y (a + bX))2 es
y=
XY
2
X
XY
2
X
x.
(3.8)
(3.9)
Esta expresin es muy fcil de memorizar, y a partir de ella se obtiene (3.8) de un modo
inmediato.
De un modo similar se obtiene la recta de regresin de X sobre Y :
x=
XY
2
Y
XY
2
Y
y,
(3.10)
(3.11)
3. Regresin y correlacin
X;
Y ).
(3.12)
f2 (y) = 6y(1
y) si 0 < y < 1 .
1
20 .
E [X]2 =
3
80
, y E [Y ] =
1
2
3
4
(3.13)
y E X 2 = 35 , y a partir
y E Y2 =
3
10 ,
y a partir de aqu,
Se tiene que
Z
E [XY ] =
1Z x
XY
2
,
5
E [X] E [Y ] =
(3.14)
1
40 .
XY
2
X
XY
2
X
XY
2
Y
1
2
XY
2
Y
1=40 3 1=40
2
+
x= x.
3=80 4 3=80
3
(3.15)
1+y
2
3
4
1=40 1 1=40
1 1
+
y= + y.
1=20 2 1=20
2 2
(3.16)
x=
y=
1
2
1.
3 1
;
4 2
= (E [X] ; E [Y ]) .
(3.17)
A la pendiente
XY
2
X
Y =X ,
y a la pendiente
XY
2
Y
de la recta de
X=Y .
Y =X
XY
2
X
X=Y
XY
2
Y
X=Y
(3.18)
Y
Y =X
2
3,
y el
= 12 .
3.3.
El coeciente de correlacin
1 2
1, esto es,
Cov(X; Y )
p
,
V [X] V [Y ]
=p
(3.19)
(X; Y ) est contenido en una recta del plano, o sea, si Y = a + bX para algn a y b.
b) Se tiene que
Demostracin
a) Es inmediato a partir de la desigualdad de Cauchy-Schwartz.
b) Se tiene que
Cov (aX + b; cY + d)
(3.20)
(aX + b) (cY + d)
E [(aX + b E [aX + b]) (cY + d E [cY + d])]
=r h
ir h
i (3.21)
2
2
E (aX + b E [aX + b])
E (cY + d E [cY + d])
(aX + b; cY + d) =
=r
(3.22)
3. Regresin y correlacin
(aX + b; cY + d) =
(3.23)
de medida, puesto que todas las escalas usadas habitualmente se relacionan linealmente: x
grados centgrados son 59 x + 32 grados Fahrenheit y x + 2730 16 grados Kelvin.
Las rectas de regresin de Y sobre X,
y EY
Y
x EX
X
, y de X sobre Y ,
x EX
X
y EY
Y
(x
X)
Y
Y
x.
(3.24)
(y
Y)
El coeciente de correlacin
X
X
Y
Y
y.
(3.25)
de la recta de regresin.
Una medida del ajuste debe indicar hasta que punto se cumple el objetivo de aproximar
bien Y mediante h(X) = a + bX. Las cantidades a y b se han obtenido de modo que
minimizan la esperanza L(a; b) en (3.2). La medida que consideramos es precisamente ese
valor, minimo, de L(a; b) = E (Y
E (Y
siendo y = a + bx =
Y
X
Y
X
2
Y
(3.26)
L(a; b) = E (Y
=E
"
(a + bX))
(Y
=E
= E (Y
Y)
(X
2
Y
(X
X)
(X
X)
2 (Y
Y)
2 2
Y
2 2
Y
Y
X
V [X]
(3.27)
(3.28)
X)
= V [Y ] +
2
Y
"
Y)
"
Cov(X; Y )
(X
X)
#
(3.29)
X
Y
(3.30)
X Y
X
2 2
Y
2
Y
2 2
Y
1)
2
Y
= 1
2
Y
= 0, esto es, E (Y
(3.31)
(a + bX))2 = 0,
0, con EZ = 0 si y solo si Z = 0, y
de aqu se obtiene el resultado. Para ser mas precisos, tendramos que sustituir la condicin
Z = 0 por P fZ = 0g = 1, pero sto es irrelevante a efectos prcticos.
Si X e Y son incorreladas (por ejemplo, cuando son independientes), entonces se tiene
que L(a; b) = (1
0)
2
Y
2
Y.
EY )2 =
2
Y
.
7
3. Regresin y correlacin
E (Y
(a + bX))2 =X = x .
(3.32)
Promediando este error sobre todos los valores x, segn la distribucin de X, obtenemos
(a + bX))2 =X
E E (Y
(a + bX))2 = (1
= E (Y
2
Y
(3.33)
= 1 si
1 , con 1
2) 2
Y
2
Y
=1
(3.34)
= 0 (incorrelacin).
= 00 577, y de aqu 1
2
2
2
2
Y
2
X
3.4.
Curvas de regresin
Resolvemos ahora el problema general de obtener la funcin h : R ! R, sin restricciones, que minimiza E (Y
h(X))2 .
Se verica que
h
E (Y
i
h h
h(X))2 = E E (Y
8
h(X))2 =X
ii
(3.35)
h(x))2 =X = x] .
(3.36)
Por tanto, el problema se reduce a obtener, para cada x, un valor h(x) tal que esperanza
h
i
E (Y h(x))2 =X = x es mnima.
Teniendo en cuenta que, para una v.a. Z, se tiene que E[(Z
i
h(x)) =X = x
2
E (Y
(3.37)
se minimiza con h(x) = E [Y =X = x], que proporciona entonces la solucin del problema
h(X))2 se minimiza con h(X) = E [Y =X].
(3.38)
h(Y ))2 ].
Razonando del mismo modo que antes se obtiene que la curva de regresin de X sobre Y
es
x = m1 (y) ,
(3.39)
1
2x
si 0 <
9
y
<x<1.
2
3. Regresin y correlacin
(Y sobre X),
1 y=2
log (y=2)
(3.40)
(X sobre Y ).
(3.41)
XY
2
X
=0 y
XY
2
X
XY
2
X
x , debe ser
=1.
(3.42)
Conociendo tres de los cinco momentos que intervienen en las dos ecuaciones, los otros dos
pueden ser obtenidos despejando. En este caso, en la solucin del examen se calculan todos
los momentos de orden 1 y 2, por lo que no necesitamos las ecuaciones. Comprueba que
los valores all calculados satisfacen estas ecuaciones. La recta de X sobre Y es
x=
=
XY
2
Y
XY
2
Y
y=
1
2
1=12 1 1=12
+
y
7=36 2 7=36
2 3
+ y.
7 7
(3.43)
(3.44)
(3.45)
f2 (y) = 6y(1
10
y) si 0 < y < 1 ,
(3.46)
(3.47)
(3.48)
U (y; 1).
2
3 x,
y entonces la
(3.49)
que es una recta, y coincide por tanto con la recta de regresin de Y sobre X. El hecho de
que la curva coincida con la recta de regresin permite obtener la recta sin necesidad de
calcular los momentos de (X; Y ), como se hizo en el ejemplo 1.
Se tiene que E [X=Y = y] = E [U (y; 1)] =
y+1
2
sobre Y es
x=
1 1
+ y,
2 2
(3.50)
que es una recta, y coincide por tanto con la recta de regresin de X sobre Y , que ya se
calcul tambin en el ejemplo 1.
Aunque no se pide, explicamos como obtener algunos de los momentos de primer y
segundo orden, ya calculados en el ejemplo 1, aqu a partir de las rectas de regresin,
obtenidas de un modo indirecto. La recta de regresin de Y sobre X tiene la forma y =
Y
XY
2
X
XY
2
X
puesto que x =
1
2
XY
2
X
=0,y
2
.
3
(3.51)
XY
2
Y
XY
2
Y
y , y entonces,
XY
2
Y
1
,y
2
XY
2
Y
1
.
2
(3.52)
X
Y,
que
son los que requieren menos clculos), los otros cuatro momentos se obtienen resolviendo
el sistema formado por las cuatro ecuaciones en (3.51) y (3.52).
11
3. Regresin y correlacin
Ejemplo 7. Consideremos dos v.a.i.i.d. X e Y con distribucin Beta Be(2; 1). Sea
T = m n fX; Y g
Z = max fX; Y g .
(3.53)
1) [F (z)
F (y)]2
f (t)f (z)
(3.54)
(3.55)
Calculamos las curvas en primer lugar. Si alguna es una recta, entonces coincide con la recta
de regresin, que queda con ello ya obtenida. Las distribuciones marginales y condicionadas
son:
g1 (t) = 4t(1
g2 (z) = 4z 3
- Para 0 < t < 1, g(z=t) =
t2 ) si 0 < t < 1 .
si 0 < z < 1 .
(3.56)
(3.57)
2z
si z 2 (t; 1) .
1 t2
2t
- Para 0 < z < 1, g(t=z) = 2 si t 2 (0; z) .
z
Las esperanzas condicionadas valen:
2 1 t3
2 t2 + t + 1
=
,y
2
31 t
3 t+1
2
E [T =Z = z] = z .
3
E [Z=T = t] =
(3.58)
(3.59)
2 t2 + t + 1
,
3 t+1
(3.60)
2
t= z ,
3
(3.61)
T,
Z,
TZ
TZ
2
Z
TZ
2 z
Z
TZ
2
Z
2
,
3
(3.63)
2
3
2
Z
(3.64)
(3.62)
2
y puesto que esta recta es t = z, se tiene que
3
T
TZ
2
Z
=0
2
3
y por tanto
T
Calculamos
Z,
2
T
TZ
2
Z.
TZ
= 4=225 y
T
2
T.
= 4=5 y
2
Z
= 2=75.
= 8=15.
Se obtiene E[T 2 ] = 1=3 y de aqu,
2
T
= 11=225.
3.5.
TZ
2
T
TZ
2 t
T
(3.65)
20 12
+ t.
33 33
(3.66)
Razn de correlacin
h
m n E (Y
c
i
h
c)2 = E (Y
13
i
E [Y ])2 = V [Y ] .
(3.68)
3. Regresin y correlacin
h
i
h(X))2 = E (Y E [Y =X])2
h h
ii
= E E (Y E [Y =X])2 =X
(3.69)
(3.70)
= E [V [Y =X]] ,
h
puesto que la v.a E (Y
h
E (Y
E [Y =X])2 =X
i
h
E [Y =X])2 =X = x = E (Y
(3.71)
i
E [Y =X = x])2 =X = x = V [Y =X = x] . (3.72)
Podemos medir la bondad del ajustede Y mediante E[Y =X] a traves de un cociente
de errores anlogo al que se obtuvo en (3.34) para la recta de regresin, que vale
2
E (Y E[Y =X])2
E[V [Y =X]]
Y
=
=
2
E [(Y EY )2 ]
Y
V [E[Y =X]]
,
=1
2
V [E[Y =X]]
(3.73)
2
Y
(3.74)
= V [Y ] = E [V [Y =X]] + V [E [Y =X]] .
(3.75)
2,
y para la
2
Y =X ,
como
V [E[Y =X]]
2
Y
(3.76)
2
Y =X
2
Y =X
1,
(3.77)
E [V [Y =X]] = 0).
14
Se verica que
2
0
con
2
Y =X
2
Y =X
1,
(3.78)
solamente en el caso de que la curva de regresin sea una recta, que coincide
2
Y =X
= 0 se tiene que
2
= 1 se tiene que
2
Y =X
= 1, lo que
reeja el hecho de que la dependencia funcional lineal implica, por supuesto, la dependencia
funcional.
La razn de correlacin de X sobre Y es
2
X=Y
2
Y =X ,
V [E[X=Y ]]
2
X
(3.79)
3.6.
Planos de regresin
X
Y
h (X))2
(3.80)
Pk
i=1 bi xi
, o, vectorialmente,
dh
dbi
d
bi bx
= xi .
(a + bX))2
(3.81)
3. Regresin y correlacin
con la esperanza de la derivada, lo que simplica los clculos. Calculamos las derivadas de
(y
(a + bx))2 :
d
(y
da
d
(y
dbi
(a + bx))2 = 2 (y
(a + bx))2
(a + bx))2 = 2 (y
(a + bx))
d
(y
da
d
(y
dbi
(a + bx)) = 2 (y
(a + bx)) = 2 (y
(a + bx)) , (3.82)
(a + bx)) xi .
(3.83)
+ bk E [Xk ] = E [Y ]
(3.84)
+ bk E [Xk X1 ] = E [X1 Y ]
(3.85)
aE [Xk ] + b1 E [X1 Xk ] +
..
.
(3.86)
+ bk E Xk2 = E [Xk Y ]
(3.87)
Estas ecuaciones se pueden expresar matricialmente, de una forma compacta. Consideremos el vector aleatorio Z =
1
X
(3.88)
Deniendo la esperanza de una matriz de variables aleatorias como la matriz de las correspondientes esperanzas, queda denida E [ZZ0 ]. Es inmediato comprobar que E [ZZ0 c0 ] =
E [ZZ0 ] c0 , y por tanto E [ZY ] = E [ZZ0 ] c0 . Despejando se obtiene c0 = E [ZZ0 ]
E [ZY ],
y entonces
c = E Z0 Y E ZZ0
(3.89)
z.
(3.90)
E [X] C
B 1 X C
B 1
0
ZZ0 = @
A , E ZZ = @
A ,
X X2
E [X] E X 2
E ZZ0
E ZZ0
= E X2
0
E [X]2 =
2
1 B E X
@
2
X
E [X]
Adems,
2
X
(3.91)
,y
1
(3.92)
E [X] C
A .
1
(3.93)
Z0 Y = (Y; XY ) , E Z0 Y = (E [Y ] ; E [XY ]) ,
(3.94)
y entonces
c = E Z0 Y E ZZ0
=
=
1
2
X
1
2
X
(3.95)
E X 2 E [Y ]
(3.96)
E X 2 E [Y ]
(3.97)
Simplicando, obtenemos
E X 2 E [Y ]
E [X] E [XY ]
2
X
+ E [X]2 E [Y ]
2
X
= E [Y ] +
= E[Y ]
1
2
X
( E [X] E [Y ] + E [XY ]) =
c=
XY
2
X
(3.98)
2
X
= E [Y ] +
E [X] E [XY ]
E [X]2 E [Y ]
E [X] E [XY ]
(3.99)
2
X
E [X] (E [X] E [Y ]
E [XY ])
2
X
E[X]
XY
2
X
(3.100)
(3.101)
, y entonces
XY
2
X
XY
2
X
(3.102)
Por tanto, el plano de regresin, en este caso una recta, es (con x = x y z = (1; x)0 )
y = h (x) = a + bx = cz =
17
XY
2
X
XY
2
X
x.
(3.103)
3. Regresin y correlacin
E [ZY ] = E ZZ0 c0
Y
E [(Y
(3.104)
ZY
cZ) Z] ,
(3.105)
cZ) Z] es E [(Y
bE [X] .
(3.106)
3.7.
(3.107)
i
h (X1 ; X2 ))2 .
propiamente dicho).
Buscamos entonces los valores a; b1 ; b2 que hacen mnima la esperanza
h
L (a; b1 ; b2 ) = E (Y
(a + b1 X1 + b2 X2 ))2
(3.108)
2
1;
2
2;
2
Y
1;
2;
las esperanzas de
18
ij ,
2
12
2 2
1 1
. La expresin de E [ZZ0 ]
C
C
C ,
C
A
(3.109)
es aparatosa,
bE [X] =
12 1Y
2
12
b1
b2
2.
Los
valores de b1 y b2 son:
b1 =
1Y
12 2Y
2
12
b2 =
2Y
(3.110)
i
h
(a + b1 X1 + b2 X2 ))2 = E ((Y
2
Y
+ b21
2
1
+ b22
2
2
2b1
1Y
2
Y .12
2b2
Y)
b1 (X1
2Y
+ 2b1 b2
2
2Y
12
1)
2
Y
2
2 ))
b2 (X2
1
2
Y .12
(3.113)
(3.114)
con
Y .12
2
1Y
2 2
12 1Y
2
12
2
2Y
(3.115)
Del mismo modo que la bondad del ajuste con la recta de regresin se mide mediante
1
19
2
Y .12