Академический Документы
Профессиональный Документы
Культура Документы
de
conceptos
estads-cos
Apndice
A
f ( x) 0 y
f ( x) dx =1
f ( x)dx = Pr ( a x b )
a
Grcamente,
f ( x, y) = f ( x) f ( y)
E ( X ) = xf ( x), si X es discreta
x
E ( X ) = xf ( x)dx, si X continua
E ( g ( X ) ) = g ( X ) f ( x)dx, si X continua
var( X ) = X2 = E ( X u )
u
=
E
(
X
)
u
(
)
Puede
obtenerse
alterna-vamente
Si
a
y
b
son
constantes
var(aX + b) = a 2 var( X )
Si
X
e
Y
son
independientes
var( X + Y ) = var( X ) + var(Y )
var(X Y ) = var( X ) + var(Y )
La
covarianza
se
calcula
cov( X , Y ) = ( X u x )(Y u y ) f ( x, y ), X discreta
x
cov( X , Y ) =
cov( X , Y )
cov( X , Y )
=
=
XY
var( X ) var(Y )
E ( X / Y = y ) = xf ( x / Y = y )dx, X continua
var( X / Y = y ) = E ( X E ( X / Y = y ) ) / Y = y =
E
X
/
Y
=
y
(
) f ( x / Y = y), X discreta
x
X E ( X / Y = y )2 f ( x / Y = y )dx, X continua
E ( X u)
S=
E ( X u )3
K=
(simetra)
E ( X u )4
2
E ( X u )
(curtosis)
1
1 ( x u )
f ( x) =
exp
Z = Z i2
i =1
Z 2 / k2
Mtodos
de
es2macin
Los
mtodos
principales
son,
Mnimos
Cuadrados
Ordinarios
Mxima
Verosimilitud
Mtodo
de
Momentos
Mtodo
Generalizado
de
Momentos
Propiedades
exactas
Insesgadez.
Decimos
que
un
es-mador
b
del
parmetro
poblacional
es
insesgado
si
E(b)= o E(b)- = 0
En
otro
caso,
es
decir
si
esa
diferencia
no
es
nula,
el
es-mador
es
sesgado
y
el
tamao
del
sesgo
es,
Sesgo = E(b)-
La
insesgadez
es
una
propiedad
del
muestreo
repe-do,
no
de
una
muestra
dada:
para
n
jo,
si
tomamos
dis-ntas
muestras
y
para
cada
una
calculamos
el
es-mador,
esperamos
que
su
media
coincida
con
el
parmetro
Propiedades
exactas
En
la
siguiente
gura
se
ilustra
el
concepto
de
insesgadez,
Propiedades
exactas
Varianza.
Adems
de
ser
insesgado,
es
deseable
que
el
es-mador
tenga
la
menor
varianza
posible
Diremos
que
un
es-mador
es
de
varianza
mnima,
si
-ene
menos
varianza
que
cualquier
otro
es-mador
Pero
no
es
habitual
que,
independientemente
de
otras
caracters-cas,
haya
un
es-mador
de
varianza
mnima
De
dos
es-madores
insesgados
siempre
ser
preferible
el
de
menor
varianza
Pero
si
uno
es
sesgado
y
el
otro
no,
no
est
claro
cul
de
los
dos
es
preferible
Propiedades
exactas
Ilustramos
todo
ello
en
la
gura
siguiente,
Propiedades
exactas
Para
decidir
en
situaciones
como
la
anterior,
suele
emplearse
el
criterio
de
minimizar
el
ECM,
denido,
ECM () = E
Propiedades
asint2cas
A
veces,
aunque
un
es-mador
no
tenga
alguna
propiedad
en
muestras
pequeas,
se
aproxima
cada
vez
ms
a
su
cumplimiento
a
medida
que
n
crece
Un
es-mador
es
asint2camente
insesgado
si,
lim E (n ) =
n
Propiedades
asint2cas
La
siguiente
gura
ilustra
el
concepto
de
consistencia
X
N (0,1)
/ n
Zona de
rechazo
Zona de
rechazo
Zona de
aceptacin
X 170.18 175
=
= 7.59
6.35 /10
/ n
X
Pr ( 1.96 Z 1.96 ) = Pr 1.96
1.96 = 0.95
/ n
Sus-tuyendo obtenemos
H0 es verdadera
H0 es falsa
Rechazar
Error -po I
No hay error
No rechazar
No hay error
Error -po II
Introduccin
Veamos cmo valorar crticamente los
resultados de la regresin mltiple
Examinaremos las principales razones por la
que la regresin mltiple puede proporcionar
estimadores sesgados
Trataremos de hacerlo apoyndonos en el
ejemplo de la relacin entre los resultados
acadmicos y el tamao de las clases
Es decir calcularemos
Yi 0 1 X i i , con i 1 ( X i X i ) i
cov( X i , X i X i ) cov( X i vi , vi ) v2
y,
cov( X i , i ) 1 v2
2
2
1 1 1 v2 1 1 v2
X
X
p
X2
X2 v2
1
1 2
2
2
X
X v
de medida
Datos faltantes
A veces faltan datos, circunstancia que puede
generar sesgo o no. Es til considerar tres casos
1. Los datos faltan al azar
2. La falta de datos est relacionada con el valor de una
o ms variables explicativas
3. La falta de datos est relacionada con el valor de Y o
de
Soluciones a la simultaneidad
Usar variables instrumentales*
Llevar a cabo un experimento aleatorizado
controlado*
2 es de gran importancia
La omisin de variables no es un problema
La interpretacin de los coeficientes no es importante
El anlisis de validez externa es primordial
La prediccin es ms corriente con datos temporales
Heterocedasticidad y
autocorrelacin
X ki
i
h( X i )
h( X i )
i
1
1
var
var( i )
h( X i ) 1
h( X ) h( X i )
h
(
X
)
i
i
var ( )
n n ( X X )
1i
1i
Contrastes de homocedasticidad
Contraste de Breusch Pagan
Para contrastar si var(i) se relaciona con las variables
explicativas (heterocedasticidad), estimamos el modelo
i2 0 1 X 1i ... k X ki ei
Contraste de White
Ms potente y ms empleado, es similar al anterior incuyendo
como regresores potencias y productos cruzados de las X
El estadstico de contraste y su distribucin son idnticos
E ( ' | X) 2 2
n 1
n2
n 3
n 1
n2
n 3
1
Si empleamos var( X) (X'X) la varianza de estar
mal estimada, afectando a toda la inferencia y tambin a
la prediccin
)
x
o bien,
0 (1 ) 1 ( X t X t 1 ) ut
Yt* 0* 1 X t* ut
X t* X t 1 X t 1 2 X t 2
Contrastes de autocorrelacin
Contraste de Durbin y Watson. Se basa en el supuesto de que
la autocorrelacin es AR(1) y responde a la expresin,
T
DW
(
t 2
t 1
t 1
)2
2(1 )
2
t
Contrastes de autocorrelacin
Contraste de Breusch-Godfrey. Contrasta la
autocorrelacin de cualquier orden.
Se basa en la estimacin de la ecuacin
t 0 1 X1t ... k X kt 1t 1 ... qt q et
Q T ,
j 1
2
j
Q ' T (T 2)
j 1
2j
Tj
Contrastes de autocorrelacin
Contraste de Breusch-Godfrey. Contrasta la
autocorrelacin de cualquier orden.
Se basa en la estimacin de la ecuacin
t 0 1 X1t ... k X kt 1t 1 ... qt q et
Q T ,
j 1
2
j
Q ' T (T 2)
j 1
2j
Tj
Modelos no lineales
Introduccin
Hasta ahora solo hemos considerado funciones
lineales (en los parmetros)
Sin embargo las funciones lineales no siempre
son adecuadas
La teora de la regresin mltiple puede manejar
funciones que sean no lineales en alguna o
varias variables explicativas
Introduccin
Si la relacin entre Y y X es no lineal,
El efecto en Y de un cambio en X depender del
valor de X el cambio marginal no es constante
Una aproximacin lineal genera un problema de
mala especificacin funcional
El estimador del efecto causal derivado de un
modelo lineal ser sesgado
La solucin consiste en probar con una
especificacin no lineal
Funciones no lineales
Contemplaremos las siguientes especificaciones
Polinomios en X
La funcin de regresin poblacional se aproxima
con polinomios de grado 2 o superiores
Transformaciones logartmicas
Y y/o X se transforman tomando logaritmos
Ello nos dar una interpretacin en trminos de
porcentajes que tiene sentido en muchas
aplicaciones
Funciones polinmicas
La funcin de regresin poblacional se aproxima
con polinomios del tipo,
Yi = 0 + 1Xi + 2 Xi2 ++ r Xir +1Z1++i
Este es un modelo de regresin mltiple donde
algunas (todas) variables explicativas son potencias
de X
La estimacin y el contraste de hiptesis son
idnticos a los del modelo lineal
Los coeficientes tienen una interpretacin ms
complicada, aunque la funcin en s misma es
interpretable
Funciones polinmicas
El grfico calificacin/renta, parece sugerir
una relacin no lineal
720
La regresin
cuadrtica (rojo)
parece ms adecuada
que la lineal (verde)
700
Calificacion
680
660
640
620
600
0
10
20
30
Renta
40
50
60
Funciones polinmicas
La estimacin de la funcin cuadrtica es,
Yi 607.3 3.85 X i 0.0423 X i2
(2.9) (0.27) (0.0048)
Y/X ya no es constante
Si pasamos de 5000 a 6000$,
Yi 607.3 3.856 0.042336 (607.3 3.855 0.042325) 3.4
Funciones polinmicas
De la misma forma podemos probar polinomios de
grado 3, 4, etc.
Contrastar la hiptesis de linealidad contra la no
linealidad en el caso anterior, es fcil: basta
contrastar la hiptesis de significatividad de X2:
0,0423/0,0048=8,81, luego rechazaramos H0 (que
la relacin es lineal)
Funciones logartmicas
La transformacin logartmica permite modelar
relaciones en trminos porcentuales (elasticidades
y semielasticidades)
La razn es se basa en el hecho de que la
diferencia del logaritmo es aproximadamente la
tasa de variacin,
x x
ln( x x) ln( x) ln 1
(para x pequeo)
x x
Funciones logartmicas
Hay tres tipos de modelos,
Tipo
lineal-log
Yi = 0 + 1ln(Xi) + i
log-lineal
ln(Yi) = 0 + 1Xi + i
log-log
ln(Yi) = 0 + 1ln(Xi) + i
x
Y
1
Y
Y 1
1
x
X / X
100 100(X / X )
Y
Y / Y
1X 1
(100) 1X (100)Y / Y
Y
X
ln(Y) = 0 + 1X
Despus:
ln(Y + Y) = 0 + 1 ln(X + X)
Diferencia:
Entonces,
Y / Y
1
1 elasticidad
X / X
Yi = 0 + 1D1i + 2D2i + i
1 es el efecto de cambiar D1=0 a D1=1
En la especificacin anterior, dicho efecto es
independiente de D2
Pero si hay dependencia, es decir si el efecto del
cambio en D1 depende del valor de D2, el modelo
debe incluir un trmino de interaccin,
Yi = 0 + 1D1i + 2D2i + 3D1i D2i +i
1 si PctEL l0
0 si PctEL 10
Variables omitidas
La inclusin de se justifica porque hay
variables que influyen en Y y no se han incluido
en el modelo
Siempre hay variables omitidas
Esta circunstancia casi siempre conduce, a que
el estimador MCO est sesgado
En estas circunstancias el hipottico efecto
causal medido es incorrecto
Variables omitidas
Para que la omisin de una variable, Z, cause
sesgo, deben darse dos condiciones,
Z debe ser una variable determinante de Y (es
decir, estar en si se omite), y
Z debe estar correlacionada con el regresor X,
es decir corr(X, Z) 0
Para que haya sesgo, deben cumplirse las dos
condiciones
Variables omitidas
En la regresin Calif=0+1alumnos/profesor+
una posible variable omitida es el dominio del ingls
por parte de los alumnos (Z). Como,
Z influye en Calif (obvio)
corr(X, Z) 0 Por ejemplo, los hijos de inmigrantes, con
menos con menos ingresos familiares, irn a peores
escuelas (mayor ratio alumno/profesor)
Variables omitidas
Cul es el signo y el tamao del sesgo?
Si el modelo verdadero es Y=0+1X+ 2Z+, la
omisin de Z conduce a,
n
E ( 1 ) 1
(X
i 1
2
n
X 1 ) x2
2
(
X
X
)
1 1
cov( X 1 X 2 )
1 2
var( X 1 )
i 1
Es decir,
El signo depende de 2 y de cov(X1X2 )
La magnitud ser tanto mayor, cuanto mayores sean
2 y la covarianza entre X1 y X2
Variables omitidas
Respecto al signo,
Corr(X1X2)>0
Corr(X1X2)<0
2 > 0
Sesgo positivo
Sesgo negativo
2 < 0
Sesgo negativo
Sesgo positivo
Variables omitidas
Por ejemplo, en la siguiente ecuacin de salarios,
log( sal ) 5.97 0.0598educ, R 2 0.097, n 935
(0.08) (.0059)
Variables omitidas
La habilidad no se puede medir, pero una buena
proxy podra ser el resultado de un test de
inteligencia
La ecuacin estimada incluyendo esta variable es,
log( sal ) 5.65 0.0398educ 0.0059hab, R 2 0.097, n 935
(0.1) (.0068)
(.001)
Entonces: 1 =
, manteniendo fijo X2
1
min , ,
0
X X )]2
[
Y
i 0 1 1i 2 2i
i 1
Medidas de ajuste
Aqu tambin se cumple = +
SCE (Yi Y ) 2 , SCR i2 , SCT (Yi Y ) 2
Soluciones,
Lo mejor es incluir la(s) omitida(s)
Si no se puede, incluir variables de control
Supuesto 5: No multicolinealidad
Las frmulas para el clculo de los regresores
colapsan
Por ejemplo, en un modelo con dos variables
explicativas (en desviaciones con respecto a la
media), donde x2 = 2x1,
x12
x'x
2
2
x
1
2 x12
det(x'x) 0
2
4 x1
Multicolinealidad no perfecta
Sucede cuando dos (o ms) regresores tienen
una elevada correlacin (pero menor que 1)
Apesar de tener una denominacin parecida, la
situacin es muy diferente
Es posible estimar la regresin y se mantienen
las propiedades de los estimadores, pero,
Algunos coeficientes se estiman con mucha
imprecisin : si corr(X1X2) es alta, es difcil decir
que vara X1 y X2 no, i.e., no hay informacin de
lo que pasa cuando cambia X1 y no X2 no
podemos obtener una estimacin precisa de 1
Contrastes e Intervalos de
Confianza con regresin mltiple
Hiptesis individuales
La lgica de los contrastes y los intervalos de
confianza, es la misma que en regresin simple
El estadstico (1 1 )/ (1 ) se distribuye
aproximadamente N(0, 1)
Por tanto las hiptesis individuales se contrastan
con el estadstico tipo t habitual y un intervalo
del 95% viene dado por, [1 1,96(1 )]
Los mismo para cualquier k
Ejemplo
Por ejemplo, en la ecuacin de salarios,
log( sal ) 5.65 0.0398educ 0.0059hab, R 2 0.097, n 935
(0.1) (.0068)
(.001)
Ejemplo
La estimacin con errores estndar robustos no
cambia el sentido de los resultados,
Modelo 1: MCO, usando las observaciones 1-935
Variable dependiente: LWAGE
Desviaciones tpicas robustas ante heterocedasticidad, variante HC1
const
EDUC
HABILIDAD
6.779004
144.1783
0.129654
71.49284
-452.7183
925.9583
Valor p
<0.00001
<0.00001
<0.00001
***
***
***
0.421144
0.393316
0.127786
1.30e-29
911.4367
916.9739
Hiptesis conjuntas
En un modelo mltiple, por ejemplo,
Yi=0 +1X1+2X2+3X3+
Un ejemplo de hiptesis mltiple sera,
H0:1= y 2=0
H1: o 1 0 20 o ambos
Hiptesis conjuntas
Intuitivamente podramos pensar en usar test tipo
t para esta hiptesis
Por ejemplo calcular 1 /(1 ) y 2 /(2 ) y
rechazar H0 si alguna (o las dos) hiptesis
individuales se rechaza
Esta idea no es vlida: la tasa de rechazo es
mayor que el nivel de significatividad elegido
Supongamos que 1 y 2 estn distribuidos
independientemente y = 0,05. Cul es la
probabilidad de rechazo si uso test t?(debera ser
el 5%)
Hiptesis conjuntas
La probabilidad de rechazar incorrectamente H0
usando test t, es,
PrH0= [|t1| > 1.96 and/or |t2| > 1.96]
= 1 PrH0[|t1| 1.96 and |t2| 1.96]
= 1 PrH0[|t1| 1.96] [|t2| 1.96]
(porque t1 y t2 son independientes por hiptesis)
= 1 (.95)2
= .0975 = 9.75% que no es el nivel del 5% elegido!!
Test F
El estadstico F contrasta todas las partes de la
hiptesis nula a la vez
Bajo homocedasticidad, el test se limita a
calcular dos regresiones, la no restringida y la
que impone las q restricciones de la H0,
Despus se calcula,
Fq , n k 1
( SCRrestringida SCRirrestricta ) / q
SCRirrestricta /(n kirrestricta 1)
Test F
Si la variable dependiente de las ecuaciones
restringida y no restringida, es la misma, el
estadstico anterior puede escribirse,
Fq , n k 1
2
2
( Rirrestricta
Rrestringida
)/q
2
(1 Rirrestricta
) /(n kirrestricta 1)
Yi=0 +2X1+2X2+
= 0 +2(X1+X2)+
o tambin,
Yi=0 +1(X1+X2)+
ee( 1 2 )
var( 1 ) var( 1 ) 2 cov( 1 , 2 )
Variables de control
Normalmente trabajamos con datos de
observacin, no experimentales
El error depende de factores adicionales a los
incluidos, de los que no tenemos datos ()
En estos casos podemos incluir variables de
control (W) correladas con los factores causales
omitidos, pero no causales en s mismas
Esta correlacin hace que la inclusin de W
controle el efecto de los factores excluidos,
aunque W no sea causal
Variables de control
Las variables de control no son pues objeto de
inters: se incluyen para tratar de evitar (paliar)
la posibilidad de sesgo de variable omitida
No tienen porqu tener efecto causal (aunque
pueden tenerlo!)
La distincin entre variable de inters y
variable(s) de control es confusa porque el
modelo de regresin trata de la misma forma a
todos los regresores
El supuesto de independencia en media
condicional ayuda con esta distincin
Variables de control
El supuesto de independencia en media
condicional reemplaza al supuesto de media
condicionada nula
Sea una regresin con dos variables explicativas
X1 y X2, donde la primera es la variable de inters
y la segunda de control
El nuevo supuesto establece 1 , 2 = (|2 )
O sea, una vez que se controla por X2, el error no
est relacionado con X1 que puede considerarse
como si hubiera sido asignada al azar
Variables de control
Como X1 no est correlacionada con el trmino de
error, podemos estimar su efecto causal
Sin embargo X2 puede estar correlacionada con
La variable de control se incluye para tener en
cuenta factores determinantes de Y que han sido
omitidos y que estn correlacionados con la
variable de inters; tambin porque podra tener
un efecto causal
Variables de control
Si en el modelo Y = 0 + 1X + 2W + , donde X es
la variable de inters y W la de control, y se cumple el
supuesto de independencia en media condicional,
entonces,
1. 1 tiene interpretacin causal
2. 1 es insesgado
3. 2 ser, en general, sesgado
Regresin lineal
Modelo simple
Objetivo
La regresin lineal permite estimar la pendiente
de la funcin de regresin poblacional
La pendiente de la regresin poblacional es el
efecto esperado en Y de un cambio unitario en X
Nuestro objetivo final es estimar el efecto causal
en Y de un cambio en X
De momento nos centraremos en el problema
de ajustar una lnea recta a los datos de Y y X, o
sea, en la estimacin de la funcin poblacional
Inferencia
La inferencia sobre los parmetros (pendiente y
constante), implica,
Estimacin: Cmo ajustar una recta al
diagrama de dispersin Y, X?: por MCO
porque proporciona buenos estimadores
Contraste de hiptesis: contrastar si la
pendiente es cero o no (o cualquier otro valor)
Construir intervalos de confianza
Regresin poblacional
La funcin (lnea) de regresin poblacional entre
X e Y, es
Y=0 +1X
1 pte
Y
cambio en Y
X cambio unitario en X
Regresin poblacional
Dado que la relacin entre X e Y no ser exacta,
planteamos el modelo poblacional como,
Yi=0 +1Xi+i
X, es la variable independiente o regresor
Y es la variable dependiente
0 y 1 son la constante y la pendiente
, recoge los errores del modelo: factores
omitidos en la ecuacin con efecto sobre Y;
errores de medida, etc.
Ejemplo
Regresin entre el ratio alumnos/profesor y la nota
media en alguna asignatura (o global),
Calificaciones, Y
1
2
Tamao clase, X
El estimador MCO
Cmo estimar 0 y 1 a partir de los datos?
min ,
0
(Yi Yi ) min ,
2
i 1
Yi ( 0 1 X i )
1
i 1
El estimador MCO
Aplicando el clculo es fcil resolver el problema
anterior. Encontraremos que,
n
(X
i 1
X )(Yi Y )
(X
i 1
X )2
y 0 Y 1 X
es la estimacin de
Ejemplo
Con datos de Calificaciones-Tamao clase,
720
700
Calificacion
680
660
i =698,92,28Xi
640
620
600
12
14
16
18
20
Tamao_clase
22
24
26
Interpretacin
La ecuacin estimada,
Yi 698,9 2.28 X i
Significa que,
Un alumno ms por clase, hace caer la nota en 2,28
puntos
En general, la constante no debe interpretarse en un
sentido literal porque normalmente carecer de
sentido (extrapola la lnea de regresin fuera del
rango de valores de los datos)
Interpretacin
Adems sirve para pronosticar los valores de Y
dado X
Por ejemplo, en un distrito concreto el tamao
de las clases es 19,33 alumnos por profesor.
Nuestra ecuacin prev entonces,
Yi 698,9 2.28*19.33 654.8
Medidas de ajuste
Para valorar la bondad del ajuste, es decir lo
bien (o mal) que la recta estimada se ajusta al
diagrama de dispersin, empleamos,
El coef. de determinacin, R2, o fraccin de la
varianza de Y explicada por X. Vara entre 0 y 1
El error estndar de la regresin, es el
estimador de la desviacin tpica de .
Expresado en las unidades de Y mide la
dispersin de las observaciones en torno a la
recta de regresin.
Coeficiente de determinacin
El R2 se define como el cociente entre la SCE y
la SCT,
n
R2
SCE
SCT
(Y Y )
(Y Y )
i 1
n
i 1
0 R2 1
R2 = 0 SCE = 0 (X no explica nada)
R2 = 1 SCE = SCT (X explica
completamente Y)
En una regresin simple, R2 es el (rXY)2
ESR
(
)
RECM
i
i
i
i
n 2 i 1
n 2 i 1
n i 1
Ejemplo
R2 = 0,05;
ESR = 18,6
720
700
Calificacion
680
660
i =698,92,28Xi
640
620
600
12
14
16
18
20
Tamao_clase
22
24
26
Supuestos de MCO
El mtodo MCO proporciona estimadores de los
parmetros poblacionales 0 y 1 siempre que se
cumplan ciertos supuestos. Partiendo de la
linealidad,
Supuesto 1. E(|X)=0
Supuesto 2. (Xi, Yi) son i.i.d. Se cumple si los
datos son obtenidos por muestreo aleatorio.
Proporciona la distribucin muestral de 0 y 1
Supuesto 3. Grandes atpicos son poco
probables (X e Y tienen momentos cuartos finitos)
Supuesto 1, E(|X)=0
Calificaciones
Distribucin de Y con X=15
Distribucin de Y con X=20
Distribucin de Y con X=25
Tamao de la clase
Supuesto 1, E(|X)=0
Una referencia para este supuesto es un
experimento aleatorizado controlado ideal
X se asigna aleatoriamente
Dada la asignacin aleatoria, las dems
caractersticas individuales -recogidas en - se
distribuyen de forma independiente de X, es
decir E(i|X)=0
En los experimentos reales o cuando tenemos
datos de observacin, hay pensar si E(i|X)=0
10
8
6
-2
-2
-4
-4
Excluyendo el atpico
10.04
Incluyendo el atpico
10.04
Distribucin muestral de 1
0 y 1 se calculan a partir de los datos de una
muestra. Con otra muestra obtendramos otros
valores: hay incertidumbre muestral
Deseamos,
Cuantificar esa incertidumbre
Emplear 1 para contrastar hiptesis sobre 1
Distribucin muestral de
Dado que 1 es una variable aleatoria, tendr una distribucin
de probabilidad con caractersticas determinadas
Esperanza de
o Si E(1 ) = 1, el estimador es insesgado
Varianza de :medida de la incertidumbre muestral
o Necesitamos calcularla y as obtener ee(1 )
Media y varianza de 1
Un poco de lgebra
Yi 0 1 X i i
Yi 0 1 X i i
Yi Yi 1 ( X i X i ) ( i i )
(X
i 1
X )(Yi Yi )
(Xi X )
i 1
(X
i 1
X )[ 1 ( X i X ) ( i )]
n
2
(
X
X
)
i
i 1
Media y varianza de 1
De donde,
n
x y x [ x (
i 1
n
(x )
i 1
i 1
1 i
)]
1
x
i 1
2
i
x
i 1
n
x
i 1
n
i i
x
i 1
2
i
i i
x
i 1
Y por tanto
1 1
2
i
Media y varianza de 1
Entonces la esperanza de 1 ser
n
xi i
E ( 1 ) 1 E i n1
x
i
i 1
n
xi i
E E i 1n
x
,...,
x
1
n 0 ( Supuesto #1)
xi2
i 1
Media y varianza de 1
Para calcular la varianza podemos escribir,
n
1 1
x
i 1
n
i i
2
x
i
x
i 1
2
X
i i
i 1
Entonces,
1 n
var n xi i
2
var(
x
)
/
n
i 1
i i
var( 1 )
2
( X2 ) 2
( X2 ) 2
(
X
X
)
i
Distribucin muestral de 1
De la frmula
var( xi i ) / n
var( 1 )
( X2 ) 2
Distribucin muestral de 1
Resumen de la distribucin de 1
Bajo los supuestos MCO,
E(1 ) = 1 (insesgadez)
La varianza del estimador es
2
var(
x
)
/
n
i i
var( 1 )
n
2 2
( X )
xi2
i 1
1 1
(1 )
0,1 ()
Objetivo
Nuestro inters se centra en 1 es decir en la
pendiente de la ecuacin de regresin,
1 =Y/X
Sabemos que su estimador MCO es 1 y que su
distribucin bajo los supuestos MCO,
E(u|X = x) = 0
(Xi,Yi), i =1,,n, are i.i.d.
Atpicos poco frecuentes,(E(X4) < , E(Y4) < .
Es
var( xi i )
u2
N 1 ,
N 1 , 2
2 2
n( X )
xi
Objetivo
El objetivo es contrastar hiptesis como H0:1=0
empleando los datos para rechazar o no la
misma
En general,
Hiptesis nula con alternativa bilateral
H0: 1 = h vs. H1: 1 h
Hiptesis nula con alternativa unilateral
H0: 1 = h vs. H1: 1 < h (o H1: 1 > h )
Objetivo
El procedimiento consiste en construir y calcular
un estadstico tipo t y compararlo con el valor
crtico en tablas (o la Normal si n es grande):
estimador - valor de 1 bajo H 0 1 h
t
ee( 1 ) 2 / xi2
i 1
Ejemplo
En la ecuacin de la pgina 41,
Yi 14.46 6.196 X i , n 178, R 2 0.65
(0.344)
18.01
0.344
ee( 1 )
178 datos son suficientes para usar la normal: como |18.01| > 1.96,
rechazamos H0 (en otro caso se busca en tablas el valor crtico: 1,98)
El valor p es difcil de calcular. Usando Gretl, obtenemos que es
cero hasta el quinto decimal, de manera que llegamos a la misma
conclusin
La hiptesis tambin se rechazara al 1% (2,58)
Intervalos de confianza
Conocido 1 y su error estndar, la construccin
de un intervalo de confianza es inmediata.
A partir de (4.3.18) un intervalo de confianza del
95% para el ejemplo anterior, viene dado por,
1 t / 2 ee( 1 ) 6.196 1.960.344 (5.522, 6.87)
const
log(ingreso)
Coeficiente
14.4638
6.19699
68.98265
6372.592
0.648767
325.0920
-571.0111
1152.386
Valor p
<0.00001
<0.00001
***
***
10.12451
6.017301
0.646771
7.65e-42
1146.022
1148.603
Homocedasticidad/Heterocedasticidad
Los errores son homocedsticos si var(|X)=0
Homocedasticidad
Heterocedasticidad
Homocedasticidad/Heterocedasticidad
La homocedasticidad es un supuesto ms en el modelo
Hasta el momento nada se ha dicho sobre esta cuestin,
con lo que implcitamente se asuma heterocedasticidad
Qu sucede si no se cumple este supuesto?
2
2
Como homocedasticidad var( 1 ) / xi es mnima
entre los estimadores lineales e insesgados (Gauss-Markov)
De la frmula anterior se obtiene el error estndar
Pero la frmula anterior no es vlida con heterocedasticidad
En este caso se usa una frmula robusta a heterocedasticidad
(robusta) n
2
(n 2) 1 xi2i2
n 1 xi2
Homocedasticidad/Heterocedasticidad
Errores estndar robustos en la regresin esperanza de
vida/ingreso, calculados con Gretl
Modelo 1: MCO, usando las observaciones (n = 178)
const
INGRESO
68.98265
11008.94
0.393229
114.0600
Valor p
<0.00001
<0.00001
***
***
10.12451
7.908908
0.389781
7.65e-21
const
INGRESO
68.98265
11008.94
0.393229
64.38529
Valor p
<0.00001
<0.00001
***
***
10.12451
7.908908
0.389781
1.39e-13
E(|X = x) = 0.
(Xi,Yi), i =1,,n, son i.i.d.
Atpicos poco frecuentes,(E(Y4) < , E(X4) < ).
es homoscedstico
se distribuye N(0,2)
X i2
2
0 N 0 ,
2
n
x
1
1 N 1 , 2
2
x
i