Вы находитесь на странице: 1из 188

Repaso

de conceptos estads-cos
Apndice A

Revisin de conceptos estads2cos


El conjunto de todos los resultados posibles de un
experimento aleatorio se denomina poblacin o
espacio muestral, E
Un suceso es cualquier subconjunto de E
La probabilidad de un suceso A, P(A), es la
proporcin de veces que ocurre A en ensayos
repe-dos del experimento
En un experimento llamamos frecuencia rela-va de
A, al cociente entre el n de casos favorables (sucede
A) y el nmero de casos posibles

Revisin de conceptos estads2cos


Si el tamao muestral n es grande, la frecuencia
rela-va aproxima bastante bien la probabilidad
Propiedades de la probabilidad
0 P(A) 1
Si A, B, C, es un conjunto exhaus-vo de sucesos, P(A+B
+C+) = 1
Si A, B, C, es un conjunto excluyente de sucesos, P(A
+B+C+) = P(A)+P(B)+P(C)+

Una variable es aleatoria si su valor est


determinado por el resultado de un experimento
aleatorio

Revisin de conceptos estads2cos


Las variables aleatorias pueden ser,
Discretas, si solo toman un nmero nito o numerable de
valores (el resultado del lanzamiento de un dado)
Con2nuas, si pueden tomar cualquier valor dentro de un
intervalo (la estatura o el peso de un individuo, por
ejemplo)

Funcin de densidad de probabilidad


Si una v.a. discreta X, toma los valores x1, , xn,
entonces su funcin de densidad de probabilidad
(FDP) viene dada por,
f(x) = P(X = xi) , para i = 1, 2, , n
f(x) = 0, para x xi

Si X es la v.a. suma obtenida en el lanzamiento de


dos dados,

Funcin de densidad de probabilidad


Si la v.a. es con-nua, su FDP viene dada por,

f ( x) 0 y

f ( x) dx =1

f ( x)dx = Pr ( a x b )
a

Grcamente,

Funcin de densidad de probabilidad


Si X, Y son dos v.a. discretas, entonces su FDP
conjunta viene dada por
f ( x, y ) = Pr ( X = x, Y = y )
f ( x, y ) = 0, si X x e Y y

En relacin con f(x,y), f(x) y f(y) son las funciones de


desnsidad individuales o marginales y se ob-enen,
FDP marginal de f ( x) = f ( x, y)
x

FDP marginal de f (y) = f ( x, y)


y

Funcin de densidad de probabilidad


Si X, Y son v.a., la FDP condicional de X viene dada
f ( x / y) = Pr ( X = x / Y = y )

Mide la probabilidad de X tome el valor x cuando Y


ha tomado el valor y.
Anlogamente la FDP condicional de Y ser,
f ( y / x) = Pr ( Y = y / X = x )

Las FDP condicionales se ob-enen,


f ( x, y)
f ( x, y)
f ( x / y) =
y f ( y / x) =
f (y)
f (x)

Funcin de densidad de probabilidad


Dos variables aleatorias X e Y son independientes si
y solo si,

f ( x, y) = f ( x) f ( y)

Caracters2cas de las distribuciones


A menudo una distribucin de probabilidad se
resume en funcin de algunas de sus caracters-cas
(momentos)
Valor esperado E(X),

E ( X ) = xf ( x), si X es discreta
x

E ( X ) = xf ( x)dx, si X continua

Caracters2cas de las distribuciones


Propiedades de E(X):
Si b=cte, E(b) = b
Si a y b son ctes E(aX+b) = aE(X) +b
Si X e Y son independientes, E(XY) = E(X)E(Y)
Sin embargo, E(X/Y) E(X)/E(Y)
Para cualquier funcin de X, g(X)
E ( g ( X ) ) = g ( X ) f ( x), si X es discreta
x

E ( g ( X ) ) = g ( X ) f ( x)dx, si X continua

Caracters2cas de las distribuciones


Varianza de X, var(X). La varianza de una v.a. X con
E(X) = u, se dene como
2

var( X ) = X2 = E ( X u )

Mide la dispersin de los valores en torno a su


media. Su raz cuadrada es la desviacin estndar
La varianza se calcula como,
2

var( X ) = ( X u ) f ( x), X discreta


x

var(X) = ( X u ) 2 f ( x)dx, X continua

Caracters2cas de las distribuciones


Propiedades de la varianza.
La varianza de una constante es nula
2
2
2
E
X

u
=
E
(
X
)

u
(
)
Puede obtenerse alterna-vamente
Si a y b son constantes
var(aX + b) = a 2 var( X )
Si X e Y son independientes
var( X + Y ) = var( X ) + var(Y )
var(X Y ) = var( X ) + var(Y )

Caracters2cas de las distribuciones


Covarianza. Si X e Y -enen medias uX y uy se dene la
covarianza entre ambas como,
cov( X , Y ) = E [( X u X )(Y uY )]

La covarianza se calcula

cov( X , Y ) = ( X u x )(Y u y ) f ( x, y ), X discreta
x

cov( X , Y ) =

( X u )(Y u ) f ( x, y)dxdy, X continua


x

Caracters2cas de las distribuciones


Propiedades de la covarianza.
Si X e Y son independientes, su covarianza es nula
Si a, b, c y d son constantes,
cov( X , Y ) = E [(a + bX , c + dY )] = bd cov( X , Y )

Coeciente de correlacin. Se dene como


XY

cov( X , Y )
cov( X , Y )
=
=
XY
var( X ) var(Y )

Cuando X e Y estn correlacionadas,


var( X + Y ) = var( X ) + var(Y ) + 2 cov( X , Y )
var(X Y ) = var( X ) + var(Y ) 2 cov(X, Y)

Caracters2cas de las distribuciones


Esperanza condicionada Si f(x,y) es la FDP conjunta,
se dene la esperanza condicional de X dado Y=y,
E ( X / Y = y ) = xf ( x / Y = y ), X discreta
x

E ( X / Y = y ) = xf ( x / Y = y )dx, X continua

Varianza condicionada. Se dene como


2

var( X / Y = y ) = E ( X E ( X / Y = y ) ) / Y = y =

E
X
/
Y
=
y
(
) f ( x / Y = y), X discreta
x

X E ( X / Y = y )2 f ( x / Y = y )dx, X continua

Caracters2cas de las distribuciones


Propiedades de los momentos condicionados
E[f(X)/X]=f(X)
Si f(X) y g(X) son funciones de X,
E [ f ( X )Y + g ( X ) / X ] = f ( X ) E(Y / X ) + g ( X )

Si X e Y son independientes, E(Y/X)=E(Y)


Ley de las esperanzas iteradas:
EX E (Y / X ) = E (Y )

Si X e Y son independientes var(Y/X)=var(Y)


var(Y ) = E [ var(Y / X )] + var [ E(Y / X )]

Caracters2cas de las distribuciones


Momentos de orden superior
El momento de orden r respecto a la media es,
r

E ( X u)

Los momentos de orden 3 y 4 sirven para estudiar la


asimetra y el apuntamiento (curtosis),

S=

E ( X u )3

K=

(simetra)

E ( X u )4
2

E ( X u )

(curtosis)

Algunas distribuciones importantes


Distribucin normal
2

1
1 ( x u )
f ( x) =
exp

siendo u y 2 la media y la varianza de la distribucin


Algunas distribuciones importantes


Distribucin ji cuadrada Sean Z1, , Zk variables
normales estandarizadas independientes. Entonces,
k

Z = Z i2
i =1

se distribuye como una 2 con k g.l.


Algunas distribuciones importantes


Distribucin t-Student. Si Z1 es una variable N(0,1)
y Z2 es una ji cuadrada con k g.l., entonces,
Z1
t=
Z2 / k

se distribuye como t-Student con k g.l.:


Algunas distribuciones importantes


Distribucin F-Snedecor. Si Z1 y Z2 son v.a. 2 con k1 y
k2 g.l., entonces,
Z /k
F=

Z 2 / k2

se distribuye como F-Snedecor con k1 y k2 g.l.:


Inferencia estads2ca: es2macin


Cuando no se conocen los parmetros poblacionales
de una distribucin de probabilidad podemos
es-marlos a par-r de los datos de una muestra
Por ejemplo, sea la v.a. X con FDP f(x, ) donde
desconocemos el parmetro . Para es-marlo
extraemos una muestra de tamao n y empleamos
una funcin de los
valores muestrales para calcular

una es-macin del verdadero parmetro .
El es-mador es una v.a. puesto que su valor depende
de la muestra empleada para obtenerlo

Inferencia estads2ca: es2macin


El procedimiento descrito antes es una es2macin
puntual, pero es posible tambin llevar a cabo
es2maciones por intervalos.
En la es-macin
por intervalos se ob-enen dos


valores 1 y 2 armndose con un determinado
grado de conanza, que el verdadero parmetro se
encuentra entre ambos

En general 1 y 2 son funciones de los valores
muestrales de forma que,

Pr(1 2 ) =1
siendo el nivel de signicancia

Mtodos de es2macin
Los mtodos principales son,
Mnimos Cuadrados Ordinarios
Mxima Verosimilitud
Mtodo de Momentos
Mtodo Generalizado de Momentos

En este curso se emplear casi con exclusividad el


mtodo MCO. Bajo los supuestos en los que hemos
construido el modelo ninguno de los otros mtodos
proporciona es-madores diferentes

Propiedades de los es2madores


Esperamos que el mtodo de es-macin empleado
proporcione es-madores con buenas propiedades
estads-cas.
Se dis-ngue entre propiedades en muestras
pequeas (o exactas, es decir independientes del
tamao muestral) y propiedades asint-cas o en
muestras grandes.

Propiedades exactas
Insesgadez. Decimos que un es-mador b del parmetro
poblacional es insesgado si E(b)= o E(b)- = 0
En otro caso, es decir si esa diferencia no es nula, el
es-mador es sesgado y el tamao del sesgo es,
Sesgo = E(b)-
La insesgadez es una propiedad del muestreo repe-do,
no de una muestra dada: para n jo, si tomamos dis-ntas
muestras y para cada una calculamos el es-mador,
esperamos que su media coincida con el parmetro

Propiedades exactas
En la siguiente gura se ilustra el concepto de insesgadez,

El es-mador 1 es insesgado mientras que 2 es sesgado

Propiedades exactas
Varianza. Adems de ser insesgado, es deseable que el
es-mador tenga la menor varianza posible
Diremos que un es-mador es de varianza mnima, si
-ene menos varianza que cualquier otro es-mador
Pero no es habitual que, independientemente de otras
caracters-cas, haya un es-mador de varianza mnima
De dos es-madores insesgados siempre ser preferible el
de menor varianza
Pero si uno es sesgado y el otro no, no est claro cul de
los dos es preferible

Propiedades exactas
Ilustramos todo ello en la gura siguiente,

1 y 2 son ambos insegados y por


tanto
es mejor, dado que

1
-ene menos varianza. Pero entre 2 y 3 (sesgado), no est claro
cul elegir

Propiedades exactas
Para decidir en situaciones como la anterior, suele
emplearse el criterio de minimizar el ECM, denido,
ECM () = E

Puede demostrarse que,


ECM () = var() + sesgo 2 ()

Tenemos ahora un criterio de decisin: entre dos


es-madores preferiremos el de menor ECM
Si dos es-madores son insesgados, ser ms
eciente el de menor varianza

Propiedades asint2cas
A veces, aunque un es-mador no tenga alguna
propiedad en muestras pequeas, se aproxima cada
vez ms a su cumplimiento a medida que n crece
Un es-mador es asint2camente insesgado si,
lim E (n ) =
n

Un es-mador es consistente si a medida que crece n


cada vez se aproxima ms al verdadero parmetro
poblacional,
p lim n =
n

Propiedades asint2cas
La siguiente gura ilustra el concepto de consistencia

Inferencia: pruebas de hiptesis


El problema que pretende resolver
el contraste de

hiptesis, es si el es-mador obtenido a par-r de
una muestra, es compa-ble con algn valor
hipot-co del parmetro poblacional (desconocido)
La armacin anterior es la denominada hiptesis
nula o H0 y se presume cierta a menos que podamos
aportar evidencia suciente en contra. H0 se
contrasta contra otra hiptesis, denominada
hiptesis alterna-va, H1. Por ejemplo,
H0: = h
H1: h

Inferencia: pruebas de hiptesis


Para ver cmo funciona el contraste de hiptesis,
emplearemos el ejemplo 24 (p.824).
Sabemos que la media muestral X
se distribuye
como una normal N(, 2/n), donde y 2 son la
media y varianza poblacionales y n es el tamao
muestral.
Con una muestra de tamao n=100, se ob-ene una
estatura media de 170.18 cm y se sabe que = 6.35.
Es posible que la media de la poblacin sea 175 cm?

Inferencia: pruebas de hiptesis


En este caso H0: = 175. Como estamos interesados en
cualquier desviacin (por encima o por debajo) del
supuesto planteado en H0, la hiptesis alterna-va ser
H1: 175.
Sabemos que el es-mador empleado se distribuye como
una normal, con media y varianza 2/n. Por tanto,
Z=

X
N (0,1)
/ n

El contraste de hiptesis consiste en calcular el valor de Z


bajo la hiptesis nula ( = 175) y ver cul es la
probabilidad de encontrar ese valor en una N(0,1)

Inferencia: pruebas de hiptesis


Intui-vamente, rechazaremos la hiptesis nula si
obtenemos para Z un valor poco probable en una
distribucin N(0,1)
Lo que entendemos por poco es lo que va a denir
el nivel de signicancia . Este nivel es el que
determina las regiones de aceptacin y rechazo.
Si elegimos = 0.05 dichas regiones quedan
denidas como se muestra en al gura,

Inferencia: pruebas de hiptesis


Aceptamos como raros valores menores que -1.96 o mayores que 1.96 porque
son poco probables en una N(0, 1): el 95% de los valores de la distribucin estn
en el intervalo (-1.96, 1.96). Por tanto si Z cae fuera de dicho intervalo (zona de
rechazo) concluimos que H0 es poco probable: se rechaza a ese (arbitrario)

Zona de
rechazo

Zona de
rechazo
Zona de
aceptacin

Inferencia: pruebas de hiptesis


Con los datos anteriores,
Z=

X 170.18 175
=
= 7.59
6.35 /10
/ n

Este valor cae claramente en la regin de rechazo: es


muy poco probable que la media de la poblacin sea
175 cm, de manera que rechazamos esa hiptesis al
nivel de signicancia elegido (5%)

Inferencia: pruebas de hiptesis


El anterior es un ejemplo de contraste bilateral o a
dos colas: las zonas de rechazo estn en las dos colas
de la distribucin
A veces la zona de rechazo est en una de las colas y
no en las dos. Sucede esto cuando podemos excluir
la posibilidad de que el parmetro sea posi-vo
(nega-vo)
En este caso la zona de rechazo estara en una sola
de las colas: para un nivel de signicancia del 5%, el
valor que delimita las zonas de aceptacin o rechazo
en una N(0, 1) ser 1.69 (-1.69).

Inferencia: intervalos de conanza


Alterna-vamente podemos construir un intervalo de
conanza de 100(1-) y ver si dicho intervalo incluye
el valor *, en cuyo caso no se puede rechazar H0 (se
rechazara si * no estuviera en el intervalo)
En el ejemplo anterior,

X
Pr ( 1.96 Z 1.96 ) = Pr 1.96
1.96 = 0.95
/ n

Sus-tuyendo obtenemos

170.18 1.2446 170.18 + 1.2446


168.9354 171.4246

Como *=175 no est en el intervalo, rechazamos H0


Errores 2po I y 2po II


En las decisiones de esta clase, pueden cometerse
dos -pos de errores
Decisin

H0 es verdadera

H0 es falsa

Rechazar

Error -po I

No hay error

No rechazar

No hay error

Error -po II

Lo ideal sera minimizar ambos errores, pero no es


posible
En la prc-ca se ja en un nivel bajo la probabilidad
de cometer error -po I () y luego se reduce al
mximo la probabilidad de cometer un error -po II

Errores 2po I y 2po II


La probabilidad de error -po I es el nivel de
signicancia y la probabilidad de cometer un error
-po II se representa por
Llamamos potencia de un contraste a la probabilidad
de no cometer un error -po II
Cuando el verdadero valor del parmetro
poblacional diera mucho del valor postulado por H0,
la probabilidad de rechazar la hiptesis ser alta y
viceversa.
Ello puede ilustrarse mediante la curva de potencia

Errores 2po I y 2po II


La gura muestra la probabilidad de rechazar H0: = 50 en
funcin del verdadero valor (n = 25, =10 y =0.05)

El denominado valor p mide el nivel de signicancia exacto del


valor obtenido por el estads-co de prueba. Es por tanto el nivel
de signicancia ms bajo al que puede rechazarse una H0

Evaluacin de estudios basados


en la regresin mltiple

Introduccin
Veamos cmo valorar crticamente los
resultados de la regresin mltiple
Examinaremos las principales razones por la
que la regresin mltiple puede proporcionar
estimadores sesgados
Trataremos de hacerlo apoyndonos en el
ejemplo de la relacin entre los resultados
acadmicos y el tamao de las clases

Validez interna y validez externa


Validez interna
Las inferencias estadsticas sobre el efecto(s)
causal(es) es vlida para la poblacin objeto de
estudio
Validez externa
Las inferencias estadsticas pueden
generalizarse a otras poblaciones y entornos
distintos de los analizados en el estudio

Amenazas a la validez externa


Valorar estas amenazas exige un conocimiento
detallado y un juicio caso por caso
Por ejemplo, en caso del anlisis de los efectos
de la reduccin del tamao de las clases en
California es posible generalizar los
resultados? Ha de valorarse que tendremos,
Diferentes poblaciones (California, Massachusetts,
Mxico)
Diferentes entornos legales, lingusticos, de
formacin del profesorado, etc.

Amenazas a la validez interna


Las inferencias estadsticas sobre los efectos
causales son vlidas para la poblacin estudiada?
Hay cinco amenazas bsicas a la validez interna,
1.
2.
3.
4.
5.

Sesgo de variables omitidas


Forma funcional inadecuada
Sesgo por errores en las variables
Sesgo de seleccin muestral
Sesgo de causalidad simultnea

Todas ellas implican que E(|X)0 (o falla el supuesto


de independencia en media condicionada): el
estimador MCO es sesgado e inconsistente

Sesgo por variable(s) omitida(s)


Aparece cuando hay alguna variable omitida y
dicha variable es,
Determinante de Y, y
Corrrelacionada con alguna variable incluida

Si la regresin (multiple) incluye variables de


control, controlan adecuadamente las variables
omitidas?, o sea, est el error correlacionado
con la variable de inters a pesar de haber
usado esos controles?

Solucin al sesgo de variable omitida


Si es posible, incluirla en la ecuacin
Si se dispone de controles y son adecuados
(satisfacen el supuesto de independencia en
media condicional), incluirlos
Emplear datos de panel*
Usar variables instrumentales*
Emplear experimentos aleatorios controlados*
(*) No forman parte del programa de Introduccin a la
Econometra

Forma funcional inadecuada


Surge si la forma funcional elegida es incorrecta,
por ejemplo,
Debe incluirse el cuadrado (u otra potencia) de
alguna variable
Se omiten trminos de interaccin
Debera haberse empleado un modelo logartmico

En este caso las inferencias sobre los efectos


causales sern incorrectas

Soluciones a funciones inadecuadas


Probar con funciones polinmicas de grado 2, 3,
etc., logaritmos, incluir trminos de interaccin,
modelos recprocos
Probar con modelos de variable dependiente
discreta (probit, logit)*

(*) No forman parte del programa de Introduccin a la


Econometra

Sesgo por errores en las variables


Hasta ahora hemos asumido que las X se miden
sin error, pero en la prctica las variables
econmicas tienen errores de medida debido a,
Las mediciones no responden exactamente al
concepto terico (PIB, )
Errores al introducir los datos
Datos derivados de encuestas donde hay,
Preguntas ambiguas
Respuestas falsas

Sesgo por errores en las variables


En general los errores de medida generan
sesgos (sesgo por errores en las variables)
No es difcil probar que los errores de medida en
las variables conducen a correlaciones entre el
(los) regresor y el error.
Por ejemplo en el modelo simple Yi = 0 + 1Xi + i
Si Xi es la verdadera medida de X y se usa la
medida con error X i , se tiene

Sesgo por errores en la variable X


Yi 0 1 X i i 0 1 X i [1 ( X i X i )] i

Es decir calcularemos
Yi 0 1 X i i , con i 1 ( X i X i ) i

En la ecuacin estimada la variable explicativa medida


con error , estar correlacionada con el error, y por
tanto el estimador de la pendiente estar sesgado
cov( X i , i ) cov( X i , 1 ( X i X i ) i )
1 cov[ X i , ( X i X i )] cov( X i , i )

Aunque es posible que cov( X i , i ) [si E(|X)=0, entonces


cov( X i , i ) 0], pero cov[ X i , ( X i X i )] 0

Sesgo por errores en la variable X


Consideremos el supuesto clsico de error de
medida, = + , donde vi tiene media nula y
est incorrelado con Xi
Bajo este supuesto 1 estar sesgado hacia cero

La idea es que si a la verdadera variable X, le


aadimos un error aleatorio v, cuanto mayor sea
la magnitud de dicho error, menor ser la
relacin entre X+v e Y . En el lmite la relacin
ser nula y el estimador de 1 ser cero.

Sesgo por errores en la variable X


= + , con , = , = 0
Entonces,
var( X i ) X2 v2

cov( X i , X i X i ) cov( X i vi , vi ) v2

y,

cov( X i , i ) 1 v2
2
2

1 1 1 v2 1 1 v2
X
X
p

X2

X2 v2
1
1 2
2
2

X
X v

Es decir que el estimador est sesgado a la baja

Sesgo por errores en la variable X


El error clsico de medida es el habitual* y
supone , =0, es decir que el error de
medida est incorrelado con la variable terica
Sin embargo tambin es posible suponer
, =0, entonces al estimar
Yi 0 1 X i i 0 1 X i ( i 1vi )

no se incumple ningn supuesto ya que, por


hiptesis, no est correlada ni con i ni con vi: el
estimador ser insesgado y consistente (aunque la
varianza del error ser mayor)
(*) si no se dice otra cosa, por error de medida en X se entiende error clsico

de medida

Sesgo por errores en la variable Y


Si el error afecta a la variable dependiente, con
= + , la sustitucin de la variable terica por
la observada (con error), lleva a
Yi 0 1 X i i vi

Lo natural y lo habitual en este contexto, es


suponer que el error de medida de Y es
independiente de X, en cuyo caso los estimadores
MCO son insesgados y consistentes
Sin embargo la varianza del error ser mayor

Soluciones al sesgo por error de medida


Obtener mejores datos (normalmente inviable)

Emplear variables instrumentales*

Datos faltantes
A veces faltan datos, circunstancia que puede
generar sesgo o no. Es til considerar tres casos
1. Los datos faltan al azar
2. La falta de datos est relacionada con el valor de una
o ms variables explicativas
3. La falta de datos est relacionada con el valor de Y o
de

Los dos primeros casos no causan sesgo,


aunque la varianza del error ser mayor
El tercer caso genera sesgo de seleccin

Ejemplo de sesgo de seleccin


Antes de las elecciones USA de 1936 una
encuesta llevada a cabo a partir de los registros
de las personas que tenan telfono y/o coche,
pronostic la victoria republicana por 57% frente
al 43% del partido demcrata
Habra sesgo de seleccin porque en 1936 solo
las clases acomodadas tenan telfono y/o coche
y stas eran mayoritariamente republicanas.
(la encuesta de hecho err estrepitosamente:
ganaron los demcratas con un apoyo del 59%)

Sesgo por causalidad simultnea


Hasta ahora hemos asumido que X causa a Y
Pero a veces la causalidad opera en las dos
direcciones : el precio afecta a la cantidad y la
cantidad al precio:
Qt 0 1 Pt ut
Pt 0 1Qt vt

En este sistema es fcil encontrar que P no es


independiente de u ni Q es independiente de v
Se incumple pues el supuesto E(u|P)=0 y
E(v|Q)=0: 1 y 1 sern sesgados

Soluciones a la simultaneidad
Usar variables instrumentales*
Llevar a cabo un experimento aleatorizado
controlado*

Prediccin a partir de la regresin


La prediccin es un objetivo muy diferente a la
estimacin de efectos causales y por tanto el
anlisis de la validez es tambin diferente
En la prediccin,

2 es de gran importancia
La omisin de variables no es un problema
La interpretacin de los coeficientes no es importante
El anlisis de validez externa es primordial
La prediccin es ms corriente con datos temporales

Heterocedasticidad y
autocorrelacin

Regresin con heteroedasticidad


La heterocedasticidad significa que var(i) cte. Es frecuente,
en especial con datos transversales
Hay diversas circunstancias que justifican su aparicin:
En modelos de aprendizaje, los agentes reducen sus errores en
el tiempo
Hay variables explicativas que justifican una mayor variabilidad
de los agentes
Mejora en la recogida de datos reduce los errores
Existencia de atpicos severos
Mala especificacin (omisin de variables, forma funcional, )

La heterocedasticidad afecta a la eficiencia, pero los


estimadores MCO siguen siendo insesgados y consistentes

Regresin con heteroedasticidad


^

Con homocedasticidad tenamos var() = 2(XX)-1


Si las perturbaciones son heterocedsticas (y no
autocorreladas),
' E ( ' X)

es una matriz en la que todos los elementos fuera de la diagonal


principal son nulos (no autocorrelacin), pero no todos los
elementos de la diagonal son iguales (heterocedasticidad)
En estas condiciones,
var( X) ( X'X)1 X ' ' X( X'X) 1

Expresin diferente de la habitual. El estimador MCO ya no es


eficiente

Regresin con heteroedasticidad


Si conocisemos la forma de la heterocedasticidad, por
ejemplo,
var( i X i ) h( X i )

Entonces el modelo transformado,


Yi
X 1i
1
0
1
... k
h( X i )
h( X i )
h( X i )

X ki
i

h( X i )
h( X i )

tiene errores homocedsticos,

i
1
1
var
var( i )
h( X i ) 1

h( X ) h( X i )

h
(
X
)
i
i

Por tanto podemos estimar por MCO el modelo transformado.


Este procedimiento recibe el nombre de MCP

Regresin con heteroedasticidad


Cuando no se conoce la forma de la heterocedasticidad hay
que estimarla para poder aplicar el mtodo anterior: MCPF
Una forma bastante flexible de modelizar la
heteroscedasticidad es,
var ( i | X) 2 exp 0 1 X 1i ... k X ki 2 h( X )

Si ui es una v.a. independiente de X y E(ui)=1, podemos


escribir,
i2 2 exp 0 1 X1i ... k X ki ui pues E ( i2 ) 2 exp 0 1 X 1i ... k X ki
ln( i2 ) 0 0 1 X1i ... k X ki ei ( 0 log 2 )

que podemos estimar para obtener h( X ) y aplicar el mtodo

Regresin con heteroedasticidad


Tambin podemos usar estimadores robustos (4.3.1.2)
1 (n 2) [( X X ) ]

var ( )
n n ( X X )

A la hora de decidirse por MCP o el estimador robusto,


debemos tener en cuenta que,
1

1i

1i

Si conocemos la forma de la heterocedasticidad, MCP es ms eficiente


que el estimador robusto
El estimador robusto es ms cmodo y hoy en da est incorporado en
todos los programas economtricos. Suele ser mejor que MCGF

Considerando pros y contras junto con el hecho de que no se


suele conocer la forma de la heterocedasticidad, no es
extrao que hoy lo habitual sea emplear estimadores
robustos

Contrastes de homocedasticidad
Contraste de Breusch Pagan
Para contrastar si var(i) se relaciona con las variables
explicativas (heterocedasticidad), estimamos el modelo
i2 0 1 X 1i ... k X ki ei

y contrastamos H0: 1 = k = 0 (homocedasticidad). El


estadstico de contraste nR2 se distribuye como una 2(k)

Contraste de White
Ms potente y ms empleado, es similar al anterior incuyendo
como regresores potencias y productos cruzados de las X
El estadstico de contraste y su distribucin son idnticos

Regresin con autocorrelacin


Hay autocorrelacin serial si corr(ts) 0 para t s
Esto afecta a la eficiencia de los estimadores MCO, pero no a
la insesgadez
La autocorrelacin es mucho ms frecuente en series
temporales (en series transversales se conoce como
autocorrelacin espacial)
Entre los motivos por los que puede surgir el problema cabe
sealar:
Omisin de variables que por naturaleza estn autocorrelacionadas
Inercia propia de las series temporales
Utilizacin de variables retardadas (retardos de la dpte. como
explicativas)
Manipulacin de los datos

Regresin con autocorrelacin


Si las perturbaciones estn correlacionadas,
' E ( ' X)

es una matriz en la que todos los elementos fuera de


la diagonal principal no son nulos. Por ejemplo, con
t = t1+vt, | | < 1,
1


E ( ' | X) 2 2

n 1

n2

n 3

n 1

n2
n 3

Regresin con autocorrelacin


En estas condiciones,
var( X) E[( )( ) ']
E[( X'X)1 X ' ' X( X'X)1 ] X'X)1 X ' ' X(X'X) 1

Expresin diferente de la habitual.


Ya no es posible garantizar la eficiencia del estimador
MCO

1
Si empleamos var( X) (X'X) la varianza de estar
mal estimada, afectando a toda la inferencia y tambin a
la prediccin

Regresin con autocorrelacin


En un modelo de regresin simple con autocorrelacin, la
varianza del estimador de la pendiente puede descomponerse
en,
1 var( X t X ) t
var 1
fT
2 2
T
(

)
x

Entre corchetes la varianza del estimador sin autocorrelacin


(4.2.5), mientras que fT=1+2T1(T1)1++2T1(TT+1)T1
. Sin autocorrelacin fT=1, pero con ella la expresin tpica de
la varianza del estimador deja de ser vlida
Como en el caso de la heterocedasticidad, si se conoce la
forma de la autocorrelacin podemos aplicar una
transformacin que conduce a un modelo con residuos no
autocorrelacionados (MCG)

Regresin con autocorrelacin


As, supongamos que en el modelo Yt=0+1Xt+ t el patrn
de la autocorrelacin de t es un AR(1), t = t +ut, con <1
Retardando un periodo y multiplicando por , se tiene
Yt-1= 0+ 1Xt-1+ t-1 , y restando del modelo original
Yt Yt 1 0 0 1 X t 1 X t 1 ( t t 1 )

o bien,

0 (1 ) 1 ( X t X t 1 ) ut
Yt* 0* 1 X t* ut

donde no hay autocorrelacin y puede estimarse por MCO. El


modelo recibe el nombre de MCG, pero exige conocer o
estimarlo (MCG factibles)

Regresin con autocorrelacin


En el mtodo anterior se pierde la primera observacin,
lo que puede ser relevante si la muestra es pequea.
Prais y Winstein idearon un mtodo para recuperarla,
Y1* Y1 1 2
X 1* X 1 1 2

El desarrollo anterior est basado en el supuesto de que


la autocorrelacin sigue un proceso AR(1)
Si fuese otro, la transformacin sera tambin diferente.
Por ejemplo, para un AR(2),
Yt* Yt 1Yt 1 2Yt 2 ,

X t* X t 1 X t 1 2 X t 2

Regresin con autocorrelacin


Como en la regresin con heterocedasticidad, suele
recurrirse a un estimador robusto para solucionar el
problema (estimador HAC)
Este viene dado por la expresin general
2 2 fT
1

donde 2 es el estimador de la varianza sin


autocorrelacin y la funcin f debe conocerse o
estimarse.
En la econometra actual hay diversos estimadores
robustos, aunque aqu solo mencionamos uno de ellos
1

Contrastes de autocorrelacin
Contraste de Durbin y Watson. Se basa en el supuesto de que
la autocorrelacin es AR(1) y responde a la expresin,
T

DW

(
t 2

t 1


t 1

)2
2(1 )

2
t

En ausencia de autocorrelacin ( = 0), DW= 2. Los valores


crticos dependen del n de parmetros (k) y del tamao
muestral n.
A pesar de su popularidad tiene algunas limitaciones:

Regiones de indeterminacin si DW est en (di, ds) o (4-ds, 4-di)


No aplicable si entre las X figuran retardos de la endgena
Las variables explicativas deben ser no estocsticas
La regresin incluye constante y los errores son normales

Contrastes de autocorrelacin
Contraste de Breusch-Godfrey. Contrasta la
autocorrelacin de cualquier orden.
Se basa en la estimacin de la ecuacin
t 0 1 X1t ... k X kt 1t 1 ... qt q et

La hiptesis nula es H0: 1 == q = 0 y el


estadstico de contraste (nq)R2 se distribuye como
una Ji cuadrada con q g.l.
Los contrastes de Box Pierce y de Ljung Box ,
q

Q T ,
j 1

2
j

Q ' T (T 2)
j 1

2j
Tj

Contrastes de autocorrelacin
Contraste de Breusch-Godfrey. Contrasta la
autocorrelacin de cualquier orden.
Se basa en la estimacin de la ecuacin
t 0 1 X1t ... k X kt 1t 1 ... qt q et

La hiptesis nula es H0: 1 == q = 0 y el


estadstico de contraste (nq)R2 se distribuye como
una Ji cuadrada con q g.l.
Los contrastes de Box Pierce y de Ljung Box ,
q

Q T ,
j 1

2
j

Q ' T (T 2)
j 1

2j
Tj

Modelos no lineales

Introduccin
Hasta ahora solo hemos considerado funciones
lineales (en los parmetros)
Sin embargo las funciones lineales no siempre
son adecuadas
La teora de la regresin mltiple puede manejar
funciones que sean no lineales en alguna o
varias variables explicativas

Introduccin
Si la relacin entre Y y X es no lineal,
El efecto en Y de un cambio en X depender del
valor de X el cambio marginal no es constante
Una aproximacin lineal genera un problema de
mala especificacin funcional
El estimador del efecto causal derivado de un
modelo lineal ser sesgado
La solucin consiste en probar con una
especificacin no lineal

Supuestos del modelo no lineal


Si el modelo es Yi = f(X1i, X2i,, Xki) + i, i = 1,, n
1. E(i| X1i, X2i,, Xki) = 0 (idntico); implica que f es la
esperanza condicional de Y dadas las Xs
2. (X1i,, Xki, Yi) son i.i.d. (idntico)
3. Atpicos poco frecuentes (la idea es la misma;
matemticamente depende de la funcin f)
4. No multicolinealidad perfecta (la misma idea)

El cambio en Y asociado a un cambio ceteris paribus en


X1, ser,
Y = f(X1 + X1, X2,, Xk) f(X1, X2,, Xk)

Funciones no lineales
Contemplaremos las siguientes especificaciones

Polinomios en X
La funcin de regresin poblacional se aproxima
con polinomios de grado 2 o superiores
Transformaciones logartmicas
Y y/o X se transforman tomando logaritmos
Ello nos dar una interpretacin en trminos de
porcentajes que tiene sentido en muchas
aplicaciones

Funciones polinmicas
La funcin de regresin poblacional se aproxima
con polinomios del tipo,
Yi = 0 + 1Xi + 2 Xi2 ++ r Xir +1Z1++i
Este es un modelo de regresin mltiple donde
algunas (todas) variables explicativas son potencias
de X
La estimacin y el contraste de hiptesis son
idnticos a los del modelo lineal
Los coeficientes tienen una interpretacin ms
complicada, aunque la funcin en s misma es
interpretable

Funciones polinmicas
El grfico calificacin/renta, parece sugerir
una relacin no lineal
720

La regresin
cuadrtica (rojo)
parece ms adecuada
que la lineal (verde)

700

Calificacion

680

660

640

620

600
0

10

20

30
Renta

40

50

60

Funciones polinmicas
La estimacin de la funcin cuadrtica es,
Yi 607.3 3.85 X i 0.0423 X i2
(2.9) (0.27) (0.0048)

Y/X ya no es constante
Si pasamos de 5000 a 6000$,
Yi 607.3 3.856 0.042336 (607.3 3.855 0.042325) 3.4

Pero de 25000 a 26000$,


Yi 607.3 3.8526 0.0423262 (607.3 3.8525 0.0423252 ) 1.7

El efecto de la renta va disminuyendo a medida que X


aumenta (ojo, no extrapolar fuera de la muestra!)

Funciones polinmicas
De la misma forma podemos probar polinomios de
grado 3, 4, etc.
Contrastar la hiptesis de linealidad contra la no
linealidad en el caso anterior, es fcil: basta
contrastar la hiptesis de significatividad de X2:
0,0423/0,0048=8,81, luego rechazaramos H0 (que
la relacin es lineal)

Si la regresin no lineal fuese cbica, la hiptesis


a contrastar sera conjunta

Funciones logartmicas
La transformacin logartmica permite modelar
relaciones en trminos porcentuales (elasticidades
y semielasticidades)
La razn es se basa en el hecho de que la
diferencia del logaritmo es aproximadamente la
tasa de variacin,
x x
ln( x x) ln( x) ln 1
(para x pequeo)

x x

Funciones logartmicas
Hay tres tipos de modelos,
Tipo

Funcin de regresin poblacional

lineal-log

Yi = 0 + 1ln(Xi) + i

log-lineal

ln(Yi) = 0 + 1Xi + i

log-log

ln(Yi) = 0 + 1ln(Xi) + i

La interpretacin del coeficiente de pendiente es


diferente en cada caso
La interpretacin correcta puede hallarse
aplicando la regla antes y despus del cambio
en X

Interpretacin del modelo logartmico


Modelo Y = 0 + 1ln(X)+
Antes:
Y = 0 + 1ln(X)
Despus:
Y + Y = 0 + 1ln(X + X)
Diferencia:
Y = 1[ln(X + X)ln(X)]
Como ln(X + X)ln(X) X /X

x
Y
1
Y
Y 1
1

x
X / X
100 100(X / X )

Es decir 1 da el cambio absoluto en Y derivado de un


cambio relativo en X (en tanto por uno)
En porcentaje (100X/X), un incremento de un 1% en X
implica un cambio de 1/100 unidades en Y

Interpretacin del modelo logartmico


Modelo Y = 0 + 1ln(X)+

Por ejemplo, con los datos del ejemplo anterior


(relacin entre calificaciones y renta ), estimamos,
Yi 557.8 36.42 ln(renta)
(3.8) (1.40)

Esto significa que un incremento de un 1% en la


renta eleva la nota en 0,36 puntos

Interpretacin del modelo logartmico


Modelo ln(Y) = 0 + 1X+
Antes:
ln(Y) = 0 + 1X
Despus:
ln(Y + Y) = 0 + 1(X + X)
Diferencia:
ln(Y + Y)ln(Y)=1X
Como ln(Y + Y)ln(Y) Y /Y

Y
Y / Y
1X 1
(100) 1X (100)Y / Y
Y
X

Es decir 1 es el cambio relativo en Y (tanto por uno)


derivado de un cambio absoluto unitario en X
En porcentaje, una variacin unitaria en X, hace que Y
cambie en un 1001 %

Interpretacin del modelo logartmico


Modelo ln(Y) = 0 + 1ln(X)+
Antes:

ln(Y) = 0 + 1X

Despus:

ln(Y + Y) = 0 + 1 ln(X + X)

Diferencia:

ln(Y + Y)ln(Y)=1 [ln(X+X)-ln(X)]

Entonces,
Y / Y
1
1 elasticidad
X / X

Si X cambia un 1%, Y lo hace en un 1%

Interpretacin del modelo logartmico


La interpretacin es igual en el modelo mltiple,
(puede haber variables en logaritmos y otras que no)
Por ejemplo, en la siguiente ecuacin del salario de
los CEOs,
ln( sal ) 4.504 0.163ln(ventas) 0.106 ln(valmerc) 0.0117 antig
(0.258) (.039)
(.05)
(.0053)

Si las ventas crecen un 1%, el salario crece un


0,16%
Un ao ms de antigedad implica un incremento
del salario del 1,17% (1000,0117)

Modelos con trminos de interaccin


En el problema del efecto de la reduccin del
tamao de las clases sobre los resultados, puede
que dicha reduccin sea ms efectiva en unos casos
que en otros
Quiz la reduccin sea ms efectiva en grupos
donde hay muchos alumnos con mal dominio del
ingls, es decir Y/X1 depende del valor de otra
variable (X2)
Los modelos con trminos de interaccin sirven para
recoger estas dependencias

Modelos con trminos de interaccin


En ejemplo ms sencillo implica solo dummies,

Yi = 0 + 1D1i + 2D2i + i
1 es el efecto de cambiar D1=0 a D1=1
En la especificacin anterior, dicho efecto es
independiente de D2
Pero si hay dependencia, es decir si el efecto del
cambio en D1 depende del valor de D2, el modelo
debe incluir un trmino de interaccin,
Yi = 0 + 1D1i + 2D2i + 3D1i D2i +i

Modelos con trminos de interaccin


Por ejemplo, supongamos que las dummies D1 y D2
se definen como,
1 si STR 20
D1 =
y D2 =
0 si STR 20

1 si PctEL l0

0 si PctEL 10

Es decir, D1 es 0 para clases menores de 20


alumnos por profesor (1 en caso contrario), y D2 = 0
si el porcentaje de alumnos con mal dominio del
idioma, es menor del 10% (1 en caso contrario)
La estimacin es,
Yi 664.1 18.2 D1 1.9 D2 3.5D1 D2
(1.4) (2.3)
(1.9) (3.1)

Modelos con trminos de interaccin


La interaccin con variables continuas sigue la
misma lgica.
En el modelo,

Yi = 0 + 1Di + 2Xi + 3Xi Di+i


donde D es una dummy y X es continua,
El efecto de X cuando D=0, es
E(Y|D=0, X) = 0+2Xi
mientras que cuando D=1,
E(Y|D=0, X) = (0+1)+(2 +3)Xi

Modelos con trminos de interaccin


La interaccin puede darse tambin entre variables
continuas,

Yi = 0 + 1X1i + 2X2i + 3(X1iX2i) + i


Donde el efecto de X1 depende del valor de X2 y
viceversa
Contrastar si realmente hay efectos de interaccin en
estos casos, es tan sencillo como contrastar si el
parmetro 3 = 0 contra una alternativa bilateral

Modelos con trminos de interaccin


La siguiente ecuacin trata de estimar el efecto de la
educacin en el salario (Y, expresado en logs),
Yi 5.65 0.047educ .00078educX 0.019exper 0.012antig
(0.13) (0.01)
(.00021)
(.004)
(.003)

La variable X es la educacin de los padres


Vemos que el efecto de la educacin depende no
solo de los aos de formacin del individuo, sino
tambin de la educacin de los padres
Un ao ms de educacin implica un incremento
salarial del 4,7% si los padres no tuvieran educacin
(X=0); pero si stos tienen ambos educacin
secundaria (X=24), el incremento sera del 6,6%.

Regresin lineal mltiple

Variables omitidas
La inclusin de se justifica porque hay
variables que influyen en Y y no se han incluido
en el modelo
Siempre hay variables omitidas
Esta circunstancia casi siempre conduce, a que
el estimador MCO est sesgado
En estas circunstancias el hipottico efecto
causal medido es incorrecto

Variables omitidas
Para que la omisin de una variable, Z, cause
sesgo, deben darse dos condiciones,
Z debe ser una variable determinante de Y (es
decir, estar en si se omite), y
Z debe estar correlacionada con el regresor X,
es decir corr(X, Z) 0
Para que haya sesgo, deben cumplirse las dos
condiciones

Variables omitidas
En la regresin Calif=0+1alumnos/profesor+
una posible variable omitida es el dominio del ingls
por parte de los alumnos (Z). Como,
Z influye en Calif (obvio)
corr(X, Z) 0 Por ejemplo, los hijos de inmigrantes, con
menos con menos ingresos familiares, irn a peores
escuelas (mayor ratio alumno/profesor)

Es decir, se cumplen las dos condiciones y la


regresin simple proporcionar un estimador
sesgado de 1

Variables omitidas
Cul es el signo y el tamao del sesgo?
Si el modelo verdadero es Y=0+1X+ 2Z+, la
omisin de Z conduce a,
n

E ( 1 ) 1

(X

i 1
2
n

X 1 ) x2

2
(
X

X
)
1 1

cov( X 1 X 2 )
1 2
var( X 1 )

i 1

Es decir,
El signo depende de 2 y de cov(X1X2 )
La magnitud ser tanto mayor, cuanto mayores sean
2 y la covarianza entre X1 y X2

Variables omitidas
Respecto al signo,
Corr(X1X2)>0

Corr(X1X2)<0

2 > 0

Sesgo positivo

Sesgo negativo

2 < 0

Sesgo negativo

Sesgo positivo

Aunque no conocemos los signos de Corr(X1X2) ni


de 2, en general tenemos intuiciones razonables
sobre los mismos

La situacin es pero con respecto al tamao

Variables omitidas
Por ejemplo, en la siguiente ecuacin de salarios,
log( sal ) 5.97 0.0598educ, R 2 0.097, n 935
(0.08) (.0059)

Una variable omitida es la habilidad


En teora su influencia debera ser positiva y
podemos tambin suponer que la correlacin con
la educacin es positiva ()
Entonces el sesgo debera ser positivo: un ao
ms de educacin hara crecer el salario menos
de un 6%

Variables omitidas
La habilidad no se puede medir, pero una buena
proxy podra ser el resultado de un test de
inteligencia
La ecuacin estimada incluyendo esta variable es,
log( sal ) 5.65 0.0398educ 0.0059hab, R 2 0.097, n 935
(0.1) (.0068)
(.001)

Ahora un ao ms de educacin, manteniendo fija


la habilidad, supone un incremento salarial del
4%, mucho menor que el 6% anterior

El modelo de regresin mltiple


Consideremos un modelo con dos regresores,
Y=0+1X+ 2Z+,
En este modelo podemos analizar el cambio en Y
derivado de un cambio en X1 manteniendo fijo X2.
Supongamos que X1 se incrementa en X1.
Antes:
Y = 0 + 1X1 + 2X2
Despus: Y + Y = 0 + 1(X1 + X1) + 2X2
Diferencia: Y = 1X1

Entonces: 1 =
, manteniendo fijo X2
1

Estimador MCO en regresin mltiple


El criterio es el mismo, minimizar SCR:
n

min , ,
0

X X )]2
[
Y

i 0 1 1i 2 2i
i 1

La aplicacin de las condiciones de mnimo


(SCR/=0), conduce a un sistema de tres
ecuaciones con tres incgnitas, de donde se
obtienen los estimadores
El trminos matriciales,
X'X 1 X'Y

Medidas de ajuste
Aqu tambin se cumple = +
SCE (Yi Y ) 2 , SCR i2 , SCT (Yi Y ) 2

R2 = SCE/SCT, fraccin de la varianza de Y

explicada por la regresin


ESR = desviacin estndar de , 2 (n k 1)1 2
= coeficiente de determinacin ajustado por los
grados de libertad
R2

Supuestos del modelo mltiple


Son los siguientes,
1. Yi = 0 + 1X1i + 2X2i + + kXki + i, i = 1,,n
2. E(i|X1i = x1,, Xki = xk) = 0, la esperanza de
condicionada a las Xs, es nula
3. (X1i,,Xki,Yi), i =1,,n, son i.i.d.
4. E(X14) < ,, E(Xk4 ) < , E(Y4 ) < , atpicos poco
probables
5. No hay multicolinealidad perfecta

Supuesto 2: media condicionada nula


Tiene la misma interpretacin que en el modelo
simple
Si no se cumple, habr sesgo por variables omitidas
si alguna de stas,
Es relevante (est en ), y
Est correlacionada con alguna X incluida

Soluciones,
Lo mejor es incluir la(s) omitida(s)
Si no se puede, incluir variables de control

Supuesto 3 : (X1i,,Xki,Yi), son i.i.d.


Se cumple automticamente si los valores de las
variables se obtienen por muestreo aleatorio

Supuesto 4: Atpicos poco frecuentes


Es exactamente el mismo supuesto que en
regresin simple
Se incluye para impedir que algn valor
inusualmente grande (pequeo), pueda
distorsionar la regresin
Conviene examinar un grfico de los datos para
detectar la posible presencia de atpicos
Muchas veces son errores al introducir los datos
...

Supuesto 5: No multicolinealidad
Las frmulas para el clculo de los regresores
colapsan
Por ejemplo, en un modelo con dos variables
explicativas (en desviaciones con respecto a la
media), donde x2 = 2x1,
x12
x'x
2
2
x
1

2 x12
det(x'x) 0
2
4 x1

No se podra calcular la inversa y la expresin


b=(XX)-1XY no se podra aplicar

Distribucin muestral de MCO


Bajo los supuestos anteriores,
La distribucin muestral de tiene media y la
distribucin de tiene media k.
var( ) es inversamente proporcional a n
En muestras finitas la distribucin de es
complicada, pero en muestras grandes,
( )

se distribuye aproximadamente N(0, 1)


Adems es consistente, es decir

La trampa de las variables binarias


Cuando hay varias caractersticas modeladas con
variables binarias (exclusivas y exhaustivas) la
inclusin de todas las dummies en la regresin
con constante, genera multicolinealidad perfecta
Para darse cuenta, basta examinar la matriz X ...
La solucin consiste en,
Eliminar una dummy, o
Eliminar la constante
La interpretacin de los coeficientes cambia en
funcin de la solucin adoptada

Multicolinealidad no perfecta
Sucede cuando dos (o ms) regresores tienen
una elevada correlacin (pero menor que 1)
Apesar de tener una denominacin parecida, la
situacin es muy diferente
Es posible estimar la regresin y se mantienen
las propiedades de los estimadores, pero,
Algunos coeficientes se estiman con mucha
imprecisin : si corr(X1X2) es alta, es difcil decir
que vara X1 y X2 no, i.e., no hay informacin de
lo que pasa cuando cambia X1 y no X2 no
podemos obtener una estimacin precisa de 1

Contrastes e Intervalos de
Confianza con regresin mltiple

Hiptesis individuales
La lgica de los contrastes y los intervalos de
confianza, es la misma que en regresin simple
El estadstico (1 1 )/ (1 ) se distribuye

aproximadamente N(0, 1)
Por tanto las hiptesis individuales se contrastan
con el estadstico tipo t habitual y un intervalo
del 95% viene dado por, [1 1,96(1 )]
Los mismo para cualquier k

Ejemplo
Por ejemplo, en la ecuacin de salarios,
log( sal ) 5.65 0.0398educ 0.0059hab, R 2 0.097, n 935
(0.1) (.0068)
(.001)

El contraste de significatividad de la educacin


(H0:1=0) es, (0,03980)/0,0068 =5,85. El valor crtico
a una cola (suponemos que el efecto de la eduacin
es positivo) para el 5% es 1,65, de manera que la
educacin es significativa
El intervalo de confianza del 95% es,
0,03981,960,0068

Ejemplo
La estimacin con errores estndar robustos no
cambia el sentido de los resultados,
Modelo 1: MCO, usando las observaciones 1-935
Variable dependiente: LWAGE
Desviaciones tpicas robustas ante heterocedasticidad, variante HC1

const
EDUC
HABILIDAD

Coeficiente Desv. Tpica Estadstico t


5.65829
0.0943505
59.9710
0.0391199
0.0071301
5.4866
0.00586313 0.00101517
5.7755

Media de la vble. dep.


Suma de cuad. residuos
R-cuadrado
F(2, 932)
Log-verosimilitud
Criterio de Schwarz

6.779004
144.1783
0.129654
71.49284
-452.7183
925.9583

Valor p
<0.00001
<0.00001
<0.00001

D.T. de la vble. dep.


D.T. de la regresin
R-cuadrado corregido
Valor p (de F)
Criterio de Akaike
Crit. de Hannan-Quinn

***
***
***

0.421144
0.393316
0.127786
1.30e-29
911.4367
916.9739

Hiptesis conjuntas
En un modelo mltiple, por ejemplo,

Yi=0 +1X1+2X2+3X3+
Un ejemplo de hiptesis mltiple sera,
H0:1= y 2=0
H1: o 1 0 20 o ambos

Es decir, una hiptesis conjunta especifica


valores para dos o ms parmetros

Hiptesis conjuntas
Intuitivamente podramos pensar en usar test tipo
t para esta hiptesis
Por ejemplo calcular 1 /(1 ) y 2 /(2 ) y
rechazar H0 si alguna (o las dos) hiptesis
individuales se rechaza
Esta idea no es vlida: la tasa de rechazo es
mayor que el nivel de significatividad elegido
Supongamos que 1 y 2 estn distribuidos
independientemente y = 0,05. Cul es la
probabilidad de rechazo si uso test t?(debera ser
el 5%)

Hiptesis conjuntas
La probabilidad de rechazar incorrectamente H0
usando test t, es,
PrH0= [|t1| > 1.96 and/or |t2| > 1.96]
= 1 PrH0[|t1| 1.96 and |t2| 1.96]
= 1 PrH0[|t1| 1.96] [|t2| 1.96]
(porque t1 y t2 son independientes por hiptesis)

= 1 (.95)2
= .0975 = 9.75% que no es el nivel del 5% elegido!!

Test F
El estadstico F contrasta todas las partes de la
hiptesis nula a la vez
Bajo homocedasticidad, el test se limita a
calcular dos regresiones, la no restringida y la
que impone las q restricciones de la H0,
Despus se calcula,
Fq , n k 1

( SCRrestringida SCRirrestricta ) / q
SCRirrestricta /(n kirrestricta 1)

Se rechaza H0 si el F calculado es mayor que el


crtico en tablas

Test F
Si la variable dependiente de las ecuaciones
restringida y no restringida, es la misma, el
estadstico anterior puede escribirse,
Fq , n k 1

2
2
( Rirrestricta
Rrestringida
)/q
2
(1 Rirrestricta
) /(n kirrestricta 1)

La distribucin Fq, n-k-1 tiende a una 2(q)/q


Si los errores no son homocedsticos, el
procedimiento anterior no es vlido

Restricciones simples con mltiples parmetros


En el modelo,
Yi=0 +1X1+2X2+
La hiptesis nula,
H0:1= 2
H1:1 2

Solo impone una restriccin (q=1) aunque haya


dos coeficientes implicados

Restricciones simples con mltiples parmetros


Hay varias formas de contrastar este tipo de
hiptesis
Reescribir la ecuacin sumado y restando 2X1
Yi=0 +1X1 2X1 + 2X1+2X2+
Yi=0 +(1 2)X1 + 2 (X1+X2)+
Yi=0 +X1 + 2 (X1+X2)+

Ahora podemos usar un test t para contrastar si


=0

Restricciones simples con mltiples parmetros


Usar la tcnica de las ecuaciones restringida y no
restringida
La ecuacin restringida resultante de 1= 2, es,

Yi=0 +2X1+2X2+
= 0 +2(X1+X2)+
o tambin,
Yi=0 +1(X1+X2)+

Restricciones simples con mltiples parmetros


Reformular H0 y usar directamente un test t

La hiptesis nula puede escribirse H0: 12=0,


frente a la alternativa H1: 12 0 (tambin
puede ser unilateral)
Empleamos el estadstico,
1 2
1 2
tn k 1

ee( 1 2 )
var( 1 ) var( 1 ) 2 cov( 1 , 2 )

Para usar esta va necesitamos (1 , 2 )

Variables de control
Normalmente trabajamos con datos de
observacin, no experimentales
El error depende de factores adicionales a los
incluidos, de los que no tenemos datos ()
En estos casos podemos incluir variables de
control (W) correladas con los factores causales
omitidos, pero no causales en s mismas
Esta correlacin hace que la inclusin de W
controle el efecto de los factores excluidos,
aunque W no sea causal

Variables de control
Las variables de control no son pues objeto de
inters: se incluyen para tratar de evitar (paliar)
la posibilidad de sesgo de variable omitida
No tienen porqu tener efecto causal (aunque
pueden tenerlo!)
La distincin entre variable de inters y
variable(s) de control es confusa porque el
modelo de regresin trata de la misma forma a
todos los regresores
El supuesto de independencia en media
condicional ayuda con esta distincin

Variables de control
El supuesto de independencia en media
condicional reemplaza al supuesto de media
condicionada nula
Sea una regresin con dos variables explicativas
X1 y X2, donde la primera es la variable de inters
y la segunda de control
El nuevo supuesto establece 1 , 2 = (|2 )
O sea, una vez que se controla por X2, el error no
est relacionado con X1 que puede considerarse
como si hubiera sido asignada al azar

Variables de control
Como X1 no est correlacionada con el trmino de
error, podemos estimar su efecto causal
Sin embargo X2 puede estar correlacionada con
La variable de control se incluye para tener en
cuenta factores determinantes de Y que han sido
omitidos y que estn correlacionados con la
variable de inters; tambin porque podra tener
un efecto causal

Variables de control
Si en el modelo Y = 0 + 1X + 2W + , donde X es
la variable de inters y W la de control, y se cumple el
supuesto de independencia en media condicional,

E(i|Xi, Wi) = E(i|Wi)

entonces,
1. 1 tiene interpretacin causal

2. 1 es insesgado
3. 2 ser, en general, sesgado

Implicaciones para la especificacin


Identificar la variable de inters
Pensar en variables omitidas que pueden causar sesgo
Si stas no se pueden incluir, usar variables de control
correlaciondas con ellas y que cumplan el supuesto de
independencia en media condicional
Considerar modelos alternativos que incluyan
regresores adicionales
Comparar las estimaciones y ver si el coeficiente de la
variable de inters permanece ms o menos estable

Uso de las medidas de ajuste


En la prctica el objetivo no debe ser maximizar R2 o 2
sino obtener un estimador insesgado del efecto causal
de inters
Un elevado 2 o 2 significa que los regresores explican
una alta variacin de Y
Un elevado 2 o 2 no significa que se haya eliminado
el sesgo de variable omitida
Un elevado 2 o 2 no significa que se tenga un
estimador insesgado del efecto causal de inters
Un elevado 2 o 2 no significa que las variables
incluidas sean estadsticamente significativas (eso
debe determinarse mediante el contraste de hiptesis)

Regresin lineal
Modelo simple

Objetivo
La regresin lineal permite estimar la pendiente
de la funcin de regresin poblacional
La pendiente de la regresin poblacional es el
efecto esperado en Y de un cambio unitario en X
Nuestro objetivo final es estimar el efecto causal
en Y de un cambio en X
De momento nos centraremos en el problema
de ajustar una lnea recta a los datos de Y y X, o
sea, en la estimacin de la funcin poblacional

Inferencia
La inferencia sobre los parmetros (pendiente y
constante), implica,
Estimacin: Cmo ajustar una recta al
diagrama de dispersin Y, X?: por MCO
porque proporciona buenos estimadores
Contraste de hiptesis: contrastar si la
pendiente es cero o no (o cualquier otro valor)
Construir intervalos de confianza

Regresin poblacional
La funcin (lnea) de regresin poblacional entre
X e Y, es
Y=0 +1X
1 pte

Y
cambio en Y

X cambio unitario en X

Desearamos conocer el valor de 1 pero no lo


conocemos: solo podemos estimarlo a partir de
los datos de una muestra de valores de X e Y

Regresin poblacional
Dado que la relacin entre X e Y no ser exacta,
planteamos el modelo poblacional como,
Yi=0 +1Xi+i
X, es la variable independiente o regresor
Y es la variable dependiente
0 y 1 son la constante y la pendiente
, recoge los errores del modelo: factores
omitidos en la ecuacin con efecto sobre Y;
errores de medida, etc.

Ejemplo
Regresin entre el ratio alumnos/profesor y la nota
media en alguna asignatura (o global),
Calificaciones, Y

1
2

Tamao clase, X

El estimador MCO
Cmo estimar 0 y 1 a partir de los datos?

El estimador MCO lo hace buscando los valores


que minimicen las distancias entre Yi e i.,si 0
y 1 son los estimadores, i= 0 +1 Xi
Por tanto, el estimador MCO se obtiene de,
n

min ,
0

(Yi Yi ) min ,
2

i 1

Yi ( 0 1 X i )

1
i 1

El estimador MCO
Aplicando el clculo es fcil resolver el problema
anterior. Encontraremos que,
n

(X
i 1

X )(Yi Y )

(X
i 1

X )2

y 0 Y 1 X

Conocidos los estimadores podemos predecir el


valor de Y dado X, y el error de ese pronstico,
Yi 0 1 X i i Yi Yi Yi 0 1 X i

es la estimacin de

Ejemplo
Con datos de Calificaciones-Tamao clase,
720

700

Calificacion

680

660

i =698,92,28Xi

640

620

600
12

14

16

18

20

Tamao_clase

22

24

26

Interpretacin
La ecuacin estimada,
Yi 698,9 2.28 X i

Significa que,
Un alumno ms por clase, hace caer la nota en 2,28
puntos
En general, la constante no debe interpretarse en un
sentido literal porque normalmente carecer de
sentido (extrapola la lnea de regresin fuera del
rango de valores de los datos)

Interpretacin
Adems sirve para pronosticar los valores de Y
dado X
Por ejemplo, en un distrito concreto el tamao
de las clases es 19,33 alumnos por profesor.
Nuestra ecuacin prev entonces,
Yi 698,9 2.28*19.33 654.8

El verdadero valor en ese distrito fue 657,8, de


manera que
657,8 654,8 3

Medidas de ajuste
Para valorar la bondad del ajuste, es decir lo
bien (o mal) que la recta estimada se ajusta al
diagrama de dispersin, empleamos,
El coef. de determinacin, R2, o fraccin de la
varianza de Y explicada por X. Vara entre 0 y 1
El error estndar de la regresin, es el
estimador de la desviacin tpica de .
Expresado en las unidades de Y mide la
dispersin de las observaciones en torno a la
recta de regresin.

Coeficiente de determinacin
El R2 se define como el cociente entre la SCE y
la SCT,
n

R2

SCE

SCT

(Y Y )

(Y Y )

i 1
n
i 1

0 R2 1
R2 = 0 SCE = 0 (X no explica nada)
R2 = 1 SCE = SCT (X explica
completamente Y)
En una regresin simple, R2 es el (rXY)2

Error estndar de la regresin


El error estndar de la regresin (ESR) mide la
dispersin de y se define como,
1 n
1 n
1 n
2
2
2

ESR
(

)
RECM

i
i
i
i
n 2 i 1
n 2 i 1
n i 1

Est expresado en las mismas unidades que Y


Mide el error medio de los residuos MCO
El ajuste es tanto mejor cuanto menor sea el
valor de este estadstico

Ejemplo
R2 = 0,05;

ESR = 18,6

720

700

Calificacion

680

660

i =698,92,28Xi

640

620

600
12

14

16

18

20

Tamao_clase

22

24

26

Supuestos de MCO
El mtodo MCO proporciona estimadores de los
parmetros poblacionales 0 y 1 siempre que se
cumplan ciertos supuestos. Partiendo de la
linealidad,
Supuesto 1. E(|X)=0
Supuesto 2. (Xi, Yi) son i.i.d. Se cumple si los
datos son obtenidos por muestreo aleatorio.
Proporciona la distribucin muestral de 0 y 1
Supuesto 3. Grandes atpicos son poco
probables (X e Y tienen momentos cuartos finitos)

Supuesto 1, E(|X)=0
Calificaciones
Distribucin de Y con X=15
Distribucin de Y con X=20
Distribucin de Y con X=25

Tamao de la clase

Supuesto 1, E(|X)=0
Una referencia para este supuesto es un
experimento aleatorizado controlado ideal
X se asigna aleatoriamente
Dada la asignacin aleatoria, las dems
caractersticas individuales -recogidas en - se
distribuyen de forma independiente de X, es
decir E(i|X)=0
En los experimentos reales o cuando tenemos
datos de observacin, hay pensar si E(i|X)=0

Supuesto 2, (Xi, Yi) son i.i.d.


Se cumple automticamente si los datos
proceden de muestro aleatorio
En general suele haber problemas con datos
temporales o con datos de panel

Supuesto 3, E(X4)< y E(Y4)<


Un atpico es un valor extremo
Tcnicamente si X e Y estn acotados,
tendrn momentos de orden cuatro finitos
Muchos datos satisfacen este supuesto
(calificaciones, renta familiar, etc.)
Este supuesto se hace para evitar una
influencia desproporcionada de valores
inusualmente grandes

Supuesto 3, E(X4)< y E(Y4)<


10

10

8
6

-2

-2

-4

-4

9.88 9.90 9.92 9.94 9.96 9.98 10.00


X

Excluyendo el atpico

10.04

9.88 9.90 9.92 9.94 9.96 9.98 10.00


X

Incluyendo el atpico

10.04

Distribucin muestral de 1
0 y 1 se calculan a partir de los datos de una
muestra. Con otra muestra obtendramos otros
valores: hay incertidumbre muestral
Deseamos,
Cuantificar esa incertidumbre
Emplear 1 para contrastar hiptesis sobre 1

Para ello necesitamos conocer la distribucin


de los estimadores

Distribucin muestral de
Dado que 1 es una variable aleatoria, tendr una distribucin
de probabilidad con caractersticas determinadas
Esperanza de
o Si E(1 ) = 1, el estimador es insesgado
Varianza de :medida de la incertidumbre muestral
o Necesitamos calcularla y as obtener ee(1 )

Distribucin de en muestras pequeas


o Complicada en general (Normal si es Normal)

Distribucin de en muestras grandes

o Normal con independencia de la distribucin de (TCL)

Media y varianza de 1
Un poco de lgebra
Yi 0 1 X i i
Yi 0 1 X i i
Yi Yi 1 ( X i X i ) ( i i )

La minimizacin de la SCR conduce a,


n

(X
i 1

X )(Yi Yi )

(Xi X )
i 1

(X
i 1

X )[ 1 ( X i X ) ( i )]
n

2
(
X

X
)
i
i 1

Media y varianza de 1
De donde,
n

x y x [ x (
i 1
n

(x )
i 1

i 1

1 i

)]
1

x
i 1

2
i

x
i 1
n

x
i 1
n

i i

x
i 1

2
i

i i

x
i 1

Y por tanto
1 1

2
i

Media y varianza de 1
Entonces la esperanza de 1 ser
n

xi i
E ( 1 ) 1 E i n1

x
i

i 1
n

xi i

E E i 1n
x
,...,
x
1
n 0 ( Supuesto #1)
xi2

i 1

Esto significa que E ( 1 ) 1: 1 es insesgado

Media y varianza de 1
Para calcular la varianza podemos escribir,
n

1 1

x
i 1
n

i i

2
x
i

x
i 1
2
X

i i

i 1

Entonces,
1 n

var n xi i
2
var(
x

)
/
n

i 1

i i

var( 1 )

2
( X2 ) 2
( X2 ) 2
(
X

X
)
i

Distribucin muestral de 1
De la frmula
var( xi i ) / n
var( 1 )
( X2 ) 2

Se deduce que cuanto mayor sea la variacin


de X menor ser la varianza del estimador
Intuitivamente: cuanto ms vara X ms
informacin hay en los datos para ajustar la
regresin. Se ve mejor con una figura

Distribucin muestral de 1

El n de puntos negros y azules es el mismo. Con cules de ellos


se obtendra una regresin mejor?

Resumen de la distribucin de 1
Bajo los supuestos MCO,
E(1 ) = 1 (insesgadez)
La varianza del estimador es

2
var(
x

)
/
n

i i
var( 1 )
n
2 2
( X )
xi2
i 1

La distribucin exacta de 1 es complicada


1 1 (consistencia)
En muestras grandes,
1 (1 , )

1 1
(1 )

0,1 ()

Contraste hiptesis e intervalos


de confianza
(Regresin simple)

Objetivo
Nuestro inters se centra en 1 es decir en la
pendiente de la ecuacin de regresin,
1 =Y/X
Sabemos que su estimador MCO es 1 y que su
distribucin bajo los supuestos MCO,
E(u|X = x) = 0
(Xi,Yi), i =1,,n, are i.i.d.
Atpicos poco frecuentes,(E(X4) < , E(Y4) < .

Es

var( xi i )
u2
N 1 ,
N 1 , 2
2 2
n( X )
xi

Objetivo
El objetivo es contrastar hiptesis como H0:1=0
empleando los datos para rechazar o no la
misma
En general,
Hiptesis nula con alternativa bilateral
H0: 1 = h vs. H1: 1 h
Hiptesis nula con alternativa unilateral
H0: 1 = h vs. H1: 1 < h (o H1: 1 > h )

Objetivo
El procedimiento consiste en construir y calcular
un estadstico tipo t y compararlo con el valor
crtico en tablas (o la Normal si n es grande):
estimador - valor de 1 bajo H 0 1 h
t

error estandar del estimador


ee( 1 )
El error estndar del estimador es la raz
cuadrada de su varianza estimada,
n

ee( 1 ) 2 / xi2
i 1

Contraste con alternativa bilateral


A partir de los clculos anteriores
Rechazamos H0 al 5% de significatividad, si el
valor del estadstico de contraste es, en valor
absoluto, mayor de 1.96 (normal), o mayor que el
valor crtico en las tablas de la t, para los grados
de libertad correspondientes
El valor p es p = Pr[|t| > t calculado]: se rechaza H0 al
5% si p < 5%

Ejemplo
En la ecuacin de la pgina 41,
Yi 14.46 6.196 X i , n 178, R 2 0.65
(0.344)

con Y=esperanza de vida y X = ingresos en logs. La hiptesis nula H0:


1 = 0, se contrastara con,
1 1 bajo H 0 6.196 0
t178 2

18.01

0.344
ee( 1 )

178 datos son suficientes para usar la normal: como |18.01| > 1.96,
rechazamos H0 (en otro caso se busca en tablas el valor crtico: 1,98)
El valor p es difcil de calcular. Usando Gretl, obtenemos que es
cero hasta el quinto decimal, de manera que llegamos a la misma
conclusin
La hiptesis tambin se rechazara al 1% (2,58)

Intervalos de confianza
Conocido 1 y su error estndar, la construccin
de un intervalo de confianza es inmediata.
A partir de (4.3.18) un intervalo de confianza del
95% para el ejemplo anterior, viene dado por,
1 t / 2 ee( 1 ) 6.196 1.960.344 (5.522, 6.87)

Anlogamente, un intervalo del 99%,


1 t / 2 ee( 1 ) 6.196 2.580.344 (5.30, 7.08)

La regresin con GRETL


Modelo 1: MCO, usando las observaciones 1-178
Variable dependiente: ESPERANZA_DE_VIDA

const
log(ingreso)

Coeficiente
14.4638
6.19699

Media de la vble. dep.


Suma de cuad. residuos
R-cuadrado
F(1, 176)
Log-verosimilitud
Criterio de Schwarz

Desv. Tpica Estadstico t


3.05718
4.7311
0.343699
18.0303

68.98265
6372.592
0.648767
325.0920
-571.0111
1152.386

Valor p
<0.00001
<0.00001

D.T. de la vble. dep.


D.T. de la regresin
R-cuadrado corregido
Valor p (de F)
Criterio de Akaike
Crit. de Hannan-Quinn

***
***

10.12451
6.017301
0.646771
7.65e-42
1146.022
1148.603

Regresin cuando X es binaria


Si en Yi =0+1Xi+ i, X es una variable binaria, el
coeficiente 1 no se interpreta como una pendiente:
mide la diferencia de en los grupos (X=0 y X=1)
Por ejemplo, sea la ecuacin de salarios
i 12.52 2.12 Hombre,
Sal
(0.23) (0.36)

O sea que los salarios medios por grupos son,


i | X 0) 12.52 2.120 12.52 / hora
E ( Sal
i | X 1) 12.52 2.121 14.64 / hora
E ( Sal

Como la variable es significativa (2,12/0,36>2,58), la


diferencia de medias es estadsticamente significativa

Homocedasticidad/Heterocedasticidad
Los errores son homocedsticos si var(|X)=0

Homocedasticidad

Heterocedasticidad

Homocedasticidad/Heterocedasticidad
La homocedasticidad es un supuesto ms en el modelo
Hasta el momento nada se ha dicho sobre esta cuestin,
con lo que implcitamente se asuma heterocedasticidad
Qu sucede si no se cumple este supuesto?
2
2
Como homocedasticidad var( 1 ) / xi es mnima
entre los estimadores lineales e insesgados (Gauss-Markov)
De la frmula anterior se obtiene el error estndar
Pero la frmula anterior no es vlida con heterocedasticidad
En este caso se usa una frmula robusta a heterocedasticidad
(robusta) n
2

(n 2) 1 xi2i2
n 1 xi2

Homocedasticidad/Heterocedasticidad
Errores estndar robustos en la regresin esperanza de
vida/ingreso, calculados con Gretl
Modelo 1: MCO, usando las observaciones (n = 178)

const
INGRESO

Coeficiente Desv. Tpica Estadstico t


63.4536
80.6233
0.787038
0.000410031 3.83928e-05
10.6799

Media de la vble. dep.


Suma de cuad. residuos
R-cuadrado
F(1, 176)

68.98265
11008.94
0.393229
114.0600

D.T. de la vble. dep.


D.T. de la regresin
R-cuadrado corregido
Valor p (de F)

Valor p
<0.00001
<0.00001

***
***

10.12451
7.908908
0.389781
7.65e-21

Modelo 2: MCO, usando las observaciones (n = 178)


Desviaciones tpicas robustas ante heterocedasticidad, variante HC1

const
INGRESO

Coeficiente Desv. Tpica Estadstico t


63.4536
68.0731
0.932139
0.000410031 5.11003e-05
8.0240

Media de la vble. dep.


Suma de cuad. residuos
R-cuadrado
F(1, 176)

68.98265
11008.94
0.393229
64.38529

D.T. de la vble. dep.


D.T. de la regresin
R-cuadrado corregido
Valor p (de F)

Valor p
<0.00001
<0.00001

***
***

10.12451
7.908908
0.389781
1.39e-13

El modelo de regresin extendido


Si adems de los tres supuestos manejados, aadimos el
de homocedasticidad y el de normalidad de , es decir si
nuestros supuestos son,

E(|X = x) = 0.
(Xi,Yi), i =1,,n, son i.i.d.
Atpicos poco frecuentes,(E(Y4) < , E(X4) < ).
es homoscedstico
se distribuye N(0,2)

Los estimadores MCO tienen las siguientes propiedades,

El modelo de regresin extendido


0 y 1 se distribuyen de forma normal para cualquier n (!)
El estadstico tipo t tiene una distribucin t de Student exacta
con n 2 grados de libertad, cualquiera que sea el valor de n
Las distribuciones de los estimadores son,

X i2
2

0 N 0 ,
2

n
x

1
1 N 1 , 2
2
x
i

Вам также может понравиться