Вы находитесь на странице: 1из 21

Las hipótesis de Gauss-Markov

Las hipótesis de Gauss-Markov


1. Número de individuos y de variables
2. No colinealidad
3. Media nula de los errores
4. Homocedasticidad
5. No correlación entre los errores
Lema previo

Las matrices X, X’ y X’X tienen el mismo rango


1. Número de individuos y de variables

• El número de individuos (n) es mayor que


el número de variables explicativas (k).

n>k
• Si esta condición no se cumple, el rango de
la matriz X' X no será k + 1 y no tendrá
inversa.
2. No colinealidad
• Las variables explicativas no son
linealmente dependientes:
– El rango de la matriz X es k + 1.
– El rango de la matriz X' X es k + 1. No es
singular –su determinante no es nulo y, en
consecuencia, tendrá inversa.

rango( X' X ) = k + 1
Modelo de regresión
Conocido Desconocido
No aleatorio No aleatorio

Y = Xβ + ε
Conocido Desconocido
Aleatorio Aleatorio
Modelo de regresión
Es constante

Y = Xβ + ε

Son variables aleatorias


3. Media nula de los errores
• Cada término de error (ε i ) es una variable
aleatoria.
• La media –valor esperado- de cada término de
error es nula:
E ( ε i ) = 0 siendo 1 ≤ i ≤ n

E( ε) = 0
¡Es un vector!
4. Homocedasticidad
• Todos los términos de error tienen la misma
varianza.

Var ( ε i ) = σ 2
siendo 1 ≤ i ≤ n
4. Homocedasticidad (II)
• Cada observación de la variable dependiente ( yi ) es una
variable aleatoria -función de ε i -.
• La varianza de cada observación de la variable
dependiente (la varianza condicionada) y la varianza del
correspondiente término de error son iguales:

Var ( yi ) = Var (α + β1 xi1 + ... + β k xik + ε i ) = Var ( ε i ) = σ 2 siendo 1 ≤ i ≤ n

Var ( yi ) = σ 2
Y/X1 ,..., X k =σ 2
siendo 1 ≤ i ≤ n

Varianza condicionada de la
distribución de la variable dependiente
5. No correlación entre los errores

• Los términos de error son variables


aleatorias. Estas variables aleatorias son
independientes. La covarianza entre
cualesquiera dos de ellas es nula:

Cov (ε i , ε j ) = 0 1 ≤ i,j ≤ n ; siendo i ≠ j


5. No correlación entre los errores(II)

 Var ( ε1 ) Cov( ε1 , ε 2 ) ... Cov ( ε1 , ε n ) 


 
 Cov ( ε1 , ε 2 ) Var ( ε 2 ) ... Cov ( ε 2 , ε n ) 
Cov ( ε ) = E ( εε') =  
... ... ... ...
 
 Cov ( ε , ε ) Cov ( ε , ε ) ... Var ( ε n ) 
 1 n 2 n

• Las hipótesis cuarta y quinta las podemos expresar


así:

σ 2 0 ... 0
 
 0 σ2 ... 0 
E ( εε') =   =σ I
2

 ... ... ... ... 


 0 0 ... σ 2 

Consecuencias de las hipótesis de Gauss-
Markov
• La esperanza matemática (condicionada) de la
variable dependiente es:

E ( Y ) = E ( Xβ + ε ) = Xβ

• La matriz de covarianzas (condicionada) de la


variable dependiente es:

Cov( Y ) = Cov( Xβ + ε ) = Cov( ε ) = E ( εε') = σ 2 I


Consecuencias de las hipótesis de Gauss-
Markov (II)
• La esperanza matemática del estimador es:
[
E ( B ) = E ( X' X ) ( X' Y ) ] =
−1

( X' X ) −1 X' E ( Y ) = ( X' X ) −1 X' Xβ = β E( B) = β


Estimador
insesgado
• La matriz de covarianzas del estimador es:

[
Cov( B ) = Cov ( X' X ) ( X' Y ) ] =
−1

Cov ( B ) = σ ( X' X )
2 −1
( X' X ) −1 X' Cov( Y ) X( X' X ) −1 = σ 2 ( X' X ) −1
Teorema de Gauss-Markov
• Si se cumplen las hipótesis de G-M, entonces el
estimador B obtenido por el método de los
mínimos cuadrados es el estimador óptimo.
• Se dice entonces que B es un estimador BLUE:
– Best
– Linear
Mejor estimador lineal
– Unbiased e insesgado
– Estimator

B = ( X' X ) X' Y
−1
Error estándar de la estimación
• La varianza común de los términos de error
(σ ) es desconocida. Para estimar dicha
2

varianza emplearemos la siguiente


expresíón:
n

∑( y − yˆ i )
2
i
e' e
σˆ = s =
2 2 i =1
=
n − k −1 n − k −1
Error estándar de la estimación
(II)
n

∑( y − yˆ i )
2
i
e' e
σˆ = s =
2 2 i =1
=
n − k −1 n − k −1

∑( y − yˆ i )
2
i
e' e
s= i =1
=
n − k −1 n − k −1
Error estándar de la estimación
(III)
• El error estándar de la estimación es una
medida de la calidad del ajuste.
• Cuanto menor sea el error mejor es la
calidad del ajuste.

∑( y − yˆ i )
2
i
e' e
s= i =1
=
n − k −1 n − k −1
Estimación de la matriz de
covarianzas del estimador
• Hemos obtenido que Cov( B ) = σ 2 ( X' X ) −1
pero como no conocemos la varianza de los
errores utilizaremos su estimación:

 s2 ( a) s 2 ( a, b1 ) ... s 2 ( a, bk ) 
 2 
 s ( a, b1 ) s 2 ( b1 ) ... s ( b1 , bk ) 
2
S = s 2 ( X' X )
−1
=
 ... ... ... ... 
 s 2 ( a, b ) s 2 ( b1 , bk ) ... s 2 ( bk ) 
 k
Estimación de la matriz de
covarianzas del estimador(II)
• A las raíces cuadradas de los elementos de
la diagonal principal de la matriz S los
llamaremos errores estándar de los
coeficientes.
• El error estándar de un coeficiente es una
medida de la variabilidad de ese
coeficiente.  s ( a)

s ( a, b ) ... s ( a, b ) 
2

2
1
2
k

 s ( a, b1 )
2
s ( b1 )
2
... s ( b1 , bk ) 
2
S = s 2 ( X' X )
−1
=
 ... ... ... ... 
 s 2 ( a, b ) s 2 ( b1 , bk ) ... s 2 ( bk ) 
 k
Ejercicio
• En el ejemplo de ilustración (alquileres):
– Calcular el error estándar de la estimación.
– Calcular los errores estándar de los
coeficientes.

Вам также может понравиться