Вы находитесь на странице: 1из 21

UNIVERSIDAD NACIONAL DEL ALTIPLANO

FACULTAD DE INGENIERIA ECONOMICA


CURSO: ECONOMETRIA I

TEMA: MODELO LINEAL GENERAL

Por Ing. William Gilmer Parillo Mamani1


1. Introducción
Presentaremos el modelo de regresión lineal de k
variables (Y y X1, X2 ,..., Xk) en notación matricial.
En este modelo la función de regresión poblacional,
está compuesta por la variable endógena (Y) y k
variables exógenas (X). Formalmente:
Yi  1 X 1i   2 X 2i  3 X 3i  ...   k X ki   i ,i=1,2,...n ..(1)

Vector Y Combinación lineal de las Vector de


observado columnas de X(Exogenas): errores:
(Variable término de
endógena) 1 ,..... k = k pendientes error
correspondiente
a la i-ésima
observación 2
1. Introducción
La inclusión de un intercepto en el modelo hace que
X1 sea un vector de unos, (X1i=1)si reemplazamos
éste en la expresión (1) se obtiene el siguiente
conjunto de ecuaciones:

Yi  1   2 X 2i  3 X 3i  ...   k X ki  i
i  1 : Y1  1   2 X 21  3 X 31  ...   k X k1  1
i  2 : Y2  1   2 X 22  3 X 32  ...   k X k 2  2
.................................................................
i  n : Yn  1   2 X 2n  3 X 3n  ...   k X kn  n
3
En terminos matriciales:
Y1  1   2 X 21  3 X 31  ...   k X k1  1
Y2  1   2 X 22   3 X 32  ...   k X k 2  2
.................................................................
Yn  1   2 X 2 n  3 X 3n  ...   k X kn  n

Y  1 X 2 ,1 ... X k,1    1   1 
Y1  1 X 
... X k,2    2   
 2 =  2 ,2
  +  2
.  1 ... ... ...   .  . 
       
Yn  n*1 1 X 2,n ... X k ,n  n*k   k    n  n*1
k *1

Y X  u
y en forma compacta:
Y  X   ……….....(2)
4
2. La estimación MCO para el modelo
de regresión lineal general
Con el fin de estimar los coeficientes del modelo de
regresión y el intercepto, debemos re-escribir la
ecuación (1) de modo que para la observación i
tendríamos un valor observado de Y y un valor
estimado de la forma:
Yˆ   ˆ  ˆ X  ˆ X  ...  
ˆ X
i 1 2 2i 3 3i k ki
Recordemos que el residuo o término de error (e) es:
ei  Yi  Yˆi
Valor observadode la
Variable endógena

ei  Yi  ˆ1  ˆ 2 X 2i  ˆ3 X 3i  ...  ˆ k X ki 5


y, repitiendo este proceso para todas las observaciones
muestrales se obtiene: Yi  ˆ1  ˆ 2 X 2i  ˆ3 X 3i  ...  ˆ K X Ki  ei
Y1  ˆ1  ˆ 2 X 21  ˆ3 X 31  ...  ˆ K X K 1  e1
Y2  ˆ1  ˆ 2 X 22  ˆ3 X 32  ...  ˆ K X K 2  e2
. . . . . .
. . . . . .
Yn  ˆ1  ˆ 2 X 2 n  ˆ3 X 3n  ...  ˆ K X Kn  en
En forma Matricial
Y  1 X 2 ,1 ... X k,1   ˆ 1   e1 
Y1  1 X ... X k,2   ˆ 2  e 
 2 =  2 ,2
+  2
.  1 ... ... ...   .  .
       
Yn  n*1 1 X 2,n ... X k ,n  n*k  ˆ k  en  n*1
k *1

Y X  e
y en forma compacta:
Y  ˆ1  ˆ 2 X 2  ˆ3 X 3  ...  ˆ K X K  e  Xˆ  e ...(3)
6
La ecuacion (3) es la funcion de
regresion muestral Y  X̂  e ...(3)
Donde:
Y  1 X 2 ,1 ... X k,1 
Y1  1 X ... X k,2 
Y   2 X 
2 ,2
 Matriz de variables explicativ as de orden n * k
.  1 ... ... ... 
   
Yn  1 X 2,n ... X k ,n 

 ˆ 1 
ˆ 

ˆ   2   Vector de coeficient es de k elementos
...(3.1)
 . 
 
 ˆ k 

 e1 
e 
e   2   Vector de residuos
.
 
en 
7
utilizaremos el criterio del método de estimación MCO
para obtener los estimadores: minimizar la suma de
cuadrados de los residuos (SRC =  ei2 ). Se denota
matricialmente como ee =SRC:

 e1 
e 
ee  e1 e2 ..... en . 2   e12  e22  ...  en2   ei2  SRC
.
 
en 

Por la ecuacion (3) Y  X̂  e se t iene que:

e  Y - Xˆ
ee  ( Y - Xˆ )' ( Y - Xˆ )
8
Operando: ee  ( Y - Xˆ )' ( Y - Xˆ )  ( Y' - ˆ ' X' ) ( Y - Xˆ )
ee  Y' Y - Y' Xˆ - ˆ ' X' Y  ˆ ' X' Xˆ
En la expresión anterior Y'X y X'Y son escalares y por tanto
son iguales(uno es el transpuesto del otro), por tanto la
expresion queda como:
ee  Y' Y - 2 ˆ ' X' Y  ˆ ' X' Xˆ
Asimismo, si se reemplazan los valores muestrales para X e Y
la SRC es una función del vector de coeficientes:
ˆ)
ee  f ( 
De esta manera, el problema de minimización respecto a ̂
es el siguiente:

Min ee  Y' Y - 2 ˆ ' X' Y - ˆ ' X' Xˆ


̂
9
Aplicando las condiciones de primer orden se tiene:
e' e ˆ 0
Min ee  Y' Y - 2 ˆ ' X' Y  ˆ ' X' Xˆ  2 X ' Y  2 X ' X
ˆ

Operando obtenemos la forma compacta de las k
ecuaciones nomales del modelo:
X ' Xˆ  X ' Y ................................(4)

De la ecuacion (4) se puede reexpresarse en terminos


de sumatorias:
ˆ  
n ˆ X  ...   
ˆ X  Y
1 2 2i k ki i
ˆ  X 
 ˆ  X 2  ...  
ˆ X X X Y
1 2i 2 2i k 2i ki 2i i
.........................................................................................................................

ˆ  X 
 ˆ  X X  ...  
ˆ X2 X Y
1 ki 2 ki 2i k ki ki i

10
Nota:
 Yi 
 1 1 ... 1  Y1   Y1  Y2  ...  Yn   X Y
X  2 i i 
X 2 ,2 ... X 2,n  Y2   X 2 ,1Y1  X 2 ,2Y2  ...  X 2 ,nYn 
( X Y )  
2 ,1
*     ( X Y )   X 3iYi 
 ... ... ... ...  .  . ... .... ......   
      . 
 X k,1 X k,2 ... X k ,n  Yn   X k,1Y1  X k,2Y2  ...  X k,nYn   X kiYi 
 

 1 1 1 ... 1  1 X 2 ,1 X 3,1 ... X k,1 


X X 2 ,2 X 2 ,3 ... X 2 ,n   1 X 2 ,2 X 3,2 ... X k,2 
 2 ,1 
( X X )   X 3,1 X 3,2 X 3,3 ... X 3, n   1 X 2 ,3 X 3,3 ... X k,3 
  
 ... ... ... ... ...   ... ... ... ... ... 
 X k,1 X k ,2 X k ,3 ... X k,n   1 X 2 ,n X 3,n ... X k,n 

 1  1  ...  1 X 21  X 22  ...  X 2n X 31  X 32  ...  X 3n ... X k1  X k 2  ...  X kn 


 X 21  X 22  ...  X 2n X 212  X 222  ...  X 22n X 21 X 31  X 22 X 32  .  X 2n X 3n ... X 21 X k1  X 22 X k 2  .  X 2n X kn 

( X X )   X 31  X 32  ...  X 3n X 31 X 21  X 32 X 22  .  X 3n X 2n X 312  X 322  ...  X 32n ... X 31 X k1  X 32 X k 2  .  X 3n X kn 
 
 ... ... ... ... ... 
 X k1  X k 2  ...  X kn X k1 X 21  X k 2 X 22  .  X kn X 2n X k1 X 31  X k 2 X 32  .  X kn X 3n ... X k1  X k 2  ...11
2 2
 X kn
2 
 n n n

 n X 2i X 3i ... i1 X ki 
 n
i 1
n n
i 1
n 
 
  X 2i
i 1
 2i
X 2

i 1
X
i 1
2i X 3i ... i1 2i ki 
X X
( X X )   n n n n 


 X 3i
i 1
 X 3i X 2 i
i 1
 3i
X 2

i 1
... i1 X 3i X ki 
 ... ... ... ... ... 
 n n n n
2 


X
i 1
ki X
i 1
ki X 2i X
i 1
ki X 3i ... i1 X ki 
12
o en términos matriciales,


n X X 2i 3i ... X ki 

 ˆ 1   Yi 
 ˆ   X Y
  X 2i X X X 2
2i 2i 3i ... X X
2 i ki   2  2 i i 


 X 3i X X X
3i 2i
2
3i ... X X
3i ki


 ˆ 3  =  X Y
  3i i 
 .  . 
 ... ... ... ... ... 
 
 2   X kiYi 
  X ki  X ki X 2i  X ki X 3i ...  ki 
X  ˆ k   

De (4): ( X ' X ) ˆ  ( X 'Y )


ˆ  ( X ' X ) 1 ( X 'Y ) ................(5)
* Si la matriz inversa es invertible existe una
solucion unica
* Si la matriz inversa no es invertible el
sistema de ecuaciones normales tiene infinitas
soluciones, por tanto existe multiolinealidad 13
Tambien se puede verficar
que las variables explicativas
y el término de error son Cov (X, )=0
ortogonales entre si:
DEMOSTRACION
Para tal fin debemos reordenar la expresión
compacta de las ecuaciones normales (4), utilizando
algunas propiedades del álgebra matricial:
( X ' Y )  ( X ' X ) ˆ  0
X ' (Y  Xˆ )  0, Si e  Y  Xˆ por la ecuacion (3)
14
Entonces:
 X 1e  0
 X  e  0
X 'e   2      0 ................(6)
 ..  ..
   
X 
 k  0
e

 
X ' e  X ' (Y  Xˆ )  X ' Y  X ( X X ) 1 X ' Y )  X ' Y  X ' X ( X ' X ) 1 XY  X ' Y  X ' Y  0

Observamos que el primer elemento de la matriz


anterior resulta:
n
 ei  0 e 0
i 1
por lo que, los residuos de la regresión estimada por
MCO tienen media igual a cero, incluyendo un término
independiente en el modelo. los demás elementos de
la matriz muestran el supuesto de ortogonalidad entre
los errores y las variables independientes se cumple. 15
3. Propiedades de un Buen Estimador
Todo estimador debe cumplir con ciertas
condiciones que nos den cierta seguridad acerca de
su idoneidad. Si un estimador cumple con estas
condiciones podrá utilizarse con relativa seguridad
de que los resultados obtenidos son equivalentes en
términos estadísticos a los verdaderos parámetros
que siempre serán desconocidos.
Esta propiedades pueden agruparse en dos
categorías:
i) propiedades exactas (o de muestras pequeñas)
ii) propiedades aproximadas (o de muestras
grandes o asintóticas).
16
se refieren a resultados sobre los
propiedades cuales existe certeza y que pueden
exactas analizarse incluso en un contexto
de muestras pequeñas

Se refiere a resultados que no se


pueden comprobar en muestras
pequeñas y que deben analizarse
como aproximaciones. La única
propiedades forma de lograr hacer este análisis
aproximadas es realizando el ejercicio de ir
aumentando el tamaño de muestra
y observar como se va comportando
el estimador
17
3.1 Propiedades de muestras peqúeñas

Primera propiedad: Insesgamiento


Definimos formalmente un estimador insesgado:
E ( ̂ ) = 
Segunda propiedad: Eficiencia
El estimador debe tener la menor varianza posible
con el fin de lograr mayor precisión en sus
aproximaciones. Por lo tanto, un estimador
eficiente es aquél que cumple con la primera
propiedad y además es el que posee la mínima
varianza entre todos los demás estimadores
insesgados posibles. 18
Así, y como se demostró en la ilustración del
teorema de Gauss-Markov, el estimador
MCO cumple con esta propiedad.
Gráficamente:

19
3.2. Muestras Grandes: (Propiedades
Asintóticas)
Primera propiedad: Consistencia
Un parámetro es consistente si se cumple que:
Indica que conforme aumente
el tamaño de la muestra la

media de la distribución del
estimador se aproximará más
al verdadero valor del
parámetro. Es decir, si se
cumple esta propiedad
resulta la media de tal
distribución.
Si un estimador resulta sesgado utilizando un tamaño muestral reducido, el
investigador puede eliminar dicho sesgo aumentando el número de observaciones
de la muestra. Por lo tanto, para garantizar que el estimador MCO sea insesgado
20
se debe utilizar muestras grandes .
Segunda propiedad: Insesgamiento asintótico
La idea detrás de esta propiedad es analizar si el sesgo
tiende a desaparecer en la medida que el tamaño
muestral tiende a infinito. Tiene cierta relación con la
propiedad anterior pero no son equivalentes. En este
caso se analiza el comportamiento del sesgo, mientras
que en la consistencia se analiza el punto hacia el cual
converge la distribución del estimador.

Tercera propiedad: Eficiencia Asintótica


Este propiedad está referida al comportamiento de la
varianza de la distribución asintótica del estimador.
La distribución asintótica es aquella hacia la cual
converge la distribución del estimador a medida que
crece el tamaño muestral. La idea es analizar si la
varianza de esta distribución es menor que cualquier
otra proveniente de estimadores alternativos 21

Вам также может понравиться