Академический Документы
Профессиональный Документы
Культура Документы
En el Capı́tulo 1, hemos definido el modelo lineal general como una relación estadı́sti-
ca lineal entre una variable dependiente y una o más variables explicativas, relación que
podemos expresar de tres formas equivalentes:
1. Yi = β1 + β2 X2i + · · · + βk Xki + ui , i = 1, . . . , n
2. Yi = x�i β + ui , i = 1, . . . , n
3. y = Xβ + u
en donde xi = (1 X2i . . . Xki )� ,
Y1 1 X21 ... Xk1 β1 u1
Y2 1 X22 ... Xk2 β2 u2
y= .. , X = ..
.. .. ,
.. β=
.. y u=
.. .
. . . . . . .
Yn 1 X2n . . . Xkn βk un
La forma 1 y su versión compacta dada por la forma 2 son la representación escalar
del modelo lineal general, y son útiles para introducir los conceptos básicos del método
de estimación de mı́nimos cuadrados. Sin embargo, para profundizar en el estudio del
análisis de regresión resulta más conveniente la forma 3 o forma matricial del modelo
lineal general.
Este capı́tulo describe el álgebra de mı́nimos cuadrados, es decir, un método es-
tadı́stico para obtener estimaciones de los parámetros desconocidos β1 , . . . , βk a partir
de un conjunto de observaciones sobre las variables Y, X2 , . . . , Xk . El método de es-
timación de mı́nimos cuadrados se presenta utilizando tanto la forma escalar como la
forma matricial del modelo lineal general. Se deja como ejercicio para el alumno, el
desarrollo de este procedimiento para la forma 2 del modelo.
2.1.1. Forma escalar. Si en la forma escalar del modelo lineal general reem-
plazamos los parámetros desconocidos β1 , . . . , βk por las estimaciones β̂1 , . . . , β̂k , obten-
emos el modelo estimado
en donde ûi es una estimación del error ui . Surgen aquı́ dos conceptos fundamentales.
Definición 2. El valor ajustado Ŷi es la combinación lineal
Vemos que al estimar los parámetros del modelo lineal general descomponemos cada
observación Yi en la suma de dos componentes
Yi = Ŷi + ûi , i = 1, . . . , n
en donde podemos interpretar el valor ajustado Ŷi como la predicción de Yi dada por el
modelo estimado y el residuo ûi como el error de predicción asociado. Es claro que distin-
tas estimaciones de los parámetros conducirán a distintos residuos o valores ajustados,
siendo preferibles aquellas estimaciones que proporcionan un mayor número de residuos
pequeños o, equivalentemente, un mayor número de valores ajustados muy próximos a
los valores observados. Esta es la idea que subyace al método de estimación de mı́nimos
cuadrados ordinarios.
cuya solución permite encontrar las estimaciones de mı́nimos cuadrados β̂j (j = 1, . . . , k).
Cuando k es mayor que dos, es conveniente escribir (2.2) en forma matricial:
n n n
n i=1 X2i ... i=1 Xki β̂1 i=1 Yi
n n n
X2i Xki β̂2 ni=1 X2i Yi
2
i=1 X2i i=1 X2i ... i=1
(2.3)
.. .. .. ..
.. = ..
. . . . . .
n n n 2
n
i=1 Xki i=1 Xki X2i . . . i=1 Xki β̂k i=1 Xki Yi
X� X β̂ X� y
y = Xβ̂ + û
X� Xβ̂ = X� y
a� X� Xa > 0
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
2. Mı́nimos cuadrados ordinarios 15
X� Xβ̂ − X� y = 0k
Corolario 2. Los residuos ûi y los valores ajustados Ŷi son ortogonales
n
�
Ŷi ûi = 0
i=1
Demostración. Los valores ajustados son una combinación lineal de las variables
explicativas. Como las variables explicativas y los residuos son otogonales también lo
serán los valores ajustados y los residuos
n
� n
�
Ŷi ûi = (β̂1 + β̂2 X2i + · · · + β̂k Xki )ûi
i=1 i=1
n
� n
� n
�
=β̂1 ûi + β̂2 ûi X2i + · · · + β̂k ûi Xki = 0
i=1 i=1 i=1
Xji Yi = β̂1 Xji + β̂2 Xji X2i + · · · + β̂k Xji Xki + Xji ûi , i = 1, . . . , n
y = Xβ̂ + û
yi = x�i β̂ + ui , i = 1, . . . , n
n
−1 n
� �
β̂ = xi x�i xi yi
i=1 i=1
en donde yi = Yi − Ȳ y xji = Xji − X̄j son los valores de cada variable en desviaciones
con respecto a su media. Observamos que desaparece el término constante, pero los
parámetros estimados β̂2 , . . . , β̂k y los residuos permanecen inalterados. Por tanto, la
aplicación del método de mı́nimos cuadrados en la ecuación (2.7) proporciona los mismos
resultados que en la ecuación (2.5). Los estimadores de mı́nimos cuadrados β̂2 , . . . , β̂k
pueden obtenerse utilizando datos en desviaciones con respecto a la media a partir de
la fórmula
n −1
n 2 n
β̂2 i=1 2ix . . . x
i=1 2i kix x y
2i i
. .. . .. i=1.
(2.8) .
. = . . . . .
.
n n 2
n
β̂k x
i=1 ki 2i x . . . x
i=1 ki x
i=1 ki i y
cuyo cálculo requiere invertir una matriz de menor orden (k − 1) × (k − 1). El término
constante se obtiene de la ecuación (2.6) que relaciona las medias
Las pendientes estimadas del modelo lineal general miden la respuesta de la variable
dependiente a cambios unitarios en las variables explicativas. El tamaño de estas esti-
maciones depende de las unidades en que se midan las variables. De aquı́, para apreciar
la importancia relativa de cada variable explicativa es conveniente usar datos tipicados.
Observación 5. Las variables tipificadas tienen media cero y varianza unitaria. Por
ejemplo, la variable dependiente tipificada tiene media
n ∗
n n
i=1 yi (Yi − Ȳ )/SY Yi − nȲ Ȳ − Ȳ
= i=1 = i=1 = =0
n n SY n SY
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
18 2.4. Regresión con datos tipificados
y varianza n n
∗
i=1 (yi − 0)2 i=1 [(Yi − Ȳ )/SY ]2 S2
= = Y2 = 1
n n SY
son dos matrices fundamentales en el análisis de regresión. Estas matrices están asociadas
a los vectores de valores ajustados y de residuos, respectivamente. Sustituyendo β̂ por
su expresión en ŷ = Xβ̂ tenemos
ŷ = X(X� X)−1 X� y = Py
Análogamente,
û = y − Xβ̂ = y − X(X� X)−1 X� y
y sacando y como factor común por la derecha
û = I − X(X� X)−1 X� y = My
Demostración.
1. P es una matriz simétrica P = P�
porque
(A(BC)−1 D)� = D� (C� B� )−1 A�
2. P es una matriz idempotente P = PP
M� = (I − P)� = I� − P� = I − P = M
MM = (I − P)(I − P) = I − P − P + PP = I − P = M
Demostración.
Mû = MMy = My = û
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
20 2.6. Regresión particionada
Demostración.
MX = (I − P)X = X − PX = X − X = 0
Proposición 8. El rango de P es k y el de M n − k.
y = Xβ̂ + û
(2.9) y = Xr β̂ r + Xs β̂ s + û
y = Xs bs + ûs
Ms y = Ms Xr β̂ r + Ms Xs β̂ s + Ms û
o bien
Ms y = Ms Xr β̂ r + û
Aplicando la fórmula del estimador de mı́nimos cuadrados a este modelo de regresión,
tenemos
β̂ r = (X�r M�s Ms Xr )−1 X�r M�s Ms y = (X�r Ms Xr )−1 X�r Ms y
Mi y = Mi Xs β̂ s + û
en donde
Y1 − Ȳ X21 − X̄2 . . . Xk1 − X̄k
Y2 − Ȳ X22 − X̄2 . . . Xk2 − X̄k
Mi y = .
y Mi Xs = .. ..
..
. ... .
Yn − Ȳ X2n − X̄2 . . . Xkn − X̄k
contienen los datos en desviaciones. Aplicando la fórmula del estimador de mı́nimos
cuadrados ordinarios al modelo en desviaciones
Es deseable que los valores ajustados Ŷi estén próximos a los valores observados Yi ,
lo que es equivalente a decir que los residuos sean pequeños (en valor absoluto). En el
caso extremo Ŷi = Yi , los residuos serán todos iguales a cero, y se dice que el ajuste
es perfecto. De aquı́, una primera medida para valorar la bondad del ajuste es la suma
de cuadrados de los residuos. Sin embargo, este criterio de bondad de ajuste (la suma
de cuadros de los residuos) depende de las unidades de medida, por lo que es necesario
buscar una medida alternativa adimensional.
el primer componente, que se denomina suma de cuadrados explicada SCE, mide la por-
ción de la variación total de la variable dependiente explicada por la regresión, mientras
que el segundo, la suma de cuadrados de los residuos SCR, mide la variación residual o
no explicada. Se tiene que
SCT = SCE + SCR
0 ≤ R2 ≤ 1
Proposición 12. Los grados de libertad de la suma de cuadrados total son iguales
a n − 1.
ŷ� Mi ŷ = y� Mi y − y� My = y� [Mi − M] y
Dentro de la clase general de modelos de regresión lineal, hay cuatro miembros que
merecen especial atención:
1. regresión sobre una constante,
2. regresión simple,
3. regresión simple a través del origen y
4. regresión sobre dos variables.
Yi = β1 + ui i = 1, . . . , n
Proposición 15. El estimador minimocuadrático de la constante en (14) es la me-
dia muestral de la variable dependiente
β̂1 = Ȳ
Demostración. Partiendo del modelo estimado Yi = β̂1 +ui (i = 1, . . . , n) y suman-
do todas las observaciones obtenemos la ecuación normal
�n
Yi = nβ̂1
i=1
Por tanto, la suma de cuadrados de los residuos es igual a la suma de cuadrados total,
siendo la suma de cuadrados explicada igual a cero. Logicamente, un modelo que no
incluye variables explicativas no tiene capacidad explicativa. �
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
2. Mı́nimos cuadrados ordinarios 25
Yi = β1 + β2 Xi + ui i = 1, . . . , n
Observación 7. Usamos Xi en lugar de X2i porque el modelo sólo incluye una variable
explicativa.
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
26 2.8. Casos especiales del modelo lineal general
de donde n n
Xi Yi − nX̄ Ȳ (X − X̄)(Yi − Ȳ )
i=1
β̂2 = n 2 2
n i
= i=1 2
i=1 Xi − nX̄ i=1 (Xi − X̄)
�
obtenemos n
xi y i SXY
β̂2 = i=1
n 2 = S
x
i=1 i XX
R2 = rXY
2
2
La recta de regresión mini-
1.5
mocuadrática se ajusta a la nube
1 de observaciones (Xi , Yi ) mini-
0.5 mizando los cuadrados de las dis-
0 tancias verticales entre cada pun-
Y
Yi = βXi + ui i = 1, . . . , n
Observación 11. El nombre del modelo enfatiza que la recta de regresión pasa por el
punto (0,0).
Yi = β̂Xi + ûi i = 1, . . . , n
en donde X = (X1 , . . . , Xn )� es ahora una vector columna que contiene los datos de X
y β̂ = (β̂).
�
Yi = β1 + β2 X2i + β2 X3i + ui i = 1, . . . , n
Observación 12. En general, las pendientes estimadas en la regresión sobre dos vari-
ables β̂2 y β̂3 son distintas de las pendientes estimadas en la regresión simple β̂12 y β̂13 .
Se cumplirá que β̂2 = β̂12 y β̂3 = β̂13 cuando β̂23 = β̂32 , es decir, cuando las variables
explicativas son ortogonales.
esto es, la regresión del componente de y que no depende de x2 , û1,2i , sobre el componente
de x3 que no depende de x2 . Observamos que:
1. La SCT en esta regresión es ni=1 û21,2i ,
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
30 2.10. Ejemplo
Ni = β1 + β2 Hi + β3 Ci + β4 Ai + ui , i = 1, . . . , 10
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
2. Mı́nimos cuadrados ordinarios 31
Alumno Nota Horas Clase Academia Nota Horas Clase Academia ûi
1 5 1 1 0 5 1 1 0 1.10811
2 9 5 1 0 9 5 1 0 -0.945946
3 7.5 3 1 0 7.5 3 1 0 0.581081
4 4.5 1 1 0 4.5 1 1 0 0.608108
5 4 1 1 1 4 1 1 1 -2.4869e-014
6 8 4 0 1 8 4 0 1 0.986486
7 0 0 0 1 0 0 0 1 -0.959459
8 4 2 1 0 4 2 1 0 -1.40541
9 8.5 5 0 1 8.5 5 0 1 -0.027027
10 10 5 1 0 10 5 1 0 0.0540541
(a) Datos observados (b) Datos centrados (c) Residuos
en donde denotamos por sus iniciales las variables del cuadro 1.a. Siguiendo la regla
práctica para especificar las ecuaciones normales obtenemos
10 10 10 10
10 i=1 Hi i=1 Ci i=1 Ai β̂1 i=1 Ni
10 H 10 2
10 10 10 H N
i=1 i i=1 Hi i=1 Hi Ci i=1 Hi Ai β̂2 i i
= i=1
10 10 10 2 10 10
i=1 Ci i=1 Ci Hi C Ci Ai β̂3 i=1 Ci Ni
10 10 10i=1 i i=1
10 2
10
i=1 Ai i=1 Ai Hi i=1 Ai Ci i=1 Ai β̂4 i=1 Ai Ni
y calculando todos estos momentos muestrales con los datos del cuadro 1.1, podemos
encontrar las estimaciones minimocuadráticas de los parámetros
10 27 7 4 β̂1 60,5 β̂1 0,851351
27 107 18 10 β̂ 213,5 β̂ 1,51351
2 2
= ⇒ =
7 18 7 1 β̂3 44 β̂3 1,52703
4 10 1 4 β̂4 20,5 β̂4 0,108108
Estas estimaciones nos dicen lo siguiente:
β̂1 = 0,85: es la nota de un alumno que no estudie, que no asista a clase y que no
reciba clases particulares,
β̂2 = 1,51: es el incremento en la nota por cada hora de estudio,
β̂3 = 1,52: es el incremento en la nota por asistir regularmente a clase,
β̂4 = 0,11: es el incremento en la nota por ir a una academia.
El modelo estimado puede usarse para predecir la nota que obtendrá un alumno que
estudia 3 horas a la semana, asiste regularmente a clase y no recibe clases particulares
o para estimar cuántas horas debe estudiar este alumno si quiere obtener una nota igual
a9
Ĥi = (9 − 0,851351 − 1,52703 × 1 − 0,108108 × 0)/1,51351 = 4,38
El modelo puede estimarse usando los datos centrados del cuadro 1.b. Ahora el
sistema de ecuaciones normales es
10 10 10 10
h 2 h c h a β̂ h n
i=1 i i i i i 2 i i
10 i=1
10 2
i=1
10 10
i=1
i=1 ci hi i=1 ci i=1 ci ai β̂3 = i=1 ci ni
10 10 10 2 10
i=1 ai hi i=1 ai ci i=1 ai β̂4 i=1 ai ni
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
32 2.10. Ejemplo
en donde las letras minúsculas son las iniciales de las variables en desviaciones. Calcu-
lando estos momentos centrados obtenemos
34,1 −0,9 −0,8 β̂2 50,15 β̂2 1,51351
−0,9 2,1 −1,8 β̂3 = 1,65 ⇒ β̂3 = 1,52703
−0,8 −1,8 2,4 β̂4 −3,7 β̂4 0,108108
La estimación del término constante se obtiene de la ecuación que relaciona las medias
muestrales
β̂1 = N̄ − β̂2 H̄ − β̂2 C̄ − β̂2 Ā
que conduce a
Vemos que usando los datos centrados obtenemos los mismos resultados, pero invertimos
una matriz de menor orden. A partir de estas estimaciones podemos calcular los residuos
que se presentan en el cuadro 1.c
obteniendo
n n 2
i=1 û3,2i û1,2i 2,97361 2 i=1 û1,23i 6,71186
α̂ = n 2 = = 1,4322 y r13,2 = 1− n 2 = 1− = 0,388199
i=1 û3,2i 2,07625 i=1 û1,2i 10,970674
Finalmente, estimamos la regresión múltiple
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons
2. Mı́nimos cuadrados ordinarios 33
Resumen
Palabras clave
Observaciones Suma de cuadrados total
Valores ajustados Suma de cuadrados explicada
Residuos Suma de cuadrados residual
Ecuaciones normales Coeficiente de determinación
Estimaciones minimocuadráticas Coeficientes de regresión parcial
Ejercicios
Yt = β0 + β1 Yt−1 + β2 Yt−2 + ut , t = 3, . . . , 10
Año CN RD
1995 349.268 388.029
1996 368.474 408.24
1997 388.373 433.777
1998 414.158 465.222
1999 444.982 498.647
2000 484.359 538.594
2001 518.484 574.786
2002 550.49 614.7
2003 586.594 656.77
2004 635.993 699.271
2005 686.699 748.357
Ct = γ1 + γ2 Yt + γ3 Ct−1 + ut
10. Dos investigadores han utilizado muestras diferentes sobre las mismas variables
para estimar por mı́nimos cuadrados la ecuación de regresión simple
yi = β1 + β2 Xi + ui
Prof. Dr. José Luis Gallego Gómez Apuntes de Econometrı́a. LADE y LE. Curso 2008-2009.
Departamento de Economı́a. Universidad de Cantabria Material publicado bajo licencia Creative Commons