Академический Документы
Профессиональный Документы
Культура Документы
Elkin Castao V
El problema de la Multicolinealidad
Debido a que el anlisis de regresin:
Var( j ) =
2
n
(1-R 2j ) (x ij x j )2
i=1
2
Elkin Castao V
Puede llegar a ser muy difcil separar los efectos relativos de cada variable
3
Elkin Castao V
4
Elkin Castao V
Si se usa la
5
Elkin Castao V
(X ) =
mx
min
j =
mx
j
indican el
6
Elkin Castao V
Var( j ) =
pji2/ i
i =1
Donde pji es la j-sima componente del vector propio pi. Esa expresin muestra
que la varianza de j depende, en general, de todos los valores propios i
7
Elkin Castao V
8
Elkin Castao V
9
Elkin Castao V
Los VIF de W, P y A son 7.73, 2.09 y 6.21, respectivamente. Dos de ellos son
mayores de 5, indicando multicolinealidad seria.
Regresiones auxiliares:
10
Elkin Castao V
Los resultados muestran que hay dos valores propios relativamente cercanos a
cero, y los ndices de condicin
10
11
Elkin Castao V
Como todos los elementos de los vectores propios son diferentes de cero, los
resultados indican que las tres variables W, P y A estn involucradas en
asociaciones lineales y que las relaciones separadas no son fcilmente
detectables. Para clarificar lo que est pasando, son tiles las proporciones de
varianza de los estimadores asociadas con cada valor propio.
Proporcin de la varianza de las estimaciones asociada con los valores propios.
La siguiente tabla contiene la proporcin de la varianza de las estimaciones
debido a cada valor propio. Las columnas contienen las proporciones para cada
estimacin (el orden de los coeficientes estimados est dado por el orden de las
variables en el modelo). Las filas corresponden al valor propio asociado.
11
12
Elkin Castao V
Medidas remediales:
Obtenga, si es posible, ms y mejores datos.
Imponer restricciones lineales exactas sobre los coeficientes del modelo.
Por ejemplo, en el modelo de produccin de Coob-Douglas,
Ln Q = 1 + 2 lnL + 3 lnK +
Z = 1 + 2 W +
12
13
Elkin Castao V
R (k) = (XX+kI)-1Xy
donde k>0 es llamado el parmetro de contraccin o sesgamiento.
Para hacer operacional la regresin Ridge, hay elegir el valor de k. Si k=0,
obtenemos el estimador OLS. Si k>0, entonces R (k) es sesgado y
13
14
Elkin Castao V
ii)
iii)
Estime k usando:
k = (M-1) 2/( c c)
en el modelo
estandarizado de ii).
iv)
R c( k )= (X cX c + k I)-1X cy c
y su matriz de covarianzas estimada est dada por:
R ( k ) = W -1 R c( k )
donde W=diag(std(x1), std(x2), , std(xM))
14
15
Elkin Castao V
15
16
Elkin Castao V
Sintaxis en R
library(car)
library(perturb)
library(ridge)
# lectura de datos
(datos1=read.table("E:/UNal/Regresion_01_2014/klein_goldberger.txt",
header=TRUE))
# Asignacin de los nombres de las variables a las columnas
attach(datos1)
# Formulacin del modelo lineal
modelo1=lm(CONS~W+P+A)
summary(modelo1)
# Matriz de correlacin de loas regresoras
X=cbind(W,P,A)
mat_corr=cor(X)
# Determinante de la matriz de correlacin
det(mat_corr)
# Factores de inflacin de varianza
vif(modelo1)
# Indices de condicin y proporciones de varianza
cd=colldiag(modelo1)
cd
# regresin Ridge
modelo2 = linearRidge(CONS~W+P+A,lambda="automatic", scale="corrform")
summary(modelo2)
16