Академический Документы
Профессиональный Документы
Культура Документы
Introducci
on
Principal Component Regression (PCR) se utiliza para realizar predicciones de variables dependientes normalmente distribuidas, a traves
de la proyecci
on sobre el subespacio optimo generado por variables independientes, utilizando un modelo lineal que establece una relacion de
las variables. Esta es una tecnica de analisis de regresion que se basa en
Principal Component Analysis (PCA).
En la PCR, en vez de realizar la regresion de la variable dependiente
de las variables independientes directamente, los componentes principales
de las variables independientes se utilizan como regresores. Utiliza solo
un subconjunto de todos los componentes principales para la regresion,
con lo que PCR realiza aslg
un tipo procedimiento de regularizacion. Es
frecuente que los componentes principales con mayores variaciones se seleccionan como regresores, sin embargo, para el proposito de predecir el
resultado, los componentes principales con varianzas bajas tambien pueden ser importantes.
Este metodo se puede generalizar a un kernel mediante el cual la funci
on de regresi
on no necesita ser necesariamente lineal en las covariables.
Este vector de covariables es primero mapeado en un espacio de caractersticas de alta dimensionalidad, a este mapeo obtenido se le conoce
1.
Marco te
orico
1.1.
El An
alisis de componentes principales (PCA, por sus iniciales en
ingles), se trata de representar los datos de ddimensionalidad en un espacio de menor dimensi
on, es decir, representar los datos en un espacio
que mejor describe la variacion en un sentido de error de suma de cuadrados.
Se considera una serie de variables X = (x1 , x2 , ..., xm ) sobre un
grupo de objetos y se trata de calcular un nuevo conjunto de variables
Y = (y1 , y2 , ..., ym ), incorreladas entre s, cuyas varianzas vayan crecioendo progresivamente.
Cada yj , donde es j = 1, 2, ..., m una combinacion lineal de las x1 , x2 , ..., xm
originales, es decir:
aTj aj =
m
X
i=1
a2kj = 1
(1)
1.2.
Multicolinealidad
Sea X = (xi1 , xi2 , ..., xiN ), donde i = 1, 2, ..., m, Se dice que existe
colinealidad en X si XT X es una matriz singular, por ejemplo, si algunos
valores propios de XT X son cero. Por lo cual hay una infinidad de soluciones para la Eq. 5, lo cual hace que sea mas difcil de escoger el mejor
modelo de regresi
on lineal m
ultiple. A esta implicacion se le conoce como
el efecto de colinealidad.
La multicolinealidad es un problema que suele plantearse en regreson
m
ultiple ya que prohbe la influencia estadstica precisa. En adicion, se
dice que la multicolinealidad existe en X si XT X es casi una matriz singular, por ejemplo, si algunos valores propios de XT X son cercano a cero.
Esta condici
on se produce cuando hay relaciones casi lineales entre las
variables independientes de la matriz X. Por lo tanto, esto implica que
existe un conjunto de constantes dj , tal que
Pk
j=1 dj xj
=0
donde xj es el j th de la columna X
Si este termino es exactamente 0, la dependencia lineal es exacta y
X T X es una matriz singular.
1.3.
Y = X +
(2)
J() =
N
X
(yi T xi )2
(3)
i=1
J()
= 0, entonces
X
J()
=2
(yi T xi )xTi
=2
i=1
N
X
i=1
yi xTi 2 T
N
X
i=1
= 2X T Y 2X T X
xi xTi
1.4.
Modelos de regresi
on
El an
alisis de regresi
on es una tecnica para el modelado y la investigaci
on de la relaci
on entre dos o mas variables, en otras palabras podemos
decir que describe entre una variable aleatoria simple Y , que es la variable respuesta y las variables independientes x1 , x2 , ..., xm , que son las
variables de regresi
on.
En este trabajo se abordara el modelo de Regresi
on lineal m
ultiple, para esto se definir
an las siguientes variables.
Yi es la variable de respuesta en la i-esima observacion (i = 1, 2, ..., N ),
xij R es la i-esima observacion de regresion de xj , por lo cual denotamos que:
xi = (xi1 , xi2 , ..., xim )T
Y = (Y1 , Y2 , ...YN )T
= (x1, x2, ..., xN )T
X
)
X = (1N , X
= (0 , 1 , ..., m )T
= (1 , 2 , ..., N )T
Regresi
on lineal m
ultiple El modelo estandar de la regresion m
ultiple
es escrito como se muestra en la Eq. 4
Y = X +
(4)
XT X = XT Y
(5)
= (XT X)1 XT y
(6)
Por lo tanto, la prediccion del modelo de regresion lineal esta dada por:
f (x) = 0 +
m
X
j xj
(7)
j=1
Rm
en R
(8)
La Regresi
on de Componentes Principales (PCR, por sus iniciales en
ingles) es una tecnica de analisis de m
ultiples datos de regresion que sufren multicolinealidad. Cuando ocurre la multicolinealidad, los mnimos
cuadrados estimados no son sesgados, pero las variaciones son grandes,
por lo cual puede estar muy lejos del valor real, lo que realiza PCR es
reducir los errores est
andar y esperar que el efecto sera dar estimaciones
m
as fiables.
De acuerdo al modelo de regresion lineal m
ultiple, definimos que el
modelo est
andar centralizado es
Y0 = Z + 0
Z = (IN
1
T
N 1N 1N )X
Y0 = (IN
0 = (IN
1
T
N 1N 1N )Y
1
T
N 1N 1N )
(9)
donde
D=
1
0
Dd =
...
0
Dd 0
0 0
0
2
...
0
... 0
... 0
... ...
... d
Dado que Z T Z es una matriz simetrica y semidefinida positiva, entonces los eigenvalores son reales y no negativos.
Se define U = ZA y = AT
Dado que hay que eliminar la multicolinearidad se asume que r+1
0, r+2 0, ..., d 0, por lo tanto
Dr 0
Dd =
(10)
0 Ddr
Por lo cual reescribiendo el modelo se tiene que:
Y0 = Ur r + 0
(11)
1
r = (UT
UT Y
r Ur )
y
= y1N + ZAr r
Sustituyendo para
En los mnimos cuadrados, los coeficientes de regresion son estimados
como se muestra en Eq. 12
1 XT Y
= (XT X)
(12)
Algorithm 1 PCR
Entrada Matriz de muestras X, vector de clases Y
Salida Vector de coeficientes de regresi
on ,
Realizar la estandarizaci
on de X, guardando en Z
Realizar la regresi
on de Y sobre Z para obtener la estimaci
on de
Establecer el u
ltimo elemento de a 0
Calcular los coeficientes originales de
1.6.
dimensi
on que m, se puede decir mF . Por lo tanto, se deriva de otra
funci
on, : Rm Rm R, donde es una funcion simetricam continua
y semidefinida positiva, a esta funcion se le llama la funcion kernel.
Se define una matriz
= ((x1 ), (x2 ), ..., (xN ))T ,
K = T
donde el tama
no de y K son de N mF y de N N respectivamente. Entonces, de acuerdo al modelo regresi
on lineal m
ultiple estandar, se
define este para el espacio de caractersticas como se muestra la Eq. 13
Y = +
(13)
i=1 (xi )
= 0,
E(
) = 0,
E(
T ) = 2 In
Y = B +
(14)
= (BT B)1 BT Y
(15)
= V =
mF
X
i=1
T T
1
i v i vi Y
(16)
10
cov() =
mF
X
T
1
i vi vi
(17)
i=1
Ahora bien, para evitar el efecto de multicolinealidad, PCR borra algunos vectores propios de T correspondientes a los peque
nos valores
propios i .
Dejamos ( = 1 , 2 , ..., N )T ser un vector propio de K correspondiente a j 6= 0 para alguna j 1, 2, ..., mF . Utilizando los primeros r
vectores de V, se puede escribir el modelo de prediccion de KPCR como
en Eq. 18
g(x) =
N
X
aj (xi , x) + d
(18)
i=1
ai =
2.
Pr
k=1 k ik
para i = 1, ..., N
Metodologa
11
Algorithm 2 trainKPCR
Entrada Matriz de muestras X, vector de clases Y
Salida Vector de coeficientes de regresi
on , Kernel K, bias b
Escoger y contruir el Kernel
Centrar matriz K
Calcular valores y vectores propios de K
i
1
Detectar la multicolinealidad, tal que lambda
1000
1
Contruir la matriz
Calcular B = K
Estimar el vector de regresi
on = (B T B) (B T Y )
Calcular =
q P
Calcular bias, tal que d = n1 n
i )2
i=1 (yi y
Algorithm 3 classifyKPCR
Entrada: Xn , Yn , Xtr, K, , d
Salida: Y pred
Construir el Kernel
Centrar la matriz K
Realizar predicci
on Y pred = y
= K + d
Para la selecci
on del kernel se utilizara el Gaussiano (RBF) que se
define como
(xi , xj ) = exp(||xi xj ||22 )
Esto se implemetar
a en MatLab, dado que facilita la manipulacion
del conjunto de datos, as como realizar diversas operaciones.
3.
Materiales
Conjuntos de datos:
1. Complex
2. Ring
3. Xor
MATLAB (MATrix LABoratory, laboratorio de matrices)
12
4.
Resultados
Error = 74
T E = 4,6 seg
Figura 1. Gr
afico de espacio de caractersticas de Complex KPCR
13
Error = 429
T E = 1,04 seg
Figura 2. Gr
afico de espacio de caractersticas de Complex KFDA
14
Error = 12
T E = 1,65 seg
Figura 3. Gr
afico de espacio de caractersticas de Ring KPCR
Error = 47
T E = 0,44 seg
Figura 4. Gr
afico de espacio de caractersticas de Ring KFDA
15
Error = 0
T E = 0,15 seg
Figura 5. Gr
afico de espacio de caractersticas de Xor KPCR
16
Error = 0
T E = 0,08 seg
Figura 6. Gr
afico de espacio de caractersticas de Xor KFDA
5.
Funcionamiento
17
6.
Conclusiones
18
Referencias
[AW08] Y. Yamamoto A. Wibowo. The new approach for kernel principal component
regression. Discussion Paper Series No. 1195, Department of Social Systems
and Management, Univ. Tsukuba, 2008.
[AW11] M. Desa A. Wibowo. Nonlinear robust regression using kernel principal component analysis and r-estimators. International Journal of Computer Science
Issues, 2011.
[AW12] Y. Yamamoto A. Wibowo. A note on kernel principal component regression.
Computational Mathematics and Modeling, 2012.
[Jol82] Ian T. Jolliffe. A note on the use of principal components in regression.
Journal of the Royal Statistical Society. Series C (Applied Statistics), 1982.
[Jol02] I. Jolliffe. Principal Component Analysis. Second edition edition, 2002.
[JT04] N. Cristiani J. Taylor. Kernel Methods for Pattern Analysis. First edition
edition, 2004.
[LL07] Lawrence Kleinman Wei Zhu Ling Leng, Tianyi Zhang. Ordinary least square
regression, orthogonal regression, geometric mean regression and their applications in aerosol science. Journal of Physics: Conference Series, 2007.
[LM11] G. D. Hutcheson L. Moutinho. Ordinary least-squares regression. The SAGE
Dictionary of Quantitative Management Research, 2011.
[ROD03] David G. Stork Richard O. Duda, Peter E. Hart. Pattern Classification.
Second edition edition, 2003.
[RR00] A. Cichocki R. Rosipal, L. Trejo. Kernel principal component regression with
em approach to nonlinear principal components extraction. University of
Paisley, School of Information, Communication and Technologies, 2000.
[ST03] K. Koutroumbas S. Theodoridis. Pattern Recognition. Second edition edition,
2003.
[TH09] J. Friedman T. Hastie, R. Tibshirani. The Elements of Statistical Learnig:
Data Mining, Inference and Prediction. Second edition edition, 2009.
[XC12] Hu Yang Xinfeng Chang. Combining two-parameter and principal component
regression estimators. Statistical Papers, 2012.