Академический Документы
Профессиональный Документы
Культура Документы
Jri
Abstract
Factor analysis is a multivariate statistical method with the objec-
tive of grouping p random variables X1 , . . . , Xp in groups formed by
strongly correlated variables. These groups are called factors or latent
variables. The factors are unobservable random variables, preferably in
smallest number that the original variables. In this work, is considered
the orthogonal factorial model, in which the factors are orthogonal two
i
by two. In factor analysis model, each original variable is written as a
linear combination of the common factors and added to a specific factor.
To estimate the coefficients of common factors, called loadings, we will
see two methods, namely, the method of principal components and the
method of maximum likelihood, the first being developed in more detail.
We starts by define and obtain principal components of a population.
The corresponding procedure involves the eigenvalues and eigenvectors
of the correlation matrix or the variance-covariance matrix of the vari-
ables X1 , . . . , Xp . Then, we obtain the principal components of sample
and we present the estimators for involved parameters, in particular, ma-
ximum likelihood estimators in case that the random vector [X1 . . . Xp ]T
has multivariate normal distribution.
We refer several criteria to choose the number m of factors, m < p,
and, considering the factors as orthogonal axes, we study the orthogonal
rotation, to facilitate their interpretation.
Although the common factors are unobservable variables, we can es-
timate the value of each factor (score) for each element of sample. In
this work we refer two methods to achieve this objective: the method of
weighted least squares and the regression method.
Finally, we present an example of application of factor analysis, de-
veloped using the SPSS software.
ii
iv
Agradecimentos
com muita satisfao que agradeo a todos aqueles que, direta
ou indiretamente, tornaram a realizao desta dissertao de mestrado
possivel.
minha orientadora, a Doutora Cristina Maria Tavares Martins, pela
sua disponibilidade, acompanhamento no estudo e pacincia.
minha namorada, Ana Gonalves, por todo o apoio, pela sua com-
preenso e encorajamento.
minha me, pelo enorme apoio que tem oferecido ao longo destes
anos.
Ao meu pai, que embora j no esteja comigo, me incutiu princpios
que tento seguir, entre os quais, nunca desistir.
v
Contedo
1 Introduo 1
2 Componentes principais 5
2.1 Deduo das componentes principais . . . . . . . . . . . . . . . . . . 6
2.2 Estimao em componentes principais . . . . . . . . . . . . . . . . . 13
2.2.1 Componentes principais amostrais . . . . . . . . . . . . . . . 13
2.2.2 Estimao de parmetros . . . . . . . . . . . . . . . . . . . . 15
3 Anlise fatorial 23
3.1 Modelo ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Adequao da aplicao do modelo fatorial . . . . . . . . . . . . . . 26
3.3 Extrao dos fatores . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1 Mtodo das componentes principais . . . . . . . . . . . . . . 27
3.3.2 Mtodo da mxima verosimilhana . . . . . . . . . . . . . . . 28
3.4 Escolha do nmero de fatores . . . . . . . . . . . . . . . . . . . . . . 29
3.5 Rotao dos fatores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.6 Scores fatoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.1 Mtodo dos mnimos quadrados ponderados . . . . . . . . . . 35
3.6.2 Mtodo da regresso . . . . . . . . . . . . . . . . . . . . . . . 36
3.6.3 Relao entre as estimativas obtidas pelos dois mtodos . . . 37
vii
Captulo 1
Introduo
1
Captulo 1 Introduo
X1 1 = 11 F1 + 12 F2 + . . . + 1m Fm + 1
X2 2 = 21 F1 + 22 F2 + . . . + 2m Fm + 2
...
Xp p = p1 F1 + p2 F2 + . . . + pm Fm + p ,
2
1.0
ncia entre a varivel Xi e o fator Fj , pelo que aquele coeficiente uma medida da
relao entre Xi e Fj . Assim, os pesos fatoriais elevados (em valor absoluto) identifi-
cam o fator a que cada varivel se associa. Outra propriedade importante prende-se
com o facto da matriz dos pesos fatoriais no ser nica, podendo ser rotacionada
de modo a produzir novos pesos fatoriais. No entanto, esta rotao no altera a
varincia de Xi , i = 1, . . . , p.
Na prtica, s faz sentido aplicar a anlise fatorial se as variveis X1 , . . . , Xn fo-
rem correlacionadas. Para verificar se os dados corroboram esta hiptese, apresentam-
se dois procedimentos, nomeadamente, o teste de esfericidade de Bartlett, desenvol-
vido sob a hiptese de normalidade do vetor aleatrio X, e a estatstica KMO que
no envolve condies sobre a distribuio de probabilidade de X. Apresentam-se os
mtodos de estimao dos pesos fatoriais j mencionados, destacando-se o mtodo
das componentes principais, e referem-se processos para escolher do nmero de fa-
tores a considerar na anlise fatorial que, como j foi indicado, devem ser em menor
nmero do que as variveis iniciais.
Os m fatores determinados podem ser vistos como um sistema de eixos no qual
se representam os p pontos (i1 , . . . , im ), i = 1, . . . , p. Tendo em conta o que foi
referido sobre a rotao da matriz dos pesos fatoriais, tais eixos podem ser rotaci-
onados com o objetivo de conseguir que os pesos fatoriais elevados (resp., baixos)
fiquem ainda mais elevados (resp., baixos) de modo a facilitar a interpretao dos
fatores. Existem vrios processos para escolher a matriz de rotao correspondente.
Neste trabalho damos especial ateno ao mtodo Varimax.
Apesar dos fatores comuns serem variveis no observveis, possvel estimar o
valor de cada fator (score) para cada indivduo da amostra. O captulo 3 termina com
a apresentao de dois mtodos para fazer essa estimao: o mtodo dos mnimos
quadrados ponderados e o mtodo da regresso.
No ltimo captulo, apresenta-se um exemplo de aplicao da anlise fatorial,
desenvolvido com recurso ao software SPSS.
3
Captulo 1 Introduo
4
Captulo 2
Componentes principais
5
Captulo 2 Componentes principais
= aTr C as , r, s = 1, 2, . . . , p, (2.1)
6
2.1 Deduo das componentes principais
e
p
X
g(a1 ) = g(a11 , a21 , . . . , ap1 ) = aT1 a1 1 = a2i1 1.
i=1
A funo de Lagrange dada por
g
= 2aj1 , j = 1, 2, . . . , p.
aj1
7
Captulo 2 Componentes principais
De facto,
p p
f XX
= (ai1 ak1 Cov(Zi , Zk ))
aj1 i=1 k=1
aj1
p p X p
X 2 X
= ai1 V (Zi ) + (ai1 ak1 Cov(Zi , Zk ))
i=1
aj1 i=1 k=1
aj1
k6=i
p p
X X
= 2aj1 V (Zj ) + (aj1 ak1 Cov(Zj , Zk )) + (ai1 aj1 Cov(Zi , Zj ))
k=1
aj1 i=1
aj1
k6=j i6=j
X p p
X
= 2aj1 V (Zj ) + ak1 Cov(Zj , Zk ) + ai1 Cov(Zi , Zj )
k=1 i=1
k6=j i6=j
Xp
= 2aj1 V (Zj ) + 2 ak1 Cov(Zk , Zj )
k=1
k6=j
p
X
=2 ak1 Cov(Zk , Zj ).
k=1
Ento
p
X
f = lg ak1 Cov(Zk , Zj ) = l aj1 , j = 1, 2, . . . , p
k=1
a11
h i
.
Cov(Z1 , Zj ) . . . Cov(Zp , Zj ) .
. = l aj1 , j = 1, . . . , p
ap1
Ca1 = l a1
(C l Ip )a1 = 0,
Desta forma, para que V (Y1 ) seja mxima, devemos utilizar a maior das p razes
reais do polinmio det(C lIp ), ou seja, o maior valor prprio de C, 1 . Conse-
quentemente, obtm-se a1 = e1 , atendendo restrio aT1 a1 = 1. Assim, a primeira
componente principal dada por Y1 = eT1 Z.
8
2.1 Deduo das componentes principais
Considerem-se as funes
g1 (a2 ) = aT2 a2 1
g2 (a2 ) = 1 aT2 e1
2aT2 Ce1 l2 1 = 0
21 aT2 e1 l2 1 = 0
l2 = 0,
uma vez que 1 > 0. A primeira igualdade de (2.3) ento equivalente a Ca2 = l1 a2 .
Temos assim um caso anlogo ao anterior, obtendo-se l1 = 2 e a2 = e2 , vetor prprio
de norma 1 associado ao valor prprio 2 . A segunda componente principal ento
dada por Y2 = eT2 Z.
De uma forma geral, para gerar a j-sima componente principal, j = 2, . . . p,
determina-se aj de forma a maximizar a varincia de Yj = aTj Z, sujeito a aTj aj = 1
e no correlao de Yj com Y1 , . . . , Yj1 . Sejam
g1 (aj ) = aTj aj 1
9
Captulo 2 Componentes principais
p
X p
X
V (Yj ) = V (Zj ) = p.
j=1 j=1
10
2.1 Deduo das componentes principais
Ento
p
X p
X
V (Yj ) = tr(Y ) = tr(T C) = tr(T C) = tr(C) = V (Zj ) = p.
j=1 j=1
Este resultado permite afirmar que a proporo da varincia total das variveis
standardizadas explicada pela j-sima componente principal dada por
j
, j = 1, 2, . . . , p.
p
(Yj ,Zk ) = ekj j , j, k = 1, 2, . . . , p.
= uTk j ej = j ekj , j, k = 1, . . . , p.
11
Captulo 2 Componentes principais
Assim
Cov(Yj , Zk ) j ekj q
(Yj ,Zk ) = q = p = ekj j , j, k = 1, 2, . . . , p.
j
p
V (Yj ) V (Zk )
Como j foi referido, as componentes principais tambm podem ser obtidas atra-
vs das variveis originais, X1 , . . . , Xp . Neste caso, o processo de obteno das
componentes principais anlogo ao que foi descrito para as variveis standar-
dizadas, usando agora a matriz de varincias-covarincias, , do vetor aleatrio
X = [X1 X2 . . . Xp ]T . No entanto, se o vetor mdia, , de X for diferente de zero, o
referido procedimento envolve clculos mais elaborados.
Continuaremos a usar as notaes Yj , j e ej , j = 1, . . . , p, com o mesmo signi-
ficado, mas agora relativamente s variveis X1 , . . . , Xp e matriz .
Analogamente ao resultado obtido na seco anterior para as variveis standar-
dizadas, a componente principal Yj associada s variveis X1 , X2 , . . . , Xp dada
por
Yj = eTj X, j = 1, . . . , p.
ou seja, a varincia total das variveis originais tambm preservada pelo conjunto
das correspondentes componentes principais. Neste caso, a proporo de varincia
j
total explicada pela j-sima componente principal , j = 1, . . . , p.
1 + . . . + p
O resultado correspondente proposio 2 para as variveis X1 , . . . , Xp , como
facilmente se verifica,
p
ekj j
(Yj ,Xk ) =p , j, k = 1, 2, . . . , p.
V (Xk )
12
2.2 Estimao em componentes principais
Y1 = 0.9571 X1 0.2898 X2
Y2 = 0.2898 X1 + 0.9571 X2
Y1 = 0.7071 Z1 0.7071 Z2
X1 1
= 0.7071 0.7071 (X2 2 )
2
= 0.3536 (X1 1 ) 0.7071 (X2 2 )
Y2 = 0.7071 Z1 + 0.7071 Z2
13
Captulo 2 Componentes principais
14
2.2 Estimao em componentes principais
n
1 1
(xj )T 1 (xj )
Y
f (x1 , . . . , xn ) = p 1 exp
j=1 (2) 2 (det) 2
2
n
1 1 1X
= np n exp
(xj )T 1 (xj ) , (2.5)
(2) 2 (det) 2 2 j=1
para quaisquer x1 , . . . , xn Rp .
15
Captulo 2 Componentes principais
correspondero s solues
b e
b que maximizam a funo
n
n 1X
L(, ) = (det) 2 exp (xj )T 1 (xj ) . (2.6)
2 j=1
Ento
n n
(xj )T 1 (xj ) = tr 1 (xj )(xj )T
X X
j=1 j=1
n
1
X
T
= tr (xj )(xj ) . (2.7)
j=1
1 Pn
Subtraindo e adicionando x = n j=1 xj a cada termo (xj ) em (2.7), obtm-se
n
X
(xj x + x )(xj x + x )T =
j=1
n
X n
X
= (xj x)(xj x)T + (x xj )(x )T
j=1 j=1
Xn
= (xj x)(xj x)T + n(x )(x )T . (2.8)
j=1
j=1
n
= tr 1 (xj x)(xj x)T + n(x )T 1 (x ).
X
(2.9)
j=1
16
2.2 Estimao em componentes principais
1 1 1
b
etr( B)/2 (2b)bp ebp (2.11)
(det) (detB)b
n
n X
Aplicando o lema anterior com b = e B = (xj x)(xj x)T , verifica-se
2 j=1
n
1X
que o mximo, relativamente a , ocorre em (xj x)(xj x)T . Obtm-
n j=1
n
1X
se assim, para e , os estimadores de mxima verosimilhana X = Xj e
n j=1
n
1X
17
Captulo 2 Componentes principais
Teorema 2. Suponhamos que a matriz tem valores prprios 1 > . . . > r com
multiplicidades m1 , . . . , mr , respetivamente, r p. Particionem-se as matrizes e
Q na forma
= [1 | 2 | . . . | r ] e Q = [Q1 | Q2 | . . . | Qr ],
1 n1 X
bi = lj , i = 1, 2, . . . , r,
mi n jD
i
b i no-negativo, i = 1, 2, . . . , r.
meiro elemento em cada coluna de
18
2.2 Estimao em componentes principais
n 1
g() = log det(Y T ) tr (Y T )1 (n 1)QLQT
2 2
p !
n Y n 1 1 T
= log i tr Y QLQT
2 i=1
2
k
! p
n Y n Y n 1 1 T
= log i log j tr Y P LP
2 i=1
2 j=k+1
2
k
nX n(p k) n 1 1 T
= log i log tr Y P LP ,
2 i=1 2 2
19
Captulo 2 Componentes principais
k p
nX n(p k) n1X
g() = ln i ln li
2 i=1 2 2 i=1
n 1 1
+ tr Ik 1
Y1 P T
1 LP1 (2.13)
2
k k
n1X n1X li
li . (2.14)
2 i=1 2 i=1 i
k p k
nX n(p k) n1 X n1X li
g() = ln i ln li ,
2 i=1 2 2 i=k+1 2 i=1 i
n1
bi = li , i = 1, . . . , k
n
e
p
n1 X
b= lj .
(p k)n j=k+1
20
2.2 Estimao em componentes principais
21
Captulo 2 Componentes principais
n
1 X h
T
i 1
Cov(X) = 2
E (Xj )(Xj ) = ,
n j=1 n
h i
uma vez que E Xj )(Xj )T corresponde matriz de varincias-covarincias
do vetor aleatrio Xj e este tem a mesma distribuio de X, j = 1, . . . , n.
Vamos ento verificar que E(S) = .
Tem-se
n
X n
X n
X
(Xj X)(Xj X)T = (Xj X)XTj + (Xj X) (X)T
j=1 j=1 j=1
n
X T
= Xj XTj nX X ,
j=1
n n
X T X
tendo em conta que XTj = nX e (Xj X) = 0.
j=1 j=1
Ento
n
1 X n T
E(S) = E Xj XTj E XX
n 1 j=1 n1
n h T
i
= E XXT E X X , (2.15)
n1
1
Analogamente, como E(X) = e Cov(X) = n , tem-se
T
1
E XX = + T . (2.17)
n
22
Captulo 3
Anlise fatorial
23
Captulo 3 Anlise fatorial
X = F + (3.1)
onde
11 12 . . . 1m
21 22 . . . 2m
T T
F = [F1 F2 . . . Fm ] , = [1 2 . . . p ] e = .
. .. ..
. . .
p1 p2 . . . pm
Assume-se que:
E(F) = 0;
E() = 0;
Cov(F) = I;
1 0 ... 0
0 2 . . . 0
Cov() = = ;
.. .. ..
. . .
0 0 . . . p
Os vetores F e so independentes.
24
3.1 Modelo ortogonal
= T + . (3.2)
De facto,
= T + ,
Cov(Xi , Fj ) = ij , i = 1, 2, . . . , p, j = 1, 2, . . . , m.
2 2 2
V (Xi ) = i1 + i2 + + im + i , i = 1, 2, . . . , p.
O valor
h2i = i1
2 2
+ i2 2
+ + im
X = F + = T T T F + = F + ,
25
Captulo 3 Anlise fatorial
= T + = T T T T + = ( )T + .
onde rij e vij so, respetivamente, os elementos na posio (i, j) da matriz de corre-
h 1
i1
laes amostral, R, e da matriz V = U R1 U , na qual U = (diag R1 ) 2 . Note-se
que diag R1 a matriz cuja diagonal coincide com a diagonal de R1 mas com os
1
restantes elementos nulos e (diag R1 ) 2 a matriz diagonal cujo i-simo elemento
26
3.3 Extrao dos fatores
Kaiser props a seguinte relao entre o valor do KMO e o uso da anlise fatorial
Nesta seco apresentam-se dois dos mtodos mais usados na extrao dos fa-
tores, nomeadamente o mtodo das componentes principais e o mtodo da mxima
verosimilhana. No primeiro caso no so exigidas condies que envolvam distri-
buies de probabilidade, o que j no acontece no segundo caso, no qual se exige
a normalidade do vetor aleatrio X. Neste trabalho, o mtodo das componentes
principais estudado com mais detalhe.
A soluo para o modelo fatorial apresentada pelo mtodo das componentes princi-
pais, escolhe para os m fatores as primeiras m componentes principais, Y1 , . . . , Ym
(obtidas da matriz de varincias-covarincias, , de X ou da correspondente ma-
triz de correlaes, C), divididas pelo respetivo desvio-padro. Mais precisamente,
Yj
Fj = p , j = 1, 2, . . . , m, uma vez que, recorde-se, V (Yj ) = j , sendo j o
j
j-simo maior valor prprio de (ou de C). Desta forma, tem-se V (Fj ) = 1. Re-
cordemos ainda que, associado ao valor prprio j , temos o vetor prprio normado
ej = [e1j e2j ... epj ]T e que Cov(Xi , Yj ) = j eij . Alm disso, como foi verificado na
27
Captulo 3 Anlise fatorial
Como j foi referido, as variveis cujos pesos fatoriais so mais elevados num
determinado fator so as que contribuem para a determinao desse fator. Se for
usada a matriz R para a estimao dos pesos fatoriais, muitas vezes consideram-se
significativos os pesos fatoriais superiores ou iguais a 0.5, por serem responsveis por
pelo menos 25% da varincia total ([7], pg. 490).
A aplicao deste mtodo exige que a distribuio do vetor aleatrio X seja normal
multivariada, Np (, ). A funo de verosimilhana ento definida pela expresso
28
3.4 Escolha do nmero de fatores
29
Captulo 3 Anlise fatorial
Nestes grficos temos uma linha poligonal que decresce rapidamente nos pri-
meiros fatores. Estes assumem um papel de maior importncia na anlise
fatorial no sentido em que explicam a maior parte da varincia total. Por
este critrio, o nmero timo de fatores obtido quando a variao da expli-
cao entre fatores consecutivos passa a ser pequena. Por exemplo, no caso
correspondente figura 3.1 devem ser considerados 4 fatores.
Nmero Estudante 1 2 3 4 5
X1 6 14 19 7 18
X2 12 8 17 16 13
X3 10 8 18 15 11
30
3.4 Escolha do nmero de fatores
1 0.095 0.239
R=
0.095 1 0.949
0.239 0.949 1
Para estimar a matriz de pesos fatoriais, , vamos utilizar o mtodo das componen-
tes principais. Os valores prprios da matriz R so l1 = 2.0032, l2 = 0.9576 e l3 =
0.0391. Os correspondentes vetores prprios normados so q1 = [0.2238 0.6809 0.6974]T ,
q2 = [0.9570 0.2397 0.0861]T e q3 = [0.1160 0.6921 0.7124]T .
Sendo Z = [Z1 Z2 . . . Z3 ]T o vetor das variveis standardizadas, as componentes
principais so dadas por
l1
100% = 66.77%
l1 + l2 + l3
l2
100% = 31.92%
l1 + l2 + l3
l3
100% = 1.3%.
l1 + l2 + l3
Como a percentagem de varincia total explicada pelas duas primeiras componentes
principais 98.69%, as variveis originais podem ser substitudas por Y1 e Y2 sem
perda segnificativa de informao.
De acordo com o critrio da percentagem de varincia total explicada, vamos ter
dois fatores. O modelo de anlise fatorial neste exemplo dado por
Z1 = 11 F1 + 12 F2 + 1
Z2 = 21 F1 + 22 F2 + 2
Z3 = 31 F1 + 32 F2 + 3 .
31
Captulo 3 Anlise fatorial
Z1 = 0.3168F1 + 0.9463F2 + 1
Z2 = 0.9637F1 0.2346F2 + 2
Z3 = 0.9871F1 0.0843F2 + 3 .
onde
b eb representam os estimadores de mxima verosimilhana de e , respe-
32
3.5 Rotao dos fatores
J foi referido que qualquer rotao ortogonal da matriz dos pesos fatoriais, ,
gera a matriz de varincias-covarincias (ou a matriz de correlaes, se for esta
a matriz usada na sua determinao). Por outro lado, os m fatores podem ser
interpretados como um sistema de eixos ortogonais dois a dois. Neste sistema de
eixos, representemos cada um dos p pontos (1i , i2 , . . . , im ), i = 1, . . . , p. Com o
objetivo de tornar os pesos fatoriais elevados ainda mais elevados e os pesos fatoriais
baixos ainda mais baixos, facilitando a interpretao, podem ser efetuadas rotaes
dos fatores. Relativamente aos novos eixos fatoriais os p pontos acima referidos tm
outras coordenadas, que correspondem aos pesos fatoriais depois da rotao.
O mtodo Varimax foi proposto por Kaiser em 1968. Sendo T uma matriz
ortogonal, L = T uma matriz que representa a matriz dos pesos fatoriais rota-
cionada. Seja o ngulo de rotao correspondente e lij = lij (), i = 1, 2, . . . , p e
j = 1, 2, . . . , m, o elemento genrico da matriz L. No mtodo Varimax pretende-se
encontrar o ngulo que maximiza a funo () dada por
p
m X 2 p
m X m
d2ij dj d2j ,
X X X
() = = d4ij p (3.4)
j=1 i=1 j=1 i=1 j=1
33
Captulo 3 Anlise fatorial
onde
p
lij 1X 2
dij = e dj = d .
hi p i=1 ij
Deste modo, d2ij representa o quadrado do peso fatorial lij normalizado pela comu-
nalidade da varivel Xi , h2i , e, para cada j = 1, . . . , m, dj representa a mdia dos
valores d2ij , i = 1, . . . , p. Quando se toma o mximo de , impe-se que a diferena
d2ij dj , i = 1, 2, . . . , p e j = 1, 2, . . . , m, seja o maior possvel, ou seja, conseguem-se
pesos fatoriais extremos, obtendo-se assim varincia mxima.
Vamos analisar com mais pormenor o caso m = 2. Para este caso, sabe-se que a
matriz
cos sin
T =
sin cos
1
Uma vez que (A2 + B 2 ) 2 > 0, podemos multiplicar e dividir o segundo membro de
(3.5) por esta constante, obtendo-se
" #
1 1 A B 1
() = (A2 + B 2 ) 2 cos(4) 1 + sin(4) 1 + C. (3.6)
4 2 2
(A + B ) 2 (A + B 2 ) 2
2 4
34
3.6 Scores fatoriais
A B
Como 1 1 1 e 1 1 1, existe um tal que
(A2 + B 2 ) 2 (A2 + B 2 ) 2
A B
cos = 1 e sin = 1 . Substituindo em (3.6) obtm-se
(A2 + B 2 ) 2 (A2 + B 2 ) 2
1 1 1
() = (A2 + B 2 ) 2 [cos(4) cos + sin(4) sin ] + C
4 4
1 2 1 1
= (A + B 2 ) 2 cos(4 ) + C
4 4
sin B
tan = = .
cos A
Para encontrar o quadrante de uma possvel rotao basta analisar os sinais do seno
e coseno na equao anterior.
Como vimos em (3.1), o modelo fatorial pode ser escrito na forma matricial
X = F + .
35
Captulo 3 Anlise fatorial
(cf. [3], pg. 430). Consideram-se agora como verdadeiros valores para e as
estimativas obtidas para estas matrizes por um dos mtodos referidos, as quais re-
presentamos por e , respetivamente. Alm disso considera-se como verdadeiro
valor de o vetor mdia da amostra, x. Desta forma os scores fatoriais para o j-
simo indivduo da amostra so as m componentes do vetor
1
fj = T ( )1 T ( )1 (xj x), (3.8)
mF|x = T (T + )1 (x ) e CovF|x = I T (T + )1 .
36
3.6 Scores fatoriais
Para uma informao mais completa sobre a obteno dos scores fatoriais pode
consultar-se [3], pgs. 429-434.
possvel relacionar os scores factoriais obtidos pelo mtodo dos mnimos quadrados
ponderados e pelo mtodo da regresso, quando, em (3.8), usamos =
b e = .
b
fR b T b 1 b 1 b T b 1 b M Q
j = (I + ) fj (3.10)
1
b 1
I= b b 1
bT + I b I + b 1
bT b b 1
bT bbT +
b ,
37
Captulo 3 Anlise fatorial
b T (
Lema 6. b b 1 = (I +
b T + ) b 1 )
bT b 1 b 1
bT
b 1 (xj x) =
bT
bT b fM Q .
b 1
j
38
Captulo 4
Exemplo de aplicao da
Anlise Fatorial
39
Captulo 4 Exemplo de aplicao da Anlise Fatorial
A normalidade de cada uma das variveis que entra no estudo no garante a nor-
malidade do correspondente vetor aleatrio, X. No entanto, se uma das variveis
no for normal, o vetor no normal. Como queremos testar a normalidade de cada
varivel isoladamente, utilizamos o procedimento pairwise para tratar os missings.
De acordo com este procedimento usamos todos os dados disponveis para cada va-
rivel. Tendo em conta que a dimenso das amostras em estudo varia entre 75 e 108,
o teste mais indicado para testar a normalidade o teste de Kolmogorov-Smirnov
com correo de Lilliefors. Os resultados correspondentes encontram-se na figura
4.1. Verificamos que, ao nvel de significncia 0.05, apenas uma delas pode ser con-
siderada normal e, mesmo esse caso tem associado um p-valor muito baixo (0.052).
40
4.2 Aplicao da anlise fatorial
41
Captulo 4 Exemplo de aplicao da Anlise Fatorial
42
4.2 Aplicao da anlise fatorial
43
Captulo 4 Exemplo de aplicao da Anlise Fatorial
44
4.2 Aplicao da anlise fatorial
45
Captulo 4 Exemplo de aplicao da Anlise Fatorial
46
4.2 Aplicao da anlise fatorial
47
Captulo 4 Exemplo de aplicao da Anlise Fatorial
48
Bibliografia
[4] D. N. Lawley, Test of Significance for the Latent Roots of Covariance and
Correlation Matrices, Biometrika, 43, 128-136, 1956.
[5] J. Maroco, Anlise Estatstica, com utilizao do SPSS, Edies Slabo, 3a Edi-
o, Lisboa, 2007.
[6] R. J. Muirhead, Aspects of Multivariate Statistical Theory, John Wiley & Sons,
Inc., New York, 1982.
49