Академический Документы
Профессиональный Документы
Культура Документы
LAVRAS - MG
2013
TADEU VILELA DE SOUZA
Orientador
Dr. Joo Domingos Scalon
LAVRAS - MG
2013
fantasma
CDD - 519.535
TADEU VILELA DE SOUZA
LAVRAS - MG
2013
A meus pais Maria Anlia e Geiel,
pela dedicao, apoio, amor e educao.
A minha irm Elaine,
pelo incentivo, carinho e conselhos.
DEDICO
AGRADECIMENTOS
A Deus, pela oportunidade de estudar e pela fora dada para aguentar firme
os momentos difceis.
Aos maiores merecedores da minha gratido, minha me Maria Anlia,
meu pai Geiel e minha irm Elaine, pessoas a quem dedico incondicionalmente
meus agradecimentos.
minha namorada, Brunna, pela compreenso, apoio e tolerncia em to-
dos os momentos.
A todos os meus familiares e amigos, pelo apoio, carinho e momentos de
alegrias inesquecveis passados juntos.
Ao meu orientador Joo Domingos Scalon, pelos conhecimentos e es-
clarecimentos intelectuais, pela confiana em mim, pela pacincia e compreenso
das minhas dificuldades e por me aceitar como seu orientando.
Aos professores membros da minha banca pelas importantes contribuies
nesta dissertao, por serem receptivos e gentis ao me receberem em seus gabinetes
e por participarem da minha qualificao e defesa.
Universidade Federal de Lavras (UFLA) e ao Departamento de Cincias
Exatas (DEX), por oferecer estrutura e acolhimento nessa oportunidade de cursar
o mestrado.
Aos professores do programa de ps-graduao em estatstica e experi-
mentao agropecuria da UFLA, pelas importantes e teis contribuies na minha
formao durante as suas disciplinas.
s funcionrias do DEX: Edila, Josiane Cristina, Josiane Oliveira, Kelly,
Maria, Miriam e Selma, pela dedicao ao depertamento e s pessoas que o fre-
quentam.
Fundao de Amparo Pesquisa do estado de Minas Gerais (FAPEMIG),
pela bolsa de estudos que tornou financeiramente possvel a realizao do mestrado.
A todos que contriburam de forma direta ou indireta para a realizao
deste trabalho.
RESUMO
Figura 1 Diagrama causal ilustrativo dos efeitos das variveis explicativas (X1 , X2 , X3 )
e residual () sobre a varivel bsica (dependente) Y . . . . . . . . . 34
Figura 2 Diagrama em cadeia ilustrativo dos efeitos das variveis explicativas
primrias e secundrias sobre a varivel bsica . . . . . . . . . . . . 40
Figura 3 Diagrama ilustrativo do primeiro modelo causal . . . . . . . . . . . 40
Figura 4 Diagrama ilustrativo do segundo modelo causal . . . . . . . . . . . 41
Figura 5 Diagrama ilustrativo do terceiro modelo causal . . . . . . . . . . . . 42
Figura 6 Diagrama causal, onde tem-se o comprimento da plntula (CPL) como
varivel bsica e como variveis explicativas tem-se o peso seco da
plntula (PSPL), nmero de explantes para micropropagao (EXPL),
nmero de gemas (NG) e peso da plntula com gua (PA) . . . . . . . 60
Figura 7 Diagrama causal em cadeia, onde a produo de gros (PROD) a
varivel bsica, o peso de 100 gros (P100), peso total de gros (PT), e
nmero de gros por planta (NGP) so as variveis primrias, e a altura
da planta (AP), altura de espiga (AE) e dimetro do colmo (DC) so as
variveis secundrias . . . . . . . . . . . . . . . . . . . . . . . . 65
Figura 8 Primeiro diagrama causal da anlise de trilha em cadeia . . . . . . . 67
Figura 9 Grfico do trao da crista, que representa a variao no valor dos
coeficientes da regresso com diversos valores de c . . . . . . . 68
Figura 10 Segundo diagrama causal da anlise de trilha em cadeia . . . . . . . . 71
LISTA DE TABELAS
1 INTRODUO . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 REFERENCIAL TERICO . . . . . . . . . . . . . . . . . . . 15
2.1 Correlaes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Coeficiente de correlao linear de Pearson . . . . . . . . . . 17
2.1.2 Coeficiente de correlao mltipla . . . . . . . . . . . . . . . 18
2.1.3 Coeficiente de correlao parcial . . . . . . . . . . . . . . . . 19
2.2 Anlise de regresso . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Anlise de regresso linear mltipla . . . . . . . . . . . . . . . 21
2.2.1.1 Estimao dos parmetros de regresso . . . . . . . . . . . . 23
2.3 Anlise de trilha . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Escolha do diagrama de trilha . . . . . . . . . . . . . . . . . . 30
2.3.1.1 Mtodo da correlao parcial . . . . . . . . . . . . . . . . . . 31
2.3.1.2 Mtodo da decomposio hierrquica . . . . . . . . . . . . . . 32
2.3.2 Desdobramento das correlaes e estimao dos coeficientes
de trilha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.2.1 Anlise de trilha em cadeia (mais de um modelo causal) . . . 39
2.3.3 Multicolinearidade . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.4 Diagnstico de Multicolinearidade . . . . . . . . . . . . . . . 44
2.3.4.1 Anlise da matriz de correlao . . . . . . . . . . . . . . . . . 44
2.3.4.2 Teste do determinante da matriz de correlao . . . . . . . . 44
2.3.4.3 Anlise dos autovalores e autovetores da matriz de correlao 45
2.3.4.4 Fatores de inflao da varincia . . . . . . . . . . . . . . . . . 47
2.3.4.5 Teste de Farrar e Glauber . . . . . . . . . . . . . . . . . . . . 47
2.3.5 Mtodos alternativos de estimao quando existe multicoline-
aridade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3.5.1 Regresso em crista . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3.5.2 Regresso em componentes principais . . . . . . . . . . . . . 50
3 METODOLOGIA . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1 Dados experimentais . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.1 Experimento 1 - Maracuj (Passiflora giberti N.E. Brown) . . 53
3.1.2 Experimento 2 - Milho . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Anlises estatsticas . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2.1 Anlise exploratria . . . . . . . . . . . . . . . . . . . . . . . 55
3.2.2 Escolha do diagrama causal . . . . . . . . . . . . . . . . . . . 56
3.2.3 Estimao e desdobramento das correlaes . . . . . . . . . . 56
4 RESULTADOS E DISCUSSO . . . . . . . . . . . . . . . . . 59
5 CONCLUSO . . . . . . . . . . . . . . . . . . . . . . . . . . 76
REFERNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . 77
13
1 INTRODUO
2 REFERENCIAL TERICO
2.1 Correlaes
Cov(X, Y ) X,Y
rXY = p =
V (X).V (Y ) X Y
rXY n 2
tc = q
2
1 rXY
Uma vez que existe relao entre a anlise de correlao mltipla e re-
gresso mltipla, tambm possvel, atravs da segunda, obter-se o coeficiente de
correlao mltipla pela raz quadrada do coeficiente de determinao da regresso
mltipla r2 : s
SQReg
rY,X1 ,X2 =
SQT otal
r2 /k
Fc = .
(1 r2 )/(n k 1)
como duas ou mais variveis esto relacionadas, uma com a outra, em certa po-
pulao. Enquanto a correlao d o nmero que resume a magnitude, ou o grau
de relacionamento entre as variveis, a anlise de regresso fornece um modelo
matemtico, que descreve esse relacionamento. Esse modelo pode ser utilizado
para estimar ou predizer valores futuros de uma varivel, quando se conhecem, ou
se supe conhecidos, os valores de outras variveis (COSTA NETO, 2009).
O modelo matemtico denominado modelo de regresso linear simples
se define a partir de uma relao linear entre a varivel dependente e uma vari-
vel independente. Se existirem vrias variveis independentes, o modelo passa a
denominar-se modelo de regresso linear mltipla (CHARNET et al., 2008).
Y = X + .
Y1 1 X11 X12 X1k 0 1
Y2 1 X21 X22 X2k 1 2
Y3 = 1 X31 X32 X3k . 2 + 3
.. .. .. .. .. .. .. ..
. . . . . .
. .
Yn 1 Xn1 Xn2 Xnk k n
Y = X + .
L = Y 0 Y 0 X 0 Y Y 0 X + 0 X 0 X = Y 0 Y 2 0 X 0 Y + 0 X 0 X.
X 0 X = X 0 Y.
1
= (X 0 X) X 0 Y.
h i h i
A esperana e a varincia desse estimador so: E = e V =
2 (X 0 X)1 . Desta forma, um estimador linear no tendencioso e com varin-
cia mnima, entre todos os estimadores lineares no tendenciosos.
erro heterocedstico:
Y = X + , (2.1)
onde:
E() = 0 e V ar() = H(X) 2 = W 1 2 , ou seja, N (0, W 1 2 ). Em que
H(X) uma funo das variveis explicativas, que determinam a heterocedas-
ticidade. Essa funo compe uma matriz simtrica (n n) e, para facilitar a
interpretao de clculos adiante, ser denominada W 1 , e W 1 uma matriz di-
agonal, positiva definida cujos elementos da diagonal so os pesos que ponderam
a varincia. Atravs da fatorao de Cholesky, possvel escrever a matriz W
como funo de uma matriz triangular superior P , de forma que W = P 0 P ou
W 1 = P 1 (P 0 )1 .
Multiplicando ambos os lados da equao 2.1 por P , obtm-se o modelo
com as variveis transformadas:
P Y = P X + P .
:
= (X 0 P 0 P X)1 (X 0 P 0 P Y ) = (X 0 W X)1 (X 0 W Y ).
h i
Esse um estimador no tendencioso, pois sua esperana E = , e
h i
com varincia constante igual a V = 2 (X 0 W X)1 .
Os resduos que devem ser analisados so estimados atravs da equao
u = P (Y Y ), e sabendo que Y = X , tm-se:
n n (Yi Xi )2
1
e
Y Y
2 2
L(Yi |X, , ) = f (Yi |X, , ) = 2 2
i=1 i=1 2 2
1 1 0
L(Yi |X, , 2 ) = n e 22 (Y X) (Y X) (2.2)
2 2
1 (Y X)0 (Y X)
2 n n 2
ln L(Yi |X, , ) = ln(2) ln( ) .
2 2 2 2
27
Simplificando, tem-se:
n n 1
ln L(Yi |X, , 2 ) = ln(2) ln( 2 ) 2 (Y 0 Y 2Y 0 X + 0 X 0 X).
2 2 2
ln L 1 1
= 2 (2X 0 Y + 2X 0 X) = 2 (X 0 Y X 0 X).
2
1 1
(X 0 Y X 0 X ) = 0 X 0 X = X 0 Y = (X 0 X) X 0 Y.
2
dentes, altamente correlacionadas. A seleo dessas variveis pode ser feita pelo
mtodo Stepwise de seleo de variveis, apesar desse procedimento ser, em al-
guns casos, questionvel (KOSACK; AZEVEDO, 2011). Uma outra maneira de
retirar variveis multicolineares usar a regresso em componentes principais.
Nesta tcnica, o procedimento consiste na excluso de variveis por intermdio
dos componentes principais correspondentes aos autovalores. Neste caso, vari-
veis com autovalores prximos de zero so removidas da anlise e o mtodo
dos mnimos quadrados aplicado aos componentes restantes (MONTGOMERY;
PECK, 1992).
Existem ainda, quando no se deseja retirar variveis, mtodos alternativos
estimao de mnimos quadrados para contornar os efeitos da multicolinearidade
e aumentar a estabilidade dos coeficientes de regresso. Embora esses mtodos
fornecerem estimadores tendenciosos, Gunst e Mason (1977) afirmam que eles
apresentam melhor desempenho quando comparados aos estimadores de mnimos
quadrados.
O mtodo de regresso em crista proposto por Hoerl e Kennard (1970a,
1970b) o mtodo alternativo aos estimadores de mnimos quadrados mais usado
para combater os problemas proporcionados pela multicolineridade. Segundo Cruz
e Carneiro (2003), o mtodo da regresso em crista consiste em obter estimativas
dos coeficientes de regresso a partir de uma verso ligeiramente modificada das
equaes normais. Maiores detalhes sobre como identificar e trabalhar com mul-
ticolinearidade sero apresentados nos captulos 2.3.4 e 2.3.5.
Xk ) alta, ento pode ser aceito que Xk participa da trilha causal entre Xi e Xj .
Essa diferena escrita da seguinte forma:
1998). Este passo realizado retirando-se pelo menos uma varivel independente
da equao de regresso mltipla, onde retira-se a varivel considerada mais dis-
tante ("menos importante") na sequncia causal e observa-se o coeficiente de corre-
lao mltipla da regresso. Se esse coeficiente diminuir acentuadamente significa
que a varivel independente em questo contribui significativamente para a causa
da varivel dependente. Se, por outro lado, a correlao mltipla no diminui
muito, ento a varivel independente sob considerao no contribui diretamente
para a causa da varivel dependente e, portanto, deve ser retirada da equao.
O critrio de deciso para o segundo passo fornecido pelo mtodo de
decomposio hierrquica e verifica que somente variveis com contribuio esta-
tisticamente significante para o coeficiente de determinao mltipla R2 devem ser
mantidas na equao. Para Brooks (1980), o mrito desta abordagem est em pro-
porcionar um limite de tolerncia para a multicolinearidade, permitindo a incluso
de uma varivel ou conjunto de variveis quando se adiciona uma informao re-
levante.
Figura 1 Diagrama causal ilustrativo dos efeitos das variveis explicativas (X1 , X2 , X3 )
e residual () sobre a varivel bsica (dependente) Y
em que:
Y Y
y= Y a varivel bsica padronizada;
Xi Xi
xi = Xi a varivel explicativa padronizada;
()
u= ;
p = Y o coeficiente da varivel residual na anlise de trilha; e
b
pyxi = Y XiY Xi o coeficiente da varivel explicativa na anlise de trilha.
Da expresso 2.6 tem-se que:
V (y) = V (pyx1 x1 ) + V (pyx2 x2 ) + V (pyx3 x3 ) + V (p u) + 2Cov(pyx1 x1 , pyx2 x2 )
+ 2Cov(pyx1 x1 , pyx3 x3 ) + 2Cov(pyx1 x1 , p u) + 2Cov(pyx2 x2 , pyx3 x3 )
+ 2Cov(pyx2 x2 , p u) + 2Cov(pyx3 x3 , p u)
1
Ento: Cov(y, xi ) = Y Xi [Cov(Y, Xi ) Cov(Y, Xi ) Cov(Y , Xi ) +
1
Cov(Y , Xi )] = Y Xi Cov(Y, Xi ) = rY Xi .
Xi Xi Xj Xj
3. Cov(xi , xj ) = Cov Xi , Xj
1
Ento: Cov(xi , xj ) = Xi Xj [Cov(Xi , Xj )Cov(Xi , Xj )Cov(Xi , Xj )+
1
Cov(Xi , Xj )] = Xi Xj Cov(Xi , Xj ) = rXi Xj .
Xi Xi
4. Cov(u, xi ) = Cov , Xi
1
Ento: Cov(u, xi ) = Xi [Cov(, Xi ) Cov(, Xi ) Cov(, Xi )
+ Cov(, Xi )] = 0.
V (y) = V (y) + p2 .
V (y) = p2yx1 + p2yx2 + p2yx3 + 2pyx1 pyx2 r12 + 2pyx1 pyx3 r13 + 2pyx2 pyx3 r23 .
Atravs da expresso:
V (y) = p2yx1 + p2yx2 + p2yx3 + 2pyx1 pyx2 r12 + 2pyx1 pyx3 r13 + 2pyx2 pyx3 r23
37
2
estima-se o coeficiente de determinao do modelo causal (R0.123 ), que mede os
efeitos das variveis explicativas (X1 , X2 , X3 ) sobre a varivel principal (Y ).
2
O coeficiente (R0.123 ) dado por:
2 SQRegressao
R0.123 =
SQT otal
Sabendo que:
n n
(yi y)2 = V (y) e SQT otal = (yi y)2 = V (y).
P P
SQRegressao =
i=1 i=1
O coeficiente de determinao pode ser representado por:
2 V (y)
R0.123 = .
V (y)
q
p = 2
1 R0.123
rY X1 1 r12 r13 r1k pyx1
rY X2 r21 1 r23 r2k pyx2
rY X3 = r31 r32 1 r3k . pyx3
.. .. .. .. .. .. ..
. . . . . .
.
rY Xk rk1 rk2 rk3 1 pyxk
significa que essa varivel explicativa influencia a varivel principal apenas indi-
retamente, sendo sua importncia s em conjunto. Se o coeficiente de trilha for,
em mdulo, maior que o coeficiente da varivel residual, isto ,
|pyxi | > p ,
Figura 2 Diagrama em cadeia ilustrativo dos efeitos das variveis explicativas primrias
e secundrias sobre a varivel bsica
Modelo:
y = pyx1 x1 + pyx2 x2 + p1 u1
Correlaes:
sistema:
rY X1 1 r12 pyx1
= .
rY X2 r21 1 pyx2
Modelo:
x1 = px1 z3 z3 + px1 z4 z4 + p2 u2
Correlaes:
Modelo:
x2 = px2 z3 z3 + px2 z4 z4 + p3 u3
Correlaes:
Correlaes:
2.3.3 Multicolinearidade
0 det(X) 1.
Segundo Belsey et al. (1980) e Silvey (1969) apud Carvalho e Cruz (1996),
as razes caractersticas ou autovalores da matriz de correlao X, denotados por
1 , 2 , ..., p podem ser usados no diagnstico de multicolinearidade. Pois, quando
uma ou mais dependncias lineares aproximadas, um ou mais autovalores sero
pequenos. Baseado nisto, Montgomery e Peck (1992) propuseram o mtodo da
anlise dos autovalores associados matriz de correlao X, onde a multicoline-
aridade diagnosticada pelo nmero de condies (NC) matriz de correlao X,
que a relao entre o maior e o menor autovalor da matriz de correlao, ou seja:
max
NC = .
min
X = T T 0 .
em que:
: matriz diagonal p p, cujos elementos da diagonal so os autovalores j (j =
1, 2, ..., p) da matriz X. Assim:
1 0 0
0 2 0
=
.. .. . . ..
. . . .
0 0 p
t11 t12 t1p
t21 t22 t2p
h i
T = t1 t2 tp =
.. .. .. ..
. . . .
tp1 tp2 tpp
(X 0 X + Ic) = X 0 Y
ou
= (X 0 X + Ic)1 X 0 Y,
h i 1
E = X 0 X + Ic X 0 X 6= ,
em cristas, embora seja ele tendencioso, seja menor do que o quadrado mdio do
erro do estimador de mnimos quadrados.
Para Montgomery e Peck (1992), se a multicolinearidade severa, ser
evidente a instabilidade nos coeficientes de regresso pelo trao de crista. A me-
dida que o valor de c aumenta, algumas estimativas em crista iro variar bastante,
e para algum valor de c, a estimativa em crista ser estvel. Ento, o objetivo
selecionar um valor razoavelmente pequeno de c, cujas estimativas em crista so
estveis, o que certamente produzir um conjunto de estimativas com um quadrado
mdio do erro QM E( ) menor que as estimativas de mnimos quadrados. Os
mesmos autores salientam que a escolha correta da constante c tem sido objeto
de muitas discusses acerca do emprego da regresso em crista, com diferentes
procedimentos propostos por vrios autores.
Hoerl e Kennard (1970b) sugerem que um valor apropriado de c pode ser
determinado pela inspeo do trao de crista. O trao de crista um diagrama
dos elemento de por c, para os valores de c normalmente no intervalo [0, 1].
Especificamente, um grfico bidimensional do valor de cada coeficiente versus
c, mostrando como os valores de variam em funo dos valores de c. Por meio
desse grfico pode-se analisar os efeitos da multicolinearidade sobre as estimativas
dos parmetros, mas a principal finalidade de sua construo a escolha do valor
da constante com o qual se obtm a regresso estimada. Dessa forma, a inspe-
o desse grfico permite escolher um valor de c que estabilize as estimativas dos
parmetros produzindo um quadrado mdio do erro menor que as estimativas de
mnimos quadrados.
y = Z + ,
0 1 0 0
= (Z Z) Z y = 1 Z y.
E a matriz de covarincia de :
0 1
V () = 2 (Z Z) = 2 1 .
p X
p
0 0
X
ZZ= Zi Zj = ,
i=1 j=1
CP = T ,
ps
0
X
CP = T CP = 1 1
j tj X ytj .
j=1
3 METODOLOGIA
cidos. Os parmetros dos modelos foram estimados pelo mtodo dos mnimos
quadrados quando no foi constatada a multicolinearidade entre as variveis inde-
pendentes. Mas, sendo a anlise de trilha uma forma de regresso mltipla, com
base em matrizes de correlao, a presena de multicolinearidade entre as vari-
veis independentes ocasiona problemas nas estimativas dos coeficientes de trilha,
impossibilitando a utilizao dos estimadores de mnimos quadrados. Nessa situ-
ao, diversos autores, como Carvalho et al. (1999), Espsito (2010), Oliveira et al.
(2010) e Rios et al. (2012), utilizaram a regresso em crista para a estimao dos
coeficientes de trilha e obtiveram resultados satisfatrios, conseguindo contornar
os efeitos da multicolinearidade. Dessa forma, na existncia de multicolinearidade
entre as variveis independentes, optou-se pela regresso em crista para eliminar
os efeitos acarretados pela multicolinearidade, e os parmetros foram estimados.
Portanto, antes de se realizar a estimao foi feito um diagnstico de multicoline-
aridade, para decidir qual a estratgia que ser usada na estimao desses coefi-
cientes. Para diagnosticar a multicolinearidade foi feita a anlise dos autovalores
e autovetores da matriz de correlao (MONTGOMERY; PECK, 1992).
Para que os resultados obtidos pelos estimadores dos parmetros possam
ser utilizados para se fazer algum tipo de inferncia sobre o desdobramento das
correlaes necessrio que alguns pressupostos sobre os resduos do modelo se-
jam atendidos. A anlise de resduos muito importante para verificar a adequabi-
lidade do modelo. Caso algum dos pressupostos no seja atendido, o modelo no
adequado e esta quebra de suposio deve ser corrigida ou incorporada ao modelo.
Essas pressuposies iniciais sobre os resduos (normalidade, independncia, ho-
mocedasticidade) foram testadas e avaliadas por testes de hipteses. E a deteco
de existncia de pontos influentes foi feita por anlise grfica atravs da distncia
de cook. Todos esses testes esto implementados no software R.
58
4 RESULTADOS E DISCUSSO
Figura 6 Diagrama causal, onde tem-se o comprimento da plntula (CPL) como va-
rivel bsica e como variveis explicativas tem-se o peso seco da plntula
(PSPL), nmero de explantes para micropropagao (EXPL), nmero de
gemas (NG) e peso da plntula com gua (PA)
Em que:
y a varivel bsica CPL padronizada;
xi so as variveis explicativas PSPL, EXPL, NG e PA padronizadas (i = 1, 2, 3, 4);
p0i so os coeficientes de trilha ou efeitos diretos das variveis explicativas PSPL,
EXPL, NG e PA sobre a bsica CPL (i=1,2,3,4);
p o efeito da varivel residual sobre a varivel principal; e
u o erro padronizado.
A anlise de trilha constitui uma extenso da regresso mltipla, onde os
parmetros da regresso so os coeficientes de trilha. Dessa forma, para que as
estimativas desses coeficientes sejam confiveis, uma vez que altas correlaes
62
Experimento II - Milho
Em que:
y a varivel bsica PROD padronizada;
xi so as variveis explicativas P100, PT e NGP padronizadas (i = 1, 2, 3, 4);
p0i so os coeficientes de trilha ou efeitos diretos das variveis explicativas P100,
68
Figura 9 Grfico do trao da crista, que representa a variao no valor dos coefi-
cientes da regresso com diversos valores de c
69
onde espigas com maior P100 tiveram efeito direto sobre o aumento da produtivi-
dade de gros.
O efeito indireto de P100 via PT e o efeito indireto de PT via P100 sobre
PROD tambm foram altos e maiores do que o efeito residual, reforando ainda
mais a importncia dessas duas variveis em relao a variao da produo de
gros. O que est de acordo com Ottaviano e Camussi (1981 apud IVANOVIC;
ROSIC, 1985), que em seu trabalho, atravs da anlise de trilha, verificaram existir
elevado efeito de componentes de rendimento sobre a produtividade de gros em
milho.
A varivel NGP apresentou uma razovel correlao positiva com a vari-
vel bsica, porm seu efeito direto no foi considervel. Dessa forma, verifica-se
que essa correlao ocorreu por influncia de P100 e PT, pois os efeitos indiretos
via essas duas variveis foram altos.
Tabela 6 Estimativas dos efeitos diretos e indiretos das variveis primrias sobre
a varivel bsica produo de gros (PROD).
Em que:
x1 a varivel primria P100 padronizada;
xi so as variveis explicativas AP, AE e DC padronizadas (i = 4, 5, 6);
p1i so os coeficientes de trilha ou efeitos diretos das variveis explicativas AP,
AE e DC sobre a bsica PROD (i=4,5,6);
p o efeito da varivel residual sobre a varivel principal; e
u o erro padronizado.
A multicolinearidade entre as variveis independentes foi testada pelo
nmero de condies da matriz de correlao, sendo encontrada uma multicoli-
nearidade fraca (N C = 3), assim os coeficientes de cada modelo que compem
73
r04 = p01 r14 + p02 r24 + p03 r34 = p01 (p14 + p15 r45 + p16 r46 )
+p02 (p24 + p25 r45 + p26 r46 ) + p03 (p34 + p35 r45 + p36 r46 )
5 CONCLUSO
REFERNCIAS
DRAPER, N. R.; SMITH, H. Applied regression analysis. 3rd ed. New York: J.
Wiley, 1998. 706 p.
HAIR, J. F. et al. Multivariate data analysis. 5th ed. New Jersey: Prentice-Hall,
1998. 730 p.
IVANOVIC, M.; ROSIC, K. Path coefficient analysis for three stalk traits and
grain yield in maize (Zea mays L.). Maydica, Bergamo, v. 30, p. 233-239, 1985.
______. Principles and practice of structural equation modeling. 3rd ed. New
York: The Guilford, 2011. 427 p.
NETER, J. et al. Applied linear statistical models. 5th ed. New York:
McGraw-Hill/Irwin, 2005. 1396 p.
RENCHER, A. C.; SCHAALJE, G.B. Linear models in statistics. 2nd ed. New
Jersey: J. Wiley, 2008. 672 p.