Академический Документы
Профессиональный Документы
Культура Документы
INFORMAO NA MODELAO
ECONMICA
Andreia Dionsio*, Rui Menezes** e Diana Mendes
In Temas em Mtodos Quantitativos 3, ed. Elizabeth Reis e Manuela Magalhes
Hill; Edies Slabo, Lisboa, Fevereiro de 2003
RESUMO:
Neste artigo, analisada a entropia como medida de informao e incerteza na
modelao econmica. Tal aplicao justificada pelas limitaes apresentadas
pelos tradicionais modelos econmico-financeiros, nomeadamente quanto forma
como medida a incerteza, e pelas similaridades existentes entre a fsica, a teoria
da informao e a teoria econmico-financeira. A forma como a entropia adoptada
pela teoria da informao, assumindo-se como a incerteza patente numa
determinada distribuio de probabilidade utilizada no seio da teoria econmica,
que a encara como medida de disperso global, de incerteza e, acima de tudo,
como medida de informao, revelando-se eficaz na avaliao de activos
financeiros e de mercados. So dados alguns exemplos de aplicao, sendo de
realar as similitudes existentes entre a entropia e informao mtua e a regresso
linear.
PALAVRAS-CHAVE:
Entropia, informao mtua, incerteza, distribuio de probabilidade
1 Introduo
A afectao eficiente dos recursos definida em termos do total de informao
fornecida, transmitida e recebida. A partir do momento que esta afectao ocorre
em ambientes cada vez mais competitivos e volteis, a adopo da entropia como
medida de disperso global, informao e incerteza na anlise dos dados torna-se
ferramenta de crescente importncia. O conceito de entropia surge em 1865,
introduzido por Clausius, como caracterizao da Segunda Lei da Termodinmica:
A energia do universo constante e a sua entropia est a aumentar
continuamente. Segundo a Primeira Lei da Termodinmica, no h destruio da
energia global, h sim, de acordo com a Segunda Lei, uma diminuio do nvel da
sua qualidade, logo uma diminuio daquela que disponvel ou utilizvel.
A entropia cada vez mais utilizada na teoria econmico-financeira como medida
de informao e de incerteza na avaliao de ttulos, carteiras e mercado, dado que
ultrapassa as principais limitaes inerentes aos modelos vulgarmente utilizados
que pressupem a utilizao da distribuio normal de probabilidade.
Por exemplo, Finkelstein e Friedberg em 1967, assim como Horowitz e Horowitz em
1968 utilizam a entropia como medida da concentrao industrial e competitividade
do mercado (Philippatos et al, 1972).
Fama (1965) e Philippatos (1973) propem a utilizao de medidas especficas da
teoria da informao para testar a eficincia da Bolsa de Nova Iorque (N.Y.S.E.).
Para alm destes estudos existem tambm trabalhos direccionados para a
economia e processo econmico, onde a entropia parte integrante da anlise
realizada como exemplo o trabalho desenvolvido por Georgescu-Roegen (1971).
Zellner (1996) cita no seu trabalho a investigao realizada por Good e Savage,
cuja minimizao da entropia relativa aplicada definio da funo utilidade do
investidor avesso ao risco conduzindo maximizao da utilidade do indivduo.
Fernholz, (1999) analisa a entropia como medida de diversificao nos mercados
financeiros. Segundo Philippatos e Wilson (1972), a entropia apresenta diversas
vantagens face aos modelos tradicionais de gesto e seleco de carteiras. Buchen
e Kelly (1996), aps analisarem o mercado bolsista de derivados concluram que a
pouca informao existente neste mercado pe em causa a correcta seleco da
funo de distribuio de probabilidade subjacente realidade. Os autores
consideram que a nica forma de seleccionar a funo de distribuio correcta ser
seguir o Princpio da Mxima Entropia (PME). Gulko (1998) desenvolve um trabalho
similar ao desenvolvido por Nawrocky em 1976, simplesmente, o objectivo
encontrar o equilbrio de mercado. Neste sentido, o autor constri um modelo onde
a entropia maximizada sujeita a determinadas restries. defendida a Entropy
Pricing Theory como principal caracterstica da eficincia do mercado. Samperi
(1999) desenvolve um modelo de seleco e avaliao de derivados com base na
maximizao da entropia, concluindo que desta forma a gesto do risco muito
mais eficiente que a realizada pelos tradicionais modelos de gesto de carteiras.
1/2
1/3
1/2
2/3
1/2
1/6
1/3
D
Fonte: (Shannon at al, 1948)
1 1 1
1 1 1 2 1
H , , =H , + H , .
2 3 6
2 2 2 3 3
ph =
freq (C , N )
X
(1)
freq(C , N )
,
X
log2
H (X)
=1
freq (C , N )
X
freq (C , N )
.log2
(2)
Se a entropia satisfaz as cinco condies atrs enunciadas, ento pode ser dada
pela seguinte expresso:
n
H = - K pi log pi ,
(3)
i =1
1,2
Entropia (bits)
1
0,8
0,6
0,4
0,2
0
0
0,1
0,2
0,3
0,4
0,5
0,6
Probabilidade
0,7
0,8
0,9
H ( X , Y ) = - p ( i , j ) log p ( i , j ) ,
(4)
i, j
enquanto que:
H ( X ) = - p ( i , j ) log
i, j
H (Y
p ( i, j )
= - p ( i , j ) log p ( i , j ) .
i, j
(5)
(6)
Verifica-se que
H ( X , Y ) H ( X ) + H (Y ) ,
(7)
p (i | j )
p( j | i) =
p(i , j )
p ( i, j )
j
(8)
H (Y | X ) = - p ( i , j ) log p ( j | i ) .
(9)
i, j
H (Y | X ) = - p ( i , j ) log p( i , j ) + p ( i , j ) log p( i , j )
i, j
i, j
(10)
= H( X, Y ) - H( X )
ou seja:
H ( X ,Y ) = H( X ) + H (Y | X ) .
(11)
H ( X ) + H (Y ) H ( X , Y ) = H ( X ) + H (Y | X )
Logo
H (Y ) H (Y | X )
(12)
0 H (Y | X ) H (Y ) .
(13)
I (Y ; X ) = H (Y ) - H (Y | X ) ,
(14)
H (Y)
H|I
I (X, Y)
H (Y | X)
p
Deste modo, poder afirmar-se que existe uma relao entre ganho de informao
e nvel de entropia, como est descrito no quadro abaixo apresentado
Se
I (Y , X ) = 0
H (Y ) = H (Y | X ) ;
Se
I (Y , X ) = H (Y )
H (Y | X ) = 0 ;
X e Y so estatisticamente independentes.
H = - pi log2 pi .
i =1
H = - p ( x ) log p( x )dx
-
(15)
(16)
(17)
H (Y ) H (Y | X )
Logo
p (x) =
- ln p ( x ) = ln
H (x) = -
- ( x x )
2
x
x
2 +
2
2
p (x)
ln p ( x ) dx
2
x
x
dx
2 dx + p ( x )
2
2
= p ( x ) ln
= ln 2 +
2 2
2
= ln 2 + ln e
= ln
2 e
(18)
Caso se utilizem bits como unidade para a entropia, a base do logaritmo ser 2,
sofrendo a equao a seguinte alterao:
H ( X ) = log2 + log2 2 +
= log2
2 e
log2 e
2 .
(19)
Existe uma importante diferena entre a entropia para distribuies discretas e para
distribuies contnuas, uma vez que em distribuies discretas a entropia mede a
aleatoriedade absoluta, enquanto que no caso contnuo esta medida relativa face
ao sistema de coordenadas. Se houver uma alterao das coordenadas a entropia
sofre alteraes.
Considerando X uma varivel aleatria com distribuio de probabilidade contnua
p(x), pode-se dividir a extenso de X em blocos com amplitude xi , onde
xi = xi +1 xi (i = 1, 2, ..., n ) . Surge ento, uma nova varivel U que pode ser
descrita por:
U = ui se xi X xi +1 .
(20)
ui
P (U = ui ) = pi =
xi +1
p ( x )dx .
(21)
xi
ui ( xi ui xi +1 ) , tal que:
p ( ui ) xi =
xi +1
p ( x )dx .
(22)
xi
pi = p ( ui ) xi
Utilizando a forma de clculo discreta para a entropia:
(23)
xi ,
H (U ) = pi log2 pi =
= p (ui ) xi log2 p ( ui ) xi
(24)
(25)
lim H (U ) =
n +
p ( x ) log p ( x ) dx log
2
(26)
assim definida, log2 diverge medida que diminui, ou tende para zero.
Verifica-se que a entropia de uma varivel contnua no igual entropia de uma
varivel discreta. A diferena surge quando, no limite, o nmero de variveis tende
para infinito e respectiva entropia tambm infinita.
A entropia de uma varivel contnua pode ser negativa. Por exemplo, considerando
uma varivel distribuda uniformemente no intervalo (0,b), a funo densidade
probabilidade 1/b e a entropia log2 b. Claramente se b<0, obtm-se uma
entropia negativa (Fieldman, 1998).
Nas distribuies discretas a entropia mede o valor absoluto da aleatoriedade
existente nas variveis. No caso contnuo, a entropia mede a aleatoriedade relativa
face a um sistema. Deste modo, a entropia de uma distribuio contnua pode
assumir valores negativos, caso a escala escolhida, por exemplo, para uma
distribuio uniforme seja de entropia nula, qualquer distribuio que apresente um
maior nvel de concentrao ter entropia negativa (Verdugo et al, 1978).
A entropia no se altera pela soma de uma constante varivel:
H [X + l] = H [X] ,
(27)
H [ bX ] = H [ X ] + log2 b
(28)
Se
H A X = H X + log2 A ,
(29)
Philippatos e Wilson (Philippatos et al, 1972), Garner e McGill (Garner et al, 1956)
evidenciada no seguinte quadro
Teoria da informao
Soma de Quadrados da
Regresso
SQR =
- X
Informao Mtua
Entropia Condicional
SQE =
_
_
- Y - 2 Xi - X
SQT = Yi - Y
H (Yi )
Similaridades
Ambas as medidas reflectem a
variao da varivel dependente
que explicada pela varivel
independente.
A variao da varivel
dependente que no explicada
pela varivel independente,
evidenciada pelo SQE e pela
entropia condicional.
As medidas reflectem a
disperso total existente na
varivel dependente.
de X.
Como j foi referido nesta seco, a entropia condicional pode ter como valor
mximo H (Yi ) , constatando-se que Y e X so perfeitamente independentes. Se
existir total independncia, ento o ajustamento da recta de regresso ser nulo, ou
seja R 2 = 0 .
H (Yi | X i )
H (Yi | X i ) = H (Yi )
H (Yi )
= 1
(30)
H (Yi | X i ) = 0
H (Yi | X i )
H (Yi )
= 0 , logo R 2 = 1
(31)
I (Yi , X i )
(32)
H (Yi )
H ( X ) =
=
1
1
log2
N (E )
N ( E )
1
(log2 1 Log 2N ( E ) )
N (E )
(33)
= log2 N ( E ) = S ( E )
H ( X ) = ( log2 P ( x )) P ( x ) = log2 P ( x )
(34)
e a processos de
( )
(36)
(37)
SL
h lim
H (L )
(38)
Se
(39)
ou:
h = lim H ( L + 1) H ( L )
L
(40)
4 Concluses
A aplicao de modelos oriundos da fsica e da teoria da informao teoria
econmico-financeira poder ser explicada pelas similaridades que a economia
financeira e a fsica tm apresentado, sendo enumerados estudos e investigaes
que contam com a parceria destas cincias. A entropia uma medida oriunda da
fsica que mede a desordem inerente a um sistema. Este conceito surge no seio da
fsica como caracterizao da Segunda Lei da Termodinmica, sendo entendida
como desordem. Mais tarde foi adoptado por vrias reas da cincia,
nomeadamente pela teoria da informao e pela teoria econmico-financeira.
A forma como a entropia adoptada pela teoria da informao, assumindo-se como
a incerteza patente numa determinada distribuio de probabilidade tambm
utilizada no seio da teoria econmica, que encara a entropia como medida de
disperso global, de incerteza e, acima de tudo, como medida de informao,
revelando-se eficaz na avaliao de activos financeiros e de mercados.
Bibliografia
Buchen, P. W. e Kelly, M. 1996. The Maximum Entropy Distribution of an Asset
Inferred from Option Prices, Journal of Financial and Quantitative Analysis,
31, 1.
Dionsio, A. 2001. Anlise da entropia como medida de incerteza e valor ordinal da
informao no mercado bolsista de aces portugus, Tese de Mestrado no
publicada, Universidade de vora
Theory
of