Вы находитесь на странице: 1из 315

A EVOLUÇÃO DO PENSAMENTO ECONÔMICO

UM PASSEIO A MARGEM DO CAOS

SUMÁRIO
Agradecimentos………………………………………………………………. X
Prefácio…………………………………………………………………….... Y
PARTE 1 : CAOS
1 Uma nova visão econômica………………………………………………
2 O que exatamente é o Caos
Determinístico……………………………….
PARTE 2 : COMPLEXIDADE
3 Patinando na beira do abismo…………………………………………….
PARTE 3 : A EVOLUÇÃO DO PENSAMENTO ECONÔMICO
4 Voando em céu de brigadeiro…………………………………………….
5 Nem tudo são flores……………………………………………………...
6 Os primeiros passos ……………………………………………………..
7Perdendo a
inocência………………………………………………………
PARTE 4 : CAOS E COMPLEXIDADE NO MUNDO DAS FINANÇAS
8 A lógica do
irracional……………………………………………………..
9 O ponto de vista complexo……………………………………………….
Epílogo……………………………………………………………………..
Apêndice Matemático………………………………………………………
Bibliografia…………………………………………………………………
Índice Onomástico…………………………………………………………
3

O bater de uma única asa de borboleta hoje produz uma minúscula alteração no estado da
atmosfera. Após certo tempo, o que esta efetivamente faz diverge do que teria feito, não fosse
aquela alteração. Assim, ao cabo de um mês, um ciclone que teria devastado o litoral da
Indonésia não acontece. Ou acontece um que não iria acontecer.

James Gleick, Caos

Dedicado a memoria de meu pai e ao nascimento de minha filha


4

AGRADECIMENTOS

Várias pessoas, de uma forma ou de outra formam responsáveis por me

fazer querer entender o mundo que nos cerca. Ao meu editor, Paul

Cristoph, por acreditar. Ao meu irmão Marcelo, por me mostrar os

caminhos da Ciência e comentar o manuscrito. Meu pai Izaac, e minha mãe

Léa, por me ensinarem que o plantar de uma árvore, o escrever de um livro

e o nascimento de um filho são três coisas fundamentais na vida um

homem. Ao Prof. José Scheinkman, pela inspiração. Aos amigos Marcelo

Fernandes, Carlos Viana e Rodrigo de Toledo, pelas contribuições.

E finalmente minha querida esposa Paula pela generosidade e dedicação `a

nossa família durante estes dois anos de trabalho, alem da paciência de ler,

reler, comentar e corrigir o manuscrito que deu origem a este livro.

Qualquer erro ou omissão é de minha total responsabilidade.


5

PREFÁCIO

Em Busca de um novo Paradigma

O ser humano tem uma curiosidade natural, uma paixão por tentar entender o

mundo. Essa curiosidade natural ou paixão por encontrar respostas tem movido a

humanidade desde seus primórdios. As perguntas são tão diversas quanto os

meios utilizados para chegar a conclusões. Queremos compreender todas as

forças da natureza e como cada uma delas interage. Uma das formas de descrever

estas relações é através do uso de equações matemáticas. Nós observamos os

acontecimentos e tentamos explicá-los com o uso de teorias que deveriam ser

consistentes, intuitivas e sujeitas a rigorosas demonstrações matemáticas.

A ciência ocidental herdou dos gregos da antiguidade sua metodologia calcada

em axiomas. Neste método, a prova de uma teoria começa com uma hipótese e

chega a uma conclusão, usando um conjunto de regras lógicas simples, até que a

prova seja demonstrada. Toda a teoria ou proposição construida a partir de uma

determinada hipótese deve ser provada desta forma. Assim, garante-se que o

acumulo de conhecimento seja consistente e não contraditório. O grau de

acurácia e precisão dos modelos que descrevem o comportamento real dos

sistemas é diretamente proporcional ao nosso conhecimento das forças que estão

por trás destes sistemas, causando os fenômenos que observamos. Caso o nosso

conhecimento destas forças seja parcial, ou o peso relativo que certas forças tem

no sistema seja incompleto, nossos modelos também o serão. Na prática,

tendemos a considerar somente os fatores cujos efeitos são significativos,

desprezando aquelas forças menos relevantes. Esse é o caso da economia, onde

tendemos a agregar os agentes econômicos em classes como por exemplo,


6

unidades domiciliares, governos ou empresas. O comportamento destes

agregados deve ser conhecido de forma geral, não importando as exceções. O que

interessa é entender ou prever o comportamento da média dos agentes

econômicos.

A visão clássica, ou newtoniana, sugere que podemos entender as leis que

governam um sistema na medida em que soubermos escrever o conjunto de

equações que contenham as variáveis e os fatores que determinam o

comportamento de tal sistema. Neste caso, se medirmos as condições iniciais de

um sistema e usá-las nas equações, podemos saber o estado do sistema em

qualquer momento futuro. Esta visão é tipicamente reducionista, pois afirma que

o conhecimento das partes individuais do sistema leva ao conhecimento do

sistema como um todo.

Contudo, através da história, a pesquisa e o experimento percebemos que o

comportamento econômico/social, muitas vezes tende a ser mais complexo do

que a simples aplicação de método reducionista pode prever. Certos sistemas

podem exibir propriedades que emergem da interação entre suas partes. Nesse

caso, a soma das partes já não é mais igual ao todo e a idéia de se entender um

sistema desmembrando suas partes individuais não se aplica neste contexto.

O estudo da Teoria do Caos/Complexidade foi um passo importante para o

reconhecimento de que no mundo da economia as coisas são consideravelmente

mais complexas do que a visão clássica do determinismo newtoniano. Sistemas

dinâmicos complexos são modelados matematicamente por equações não-

lineares que exibem certas propriedades, como por exemplo dependência `as

condições iniciais ou efeito feedback. Os sistemas que descrevem nossa realidade


7

econômica podem ser compostos por um número muito grande de equações que

por sua vez são compostas por um número muito grande de variáveis, cada uma

com um peso específico que pode ser fixo ou variar com o tempo. As próprias

variáveis que formam as equações, por sua vez, podem deixar de ser relevantes,

mudando a estrutura do sistema. Além disso, deve ser levado em consideração as

inter-relações entre os diferentes sistemas econômicos que estão interagindo a

nível global e são interdependentes. Tentar modelar estes sistemas econômicos de

forma mecânica, como Newton modelou o movimentos dos planetas, sem dúvida

ajudou os economistas do passado. Porém, esse método deixa de lado aspectos

importantes do processo econômico, tais como retornos crescentes, equilíbrios

múltiplos, trajetórias dependentes, tecnologia e instituições.

As descobertas relativamente recentes que foram em parte possíveis graças ao

estudo de sistemas dinâmicos complexos, sugerem uma mudança de paradigma,

ou uma alteração na forma de perguntar e responder problemas relativos a

economias de mercado. Vale lembrar que neste contexto, a definição de

complexidade não se refere a algo apenas complicado e difícil de resolver, e sim

a sistemas que apresentam algum tipo de ordem que emerge espontaneamente da

interação entre os diferentes fatores econômicos.

Quanto mais acumulamos informação e conhecimento, mais percebemos que

talvez certas perguntas deveriam ter sido feitas de forma mais apropriada desde

o começo. Por essa razão, deve-se olhar o fenômeno econômico como um

sistema evolutivo e dinâmico, ao invés de um sistema em busca do crescimento

equilibrado estável. Para sistemas dinâmicos complexos, equilíbrio é igual a

morte, o fim de sua evolução. Para se adaptar e evoluir, o sistema deve estar `a
8

margem do caos, o ponto onde é mais criativo, flexível e ágil, sem perder sua

estrutura.

Neste livro veremos como o pensamento econômico evoluiu através dos tempos

até chegarmos a atualidade, onde a economia é interpretada como um sistema

dinâmico complexo. Não como uma máquina perfeita, como um relógio, mas

como algo orgânico, em desenvolvimento, dependente de seu passado, como

um caleidoscópio vivo onde novos padrões estão continuamente sendo criados.

Esta visão vai buscar na Biologia suas metáforas e na Matemática sua

linguagem. É uma visão nova, em sua infância e ainda em fase de criação. Na

tentativa de entender o mundo que nos cerca, a economia está evoluindo e, em

um certo sentido, amadurecendo como ciência.


9

PARTE 1

CAOS
10

Uma Nova Visão Econômica

Uma nova percepção, um mundo diferente. O meio em que estamos inseridos, a

cultura, a religião, a formação que escolhemos, tudo modifica a maneira como

visualizamos cada detalhe de nossas vidas. Nossa visão depende do “paradigma”

em que vivemos, do modelo ou padrão que seguimos. Quando uma grande

descoberta cientifica é feita, antigas verdades são questionadas, regras são

quebradas e surge a oportunidade de fórmulas estabelecidas serem repensadas.

Uma revolução em diversas áreas do conhecimento científico, uma legião de

pesquisadores unidos em prol de um único objetivo : a busca por um novo

paradigma.

A Teoria do Caos Determinístico é um conceito relativamente novo em Ciência

que transforma a maneira como percebemos o que está a nossa volta. A palavra

Caos significa, segundo o dicionário Aurélio, um vazio obscuro e ilimitado que

antecede e teria propiciado a geração do mundo, o Caos Primordial a que o

Gênesis se refere. Em uma segunda definição seria uma grande confusão e

desordem. O termo Caos Determinístico é aparentemente paradoxal. Como algo

pode ser caótico e determinístico ao mesmo tempo? Porém, a teoria busca

entender a ordem que surge espontaneamente por trás da desordem. Essa


11

“desordem superior”, que sempre foi um enigma para o homem, o levou a

questionar a estrutura do mundo a sua volta, que, por vezes, revelava uma

coerência nascida a partir do imprevisível, da própria desordem. A reflexão sobre

essas questões provoca, inevitavelmente, uma enorme necessidade de se

encontrar respostas.

Respostas para questões como o que rege o clima, o curso de um rio, as batidas

de um coração, ou seja, as leis da natureza, inclusive a humana.

O longo caminho para entender a “desordem”, utilizando a Teoria do Caos

Determinístico, começou a ser traçado por cientistas americanos e europeus no

inicio da década de 60 com a difusão dos computadores eletrônicos. Mas a

explosão se deu quando os cientistas ganharam estações de trabalho em suas

mesas, que permitiram, a custos baixos, uma enorme expansão na velocidade de

cálculos. Os cientistas puderam começar a ver a evolução dos sistemas de forma

acelerada e isto levou a uma diferente visão de Ciência e do mundo. Aos poucos,

foi se descobrindo uma nova teoria : o Caos Determinístico. Através da

matemática foi provado que dentro da própria desordem podemos encontrar

padrões. Existe ordem dentro da desordem.

Essa descoberta fez com que estudiosos de vários campos reavaliassem suas

teorias e suas “verdades”. A Teoria do Caos estuda o comportamento de sistemas

que apresentam características de previsibilidade e ordem, apesar de serem

aparentemente aleatórios. Pequenas variações nas condições iniciais tem um

grande impacto em suas trajetórias futuras. Por exemplo, vistas de forma

individual, as transações feitas em um mercado não significam nada, mas quando

observadas e analisadas estatisticamente, apresentam similaridades e padrões de


12

comportamento dinâmico não linear, da mesma natureza que um regime de

chuvas, ou as batidas de um coração. Outro exemplo seria o corpo humano. O

cérebro é um sistema dinâmico, podendo em certos momentos apresentar

comportamento equilibrado e racional, e em outros, imprevisível e irracional.

Como o homem não é um átomo, suas formas de organização social não podem

ser compreendidas através do uso de um paradigma reducionista. As sociedades

não são como laboratórios onde experiências podem ser repetidas para se

comprovar a validade de uma teoria. Suas formas de organização, neste caso suas

Economias de Mercado, podem ser vistas como conseqüência natural da essência

não-linear do comportamento humano.

Teorias econômicas que partem do pressuposto de um estado de equilíbrio são

uma tentativa de simplificar a realidade econômica. Dependem de hipóteses

como investidores racionais e mercados eficientes, como veremos

posteriormente. São, portanto, soluções particulares de sistemas que contem

equilíbrio (ordem) mas também o desequilíbrio necessário para que haja

evolução, a “destruição criadora” a que se referiu o economista austríaco Joseph

Shumpeter.
13

O Q UE EXATAMENTE É C AOS D ETERMINISTICO ?

A palavra “gás” foi usada pela primeira vez pelo químico holandês J. B. Van

Helmont em sua obra Ortus Medicinae, de 1632, numa alusão deliberada a

palavra grega “caos”. Sua escolha foi muito interessante pois foi na física dos

gases que aleatoriedade e determinismo se encontraram pela primeira vez.

A Teoria do Caos Determinístico é uma forma de se aproximar um pouco mais

do desconhecido e chegar cada vez mais perto de entender a realidade de nosso

mundo. De compreendermos melhor os fenômenos naturais e o comportamento

do próprio homem.

De forma simples, é a idéia de que se pode obter resultados aparentemente

aleatórios a partir de simples equações matemáticas. Mas na Teoria do Caos

também se encontra o oposto : é possível achar ordem onde aparentemente só há

aleatoriedade. Uma definição um pouco mais precisa do ponto de vista cientifico

seria : a Teoria do Caos é o estudo de comportamentos instáveis e aperiódicos em

sistemas dinâmicos determinísticos não lineares, como veremos neste capitulo.


14

Quando cientistas concentram seus esforços em tentar entender uma coleção de

objetos e processos que se interrelacionam, a este conjunto eles chamam de

“sistema”. Um sistema pode ser o sol e seus satélites, um conjunto de células no

organismo humano, a economia brasileira, uma turbina de avião, a população de

iguanas que habitam a terra ou ainda mais especificamente as que são

encontradas apenas em Galápagos. Alguns aspectos de um sistema podem ser de

relevância cientifica e admitem descrição matemática. Segundo a física

newtoniana, especificando-se numericamente a posição e volocidade de todos os

intergrantes de um dado sistema, é possível obter sua posição em um momento

futuro ou passado. Tal descrição, dada em termos de uma ou mais variáveis do

sistema, é chamada de “estado” do sistema. Um sistema pode ser descrito por

uma equação ou conjunto de equações. Portanto, dado o estado de um sistema em

um determinado momento do tempo e conhecendo-se as equações que descrevem

este sistema, pode-se calcular o seu estado para qualquer momento (passado ou

futuro).

Entre os sistemas dinâmicos temos duas categorias, os lineares e os não lineares.

Um sistema linear seria aquele em que a relação de causa e efeito entre as

variáveis pode ser prevista com precisão, como por exemplo um carro que

viajando a 90km/h em duas horas estará a 180 km de distancia, ou seja, a resposta

a um determinado distúrbio é diretamente proporcional a intensidade desse

distúrbio.

Os não lineares são aqueles cuja resposta a um determinado distúrbio não é

necessariamente proporcional a intensidade desse distúrbio, ou seja, um pequeno

distúrbio pode causar uma grande alteração no estado do sistema.


15

Os sistemas dinâmicos com característica não linear são objeto de estudo da

Teoria do Caos. As não-linearidades surgem quando tenta-se modelar fenômenos

do tipo : atrito do ar em um carro, limites para o crescimento biológico de uma

população ou o crescimento econômico em ciclos. Explicando através da

matemática, es sistemas de duas variáveis x e y, expressões do tipo 5xy seriam

exemplos de termos não lineares. Esta não linearidade é que leva a

impossibilidade de se encontrar uma solução fechada (ou exata) para estes

sistemas. Portanto, pesquisadores destes ramos, ao invés de tentar buscar prever

exatamente os estados futuros destes sistemas, buscam explicações para o

comportamento geral das soluções do sistema em um período de mais longo

prazo através de simulações. Ele se perguntam : “que características comuns o

conjunto de todas as soluções do sistema apresentara’? Quando um sistema

deixará de apresentar soluções com tais características para apresentar soluções

com outro tipo de comportamento?”

Varias questões podem ser levantadas a respeito de qualquer sistema dinâmico. A

Teoria do Caos foca em certos tipos de comportamento - o comportamento

instável e aperiódico. O comportamento instável significa que pequenos

distúrbios perturbam o equilíbrio do sistema de forma permanente, o contrario de

um sistema marcado por estabilidade. Por exemplo, o sistema econômico, de

acordo com a Teoria do Equilíbrio Geral, quando afetado por um choque

exógeno de demanda ou oferta tende a dissipar este choque e posteriormente

volta a situação anterior de equilíbrio. Na parte sobre Economia, veremos com

mais propriedade as características do modelo econômico de Equilíbrio Geral

Neoclássico e porque, sob a ótica da Teoria do Caos e Complexidade, este


16

modelo falha em descrever a realidade econômica ao descrever uma realidade

idealizada.

O comportamento aperiódico ocorre quando as variáveis que descrevem o estado

do sistema não apresentam repetição regular de valores. Um comportamento

aperiódico instável é altamente complicado : ele nunca se repete e continua

manifestando o efeito de pequenas perturbações por um certo período de tempo.

Tal comportamento impossibilita a realização de previsões com boa acuracia e

produz um conjunto de soluções que parece aleatório. O melhor exemplo para um

processo instável e aperiódico é o processo histórico do Homem. A pesar de

podermos notar padrões de ascensão e destruição de civilizações, eventos

históricos nunca se repetem exatamente - a História é aperiódica. Os livros de

História estão cheios de exemplos de eventos menores que levaram a grandes

mudanças no curso das relações humanas. A gota d´agua que deu início a

Primeira Guerra Mundial foi o assassinato do arquiduque Francisco Ferdinando

de Habsburgo, herdeiro do trono austro-húngaro, cometido em Sarajevo no dia 28

de junho de 1914, por um nacionalista Sérvio. O confronto regional entre o

império Austro-húngaro e a Sérvia acabou ocasionando a guerra que envolveu

vários países do mundo.

Os exemplos padrão de sistemas que apresentam comportamento instável

aperiódico sempre envolvem grandes aglomerados de unidades interativas. Os

sistemas podem ser compostos por moléculas de gás colidindo entre si ou agentes

humanos interagindo sob a forma de um mercado.

Uma característica marcante deste sistemas, e grande parte responsável pelo

interesse que gera para seus pesquisadores, é o fato de que este comportamento
17

instável aperiódico pode ser encontrado em sistemas de equações

matematicamente simples, como veremos em seguida ao estudarmos a Equação

Logística.

Portanto, a Teoria do Caos explora modelos matematicamente simples mas que

apresentam um comportamento tão complexo ao ponto de parecerem aleatórios.


18

Efeito Borboleta (Sensibilidade `as Condições Iniciais)

QUANDO O CAOS FOI DESCOBERTO PELA PRIMEIR A VEZ ?

O primeiro a examinar explicitamente sistemas caóticos foi um meteorologista

americano chamado Edward Lorenz, que por volta de 1960, trabalhou em estudos

de previsão do tempo no MIT (Massachusetts Institute of Technology). Lorenz

formou-se em 1938 em matemática pura pelo Dartmouth College, renomada

universidade na costa leste dos Estado Unidos. Durante a Segunda Guerra

Mundial, atuou nas forças armadas americanas prevendo o tempo e depois

acabou se estabelecendo neste ramo.

Na década de 60, a previsão do tempo era considerada pelos cientistas um

trabalho de menor significado. Os próprios meteorologistas não gostavam de

atuar neste campo. O uso de computadores não estava amplamente difundido e

não eram muito confiáveis. Lorenz, desde pequeno, se entretia com as mudanças

de temperatura atmosférica e as formas dos ciclones, que, apesar de respeitar uma

rigorosidade matemática, nunca se repetiam. Ele estava em busca de entender o

padrão com que as mudanças atmosféricas aconteciam. Com esse objetivo,

construiu em sua sala no MIT, um imenso computador cheio de válvulas e

barulhento, chamado Royal McBee.

Um dia no inverno de 1961, trabalhando em um problema de previsão de tempo,

seu computador estava programado com um conjunto de doze equações que

formavam um modelo simplificado de variações em padrões climáticos.

Tentando repetir uma seqüência de dados, Lorenz digitou a (mesma seqüência)

em seu computador visando dar as condições iniciais do problema. Para

economizar tempo, cortou os últimos três dígitos dos números da série de dados
19

que pretendia copiar, ligou o programa e saiu para tomar um café. Ao invés de

digitar 0,506127, digitou apenas 0,506.

Uma hora depois, quando voltou, o sistema havia produzido uma série de dados

que no começo parecia similar a anterior, mas que depois evoluiu de forma a se

descolar completamente, terminando de forma divergente da inicial.

Evolução dos dados : divergência após um certo período de tempo

Em um primeiro momento Lorenz achou que o problema era do computador, ou

que havia algum erro no sistema. Após muitas pesquisas, chegou a uma

conclusão que mudou os rumos da ciência. Estava tudo certo, a única diferença

eram os três últimos dígitos que ele havia cortado. Naquela época, um cientista

poderia considerar-se sortudo caso pudesse medir seus experimentos com

tamanha precisão. Os três dígitos finais eram apenas um luxo, um detalhe, que

quando deixados de lado, tiveram um impacto maior do que o esperado. Lorenz

mostrou que a idéia de que pequenas diferenças nas condições iniciais tem um

pequeno efeito no resultado final, estava errada. Descobriu o que mais tarde ficou

conhecido como Efeito Borboleta, onde pequenas diferenças nas condições

iniciais de um sistema dinâmico podem ter um efeito enorme no resultado final

deste sistema. Esta é uma característica de sistemas dinâmicos não lineares, com

comportamento caótico determinístico como exemplifica Lorenz :


20

“O bater de uma única asa de borboleta hoje produz uma minúscula

alteração no estado da atmosfera. Após certo tempo, o que esta

efetivamente faz diverge do que teria feito, não fosse aquela alteração.

Assim, ao cabo de um mês, um ciclone que teria devastado o litoral da

Indonésia não acontece. Ou acontece um que não iria acontecer.”

O efeito borboleta ficou conhecido com o nome técnico de

sensibilidade/dependência as condições iniciais e chocou o meio acadêmico da

época o fato de que tal comportamento complexo poderia ser descrito por um

sistema relativamente simples, com apenas 12 equações. Contudo, Lorenz, em

seu artigo “Deterministic Nonperiodic Flow” de 1963, concluiu que devido a este

efeito, seria impossível prever o tempo com total precisão, mas o levou a

descobrir outros aspectos do que mais tarde formaram o arcabouço teórico da

Teoria do Caos.

O estudo de sistemas dinâmicos não lineares envolve o estudo de sistemas em

estado de turbulência. Mais precisamente, o estudo da transição de um estado de

estabilidade para outro turbulento é o que mais interessa ao pesquisador. Este

fenômeno pode ser observado em toda a parte. Imagine a fumaça de um cigarro

que sobe até se dissipar por inteiro, o creme que se dissolve ao ser colocado numa

xícara de café quente ou a água que ferve numa panela. O curioso é que o

fenômeno da turbulência, por incrível que pareça, não pode ser modelado pelos

métodos tradicionais da física newtoniana, publicados oficialmente em Julho de

1687, quando Isaac Newton lançou sua grande obra Philosophiae naturalis

principia mathematica, uma das maiores obras cientificas jamais concebidas pela

mente humana. A física newtoniana pode predizer quanto tempo falta para que o
21

cometa Halley passe novamente perto da Terra, mas não pode predizer qual será

a temperatura depois de amanhã no Rio de Janeiro com precisão.

A física newtoniana baseia-se em 3 leis:

• Se nenhuma forca atua sobre um corpo, ele permanece em repouso ou se

move uniformemente em linha reta;

• Sua aceleração é proporcional a força que esta atuando;

• A toda ação corresponde sempre uma ação igual em sentido contrario;

O relógio é o símbolo supremo da física newtoniana. Os seus componentes se

integram perfeitamente e em harmonia. Sabemos que um pequeno choque pode

provocar um pequeno atraso no relógio, que voltará a bater precisamente após

alguns instantes. Este é um sistema em equilíbrio, o exemplo máximo da “Era do

Determinismo” e da visão mecanicista do Homem. O poder do cálculo

matemático era tão grande que Pierre Simon de Laplace chegou a afirmar em seu

Ensaio filosófico sobre as probabilidades :

“Se pudermos imaginar uma consciência superior que saiba a exata

velocidade e posição de todos os objetos do universo em um determinado

instante, assim como as forças que neles atuam, é possível calcular o

passado e o presente pelas leis de causa e efeito.”

No paradigma determistico, o atual estado das coisas é função direta dos

acontecimentos passados, e o que irá acontecer no futuro dependerá do que

acontecer agora. Passado, presente e futuro estão interligados diretamente por

uma relação de causa e efeito. Simetria e equilíbrio são as principais

características da era newtoniana. Porém, em se tratando de sistemas dinâmicos

não lineares, a própria física newtoniana percebeu seus limites. Ela pode explicar
22

perfeitamente como dois corpos interagem, mas não pode prever a interação de

três corpos. O problema de interação de três corpos ocupou o meio acadêmico

por boa parte do século 19. Finalmente, Henry Poincaré, um grande matemático

francês que viveu no século XIX, considerado por muitos o último dos

tradicionalistas e o primeiro dos modernos (foi um dos criadores da Topologia),

notou que o problema não poderia ter uma única solução devido as não

linearidades inerentes ao sistema, provenientes das sensibilidades as condições

inicias.

Efeito Feed-Back

Um sistema dinâmico não linear é inerentemente imprevisível no longo prazo.

Esta imprevisibilidade ocorre devido a dois fatores : primeiro, sistemas dinâmicos

são susceptíveis ao efeito “ feedback”, ou seja, em uma equação, o resultado

(output) volta a ser a condição inicial (input) na próxima iteração. Iterar uma

equação significa repeti-la recursivamente, ou seja, fazer com que o resultado

final da primeira rodada seja a condição inicial da segunda (loop).

Input Sistema Output

Feedback Loop

O resultado final da segunda é a condição inicial da terceira e assim por diante.

Esta técnica é conhecida como Analise de Feedback ou Iterativa. Este processo é

o que dará origem as figuras fractais que veremos mais adiante. É como um
23

microfone que apita quando colocado perto da caixa de som. O som entra em

loop e faz um barulho terrível devido ao efeito feedback. Sistemas com feedback

são como taxas de juro compostas, sua transformação é exponencial, ou seja, são

elevados a um expoente maior do que um (ex : x2). Qualquer diferença nas

condições iniciais, crescerão exponencialmente, como vimos no caso de Lorenz e

como veremos nos modelos de Retornos Crescentes de W. Brian Arthur.


24

Níveis Críticos (Criticalidade)

Uma segunda característica dos sistemas dinâmicos não lineares seria a existência

de níveis críticos. Níveis críticos são níveis a partir dos quais um sistema sai da

posição de equilíbrio, sendo que esta mudança de estado foi causada por um

pequeno incremento. Como em um castelo de cartas, por exemplo. Ao adicionar

uma única carta a um castelo com cinqüenta cartas, tudo pode ruir e ele ir ao

chão. Um outro exemplo seria a fumaça de um cigarro. A fumaça sai do cigarro e

começa a subir em linha quase reta. De repente, esta coluna de fumaça se quebra

e se dissipa. Algo parecido com bolhas especulativas em mercados financeiros

super-alavancados ou as reações repentinas observadas em manadas de animais

selvagens.

Coluna de fumaça em transição de estabilidade para caos.


25

Como vimos, algumas características de sistemas dinâmicos não lineares são:

sensibilidade as condições iniciais, níveis críticos e como veremos mais adiante, a

dimensão fractal. Uma parte importante para o entendimento destes sistemas é

analisar graficamente o conjunto de soluções das equações, dados diferentes

valores das variáveis em questão. A inspeção visual dos dados e dos resultados é

fundamental para entendermos outros conceitos relacionados a Teoria do Caos.


26

Espaço de Fase

O Espaço de Fase talvez seja a mais importante arena para o entendimento do

estudo de Sistemas Dinâmicos. Ele nada mais é do que uma construção

matemática conceitual onde cada dimensão corresponde a uma variável do

sistema. Se o sistema possui duas dimensões, basta desenharmos as duas

variáveis, x e y em um gráfico cartesiano ou de coordenadas. Portanto, a cada

ponto do Espaço de Fase corresponde uma descrição completa do sistema em um

de seus possíveis estados. A evolução do sistema se manifesta, ao desenharmos

sua trajetória no Espaço de Fase. Esta metodologia é muito útil porque possibilita

o estudo das características geométricas desta trajetórias.

O Espaço de Fase pode ser entendido como o número total de combinações

disponíveis para o sistema. Quando jogamos cara ou coroa, só podemos ter estes

dois estados. O número de estados cresce rapidamente em sistemas mais

complexos. Se jogarmos 100 moedas para o alto, as combinações podem ser

arranjadas de 1,000,000,000,000,000,000,000,000,000,000 formas diferentes.

Cada moeda pode ser vista como um parâmetro ou dimensão do sistema. Então,

cada arranjo seria equivalente a 100 números binários (cada um indicando um 1

para cara ou 0 para coroa para cada moeda). Generalizando, todo sistema tem

uma dimensão no Espaço de Fase para cada variável. Mutação ou adaptação ao

meio pode mudar uma ou mais variáveis do sistema, movendo-o pequenas

distancias no Espaço de Fase.


27

Atratores

O atrator seria uma posição preferida pelo sistema dentro do espaço de fase, de

modo tal que se outra posição for a inicial, o sistema evolui em direção ao atrator

caso não haja maiores interferências de forças externas; ou seja, a trajetória do

sistema fica confinada aos limites do atrator. Um atrator pode ser um ponto (o

centro de uma bacia esférica contendo uma bolinha de gude), uma trajetória

regular (a orbita dos planetas), uma serie complexa de estados (o metabolismo de

uma célula) ou uma seqüência infinita (chamada de atrator estranho). Todos os

tipos de atratores se referem a uma área restrita do Espaço de Fase. Uma área

maior do Espaço de Fase ao largo do atrator é chamada de bacia de atração.

Vejamos três tipos básicos de atratores que são importantes para a compreensão

da Teoria do Caos.

O mais simples seria o atrator pontual. Um pêndulo que vai parando devido ao ao

atrito com o ar é o melhor exemplo. Quando se dá o impulso inicial, o pêndulo

começa a balançar. O balanço vai se tornando mais e mais brando, até que o

pêndulo pare. As variáveis relevantes neste caso são a velocidade e a posição do

pêndulo. Se desenharmos um gráfico da velocidade ou da posição em função do

tempo, veremos uma curva cuja amplitude vai diminuindo gradualmente até

chegar a zero. O pêndulo esta parado.


28

Atrator Pontual

Se o espaço de fase for desenhado como posição versus velocidade, veremos uma

linha espiral que acaba na origem, aonde o pêndulo finalmente para.

Retrato do Espaço de Fase de um Atrator Pontual

Podemos dizer que o pêndulo é “atraído” para a origem, independentemente da

força que é colocada no inicio. A origem é onde o sistema se encontra em

equilíbrio. Este tipo de atrator é um atrator estável pois se perturbado o sistema

volta a origem. Ele possui dois atratores, o movimento para frente e para trás,

que é um atrator periódico, e o movimento 0, ou seja, quando o pêndulo esta

parado no ponto de origem. Dai o termo atrator pontual, pois é representado no

Espaço de Fase por um ponto.

Imagine agora um mundo onde não há atrito. O gráfico da velocidade ou da

posição em função do tempo seria uma onda em forma de sino, conhecida como

senóide.
29

Atrator de Ciclo Limitado

Já o gráfico do espaço de fase teria a forma de um círculo fechado, uma vez que

o pêndulo nunca pararia.

Espaço de Fase de um Atrator de Ciclo Limitado

Este tipo de atrator é conhecido como “ciclo limitado” e pode ser entendido como

um sistema com periodicidade regular.

O último tipo de atrator seria o atrator caótico, ou “estranho” como é conhecido

no mundo acadêmico. Imagine desta vez, que a cada volta daríamos um peteleco

na bolinha do pêndulo com forças diferentes. Como o peteleco é dado com força

aleatória a cada volta, a velocidade e a posição do pêndulo serão diferentes a cada

vez. O espaço de fase parece aleatório e caótico, porem é limitado a um certo

intervalo (a amplitude máxima do pêndulo).

Um outro atrator deste tipo seria o que Lorenz descobriu a partir das equações

que usou em seu modelo de previsão do tempo. O seu sistema de equações

parecia gerar resultados completamente aleatórios, contudo, quando desenhados

em um espaço de fase, algo surpreendente acontecia. Os resultados sempre


30

ficavam dentro de uma região que parecia ser uma espiral dupla, figura que ficou

conhecida como atrator de Lorenz.

Atrator de Lorenz

O atrator não era, pontual ou periódico e sim aperiódico, ou seja, o

comportamento do sistema nunca se repetia, a pesar do atrator apresentar uma

estrutura geométrica finita dentro do Espaço de Fase. Neste sistema, previsões de

curto prazo poderiam ser feitas, mas quando eram feitas tentativas de previsões a

longo prazo, pequenos erros cresciam exponencialmente inviabilizando assim o

poder de previsão do modelo. Este resultado foi publicado por Lorenz em 1963
31

em um jornal especializado em Meteorologia, e por estar bem a frente de seu

tempo, seu trabalho só foi reconhecido anos mais tarde.

Os atratores pontuais e periódicos são bons representantes do tipo de física que se

fazia na era de Newton. Os atratores estranhos, por sua vez, representam

resultados mais recentes da física não-linearidade. Sua imprevisibilidade é

produto da assincronia e interatividade das variáveis que o atrator representa. O

movimento de uma variável pode gerar movimentos não proporcionais em outras.

Por exemplo, um único grão de areia adicionado a uma pilha de grãos pode não

ter nenhum efeito, assim como pode precipitar uma avalanche. O comportamento

não-linear é imprevisível. O exemplo de uma avalanche em um montinho de

areia ilustra bem isso. Será que cada novo grão irá aumentar o montinho ou

provocar um deslizamento? Se for um deslizamento, de que tamanho será?

Esta incerteza observada no comportamento de atratores estranhos é função de

dois fenômenos : sensibilidade as condições iniciais, como já vimos e ao que

Poincaré chamou de ressonância. Toda partícula, argumentou, possui energia

cinética (que é a fonte do movimento corrente) e energia potencial (fonte de

possíveis movimentos futuros). O movimento de partículas isoladas pode ser

facilmente mensurado através do uso de fórmulas. Já o movimento de um

conjunto de partículas muito próximas umas das outras vai liberar energia

potencial de forma imprevisível. Isto causará um efeito de imprevisibilidade na

trajetória das partículas. É como no exemplo dado por Ian Stewart no livro “Será

que Deus joga dados?” :

“[…] Suponha que você tem um instrumento capaz de rastrear o movimento de um


número razoável de moléculas individuais de gás. … O que você veria? Concentre sua

atenção num pequeno grupo de moléculas. Elas seguem trajetórias retilíneas por um
32

certo tempo, depois começam a se chocar umas com as outras de uma maneira que era

possível prever a partir da geometria anterior das trajetórias. Quando você mal esta

começando a ver o padrão do movimento, eis que surge uma nova molécula, que vem

zunindo de fora e se choca com seu grupo tão bem organizado, rompendo o padrão. E

antes que você possa apreender o novo padrão, surge uma outra molécula, e outra, e mais

outra…

Em certo sentido, é esse mesmo mecanismo que torna a ciência social tão difícil. Não é

possível estudar uma economia real, ou uma nação ou uma mente, pelo isolamento de

uma pequena parte […]”

Podemos fazer uma metáfora entre um atrator estranho e um sistema social.

Ambos são estáveis mas seus comportamentos nunca se reptem. Partículas

individuais (pessoas) interagem umas com as outras e seus comportamentos são

afetados por essa interação. Imagine, a nível macro, uma grande rede de relações

interpessoais, com causalidade bidirecional. Começamos a ver onde a Teoria do

Caos pode nos levar no entendimento de fenômenos sociais. Assim como

comportamentos sociais, atratores estranhos podem mudar com o tempo. Modas

vão e vem, mercados sobem e descem, nossas relações com as instituições se

alteram, nossa definição de família se transforma. Atratores sociais

ocasionalmente apresentam mudanças radicais. A dissolução da União Soviética

no final da década de 80, o crack da bolsa americana em 1929, ou a falência do

império Inca que no passado floresceu na América do Sul são alguns exemplos

mais óbvios avalanches catastróficas.


33

A Equação Logística

Um sistema de equações com padrão de comportamento não-linear muito

utilizado em diversas áreas de conhecimento é a equação logística. Neste livro,

vamos utiliza-la com um exemplo aplicado ao mercado, mas a mesma equação

poderia ser usada para descrever, por exemplo, o problema de previsão do

crescimento de populações, como fez o biólogo Robert May.

Para ilustrar a explicação, nada melhor que um sistema não-linear simples.

Suponha que o preço (Pt) de uma ação que custa normalmente R$1,00 está sendo

vendida por R$ 0,50 . Neste caso, vários compradores entrarão no mercado e o

excesso de demanda elevará o preço a uma determinada taxa, que na equação

aparece representada por “a”. O valor futuro de Pt no tempo t+1 será então :

Pt+1 = aPt

(2.0)

A equação assume que só existem compradores. Para tornar o modelo mais

realístico, devemos adicionar o efeito dos vendedores. Supondo então que

enquanto os preços crescem a taxa aPt, as vendas reduzem o preço a taxa aP2t. A

equação fica então :

P t+1 = aPt - aP2t ou

P t+1 = aPt *(1-Pt)

(2.1)
34

Este modelo não é realístico mas ele explica que a pressão para compra eleva o

preço a uma taxa “a” e a pressão para venda reduz o preço a uma taxa aP t. A

baixos níveis de pressão compradora, o preço cai para zero e o sistema “morre”.

A altos níveis de pressão compradora (mas não muito alta) o preço converge para

seu valor de equilíbrio.

Supondo então que a pressão compradora resulte numa taxa de crescimento de a

= 2, e P0 = 0,3. Iterando a equação o preço justo de 0,5 e observamos que a um

volume moderado de transações o preço converge para um único valor , como

nos mostra o Gráfico abaixo .

0,5

0,45

0,4

0,35

0,3
1 26 51 76 101
# d e Ite ra ç õ e s

A Equação Logística : convergência do preço; a = 2

Contudo, se a taxa de crescimento (volume de transações) subir para a = 3,1,

teremos dois possíveis preços justos e o sistema oscilará entre ambos (Gráfico

abaixo).
35

0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
1 26 51 76 101
# d e Ite ra ç õ e s

A Equação Logística : a = 3,1 ; dois preços de equilíbrio

Isto acontece porque a este nível crítico, compradores e vendedores não estão

entrando no mercado igualmente. Quando o preço chega em seu nível mais baixo,

existem mais compradores do que vendedores no mercado e o preço sobe. A

recíproca é verdadeira quando o preço alcança seu máximo. Temos então dois

preços de equilíbrio : um para quando há mais vendedores que compradores e

outro para quando há mais compradores do que vendedores.

Quando a taxa de crescimento chega a a = 4, um número infinito de valores de

equilíbrio é possível (Gráfico abaixo).

0,8

0,6

0,4

0,2

0
1 26 51 76 101
# d e Ite ra ç õ e s
36

A Equação Logística : a = 4 ; múltiplos preços de equilíbrio

O Gráfico abaixo é o diagrama de bifurcação. Nele podemos observar os valores

críticos da taxa de crescimento “a”, enquanto o número de preços de equilíbrio

aumenta. Quando a = 3,75 temos uma “faixa de estabilidade”. Se magnificarmos

uma pequena parte da figura, esta também apresentará uma “faixa de

estabilidade” e assim por diante a escalas cada vez menores. Esta característica é

conhecida como auto-similaridade nas escalas e é um fator de muito interesse no

estudo da Geometria Fractal. Esta auto-similaridade, ou seja, o fato de uma copia

exata do diagrama de bifurcação se repetir a escalas cada vez menores é um

importante aspecto da Teoria do Caos.

O diagrama de bifurcação é o conjunto de todas as possíveis soluções da equação

logística. Estatisticamente, na região caótica, os pontos não possuem a mesma

probabilidade de ocorrerem. Podemos ver que em algumas regiões, como na tarja

negra por exemplo, temos infinitas soluções possíveis contidas num espaço finito.

Diagrama de Bifurcação

“Faixa de Estabilidade” a uma escala menor


37

Na geometria euclidiana, quanto mais perto olhamos um objeto, mais simples

este fica. Uma linha, se magnificada uma de suas partes ad infinitum chega a um

ponto. Na natureza, quanto mais perto olharmos um objeto, este se mostra com

mais detalhes.
38

Geometria Fractal

Fractais, por definição, são objetos onde as partes se relacionam de alguma forma

com o todo. Fractais são auto-referenciais ou auto-similares. A geometria da

natureza é fractal na medida em que em varias formas naturais – nuvens, árvores,

linhas costeiras, folhas e etc, - partes menores são similares as partes maiores.

A natureza esta cheia de exemplos de auto-similaridade nas escalas Foto de Ansel Adams

Estes objetos naturais não podem ser perfeitamente representados utilizando-se

elementos da tradicional geometria euclidiana, como por exemplo triângulos,

círculos, ou quadrados. Na natureza, o formato de pedras, nuvens, montanhas e

árvores, de fato, são mais complicados do que a geometria euclidiana poderia

representar. Montanhas não são cones, nuvens não são esferas, a linha costeira de

uma ilha não é um circulo, um rio não é uma linha reta e uma trovão não é em

forma de Z.
39

Tempestade de trovões e o delta do Rio Ganges : exemplos de formas fractais na natureza.

Normalmente, quando uma criança desenha um rio, o faz de forma aproximativa,

utilizando uma linha reta, quando muito meio curva. Um rio, na verdade, é como

uma árvore, ou seja, uma estrutura cheia de ramificações como podemos ver na

figura abaixo, que representa uma simulação de arvore. Cada ramo, se visto de

forma individual se assemelha com a árvore como um todo. Assim como o

pulmão humano, uma árvore de tubos cada vez menores e mais finos composta

por brônquios, bronquiolos e alvéolos, e o sistema cardiovascular, uma rede de

artérias, veias, vasos e capilares. Fractais são estruturas que se repetem a escalas

cada vez menores. Sabemos que a Geometria euclidiana oferece uma boa

aproximação da realidade, mas a verdadeira geometria da natureza é a geometria

fractal.
40

Arvore Fractal : Cada ramificação se assemelha a árvore como um todo

Sistema Cardiovascular como exemplo de fractal


41

O desenvolvimento da geometria fractal é um dos mais importantes

acontecimentos científicos do século XX. Com o uso de fractais, os cientistas

podem descrever formas naturais com o uso de simples equações matemáticas,

calculadas de forma recursiva em seus computadores. Sistemas dinâmicos não

lineares com comportamento caótico determinstico geram figuras fractais (como

vimos no Diagrama de Bifurcação), dai o interesse no estudo destas formas.

Através do uso de computadores com programas que permitam gerar gráficos de

equações não lineares é possível simular figuras de nuvens ou montanhas de

forma perfeita.

Simulação de paisagem feita com um programa que se utiliza de geometria fractal.

Figuras fractais geradas por computadores são consideradas por muitos uma

forma de arte. Sua popularidade foi tão grande que na década de 80 até

calendários e camisetas já foram feitos com estas figuras. Muitas pessoas tiveram

seu interesse pela Teoria do Caos despertado, em um primeiro momento, pela


42

beleza das figuras fractais. Algumas delas respondem a estas figuras de forma até

mesmo emocional. Umas as adoram, outras as detestam. Na pratica, as figuras

fractais geradas por computadores são muito mais interessantes do que as figuras

frias e chatas geradas pelas réguas e compassos euclidianos (sem querer

desmerecer a sua importância).

Auto-similaridades nas escalas – O Mandelbrot Set se repete conforme a figura é magnificada por computador a escalas cada vez

menores.

Euclides, na verdade, formalizou geometricamente a visão de mundo dos antigos

gregos, utilizando-se de leis desenvolvidas separadamente por Aristóteles,

Pitagoras e outros e fazendo delas um sistema.

No mundo platonico, criado por uma entidade superior, somente formas

simetricas e perfeitas eram permitidas. Neste mundo tudo deveria ser perfeito.

Esta era a Primeira Natureza. O mundo em que vivemos, de acordo com sua

visão, era a Segunda Natureza, ou seja, uma representação imperfeita da Primeira

Natureza e criada por uma entidade menos poderosa do que a que criara a

Primeira Natureza. Neste outro mundo, formas menos perfeitas eram permitidas.
43

Contudo, a geometria euclidiana não representava estas formas. O problema era a

imperfeição do mundo e não da geometria.

Benoit Mandelbrot esta para a Geometria Fractal assim como Euclides esta para a

Geometria Clássica. A palavra fractal foi inventada por Mandelbrot, ao folhear o

dicionário de latim de seu filho a procura de um nome para as figuras que

descobrira e que iria publicar em seu brilhante livro The Fractal Geometry of

Nature, publicado em 1975. Sua origem vem do adjetivo fractus e do verbo

frangere, ou quebrar em frações, fraturar.

Benoit Mandelbrot

Mandelbrot, o grande cientista francês que usava a geometria para a resolução de

seus problemas é um revolucionário, um dos pioneiros da Teoria do Caos. Ele

ensinou economia em Harvard, engenharia em Yale, fisiologia no Instituto

Einstein de Medicina, entre outras coisas. Sempre que lhe davam um problema

matemático para resolver, ele iria tentar desenhar o problema de forma

geométrica. Ele tem uma intuição especial e uma necessidade de visualizar o

problema, para depois resolve-lo.

Mandelbrot nasceu em Varsóvia em 1924 numa família de judeu lituanos, seu

pai era vendedor de roupas e sua mãe, dentista. Devido a guerra, sua família se
44

mudou para Paris em 1936, onde já se encontrava Szolem Mandelbrojt, seu tio e

matemático. Após a guerra, Mandelbrot entrou para a Ecole Polytechnique de

Paris, uma das mais prestigiosas escolas de matemática da França. Contudo, se

deparou com o movimento Bourbaki. Este movimento vinha a ser uma espécie de

seita secreta a favor do rigor matemático na Ciência. A analise lógica era central.

Um matemático deveria começar as demonstrações de um teorema com princípios

sólidos, e deduzir todo o resto a partir dai. A “seita” também tinha como

fundamento a primazia da matemática em relação a toda e qualquer Ciência. Seus

resultados não necessariamente deveriam ter uma utilidade na vida pratica das

pessoas. O que interessava era o estudo da lógica para fins apenas teóricos.

Portanto, o uso de desenhos ou formas geométricas não era muito bem visto neste

contexto. A Geometria não era confiável por não ser pura, formal e elegante. Os

melhores matemáticos da época pertenciam a este movimento e portanto seu

domínio se espalhou com facilidade entre os professores e alunos das demais

escolas do continente europeu.

Este movimento veio em parte como resposta a Poincaré, que no século XIX

costumava dizer que : “se algo estava certo, para que provar?”, ou seja, ele não

estava muito preocupado com o rigor matemático. Na opinião dos Bourbaki,

Poincaré havia com isso deixado uma base não muito sólida aos pilares da

matemática. Anos mais tarde, com o advento do computador, a visualização de

sistemas matemáticos ficou mais fácil, o que levou o abstracionismo Bourbaki a

decadência. Contudo, Mandelbrot não esperou para ver o fim do movimento e

mudou-se para os Estados Unidos, onde recebeu uma proposta de trabalho no

Thomas J. Watson Research Center da IBM em 1958.


45

Em seus primeiros anos de trabalho, Mandelbrot não possuía ainda um

computador. Possuía apenas um aglomerado de imagens em sua cabeça, que

desenhadas no papel não geravam a credibilidade necessária. Convenceu então

seus parceiros de trabalho a montarem um pequeno computador para que ele

pudesse lhes demonstrar suas criações. Uma vez desenhados pelo computador,

seus “sonhos geométricos” passaram a ser acreditados.

Mandelbrot estudou a fundo o fenômeno da auto-similaridade em escalas

espaciais e também temporais através de trabalhos aparentemente desconexos :

freqüência de palavras em lingüistica, periodicidade de ruídos em liga ções

telefônicas, turbulência, aglomerados de galáxias, o nível do Rio Nilo e

flutuações de preços de commodities. Uma das áreas de seu interesse era a

flutuação de preços do algodão. Independentemente de como eram analisadas, a

serie de preços não se enquadrava `a distribuição normal. Ao estudar a série de

preços desde 1900, afirmou1 :

“Os números que produziam aberrações do ponto de vista da distribuição

normal, produziam simetria do ponto de vista de escala. Cada variação

particular do preço era aleatória e imprevisível. Mas a seqüência de

variações era auto-similar em diferentes escalas de tempo : curvas para

variações de preços diárias ou mensais, se pareciam perfeitamente. Por

incrível que pareça, analisadas desta maneira, o grau de variação

permaneceu constante (no caso, a volatilidade das series diárias e mensais)

1
Mandelbrot, Benoit B. [1963]- “The Variation of Certain Speculative Prices” - Journal of Business 36, pp 394 - 419.
46

através de um período de 60 anos, mesmo na presença de duas Grandes

Guerras e uma depressão.”

Mandelbrot analisou também outros fenômenos, como por exemplo o

comprimento de uma linha costeira. Uma história muito contada por ele data

novamente do tempo dos antigos gregos e sua dificuldade para definir

“tamanhos”. Como navegadores, os gregos costumavam rodear de barco as ilhas

de Sicília e Sardenha. Uma volta completa em torno de Sardenha demorava mais

do que em torno de Sicília. Conclusão, Sardenha era maior do que Sicília. Por

outro lado, sabe-se que o oposto é verdadeiro.

Portanto, a resposta para a pergunta Qual é o verdadeiro comprimento da costa da

Sardenha? depende do observador. Se o observador estiver em um barco de 80

pés, o tamanho será menor do que se o observador estiver em um caiaque. Em

um caiaque, o observador pode entrar pelas pequenas baias e medir o

comprimento com mais precisão, fazendo com que o seu tamanho aumente. Se o

observador estiver caminhando pela costa, o seu comprimento ficará ainda maior.

Se o observador chegar ao limite de medir todas as micro baias existentes entre

cada grão de areia o comprimento da costa talvez chegará a um fim, mas o

comprimento será tão grande que tenderá a infinito.

Um matemático sueco que conseguiu capturar muito bem esta idéia com uma

construção matemática foi Helge von Koch, já em 1904. Para criar a Curva de
47

Koch (ou Floco de Neve de Koch) imagine um triângulo equilátero. Adicione

outro triângulo equilátero no meio de triângulo anterior. Teremos então uma

estrela de David com seis triângulos equiláteros menores. Repita o processo, ou

seja, adicione outros triângulos equiláteros em cada um dos seis outros triângulos,

ad infinitum.

Curva de Koch

De acordo com Mandelbrot este seria um modelo aproximado de um linha

costeira. A magnificação de uma parte menor da Curva de Koch parece

exatamente como uma curva de Koch original. Temos uma figura auto-similar,

assim como a magnificação de um pedaço de uma linha costeira continuará

parecendo uma linha costeira (porém neste caso a auto-similaridade é apenas

qualitativa).

Linha Costeira : exemplo de auto-similaridade nas escalas Linha costeira gerada por computador

A Curva de Koch apresenta um paradoxo interessante. Cada vez que um novo

triângulo é adicionado `a figura, o comprimento da linha aumenta. O


48

comprimento da linha pode ser entendido como 3 x 4/3 x 4/3 x 4/3 … -

infinitamente. Contudo, se desenharmos um circulo ao redor da Curva de Koch,

chegamos a uma área da Curva menor do que a área do circulo. Porem, o

comprimento da linha é menor do que a area da Curva de Koch, que por sua vez é

uma linha de comprimento infinito, circundando uma área finita (a área interna da

curva).

Para superar esta dificuldade, os matemáticos Felix Hausdorff e A.S Besicovitch

inventaram o que ficou conhecido como dimensão fractal.

Dimensão Fractal

Como nos ensinou a Geometria Euclidiana, um ponto é adimensional, uma linha

tem uma única dimensão, um plano tem duas e um solido tem três. Nós vivemos

em três dimensões, mas se considerarmos o tempo (já uma inovação

einsteiniana), vivemos em quatro. A dimensão da Curva de Koch é 1.26. A Curva

de Koch não é uma linha, mas também não preenche o plano. Neste caso, faz

sentido que a dimensão seja algo entre um e dois, assim como a dimensão de uma

linha costeira ou de uma série de preços de ações (como veremos mas adiante). A

dimensão do Triângulo de Sierpinski é 1.58.


49

Triângulo de Sierpinski

Para construir um Triângulo de Sierpinski, comece novamente com um triângulo

equilátero. Desta vez, ao invés de adicionar outros triângulos, remova o triângulo

equilátero de dentro do triângulo anterior. Repita por 10,000 vezes este processo.

O resultado final é o que se vê na figura (d). Um figura com infinita

complexidade, dentro de um espaço finito e gerada por uma simples regra.


50

A dimensão fractal é uma medida da irregularidade, ou rugosidade de um objeto.

Em objetos fractais, o grau de irregularidade permanece constante mesmo a

escalas distintas. “Mais uma vez, a Natureza surpreende por sua regular

irregularidade”, como afirma James Gleick em seu notável livro Caos - Uma

Nova Ciência.

Alguns autores atribuem a invenção da noção de dimensão fractal, `a mesma

importância da invenção do número zero por matemáticos medievais islâmicos

ou dos números negativos, por matemáticos hindus.


51

Sumário

Neste capítulo, apresentamos as idéias básicas que formam o arcabouço da Teoria

do Caos e da Geometria Fractal. A Teoria do Caos é uma tentativa relativamente

recente de entendermos fenômenos naturais e sociais que apresentam

comportamento aparentemente aleatório, mas que se analisados de forma

estatística são gerados por sistemas determinísticos. Este paradoxo foi o que

motivou cientistas em diversas áreas de conhecimento a entender o que esta por

trás do comportamento apresentado pelos sistemas em suas áreas de interesse.

Este livro se limitará a analisar o comportamento de sistemas caóticos

determinísticos na áreas das ciências econômicas e das finanças. Vale lembrar

que o objetivo não é chegar a uma formula mágica que nos permita prever

quando será o começo e o fim do próximo ciclo econômico, nem tampouco

quando será o próximo crash da bolsa de valores. Oferecemos aqui uma nova

forma de olhar os fenômenos econômicos e financeiros, fazendo uso dos

conceitos acima citados. Um passeio através das varias teorias de economia e

finanças, com intuito de fazer uma crítica construtiva e apresentar os modelos que

foram desenvolvidos, tomando por base métodos não-lineares.


52

PARTE 2

COMPLEXIDADE
53

Patinando na Beira do Abismo

Caos e complexidade são fenômenos interconectos porem distintos. Existe um

certo debate em relação ao significado técnico e campo de influencia dos dois

fenômenos. Alguns argumentam que Caos é uma teoria geral que engloba o

estudo de sistemas complexos. Outros argumentam exatamente o oposto, ou seja,

que Teoria do Caos é uma aplicação especifica de uma teoria maior que estuda os

sistemas dinâmicos, a Ciência da Complexidade. Outros não vêem nenhuma

diferença entre os dois. A definição mais aceita é a de que os dois fenômenos são

complementares uma vez que o estudo da complexidade é o oposto do estudo do

caos. É o estudo de como um sistema de equações muito complicadas podem

gerar padrões de comportamento bastante simples para certos valores dos

parâmetros. Como vimos, a Teoria do Caos estuda como equações não-lineares

simples geram comportamento complexo. Portanto, Caos não é Complexidade.

Fenômenos complexos ocorrem precisamente no ponto crítico onde a transição

para o caos acontece (quando o a da Equação Logística é igual a 3,7 por

exemplo). Um sistema em estado complexo esta no limiar do Caos (“The Edge of

Chaos”), na borda entre um comportamento periódico previsível e o

comportamento caótico.
54

A Ciência da complexidade busca encontrar o que há de comum entre questões

dos mais diversos tipos. Mitchell Waldrop, começa o seu livro Complexidade : A

Ciência Emergente no Limiar da Ordem e do Caos2, com as seguintes perguntas :

• “[…] Porque a Bolsa de Valores americana caiu mais de 500 pontos em um

único dia, a famosa segunda-feira negra de Outubro de 1987?

• Como a sopa primordial de amino-acidos e outras simples moléculas se

transformaram na primeira célula viva a aproximadamente quatro bilhões de

anos atras?

• Porque células individuais começaram, a aproximadamente 600 milhões de

anos atras, a formar alianças que dariam origem a organismos multicelulares

tais como algas marinhas, insetos e eventualmente seres humanos?

• Será que a incrível e precisa organização encontrada nas criaturas vivas é

somente resultado de meros acidentes evolutivos? Ou será que havia algo

mais acontecendo nestes últimos quatro bilhões de anos, algo que Darwin não

sabia?

• A final de contas, o que é a vida, e o que é a mente?

[…] A resposta para estas perguntas é : ninguém sabe. O que sabemos é que

todos os exemplos acima citados são casos de sistemas complexos onde grande

número de agentes independentes interage ativamente. […] Pense nas inúmeras

reações químicas entre as proteínas, lipídios e ácidos nucleicos que formam uma

célula viva, ou nos bilhões de neurônios interconectos que formam um cérebro ou

2
Waldrop, Mitchell [1992] – “Complexity : the emerging science at the edge of order and chaos” – New York, New York :
Published by Simon & Schuster.
55

nos bilhões de indivíduos mutuamente interdependentes que formam a sociedade

humana. […]”
56

Entropia

A Segunda Lei da Termodinâmica postula que em sistemas fechados para a troca

de matéria e energia com o meio ambiente, uma medida de desordem chamada

entropia tende a aumentar. O conceito de entropia foi definido em 1865 por

Rudolf Julius Clausius. Em grego, entropia simplesmente significa evolução. De

acordo com a Segunda Lei da Termodinâmica, processos irreversíveis no tempo

produzem entropia ou seja, a própria passagem do tempo aumenta a entropia. Por

exemplo, uma gota de tinta azul escuro pingada em um copo com água tende a se

dispersar até que toda a água do copo fique azul claro. Seria praticamente

impossível retroceder temporalmente o processo e obter a gota de tinta azul

escuro de volta pois o processo de mistura da tinta na água é irreversível. Por

outro lado, em processos reversíveis como os vislumbrados por Laplace, a

entropia se mantém constante. De acordo com Clausius, “a energia do Universo é

constante, se considerarmos o Universo um sistema isolado. A entropia do

Universo é crescente”. Este aumento da entropia é devido aos processos

irreversíveis que formam o Universo.

Um corolário da Segunda Lei é que a desorganização estaria aumentando no

Univero. Como poderíamos explicar então a magnifica organização de nossa

biosfera e de nossos sistemas sociais?

Na opinião de Ilya Prigogine, prêmio Nobel de Química e um dos fundadores da

Teoria da Complexidade, a visão de mundo descrita pelo Determinismo

Newtoniano, onde a seta do tempo poderia ser revertida, é muito idealizada,

longe do mundo instável e evolutivo em que vivemos. Para ele, a passagem do


57

tempo não produz um aumento da desordem e sim da ordem, como mostram

recentes descobertas feitas no âmbito de sistemas químicos e físicos em situações

distantes do equilíbrio. As implicações de tais descobertas são profundas. Como

explica Prigogine3 :

“ O importante papel atribuído ao conceito de irreversibilidade é ainda

mais marcante em situações distantes do equilíbrio onde o não-equilíbrio

leva a novas formas de coerência. Nos aprendemos que é justamente

através de processos irreversíveis associados a passagem do tempo que a

Natureza atinge suas formas mais delicadas e estruturas mais complexas. A

vida só é possível em um Universo fora do equilíbrio. O não-equilíbrio leva

a conceitos tal como Organização Espontânea e Estruturas Dissipativas4”.

Para que a Segunda Lei da Termodinâmica pudesse ser aplicada, o sistema em

questão deveria ser fechado para a troca de energia, informação ou materiais com

o meio. A resposta é que a nível local ou micro, por exemplo na relação entre

compradores e vendedores de um determinado mercado, Sistemas Complexos se

auto-organizam para poderem evoluir trocando informação com o meio ambiente.

Neste caso eles seriam considerados sistemas abertos. Porem, a nível global, ou

macro, ou seja, quando se considera o conjunto de todos os mercados de bens ou

ativos, o conjunto de todos compradores e vendedores que atuam nestes

mercados, e os demais fatores que influenciam na mudança dos preços e reações

dos agentes, tem-se um sistema fechado. A Segunda Lei foi postulada para

sistemas químicos e físicos e seria um pouco de cientificismo tentarmos aplica-la

as ciências sociais. Além disso, sistemas abertos são mais apropriados para o
3
Prigogine, Ilya (1996) – “The end of certainty : time, chaos, and the new laws of nature” – New York, NY – The Free Press.
4
Prigogine definiu sistemas que exportam continuamente entropia de forma a manter sua organização como Estruturas
Dissipativas.
58

estudo da complexidade. Como vimos, sistemas abertos trocam informação e

energia com o meio para melhor poder se adaptar a novas circunstancias. As

forças primarias que motivam o sistema advém do meio-ambiente, ou seja, o

ambiente é o que determina a estrutura interna e organizacional, além de ditar as

mudanças. Contudo, em sistemas complexos a dinâmica interna do sistema

também tem grande importância na elaboração da estrutura, mudança e

adaptabilidade do sistema. Sistemas complexos são mais resistentes a

perturbações causadas pelo meio. Eles conseguem reter sua estrutura devido a sua

capacidade de mapear as informações do meio de reagir de acordo com o que

aprenderam no passado. Devido a sua capacidade de mapear a informação do

meio para referencia futura, relações persistentes podem evoluir ou se auto-

organizar.

Organização Espontânea

O funcionamento de um sistema complexo depende da natureza e arranjo entre as

partes e pode mudar caso novas partes sejam adicionadas, eliminadas ou

rearranjadas. Tais sistemas possuem propriedades que são emergentes pois não

são encontradas intrinsecamente em nenhuma de suas partes individuais e

existem somente a níveis mais altos de observação. Qualquer comportamento

atribuído ao sistema como um todo e que não pode ser encontrado nas suas partes

individuais é um exemplo de uma propriedade emergente. Por exemplo, um carro

é uma propriedade emergente de suas partes interconectas. Para o biólogo Stuart

Kauffman, um dos criadores da Ciência da Complexidade, a vida é um fenômeno


59

que emerge devido `a junção de órgãos individuais. Esta propriedade desaparece

se as partes individuais forem separadas. Neste caso, o todo é maior que a soma

das partes. O estudo de sistemas dinâmicos complexos não pode ser feito de

forma reducionista pois ao se separar as partes, o sistema perde suas

características, que só podem ser observadas de forma holistica.

Interação Local , Emergência Global

Da interação entre as partes individuais a nível local emerge algum tipo de

propriedade global, que não poderia ser prevista com o que se sabe sobre as

partes individuais. Esta propriedade global (output), por sua vez, volta a ser um

dos inputs do sistema, em forma de feed-back. Assim, as partes individuais

afetam o comportamento do sistema como um todo, mas também são afetadas

por ele. O efeito feed-back é então responsável pela adaptabilidade do sistema ao

meio.
60

Um tipo de propriedade que emerge em sistemas complexos é a Organização

Espontânea ou Auto-organização. Exemplos clássicos de auto-organização são :

• A Economia Capitalista – consumidores individuais tentando satisfazer suas

necessidades materiais através de atos de compra e venda se organizam sob a

forma de um mercado, sem que haja a intervenção de um planejador central

como se guiados por uma “mão invisível”, como já dizia o economista

escocês Adam Smith, que veremos em detalhe mais para frente.

• Uma passarada – passaros individuais, quando migrando de um lugar para o

outro, se organizam inconscientemente em forma de flecha para aproveitar a

aerodinâmica de seus vizinhos

• A diferenciação das células – os genes de um embrião em desenvolvimento

se organizam de um jeito para formarem uma célula de coração e de outro

para formarem uma célula de cérebro.

Em todos os casos o que vemos são agentes individuais se organizando sem

qualquer interferência de um “planejador central” e adquirindo propriedades

coletivas tais como vida, consciência ou propósito, propriedades estas que nunca

seriam possuídas pelas partes individuais. Sistemas complexos desenvolvem uma

ordem global apesar de a nível local as interações entre os agentes parecerem ser

livres e incertas. É esta liberdade entre as conexões do sistema que permite que

este se adapte as novas circunstancias do meio. Apesar de livres e

descentralizadas, todas as partes do sistema estão indiretamente conectadas. Cada

um dos agentes possui conhecimento de uma parte do sistema, mas nenhum dos

agentes individuais possui conhecimento do sistema como um todo.


61

De onde surge então esta ordem global? A explicação tradicional para esta ordem

é a teoria darwiniana de seleção natural. Um processo gradual que na base da

tentativa e erro faz com que os mais bem adaptados ganhem os recursos

necessários para a sobrevivência e reprodução. Ter um bico maior, em certas

circunstâncias, pode aumentar as chances de uma certa espécie vis-à-vis a outras.

Alem disso, dentro da mesma espécie, uns pássaros podem ter bicos maiores do

que outros. Os pássaros com bicos maiores irão passar para seus herdeiros estas

características. Em algumas gerações, os pássaros de bico maior dominarão a

população de pássaros por serem melhor adaptados ao meio do que os pássaros

com bicos menores, desta forma a evolução acontece. O grande sucesso da teoria

de Darwin pode ser atribuído ao fato de que sua teoria permitia aos cientistas

explicar estruturas sem a intervenção de uma causa supernatural. Estruturas

seriam resultado de uma série de mutações aleatórias das quais as mais efetivas

sobrevivem. Desta forma, a seleção natural poderia ser entendida como uma

peneira que separa a ordem da desordem. Uma espécie que desenvolve os mais

eficientes atributos “vence” a competição, aumentando assim as chances de sua

estrutura sobreviver. O que vemos é um processo de feed-back onde algumas

variações tendem a se reinforçar e outras a se reduzir. Ambos os tipos de feed-

back, tanto o negativo quanto o positivo, alimentam a seleção natural.

Contudo, para Kauffman, o processo de seleção natural tem um papel secundário

na formação de ordem em sistemas dinâmicos complexos. Para ele a ordem

emerge da “física” da interação. Sem que haja maiores esforços ou qualquer força

puxando o processo evolutivo ladeira acima, a ordem emerge de graça. O termo


62

por ele cunhado em inglês é “Order for Free”, ou seja, a ordem simplesmente

acontece.

Em sua opinião, as chances de somente o processo de seleção natural através de

mutações aleatórias ter gerado a ordem observada no mundo é remota. O

Darwinismo sugere, por exemplo, que os 100,000 genes humanos evoluíram

através de mutação ‘cega’ até formarem os 250 tipos de células que compõem o

corpo humano. Porem, 100,000 genes podem apresentar 1030.000 combinações de

possíveis estados ativos5. Isto excede o número de moléculas de hidrogênio no

Universo ! Kauffman argumenta que seria ingenuidade acreditar que somente o

processo de seleção natural poderia ter guiado a evolução dos 1030.000 possíveis

estados do sistema para eventualmente chegar aos 250 desejados. Através do uso

de simulações por computador, Kauffman demonstrou que existe “ordem de

graça”, uma cristalização espontânea de ordem nos sistemas dinâmicos

complexos, sem a interferência do processo de seleção natural ou qualquer outra

força externa. A auto-organização seria uma propriedade emergente dos sistemas

dinâmicos complexos. Auto-organização, ou Organização Espontânea seria então

o processo onde a organização de um sistema aumenta espontaneamente sem que

este aumento seja controlado por qualquer força externa ao próprio sistema.

Imagine que genes fossem arrumados como em uma rede, cada um com a

possibilidade de estar ligado ou desligado dependendo do input vindo dos outros

genes. Agora, imagine que os genes fossem interligados de forma aleatória. Seria

difícil imaginar que qualquer tipo de ordem emergiria deste tipo de sistema. Mas

foi isso que Kauffman demonstrou. Processos deste tipo são conhecidos como

5
Os anos 60 foram de especial importância para o estudo da biologia molecular. Dois pesquisadores franceses, Francois Jacob e
Jacques Monod fizeram uma descoberta revolucionaria que os deu o Prêmio Nobel. Eles descobriram o mecanismo que regula
a atividade dos genes. Uma espécie de mecanismo binário onde os genes podem estar ligados ou desligados.
63

Redes Booleanas. Roger Lewin, em seu livro “Complexity : Life at the Edge of

Chaos” explica :

“ […] A rede vai de um estado para outro. Em um determinado instante, cada elemento
examina os sinais que chegam através de suas ligações com outros elementos da rede.

Eles ficam ativos ou inativos de acordo com suas regras de reação aos sinais. A rede

então procede para o próximo estado, e assim sucessivamente. Em certas circunstancias,

a rede pode apresentar todos os estados possíveis sem que nenhum estado se repita. Na

prática, contudo, a rede encontra uma série de estados que se repetem ciclicamente.

Conhecidos como ciclo limites, esta série de estados é de fato um atrator no sistema. A

rede pode ser entendida como um sistema dinâmico complexo com possivelmente vários

atratores.”

Fazendo simulações em seu computador, Kauffman demonstrou que uma rede

interativa com 100.000 unidades se ligando ou desligando como em uma cadeia

de genes irá gravitar em torno de um pequeno número de estados estáveis. Ele

estava convicto que suas simulações com as redes Booleanas eram uma boa

analogia para a formação de células no embrião. Foi então que Kauffman

começou a trabalhar com redes com duas conexões, ou seja apenas duas

conexões em cada nôdo. Para sua surpresa, o número de estados estáveis era

aproximadamente a raiz quadrada do número de elementos do sistema, uma regra

conhecida como Lei de Potência. Uma rede com 100 elementos, tinha 8 estados

estáveis, ou atratores, uma com 1000 tinha 33 e uma com 100.000

(aproximadamente o número de genes no genoma humano) tinha 370. O

interessante era que os 370 estados estáveis eram um número muito próximo dos

254 tipos de célula no organismo humano. Tanto suas redes Booleanas quanto os

genomas possuem a mesma Lei de Potência. Sistemas que se sujeitam a uma Lei

de Potência exibem a mesma estrutura em diferentes escalas. Esta auto-


64

similaridade, também vista nas figuras fractais, é típica de sistemas que se auto-

organizam. Kauffman estava convencido de que uma propriedade básica destes

sistemas era que regras locais, como o número de inputs que cada “gene” recebe

e as regras de resposta para estes inputs, geram uma ordem global no sistema.

Estas regras são as limitações que governam o comportamento do sistema

evitando que eles entrem em estado caótico durante o processo de adaptação a

novas condições do meio. Uma propriedade emergente, uma ordem de graça. A

nível micro, a interação entre os agentes individuais ou os “genes” pode parecer

caótica, mas a nível macro, uma ordem se manifesta.

Exemplo de uma Bacia de Atração em uma Rede Booleana


65

Adaptabilidade

Outra característica importante deste tipo de sistemas é a sua capacidade de se

adaptar ao meio. Um rio turbulento é um exemplo de um sistema complexo,

porem não é um exemplo de um sistema complexo adaptativo. Sistemas

complexos adaptativos (SCA) tentam sempre tirar proveito das mudanças do

meio. O cérebro humano, por exemplo, esta sempre organizando e reorganizando

suas bilhões de conexões neurais para melhor aprender com a experiência

passada. Como explicou Murray Gell-Mann, ganhador do Prêmio Nobel de

Física pela descoberta dos Quarks, em uma palestra no Santa Fé Institute no

Novo México :

“Na evolução biológica, a experiência do passado esta codificada na mensagem

genética no DNA. No caso das sociedades humanas, a experiência esta nas

instituições, costumes, tradições e mitos. Estes são de fato os DNAs culturais.

Sistemas complexos adaptativos estão sempre em busca de padrões. Eles

interagem com o meio, aprendem com a experiência e se adaptam como

resultado”.

Neste caso, a história, ou o passado, interessam para que possamos entender o

comportamento futuro de um sistema complexo adaptativo. Diferentemente de

um sistema totalmente aleatório, onde a história do sistema pouco importa pois os

eventos são independentes. Quando jogamos cara ou coroa, por exemplo, pouco

importa se o resultado anterior foi cara ou coroa para prevermos qual será o

próximo resultado. A próxima jogada independe da anterior.


66

Assim como as espécies evoluem para melhor se adaptarem ao meio, as

corporações e as industrias também. Elas podem ser entendidas com SCAs neste

contexto. O mercado esta sempre mudando em função da mudança de estilos de

vida, moda, imigração, desenvolvimento tecnológico, preço dos insumos básicos

ou novas regras impostas pelo Governo. SCAs tem um propósito superior, que

em geral é a sua própria sobrevivência. Mas o interessante é que o conjunto

destas industrias, seus consumidores e o Governo apresentam uma propriedade

emergente chamada Economia. A Economia, apesar da grande diversidade de

decisões e ações a nível microeconômico, apresenta uma certa estabilidade

estrutural a nível macro. Durante anos ou ate mesmo décadas, sistemas socio-

econômicos se mantém fiéis a um certo padrão de estrutura macro-dinâmica,

mesmo que haja variações conjunturais na atividade econômica. Esta estabilidade

estrutural que emerge da interação das variáveis econômicas a nível

microeconômico é o que possibilita a modelagem e a analise macroeconômica.

A grande dificuldade de se prever ou modelar a Economia advém do fato de que

sistemas dinâmicos complexos possuem níveis críticos, ou seja, sempre existe a

possibilidade da quebra desta estabilidade estrutural.

Sistemas Auto-Catalisadores

Stuart Kauffman descreveu a dinâmica de sistemas com propriedades

emergentes. Seu objetivo era explicar como a vida surgiu da sopa pré-biótica de

elementos químicos que um dia existiu neste planeta. A sua teoria, na verdade,

pode ser utilizada para explicar a emergência de muitos fenômenos, incluindo


67

fenômenos sociais. Ele chamou esta dinâmica de interação auto-catalizadora. Um

catalisador é algo que acelera um processo que poderia ter ocorrido, mas que

demoraria muito mais tempo para acontecer ou que não aconteceria sem ele. Em

outras palavras, um catalisador faz com que as coisas aconteçam mais rápido.

Autocatalise é um processo no qual o evento A catalisa o evento B, o evento B

catalisa o evento C, o evento C catalisa o evento D e o evento D (talvez numa

combinação com o evento B e/ou C) catalisa o evento A. O evento A

rapidamente catalisou o desenvolvimento do evento D, que por sua vez catalisou

o desenvolvimento do evento A. Aqui os catalisadores são os próprios

beneficiários do processo ao invés de serem apenas intermediários. Enquanto

isso, o evento C pode estar catalisando o evento F, que esta catalisando o evento

G. F e G podem catalisar mais do evento C e assim por diante. É fácil notar como

tal processo pode se desenvolver como um incêndio em floresta de eucaliptos

criando novos catalisadores e formando uma rede de conexões que se auto-

reinforça e catalisa seu próprio crescimento. Mais uma vez, ordem aparecendo

espontaneamente do caos molecular e se manifestando como um sistema que

cresce e se desenvolve na medida em que a rede de interligações vai aumentando

e ficando cada vez mais complexa. No limite, tal processo pode ter sido o

processo de formação do primeiro DNA e responsável pela criação de vida na

Terra, caso a sopa primordial fosse “rica” o suficiente. A vida teria se

“cristalizado” (emergido) espontaneamente. Desta forma, alega ele, a vida não

teria como não ter acontecido. Alem disso, não haveria a necessidade de se

acreditar que a vida é fruto de uma mera coincidência de fatores.


68

Exemplo de Sistema Auto-Catalizador com 4 eventos

Kauffman faz uma analogia muito interessante entre sistemas auto-catalisadores e

sistemas econômicos. Um sistema auto-catalisador é uma rede que transforma

moléculas da mesma forma que uma economia é uma rede que transforma bens e

serviços. O sistema auto-catalisador extrai matéria prima (a sopa primordial de

moléculas) e as transforma em algo útil (mais moléculas para o sistema).

Alem disso, um sistema auto-catalisador pode alavancar sua própria evolução (da

mesma forma que uma economia) ficando maior e mais complexo com o tempo.

Se as inovações são resultado de novas combinações de antigas tecnologias,

então o número de inovações pode crescer muito rapidamente caso mais

tecnologias fiquem disponíveis. De fato, a partir de um certo nível de

complexidade pode se esperar uma espécie de transição de fase do mesmo tipo da

que deu origem ao DNA. Abaixo de certo nível de complexidade, pode-se esperar

países que dependem de um pequeno número de grandes industrias e suas

economias são frágeis e estagnadas. Neste caso, não importa o montante de

investimentos que possa vir a ser feito que o pais em questão ira continuar frágil e

estagnado. Se um pais só produz bananas, com mais investimento tudo o que ira
69

acontecer é um aumento na produção de bananas. Mas se um pais conseguir

diversificar sua industria e aumentar sua complexidade acima de um certo nível

critico, então pode se esperar um explosivo aumento no crescimento e inovação.

A existência de uma transição de fase também pode ajudar a explicar o porque a

presença de comercio entre países é tão importante para a prosperidade.

Suponhamos que dois países cujas economias não sejam muito desenvolvidas

comecem a negociar livremente. Suas economias se conectarão para formar uma

única rede mais complexa de transações e o nível critico para o desenvolvimento

acelerado pode ser atingido.

Alem disso, um sistema auto-catalisador pode presenciar o mesmo tipo de booms

e crashes que uma economia. Injetando um novo tipo de molécula na sopa

primordial, o resultado poderia ter sido muito diferente. Injetando um novo tipo

de tecnologia em uma economia, como por exemplo a substituição do cavalo pelo

carro, o resultado foi muito diferente, gerando um boom de prosperidade.


70

Vida Artificial

Assim como o telescópio e o microscópio nos deram uma perspectiva diferente

sobre nos mesmos, eventualmente, mundos artificiais dentro dos computadores

farão o mesmo. Diferente das simulações com equações, a linguagem utilizada

neste remo da computação é a orientada para o objeto e com ela podemos ser

capazes de observar a evolução de sistemas artificiais químicos, ecológicos,

sociais, econômicos, organismos e vida artificial.

Quando pensamos em computadores normalmente pensamos em programas que

foram laboriosamente desenvolvidos para performar tarefas absolutamente

previsíveis. Este não foi o caso de Chris Langton, que por volta de 1978 tentava

ser aceito para um curso de Doutorado para trabalhar no tema de Autômatas

Celulares. De dia Chris trabalhava como marceneiro e a noite programava seu

computador Apple de 64 kilobites na tentativa de desenvolver um programa que

exibisse um comportamento com propriedades vitais, tais como reprodução,

sexualidade e evolução. Na verdade, Chris estava tentando capturar as bases para

o entendimento dos processos evolutivos, da mesma forma que os estudiosos de

Inteligência Artificial estavam tentando capturar os conceitos chave para o

entendimento da Neuropsicologia. Ele não estava tentando formular um modelo

que replicasse a evolução dos répteis por exemplo e sim um modelo abstrato de

evolução no computador para poder fazer experimentos e testes. Evoluindo

populações de programas de computador for milhões de gerações, Chris pode ver

a diversidade do fenômeno evolutivo. Pode observar espécies serem criadas e


71

extintas, mutações e adaptações em uma escala de tempo observável em tempo

humano. Em sua opinião, podemos capturar qualquer fenômeno biológico em

computadores se dominarmos a tecnologia da vida. Por mais irônico que pareça,

a primeira conferencia sobre este tema foi realizada em Los Alamos, onde a

primeira bomba atômica, ou seja, tecnologia da morte foi desenvolvida.

Mas o que é um Autômata? A maior parte das pessoas relaciona a palavra com

algum tipo de brinquedo mecânico que emula um comportamento aparentemente

humano. No contexto de Sistemas Complexos, um Autômata é qualquer sistema

que possua um número de estados internos e que se mova entre estes estados

seguindo regras definidas. Isto é uma forma de mapeamento (input-output)

similar a de programas de computador. Um Autômata é também um agente pois

interage com o meio e normalmente pode alterar o seu próprio estado como

resultado desta interação. Se reunirmos uma coleção destes Autômatas e deixá-

los interagir, temos um sistema de Autômatas. Chris ficou bastante animado com

o rumo de suas pesquisas ao descobrir que na década de 40, o grande matemático

John Von Neumann havia se interessado pelo tema de auto-reprodução em

máquinas programáveis. No tempo de Von Neumann, a grande questão era : será

que máquinas podem ser programadas para fazer cópias de si mesmas? Von

Neumann não tinha a menor dúvida de que a resposta era positiva. A final de

contas, pensou ele, “as plantas e o animais estavam se reproduzindo a bilhões de

anos e a nível bioquímico eram como “máquinas” seguindo as mesmas lei

naturais que as estrelas e planetas”6. Para responder a grande pergunta, ele

precisou reduzir o processo de reprodução a sua essência, a sua forma lógica

6
Von Neumann, John [1966] – “Theory of Self-Reproducing Automata” - Completed and edited by Arthur Burks. Champaign-
Urbana: University of Illinois Press.
72

abstrata. Começou com o seguinte experimento : imagine uma máquina flutuando

na superfície de um lago junto com vários outros pedaços de máquina. Imagine

agora que esta máquina é o construtor universal, ou seja, dada a ela a descrição

que qualquer máquina, sua função é montar outras máquinas com os pedaços que

estão flutuando no lago. Caso a ela fosse dada uma descrição de si própria, ela

montaria outra de si.

Contudo, o problema da auto-reprodução ainda não estava resolvido pois as

novas máquinas montadas, por não possuírem uma descrição de si próprias, não

poderiam montar uma outra geração de máquinas. Portanto, Von Neumann

postulou que a Criadora Universal deveria fazer copias de sua descrição e coloca-

las nas novas máquinas de forma que estas pudessem se reproduzir

indefinidamente.

Alguns anos depois, quando Watson e Crick revelaram a estrutura molecular do

DNA notou-se que a descrição de Von Neumann do Criador Universal possuía as

mesmas características do DNA. A capacidade de codificar as instruções para a

montagem de outras células e a habilidade de transmitir as instruções para que

estas outras células reproduzissem mais de si próprias.

Como um grande matemático que era, Von Neumann não estava satisfeito como

a analogia da máquina no lago. Ele queria algo que fosse completamente abstrato

e formal. A solução veio de seu colega Stanislas Ulam, um matemático polonês

que estava trabalhando no Laboratório de Los Alamos. Stanislas sugeriu o que

eventualmente ficou conhecido pelo nome de Autômata Celular e que vinte anos

mais tarde se popularizou como Jogo da Vida. O Jogo da Vida viria a ser um caso

particular dos Autômatas Celulares de Stanislas. O Jogo da Vida, na verdade, não


73

era exatamente um jogo e sim um tipo de simulação de um mini universo que

evoluía na tela do computador. No começo do jogo, a tela do computador mostra

um retrato deste universo. Um quadrado dividido em quadrados menores. Cada

“célula” do quadrado (o nosso universo) poderia estar preta, se estivesse viva ou

branca, se estivesse morta. A disposição inicial das células no universo poderia

ser qualquer uma. Uma vez que o jogo começasse, as células iriam morrer ou

viver de acordo com regras simples.

Cada célula, em cada geração, iria olhar ao seu redor, ou melhor, para os seus

oito vizinhos imediatos. Se muitos destes vizinhos estivessem vivos, a célula

morreria de superpopulação. Se muitos estivessem mortos, ela morreria de

solidão. Mas se o número de células fosse o correto, ou seja, se duas ou trás

células estivessem vivas, então na próxima geração o quadrado central estaria

vivo. Ele sobreviveria se já estivesse vivo ou nasceria caso contrário.

Com estas simples regras, a tela do computador parecia tomar vida própria

conforme as gerações iam passando. Vários tipos de formações surgiriam e

desapareciam, como micróbios em um microscópio. Chris Langton passava suas

noites em um velho computador no laboratório da universidade tentando

desvendar os mistérios da vida com simulações deste tipo.

Geração 0 Geração 22

Geração 52 Geração 139


74

Nas figuras acima, quanto mais claras as cores das células mais jovens elas são. As células ficam pretas após

10 gerações e morrem.

Von Neumann, por sua vez, antes de morrer, demostrou matematicamente (e sem

a ajuda de computadores) que existia um determinado padrão de Autômata

Celular que poderia se auto-reproduzir. Este padrão era extremamente

complicado para que Chris pudesse reproduzi-lo com precisão com seu Apple de

64 kilobites. Eram 29 diferentes estados por célula. Mas somente o fato de tal

padrão existir animava Chris a continuar sua busca.

Dois meses após a leitura do artigo Teoria dos Autômata Auto-Reprodutíveis,

uma coletânea dos textos de Von Neumann editada em 1966, Chris depois de

muita tentativa e erro, finalmente conseguiu o que queria. Conseguiu simular em

seu computador o primeiro Autômata Celular auto-reprodutível. Em sua tela, as

células formavam loops em torno de si próprias para formarem outras células

idênticas ad infinitum.

Agora que ele havia criado o primeiro Autômata Celular auto-reprodutível, Chris

queria que os Autômatas performassem algum tipo de tarefa antes de se

reproduzirem, do tipo acumular recursos. Além disso, ele queria construir

populações inteiras de Autômatas e deixar que eles competissem por estes

recursos. Ele teria de dar aos Autômatas a habilidade de se moverem e “sentirem”

o meio. Teria de permitir a presença de mutações e erros de reprodução. Chris

queria simular a evolução no mundo de Von Neumann.

Em meados da década de 80, o estudo do comportamento dos Autômata

Celulares se transformou em um tema “quente” entre estudantes de Física por


75

possuirem uma estrutura matemática rica e grandes similaridades com Sistemas

Dinâmicos não-lineares.

Stephen Wolfram, então uma jovem estrela em ascensão no departamento de

Física de Caltec (uma prestigiosa universidade na Califórnia) definiu o

comportamento (regras) dos Autômata Celulares em quatro classes.

• Classe 1 – Regras que faziam o sistema morrer em uma ou duas gerações. Em

termos de Sistemas Dinâmicos, o sistema convergiria para um atrator pontual.

A tela do computador ficava de uma cor só.

• Classe 2 – Estas regras davam aos Autômatas um pouco mais de vida, mas

não muita. O sistema desenvolvia comportamentos periódicos que se

repetiam continuamente. Era como se os Autômatas fossem atraídos por um

atrator periódico ou de ciclo limitado. Nas classes 1 e 2, era como se o

sistema estivesse congelado ou cristalizado.

• Classe 3 – O sistema ficava vivo demais. Tão vivo que ficava caótico,

aperiódico e mudando continuamente de forma imprevisível, como moléculas

de vapor em uma panela em ebulição. A tela do computador ficava

“borbulhando”. Era como se os Autômatas fossem atraídos por um atrator

estranho.

• Classe 4 – Estas regras não produziam caos nem tampouco um

comportamento estático. Elas produziam estruturas coerentes que se

propagavam, cresciam, se separavam, recombinavam de uma forma

maravilhosamente complexa e computacionalmente rica, como no Jogo da

Vida e quando o a da Equação Logística é igual a 3,7. Uma boa analogia


seriam moléculas em estado liquido.
76

Chris gostou da forma como Wolfram definiu o problema e tentou entender as

relações entre as diferentes classes. Descobriu então que elas se davam na

seguinte ordem :

1e2→4→3

Do ponto de vista de Sistemas Dinâmicos era como se o sistema apresentasse o

seguinte padrão de comportamento :

Ordem → Complexidade →Caos

onde Complexidade seria o surpreendente tipo de comportamento encontrado nas

regras da Classe 4. Este tipo de comportamento Chris chamou de Margem do

Caos. As regras produziam um comportamento de sublime balanço entre

estabilidade e instabilidade.
77

À Margem do Caos

Os estudiosos de fenômenos complexos definem um sistema como um grupo de

partes que interagem, funcionando como um todo e separadas de seu meio por

fronteiras bem delineadas. Existem vários tipos de sistemas no que diz respeito a

interação entre suas partes: por um lado as interações entre as partes podem ser

fixas, como em uma turbina de avião, por exemplo, ou no extremo oposto, elas

podem ser ilimitadas, como em um grupo de moléculas de gás. Os sistemas que

mais nos interessam são aqueles que estão no meio termo, com uma combinação

entre interações fixas e variáveis, como uma célula ou uma firma como veremos

um pouco mais adiante.

Na turbina de um avião, pequenas flutuações são rapidamente absorvidas. A cada

vôo, a pressão do ar ou a temperatura ambiente podem ser diferentes mas estas

diferenças não representam muito para a turbina como um todo pois o seu sistema

é estável e mantém o seu propósito.

As moléculas de gás, por outro lado, amplificam qualquer pequena diferença nas

condições do ambiente. Elas se adaptam a pequenas variações na temperatura

alterando seu curso drasticamente. Portanto, a instabilidade das moléculas de gás

mostra que elas não possuem um propósito. Elas simplesmente reagem a

mudanças no meio ambiente de forma extremamente imprevisível.

Um sistema complexo adaptativo não pertence a nenhum destes extremos. No

sistema estável (a turbina) não ha espaço para a chance (ainda bem!). O sistema

se mantém estável enquanto as flutuações do meio forem pequenas, mas colapsa

se as flutuações forem grandes. Todos podem imaginar o que acontece quando


78

um pássaro é sugado por uma turbina. Sistemas randomicos (as moléculas de gás)

se adaptam a mudanças mas são instáveis. Os sistemas complexos (células ou

firmas) que vemos ao nosso redor estão entre estes dois extremos. Eles são

estáveis e se adaptam até mesmo a grandes perturbações aleatórias. Estes estão `a

margem do caos : o ponto onde chance e necessidade coexistem. Para Stuart

Kauffman, sistemas `a margem do caos são capazes de sobreviver e se adaptar

mais efetivamente em ambientes turbulentos por estarem em sua melhor forma.

Para ele, “ a vida existe `a margem do caos”, ou seja, é um meio termo entre

estabilidade e caos.

O exemplo clássico de um sistema `a margem do caos são os montinhos de areia

que os físicos teóricos Per Bak, Chao Tang e Kurt Wiensfeld desenvolveram.

Atualmente, Per Bak é considerado um dos pais da ciência da complexidade. O

exemplo é simples. Imagine uma mesa e um aparelho capaz de soltar um grão de

areia por vez, no mesmo ponto, de cima para baixo a uma velocidade constante.

Eventualmente, um montinho começará a crescer até o ponto onde avalanches de

areia manterão a inclinação do montinho aproximadamente constante. O ponto

onde as avalanches começam a acontecer é o nível crítico do sistema. A diferença

entre este exemplo e o exemplo do castelo de cartas que vimos anteriormente é

que no caso do castelo de cartas, ao se adicionar mais uma carta, o sistema todo

pode ruir e voltar para o estado de estabilidade com as cartas todas no chão. Já no

caso da coluna de fumaça de cigarro, ao ultrapassar o nível critico, a coluna de

fumaça se quebra e o que se vê são formas caóticas.

No caso do montinho de areia o sistema não volta para o estado de estabilidade

nem tampouco para um estado caótico ao se adicionar sucessivos grãos de areia.


79

O sistema se auto-organiza de forma a sempre se manter na transição entre

estabilidade e caos, ou a margem do caos. Criticalidade por auto-organização

foi o nome dado a este tipo de fenômeno. Assim como as redes booleanas de

Kauffman, as avalanches no montinho de areia apresentam uma Lei de Potência

que é uma característica importante dos sistemas que atingem criticalidade por

auto-organização. O que se vê é uma grande quantidade de pequenas avalanches

e uma pequena quantidade de grandes avalanches. O gráfico abaixo mostra o

tamanho das avalanches no eixo horizontal e a freqüência de avalanches no eixo

vertical.

Montinhos de areia : exemplo clássico de criticalidade

por auto-organização Lei de Potência das avalanches do montinho de areia

Grãos de areia do mesmo tamanho podem causar pequenas ou grandes

avalanches. Os eventos (avalanches neste caso) são aperiódicos e a sua ocorrência

não é independente do que ocorreu no evento anterior, ao contrario do que


80

acontece em um jogo de cara ou coroa. Além disso, um evento não é mais

provável de acontecer por não ter acontecido há muito tempo (“não temos um

terremoto por muito tempo – um deve estar prestes a acontecer”). Contra-

intuitivamente, o oposto acontece : a Lei de Potência indica que quanto mais se

espera para que um grande terremoto ocorra em um certo lugar, mais se pode

esperar para que ele ocorra… Terremotos, assim como ônibus (“nada durante um

bom tempo e quando vem, três aparecem de uma só vez”) vem em blocos7.

Resumindo, Per Bak mostrou que muitos sistemas complexos se auto-organizam

para o nível crítico entre ordem (estabilidade) e caos, onde o tamanho dos eventos

obedecem a uma Lei de Potência : grandes eventos sendo menos freqüentes do

que pequenos eventos. Este fenômeno ficou conhecido como criticalidade por

Auto-Organização e é característico de sistemas que estão a margem do caos.

Em sistemas como estes, não se pode ter a pretensão de previsões de longo-prazo.

A pesar de haver uma Lei para a distribuição das avalanches ou terremotos, não

se pode prever os eventos individuais assim como não se pode prever com

precisão a conseqüência de tais eventos.

Algumas palavras de precaução devem ser mencionadas. Até mesmo grandes

estudiosos da Teoria do Caos, como Doyne Farmer, um físico de Los Alamos, o

laboratório onde foi criada a primeira Bomba atômica, no Novo México, que

estuda o assunto desde a década de 70, e hoje possui uma empresa de previsão

em mercados financeiros, atenta para o fato de que em questões de Economia8 :

7
Tendo trabalhado durante 5 anos na Mesa de Operações de Derivativos de Bolsa do Morgan Stanley pude observar que o
mesmo fenômeno ocorre com a freqüência de ligações por parte dos investidores quando aplicando em Bolsa de Valores. Estes
ficam sem ligar por um tempo e quando ligam, todos ligam ao mesmo tempo, como um efeito manada que se auto-reinforça.
8
Farmer, J. Doyne [1998] – “Market force, ecology and evolution” – Prediction Company, Santa Fe, NM.
81

“… não é obvio como conceitos tais como ordem, caos e complexidade

possam ser definidos com precisão, ainda mais a transição de fase entre

eles. Apesar disso, afirma ele, há algo sobre o conceito de margem do caos

que “cheira bem”. Veja o caso da União Soviética. Esta bem claro que o

regime totalitário e centralizador que organizava a sociedade não

funcionava. No longo-prazo, o sistema que Stalin montou era muito

estagnante, travado, muito rigidamente controlado para sobreviver. Ou olhe

para o exemplo do setor automobilístico norte-americano na década de 70.

As três empresas dominantes ficaram tão grandes e tão acostumadas a

fazerem as coisas de uma certa forma que não conseguiram reconhecer o

desafio apresentado pelos produtores japoneses, quanto mais reagir e ele.

Por outro lado, anarquia também não funciona… Nem o liberalismo

demasiado que causou os horrores observados na Revolução Industrial na

Inglaterra… O senso comum mostra que economias saudáveis, assim como

sociedades saudáveis, devem manter o balanço entre ordem e caos…

Assim como uma célula viva, elas devem se auto-regular como uma densa

rede com feed-backs e regras predefinidas, ao mesmo tempo em que deixar

espaço suficiente para criatividade, mudança e resposta a novas

condições… A dinâmica complexa a margem do caos parece ser ideal para

este tipo de comportamento.”

No livro Bionomics, Michael Rothschild propõe que a economia deveria ser

vista como um Ecossistema e faz um paralelo entre o funcionamento de uma

Firma com o de uma célula.


82

Figura do Livro Bionomics : Economia como Ecossistema. Comparação entre uma célula e uma Firma.

Seu argumento principal é que a economia, assim como um ecossistema não

possui uma direção central, um plano; elas se desenvolvem, ou evoluem

espontaneamente com o passar do tempo. A principal diferença entre a economia

e um ecossistema é que a economia evolui mais rapidamente do que o

ecossistema mas suas propriedades fundamentais seriam similares.

Rothschild vai adiante na utilização da metáfora biologia e propõe as seguintes

comparações : para ele o espaço econômico seria o mercado, o espaço biológico

seria o habitat. Dentro dos mercados existem diferentes industrias; dentro dos
83

habitats existem espécies. Dentro das industrias existem firmas; dentro das

espécies existem organismos. Dentro das firmas existem departamentos; dentro

dos organismos existem células.

Seu ponto é que as firmas podem ser vistam como organismos multi-celulares

assim como indivíduos são essencialmente o resultado da colaboração entre

zilhoes de células. Para ele, o indivíduo esta para a Economia assim como as

organelas estão para as células.

A razão pela qual economias evoluem mais rapidamente do que estruturas

biológicas é devido a presença de Curvas de Aprendizado. Nos sistemas

biológicos o “aprendizado” acontece quando o código genético é alterado por

mutações aleatórias que sobrevivem ao processo de Seleção Natural. Não ha um

propósito ou consciência e este processo é muito lento. Já o processo de

aprendizado na linha de produção de uma Firma é consciente e endógeno.

Quando um funcionário de uma linha de produção faz uma alteração no processo

e esta é para melhor, rapidamente a alteração é copiada pelos outros funcionários.

Estes estão observando e rearranjando o processo para melhora-lo. O aprendizado

é o que causa as Firmas e as Economias a crescerem e é fundamental para o

entendimento de como estas evoluem no tempo.


84

Sumário

Apesar do seu grande potencial para aplicações, a Teoria do Caos deixa algo a

desejar quando se trata de descrever sistemas sociais. A Teoria do Caos é um

pouco mecânica demais, apesar de que existe algo de mecânico no

comportamento social. Ela parece mais apropriada para descrever fenômenos

físicos, tais como as condições climáticas ou a turbulência dos fluidos do que

para a descrição do comportamento humano. Existe um elemento de vida

faltando na Teoria do Caos. Quando aplicada a sistemas vivos, ela tende sempre a

lidar com o elemento físico destes sistemas, como por exemplo a ascensão e

queda da população de insetos ou epidemias, o ritmo das batidas cardíacas ou o

padrão de crescimento das áreas urbanas. O estudo da complexidade também lida

com sistemas não-lineares mas busca entender fenômenos como adaptabilidade,

reprodução, evolução, cooperação ou inteligência. Um sistema complexo é mais

estável e previsível do que um sistema caótico, mesmo sendo altamente não-

linear. Além disso, estes sistemas residem `a Margem do Caos e possuem

estabilidade suficiente para ter memória e dinamismo suficiente para processar e

agir com base em novas informações. Estes seriam fatores chave para a evolução

destes sistemas. Sistemas sociais por exemplo, carregam informação a respeito de

si próprios e a respeito do seu meio ambiente. A informação permite que estes

sistemas se reproduzam ou que repliquem suas idéias. Permite também que os

sistemas forneçam previsões do efeito de suas atitudes e que possam interagir

com o meio com base nestas previsões. Este balanço entre ordem e caos permite
85

que os sistemas complexos se reproduzam, mudando de forma ordenada e se

auto-organizando, sem interferência externa.


86

PARTE 3

A EVOLUÇÃO DO PENSAMENTO

ECONÔMICO
87

Voando em Céu de Brigadeiro

Esta parte do livro será um passeio pelas diversas escolas de pensamento

econômico, começando pelos economistas clássicos até chegarmos na visão

moderna, onde a economia é vista como um sistema dinâmico complexo e não-

linear. Contudo, antes disso, é interessante que entendamos melhor o fenômeno

econômico em seu sentido mais primitivo.

O que é o estudo das Ciências Econômicas ?

Ciências Econômicas é um ramo das Ciências Sociais no qual estudamos

economias. Mas o que é uma economia? Porque precisamos estudar Ciências

Econômicas para entendermos as economias, ao invés de estudarmos Sociologia,

Antropologia ou Ciência Política?

O entendimento da economia esta ligado a vida material. A vida material envolve

a produção e distribuição de bens e serviços. Ela é tão antiga quanto a

humanidade existindo mesmo em sociedades primitivas onde a “produção” está

relacionada a apropriação de bens escassos providos pela natureza.


88

A vida material é um dos aspectos mais básicos da vida sob o qual outros

aspectos, tais como o social, o político, o religioso e o artístico podem ser

construídos. A produção e distribuição de alimentos e moradia, os bens mais

essenciais da vida, são a pré-condição para a sobrevivência de nossa espécie.

Apesar da vida material ser necessária, ela não é um fim em si mesma e sim um

meio de se atingir objetivos que podem ser primários, como comer um pedaço de

pão, ou supérfluos, como comprar uma Ferrari. Mas comer o pão ou dirigir uma

Ferrari é que são os objetivos finais.

Além disso, vivemos nossa vida material em sociedade devido a nossa natureza

social, mas também em função da nossa capacidade individual limitada de

produzir bens e serviços. Até mesmo nas sociedades mais primitivas a vida

material é feita de forma cooperativa quando por exemplo os homens vão todos

juntos a caça e as mulheres tecem redes. Estes são os benefícios da divisão do

trabalho. Portanto, como a produção é um fenômeno social, deve haver um jeito

de organizar e distribuir esta produção. Outras questões que surgem são: o que

motiva um homem a caçar mais do que ele precisa para o sustento próprio, como

se decide quem irá caçar e quem irá plantar, ou quanto terá que ser desmatado

para se plantar uma colheita ? O que garante que não faltará comida ou que os

caçadores irão continuar caçando e não fazendo potes de cerâmica, ou seja, que a

quantidade certa de bens e serviços será produzida? Que a sociedade não

enveredará pelo caminho da desorganização ou do colapso? Estas simples

questões são objetos de estudo das Ciências Sociais. Mas até aqui não foi preciso

entender o que é economia para entender o comportamento social. Somente


89

quando as forças de mercado entram em ação é que podemos entender o sentido

pleno da palavra economia.

O estudo da economia na civilização ocidental começou com os Gregos,

particularmente Aristóteles e foi reiniciado no séculos 13, 14 e 15 por um grupo

de teólogos, que ficaram conhecidos como Escolásticos, notadamente São Tomas

de Aquino, que fez uma ponte entre o mundo grego e a Europa da Renascença.

Sua Suma Teológica foi uma fusão entre a racionalidade aristotelica e a fé cristã

tendo se tornado o dogma oficial da Igreja Católica. No campo econômico os

Escolásticos estavam interessados basicamente em quatro temas : propriedade,

justiça nas trocas econômicas (preço justo), dinheiro e usura, temas que foram

ficando cada vez mais em voga com o começo da Era das Navegações e a

Reforma Protestante9 do século 16. Este século foi marcado por um importante

evento econômico : a descoberta de grandes quantidades de ouro e prata no novo

mundo. Como resultado, a Europa sofreu uma grande inflação. Outras inflações

já haviam ocorrido em decorrência de superprodução de moedas por parte do

Governo e da falsificação de moedas com metais menos nobres, pratica que era

punida com duras penas. Contudo, a grande inflação do século 16 era diferente

em escopo uma vez que pela primeira vez o estoque de moeda nas economias

havia mudado de patamar. Questões profundas começaram a ser feitas : o que

determina a quantidade de moeda na economia, como isso afeta o nível de preço,

e o que pode ser feito sobre isso? O jurista francês Jean Bodin (1566) é

normalmente creditado por ter apontado explicitamente a causa de toda inflação :

9
Reforma Protestante, movimento cismático dentro da Igreja católica que questionava a supremacia eclesiástica do papa,
propiciando a instauração das igrejas protestantes. O movimento surgiu no século XVI, quando Martinho Lutero e João Calvino
desafiaram os dogmas da Igreja eclesiastica.
90

elas seriam resultado de um aumento na oferta de moeda decorrente de

importação, pirataria, falsificação ou qualquer outra coisa. Normalmente

chamado de pioneiro da Teoria Quantitativa da Moeda, Bodin foi precedido por

Nicolau Copernico, o famoso astrônomo e matemático polonês que afirmou que o

valor do dinheiro se deprecia quando a oferta deste aumenta e pela Escola de

Salamanca da Espanha.

Para a toda poderosa Igreja Católica a inflação criou um problema adicional :

reduzia o valor das dividas. Os “capitalistas” da época queriam então cobrar altos

juros para reaver o prejuízo causado pela inflação, mas como a usura era proibida

parecia injusto não permitir a sua cobrança. A questão do preço justo ressurgiu

nos meios eclesiásticos para clarificar as regras das praticas comerciais. Foi a

Escola de Salamanca que tomou a dianteira no debate afirmando que o preço

justo seria aquele decidido pelo mercado. Eles defendiam sua posição com base

em uma doutrina utilitarista calcada em uma teoria de valor determinada pela

escassez dos bens, teoria esta que re-emergiu muito mais tarde com a Revolução

Marginalista.

A Reforma Protestante, por sua vez, teve um impacto substancial nas economias

da Europa. As novas atitudes formaram o pano de fundo que mais tarde levaram

as praticas mercantilistas e posteriormente as capitalistas. As idéias de Lutero não

eram muito diferentes dos Escolásticos nas questões econômicas. Ambos

concordavam com a ilegalidade da usura e condenavam as praticas monopolistas,

a especulação financeira e a importação de artigos de luxo. Lutero era a favor de

que autoridades seculares e não eclesiásticas enforcassem estas regras e apoiava a

intervenção, fatos que podem ajudar a explicar a relação Estado-comércio


91

observada mais tarde durante o Mercantilismo. Por outro lado, as atitudes de

Calvino não estão tão associadas com o Mercantilismo e sim com o Capitalismo

que o sucedeu. Na teologia de Calvino não havia espaço para Estados

nacionalistas, sendo estes subjugados a autoridades religiosas. Curiosamente,

havia amplo espaço para o comercio e o Capitalismo. Calvino esta fortemente

associado com a formação da Ética protestante de trabalho que explica em grande

parte o padrão de desenvolvimento econômico da Europa. Diferentemente de

Lutero, Calvino estava disposto a se livrar totalmente das doutrinas Escolásticas,

sendo a favor da usura caso esta não fosse excessiva.


92

Os Mercantilistas

Como conta Robert Heilbroner no clássico A História do Pensamento

Econômico, ao longo dos séculos o homem encontrou três caminhos para evitar a

desorganização social. O primeiro deles seria via a tradição, como no Egito

Antigo por exemplo, onde todo homem, por um principio religioso, deveria

seguir os caminhos profissionais de seu pai. O segundo seria via a força, utilizada

em sociedades autoritárias. E o terceiro seria finalmente o sistema de mercado,

onde cada homem poderia fazer o que fosse mais vantajoso monetariamente para

si.

Para que o sistema de mercado fosse assimilado em detrimento ao confortável

cenário de tradição e imposição, foi necessário uma revolução mercantilista. O

século XVII na Europa foi marcado por este pano de fundo. Intermináveis

guerras civis e religiosas lembradas normalmente por sua brutalidade. Das cinzas

e fumaça nasceram os Estados Nacionais e com estes duas classes de pessoas : os

burocratas e os comerciantes. Foi através da distribuição de panfletos, tratados e

estudos por parte destes praticantes que o Mercantilismo de desenvolveu.

Pouco a pouco, o desejo pelo lucro foi tomando conta do homem simples da

guilda e do trabalhador rural. Este sentimento provocou um abalo nas sociedades

européias ocidentais no século XVII : o período de transição entre o Feudalismo e

o Capitalismo. O Mercantilismo pode ser entendido como um conjunto de idéias

e práticas econômicas que caracterizam a história econômica européia e,

principalmente, a Política econômica dos Estados modernos europeus no período


93

citado10. Nota-se que o Mercantilismo foi a primeira demonstração do espírito

capitalista que levou ao desenvolvimento das sociedades ocidentais modernas.

Em um primeiro momento, ir em busca da riqueza pelo interesse da própria

riqueza era considerado cair no pecado da avareza. Foi necessário que uma

revolução no mundo das idéias ocorresse simultaneamente para que o sistema de

mercado emergisse. A idéia de que a vida na Terra era apenas uma passagem para

a Vida Eterna não estimulava o espírito de negócios e portanto a doutrina do

lucro pelo lucro era coisa do demônio. Verificou-se, ao longo do tempo, uma

decadência do espírito religioso. No núcleo do sistema mercantilista se

encontrava uma obsessão pelo Feedback positivo entre crescimento e acumulação

de riqueza. Quanto maior a atividade econômica, maior a riqueza (para os

comerciantes e para o Estado). Quanto mais riqueza, maior a atividade

econômica. Eles reconheciam duas precondições básicas para o crescimento do

comércio : e existência das oportunidades de lucro e a flexibilidade e existência

de crédito. Os Mercantilistas propunham que a atividade cresce toda vez que os

preços sobem (eles acreditavam que a alta de preços levava a um aumento dos

lucros) e que o juro cai (por facilitar a demanda por credito). Ambas as coisas

aconteciam quando a quantidade de moeda na economia aumentava. Moeda,

naqueles dias era ouro e prata. Portanto, de forma a aumentar a produção do país,

era recomendado que o Estado utilizasse de todos os meios para garantir que a

maior quantidade de ouro e prata entrasse no pais e a menor quantidade saísse.

A doutrina Mercantilista se manteve até boa parte do século 18 quando o

Iluminismo, ou século das luzes, trouxe consigo uma visão humanista, céptica e

inquiridora do mundo. Uma nova era, iluminada pela razão, a ciência e o respeito
10
Definição de Francisco Falcon [1989] em “Mercantilismo e Transição” – Editora Brasiliense, 10 edição.
94

à humanidade. As novas descobertas da ciência, a teoria da gravitação universal

de Isaac Newton e o espírito de relativismo cultural fomentado pela exploração

do mundo ainda não conhecido foram também uma base importante. O

Iluminismo representava uma nova atitude, uma nova maneira de pensar que

questionava a fé em prol da razão. Estes ideais marcaram o declínio da Igreja e

deram impulso ao sectarismo atual, servindo de base para o liberalismo político e

econômico e para a reforma humanista onde a pessoa humana é vista com

dignidade e valor. Ironicamente, o comerciante protestante passou a ter um lugar

na sociedade onde homens ricos eram vistos como santidades.

Os trabalhos de Richard de Cantillon e Jacques Turgot e dos Fisiocratas na

França e de David Hume e seu amigo Adam Smith na Grã-Bretanha iam de

encontro com as idéias Mercantilistas. Na nova visão, a riqueza de uma nação

vinha com o aumento do fluxo e circulação de renda e não do estoque de moeda.

Os economistas do Iluminismo introduziram a idéia de um balanço natural destes

fluxos, substituindo a obsessão pelo crescimento dos Mercantilistas pela obsessão

pelo equilíbrio.
95

Os Fisiocratas

Os Fisiocratas desenvolveram a idéia de que a economia era um fluxo circular de

renda e produto. Eles se opunham as idéias Mercantilistas de incentivar o

comércio em detrimento a agricultura por acreditar que a agricultura era a única

fonte de riqueza de uma economia. Como uma reação as regulamentações

comerciais exageradas dos Mercantilistas (que eram contra as importações de

manufaturados estrangeiros), os Fisiocratas advogavam a Política do laissez-faire

(deixar fazer), que desincentivava a intervenção do governo na economia.

O nascimento da Economia como Ciência foi marcado pelas observações do Dr.

Francois Quesnay (1694-1794) o médico da corte de Luis XV, Rei da França.

Por ser um médico, Quesnay comparou o fluxo do sangue no corpo com o fluxo

de dinheiro em uma economia, construindo o tableau economique na

Dr. Francois Quesnay (1694-1794) o médico da corte de Luis XV, Rei da França. O primeiro a comparar a economia

com um sistema biológico.


96

primeira tentativa de modelar matematicamente uma economia mostrando as

relações entre seus diversos setores.

Se o fluxo de sangue for interrompido em alguma parte do corpo, esta parte se

atrofia. Da mesma forma se uma parte da economia ficar sem o fluxo de

dinheiro, esta se atrofiará e morrerá. Em outras palavras, a riqueza de um pais

não era mais medida pela quantidade de ouro e prata proveniente das Grandes

Navegações. Ela era gerada na produção e espalhava-se, de mão em mão através

do pais, fortalecendo o organismo social como a circulação do sangue fortalece

o corpo. Por acreditar no conceito de “ordem natural”, Quesnay e seus

seguidores foram chamados de Fisiocratas. Eles na verdade preferiam ser

chamados de economistas, ou seja, administradores da casa (do grego ‘ecos’,

para casa e ‘nemein’ para administrador). Quesnay foi responsável por cunhar o

slogan que ficou popular em sua época - Laissez faire, laissez passer - ou seja,

deixar fazer, deixar passar. Os Fisiocratas foram um movimento de oposição a

tradição mercantilista francesa que apoiava o intervencionismo estatal e o

protecionismo nacionalista. Eles acreditavam na abolição dos monopólios, das

barreiras comerciais, dos privilégios e advogavam o individualismo e o conceito

da propriedade privada. Na sua visão, o próprio indivíduo, e não o estado, seria

o melhor juiz para si próprio.


97

O Nascimento de uma nova Ciência

Um novo mundo estava começando. Um mundo onde as relações de trabalho não

se davam mais de forma tradicionalista ou impositiva e sim de forma

independente e pessoal. O trabalhador não mais precisava obrigatoriamente estar

ligado a uma determinada guilda ou propriedade rural. O seu trabalho era de sua

propriedade e poderia ser negociado no mercado como uma mercadoria qualquer.

A partir deste momento, estão abertas as porteiras para que o Capitalismo se

desenvolva livremente. Eis que surge o Homo Economicus. Com o mercado vem

o Capitalismo, com o Capitalismo vem a Ciência Econômica, que busca entender

as relações entre as forças que comandam nossa vida material.

Para entendermos o futuro do Capitalismo se faz necessário compreender de onde

ele veio. Isto significa dizer que é importante uma visão histórica do Capitalismo.

Porque o Capitalismo e não o Feudalismo, por exemplo, forneceu as bases para a

Revolução Industrial que transformou o próprio Capitalismo? É importante

pensar nos caminhos do processo evolutivo que fizeram com que o Capitalismo

se transformasse no que ele é hoje . É como se a economia fosse um grande

sistema dinâmico que evoluiu de um atrator (Feudalismo) para outro

(Capitalismo) em um processo gradual e adaptativo no qual cada passo do

processo leva a um estagio mais complexo do sistema como um todo. Uma das

conclusões do estudo de sistemas complexos é que a “história importa” na

evolução de longo prazo das economias. Intuitivamente, isto significa que o

comportamento de longo prazo destes sistemas é influenciado por fatores de curto

prazo. Esta idéia é conhecida como “trajetórias dependentes”, do inglês path


98

dependence, que quer dizer que eventos acontecidos no passado têm

conseqüências permanentes na trajetória econômica. Como na vida de qualquer

um de nós, decisões que tomamos no passado terão influencia em nossas vidas ao

longo de um bom período de tempo. Ou em outras palavras, as opções que temos

no presente são função das decisões que tomamos no passado. O efeito das

trajetórias dependentes é uma espécie de versão dinâmica do efeito feedback.

Quando um evento ou comportamento em um determinado momento no tempo

pode induzir a um evento ou comportamento similar em um momento futuro, o

sistema pode apresentar múltiplos tipos de comportamento, cada qual induzido

por eventos ocorridos no passado histórico do processo. Sistemas dinâmicos

complexos, apesar de apresentarem o efeito de trajetórias dependentes não são

determinísticos. Eles se referem a processos econômicos no qual eventos

históricos tem conseqüências de longo prazo, assim como processos nos quais

eventos históricos são meramente persistentes, ou seja, se dissipam com certa

facilidade no tempo. Vale notar que determinados eventos podem não se dissipar

naturalmente do sistema, somente dissipando-se após algum outro evento

aconteça.

Portanto, o estudo da história da economia não é apenas uma opção para aqueles

que querem estudar Ciências Econômicas e sim um fator de vital importância,

uma vez que o conhecimento econômico afeta a própria economia, numa espécie

de efeito feeback. É como se o conhecimento histórico afetasse a tomada de

decisões, que por sua vez afetam o percurso da história.

O primeiro trabalho sobre economia moderna, Estudo sobre a Natureza e Causa

da Riqueza das Nações (A Riqueza das Nações), publicado em 1776 por Adam
99

Smith, não foi apenas uma teoria do funcionamento dos mercados. Ele se

transformou na base das políticas sob a qual economias inteiras eram governadas.

No século XX, mais precisamente em 1936, a Grande Depressão levou John

Maynard Keynes a escrever a Teoria Geral do Emprego do Juro e da Moeda. Tal

trabalho levou a uma grande reestruturação no papel do Governo em economias

capitalistas. A consciência histórica de Smith e Keynes afetou o próprio percurso

da história. Eventos históricos levam a novas decisões econômicas que por sua

vez causam novos eventos históricos.

A Ciência Econômica é quase como uma religião. Havendo teorias para todos os

gostos, seitas e denominações. Economistas Neoclássicos, Keynesianos,

Schumpeterianos, Marxistas, Pós-Keynesianos, Novo-Clássicos, Neo-

Schumpeterianos e etc… acreditam, cada qual, que sua visão de mundo (e sua

definição de economia) é melhor ou mais genérica do que as outras. O que

buscaremos fazer é mostrar a evolução de algumas das idéias das principais

correntes de pensamento econômico, até chegarmos a visão conhecida como

Santa Fé Economics, onde os sistemas econômicos são vistos de forma dinâmica,

evolutiva e complexa. Esta visão foi facilitada pelo desenvolvimento de conceitos

provenientes da Teoria do Caos Determinístico e posteriormente da Ciência da

Complexidade, no intuito de explicar alguns fenômenos econômicos

parcialmente inexplorados ou ignorados pelas teorias anteriores.


100

Os Clássicos

O termo Clássico se refere ao trabalho desenvolvido por um grupo de

economistas no século 18 e 19. Muito dos seus trabalhos versam sobre teorias de

como o mercado e as economias de mercado funcionam. Boa parte da teoria

desenvolvida por estes grandes economistas, foi, em um segundo momento,

reavaliada e adaptada por economistas contemporâneos , que seriam conhecidos

por economistas neoclássicos.

O pano de fundo do surgimento das idéias clássicas em economia foi a Inglaterra

e a baixa Escócia por volta dos anos 1723, quando nasceu Adam Smith, na cidade

de Kirkcaldy, Condado de Fife, uma vila na Escócia com pouco mais de 1500

habitantes. Um de seus biógrafos conta que Smith, pouco após de nascer, foi

seqüestrado por ciganos que passavam por Kirkcaldy, sendo sua recompensa

paga em pregos (segundo conta a lenda), moeda ainda usada na época em

algumas cidades.

Desde cedo, apesar de distraído, Smith era uma bom aluno. Aos dezessete anos

foi enviado a Oxford com uma bolsa de estudos. Após seis anos lendo tudo que

caia em suas mãos, Smith aprendeu a Cultura Grega e leu O Tratado sobre a

Natureza Humana de David Hume que nascera 12 anos antes de Smith e foi outro

expoente intelectual da época. O interesse de Smith pelo trabalho de Hume fez

com que Smith tivesse de partir de Oxford, pois lá sua leitura não era muito

recomendada.
101

Em 1751, com vinte e oito anos, foi apontado professor de lógica na

Universidade de Glasgow, mudando em 1752 para a cadeira de Filosofia Moral

por um infortúnio, pois o professor titular desta cátedra falecera, um cargo que

mais lhe satisfizera. Neste mesmo ano Smith fora admitido nas sociedades

eruditas mais prestigiosas da época, tais como a Edimburg Society e fundou (em

1754) a influente Select Society. Suas aulas cobriam os campos de Ética,

Retórica, jurisprudência e Economia Política e eram um exemplo vivo do período

que ficou conhecido por Iluminismo Escocês. No seu modo de ver, o estudo da

justiça leva ao estudo dos sistemas legais, que por sua vez levava ao estudo dos

governos e consequentemente ao estudo da Economia Política.

Publicou sua Teoria dos Sentimentos Morais, em 1759, um trabalho que se

espalhou pela Alemanha e pela França sendo reeditado até sua morte em 1790.

Quem conta é o professor Wiston Fritch11 :

“O primeiro grande momento de sua carreira literária viria em 1759, com a publicação

da Teoria dos Sentimentos Morais, parte inicial de um ambicioso projeto literário que

pretendia cobrir todas as áreas tratadas em seu curso de Filosofia Moral e que incluiria

ainda um tratado sobre princípios de economia e Ciência econômica - o que viria a ser a

Riqueza das Nações - e um tomo final sobre legislação e jurisprudência, que entretanto

nunca seria publicado.”

Do ponto de vista biográfico, a publicação de seu primeiro tratado filosófico teve

conseqüências marcantes. Por um lado a obra marca o inicio de sua reputação

nacional como pensador de primeira grandeza. Por outro lado, leva Townshend,

entusiasmado com a performance de Smith, a decidir confiar-lhe a tutoria de seu

11
Smith, Adam. [1996] – “A Riqueza das Nações : Investigação sobre sua Natureza e suas Causas” – Título originalmente
publicado em 1776. São Paulo, Brasil : Editora Nova Cultural. Série Os Economistas.
102

enteado, o Duque de Buccleugh, tão logo o jovem duque completasse seus

estudos secundários e, em fins de 1763, oferece a Smith uma irrecusável pensão

vitalícia de 300 libras anuais, o equivalente ao dobro do salário por ele recebido

em Glasgow. Adam Smith renuncia a seu posto na Universidade e parte de

Buccleugh no inicio do ano seguinte para uma viagem de dois anos e meio a

França. A França tinha uma atração especial para os Escoceses pois era de onde

vinha ajuda em guerras contra os ingleses. Foi lá que Smith encontrou os

Fisiocratas, Voltaire e começou a escrever a sua grande obra, A Riqueza das

Nações.

Smith era um homem curioso. Amava sua biblioteca pessoal (composta por mais

de 3000 livros) e dizia que tudo que tinha de bonito eram seus livros. Vivia

continuamente absorvido em suas abstrações, estando constantemente entretido

em seus pensamentos e por vezes era visto falando sozinho. Viveu uma vida

quieta e recatada com sua mãe, que morreu aos 90 anos, dois anos antes de sua

própria morte. Seus estudantes o amavam, vindo as vezes de muito longe para

poder vê-lo.

Apesar de tímido, Adam Smith possuía o dom da oratória. Mesmo em conversas

corriqueiras, Smith expunha com admirável eloquência suas idéias. Muitos

consideram Smith o pai da Economia Moderna.

O seu método era fazer em um primeiro momento um estudo histórico do tema

em questão e posteriormente avançar no assunto, usando muitas vezes o

arcabouço teórico de pensadores contemporâneos. Conhecia como vimos, o

trabalho dos Fisiocratas franceses e de Montesquieu. Em Paris, Smith conheceu

também Quesnay e os Ministros Franceses Anne Robert Jacques Turgot


103

(1727-81) e Jaques Necker (1732-1804). Em linhas gerais, Smith concordava que

os Fisiocratas franceses tinham as melhores respostas para as questões de seu

tempo : “(O sistema fisiocrata) com todas suas imperfeições é, talvez, a melhor

aproximação da verdade que tenha sido publicada sobre o assunto de Economia

Política.”

Foi desta fonte que Adam Smith bebeu. Ele acreditava que os humanos são

“indivíduos interesseiros por natureza e imbuídos de um espirito de competição”

e assim como os Fisiocratas, Smith acreditava que a economia corrigiria a si

própria se deixada funcionar livremente. Como se houvesse uma atração natural

ao equilíbrio. Muito do trabalho de Smith foi em cima deste tema e ele introduziu

a noção de uma “mão invisível” que guiava a atividade econômica ao seu

equilíbrio ótimo. Smith observou que o crescimento econômico era um processo

que envolvia padrões crescentes de especialização e divisão do trabalho. O

Mundo de Adam Smith era o mundo do equilíbrio. Uma visão mecanicista e

deterministica, mas revolucionária para a época.

Smith argumentava que a “mão invisível” iria auto-organizar os mercados e

garantir o melhor resultado em termos de alocação dos recursos, quantidade

produzida, preço justo e até mesmo bem-estar social. Isto se daria com indivíduos

e firmas perseguindo seu próprio interesse e apesar deste aparente egoísmo

generalizado o sistema cresceria rapidamente com a mão invisível das forças de

mercado se encarregando de corrigir quaisquer desvios deste padrão de

crescimento. O mercado se auto-regula e é seu próprio guardião. Na verdade,

uma das ambições de Smith era desenvolver uma Teoria da Ética derivada dos

instintos e sentimentos naturais do homem em detrimento a outras doutrinas


104

artificiais. Ele acreditava que todo homem tinha um desejo básico de ser aceito

por outros, ou seja, de receber sua “simpatia”. Para obter esta “simpatia”, um

homem (em seu próprio interesse) deveria se comportar de forma tal que fosse

respeitado e admirado por outros. Dentro de cada homem, um senso ético

desenvolveria uma consciência que filtraria os pensamentos antes de torna-los

ações, omitindo aqueles que não levariam a “simpatia” de outros. Portanto, ser

um indivíduo ético não seria uma questão moral, ou de benevolência e sim de

interesse próprio.

As teorias clássicas de economia cresceram então ao redor da noção de mercado.

Se os mercados funcionassem livremente, rapidamente a economia viria a

prosperar. Quaisquer imperfeições neste processo deveriam ser remediadas pelo

Governo, ou seja, um dos papeis do Governo seria garantir o livre funcionamento

dos mercados através de um orçamento balanceado. As principais teorias usadas

para justificar esta visão eram :

• Livre Mercado de Trabalho

• Lei de Say

• Teoria Quantitativa da Moeda.

Os economistas clássicos assumiam que se a economia estivesse livre de

interferências, ela tenderia ao equilíbrio de pleno emprego, ou seja, todos aqueles

indivíduos que desejassem um trabalho, dado o nível geral de salários, obteriam

emprego. Para que o mecanismo funcionasse, os salários deveriam ser flexíveis,

ou seja, seriam a variável de ajuste do sistema. Neste caso, se houvesse

desemprego (que nada mais é do que um excesso de oferta de trabalho), o nível

geral de salários cairia, o que levaria a um aumento na demanda por trabalho e


105

consequentemente ao restabelecimento do nível de equilíbrio de pleno emprego.

Se mesmo assim houver desemprego, este seria considerado voluntário, ou seja,

pessoas que resolveram não trabalhar por causa do nível geral de salários que

equilibra o mercado de trabalho. Para os economistas clássicos, não havia o caso

onde uma pessoa desempregada, que buscasse trabalhar ao dado nível geral de

salários (ou até mais baixo) não encontre emprego. Eles assumiam que um

desequilíbrio desta natureza poderia ser evitado em um mercado de trabalho

competitivo onde trabalhadores desempregados aceitariam trabalhar por salários

mais baixos. Portanto, este sistema de salários flexíveis garantiria o equilíbrio de

pleno emprego, que por sua vez aplicado ao montante de máquinas e

equipamentos (estoque de capital) da economia, determina o nível geral da

produção. A determinação da renda nacional depende portanto quase que

exclusivamente de fatores tecnológicos, sem quaisquer menção ao nível de

demanda agregada. O nível geral da produção era portanto determinado por dois

fatores : a função de produção e a curva de oferta de trabalho. A função de

produção relaciona o total de bens e serviços produzido na economia com o nível

de emprego, assumindo que o estoque de capital é fixo no curto prazo. Neste

caso, a função de produção apresenta retornos decrescentes de escala, ou seja, se

para uma mesma máquina alocarmos um número crescente de trabalhadores, a

quantidade adicional produzida por cada trabalhador será decrescente. Por

exemplo, um tear funciona idealmente com dois trabalhadores. Se adicionarmos

mais um trabalhador ao mesmo tear, a produção total do tear não aumentará na

mesma proporção do trabalho adicionado. Se mais um trabalhador for adicionado

ao mesmo tear, a produção deste, dado o nível de trabalho aplicado, será menor
106

do que se estes dois trabalhadores pudessem ser alocados a outro tear. Em outras

palavras, o aumento da produção resultante do emprego de mais uma unidade de

trabalho é decrescente, dado o estoque de capital. Estes conceito é importante

pois forma a base para teoria clássica de demanda por trabalho.

A demanda por trabalho de uma firma operando em condições de concorrência

perfeita e em busca da maximização do lucro será determinada pelo nível de

produção no qual o custo marginal (ou seja, o custo adicional para se produzir

mais uma unidade) é igual ao preço de seu produto (que, do ponto de vista da

firma é fixo e determinado por fatores fora de seu controle).

É interessante notar que a demanda agregada não tinha lugar na determinação do

nível da produção, uma vez que os clássicos acreditavam na Lei de Say, que

postulava: A oferta cria sua própria demanda. De acordo com esta lei, seria

impossível que houvesse superprodução de bens porque as pessoas trabalham

para poder comprar bens e serviços com suas remunerações, ou seja, o indivíduo

só produziria no montante em que ele desejasse comprar e se todas as pessoas

agissem da mesma forma, não haveriam crises de superprodução ou subconsumo.

Qualquer aumento na oferta de trabalho corresponderia a um aumento na

demanda por bens, caso contrario não haveria porque trabalhar mais horas. Esta

observação é em geral falsa, mas em uma economia primitiva, onde os salários

eram pagos com produtos e serviços e não em dinheiro, ela se torna verdadeira

pois não há como aumentar a oferta de trabalho sem com isso aumentar a

demanda por bens e serviços. Na verdade esta lei é uma identidade que afirma

que a oferta agregada deve ser igual a demanda agregada. Uma adaptação da

Identidade de Say para uma economia monetária foi feita pelos clássicos
107

assumindo a hipótese de que as pessoas não tem interesse no dinheiro pelo

dinheiro, pois este era apenas um meio de troca, e sim nas coisas que o dinheiro

pode comprar. Neste caso, não haveria porque poupar neste sistema e qualquer

excesso de receitas sobre despesas seria emprestado a uma taxa de juros lucrativa

`a pessoas cujas despesas fossem maiores do que as receitas. Neste caso, a

igualdade entre gastos planejados (demanda agregada) e receitas esperadas

(oferta agregada) vai estar em equilíbrio através do efeito da taxa de juros nos

níveis de investimento e consumo.

O terceiro componente da teoria clássica que garante o equilíbrio de pleno

emprego é a Teoria Quantitativa da Moeda, que assume que o nível de preços é

determinado pela quantidade de moeda que o Governo coloca na economia. Em

outras palavras, um aumento na quantidade de moeda levaria a inflação. Portanto,

como vimos, os clássicos conseguiam chegar a conclusão de que a economia

tendia ao equilíbrio, mesmo sem precisar conhecer a demanda agregada, pois a

oferta cria sua própria demanda, o dinheiro é apenas meio de troca, e as pessoas

trabalham para receber mercadorias por meio de mercadorias. Deste modo, a

riqueza era criada na economia devido a divisão do trabalho, pois somente assim

haveria empregos para todos onde o mercado era o responsável em distribuir a

riqueza criada de modo a que o bem-estar geral da nação fosse assegurado. Este

processo era automático, caso não houvessem interferências externas. Assim,

mesmo que no curto prazo o equilíbrio não estivesse estabelecido, isto

aconteceria deterministicamente no longo prazo. O tempo em que este processo

convergiria ao equilíbrio de pleno emprego não era conhecido e não poderia ser

previsto pelo modelo.


108

No Curto -prazo
Assim, qualquer aumento inesperado na demanda agregada, no curto prazo

levaria a um aumento na produção, e também a um aumento de preços. Isto

aconteceria pois as firmas sofrem de retornos decrescentes e são forçadas a

aumentar o preço dos seus produtos para cobrir um nível mais alto de custos.

Podemos notar aqui um certo efeito feedback, onde uma elevação dos custos leva

a um aumento nos preços e vice-versa, como em um vínculo vicioso. Diversos

fatores poderiam afetar o nível de demanda agregada, quais sejam:

• Aumento na oferta de moeda, pois como a moeda era usada somente como

meio de troca, um aumento na quantidade de moeda em circulação na

economia, necessariamente levaria a um aumento na quantidade de

mercadorias demandadas.

• Menores impostos, pois sobraria mais moeda na mão dos consumidores que

levaria a um aumento na propensão a consumir.

• Aumento nos gastos do Governo.

No Longo prazo

No Longo prazo, contudo, a situação era diferente. A economia tenderia ao pleno

emprego pelas próprias forças do mercado e aumentos inesperados na demanda

agregada teriam efeitos apenas passageiros (persistentes) que se dissipariam ao

longo do tempo. Um aumento na demanda provocaria somente um aumento no

nível de preços, causando inflação, mas não aumentaria a quantidade de produtos

total produzida.
109

Sumário

Os economistas clássicos acreditavam que o sistema econômico se auto-ajustava.

Como se houvesse um atrator que puxava a economia ao pleno emprego.

Qualquer interferência a este processo seria desestabilizadora ou inflacionaria. A

chave para o crescimento equilibrado estável de longo prazo seria :

• Garantir mercados livres e competitivos (perfeitos) através de políticas de

incentivo ao aumento de oferta;

• Controlar o crescimento da oferta de moeda para evitar inflação.

As políticas de incentivo ao aumento de oferta seriam aquelas que ajudariam a

reduzir as imperfeições do mercado. Se o nível de oferta de produtos aumentasse,

pela Lei de Say, a demanda também aumentaria. Esta seria a única maneira não

inflacionaria para aumentar a produção. Estas políticas poderiam incluir : melhor

educação e treinamento para a força de trabalho, a redução dos benefícios para

aumentar a necessidade de trabalhar, redução dos impostos para incentivar o

espirito empresarial, redução do poder dos sindicatos para que os salários fossem

mais flexíveis, acabar com o controle de capitais e remover regulamentações

desnecessárias. Estas seriam as medidas necessárias para fazer com que o sistema

econômico mudasse para um patamar superior de equilíbrio.


110

A Teoria do Valor

Durante milênios, literalmente, acadêmicos e teóricos tentaram deduzir como

determinar o valor de um bem. Desde os tempos dos pré-socráticos até os pré-

keynesianos, varias correntes de pensamento propuseram uma explicação (quase

sempre divergente) para este fenômeno. Antes de passarmos `a escola de

pensamento neoclássica, faremos uma pequena pausa para contar a história do

valor e veremos como esta influenciou na ruptura entre o pensamento clássico e o

neoclássico.

O debate sobre a Teoria do Valor começou na Grécia Antiga e ficou dormente

durante a Idade Media, reemergindo nos idos do século dezessete para dominar o

pensamento econômico pelos próximos 200 anos. Ainda hoje esta é uma

discussão relevante para o campo das ciências econômicas, tendo Schumpeter

afirmado12 :

“o problema do valor deve sempre ter uma posição central como

instrumento de análise em qualquer teoria que trabalhe com um esquema

racional.”

O primeiro passo na longa e tortuosa batalha intelectual com a questão do valor

foi dado pelos filósofos da Academia de Atenas, quatro séculos antes de Cristo.

Foi Aristóteles (384-322) quem sugeriu que a noção de valor estava diretamente

relacionada com a noção de necessidade, sem a qual a troca entre duas

mercadorias não seria feita. Originalmente, foi ele quem fez a distinção entre

12
Schumpeter, Joseph – “The Theory of Economic Development” - Título originalmente publicado em 1964 em Berlim,
Alemanha por Dunker & Humblot.
111

valor-de-uso, ou seja, o valor que um objeto tem para o seu próprio dono, e valor-

de- troca, o valor que um objeto tem para o mercado.

Para tudo que possuímos existem dois usos. Por exemplo: uma roupa pode ser

usada para vestir ou para ser trocada por alguma coisa.

A procura pela definição de uma noção de valor continuou em direção ao

conceito de utilidade dado pelos mercantilistas durante o século XVI e a primeira

metade do século XVII. A supremacia deste argumento foi evidenciada em 1588

quando Bernardo Davanzati tentou construir uma teoria do valor baseada na

noção de utilidade, em seu livro Lecture on Money. Não é de se surpreender que

os mercantilistas concentraram sua visão nos determinantes da demanda por bens

(utilidades), uma vez que seus lucros dependiam da diferença entre o preço de

compra e venda e não do controle do processo de produção. Para os teóricos

medievais, valor dependia não somente do valor intrínseco mas também da

utilidade e da escassez. Shakespeare em Ricardo III “Um cavalo, um cavalo, meu

reino por um cavalo”, demonstra a visão subjetiva de valor que havia naquela

época. Apesar das falhas e limitações deste método unilateral, este período é visto

como aquele que deu origem `as teorias de valor que influenciaram o

desenvolvimento da ciência econômica.

Mas foi somente no final do século XVII, quando economistas, que seguiam a

filosofia cartesiana da dedução, romperam com a visão de utilidade mercantilista

e usaram a noção de custo de produção. William Petty (1623-1687) que foi

influenciado pelos avanços científicos de sua era, abandonou a teoria subjetiva de

valor e procurou objetivamente pelas leis naturais de valor. De acordo com Petty,

o preço de mercado (preço atual) de qualquer commoditie poderia flutuar


112

indefinidamente ao redor do seu valor natural (preço natural). Os determinantes

do valor natural eram deduzidos dos fatores de produção - terra e trabalho.

Foi John Law (1671-1729) quem conseguiu montar uma Teoria do Valor calcada

na análise de oferta e demanda. Em seu “Essay on a Land Bank”, Law criou o

velho paradoxo água/diamante, no qual, mesmo os mais inúteis diamantes são

mais valiosos do que a mais útil água e conciliou o mistério do valor utilizando a

analise oferta e demanda. Portanto, qualquer alteração no valor de um bem seria

devido a mudança em suas quantidades demandadas ou ofertadas.

Chegamos, então, ao livro Riqueza das Nações de Adam Smith (1723-1790) que

levou o debate sobre o valor de volta `a Teoria do Valor Trabalho de Petty. A

ênfase dada pelos clássicos ao custo do trabalho pode ser considerada um

retrocesso quando comparada a analise pré-clássica. De fato, Smith falhou em

resolver os problemas resultantes da relação valor-de-uso e valor-de-troca ao se

focar na utilidade total e não na utilidade marginal13. Sua confusão ficou clara ao

utilizar duas teorias de valor. Ele utilizou o custo do trabalho para uma sociedade

primitiva e a Teoria do Custo de Produção para uma sociedade mais avançada.

Em sua analogia, Nação de Caçadores, Smith afirma:

“ O valor de qualquer commoditie….para a pessoa que a produz e não

pretende consumir ou usa-la e sim troca-la por outra commoditie, é igual a

quantidade de trabalho empregada”.

Porém, quando percebeu que os salários não eram proporcionais ao preço final de

todos os bens, notou que sua Teoria Valor-Trabalho para uma economia
13
Por utilidade marginal entenda-se a utilidade adicional no consumo de uma unidade a mais de um bem. Pense no prazer que
um copo d’água no meio do deserto proporcionaria a um viajante. Ao primeiro copo d’água pode ser atribuído um valor
absurdo, pois este proporcionaria grande prazer ao viajante. O segundo copo d’água já não proporcionaria tanto prazer e
portanto seu valor seria menor, e assim por diante, até chegarmos ao ponto onde um copo d’água no deserto não vale mais nada
para o viajante. Observamos então que o valor de um bem esta diretamente relacionado com sua utilidade marginal e não de sua
utilidade total, como pensava Adam Smith.
113

avançada não funcionaria. Ao invés, ele optou por uma Teoria do Valor baseada

no custo de produção. Nesta Teoria, terra, trabalho e capital eram os fatores

determinantes.

David Ricardo (1772-1823) que em seu tratado Princípios de Economia Política

adotou a hipótese abandonada por Smith da Teoria do Valor-Trabalho, tentou

evitar o raciocínio circular de mensurar trabalho com salários. Ele sentiu que

valor dependia da quantidade de trabalho (mensurada em horas) necessária para a

produção. Mais preciso e claro que Smith, Ricardo afirmou14 :

“ Possuindo utilidade as commodities derivam seu valor de troca de dois

fatores: sua escassez e da quantidade de trabalho necessária para adquiri-

las”.

Apesar de aceitar que o valor poderia ser determinado apenas pela escassez

(documentos raros, por exemplo), estes eram casos insignificantes. Sua Teoria do

Valor-Trabalho somente se aplicava a mercados competitivos onde os bens

fossem livremente reprodutíveis. Afinal de contas, Ricardo, filho de um

comerciante de origem judaica que havia imigrado da Holanda, viveu na

Inglaterra na época da Primeira Revolução Industrial, quando as primeiras

máquinas a vapor, teares mecânicos e ferrovias foram empregadas no processo

produtivo. No campo ideológico, foi influenciado pelas idéias de Liberdade,

Igualdade e Fraternidade originarias da Revolução Francesa de 1789 que

culminou na tomada da Bastilha. Ricardo, ainda jovem, conseguiu acumular boa

riqueza como operador da bolsa de Londres e se sentia atraído pelo mundo dos

negócios.

14
Pressman, Steve. [1999] – “Fifty major economists : a reference guide”, pp.35-40– New York, NY : Routledge.
114

Os Neoclássicos

Apesar das origens da Teoria do Valor-Utilidade remontarem a Mountifort

Longfield em 1834, no Trinity College em Dublin, foram William Jevons

(1835-1882) em sua Teoria da Economia Política e Carl Menger15 (1840-1921)

em Princípios de Economia Política que desenvolveram o novo instrumental

marginalista de analise para o estudo da Teoria do Valor. A escola de pensamento

neoclássica emergiu por volta de 1870 e dada a insatisfação na explicação

clássica de determinação do valor dos bens, principalmente para bens que não

podiam ser facilmente ofertados, Jevons e Menger formularam separadamente

suas teorias da utilidade marginal, onde o valor de um bem dependia inteiramente

de sua utilidade. Como Davanzati no século XVI, para eles não importavam os

custos para a produção de um bem e sim, quando este bem chegasse ao mercado,

o valor que o comprador atribuísse, dada a utilidade que ele esperasse receber.

Neste caso, Jevons precisava chegar a uma Teoria da Utilidade, que para ele

passava pelo cálculo do prazer e do sofrimento. Apesar de saber das dificuldades

para a medição dos sentimentos do coração humano, e da capacidade de se

conceber uma unidade de prazer ou sofrimento, Jevons afirmou que seriam os

montantes desses sentimentos que estaria nos induzindo a comprar e vender,

tomar emprestado ou emprestar, trabalhar e repousar, produzir e consumir.

15
Como veremos mais adiante, Menger é considerado o fundador da escola de pensamento Austríaca, que se assemelha a escola
neoclássica no que tange questões de livre comercio e interferência do Governo na economia mas que não se utiliza da
matemática com linguagem.
115

Seriam os montantes quantitativos dos sentimentos que possibilitariam sua

comparação, como afirmou ele16 :

“… A vontade é nosso pêndulo, e suas oscilações são minuciosamente

registradas nas listas de preços dos mercados. Não sei quando teremos um

perfeito sistema de estatísticas, mas sua falta é o único obstáculo

insuperável no caminho para transformar a Economia numa ciência exata.

[…] O prazer e o sofrimento são indiscutivelmente o objeto último do

cálculo da Economia. Satisfazer ao máximo `as nossas necessidades com o

mínimo de esforço – obter o máximo do desejável `a custa do mínimo

indesejável - ou, em outras palavras, maximizar o prazer, é o problema da

Economia”

A escola de pensamento neoclássica é conhecida por fazer uso de técnicas

matemáticas e seu principal método de analise é a estática comparativa

(comparando diferentes situações de equilíbrio). Preocupavam-se também com a

dinâmica do processo de ajuste ao equilíbrio.

No prefácio da primeira edição de seu livro, Jevons afirma que por lidar com

quantidades, a Ciência Econômica deveria ser uma ciência matemática em forma

e conteúdo. Em suas próprias palavras :

“ Procurei chegar a conceitos quantitativos precisos sobre Utilidade, Valor,

Trabalho, Capital, etc., e com freqüência me surpreendi ao descobrir quão

claramente alguns dos conceitos mais difíceis, especialmente o conceito

16
Jevons, W. Stanley. [1965] – “The Theory of Political Economy” – Quinta edição. New York : Augustus M. Kelley.
116

mais intrincado, o do Valor, admitem analise e expressão matemática. A

Teoria da Economia, tratada desta forma, sugere uma estreita analogia com

a ciência da Mecânica Estática, e verifica-se que as Leis da Troca se

assemelham as Leis do Equilíbrio de uma alavanca. A natureza da Riqueza

e do Valor explica-se por meio da consideração de minúsculas quantidades

de prazer e sofrimento, assim como a Teoria da Estática é feita de forma a

sustentar-se na igualdade de indefinidamente pequenas quantidades de

energia. Mas creio que podem ser ainda desenvolvidos outros ramos

dinâmicos da ciência da Economia sobre os quais não teci, em

absoluto, nenhuma consideração (grifo meu).”

Jevons acreditava que assim como todas as ciências físicas deveriam ser regidas

por princípios mecânicos gerais, a ciência econômica também deveria respeitar

esses princípios que neste caso seriam a mecânica dos interesses individuais e da

utilidade. O sistema econômico deveria funcionar mecanicamente, como um

relógio. Uma precisa máquina armada pela rigidez matemática, representante de

uma força maior, a do determinismo. A matemática foi a maior arma da

humanidade na tentativa de se defender contra a realidade não-linear. A Ciência

econômica, influenciada por este mantra, se esforçava para entrar no campo das

ciências exatas, utilizando uma linguagem de expressão matemática. Havia um

preconceito muito grande contra a utilização da linguagem matemática nas

Ciências morais. Pensava-se que somente as Ciências Físicas seriam capazes de

tal façanha. Contudo, a Ciência Econômica vista do ponto de vista da escola

neoclássica também é tratada de um modo puramente matemático, frio. Por ser a

Economia um estudo da realidade que lida com quantidades, este estudo deveria
117

ser, por definição, matemático. A matemática era usada como forma de medição

das variações de quantidades. Para isso utilizava-se o método de equações

diferenciais ou de diferenças, aplicado a variações de conceitos econômicos tais

como : riqueza, utilidade, valor, procura, oferta, capital, juro, trabalho e todas as

outras noções quantitativas pertencentes `as operações cotidianas dos negócios. A

Teoria Econômica não seria perfeita, uma vez que todas as outras ciências se

utilizavam daquele método e ela não. Portanto, se as outras ciências se faziam do

uso daquele método, uma verdadeira Teoria da Economia deveria utilizar-se

também.

“As leis usuais da oferta e da procura tratam inteiramente de quantidades

de mercadorias procurada ou ofertada, e expressam a maneira pela qual as

quantidades variam em conexão ao preço. Em conseqüência disso, suas leis

são matemáticas”.

Para Jevons, mesmo os métodos da Astronomia Física não eram exatos, e sim

uma aproximação da realidade. Na realidade17,

“a Terra não é uma esfera lisa e homogênea. Mesmo os problemas mais

simples de Estática ou Dinâmica são aproximações hipotéticas `a realidade.

Quando examinamos as ciências físicas menos precisas descobrimos que

os físicos são, de todos os homens, os mais arrojados em desenvolver suas

teorias matemáticas `a frente dos seus dados. Deixe qualquer um que

duvide disso examinar a ‘Teoria dos Fluxos’ de Airy, conforme exposta na

Enciclopédia Metropolitana; descobrira ai uma teoria matemática

admiravelmente complexa, reconhecida por seu autor como incapaz de ter

17
Jevons, W. Stanley. [1965] – “The Theory of Political Economy” – Quinta edição. New York : Augustus M. Kelley.
118

aplicação exata ou mesmo aproximada, porque os resultados dos vários e

freqüentemente desconhecidos contornos dos mares não admitem

verificação numérica” (vale notar que naquela época ainda não se conhecia

a Geometria Fractal).

Portanto, tentou-se através de certas Leis Psicológicas Fundamentais, como por

exemplo, um ganho maior é preferido a um menor, construir um método lógico

da Economia. Observando-se os fenômenos do mundo real utilizando-se

ferramental estatístico, tenta-se comprovar o poder de previsão de tal método na

sociedade. Como se a sociedade fosse um grande laboratório onde teorias

pudessem ser testadas e analisadas pelo uso de técnicas econométricas.

Jevons e Menger, contudo, erraram em tentar buscar uma relação de uma única

via (causa e efeito) entre valor e utilidade. Foi necessário o intelecto de Leon

Walras (1834-1910) e Alfred Marshall (1842-1924) para ver que ambos, custo de

produção (oferta) e utilidade (demanda) eram interdependentes e mutuamente

determinantes.

Alfred Marshall estudou os mercados individualmente, em isolamento, ignorando

o impacto que um mercado tem nos outros mercados e vice-versa. Isto fez de

Marshall o fundador da Analise do Equilíbrio Parcial. Em contrapartida, Leon

Walras estudou as diversas relações entre todos os mercados da economia sendo

o pai da Analise do Equilíbrio Geral. Mesmo não sendo tão completa como a

analise de Walras, a Analise do Equilíbrio Parcial tem a vantagem de se focar nos

problemas práticos de uma determinada firma ou industria.

De forma a estudar os mercados individualmente, Marshall desenvolveu o

instrumental da analise de demanda e oferta. A curva positivamente inclinada


119

demonstrava a Lei da Oferta - se o preço de um determinado bem subir, as firmas

produzirão mais deste bem. A curva negativamente inclinada demonstrava a Lei

da Demanda - se o preço de um determinado bem cair, os consumidores

comprarão mais deste bem, como mostra a figura abaixo.

Preço
Oferta

Demanda

Quantidade

As “tesouras” da oferta e demanda determinam o preço de cada bem e a

quantidade a ser produzida. Assim, oferta e demanda determinam

simultaneamente preços e produção.

Marshall argumentou que a competição atrairia os preços aos seus preços de

equilíbrio. Se os preços estivessem acima do preço de equilíbrio, as firmas não

seriam capazes de vender toda sua produção e seus estoques aumentariam. Isto

seria um sinal para a firma de que ela deveria abaixar seu preço e reduzir a

produção. Por outro lado, se os preços estiverem abaixo do preço de equilíbrio, as

pessoas iriam comprar mais do que as firmas poderiam produzir. Neste caso, as

firmas aumentariam a produção e elevariam o preço. Como mostra a figura,

somente no ponto de equilíbrio, as firmas venderiam toda sua produção e

manteriam seus preços estáveis (salvo mudanças nas curvas de oferta e

demanda).

Leon Walras também descobriu o conceito de utilidade marginal mas foi além de

Jevons e Menger em sua utilização. Walras chamou para si o desafio de escrever


120

o primeiro modelo de equações simultâneas de Equilíbrio Geral em todos os

mercados. Em sua época, isto foi suficiente para afugentar a maior parte de seus

leitores contemporâneos o que fez com que seu Elementes d’Économie Politique

Pure publicado em 1874 tenha sido pouco lido enquanto Walras ainda estava

vivo. O legado da sua obra cresceu muito posteriormente, fazendo com que

Walras tenha sido um dos mais lidos economistas do século XIX, sendo apenas

superado por Ricardo e Marx, particularmente após a tradução dos Elementes

para o inglês em 1954.

Seu nome completo era Marie-Esprit-Leon Walras e ele foi professor de

Economia Política na Academia de Laussane, na Suíça. A Walras normalmente é

creditado o feito de ser fundador da escola de Laussane de Economia. Esta escola

floresceu posteriormente com o sucessor de Walras na cátedra de Economia

Política em Laussane, Vilfredo Pareto (1848-1923), um economista e sociólogo

italiano.

Walras descreveu o sistema econômico de forma matemática. Para cada produto

deveria haver uma “função demanda” que expressasse a quantidade de produto

demandada pelos consumidores dependendo de seu preço, o preço de outros

produtos similares, da renda dos consumidores (suas restrições orçamentarias) e

suas preferencias (gosto). Para cada produto deveria haver também uma “função

oferta” que expressasse a quantidade que os produtores de cada bem iriam

ofertar, dado os seus custos de produção e suas tecnologias. No mercado, para

cada bem existe um ponto de equilíbrio, onde um único preço satisfará tanto os

produtores quanto os consumidores. Como o equilíbrio em um mercado depende

do equilíbrio em todos os demais mercados, achar uma solução de “Equilíbrio


121

Geral” implica em determinar o equilíbrio simultâneo em todos os mercados. Era

necessário que os mercados estivessem em regime de competição perfeita e que

as quantidades de insumos e produtos e seus preços se ajustassem

automaticamente a seus preços de equilíbrio antes que qualquer transação fosse

fechada. É importante notar que os preços convergiriam aos preços de equilíbrio

antes que qualquer transação fosse efetivamente fechada. Para que isto

acontecesse, era necessário supor que todos os indivíduos possuíssem informação

perfeita a respeito dos preços no mercado e agissem de forma racional. O

Equilíbrio Geral existe, de acordo com Walras, onde, para um conjunto de

preços, um para cada bem, o excesso de demanda para cada bem é zero, ou seja, a

oferta de cada bem é igual a sua demanda. Neste caso, os preços inicialmente

estariam mudando até encontrarem o ponto onde a oferta seja igual a demanda.

Este processo de ajuste ficou conhecido pelo termo francês tâtonnement e assume

que o preço dos bens esta sempre se movendo na mesma direção do seu excesso

de demanda. Portanto, a escassez de um bem (excesso de demanda positivo)

levaria a um preço mais alto, que reduziria a demanda e aumentaria a oferta,

neutralizando a escassez inicial18.

No modelo de Equilíbrio Geral Walrasiano, cada indivíduo planeja consumir ou

investir toda a receita recebida pela venda de seus bens, trabalho ou ativos

financeiros [qualquer semelhança com a Lei de Say não é mera coincidência pois

esta foi herdada pelos economistas neoclássicos de seus antecessores Clássicos].

Consequentemente, para cada indivíduo, o valor total de sua oferta planejada

deve ser exatamente igual ao valor total de sua demanda planejada. Se olharmos a

relação entre o valor agregado de todas os bens demandados por todos os


18
Para uma definição formal da demonstração do Modelo de Equilíbrio Geral Walrasiano olhar Apêndice Matemático.
122

indivíduos e o valor total de todos os bens ofertados pelas firmas, os dois devem

ser iguais. Isto significa que se houver um excesso de demanda sobre a oferta

para um determinado bem, deve haver um correspondente excesso de oferta sobre

a demanda para algum outro bem, caso contrario, os valores agregados da oferta e

demanda não seriam iguais. Em outras palavras, o somatório do excesso de

demanda de todos os mercados da Economia deve ser igual a zero – esta é a

famosa Lei de Walras.

Veio então Pareto, engenheiro da Universidade de Turin, na Itália. Formou-se

com uma tese entitulada “ The Fundamental Principles of Equilibrium in Solid

Bodies” e trabalhou no ramo da engenharia (como seu pai) por cinco anos para

depois substituir Walras em Lausane. Seu interesse sobre os aspectos

equilibratórios em Economia e Sociologia anteciparam sua tese. Morando em

Florença, ele estudou Filosofia e Política e escreveu muitos artigos, sendo um dos

primeiros a usar métodos matemáticos para analisar problemas econômicos. Seu

primeiro trabalho, Cours d’economie politique (1896-97), incluía sua famosa

‘Lei’ de distribuição de renda, uma Lei de Potência cujo objetivo era provar que a

distribuição de renda e riqueza na sociedade não era aleatória e sim seguia

padrões consistentes que se formavam ao longo da história do mundo e das

sociedades. Enquanto ensinando em Lausanne, Pareto se interessou pela

desigualdade de renda entre diversas nações e descobriu que se ranquear-mos as

famílias de um determinado pais pelo seu nível de renda, observamos que a renda

não cresce proporcionalmente mas sim exponencialmente.


123

Se a renda crescesse proporcionalmente e uma família no 40-ésimo percentil

ganhasse 20% a mais do que uma família no 30-ésimo percentil, uma família no

50-ésimo percentil ganharia 20% a mais do que uma família no 40-ésimo

percentil.

Contudo, quando a renda cresce exponencialmente, as disparidades crescem

conforme nos movemos `a direita da curva. Por exemplo, se uma família no 30-

ésimo percentil ganha 10% a mais do que uma família no 20-ésimo percentil,

uma família no 50-ésimo percentil pode ganhar 50% a mais do que uma família

no 40-ésimo percentil e uma família no 100-ésimo percentil pode ganhar o dobro

do que uma família no 50-ésimo percentil.

Estudando a distribuição de renda dos EUA e de diversos países da Europa,

Pareto percebeu uma similaridade no padrão de distribuição e chamou sua

descoberta de Lei de Distribuição de Renda.

Mas foi em seu Manuel d’economie politique (1909) que Pareto desenvolveu sua

teoria da Economia Pura. Neste livro, ele lançou o que seriam as bases para a

teoria moderna do ‘Bem-Estar Econômico’ com seu conceito de ‘Ótimo de

Pareto’ no qual a alocação ótima de recursos na sociedade não seria atingida

enquanto houvesse pelo menos um indivíduo que pudesse estar melhor sem

prejudicar os demais indivíduos, considerando-se as preferencias e restrições

orçamentarias de cada um. Uma sociedade atingiria o equilíbrio, ou melhor, o


124

Bem-Estar social, quando todos os indivíduos maximizassem suas funções de

utilidade marginal. Como os economistas neoclássicos, em geral, tem pouco a

contribuir no entendimento de como as preferencias são formadas, estas são

consideradas constantes e não muito diferentes entre pessoas ricas ou pobres, ou

de diferentes sociedade e culturas.

Os preços e outros instrumentos de mercado alocam os recursos escassos,

restringindo os desejos dos participantes das diferentes sociedades e coordenando

suas ações. A hipótese de preferencias estáveis garante uma base sólida sob a

qual previsões podem ser feitas a respeito do comportamento dos agentes ante

uma mudança no sistema de preços. Diz-se que o consumidor prefere A a B se

ele obtém mais utilidade da alternativa A do que da alternativa B. O postulado da

racionalidade é equivalente as seguintes afirmativas : (1) para todas as

alternativas que o indivíduo possui, ele sabe se prefere A a B ou B a A ou se é

indiferente entre elas; (2) somente uma das três possibilidades é verdadeira; (3) se

o indivíduo prefere A a B e B a C então preferirá A a C (Principio da

Transitividade).

A combinação das hipóteses de comportamento maximizador, equilíbrio de

mercado e preferencias estáveis formam o núcleo da visão neoclássica de

economia. São as bases do que até hoje em dia é considerado o mainstream em

economia, ou seja, a principal corrente de pensamento. Os economistas

neoclássicos acreditam que esta abordagem é uma forma compreensível de se

entender todos os comportamentos humanos, sejam aqueles que envolvem

dinheiro, decisões freqüentes ou raras, importantes ou corriqueiras, emocionais

ou mecânicas, tomadas por pessoas ricas ou pobres, homens ou mulheres,


125

crianças ou adultas, burras ou inteligentes, professores ou estudantes, políticos ou

artistas. A definição neoclássica de economia é bem extensa e enfatiza a alocação

de meios escassos de forma competitiva para se chegar ao objetivo final, qual

seja, a maximização da utilidade ou do lucro.

O modelo neoclássico básico evoluiu e tentou incorporar em seu arcabouço

questões econômicas tais como taxação, monopólio, internacional trade, finanças

e Política monetária, incerteza sobre o futuro e transferencia de propriedade entre

gerações, que até então não haviam sido incluídas corpo da sua teoria.

Recentemente, economistas de cunho ortodoxo, como por exemplo Gary Becker

da Universidade de Chicago, utilizaram esta abordagem matemática para o estudo

de fenômenos tais como : fertilidade, educação, utilização do tempo, crime,

casamento, discriminação racial e outros problemas sociológicos, legais ou

políticos19. Por este trabalho Becker chegou a ganhar o prêmio Nobel de

economia.

Com isso, os economistas matemáticos (neoclássicos) transformaram a Economia

em um tipo de Física, onde o Homo Economicus era uma espécie desprovida de

paixões ou frustrações. Suas teorias descreviam o ser humano como uma

partícula, um semideus cujos objetivos poderiam ser previstos pois seus atos

eram sempre em prol do auto-interesse. Assim como em Física prevê-se como

uma partícula irá reagir a um dado regime de forças, em Economia prevê-se

como o Homo Economicus reage a uma dada situação : ele sempre maximiza sua

função utilidade. Os neoclássicos descrevem uma sociedade onde a economia

esta fadada sempre ao equilíbrio perfeito, onde a oferta sempre é igual a

demanda, onde a bolsa de valores nunca sofre quedas ou altas abruptas, onde
19
Ver Gary S. Becker – The Economic Approach to Human Behavior – 1976. The University of Chicago Press
126

nenhuma empresa é grande o suficiente para dominar o mercado e onde a mão

invisível de Adam Smith atuando nos livres mercados faz com que o Ótimo de

Pareto seja atingido. A Economia estava para os economistas assim como o

cosmo estava para Sir Isaac Newton, uma máquina azeitada, um grande relógio

com funcionamento perfeito.

Justiça seja feita, os economistas Neoclássicos modernos fizeram um bom

trabalho mas o problema era que seus postulados, os fundamentos de suas teorias

continuavam os mesmos. As teorias ainda não descreviam a complexidade e

irracionalidade do mundo que nos cerca basicamente porque aceitavam a hipótese

de perfeita racionalidade dos agentes e de tendência ao equilíbrio da economia.

Portanto, se a Economia não convergisse para o equilíbrio, os neoclássicos não

poderiam arriscar nenhuma previsão do seu comportamento. Sem a capacidade

de previsão, o estudo econômico não era para eles considerado uma ciência.

Contudo, se considerarmos que o essencial para se fazer ciência é a compreensão

e explicação de fenômenos e não necessariamente sua previsão, o conceito de

ciência poderia englobar o estudo econômico mesmo que este não se prestasse a

previsões. Como por exemplo no caso da meteorologia. O sistema de tempo

nunca esta em equilíbrio, está em constante mutação. Nunca se repete

exatamente. É essencialmente imprevisível com mais de uma semana de

antecedência. Mesmo assim, conseguimos explicar e entender quase tudo que

acontece nesses sistemas. Podemos explicar e compreender fenômenos tais como

frentes frias, correntes oceânicas ou pressão atmosférica. Podemos entender sua

dinâmica e como tais sistemas interagem para produzir fenômenos em escala

local ou regional. Em poucas palavras, existe a ‘ciência do tempo’ e esta existe


127

somente porque a capacidade de previsão não é sua essência. É exatamente isto

que esta se tentando fazer com a ciência econômica : tentar explicar e entender

fenômenos equivalentes a um rio turbulento ou uma biosfera, mas em sistemas

dinâmicos sociais. Buscando metáforas nas ciências físicas mas também

biológicas, a ciência econômica só tende a ganhar e evoluir, mudar, buscar novos

territórios e crescer, perder a inocência.

De fato, existem diversas indicações de que a economia como ciência vem

perdendo o rígido senso determinista e que o pensamento positivista vem se

enfraquecendo, dando espaço para uma abordagem menos mecanicista, mais

orgânica.

Apesar das economias possuírem um certo grau de auto-sustentação e estrutura,

como por exemplo quando choques, como guerras, são assimilados e passados

alguns anos a economia aparenta estar no mesmo lugar onde estava antes, a teoria

do equilíbrio em sua versão original não atenta para a questão do tempo

cronológico. A história não tem importância no processo evolutivo da economia

pois não há processo evolutivo. A economia esta sempre em equilíbrio e as

tecnologias são constantes, assim como as preferencias dos consumidores.

Se existirem mercados para todos os produtos tanto agora, como no futuro, um

indivíduo pode preferir deixar para consumir um determinado produto não agora,

mas no futuro. Surgiu então a necessidade de se provar a existência de equilíbrio

para todos os períodos de tempo. Neste contexto, automaticamente introduz-se o

conceito de empréstimos, e taxas de juros aparecem de forma natural. Se, aos

preços existentes hoje e no futuro, um indivíduo prefere consumir menos do que

o total de sua receita hoje e mais no futuro, ele pode emprestar hoje para
128

recebimento no futuro. Portanto, dada a hipótese de que existam mercados para

todos os produtos em qualquer momento do tempo, passa a ser importante a

dinâmica do processo de equilíbrio.

A hipótese de que existam mercados para todos os produtos em qualquer

momento do tempo é, claramente, irreal, mas é equivalente a hipótese de que os

indivíduos antecipam corretamente os preços futuros (Hipótese das Expectativas

Racionais, que veremos em maior detalhe mais adiante). É desta forma que os

teóricos neoclássicos modernos tentaram incorporar a questão do tempo na

economia. A sua pretensão era tanta, que a aproximadamente 25 anos atrás,

muitos economistas acreditavam que com o uso do arcabouço neoclássico

modificado poderiam chegar a formular uma Grande Teoria Unificada da

Economia, assim como os físicos que buscam a Grande Teoria Unificada do

Universo. Dos axiomas do comportamento humano racional, uma Teoria do

Consumidor poderia ser construída. A partir daí e de uma teoria correspondente

para a Firma, estaria formada a Teoria Microeconômica. Esta seria a base para

que se construísse uma teoria agregada da economia, a Teoria Macroeconômica.

Todo este conjunto formaria a Grande Teoria Unificada da Economia.


129

Nem tudo são flores

A Questão do Tempo das Expectativas e da Incerteza

Com a introdução da questão do tempo na economia, surgem também questões

relacionadas com expectativas e incerteza. E para que estas questões pudessem

ser de fato estudadas de forma mais realística, seria necessário que o estudo da

economia se recuperasse da fatal estrutura racional imposta no século XVIII. A

idéia de que a economia é uma gigante máquina e que para entender o seu todo

basta entender suas partes (reducionismo) mostrou-se insuficiente para explicar a

realidade econômica em momentos de crise, como em 1929 por exemplo.

Sempre houveram dois problemas em tentar se construir uma teoria econômica

de forma reducionista. O primeiro é que a Economia é composta por seres

humanos e não por partes de uma máquina. Seres humanos, com seus caprichos,

emoções e fobias. O segundo é a questão da tecnologia. As tecnologias mantém

a Economia em constantes mudanças que foram ignoradas ou tratadas de forma

exógena. Para compor uma teoria de forma ordenada e com poder de previsão, o

Homo Economicus (o sujeito) deveria operar com problemas (o objeto) e


130

soluções bem definidas que formariam as bases para o desenvolvimento de novas

teorias.

Este método funciona mas começa a encontrar dificuldades quando os problemas

envolvem mais de uma pessoa tomando decisões e um certo grau de

complicação. Neste caso, hipóteses heróicas devem ser adotadas, caso contrario,

bolsões de incerteza começam a emergir .

Considere o seguinte problema: Temos um círculo que podemos pensar como um

relógio de 24 horas. Vinte companhias aéreas devem decidir como dividir o

espaço e o tempo dentro do círculo para decolagem de seus aviões. Diferentes

companhias possuem diferentes preferencias para seus horários de decolagem.

Cada companhia conhece suas próprias preferencias, e com base nisso irá

escolher o seu espaço dentro do círculo. As escolhas serão definitivas. Assim

cada companhia escolherá não ficar muito perto de outra companhia que tenha

aviões decolando por volta do mesmo horário. Portanto, dada as preferencias de

cada companhia, qual horário e espaço elas irão escolher dentro do círculo de 24

horas é o problema.

Para resolvermos este problema, devemos supor que conhecemos a ordem em

que as companhias escolhem seus horários dentro do círculo. Imagine como deve

pensar a companhia número 20 : sabendo onde e quando as primeiras 19

companhias irão decolar, eu saberei como fazer minha própria escolha. Este é um

problema fácil para a companhia 20. E a companhia 19. Esta irá fazer uma

escolha que será função do que as primeiras 18 companhias escolherem, e dado

que a companhia 20 irá escolher sua posição com base na posição das 18

primeiras e na sua própria escolha.


131

Vejamos as propriedades deste processo. O problema se torna bem definido

fazendo com que sua solução seja seqüencial e assumindo que as firmas usem

dedução reversa (do inglês backward-deduction). A solução é precisa e limpa, de

um ponto de vista matemático. O problema se transforma em um problema

matemático e, de forma mais geral, a Economia se transforma em um problema

matemático. Uma outra propriedade interessante é que cada companhia deve

conhecer exatamente suas preferencias e as preferências das outras companhias.

Além disso, cada companhia deve saber que todas as outras conhecem suas

preferencias e as preferencias das outras companhias e que cada uma delas será

racional o suficiente para descobrir a solução do problema. Neste caso, todas elas

devem ser racionais ao escolherem seu tempo e posição, pois se uma companhia

falhar, todo o processo vai por água abaixo.

Este tipo de solução para situações com vários agentes em Economia é

problemático. Imagine que a companhia 3 se sinta incerta do que irá fazer a

companhia 17. Como a número 3 ela poderia pensar : “Eu não acho o pessoal da

companhia 17 muito inteligente e portanto não sei se eles serão racionais o

bastante para escolher a melhor solução. Caso isto aconteça, a minha própria

solução não será ótima”. Isto seria o suficiente para atrapalhar todo o processo.

Agora imagine ainda que a companhia 3 resolva comunicar suas incertezas para

companhias. Estas, por suas vez, não poderão confiar nas companhias 3 e 17 para

fazerem suas próprias escolhas. Toda a solução do problema começa a fracassar.

De fato, da forma como foi concebida, a solução depende das expectativas ou

previsões de cada companhia. Neste caso, se eu sou uma companhia qualquer,

meu problema é definir quais são minhas expectativas. Estou tentando prever um
132

mundo que é criado pelas minhas expectativas e pelas de todas as outras

companhias. Existe um loop auto-referencial aqui ou seja, as previsões estão

formando o mundo, cujas próprias previsões estão tentando prever. E sem

sabermos como os outros agentes determinarão suas previsões, não temos como

determinar as nossas próprias. Caso não haja a figura de um coordenador para o

processo, não ha solução lógica para o problema. Tem-se um indeterminismo

lógico.

Caso o esquema sugerido acima funcionasse, estaríamos em um mundo

econômico perfeito, em uma espécie de “Truman Show”, onde não há lugar para

o conceito de incerteza. Contudo, quando nossas próprias idéias e preferências

influenciam na própria criação deste mundo, e vale lembrar que estamos falando

do mundo de Lorenz, onde pequenas alterações no status-quo podem levar a

inteiras revoluções, temos um problema de auto-referencia (como quando John

Malchovich entra dentro de si mesmo no filme “Quero ser John Malchovich”). A

idéia de que se pode separar o objeto de estudo, a Economia, do sujeito do estudo,

os agentes que a formam, cria este problema. Bolsões de indeterminismo estão

presentes em vários lugares da Economia o que derruba a idéia neoclássica de

determinismo econômico, modernamente chamada de Expectativas Racionais por

Robert E. Lucas Jr. (1937- ), prêmio Nobel de Economia no ano de 1995.

Obviamente, Lucas conhecia as limitações de tal raciocínio. Na verdade, o

prêmio Nobel a ele foi concedido pelas críticas que fez a tal pensamento que

culminaram na sua controversa opinião que de não adiantaria o Governo intervir

na Economia. Lucas explicou como os agentes econômicos formam expectativas

e como estas expectativas, por suas vez, afetam os resultados e a performance do


133

sistema econômico. Lucas criticou o uso de modelos macroeconômicos para

avaliar as conseqüências de diferentes políticas macroeconômicas. Seu criticismo

era de que os modelos assumiam que as relações entre os agregados

macroeconômicos sempre seriam as mesmas, mesmo após uma mudança na

Política econômica. Para ele, isto não seria verdade porque20 :

“uma mudança na Política necessariamente altera alguns parâmetros

estruturais do sistema de uma forma muito complexa”.

Sem saber quais relações macroeconômicas continuam as mesmas e quais

mudaram, como mudaram e porque mudaram, o modelo econométrico tem pouca

ou nenhuma valia em determinar futuras alternativas político-econômicas.

20
Lucas, R.E. Jr [1978] – “Unemployment Policy” – American Economic Review, May.
134

John Maynard Keynes

As preocupações de Keynes (1883-1946) sobre como melhor atuar em Política

publica resultaram no desenvolvimento de novos insights teóricos sobre

macroeconomia. Estes insights formaram o arcabouço teórico do que ficou

conhecido como Economia Keynesiana, ou Teoria Macroeconômica Keynesiana.

A Teoria Macroeconômica Keynesiana nasceu como fruto da Grande Depressão

dos anos 30, quando a visão ortodoxa (neoclássica) da teoria econômica não

conseguia explicar as causas do severo colapso econômico e consequentemente

prover uma Política pública adequada. Na realidade, a Teoria Econômica

neoclássica era contra qualquer intervenção do Estado na economia. A Economia

deveria estar em estado de “laissez-faire”. Keynes temia que o ‘não-fazer-nada’

poderia levar a economia a uma depressão ainda pior, aumentando o desemprego

e piorando ainda mais a situação.

Keynes acreditava que o mecanismo que deveria levar a economia de volta ao

pleno emprego – ajuste de preços – só pioraria a crise. Em uma série de palestras

em 1933, Keynes explicou porque rejeitava a idéia de que ajustes de preços

seriam o melhor meio para se restaurar o equilíbrio de pleno emprego, assim

como vários outros aspectos da teoria clássica, construindo então um arcabouço

teórico alternativo. Estas palestras foram as bases para a sua Teoria Geral do

Emprego, do Juro e da Moeda, publicada em 1936. Atualmente, este trabalho é

considerado um dos mais significativos textos da história do pensamento

econômico. As proposições keynesianas de mercados imperfeitos e desemprego


135

involuntário batiam de frente com a teoria walrasiana de equilíbrio geral em todos

os mercados, inclusive o de trabalho, via ajuste de preços flexíveis. No modelo

walrasiano, que dominava a macroeconomia, lapsos de pleno emprego não

poderiam ocorrer. Ao contrario de Keynes, que acreditava que a economia não

tendia necessariamente ao equilíbrio de pleno emprego.

Assim como Adam Smith e Karl Marx, John Maynard Keynes é considerado um

dos três gigantes da história econômica. Smith pode ser visto como o otimista do

trio, por achar que o crescimento econômico é a maior conseqüência do

capitalismo. Marx, por sua vez, é o mais pessimista, pois para ele o capitalismo se

auto-destruiria. Reconhecendo o seu lado bom e o seu lado ruim, Keynes olhava a

Política econômica como um meio para se reduzir os problemas do capitalismo,

sendo visto como o pragmático salvador deste sistema. Política governamental

inteligente, acreditava, pode salvar o capitalismo, nos fazendo desfrutar apenas de

seu lado bom.

Keynes nasceu em Cambridge, Inglaterra, em 1883. Filho de um reconhecido

intelectual de Cambridge, John Neville Keynes (economista e filosofo) e de uma

mulher muito ativa, que eventualmente chegou a ser prefeita de Cambridge. Foi

educado nas melhores escolas da Inglaterra – Eton e King’s College em

Cambridge. Estudou os Clássicos e filosofia com G.E. Moore, matemática com

Alfred North Whitehead e economia com Alfred Marshall.

Tomou parte de um clube exclusivo para intelectuais em Cambridge, que mais

tarde ficou conhecido como Bloomsbury, do qual faziam parte figuras do meio

literário e artístico como Virginia Wolf, E.M Forester e Lytton Strachey. Keynes
136

era figura central neste seleto grupo e era apelidado de pozzo, por sua semelhança

a um diplomata corso que era conhecido por ter uma mente esquematizadora e

com múltiplos interesses.

Após se formar, Keynes prestou exame para o serviço civil. Tendo tirado a

segunda melhor nota, foi dada a ele a opção de escolher o segundo melhor posto.

O melhor posto, na Tesouraria do Governo, já tinha sido escolhido pelo primeiro

colocado Otto Niemeyer. Ironicamente, as melhores notas de Keynes foram nos

exames de Lógica, Psicologia e Ciência Política, tendo tirado uma nota baixa em

Economia. Mais tarde na vida, Keynes falou que sabia mais Economia do que

seus examinadores21. Fato que seria considerado prepotente, se não fosse a mais

pura verdade.

Tendo escolhido então um posto na Índia, Keynes ajudou a organizar e coordenar

os interesses ingleses no país.

Não se adaptando muito bem ao trabalho por questões de natureza intelectual,

dois anos depois, em 1908, Keynes voltou a Cambridge para ensinar economia.

Três anos depois assumiu a edição do Economic Journal, o então mais prestigioso

jornal de economia no momento, cargo que manteve por 33 anos.

O reconhecimento publico veio a Keynes após a publicação de As Conseqüências

Econômicas da Guerra (1919), um livro sobre o Tratado de Versailles que

finalizou a Primeira Guerra Mundial. Durante este período, Keynes serviu o

Tesouro Britânico e foi o grande responsável por obter financiamento externo

para suportar o esforço de guerra inglês. Nas fases finais da Guerra, Keynes foi

escolhido para fazer parte de delegação inglesa em Versalhes que negociou o

21
Harrod, Roy [1951] - “The Life of John Maynard Keynes” pp. 121, Norton. Roy Harrod, também economista, foi o primeiro
biografo de Keynes.
137

Tratado. Além de descrever as características das figuras que participavam da

negociação (o Presidente Americano Wilson, o Chanceler Francês Clemenceau e

o Primeiro Ministro Britânico Lloyd George), o livro faz uma crítica ao próprio

Tratado. Nele, Keynes afirma que de acordo com seus cálculos, seria impossível

para a Alemanha pagar os estragos feitos pela guerra e que isso levaria ao

empobrecimento alemão e consequentemente a utilização de praticas hostis a

outros países no campo do comercio internacional.

Após a Guerra e agora um figura de importância nacional, Keynes voltou sua

atenção para questões de teoria e política econômica. Em seu Tract on Monetary

Reform (1923) alertou para o perigo da inflação e concluiu que o papel do Banco

Central seria controlar a oferta de moeda na economia para garantir a estabilidade

no nível de preços e manter a inflação sob controle. O trabalho também continha

a famosa e incompreendida frase “no longo prazo todos estaremos mortos”.

Muitos acreditam que o que Keynes quis dizer era que valeria a pena sacrificar a

performance econômica de longo prazo em prol de benefícios de curto prazo.

Mas na verdade, seu objetivo foi o de criticar aqueles que acreditavam que o

problema da inflação se resolveria por si próprio. Ele achava que ao invés de

esperar para o problema da inflação se resolver automaticamente no futuro

distante, políticas econômicas deveriam ser aplicadas para tentar se resolver o

problema no curto prazo.

Os anos 20 viram a inflação diminuir e a Inglaterra passou por períodos de

flutuação econômica e alto desemprego. Keynes voltou sua atenção então para

estes novos problemas. Em Treatise on Money ele fez um exame detalhado das

relações entre moeda, preços e desemprego. Sua conclusão foi de que a relação
138

entre investimento e poupança seria a principal causa das flutuações econômicas.

De acordo com Keynes, quando as pessoas estão mais propensas a poupar do que

os empreendedores a investir, as firmas se encontrarão com capacidade ociosa e

não conseguirão vender todos os bens produzidos, criando uma crise de

superprodução. Por outro lado, quando o investimento é maior do que a

poupança, haverá muito consumo na economia. As pessoas estarão consumindo

ao invés de poupar e as firmas terão de contratar novos empregados para

aumentar a produção. Novas fabricas serão montadas e máquinas compradas.

Este processo elevará os salários assim como os outros custos de produção,

elevando assim o preço do produto para o consumidor final. Inflação é o

resultado.

O problema é que as decisões de poupar e investir são feitas por diferentes grupos

de indivíduos. Como resultado, não há garantias de que ambos serão iguais.

Keynes conclui então que é responsabilidade do Banco Central manter estes dois

agregados macroeconômicos em igualdade, assim como prevenir inflação e

recessão na economia. Se a poupança superar o investimento, o Banco Central

deveria baixar a taxa de juros estimulando o empréstimo para fins de

investimento. Por outro lado, se o investimento superar a poupança, o Banco

Central deveria elevar a taxa de juros, reduzindo os empréstimos para fins de

investimento.

Keynes, contudo, é melhor conhecido por seu clássico de 1936. Apesar do livro

falar pouco sobre Política econômica, ele foi a base teórica para as políticas
139

governamentais dos anos 3022 que combateram a Depressão que assolava quase

todos os países do mundo.

Keynes começa o livro atacando a Lei de Say afirmando que a demanda agregada

ou total da economia é que determina o nível de produção e emprego. Quando a

demanda é alta, as economias prosperam, os negócios se expandem, mais

trabalhadores são contratados e o problema do desemprego é resolvido. Mas

quando a demanda é baixa, as firmas são incapazes de vender sua produção,

sendo obrigadas a reduzi-la e mandar funcionários embora. Se as coisas ficassem

muito ruins, poderiam haver demissões em massa, alto desemprego e depressão,

até a economia atingir um nível mais baixo de produção. Neste nível mais baixo,

poderia haver então equilíbrio sem pleno emprego.

Keynes faz então uma análise muito interessante sobre os componentes da

demanda efetiva, ou seja, aquela que realmente se materializa, o poder comprar e

não o querer comprar. A demanda efetiva é o nível de demanda total da economia

determinada pelos consumidores, investidores privados e governo. Os

consumidores comunicam o montante do seu nível de demanda para o mercado

através de suas decisões de gasto. Se estas forem iguais a demanda esperada pelas

firmas, então há o equilíbrio. Se não, as firmas devem modificar suas decisões de

preços, produção e emprego para atingi-lo.

Keynes determinou os dois principais grupos de fatores para os gastos dos

consumidores: subjetivos e objetivos. Entre os fatores subjetivos, ou psicológicos

que afetam o consumo estão a incerteza a respeito do futuro, o desejo de

conquistar fortuna, e o desejo pela independência e poder. Uma grande incerteza

22
Um exemplo disto foi a Política adotada pelo presidente norte-americano Franklin D. Roosevelt, já em 1933, conhecida como
New Deal, que tinha como objetivo combater a Grande Depressão.
140

a respeito do futuro econômico, um grande desejo de deixar uma boa herança ou

um grande desejo por independência são fatores que levariam a um aumento da

poupança em detrimento ao consumo. A este estado Keynes chamou “preferencia

pela liquidez”.

Os fatores objetivos afetando o consumo são aqueles como taxas de juros,

impostos, distribuição de renda, receitas futuras e, o mais importante, receita

corrente. Keynes afirmou que devido a uma lei psicológica fundamental, o

consumo depende principalmente da receita corrente. A propensão marginal a

consumir, dado uma unidade a mais de renda é constante e menor do que um, ou

seja, quando a renda aumenta, o percentual da renda que é gasto com consumo

diminui. Quando a taxa de juro sobe, os consumidores se tornam mais relutantes

a tomar dinheiro emprestado para comprar uma casa, ou um carro ou outros bens.

Por outro lado, quando a taxa de juro é baixa, os consumidores pegam dinheiro

emprestado e gastam. Assim como quando são maiores as receitas futuras,

corrente ou renda. Quando estes são menores, por outro lado, as pessoas

pouparão mais do que consumirão. Uma propensão marginal a consumir positiva

gera o famoso efeito multiplicador, qual seja, um aumento em um dos

componentes da demanda agregada leva a um aumento ainda maior na renda, em

uma relação não-linear.

Diferentemente dos gastos com consumo, os gastos com investimento só

dependem de dois fatores : o retorno esperado do investimento e a taxa de juro. O

primeiro constitui o beneficio de se investir em novas fabricas e equipamentos. O

segundo, o custo para se obter os recursos para estes investimentos. Se a taxa de


141

retorno esperado for maior do que a taxa de juro, as empresas irão investir em

novas fabricas ou máquinas. Caso contrario, este investimento não ocorre.

Mudança nas expectativas quanto ao futuro da economia e na taxa de juro levam

a mudanças na disposição para investir. Quando os empresários estão confiantes

de que conseguirão vender todos os produtos fabricados em suas novas fabricas

por bons preços, ele esperam altas taxas de retorno sobre o capital investido.

Portanto, os gastos com investimento são determinados pelo retorno esperado do

capital, que por sua vez é incerto.

Keynes precisou também explicar os determinantes da taxa de juro. Para ele,

estas eram formadas no mercado monetário, onde pessoas físicas e jurídicas

demandavam dinheiro e o Banco Central controlava a oferta deste. A taxa de juro

era o preço do dinheiro e era determinada pela interseção entre a oferta de moeda

e a demanda por moeda, assim como qualquer outro bem.

Após sua crítica a teoria econômica clássica e sua apresentação dos fatores

determinantes da demanda total por bens e serviços, Keynes, surpreendentemente

tinha pouco a dizer sobre como reduzir o desemprego e acabar com a recessão.

Apoiou então o gasto do governo e a redução de impostos (Política fiscal). Em

uma passagem muito conhecida, Keynes escreve sobre a necessidade de mais

casas, hospitais, escolas e estradas chagando a dizer23 :

“Se o Tesouro enchesse velhas garrafas com dinheiro e posteriormente as

enterrasse em uma velha mina de carvão abandonada poderia contratar a

iniciativa privada para desenterra-las, fazendo algo para reduzir o

desemprego. Isto já seria melhor do que nada.”

23
Harrod, Roy [1951] - “The Life of John Maynard Keynes”, Norton.
142

Em uma outra passagem um pouco mal interpretada, Keynes escreve sobre a

socialização do investimento. Ele não estava querendo dizer que o governo

deveria se responsabilizar pela Política de investimentos e sim que as políticas de

gasto do governo deveriam servir para estabilizar o nível total de investimento na

economia. Keynes acreditava que o gasto com consumo era relativamente estável

e que mudava pouco de ano em ano. Por outro lado, os investimentos por parte

das firmas era guiado pelo “espirito animal” dos empreendedores. Mudanças no

seu estado de confiança ou expectativas alterariam o nível de investimento e

teriam um grande impacto na economia. Além disso, profecias auto realizáveis

poderiam entrar em funcionamento. Empresários otimistas significa mais

investimentos, mais investimentos levam a um maior crescimento econômico.

Este boom reforçaria as expectativas sobre lucro e levaria a um maior otimismo e

investimento. De forma inversa, expectativas pessimistas em relação a economia

levariam a poucos investimentos, que por sua vez não contribuiriam para uma

espiral de crescimento, podendo levar a economia a situações de recessão e

desemprego.

A solução de Keynes para este tipo de situação passava pelo aumento do gasto do

Governo. Se o investimento privado estivesse baixo, o Governo deveria pegar

dinheiro emprestado e usá-lo na construção de estradas, pontes, escolas e etc. Isto

estimularia a economia assim como melhoraria as expectativas. Contudo, quando

o investimento privado estivesse novamente alto, o Governo deveria pagar seus

empréstimos e parar com os gastos extraordinários.

Como vimos, para Keynes o investimento era determinado pelos retornos

esperados pela aplicação do capital, ou seja, quanto que o investidor vai retirar no
143

futuro após o gasto com equipamentos, matéria-prima, pessoal e etc. Obviamente,

este retorno, que é vital, é incerto. A Eficiência Marginal do Capital (EMC) 24 é a

taxa de desconto que equaliza o lucro esperado com o gasto inicial para a

realização do investimento. Se a EMC for maior do que a taxa de juros corrente

(custo de oportunidade), o investimento ocorrerá. Isto implica que se o nível de

investimento aumentar, a EMC diminuirá, uma vez que os investimentos mais

lucrativos já tenham sido feitos. Portanto, o nível de investimentos não depende

somente da taxa de juros, mas também do estado de confiança dos investidores

dado suas expectativas em relação ao futuro da economia.

Junto a sua teoria de determinação de investimentos, Keynes formulou sua teoria

de como o mercado monetário determina a taxa de juro. Dentre as razões para se

reter moeda teríamos : transacional, precaucionais e especulativa, esta última uma

inovação de Keynes. Ele assumia que o dinheiro é uma ativo que pode ser

substituído por títulos do Governo, e que a demanda por dinheiro é inversamente

proporcional a taxa de juros paga por estes. Além disso, existiria um caso

especial conhecido por “armadilha da liquidez” : a níveis muito baixos de taxas

de juros o público prefere manter o dinheiro em forma de moeda a comprar

títulos do Governo.

Keynes uniu suas hipóteses na tentativa de analisar a Grande Depressão. O crash

de Wall Street reduziu a riqueza e consequentemente a propensão marginal a

consumir. Os postulados econômicos Clássicos diziam que um aumento

proporcional da poupança reduziria a taxa de juro até que um aumento nos

investimentos o igualasse a poupança. Keynes rejeitava esta visão devido ao fato

da informação ser imperfeita : poupança, como uma forma de adiamento do


24
Para uma definição mais precisa da definição de Eficiência Marginal do Capital, ver o apêndice matemático.
144

consumo, não permitirá aos investidores uma antecipação da demanda futura e a

queda do consumo reduzirá a confiança. Sua conclusão é de que o investimento

não aumentará para se igualar a poupança.

Dada uma queda na propensão marginal a consumir, sem nenhuma mudança

substancial no investimento, o nível de poupança agregada será menor, portanto,

poupança e investimento serão menores e estarão em equilíbrio, não devido a um

aumento na taxa de juro e sim devido a uma queda da renda. Esta analise é

importante para mostrar que o equilíbrio da economia pode não ser o equilíbrio

de pleno emprego. Se o equilíbrio existe com desemprego, a pergunta a se fazer é

: então porque os salários não caem para equilibrar o mercado de trabalho?

Keynes afirmava que os salários eram rígidos para baixo, ou seja, haveria

resistência por parte dos trabalhadores em aceitar trabalhar por salários mais

baixos. Mesmo ignorando este fenômeno, Keynes insistia que uma queda no

salário real teria um efeito indeterminado na economia. Poderia haver uma

redução no consumo ou poderia haver um aumento do emprego. Portanto, a

economia não poderia confiar o seu auto ajuste na variável salários.

A análise de Keynes também crítica mecanismos de transmissão via Política

monetária do tipo : um aumento na oferta de moeda pode, no curto prazo, causar

uma queda na taxa de juro e consequentemente um aumento no investimento e

renda. Contudo, a validade de tal Política é questionável devido a alta

elasticidade25 da demanda por moeda em relação a taxa de juro e a alta

inelasticidade da demanda por investimento a taxa de juro. Neste cenário, a

validade de políticas monetárias estaria extremamente fragilizada.


25
A noção de elasticidade foi introduzida em Economia por Alfred Marshall que, vale lembrar foi professor de Keynes em
Cambridge. Praticamente todas as relações econômicas são do tipo causa e efeito. O conceito tenta explicar a magnitude do
efeito que uma determinada causa pode ter. Se uma causa tem um grande efeito, a relação é considerada elástica; se a causa tem
um pequeno efeito, a relação é considerada inelástica.
145
146

Business Cycles

A fraca performance econômica mundial após a Primeira Guerra Mundial fez

crescer um sentimento de desconforto, visível no redirecionamento das questões

econômicas da determinação de preços para os ciclos econômicos. Economistas

do mundo todo passaram a ter os ciclos econômicos como o ponto focal de seus

estudos.

Os efeitos dos ciclos econômicos, embora perturbadores, eram vistos como

fundamentalmente passageiros. As idéias keynesianas de que booms podem

depender essencialmente de expectativas irracionais; de que o desemprego

maciço pode ser tanto involuntário quanto ser compatível com o equilíbrio de

poupança e investimento; e de que a preferencia pela liquidez pode evitar que a

taxa de juro equilibre o mercado monetário, são estranhas ao ponto de vista

Marshaliano, onde os desequilíbrios da economia se auto-corrigem.

Os ciclos eram considerados importantes mais por serem entendidos inicialmente

como meros desvios do comportamento equilibrado e estável da economia, não

eram até então parte do objeto de estudo da Ciência econômica.

Mas o ponto central de discórdia entre a teoria Keynesiana e a neoclássica é a

troca da determinação de preços, como a tarefa central da teoria econômica, pela

determinação da demanda agregada, tarefa ate então inexistente no âmbito

teórico. Não que a determinação de preços tenha sumido completamente na visão

de Keynes, mas passou para um segundo plano em termos de importância. Na

verdade, a teoria Keynesiana aceita a existência de um mecanismo satisfatório de


147

determinação de preços ala Marshall, sem o qual um mínimo de ordem

econômica não existiria.

Um outro ponto importante de discórdia entre Keynes e os neoclássicos é na

mudança de uma visão centrada no indivíduo, para uma concepção de

comportamento mais coletivo, centrada no grupo. Particularmente, a concepção

de ação econômica como uma resposta padronizada a estímulos, da lugar a visão

de que normas sociais não tem explicação em leis cientificas. Um bom exemplo

disto é quando comparamos a figura arquetípica do investidor racional,

maximizador da função utilidade, com o consumidor keynesiano, que determina

seu desejo de poupar tendo como base os motivos precaução, generosidade,

medo, insegurança, ostentação, extravagancia e desejo. Ou quando comparamos

com o investidor que escolhe suas ações com se estivesse escolhendo a fotografia

que ele achava que seria escolhida a mais bonita em um concurso publico. Em

relação ao mercado, a demanda agregada por commodities passa a ser o fator

principal e não a sua escassez, sendo que a demanda agregada se presta menos a

representações teóricas exatas (e idealizadas) do que a demanda individual.

O comportamento econômico se torna então menos determinístico do ponto de

vista analítico. As explicações econômicas tomaram então um tom um pouco

mais realista e menos cientifico. Curiosamente, a mudança de maximização de

utilidade para as propensões, expandem as possibilidades de investigação

empírica de certos comportamentos, tais como a relação entre consumo/renda, ou

taxa de juro/investimento. Portanto, a diferenciação entre Ciência econômica e as


148

outras ciências sociais com base na utilização de técnicas cientificas

(axiomatização) se torna intangível, uma vez que considerações acerca do

comportamento das massas são colocadas no epicentro da ordem social

capitalista.

Alem disso, a mudança de maximização de utilidade para outros motivos menos

claramente especificáveis introduz outro elemento na questão do comportamento

dos agentes, até então totalmente ausente na analise neoclássica. É a questão da

incerteza. Para Keynes, a maior parte das coisas que dão certo ou errado, em

economias de mercado, vem do fato de que as pessoas tomam suas decisões sem

conhecimento de como será o futuro. As pessoas são ignorantes em relação ao

futuro. O lado ruim disto, é a magnificação da importância das expectativas nas

questões de natureza econômica. Citando Skidelsky26 :

“ Economia era, e ainda é, construída sob a lógica da escolha em condições

de escassez. A visão de Keynes … tem a ver com a lógica das decisões não

na presença de escassez mas sim de incerteza”.

Marshall, por sua vez, como não poderia deixar de ser, considerava a idéia de

risco, tanto na produção como nos negócios, resultados adversos que poderiam

ser atuarialmente calculados e para os quais existiria um mercado liquido de

seguros, com a exceção de catástrofes naturais ou sociais27.

Finalmente, a admissão de um futuro incerto desfaz a possibilidade de um

questionamento econômico baseado em cálculos probabilísticos.

26
Robert Skidelsky [1992] – “John Maynard Keynes: The Economist as Saviour, 1920 – 1937” - New York : Penguin Press,
Volume II, pp. 539.
27
Marshall, Alfred [1920] – “Principles of Economics”, London : Macmillan.
149

Contudo, imediatamente após a publicação da Teoria Geral, alguns de seus

elementos incongruentes começaram a ser eliminados pelo movimento que ficou

conhecido por Síntese Neoclássica.

Síntese Neoclássica

O primeiro elemento era a ameaça que o keynesianismo fazia a analise

econômica “newtoniana”. O elemento surpresa causado pela presença de

incerteza na economia era mais do que simplesmente eventos hedgeaveis com

distribuições de probabilidade conhecida. Era uma questão mais profunda a qual

a resposta Keynes escreveu, “Nós simplesmente não sabemos”.

A resposta dada pelos economistas remanescentes do pensamento neoclássico,

como J. R. Hicks (1904-1989), foi relegar a questão da incerteza a segundo plano

ao coloca-la como um caso especial, uma exceção.

O segundo elemento era a falta de conexão analítica entre o universo keynesiano

e o neoclássico que o precedeu. A conexão foi feita em um famoso artigo

publicado por J.R. Hicks em Abril de 1937 chamado “Mr Keynes e os Clássicos”

que apresentou o sistema keynesiano como um modelo de equilíbrio entre dois

mercados, i.e., o de bens e o de dinheiro, mas eliminou uma característica muito

importante do sistema, a incomoda presença da incerteza. A conexão ficou ainda

mais estreita com a divulgação do ainda-não-famoso modelo IS/LM, que

apresentava a visão Keynesiana como um diagrama em duas curvas, análogo ao

modelo das tesouras de Marshall.


150

Taxa de Juro
LM

IS

Produto

John Hicks ficou conhecido por esta forma de representação econômica, que até

hoje em dia e usada como base para o ensino de Macroeconomia nas escolas de

economia do mundo todo.

Hicks nasceu em Warwick, Inglaterra, em 1904, em uma família de classe media.

Seu pai era jornalista e editor. Hicks recebeu uma boa educação em escolas

privadas inglesas e posteriormente ganhou uma bolsa de estudos no Balliol

College em Oxford. Começou estudando matemática em Oxford, mas logo

mudou seus estudos para o campo da economia. Ele colou o grau em filosofia,

Política e economia em 1926. Depois de se formar, Hicks ensinou na London

School of Economics em Cambridge e em seguida na África do Sul. Ele não

gostava muito de Cambridge, nem do clima ou do ambiente intelectual. Mas

achava a London School um excelente lugar para trabalhar. La, Hicks conheceu o

trabalho de Pareto, de muita importância em sua vida. Quando Hicks chegou nos

apêndices matemáticos do trabalho de Pareto, percebeu que este não havia

completado sua missão, fazer uma analise econômica clara e mais precisa

utilizando instrumentos matemáticos. Naquele momento, Hicks percebeu que

dedicaria sua carreira a terminar aquilo que Pareto havia começado.


151

Em 1938, Hicks foi apontado para a cadeira Stanley Jevons, na Universidade de

Manchester. Oito anos depois ele voltou a Oxford, onde ensinou ate 1965,

quando se aposentou, um ano após ser nomeado Sir John Hicks. Em 1972 dividiu

o Prêmio Nobel de economia com Kenneth Arrow por sua contribuição na

criação do Modelo IS/LM.

A Teoria Keynesiana tradicional nunca tornou a relação entre o mercado de bens

e o mercado monetário clara. Na definição de Steven Pressman28,

“No mercado de bens as empresas produzem coisas que são vendidas para

os consumidores, governo, outras firmas e outros países. O equilíbrio no

mercado de bens requer que a oferta de bens no mercado seja igual a

demanda por estes bens. No mercado monetário, pessoas e firmas

demandam uma quantidade fixa de moeda que é determinada pelo Banco

Central. O equilíbrio no mercado monetário requer que a demanda por

moeda seja igual a oferta de moeda.”

Estes dois mercados, contudo, são interrelacionados. Se a oferta de moeda

aumentar, a taxa de juro cai no mercado monetário. Mas com taxas de juro

menores, o investimento aumenta e a demanda por bens e serviços aumenta no

mercado de bens. Isto faz sentido pois com mais bens sendo produzidos, maior a

demanda por moeda, para que as pessoas possam adquirir os novos bens. Mas o

aumento da demanda por moeda, aumenta a taxa de juro, que por sua vez reduz o

investimento e a produção, reduzindo então a demanda por moeda.

28
Pressman, Steve. [1999] – “Fifty major economists : a reference guide” – New York, NY : Routledge.
152

Considerações acerca da inter-relação entre o mercado de bens e o mercado

monetário era assunto para debates entre economistas que perduravam noites

inteiras no começo da década de 40, normalmente sendo inconclusivos29. Como

Keynes já dizia : “ Se colocarmos 5 economistas em uma sala, teremos 6 ideais

diferentes sobre um mesmo tema.”

Mas as décadas seguintes realmente não colaboraram para a postergação do

sistema keynesiano adaptado por Hicks como a visão dominante de pensamento

econômico. A conseqüência econômica do final da Segunda Guerra Mundial

trouxe consigo um novo perigo. Governos de esquerda assumiram na França e

Inglaterra e a expectativa de grande desemprego se revelou nos Estados Unidos.

Veio então o Plano Marshall, como uma tentativa de deter o “socialismo”

europeu.

A doutrina Keynesiana começou a sofrer críticas não somente por sua falta de

base microeconômica como também por não conseguir explicar os problemas

relacionados a inflação, vigente na época. No modelo IS/LM, o equilíbrio no

mercado de bens não passa pelo ajuste do nível de preços. Esta falha foi

tentativamente suprida pelo trabalho de A. W. Phillips, que em 1958 descobriu

que a taxa de desemprego na economia inglesa entre os anos de 1861 e 1957 era

inversamente relacionada `a taxa de variação dos salários. A Curva de Phillips,

como ficou conhecida, mostrava o trade-off entre inflação e desemprego e que

quando a inflação aumenta o desemprego sobe.

O que na verdade o modelo de Hicks fez foi reduzir a visão Keynesiana a um

mero modelo de equilíbrio, pecando também na natureza estática e linear das

relações que fazia entre as diversas variáveis macroeconômicas.


29
Para uma definição precisa do modelo de IS/LM, ver apêndice.
153

A utilização da curva de Phillips para fechar o buraco teórico que faltava na

teoria Keynesiana também não resistiu as críticas quando inflação e desemprego

(estagflação) começaram a coexistir na década de 70. Toda a síntese neoclássica,

neste momento, ficou abalada.

A estagflação era, ate então, uma contradição em seus próprios termos. Durante a

década de 70, a inflação pareceu perder a relação de causalidade proposta por

Phillips.

Para Keynes, por ter tentado explicar a Grande Depressão, esta era uma situação

inusitada. Na verdade, era o problema da deflação, e não da inflação, que Keynes

tinha o objetivo de explicar. Esta foi uma das falhas que a macro-teoria

Keynesiana teve, a de não conseguir explicar a situação econômica corrente.

O que causa os Ciclos Econômicos

O trabalho do economista russo Eugen Slutsky (1880-1948) publicado em 1927

no Instituto de Pesquisa sobre Ciclos Econômicos de Moscow e entitulado de “O

Somatório de Causas Aleatórias como Fonte de Processos Cíclicos” deixa bem

clara a opinião de que os ciclos poderiam ser causados única e exclusivamente

por choques aleatórios e exógenos ao sistema econômico. O método de Slutsky

era experimental, e manipulando uma serie de dados gerada aleatoriamente, ele

conseguiu criar uma figura gráfica que, quando justaposta ao gráfico do ciclo

econômico da Inglaterra de 1855 ate 1877, criava a estranha sensação de

similaridade.
154

Similaridade entre o Ciclo de Negócios na Inglaterra e a serie gerada por um modelo aleatório.

O trabalho de Slutsky não pretendia ser a prova cabal de que a serie histórica do

ciclo econômico da Inglaterra foi gerada por fenômenos aleatórios. Era apenas

uma experimento. Uma inferência que meramente sugeria que o processo de

geração de dados usado por ele poderia gerar dados similares aos dados gerados

por um processo econômico. Contudo, o experimento foi amplamente divulgado

e discutido nos círculos econômicos da época, causando grande impacto.

Schumpeter mais tarde viria a afirmar que :

“a inferência nos ajudou em duas coisas : primeiro, removeu o argumento de que

como nossas series apresentam obvias regularidades, seu comportamento não

poderia ser resultado de causas aleatórias. Segundo, abriu o caminho para uma

importante parte do mecanismo econômico, que foi então explorado por R. Frisch

em um trabalho muito poderoso.”30

30
Schumpeter, Joseph [1939] – “Business Cycles”, pp. 181, New York: McGraw-Hill.
155

Ragnar Frisch (1895–1973) foi um dos fundadores da Sociedade Econométrica e

uma figura muito influente no desenvolvimento da econometria31 nos anos 20 e

30 através de sua vasta publicação de artigos e de suas aulas na Universidade de

Oslo. Um de seus artigos, publicado em 1933, se tornou um clássico. Nele, Frisch

mostrou como um modelo econométrico de ciclo deveria ser. Como veremos

posteriormente, Timbergen se utilizou do design elaborado por Frisch para fazer

o primeiro modelo macroeconométrico para uma economia verdadeira.

A grande importância do artigo de Frisch, intitulado “Problemas de Propagação e

Impulso em Dinâmica Econômica”, reside no fato de que ele encorporou os

choques aleatórios na questão dos ciclos econômicos como uma parte essencial

do modelo, sem, contudo, explicar os ciclos única e exclusivamente através dos

choques. Sua preocupação era com o seguinte problema : como deveria ser um

modelo de ciclo econômico que levasse em consideração as variáveis macro, mas

que fizesse isto de forma a respeitar as series históricas destas variáveis

econômicas observadas de fato na realidade ?

Vale lembrar que Frisch tinha em mente uma economia que poderia ser modelada

como um mecanismo que tendia ao equilíbrio e gravitava em torno deste. Os

ciclos eram vistos então como resultados de choques que moviam a economia

para longe do seu centro de gravidade. Portanto, “se funcionar, eu acredito que

esta idéia será uma síntese entre o ponto de vista estocástico e o ponto de vista

determinístico.”32

Para ilustrar o seu modelo, Frisch utilizou uma metáfora já anteriormente

utilizada por Knut Wicksell (1851-1926), onde a economia era comparada a um


31
Para uma definição de econometria, olhar apêndice matemático.
32
Frisch, R. [1933] – “Propagation and Impulse Problems in Dynamic Economics” – in Essays in Honour of Gustav Cassel,
London: Macmillan. pp. 197-198.
156

cavalinho de pau (daqueles que as crianças gostam). A parte determinística da

economia era representada por um mecanismo de propagação amenizado (o

cavalo de madeira), enquanto que os ciclos irregulares eram representados por

um sistema de impulso de choques externos (a forca aplicada ao cavalo). Jevons

havia criado uma analogia parecida ao descrever a economia como um navio

sendo atingido por ondas no oceano.

A graça do modelo do “Cavalo de Pau” era que ele permitia as oscilações

(representadas pelo movimento normal do cavalo de pau, que sempre volta

gradualmente a posição de equilíbrio se não for incomodado) desejadas pelos

teóricos econômicos e ainda assim era compatível com as series históricas

irregulares dos ciclos econômicos observadas na realidade (o movimento do

cavalo de pau, incomodado por choques aleatórios). As forças externas criavam o

impulso, enquanto que o sistema de propagação (a estrutura do cavalo de pau)

seria o mecanismo responsável pelas propriedades estabilizadoras e pela

convergência ao equilíbrio.

A questão então seria definir as hipóteses sobre o comportamento dos choques,

estimar a parte determinística do modelo e gerar uma serie de dados que pudesse

ser comparada com os dados das series históricas observadas na realidade com o

objetivo de comprovar a sua teoria. De acordo com Samuelson, o artigo de Frisch

causou na economia um revolução comparável com a revolução que a mecânica

quântica causou na física clássica. A revolução a que Samuelson se referia não

era em relação a econometria e sim a teoria econômica. A transição causada foi

do método da estática comparativa para o método da dinâmica comparativa.


157

Frisch havia mostrado aos economistas como manipular modelos

macrodinâmicos.

Contudo, Frisch não estava interessado em estimar os paramentos de seu modelo

de forma acurada, e usou aproximações destes parâmetros.

Jan Timbergen (1903 – 1994), por sua vez, foi capaz de estimar os parâmetros e

construir o primeiro modelo estatístico econômico de uma economia real. Seu

modelo foi construído a pedido da Associação Econômica da Holanda, seu pais

de origem, e apresentado em forma de artigo em 1936, com o propósito de

sugerir políticas econômicas para o combate a Depressão. Este projeto deu a

Timbergen muita satisfação, pois ele havia trocado o estudo da Física pelo da

Economia, uma vez que acreditava ser este mais útil para a sociedade. Em 1969,

Timbergen recebeu, juntamente com Frisch, o primeiro prêmio Nobel em

Economia da História por suas contribuições ao desenvolvimento da

Econometria.

O seu modelo macrodinâmico da economia holandesa continha um total de 24

equações. Estas equações descreviam as principais relações entre as variáveis

macroeconômicas da economia – o que determinava o gasto do consumidor, o

investimento do empresário, as exportações, e assim por diante. Em muitos casos,

atrasos (lags) foram introduzidos, de forma que o consumo (e outras variáveis)

não mudaria imediatamente assim que a renda variasse. Ao invés disso, o

consumo mudaria vagarosamente quando a renda variasse, levando anos para se

ajustar ao novo nível de renda. Matematicamente, isto era mostrado com o

consumo dependendo de uma media aritmética entre a renda passada e a presente.

Timbergen foi então um dos primeiros economistas a levar em conta lags


158

temporais em seu modelo econométrico. Sua inspiração foi relativamente

simples. Imagine um grupo de fazendeiros que deve decidir qual a porção de suas

terras que será usada para o plantio de batatas. Se o preço da batata estiver muito

alto em um determinado ano, então todos os fazendeiros irão correr para plantar

batata. Mas no ano seguinte, quando eles trouxerem uma montanha de batatas

para o mercado, o preço da batata cairá. Desapontados, os fazendeiros irão parar

de plantar batata. Em seguida, eles se arrependerão, pois a falta de batatas no

mercado fará com que o preço suba novamente. E assim por diante, eles

continuarão tentando ajustar a produção, porem nunca efetivamente conseguindo.

Este insight ficou conhecido como Teorema Cobweb e foi a base para a analise

de Timbergen para os ciclos econômicos. Chamado para fazer uma crítica ao

trabalho de Timbergen, Keynes relutou em um primeiro momento. Quando

finalmente aceitou Keynes foi enfático em afirmar que os resultados do modelo

de Timbergen não possuem, muito provavelmente, qualquer valor. Para Keynes,

Timbergen estava mais preocupado com a lógica interna do modelo do que com

as hipóteses básicas que, em sua opinião, eram irreais. A sua maior crítica era em

relação a necessidade do modelo de explicar os ciclos com choques exógenos ao

invés da introdução de não-linearidades. Uma das coisas que Keynes aprendeu ao

longo de sua vida foi que um modelo macroeconômico de equações lineares seria

muito simplório para explicar a complexa realidade humana.

Uma dica para todo este quebra-cabeça apareceu no mesmo ano em que

Timbergen publicou seu modelo para a economia americana. Foi um artigo

publicado por um estudante de Harvard de 24 anos, Paul Samuelson, com

veremos posteriormente.
159

Acelerador e Multiplicador

Apesar da Teoria Keynesiana ter falhado em explicar e prever certos fenômenos

econômicos, vários economistas de cunho keynesiano (apesar de muitos deles

não se considerarem como tal) fizeram contribuições importantes em diversos

ramos da Teoria Econômica. Dentre eles, Sir Roy Harrod (1900-78). Harrod

estudou e depois trabalhou na Universidade de Oxford e ensinou na Christchurch

College de 1922 a 1952). Durante a Guerra, ocupou vários postos as lado do

Primeiro Ministro. Depois, voltou para Oxford para ensinar. Um de seus

trabalhos foi sobre “A vida de John Maynard Keynes (1951)” mas é devido a um

de seus últimos trabalhos, Dinâmica Econômica (1973) que Harrod é lembrado.

Ele tentou olhar para o crescimento econômico, não apenas em termos de um

simples equilíbrio estático, como era a preocupação de muitos economistas da

época, mas como uma situação dinâmica. Uma de suas contribuições foi mostrar

matematicamente como a teoria do acelerador33 (clássica) se relacionava com a

do multiplicador34 (keynesiano) para mudar o padrão de crescimento e exagerar o

ciclo econômico. A teoria do acelerador sugere que o investimento depende da

taxa de variação do produto. Isto significa que se houver um aumento do gasto do

governo, a Renda Nacional aumenta mais do que proporcionalmente devido ao

efeito multiplicador. Isto, por sua vez, aumentara o investimento ainda mais via

efeito acelerador e assim por diante, até que o crescimento chega ao seu pico.

Neste momento, o acelerador recomeça o processo inverso e o investimento cai.

33
Teoria que afirma que o investimento aumenta quando a economia se aquece.
34
O conceito do multiplicador foi inventado por Keynes e afirmava que um aumento nas injeções de capital na economia via
investimentos ou exportações levaria a um aumento mais do que proporcional na Renda Nacional. Isto porque os gastos
adicionais levariam a gastos ainda maiores no futuro. O tamanho do efeito multiplicador dependeria da quantidade de conexões
na rede econômica.
160

A interação entre o multiplicador e o acelerador cria as flutuações cíclicas na

economia

Um outro economista keynesiano, Prof. Alvin Hansen de Harvard, e um de seus

mais brilhantes alunos, Paul Samuelson, também trabalharam nesta questão, a

interação entre o acelerador e o multiplicador. Hansen pediu a Samuelson que

montasse um simples exemplo com base em sua explicação.

Vendas no Varejo

Vendas no Atacado

Manufaturados

Matérias Primas

O principio do acelerador : Devido os fenômeno da aceleração, uma pequena variação nas Vendas no Varejo leva a grandes

variações nas Vendas no Atacado, Manufaturados e Matérias Primas.

Hansen utilizou o caso da Rússia em 1914 para exemplificar. Em 1914, a Rússia

tinha uma grande industria de produção de roupas de lã com 700.000 teares,

4.500 máquinas de costura e 150.000 operadores de máquinas. A demanda por

roupas de lã era relativamente constante. Assumindo que uma máquina de costura

dure em media 10 anos, as vendas para reposição são, nesta situação, de 450 por

ano.

O que aconteceria se, durante um ciclo de alta, as pessoas aumentassem sua

demanda por roupas de lã em apenas 10%?


161

45 máquinas de costura seriam vendidas para aumentar a capacidade em 10% e

mais 45 para reposição das velhas máquinas. Portanto, a quantidade total de

máquinas de costura vendidas aumentaria em 100%.

Assumindo agora que as vendas de roupas de lã caíssem em 10%, como ficaria a

demanda por máquinas de costura?

Neste caso, não haveria necessidade de reposição de máquinas e a venda de

máquinas de costura cairia para zero.

Este exemplo ilustra claramente do que se trata o principio do acelerador, mas na

verdade, o que o principio busca explicar é o que acontece quando o consumo se

estabiliza após uma alta de 10%. Nesta caso, as vendas de máquinas voltaria a ser

de 45 por ano, apenas para reposição e suas vendas cairiam em 50%, ou seja de

90 para 45.

O que o principio do acelerador mostrou foi que a estabilização de um setor pode

levar a terríveis choques em outros. É fácil imaginar como estes choques podem

ter efeitos em cascata e consequentemente levar a pontos de inflexão no

crescimento econômico.

O que intrigava Samuelson era que só haviam duas simples propriedades

dinâmicas, o acelerador e o multiplicador, e que se “tudo o mais ficasse

constante” eles saberiam o que imaginar de tais efeitos na economia. Mas o que

aconteceria se houvesse uma combinação dos dois? Será que a dinâmica

resultante apresentaria ciclos alternados? Ou crescimento acelerado? Ou algo

inteiramente diferente, como um comportamento caótico determinístico? Será

que a combinação se assemelharia com o comportamento apresentado na

realidade? Caso contrario, haveria um sério problema teórico.


162

A primeira coisa que Samuelson fez foi montar uma tabela combinando os dois

efeitos em um modelo de economia e determinar as seguintes regras:

• O gasto do governo é constante em “1.00” todo ano.

• Consumo é sempre a metade da Renda Nacional do ano anterior.

• Investimento é a diferença entre o Consumo hoje e no período anterior.35

• A Renda total é a soma do gasto do governo, Consumo e Investimento.

Isto é o que acontecesse neste simples modelo :

2.5

1.5

0.5

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14
-0.5

Governo Consumo Investimento Renda Nacional

O gráfico ilustra a trajetória ao longo do tempo de uma economia com parâmetros

fixos (propensão a consumir 0.5; principio acelerador 1.00). Ela mostra que a

Renda Nacional, dada as hipóteses de Samuelson, pode sofrer ciclos alternados

caso sujeita a constantes estímulos fiscais. A razão básica para isso é que

Samuelson introduziu lags na equação : ele fez o investimento e o consumo

dependerem do passado, não do presente.

35
Esta relação entre crescimento do Consumo e Investimento nada mais é do que o principio do acelerador.
163

Mas Samuelson não parou por ai. Ele conduziu uma série de experimentos

mudando o valor dos parâmetros (propensão marginal a consumir e acelerador).

Propensão a Consumir 0.5 0.5 0.6 0.8


Acelerador 0.0 2.0 2.0 4.0
Comportamento Estabilidade Oscilação Oscilação Crescimento

Alternada Explosiva Explosivo

Samuelson concluiu que dependendo dos valores dos parâmetros a Renda

Nacional em seu modelo poderia exibir comportamento estável, oscilação

alternada, oscilação explosiva ou crescimento explosivo. Com a combinação de

dois simples fenômenos, ele mostrou quão complicado pode vir a ser o

comportamento da economia em seu modelo.

Se prestarmos atenção ao que Samuelson fez, verificamos que ele utilizou uma

técnica explicada no começo do livro como Análise Feedback ou Iterativa. Ao se

utilizar de lags temporais e fazer com que o consumo e o investimento fossem

função de seus valores no passado, Samuelson criou a possibilidade de que

comportamentos não lineares aparecessem na economia. Podemos notar que este

método difere consideravelmente do método de Hicks (IS/LM) que buscava no

equilíbrio a solução para o problema da dinâmica, não levando em consideração a

questão do tempo, dai o modelo IS/LM ser conhecido por estática comparativa.

Contudo, o modelo de Hansen-Samuelson era ainda linear em sua essência e

necessitava da presença de choques exógenos (externos) para que a economia

demonstrasse irregularidades.

A Analise Feedback leva em consideração o fato de que existe uma complicada

dependência estatística entre o passado e o presente. Os fenômenos descritos pela

Analise Feedback podem ser de dois tipos, positivos ou negativos. Os fenômenos

positivos empurram a economia para longe de sua tendência ao equilíbrio. Os


164

negativos, a traz de volta para perto da tendência ao equilíbrio. A mão invisível

de Adam Smith, por exemplo, pode ser considerada um exemplo de feedback

negativo, assim como a Teoria dos Rendimentos Marginais Decrescentes de

Ricardo e funcionavam como uma espécie de freio na trajetória do sistema

econômico.

Mas o problema era que dada a complexidade da dinâmica do sistema quando

combinados seus elementos desestabilizadores (e verossímeis), como seria

possível criar uma visão clara do que estaria acontecendo? Como poderia algum

economista tentar prever o movimento de um sistema de tamanha complexidade?

Será que o Capitalismo tinha criado um sistema tão cheio de variáveis e

complicações que jamais alguém seria capaz de entende-lo, e quanto mais preve-

lo?
165

MONETARISMO

Na Década de 70, a escola de pensamento monetarista foi a principal alternativa

ao pensamento keynesiano e a síntese neoclássica, por esboçar alguma esperança

na tentativa de responder as questões econômicas relevantes da época. O grupo

pode ser associado a Universidade de Chicago onde muitas das suas principais

figuras estudaram ou lecionaram. De longe a figura mais importante do

monetarismo foi Milton Friedman (1912 - ), o criador de suas teorias. O

Monetarismo, diferentemente de outras teorias econômicas, procurou antecipar

eventos, ao invés de reagir a eles. A pesar disso, somente atingiu grande

influencia após a estagflação da década de 70, que invalidou as teorias de cunho

keynesiano. Os monetaristas são de tradição neoclássica, utilizando-se de

hipóteses semelhantes para chegar a resultados semelhantes.

Eles assumem que os indivíduos são racionais e maximizam sua utilidade com

expectativas adaptativas, ou seja, a expectativa de uma variável macroeconômica

é a média de seus valores passados.

Em contraste com a ênfase dada pelos economistas Keynesianos na importância

da Política Fiscal, Friedman argumentava que a quantidade de moeda e a Política

Monetária tinham o papel principal na determinação da atividade econômica. Seu

argumento para a importância da quantidade de moeda vem da Teoria

Quantitativa da Moeda (MV=PQ), que assume que a quantidade de moeda na

economia (M) multiplicada pelo número de vezes que cada unidade monetária é

usada em um ano para a compra de bens(V), deve ser igual ao total da produção

econômica vendida naquele ano (PQ).


166

Diferentemente da teoria monetária clássica, que considerava a velocidade de

circulação da moeda (V) determinada pelo Governo, Friedman aceitava que esta

fosse determinada por fatores econômicos como a taxa de juro ou a inflação

esperada. Além disso, Friedman afirmava que as pessoas poderiam afetar a

velocidade de circulação da moeda se a retivessem por motivos outros que a

compra de bens, quais sejam, segurança, ou caso elas achassem que o preço de

ações ou outros ativos fosse cair em um futuro próximo. Contudo, em seus

estudos empíricos, Friedman concluiu que estes fatores econômicos tem apenas

uma pequena influencia na velocidade de circulação da moeda e seu impacto

tende a declinar com a passagem do tempo. Como a velocidade de circulação da

moeda era relativamente estável, era a quantidade de moeda que principalmente

afetava o nível de atividade econômica.

Indo além, Friedman afirmou que a quantidade de moeda somente afetava a

atividade econômica no curto prazo, uma vez que no longo prazo esta deveria ser

neutra. Mais dinheiro na economia afetaria o nível da atividade econômica com

um lag temporal de aproximadamente 6 a 9 meses. Depois disso, o impacto do

dinheiro seria somente nos preços. Portanto, 12 a 18 meses após o aumento da

oferta de moeda, os preços começariam a subir e a inflação se tornaria um

problema. Enquanto os economistas tradicionalmente distinguiam inflação de

custo (cost-push) de inflação de demanda (demand-pull), Friedman argumentou

que a inflação provém de uma grande demanda por bens causada por um excesso

de moeda na economia.

Como para ele a inflação é um fenômeno monetário, a única solução seria impor

restrições ao crescimento da oferta de moeda. Friedman propôs então que o


167

Banco Central americano elevasse a oferta de moeda de 3 a 5% ao ano, o que era

o suficiente para atender a taxa de crescimento econômico dos EUA, sem causar

inflação.

Friedman mostrou que as autoridades monetárias haviam produzido efeitos

indesejados na economia tais como inflação e depressão devido ao seu tratamento

errôneo em relação a oferta de moeda. Ele culpa o Federal Reserve `a Grande

Depressão da década de 30, alegando que este, em um primeiro momento,

reduziu a oferta de moeda devido ao medo de especulação demasiada no mercado

acionário e depois não fizeram nada de 1930 a 1931 quando houve uma corrida

aos bancos. Além disso, em um segundo momento, aumentaram a taxa de juro

quando a Grã-Bretanha abandonou o padrão ouro em Setembro de 1931. Todos

estes fatores reduziram a oferta de moeda, os gastos e criaram a Depressão. Em

suas opinião, os Bancos Centrais não podem ser confiáveis em determinar uma

Política correta, eles deveriam seguir uma regra monetária ao invés de tentar

administrar a oferta de moeda.

Política monetária normalmente da errado, de acordo com Friedman, devido aos

lags temporais entre os problemas econômicos correntes e o momento em que as

mudanças na oferta de moeda efetivamente afetam a economia. Em alguns casos,

quando o remédio começa a fazer efeito, a doença não existe mais.

Uma outra grande contribuição de Friedman foi sua análise em relação ao

fenômeno da estagflação da década de 70, utilizando-se de uma adaptação a

Curva de Phillips. Como vimos, a Curva de Phillips mostra o trade-off entre

inflação e desemprego. Com o problema de aumento do desemprego e inflação

simultaneamente, Friedman adaptou a Curva de Phillips para algo que levava em


168

consideração o papel das expectativas. Ele argumentou que para cada nível

esperado de inflação, haveria uma Curva de Phillips. Se as pessoas esperassem

um aumento na inflação, então elas esperariam um aumento de salários

correspondente. Portanto, um aumento da inflação não traria consigo,

necessariamente uma redução do desemprego. Friedman estava assumindo que

não haveria ilusão monetária, ou seja, as pessoas levariam em conta o salário real,

e não o nominal. Para demonstrar isto, em 1968, ele introduziu a idéia de “taxa

natural de desemprego”. Esta seria o nível de desemprego que continua a existir

na economia, mesmo quando o mercado de trabalho está em equilíbrio. Nem

sempre todos teriam um emprego. Sempre havará alguém que acabou de sair de

um emprego e ainda não encontrou outro, ou que acabou de se formar e ainda não

encontrou trabalho. Qualquer tentativa de redução do desemprego abaixo da taxa

natural, causaria inflação. Com preços mais altos, as pessoas comprariam menos,

reduzindo a produção e o emprego voltaria para níveis compatíveis com a taxa

natural. Para os monetaristas ortodoxos, a economia é inerentemente estável, a

menos que seja afetada por um crescimento extraordinário da quantidade de

moeda, e quando sujeita a algum distúrbio, retornará rapidamente as vizinhanças

do equilíbrio de longo prazo na taxa natural de desemprego (atrator). Portanto,

para os monetaristas, em contraste com os Keynesianos, não ha razão para se

estabilizar a economia. Mesmo que houvesse esta necessidade, as políticas

estabilizadoras teriam um efeito mais desestabilizador e o paciente morreria da

cura e não da doença.

A hipótese da taxa natural de desemprego desafiou a própria existência da Curva

de Phillips, ao afirmar que um aumento na volatilidade da inflação causado por


169

uma tentativa de redução do desemprego, ao gerar mais inflação, aumentaria a

incerteza e portanto aumentaria ainda mais o desemprego. Neste caso, não há um

trade-off entre inflação e desemprego, mais ambos andam juntos na mesma

direção, explicando então a questão da estagflação da década de 70.

A crise do monetarismo

Porque então o monetarismo, que parecia responder as principais questões

econômicas da época, não conseguiu se manter como principal sucessor do

Keynesianismo? Porque o monetarismo não ocupou o posto que o

Keynesianismo havia ocupado até o final da década de 60 por muito tempo?

Existem varias respostas para esta pergunta.

A primeira diz respeito a falta de evidenciação empírica, que começou durante a

década de 70 e atingiu o ápice em 1981 - 1982, da relação entre a oferta de moeda

(especialmente M1) e o nível geral de preços, renda e desemprego. A demanda

por moeda estava amplamente superestimada, quebrando o mecanismo de

transmissão monetarista e resultando na “crise de Volcker” de 1982. A quebra do

mecanismo de transmissão, por si só já teria conseqüências fatais para o uso de

modelos monetaristas tanto na prática como na teoria.

Uma segunda resposta aponta para o problema da falta de fundamentos

microeconômicos calcados nos princípios da escolha-racional. A Ciência

Econômica se identificou cada vez mais com os princípios da escolha-racional

durante os anos 70 e 80. O monetarismo “saiu de moda”, por assim dizer, entre os

economistas mais jovens. Em geral, os monetaristas, tinham uma grande


170

preocupação em capturar empiricamente os grandes padrões de movimento entre

os agregados macro, metodologia esta apresentada por Friedman em seu famoso

Ensaio sobre a Economia Positiva e exemplificado em A História Monetária

dos Estados Unidos36. A crítica mais comum a Friedman e Schwartz afirma que a

correlação entre a quantidade de moeda na economia e o nível de preços,

verificada na economia norte-americana por mais de um século, não é suficiente

para embasar a teoria monetarista, uma vez que correlação não implica em

causalidade.

36
Milton Friedman, Essays in Positive Economics (University of Chicago Press, 1953); Milton Friedman e Anna Schwartz,
A Monetary History of the United States, 1860 – 1960 (Princeton University Press, 1963)
171

OS NOVO-CLÁSSICOS

A ultima escola de pensamento a ir de encontro a Síntese neoclássica e a

ortodoxia Keynesiana, foi a Escola Novo-Clássica, que surgiu nos anos 70 como

uma dissidência do pensamento monetarista. Muitas vezes o pensamento novo-

clássico é confundido, ou melhor, tido como sinônimo do trabalho de Robert

Lucas Jr. da Universidade de Chicago e aluno de Milton Friedman.

Na visão de Lucas o keynesianismo seria um mero desvio da principal corrente

de progresso científico na economia, cujo sucesso pôde ser creditado ao fracasso

da Teoria Econômica de Equilíbrio Geral em explicar os ciclos econômicos nos

anos trinta. O objetivo do seu programa de pesquisa era completar uma necessária

contra-revolução anti-keynesiana, restabelecendo a Teoria Clássica em uma

versão mais moderna e satisfatória que pudesse dar conta dos fenômenos

macroeconômicos, provendo critérios firmes para escolha entre políticas sociais e

econômicas.

O argumento de Lucas era que a macroeconomia Keynesiana não possuía

fundamentação rigorosa em termos de Equilíbrio Geral e que portanto não

poderia prever como a economia reagiria a mudanças na política econômica e,

consequentemente não serviria como critério de escolha entre diferentes políticas

econômicas. Sua idéia básica era construir um rigoroso modelo teórico onde os

postulados clássicos de mercados eficientes e maximização dos agentes

pudessem ser mantidos, mas relaxando o postulado de informação perfeita.

Portanto com base em informações limitadas, assume-se que os agentes fazem a

melhor estimativa possível de todos os preços relativos que influenciam suas


172

decisões de oferta e demanda, preferindo interpretar qualquer variação no nível

absoluto de preços como, pelo menos em parte, uma variação transitória e não

prevista do nível de preços relativos. Assim, um aumento nos salários nominais

pode ser interpretado pelos trabalhadores como um aumento transitório dos

salários reais, dado seu nível normal e uma redução dos salários nominais pode

ser interpretada como uma redução transitória dos salários reais, dado seu nível

normal. Isto levaria os trabalhadores a trabalharem mais quando os salários

nominais estivessem mais altos do que seu nível médio, para compensar o

momento em que os salários nominais estivessem mais baixos, uma vez que estes

momentos seriam transitórios. De acordo com Lucas, isto pode explicar

oscilações no nível de emprego e sua correlação positiva com preços e salários

reais, sem ferir os dogmas clássicos de perfeita racionalidade no mercado de

trabalho e capacidade de auto-regulação em mercados competitivos. Neste

contexto, o desemprego era visto como voluntário, sendo composto por pessoas

que preferiam esperar e procurar melhores salários, reconciliando assim o

mercado de trabalho com a Teoria do Equilíbrio Geral, fato este inconcebível

para os economistas Keynesianos que negavam a validade do segundo postulado

clássico.

Para este economista novo-clássico, os oscilações cíclicas ocorrem porque os

agentes, encontrando-se em situações de incerteza, interpretam sinais nominais de

forma racional, como se fossem sinais reais e a fonte de tais erros de

interpretação reside no fato de que políticas intervencionistas de cunho

keynesiano criariam mudanças imprevisíveis no comportamento das variáveis

monetárias. O agente racional deveria então possuir um plano de reação aos


173

possíveis eventos, o que implicaria na formulação de distribuições de

probabilidade para todas as variáveis aleatórias que teriam influencia em seu

presente e futuro. É neste momento que a Hipótese de Expectativas Racionais

(HER) entra em cena, um dos principais pilares da Teoria Macroeconômica

Novo-Clássica.

A HER tem como premissa a idéia de que os participantes atuam no mercado

com base em todas as informações que recebem. Diferentemente das expectativas

adaptativas do modelo de Friedman, em que os agentes formavam suas

expectativas extrapolando a experiência passada para o futuro, na HER, os

agentes formam suas expectativas com base em suas melhores estimativas sobre

o futuro, dadas as informações correntes. A totalidade da situação do mercado

continua a ser desconhecida em sua complexidade, mas os participantes,

obedientes a sua natureza racional, constróem o que eles acreditam ser o mais

provável cenário futuro. Isto não significa que cada e todo participante do

mercado consiga fazer previsões acuradas e ganhar dinheiro consistentemente,

mas implica em que as expectativas dos participantes, tomada em sua totalidade,

preverá acuradamente os cenários futuros, uma vez que estas expectativas,

transformadas em atos, determinarão de fato o comportamento do mercado.

Esta idéia foi sendo mais e mais aceita entre os economistas e começou a ser

reconhecida não como uma escola de pensamento, mas como uma técnica que

aplicava análise de otimização ao fenômeno da formação de expectativas.

A HER é uma condição necessária para escola de pensamento Novo-Clássica

mas não suficiente, ou seja, esta última não existe sem a HER, mas a HER existe

sem a escola de pensamento a ela associada.


174

A HER foi apresentada na literatura, através dos anos, em diferentes formas e

versões e levou 10 anos, desde a publicação do artigo de John Muth em 196137

para que Lucas, Sargent e outros a incorporassem em seus modelos

macroeconômicos.

Dentre as principais formas, a versão fraca e forte são as mais importantes. A

versão fraca, que foi explicada acima, assume que os agentes racionais farão o

uso mais eficiente das informações publicas para formar suas previsões e

expectativas acerca da variável cujas informações tem relevância. Por exemplo,

se os agentes econômicos acreditam que a performance da ação de uma empresa

em bolsa depende do resultado financeiro desta empresa, os agentes farão o

melhor uso possível de toda a informação publica disponível acerca dos

resultados desta empresa na formação de suas expectativas em relação a

performance de suas ações em bolsa.

A versão forte, que foi incorporada pelos modelos Novo-Clássicos e proposta por

Muth, afirma que a expectativa subjetiva dos agentes econômicos acerca de uma

variável, coincidirá com a esperança matemática condicional da variável, ou seja,

com sua verdadeira probabilidade38.

Isto não significa que os agentes não farão erros em suas previsões. Expectativas

Racionais não é o mesmo que perfeita previsão. Os erros serão feitos na medida

em que os agentes, para formularem suas expectativas, deverão levar em conta o

que eles acreditam ser o modelo macroeconômico “correto” da economia. Como

a informação é imperfeita no modelo Novo-Clássico, ou seja, nem todos os

37
Muth, J.F. (1961), Rational Expectations and the Theory of Price Movements, Econometrica, July. É interessante notar
que Tinbergen foi o precursor de Muth, tendo apresentado um artigo sobre Expectativas Racionais 30 anos antes.
24
Para uma definição mais formal, ver o Apêndice Matemático.
38
175

agentes tem acesso a mesma informação na mesma hora, os agentes farão erros

de previsão. Contudo, os agentes aprenderão com seus erros e não farão erros

sistemáticos de previsão. Desta forma, com Expectativas Racionais, as

expectativas dos agentes quanto a variáveis econômicas, em média, deverão ser

corretas, ou seja, serão iguais a seu valor verdadeiro. Resumindo, para Lucas,

Expectativas Racionais é a mais acurada e eficiente forma de formação de

expectativas.

A HER foi um artifício utilizado por Lucas para adaptar o objeto de seu estudo ao

método escolhido e não o oposto. Isto porque para que se pudesse usar um

modelo econométrico para avaliar diferentes políticas econômicas, este deveria

ser um modelo capaz de fazer previsões condicionais, ou seja; como o

comportamento de certas variáveis reagiria a determinadas mudanças na política

econômica. Isto somente seria possível caso a estrutura da economia ficasse

inalterada, dadas as mudanças de política econômica. De acordo com Lucas,

somente em modelos de equilíbrio este tipo de estabilidade estrutural se verifica,

opondo-se aos modelos Keynesianos onde excesso de demanda e desemprego

involuntário impossibilitariam esta estabilidade.

Deste modo, a capacidade analítica dos modelos de equilíbrio fica restrita a certos

tipos de fenômeno que apresentam alto grau de regularidade, ou seja, processos

estocásticos39 estacionários. Esta limitação é tão mais restritiva quando se

incorpora a HER, que tem as seguintes implicações econômicas : os agentes têm

operado por algum tempo em situações semelhantes, aprendendo com a

experiência e construindo distribuições de probabilidade para os eventos que os

afetam. Para que isto tenha sentido, estas distribuições devem permanecer
39
Processo que segue uma variável cujo valor se altera aleatoriamente ao longo do tempo.
176

estáveis através do tempo. Matematicamente, isto significa que só serão

consideradas distribuições estacionárias. Assim, o problema de Lucas, qual seja -

dado o comportamento de um agente ou coleção de agentes através do tempo,

utiliza-se estas observações para inferir como seria o comportamento destes

agentes caso o ambiente fosse alterado - estaria resolvido e seu modelo permitira

uma avaliação dos efeitos de diferentes regras de política econômica na estrutura

do sistema, assumindo que os agentes operam em um ambiente cuja dinâmica é

compreendida por processos estocásticos estacionários.

Resumindo, as hipóteses dos Novo-Clássicos em relação ao desemprego é que as

expectativas não são adaptativas e sim racionais, e que o mercado é o locus de

ajustamento ao equilíbrio. A hipótese forte de expectativas racionais coloca que

as expectativas são iguais para todos os agentes e convergem para a realidade.

Para os economistas Keynesianos, explicar os ciclos econômicos em condições

de equilíbrio seria uma tarefa impossível. Para eles, os ciclos seriam um

fenômeno de desequilíbrio. Uma das maiores contribuições de Lucas foi sua

tentativa de explicação dos movimentos cíclicos dos agregados macroeconômicos

sem a utilização da noção de desequilíbrio. Para ele, quaisquer desvios na

produção e no emprego para longe de suas taxas naturais seriam causadas por

“choques exógenos”, ou seja, por motivos que vem de fora do sistema e

principalmente relacionados a erros nas expectativas quanto aos preços devido a

aceitação da hipótese de informação imperfeita. Contudo, toda frustração de

expectativas é função de choques aleatórios. Como os agentes formam suas

expectativas de forma racional, aprendendo com o passado, estes erros não


177

seriam persistentes no longo prazo e o nível de emprego e produção oscilariam

em torno de suas taxas naturais.

Uma das mais importantes conclusões da escola de pensamento Novo-Clássica é

que no limite a política econômica seria inócua pois os agentes acabam

aprendendo-a e antevendo-a. Políticas econômicas somente seriam eficientes caso

não fossem antevistas pelos agentes.


178

CRÍTICAS ÀS EXPECTATIVAS RACIONAIS

Um processo estocástico é dito estacionário se as Variáveis Aleatórias são bem

definidas em todos os pontos do tempo e se todas as suas funções de distribuição

são independentes no tempo. Um processo estocástico é ergódico se o seu limite

independe de suas condições iniciais, ou seja, sua evolução independe do tempo

histórico. O que Paul Davidson (1982-1983), um famoso economista Pós-

Keynesiano vai chamar atenção, é que para que a HER forneça uma teoria de

formação de expectativas que dê lugar a previsões eficientes, não-viesadas e sem

erros persistentes, as funções de distribuição objetiva e subjetiva devem ser iguais

em qualquer momento do tempo e ambas devem ser geradas por um processo

ergódico. Isto porque se o processo estocástico é ergódico, para um número finito

de realizações, as médias estatística40 e temporal41 tendem a convergir. Dito em

outras palavras, o processo estocástico, além de estacionário deve ser

dinamicamente estável, fato este que Lucas não considerou e que é de extrema

importância na medida em que a condição de estacionariedade é necessária mas

não suficiente para garantir a consistência do método de Lucas, dependendo este

da ergodicidade do sistema dinâmico em questão.

Portanto, se o processo econômico é entendido como não-ergódico, ou seja, os

eventos são datados e persistentes, possuindo uma dependência temporal, então a

HER levaria a erros sistemáticos de previsão.

Outra crítica de cunho pós-keynesiano a Teoria Novo-Clássica, seria quanto a

não neutralidade da moeda num contexto de incerteza, onde esta exerceria a

40
Média estatística : se refere a um período de tempo fixo e é formada como média de um universo finito de realizações
41
Média temporal : Se refere a realizações fixas e é formada como médias de um espaço temporal indefinido
179

função não só de meio de troca mas também de reserva de valor e portanto seria

demandada por motivos especulativos e precaucionais determinando a

preferência pela liquidez dos agentes. Para Keynes, o desejo de reter moeda seria

um barômetro do grau de desconfiança dos próprios cálculos e convenções em

relação ao futuro, num mundo permeado por incerteza. Assim, em uma economia

monetária, nada garante que toda a renda será gasta, podendo ocorrer deficiências

de demanda efetiva. Caso não houvesse incerteza no mundo, ou melhor, se o

cálculo probabilístico pudesse reduzir a incerteza a padrões calculáveis, não

haveria necessidade de dinheiro, a moeda seria um véu, não haveriam mercados

especulativos de contratos futuros de commodities e câmbio, não haveria razão

para se reter moeda, não haveria desemprego involuntário. A probabilidade

(risco) não pode ser usada como proxy de incerteza. A incerteza tem um papel

fundamental na determinação do emprego, do crescimento, da precificação de

ativos, da renda e da distribuição. Isto porque o mundo em questão é cercado por

um futuro enigmático e cheio de surpresas. Uma economia monetária de

produção, operando sem incerteza, seria uma contradição em seus próprios

termos.

Num mundo de incertezas, o dinheiro faz a ligação entre presente e futuro pois as

expectativas de curto prazo podem ser desapontadas e as expectativas em relação

ao futuro influem diretamente nas decisões a serem tomadas no momento

presente. Dito de outra forma, o que ocorre é que o tempo é unidirecional, e a

realização de um investimento leva tempo. Portanto, o dinheiro tido como reserva

de valor é capaz de adiar uma decisão de gasto vis-à-vis conjecturas negativas em


180

relação ao futuro. Uma vez que tomadas as decisões, não se pode revertê-las sem

custo.

Deste modo, o conceito de incerteza é fundamental para entendermos o motivo

do surgimento de certos comportamentos em uma economia monetária. Estes

comportamentos seriam uma forma defensiva do agente restringir a influência da

incerteza e com isso se proteger de eventual frustração de expectativa. Neste

contexto, as instituições seriam um "amortecedor" contra as flutuações causadas

por choques exógenos e facilitariam operações penalizadas pela presença de

incerteza. Na teoria de Keynes, o comportamento convencional (rotinas) e a

preferência pela liquidez seriam, portanto, uma forma de defesa contra a

incerteza.

A existência da incerteza na economia monetária seria responsável pela

instabilidade do sistema, fato este que para Keynes seria uma virtude de seu

modelo, enquanto que na visão de Lucas seria um defeito. Esta instabilidade é

conflitiva com o uso da HER, cujos argumentos demonstrativos levam à soluções

conclusivas do problema em questão. Para Keynes, ao contrário do que pode

parecer, esta dinâmica descontínua e imprevisível das expectativas de longo

prazo não implica em nenhum tipo de irracionalidade por parte do agente

individual. O que está em questão é a racionalidade do agregado, ou melhor, a

racionalidade macroeconômica. Numa economia monetária de produção, o que é

ótimo a nível individual pode não ser a nível coletivo. Daí toda sua discussão

contra políticas de laisser faire.

Observamos então que existe uma assimetria fundamental entre Keynes e Lucas.

Na concepção Keynesiana a Economia seria uma disciplina argumentativa que


181

não exclui o uso de argumentos demonstrativos quando possível, levando sempre

em consideração a validade destes argumentos. Por outro lado, a concepção de

Lucas de Economia implica numa disciplina rigorosamente exata e demonstrativa

que exclui a validade científica de argumentos não demonstrativos. Este fato

restringe consideravelmente, teórica e metodologicamente o escopo de sua Teoria

Econômica.

Resumindo, a crítica de Davidson às expectativas racionais é que o sistema

econômico a que se está tratando não é estacionário e ergódico. Processos

estocásticos apresentariam mesma média e variância42 no tempo caso o sistema

econômico fosse ergódico. Para Davidson, a incerteza intratável não permite a

existência de um sistema estacionário e ergódico. Não se pode distinguir o que é

sistemático do que é aleatório, o que é sinal do que é ruído. Concluindo, as

expectativas só seriam racionais se o mundo fosse ergódico e estacionário. Para

Davidson, aprende-se que não se aprende.

42
Variância é um conceito estatístico que exprime matematicamente o desvio de um evento em relação a sua média. O desvio
padrão (ou volatilidade) é o quadrado da variância e é muito utilizado como medida de risco para ativos financeiros. Se dois ativos
possuem diferentes volatilidades, aquele com maior volatilidade é considerado mais arriscado.
182

Os Primeiros Passos

Schumpeter e a Destruição Criadora

Até o presente momento, este livro tentou contar a história do pensamento

econômico com uma ordem cronológica. Contudo, Joseph Shumpeter

(1883-1950), contemporâneo de Keynes (nasceram no mesmo ano), ainda não foi

apresentado. Faremos então um pequeno retorno no tempo para olharmos um

pouco mais de perto as idéias deste brilhante economista que foi um dos

primeiros a estudar as causas dos ciclos econômicos, influenciando assim uma

série de outros economistas que passaram a olhar o processo capitalista de uma

forma mais dinâmica e orgânica.

Para Schumpeter, o estudo da economia passava necessariamente pelo estudo das

mudanças. Ele estudou tanto as flutuações econômicas de curto prazo assim

como as tendências de longo prazo do capitalismo. Nestes estudos, ele identificou

as fases e as causas dos ciclos econômicos.

Schumpeter nasceu em uma família de classe media em Triesch, Moravia (então

parte do Império austro-húngaro e hoje em dia parte da Republica Tcheca) em


183

1883. Seu pai tinha uma fábrica de tecidos e morreu quando ele ainda era muito

pequeno. Sua mãe, logo casou-se novamente e mudou-se para Viena, onde

Schumpeter foi para a escola junto com a elite aristocrática. Ele recebeu uma

excelente educação em humanas, mas uma pobre formação matemática e

científica. Como estudante de Direito na Universidade de Viena, teve a

oportunidade de fazer vários cursos de economia quando em um deles, ensinado

pelo professor Eugene von Bohm-Bawerk, Schumpeter percebeu seu interesse

pelo futuro do Capitalismo. Bohm-Bawerk, juntamente com Friedrich von

Wieser foram fortemente influenciados por Carl Menger e são considerados a

primeira geração da Escola Austríaca, da qual Schumpeter divergiu para navegar

em águas um pouco mais walrasianas.

Seu primeiro emprego foi no Egito, onde deveria otimizar o processo produtivo

em uma refinaria de açúcar. Obteve grande sucesso e pôde observar como suas

inovações tecnológicas levaram a um aumento da produtividade – uma percepção

que mais tarde influenciaria suas teorias. Quando chegava em casa após o

trabalho, se dedicava a uma outro projeto. Ele decidiu escrever um livro sobre

economia.

O livro, Das Wesen und der Hauptinthalt der Teorwtischen Nationalokonomik,

foi publicado em 1908 e escrito em apenas um ano e meio. Schumpeter tinha

então 25 anos de idade e resolveu pedir demissão do emprego para se dedicar a

carreira acadêmica. Voltou a Viena e começou a se preparar para conquistar o

direito de ensinar Economia Política a nível universitário. Com 26 anos,

conquistou este direito e já com 22 revisões de livros, 9 artigos publicados e seu

livro de 657 paginas, estava preparado para o mundo acadêmico.


184

Talvez o mundo acadêmico ainda não estivesse totalmente preparado para ele. As

pessoas o achavam irritante e ofensivo. Além disso, ele se vestia como um

Conde. Outra coisa era sua forma de falar em publico. Falava como um professor

experiente, sem a ajuda de nenhum manuscrito, e tipicamente com um leve

sorriso no rosto em uma atitude arrogante. Schumpeter conseguiu seu primeiro

emprego como professor em Czernowitz (hoje parte da Rússia), chegando, dez

anos depois, a Ministro das Finanças da Áustria. Sua carreira Política, no entanto,

durou pouco. Ficou no cargo por apenas sete meses e caiu por ter proposto um

imposto sobre o capital como forma de controlar a inflação, entre outras coisas.

Terminou sua carreira como professor em Harvard, onde ficou até sua morte em

1950.

Os anos em Czernowitz foram de grande importância para Schumpeter pois foi

onde ele escreveu seu segundo livro “A Teoria do Desenvolvimento Econômico”.

Schumpeter foi um dos primeiros economistas a estudar os ciclos econômicos.

Ele identificou três tipos diferentes de ciclos ocorrendo simultaneamente.

Primeiro, haviam as flutuações de curto prazo, que duravam cerca de três a quatro

anos e que Schumpeter chamou de “Ciclos de Kitchin”, em homenagem ao

economista Joseph Kitchin que foi o primeiro a observar tais ciclos. Estes

ocorriam devido a variações nos estoques das empresas. Por um ou dois anos, as

empresas poderiam aumentar seus estoques para dar vazão a um aumento nas

vendas. Mas quando as vendas diminuam, os estoques cresciam nas prateleiras

dos depósitos. Como resultado, as empresas reduziriam a produção por mais ou

menos um ano para que houvesse uma redução dos estoques. Quando os estoques
185

estivessem a níveis mais desejáveis, e as vendas voltassem a aumentar, as

empresas novamente ampliariam seus estoques.

Um segundo tipo de ciclo estava associado com as variações nos investimentos

por parte das empresas em novas fabricas e equipamentos. Estes duravam de oito

a onze anos e Schumpeter os chamou de “Ciclos de Juglar” em homenagem a

Clement Juglar. Normalmente, quando as pessoas falam de ciclos econômicos, é

a este tipo de ciclo que elas se referem. Expansões que duram de quatro a cinco

anos ocorriam devido ao desejo das empresas de modernizarem seus

equipamentos. Uma vez modernizadas, as empresas teriam pouca necessidade de

investir pelos próximos quatro ou cinco anos. Após este período, com a

depreciação, haveria necessidade de um novo boom de investimentos que duraria

pelos próximos quatro a cinco anos, e assim sucessivamente.

Finalmente, haveriam também os ciclos longos, de aproximadamente 45 a 60

anos, denominados por Schumpeter de “Ciclos de Kondratieff” em homenagem

ao economista russo Nikolai Kondratieff, que os observou mas não explicou suas

causas. Schumpeter atribuiu a invenções e inovações a causa dos ciclos longos.

Em tempos de pouco crescimento, existe pouca propensão a introdução de

inovações. Como resultado, novas descobertas e inovações poderiam se acumular

por décadas. Quando o crescimento se acelerasse, estas inovações seriam

colocadas em prática no processo produtivo, acelerando ainda mais o

crescimento, como em um processo de feed-back loop com níveis críticos. Para

Schumpeter, a Revolução Industrial, que introduziu inovações como por exemplo

a energia a vapor, foi o começo de um ciclo longo. A construção de ferrovias, na

metade do século dezenove, começou uma segunda onda de Kondratieff. No


186

começo do século vinte, com o advento da energia elétrica, automóveis e

química, uma terceira onda começou. Será que o começo da década de 90, com a

popularização dos microcomputadores, foi o começo de uma nova onda longa?

Durante sua vida, Schumpeter se recusou a acreditar que o ato de inovar pudesse

ser caracterizado como uma atividade racional. Ele acreditava que esta era uma

atividade criativa e que não poderia ser explicada nem tampouco entendida como

resultado de um processo de raciocínio lógico. O agente da inovação e da

invenção seria o empresário.

Diferentemente de muitos de seus contemporâneos, Schumpeter não acreditava

que os empresários meramente agregavam os fatores de produção com o objetivo

de produzir bens ao menor custo possível. Para ele, os empresários eram

indivíduos que estavam dispostos a assumir riscos. Como tal, eles eram

fundamentais para o crescimento da economia capitalista. Uma economia cujo

espirito empreendedor fosse destruído se transformaria em uma economia

socialista.

Schumpeter via as ondas longas como um distúrbio no equilíbrio de um sistema

capitalista. Uma vez de este distúrbio chegasse a exaustão, o sistema

eventualmente voltaria ao equilíbrio43. Este repetido retorno ao estado de

equilíbrio era o que caracterizava o caráter cíclico das ondas longas. Schumpeter

chamou este estado de equilíbrio de “fluxo circular da vida econômica” ou “fluxo

estacionário”. Este estado se refere a condição de simples reprodução do sistema,

sem que houvesse nenhum desenvolvimento ou mudança. Mas Schumpeter foi

43
O conceito de equilíbrio estava arraigado na cabeça de Schumpeter, que admirava o trabalho de Walras e o usou

como ponto de partida para seu próprio trabalho na tentativa de dinamizar o equilíbrio geral de walrasiano.
187

explicito em afirmar que este estado de mera repetição era apenas uma

representação teórica, não ocorria na pratica. Era apenas um ponto de referencia

para ajudar na definição de fenômenos do tipo, superprodução, capacidade ociosa

e desemprego. Para ele, sistemas econômicos nunca atingem o equilíbrio. No

melhor dos casos, chegam perto das redondezas do equilíbrio, como se este fosse

um atrator. Uma característica importante das redondezas do equilíbrio é que as

condições econômicas são relativamente estáveis e permitem o que Schumpeter

chamou de “cálculos toleravelmente confiáveis” sobre o futuro. Como resultado,

o risco associado ao engajamento em novas atividades está em seu nível mais

baixo.

Para ele, inovação era a força mestra do que chamou de “evolução econômica”.

Hodgson44 define bem o que Schumpeter quis dizer com evolução econômica :

“Para Schumpeter, evolução significa a negação de que o equilíbrio possa

ser atingido como estado de permanente repouso e a garantia de que

sempre haverá mudança e novidade. A atividade empresarial e as

transformações tecnológicas mostram que a teoria deveria tratar a

economia como um processo que esta em constante mutação do ponto de

vista do tempo histórico”.

Em alguns momentos, o próprio Schumpeter chega a utilizar o conceito de

mutação, proveniente da teoria de evolução Darwiniana em sua analise. Em sua

opinião, o processo de mutação industrial :

44
Hodgson, G.M.,[1993] – “Economics and Evolution”, Michigan, The Univesity of Michigan Press, pp.147.
188

“ … incessantemente revoluciona as estruturas econômicas de forma

endógena, incessantemente destruindo as velhas e incessantemente criando

as novas”45.

E isto ele chamou de Destruição Criadora.

A evolução econômica é contudo descontinua e toma a forma de ondas longas

devido a discontinuidade na introdução de grandes inovações no sistema

econômico.

É interessante notar que para ele, a verdadeira força no desenvolvimento

econômico não eram as inovações por si só, mas as conseqüências destas

inovações, como por exemplo, a construção de novas plantas e a reconstrução das

antigas, novas firmas que se formam para a exploração econômica de certas

inovações, e a ascensão de novos lideres.

O processo de evolução econômica começa quando um empresário de

excepcional habilidade, o “condutor” introduz uma inovação. Neste momento, o

indivíduo é capaz de obter lucros extraordinários, o que estimula a sua demanda

por crédito, para que possa aumentar o investimento. Vale notar, que o lucro só

aparece numa economia estática quando o fluxo circular falha em seguir seu

curso rotineiro. A atividade do primeiro inovador também facilita o caminho para

que outros o imitem em setores afins. Atras de cada inovador vem um “enxame

de imitadores”. Todos eles são financiados pela expansão de credito, a qual

Schumpeter chama de “complemento monetário da inovação”. Este processo

produz o aumento genérico dos preços que caracteriza a primeira fase do modelo

de Schumpeter – a Prosperidade.

Recessão
Prosperidade
45
Schumpeter, J.A., [1942] – “Capitalism, Socialism and Democracy”, England : George Allen and Uwin.
189

Equilíbrio

Depressão Retorno

A Prosperidade chega ao fim por diversas razões. Sem condições de competir

com as novas firmas inovadoras, antigas firmas não inovadoras e as próprias

firmas inovadoras que não deram certo começam a amargar prejuízos. Novos

investimentos são cancelados pois fica mais difícil fazer cálculos tolerantemente

confiáveis acerca do futuro. As possibilidades oferecidas pelo novo conjunto de

inovações são exauridas. A taxa de juro sobe. O movimento seguinte é de

arrefecimento e da início a segunda fase do ciclo, a Recessão. A Recessão

continua, ultrapassando o nível de equilíbrio devido ao que Schumpeter chama de

“erros, excesso de otimismo e pessimismo”. Empresas fraudulentas ou

perdedoras criadas no otimismo da expansão não conseguem agüentar o teste

imposto pela Recessão. Elas são liquidadas. Estas liquidações, por sua vez,

aumentam o risco de credito e isto causa o pânico. Os depósitos bancários

diminuem e o crédito fica ainda mais restrito. Empresas que teriam agüentado o

tranco caso não houvesse pânico começam a fechar no que Schumpeter chamou

de liquidações anormais. Para ele, estas liquidações e a redução em excesso na

quantidade de empresas marcam a terceira fase do ciclo, a Depressão. A

Depressão continua até que todos os investimentos fracassados ou em excesso

são liquidados. Uma vez que este ponto é alcançado, um movimento em direção

as redondezas do equilíbrio recomeça. Este movimento é a quarta fase do ciclo, o

Retorno.
190

É possível concluir que Schumpeter considerava o processo social como uma

forma de evolução orgânica temporal e portanto irreversível. Este processo seria

intrinsecamente dinâmico e levaria a economia para trajetórias distantes do

equilíbrio através da Destruição Criadora. O processo seria estacionário, pois

haveria espaço para o equilíbrio em certos momentos (dai a não ruptura total de

Schumpeter com Walras), mas também dinâmico, uma vez que forças estariam

movendo o processo para situações de desequilíbrio. Somente em situações de

desequilíbrio haveria desenvolvimento. Em seu modelo havia a necessidade de

equilíbrio e desequilíbrio, ambos atuando em forma de uma particular

combinação cujas variáveis seriam endógenas ao sistema e portanto gerariam,

organicamente, uma espécie de auto-organização, sem que o sistema perdesse sua

capacidade de se adaptar e evoluir através da emergência de novas tecnologias.

Sem sua visão, seu modelo geral e histórico seria a única forma de integrar a

estática do Equilíbrio Geral Walrasiano com a dinâmica das forças

desequilibradoras.

Em 1910, Schumpeter resumiu sua visão da seguinte forma46 :

“ Primeiro, o processo econômico pode ser dividido em duas diferentes

classes: estática e dinâmica (equilíbrio e ciclo, parênteses meu). Segundo,

esta última constitui a pura evolução econômica, ou seja, aquelas mudanças

na economia que emergem dela própria. Terceiro, a evolução econômica é

essencialmente um distúrbio no equilíbrio estático da economia. Quarto,

este distúrbio provoca uma reação nas massas estáticas da economia,

notadamente um movimento em direção a novos estados de equilíbrio.”


46
Schumpeter, Joseph [1997] – “The Theory of Economic Development” – Editora Nova Cultural, São Paulo. Série Os
Economistas. Título originalmente publicado em 1964 em Berlim, Alemanha por Dunker & Humblot.
191

Vale notar que estes distúrbios emergem de dentro do próprio sistema e levam

aos ciclos econômicos. Mas as condições de estacionariedade do equilíbrio, que

excluem a possibilidade de ciclos, não excluem a possibilidade de crescimento.

Para Schumpeter, crescimento podia ser definido como a evolução da

combinação entre acumulação de capital via poupança e do crescimento

populacional, ou seja, um crescimento equilibrado estável. Já a noção de

equilíbrio era definida por ele como uma espécie de alvo móvel em um sistema

que gerava internamente seu impulso para a mudança, ou seja, para a ruptura com

as condições de equilíbrio. Enquanto o desenvolvimento era responsável pela

natureza da mudança, o equilíbrio era responsável pela absorção destas mudanças

e pela propriedade estabilizadora do sistema. De fato, as flutuações, nas próprias

palavras de Schumpeter, “deveriam ser flutuações ao redor de algo”. O equilíbrio

seria a criação da ordem após a implementação das novidades. Seria a calmaria

depois da tempestade, tempestade esta representada por uma enxurrada de

inovações tecnológicas. A calmaria seria trazida pelas hordas de imitadores que

restaurariam o equilíbrio após a quebra do status quo causada pelo espirito

animal dos empreendedores que ousaram jogar uma pedra no plácido lago do

equilíbrio econômico. Obviamente, o próprio Schumpeter seria um destes

inovadores do ponto de vista da Teoria Econômica.

Por ser uma inovador, Schumpeter estava a frente de seu tempo. Quando

publicou seu último livro, o mundo se via as voltas com políticas econômicas de

cunho keynesiano e o nome do jogo era estabilização via políticas fiscais. O

sucesso de Keynes foi tão devastador que a teoria econômica de Schumpeter foi

pouco notada em sua época. Durante os anos de 1920 e 1939, Keynes recebeu
192

200 citações em artigos publicados por outros cientistas, estando em primeiro

lugar. Já Schumpeter, no mesmo período recebeu somente 22, ficando em 18o na

classificação.
193

Dinâmica Linear versus Não-Linear em Economia

A tentativa de se modelar os ciclos econômicos não é novidade em economia.

Após a Grande Depressão da década de 30, vários economistas tentaram

formalizar quantitativamente os ciclos econômicos, como vimos por exemplo no

modelo desenvolvido por Samuelson, a pedido de seu professor Hansen. Estes

modelos, contudo, ainda eram lineares em sua essência e portanto incapazes de

explicar a persistência de oscilações.

Apesar de não ter tido tanto sucesso como Keynes, Schumpeter foi um dos

primeiros economistas a levantar a possibilidade de que os ciclos econômicos

poderiam ser causados por fatores endógenos. Richard Goodwin (1913-), aluno e

amigo de Schumpeter e mais tarde professor de economia em Harvard e

Cambridge, Nicholas Kaldor e John Hicks, tentaram, durante a década de 50,

modelar a dinâmica econômica fazendo uso de métodos não-lineares. O que estes

economistas fizeram, na realidade, foi uma releitura dos modelos Clássicos de

economia sobre a ótica da dinâmica não linear, na tentativa de demonstrar que os

ciclos poderiam ser gerados não somente por choques aleatórios, tais como uma

nova tecnologia, uma mudança do habito dos consumidores ou uma nova Política

governamental, mas também por fatores inerentes ao próprio sistema em questão.

Fatores estes que estão relacionados com a instabilidade dinâmica intrínseca

(endógena) das flutuações econômicas.


194

Os modelos de Kaldor (1940) 47, Hicks (1950)48 e Goodwin (1951)49, de acordo

com o próprio Goodwin em seu livro Chaotic Economic Dynamics (1990),

“poderiam resultar em ciclos estáveis e persistentes, contudo, (a eles) faltavam as

irregularidades” dos ciclos presentes na realidade econômica. Vale lembrar que

no momento da publicação de seus trabalhos, Lorenz ainda não havia descoberto

os atratores estranhos, conceito que foi o ponto de partida para um grande

número de novas analises sobre ciclos irregulares em sistemas dinâmicos

caóticos, inclusive em economia. O trabalho de Lorenz teve resultados de

extrema importância para economia pois introduziu a possibilidade de que

sistemas dinâmicos pudessem apresentar comportamento irregular, dependendo

dos valores dos parâmetros.

As descobertas feitas pelos estudos provenientes da Teoria do Caos tiveram um

impacto em economia somente a partir da década de 80, com o renascimento do

interesse em dinâmica não-linear. Até então, foram os modelos de cunho Novo-

Clássico com base em Expectativas Racionais e motivados pela visão de Slutsky-

Frisch-Timbergen (da primeira metade do século) que dominaram o cenário.

Nesta visão, equações lineares com um componente estocástico representado por

choques exógenos podem apresentar processos cíclicos que se assemelham aos

ciclos econômicos.

Para o economista José Alexandre Scheinkman, um dos pioneiros da aplicação de

Teoria do Caos em Economia, em seu artigo NonLinearities in Economic

Dynamics publicado em 1990 no The Economic Journal, existem três motivos

47
Kaldor, N. (1940) – A model of the Trade Cycle. Economic Journal, vol. 50, pp. 78-92.
48
Hicks, J. (1950) – A contribution to the teory of trade cycle. Oxford : Clarendon Press.
49
Goodwin, R.M. (1951) – The nonlinear accelerator and the persistance of business cycles. Econometrica, vol.19, pp. 1-17.
195

que explicam a predominância dos modelos lineares estocásticos nas décadas de

60 e 70. Primeiro, a falta de fundamento microeconômico dos modelos de ciclo

endógenos no que concerne as hipóteses comportamentais dos agentes quanto ao

pressuposto da otimização. Neste caso, a presença de ciclos somente poderia ser

explicada caso choques exógenos fossem aplicados no sistema. A segunda razão

diz respeito ao sucesso empírico apresentado pelos modelos lineares estocásticos

vis-à-vis as séries temporais dos agregados macroeconômicos. Portanto, como

estes modelos não apresentavam resultados controversos, não havia necessidade

da introdução de não-linearidades. Neste caso, a explicação para ciclos calcada

em choques exógenos era extremamente conveniente, tanto do ponto de vista

analítico, como empírico. A terceira razão é o fato de que modelos de equilíbrio

lineares são mais fáceis de calcular a solução do que os modelos não-lineares.

Com o aumento do interesse pela Ciência das não-lineariedades, em geral

causado pela difusão dos microcomputadores e pela insatisfação filosófica de se

explicar os ciclos através do uso de choques aleatórios, a ortodoxia econômica

tentou incorporar os conceitos da Teoria do Caos em seu arcabouço como uma

tentativa de endogeneizar as flutuações. No prefácio do livro “Ciclos e Caos em

Equilíbrio Econômico” editado por Jess Benhabib, esta idéia fica bem clara :

“ Um tema recorrente na literatura econômica é a natureza auto-corretiva

do sistema econômico. Escassez cria o incentivo para aumentar a produção;

necessidades levam ao surgimento de invenções, guiadas pela alocação de

recursos pela mão invisível. Um outro tema também recorrente,

especialmente na literatura sobre ciclos econômicos, é o da instabilidade : o

multiplicador interage com o acelerador, levando a explosões ou implosões


196

do gasto em investimentos; expectativas auto-realizáveis dão vazão a

bolhas ou crashes. Em combinação, estes dois temas sugerem um sistema

não-linear, instável em seu núcleo, mas contido em seus arredores (pelas

não-linearidades). Em um primeiro momento, estes dois temas não

parecem ser compatíveis – dinâmica cíclica e caótica não parece combinar

com a idéia de equilíbrio econômico. […] Mas nos últimos anos, estudos

tem mostrado que esta lógica intuitiva pode ser questionada.

Aparentemente, ciclos e caos podem ser perfeitamente compatíveis com

uma grande variedade de modelos de equilíbrio que incorporem as

hipóteses de estacionariedade das preferencias e da tecnologia.”

No artigo acima citado, Scheinkman menciona exemplos de modelos de

equilíbrio que exibem uma dinâmica complexa e atenta para o fato de que nestes

modelos, os agentes possuem capacidade ilimitada de cálculo e plena informação.

Contudo, os problemas começam aqui :

[…] “É extremamente improvável que as flutuações macroeconômicas

possam ser explicadas por um modelo puramente determinístico, com um

número razoável de variáveis. Existem inclusive razões teóricas para

suportar esta visão. A mesma propriedade que faz os sistemas caóticos

parecerem aleatórios – a sensibilidade as condições iniciais – torna difícil a

previsão dos valores futuros das variáveis que os agentes consideram

exógenas. […] Apesar disto, as não-lineariedades podem ser responsáveis

por boa parte das flutuações.

E Scheinkman conclui :
197

[…] A dificuldade em se prever os valores futuros de uma variável gerada

por um sistema caótico parece fazer necessário o enfraquecimento das

hipóteses de capacidade ilimitada de cálculo e plena informação.”

Neste contexto surge o interesse pelo estudo da aplicação das idéias motivadas

pela teoria do Caos em um ambiente econômico fora do equilíbrio. Começam a

surgir textos que buscam entender a economia em seu desequilíbrio. O

questionamento de que a economia tende ao equilíbrio começa a ser feito e

descobre-se que, em certas circunstâncias, podem haver até mesmo mais de um

equilíbrio. A busca pelo entendimento das fontes de não-linearidade se torna um

tema de relevância no meio acadêmico. Em 1990, mais de 4000 artigos sobre o

tema “Caos e Fractais” nas ciências naturais e sociais foram publicados no

mundo.

Descobre-se que as séries temporais que tem maior volatilidade são aquelas onde

as expectativas tem maior impacto, com por exemplo nos investimentos, estoques

e mercado financeiro. Mercados imperfeitos, com lags e baixa substitutibilidade

entre bens podem gerar flutuações causadas por mudanças nas expectativas dos

agentes. Vários economistas perceberam que seria relativamente fácil, para certos

valores dos parâmetros, demonstrar a presença de caos em modelos econômicos

com lags de investimento e consumo, em modelos de crescimento, em modelos

onde se considera mais de uma geração (overlapping generations models), ou em

modelos de difusão tecnológica ou urbana. Contudo, nem sempre os parâmetros

utilizados para gerar caos nos modelos analíticos eram factíveis na realidade.

Muitos economistas partiram então para tentativa de simular em computadores

situações do mundo real que poderiam apresentar comportamento caótico, como


198

veremos em detalhe mais a frente. Uma crítica comumente associada a estes

economistas é que simulações são uma boa forma de tentar se compreender a

realidade mas não são substitutos para um modelo analítico. De qualquer modo, a

questão que todos estavam buscando era: será que o caos pode ser uma boa

explicação para as flutuações econômicas que presenciamos em uma economia

real?

O próximo passo seria então analisar estatisticamente as series econômicas e

financeiras em busca de uma verificação empírica para a presença de caos

determinístico.

Aonde esta o Caos ?

Os métodos matemáticos normalmente utilizados para a evidenciação de

processos caóticos partem dos princípios de medir o grau de dependência às

condições iniciais ou de tentar verificar uma dimensão fractal no espaço de fase.

Contudo, nenhum dos testes é auto-suficiente, de modo a evidenciar sozinho um

padrão de comportamento caótico. Torna-se então necessário a aplicação de

diversos testes para a mesma série de dados para que se verifique

consistentemente a existência de comportamento caótico50.

Evidentemente os testes possuem algumas limitações que devem ser

cuidadosamente observadas, de modo a não se ter conclusões deturpadas. Em

primeiro lugar, a não-estacionariedade dos dados prejudica a adoção de alguns

deles, uma vez que torna suas estimações imprecisas. Como a maioria das séries

50
Para um explicação mais detalhada dos testes utilizados para a verificação empírica da presença de Caos Determinístico em
séries históricas olhar o apêndice matemático.
199

agregadas são não-estacionárias, isto limita muito o universo de pesquisa de

processos caóticos na economia, onde pode se destacar o maior grau de

confiabilidade das séries financeiras. Outro ponto a se precaver refere-se ao uso

de pequenas amostras. De modo a não se ter estimações viesadas, cria-se uma

necessidade de amostras bem grandes, que nem sempre são disponíveis e/ou

confiáveis.

O primeiro estudo de Mandelbrot (1963) não chegou a tentar comprovar a

presença de um padrão caótico, se limitando apenas em criticar os modelos

estocásticos. Geralmente, instituições de mercado tendem a amortecer dinâmicas

complexas, criando uma tendência de se examinar casos onde as instituições de

mercado são insuficientes para amortecer os efeitos de uma dinâmica complexa.

Como os produtos agrícolas ainda sofrem grandes influências das condições

climáticas, que são caóticas por natureza, segundo os estudos d hidrólogo Hurst51

(1951), Lorenz (1963) e Mandelbrot & Wallis (1969), o mercado no qual estes

estão inseridos se mostra ideal para se tentar evidenciar um processo de ordem

caótica determinística. Como os preços do algodão eram uma fonte ideal de

dados, por terem registros centralizados, completos e antigos, Mandelbrot passou

a analisá-los, a partir de uma série temporal com 1614 observações mensais do

Departamento de Agricultura do Estados Unidos, correspondentes ao período de

1814 a 1850. Plotou o histograma da variação mensal de preços e contou quantos

meses a variação seria de 0.1% (ou –0.1%), 1%, 10% e assim sucessivamente até

que chegou na figura abaixo.

51
Uma descrição do trabalho de Hurst encontra-se no apêndice matemático.
200

Lei de Potência observada por Mandelbrot na serie histórica do preço do Algodão

Ele encontrou uma distribuição Pareto Estável para a flutuação dos preços que

tem como característica uma Lei de Potência similar a que Pareto encontrou para

a distribuição de Renda e que Per Bak encontrou para a freqüência de avalanches

no modelo de montinho de areia. Esta propriedade é chamada de Universalidade

das Leis de Potência. A descoberta de Mandelbrot foi ignorada pelos economistas

provavelmente pela falta de entendimento destes da importância de suas

implicações.

A inclinação da reta do gráfico acima foi chamada por Mandelbrot de Alpha. O

que ele foi em seguida foi calcular o Alpha para séries diária e semanal de preços

do algodão e encontrou aproximadamente o mesmo valor para o Alpha. Esta

observação o levou a formular a hipótese de que auto- similaridade em diferentes

escalas é um fenômeno recorrente na natureza. Para ele, este era o fato mais

regular que jamais se havia visto em economia e que se olharmos os para os

retornos, estes se mostravam irregulares e imprevisíveis. A hipótese de auto-

similaridade afirma que não importa para quais mercados olharmos, ou para qual

escala de tempo olharmos, o valor do Alpha sempre é aproximadamente igual.

Ele acreditava que deveria haver alguma explicação para isso e que qualquer um
201

que quisesse estimar a distribuição de eventos econômicos deveria levar em

consideração a propriedade de auto-similaridade nas escalas. Matematicamente,

isto significa que se duas variáveis aleatórias seguem a mesma distribuição de

probabilidade, seu somatório deve seguir a mesma distribuição de probabilidade.

A classe mais geral de distribuições que satisfaz esta propriedade é a Pareto

Estável52.

Com base nas observações de Madelbrot e em sua teoria dos montinhos de areia

(criticalidade por auto-organização), Per Bak, em colaboração com José

Scheinkman e Michael Woodford, um outro economista da Universidade de

Chicago, resolveram construir uma rede econômica simplificada de

consumidores e produtores, conforme ilustrado na figura abaixo.

Bens Finais

Produtores de Bens
Intermediários

Matérias Primas

O modelo é uma rede de produtores. Cada produtor compra bens de outros dois

fornecedores, produz o seu próprio bem e depois os vende para outros dois

consumidores. Os produtores podem começar o processo com uma quantidade

aleatória de seus bens em estoque ou com o estoque vazio. No começo de cada

período, uma semana por exemplo, os produtores recebem ordens de seus

consumidores que podem ser de uma ou zero unidades. Se eles possuem uma

quantidade de bens em estoque suficiente, eles as transferem para os


52
Na verdade o que Mandelbrot estava estimando era o expoente Alpha da distribuição Pareto Estável.
202

consumidores, se não, eles mandam ordens para seus dois fornecedores, recebem

uma unidade de cada um deles e produzem duas unidades de seu próprio bem que

serão entregues aos consumidores. Se eles possuírem uma unidade em excesso

após este período de negócios, o excesso é estocado para o próximo período.

Cada produtor tem dupla função, a de vender para seus consumidores e a de

comprar dos seus fornecedores. Este processo começa na linha de cima da figura

acima que representa os consumidores e termina na linha de baixo que representa

os produtores de matérias primas.

Em um primeiro momento, eles consideraram uma situação onde em cada

semana um único choque iniciava a economia, com um único consumidor

demandando bens. Este choque inicial tinha o efeito de uma avalanche na rede.

A figura abaixo mostra um estado típico da rede após um semana de negócios.

Um círculo vazio significa que o produtor não possui nada em estoque. O preto

indica que o produtor possui uma unidade em estoque para a próxima semana. O

primeiro fornecedor não possui nada em estoque quando recebeu seu pedido. Ele

recebeu duas unidades de seus fornecedores, produziu o bem, o entregou para o

seu consumidor e estocou o excesso. O seus fornecedores, por sua vez, também

não tinham os produtos em estoque e tiveram que mandar suas ordens mais

abaixo da rede. Após um certo numero de eventos, a avalanche para. A figura

mostra a amplitude da avalanche e a quantidade que os produtores tem em

estoque ao final de semana. É interessante notar que pequenos choques podem

levar a grandes avalanches. A contribuição do evento para o PIB do pais é

proporcional a área da avalanche, ou seja, o total de bens produzidos.


203

O modelo foi resolvido matematicamente graças a um outro modelo resolvido

por Deepak Dhar e Ramakrishna Ramaswamy, do Instituto Tata de Bambai na

Índia, no contexto dos montinhos de areia. Eles demonstraram que em tais

modelos, as avalanches possuem uma Lei de Potência conhecida.

A rede antes, durante e depois


(olhando de cima para baixo) da
avalanche iniciada por um único
pedido na posição indicada pela seta.
A seta indica o fluxo das ordens. O
fluxo de bens vai na direção oposta.
As bolinhas pretas indicam que o
produtor possui uma unidade me
estoque. As cinza indicam os
produtores que tiveram que produzir
para entregar o pedido. A área
demarcada mostra o tamanho da
avalanche.

Per Bak e Cia. generalizavam o modelo para que se fossem considerados muitos

consumidores, ao invés de apenas um, cada qual demandando bens finais, o

resultado seriam avalanches de diferentes tamanhos. A conclusão foi que o

somatório das avalanches possui uma distribuição de probalidade Pareto Estável

e que as flutuações observadas na economia real podem ser atribuídas ao fato

desta estar operando em um estado de criticalidade por auto-organização, na


204

margem entre ordem e caos, onde pequenos choques podem levar a avalanches

de vários tamanhos. As flutuações seriam então inevitáveis. Não haveria como se

estabilizar um economia e se livrar de suas incomodas flutuações através de

política fiscal ou monetária. Eventualmente, algo inesperado irá tirar o sistema de

seu nível critico e causar uma avalanche em algum lugar. De qualquer modo, a

freqüência das avalanches teria uma Lei de Potência cujo Alpha seria similar em

diferentes escalas de tempo.

Perdendo a Inocência

Complexidade - A Visão de Santa Fé

A visão de Santa Fé é bem diferente da visão neoclássica. Ela enfatiza questões

como emergência e processos, ao invés da obsessão pelo equilíbrio. É uma visão

onde organizações e hierarquias são interdependentes, onde não existe a noção de


205

“preço justo” ou de otimalidade. Onde a racionalidade é indutiva e não dedutiva e

a economia esta continuamente se adaptando e renovando.

Existem varias definições para o que é o estudo da Complexidade mas nenhuma é

absoluta. Uma característica comum em todas elas é que todas consideram

sistemas com múltiplos agentes se adaptando e reagindo aos padrões que os

próprios agentes estão co-criando. Os agentes podem ser formigas em um

formigueiro, especuladores no mercado de ações, empresários em um

determinado setor da economia ou países em uma sociedade global. A questão do

tempo aparece naturalmente na medida em que os agentes antecipam, reagem e

criam uma nova realidade. Com uma nova realidade os agentes reagem

novamente, influenciando a realidade novamente ad infinitum. O estudo da

Complexidade em economia é o estudo dos padrões de comportamento que

emergem durante este processo de adaptação continua dos agentes a novas

realidades do mercado. Diferentemente do estudo da Física ou Imunologia, os

agentes neste caso são humanos e estes reagem com estratégia e antecipação, na

tentativa de prever como os outros agentes reagirão em certas circunstancias. Este

fato por si só adiciona um nível a mais de complicação ao estudo da Economia.

Os padrões que emergem durante o processo são muito complicados para

apresentar um solução analítica, como um Ótimo de Pareto, ou uma fórmula

fechada. Somente através de simulações em computadores é que os economistas

poderiam observar a formação destes padrões. Dai a explosão da abordagem

caótica/complexa na década de 80. Um exemplo normalmente utilizado para

ilustrar este ponto é o da Ferrari de 12 centavos. Caso o mesmo nível de

desenvolvimento que ocorreu no setor de informática tivesse ocorrido no setor


206

automobilístico, os carros seriam de graça e uma Ferrari custaria apenas 12

centavos. Isto mudaria o padrão de transporte na sociedade. Por analogia, o

desenvolvimento da tecnologia computacional aumentou a habilidade dos

economistas de chegar a soluções numéricas para complicadas equações não-

lineares em processos iterativos e observar como os padrões se alteram em

diferentes simulações. O computador se transformou no laboratório do

economista e está mudando a forma de se fazer pesquisa em economia. Foi uma

espécie de libertação. Realizou-se que a Economia estava se limitando a estudar

problemas que se prestavam a uma solução matematicamente analisável, ou seja,

com teoremas, axiomas e provas rigorosas. Ao evoluir e começar a abordar

problemas de natureza indutiva e não somente dedutiva, o mundo econômico se

tornou bem mais complexo e seu estudo somente poderia ser realizado através de

experimentos em computadores. Foi um desenvolvimento necessário, uma nova

atitude que há tempos estava para acontecer e cujo objetivo era capturar aspectos

realísticos das regras mais importantes que governavam os SCA (Sistema

Complexo Adaptativo).

Como explica W. Brian Arthur, professor de Economia do Instituto de Santa Fé,

no Novo México, a Meca do estudo de sistemas complexos53 :

“Como a maior parte das outras Ciências antes do surgimento dos computadores, a

Teoria Econômica convencional escolheu não estudar a emergência dos padrões criados

pelos agentes e sim a buscar soluções analíticas. Para fazer isto, foi necessário

simplificar as questões. […] A Teoria Econômica convencional estuda os padrões

comportamentais equilibratórios, padrões estes que não induziriam a novas reações. Nos

53
Brian Arthur, hoje em dia é professor no Instituto de Santa Fé, no Novo México. Antes disso foi professor

em Stanford. Arthur possui um PhD por Berkley, na California e mestrados em Economia, Matemática e

Engenharia. Atua como consultor para empresas como Citicorp, McKinsey e Coopers & Lybrand.
207

últimos anos economistas do Instituto de Santa Fé, Stanford, Chicago, Wisconsin, MIT e

outras instituições, estão tentando aumentar o escopo da abordagem de equilíbrio para

englobar questões de como ações, estratégias ou expectativas influem na evolução

dinâmica da economia. Neste caso, a abordagem de Santa Fé ou complexa, não é um

apêndice da teoria convencional e sim uma teoria mais geral, onde o equilíbrio é um caso

particular”.

Do ponto de vista complexo, a maior falha da abordagem do equilíbrio é não

descrever um mecanismo onde o estado da economia possa variar no tempo.

Além disso, esta abordagem também não considera a emergência de novas

entidades, novos padrões, novas variáveis e estruturas. As ferramentas

matemáticas utilizadas pelos economistas neoclássicos, que exploram a

linearidade, os pontos fixos ou sistemas de equações diferenciais não serve para

explicar Sistemas Complexos Adaptativos. Para isto, se faz necessário uma nova

classe de matemática combinatória e estocástica em conjunto com simulações em

computadores. Estas técnicas vem sendo desenvolvidas nos últimos 15 anos e

enfatizam a descoberta da estrutura e dos processos pelo qual esta estrutura

emerge em diferentes níveis de organização.

Mas o que é o Instituto de Santa Fé ?

O Instituto de Santa Fé é uma organização pequena e privada iniciada pelo físico

Murray Gell-Man e outros com o objetivo de estudar aspectos de Sistemas

Complexos desde Física até Economia, passando por Biologia e Antropologia ;

qualquer coisa que tenha muitos agentes interagindo fortemente. Em 1984

quando foi fundado, o Instituto não possuía um corpo docente ou alunos, mas

estava interessado em construir uma rede de pesquisadores o mais ampla


208

possível. O Instituto foi pioneiro no que mais tarde se tornou o padrão em estudos

sobre economia apesar do fato de que o que lá é feito ser considerado por muitos

como controverso. Para os que lá estão, o fato de ser controverso é o que os atrai.

O dia em que os estudos feitos pelo Instituto deixarem de ser controversos, sua

própria existência não faz mais sentido. O Instituto é um lugar pequeno, muito

informal (onde os professores e alunos muitas vezes andam descalços) e no meio

das montanhas. Uma espécie de retiro onde pessoas que possuem a mesma visão

de mundo, qual seja, : Complexidade é o que acontece quando Darwin encontra o

computador, dividem o espaço e as idéias de forma cooperativa, onde a confiança

tem um peso importantíssimo para o sucesso de suas jornadas. Um dos

patrocinadores desta empreitada foi John Reed, então o novo CEO do Citicorp

que na crise de 1987 havia perdido U$ 1 Bilhão em lucros e ainda possuía U$ 13

Bilhões em empréstimos que poderiam não ser pagos. A motivação de Reed, um

dos mais jovens CEOs dos Estados Unidos (47 anos) era incentivar a nova

abordagem econômica na tentativa de prever e evitar crises. Seu objetivo era

utilizar os estudos do Instituto para desvendar a fórmula matemática que

explicasse o fluxo de capitais no mercado financeiro internacional. O que de fato

ocorreu foi uma contribuição por parte dos professores do Instituto na forma

como o Citigroup analisa o mercado. Mas a fórmula mágica ainda esta para ser

descoberta…

Então, em Setembro de 1987, 20 pessoas se reuniram no Instituto de Santa Fé

para discutir “A Economia como Sistema Complexo Adaptativo”. Dez eram

economistas teóricos, convidados por ninguém menos do que Kenneth Arrow um

dos economistas mais importantes do século 20 e que em 1972 dividiu o prêmio


209

Nobel de economia com Sir John Hicks. Além de sua contribuição com Debreu

para a prova matemática da existência de Equilíbrio Geral, Arrow também

provou que o processo de escolha social, ou de decisão social não é

necessariamente racional por poder transgredir o principio da Transitividade54.

Arrow percebeu que antes dele, economistas como Adam Smith, Schumpeter,

Hicks, Marshall, Friedrich Hayek e outros, haviam entendido as implicações de

fenômenos complexos para a economia mas não possuíam o instrumental

necessário para estudá-los formalmente. Hayek, de tradição austríaca e aluno de

Menger possuía sério conhecimento e interesse em teoria de sistemas e

cibernética, campos de estudo relacionados com complexidade. Em 1952

publicou um livro onde descreveu o sistema nervoso central como um SCA.

Apesar de não utilizar o termo SCA, Hayek usou a palavra complexidade varias

vezes e mais tarde publicou um artigo intitulado “A Teoria dos Fenômenos

Complexos”. Parecendo um produto do Instituto de Santa Fe (porém muito a

frente de seu tempo) Hayek via a emergência de novos padrões como resultado

da interação entre elementos de um sistema onde simples relações existam. O

conceito de ‘ordem espontânea’ aparece em seu trabalho em economia para

explicar a ordem nas sociedades como fruto das ações humanas e não de seu

planejamento. Um exemplo disso seria a emergência do dinheiro nas sociedades.

54
Considere por exemplo que a escolha deva ser feita por uma família. A família de três filhos deve escolher um entre três filmes
para assistir : Angélica, Barney e Cinderella. Cada criança quer escolher o filme que lhe maximize a satisfação. Se todas as
criança concordarem que filme assistir, não ha problema. Contudo, muitas vezes isto não acontece pois as crianças tem
preferencias divergentes. Em particular, suponha que a criança #1 prefira Angélica a Barney e Barney a Cinderella; a criança #2
prefira Barney a Cinderella e Ciderella a Angélica; e a criança #3 prefira Cinderella a Angélica e Angélica a Barney. Tomadas
individualmente, as criança tem preferencias consistentes e transitivas. O problema começa quando elas se juntam para decidir
qual filme alugar. Em conjunto, as crianças preferem Angélica a Barney, uma vez que as crianças #1 e #3 preferem Angélica a
Barney. Elas também preferem Barney a Cinderella, pois a criança #1 e #2 preferem Barney a Cinderella. Contudo, as crianças
#2 e #3 preferem Cinderella a Angélica, violando assim o Principio da Transitividade. A conclusão de Arrow foi que seria
impossível derivar uma escolha social com base em preferencias individuais.
210

O dinheiro não foi planejado por nenhum arquiteto social, ele simplesmente

emergiu como forma de organizar as relações de troca.

Dentre os economistas convidados, dois eram brasileiros: José Alexandre

Scheinkman e Mário Henrique Simonsen. Os outros dez eram Físicos, Biólogos e

Cientistas da Computação, convidados por Philip Anderson, que também ganhou

um Prêmio Nobel em Física por seu trabalho em Matéria Condensada. Dentre

estes, Stuart Kauffman, Murray Gell-Man e Doyne Farmer. O encontro foi

motivado pela esperança de que as novas idéias geradas no mundo das ciências

naturais pudessem estimular novas formas de se olhar os problemas econômicos.

Durante dez dias, os economistas e os cientistas naturais se revezavam em

palestras e grupos de trabalho, falando sobre seus diferentes mundos e

metodologias. Enquanto os Físicos estudavam os modelos de Equilíbrio Geral, os

economistas tentavam entender Redes Booleanas e Algoritmos Genéticos.

A primeira apresentação foi de Brian Arthur que dificilmente ficava nervoso em

situações como esta. Mas para ele, aquele dia era especial. Arthur sabia que se

pudesse convencer aquele grupo de que suas idéias sobre Retornos Crescentes,

Trajetórias Dependentes e Equações Não-Lineares eram uma boa forma de se

modelar fenômenos econômicos do ponto de vista complexo, sua carreira iria

mudar. As apresentações se deram na capela de um ex-convento em Santa Fé,

que se transformou em sala de conferencias e servia para transformar o clima

daquele encontro em algo ainda mais especial. No local onde era o altar agora

encontrava-se o quadro negro. De um lado sentaram-se os economistas, de outro

os cientistas naturais. Arthur começou falando que seu objetivo era abordar
211

fenômenos não-lineares em economia. Imediatamente, Arrow o interrompeu e

perguntou : “Como você define não-linearidade ?”

“Eu defino como aqueles fatores que levam um setor da economia para longe do

equilíbrio. São aqueles fenômenos que um engenheiro chamaria de Feed-Back

Positivo”, respondeu Arthur satisfatoriamente. Após duas horas de apresentação,

Arthur sentou-se aliviado. Ao longo das duas horas ele teve que provar

matematicamente diversos teoremas para dar teor cientifico ao que estava

propondo. De certa forma, isto legitimava suas teorias cujos conceitos já vinham

sendo utilizados nas ciências naturais anteriormente e portanto, para os físicos

fazia total sentido.

Dois ou três dias depois, quanto mais os físicos vinham se inteirando dos

conceitos da Teoria Econômica neoclássica, mais cépticos eles ficavam. Para

eles, era inadmissível a quantidade de hipóteses restritivas que o modelo fazia

para poder chegar a resultados matematicamente fechados. Na prática, o modelo

ficava tão longe da realidade que seria inutilizável. Um outro ponto seria a falta

de atenção aos dados históricos e a influencia de fenômenos não-economicos na

variação dos preços, como por exemplo psicologia de massas ou eventos

políticos. Para os economistas, estas forças não-economicas ou não eram

importantes ou já estavam descontadas automaticamente nos preços.

A questão das Expectativas Racionais foi um tópico a parte. Arthur explicou que

uma grande diferença entre Física e Economia é que os agentes econômicos

(consumidores, firmas, bancos e Governos) são inteligentes, enquanto os agentes

em Física (partículas) são burros. As partículas físicas não tem passado,


212

experiência, sentimentos, esperanças ou objetivos. Elas simplesmente são. Em

economia, os agentes antecipam, tentam imaginar como os outros agentes irão

reagir caso certos cenários ocorram. Os agentes tem expectativas e estratégias.

Para os Físicos, este negócio de Economia já não era mais tão trivial assim.

De qualquer modo, os Físicos não conseguiam engolir a solução de perfeita

racionalidade dos agentes para o problema das expectativas. Para eles, mesmo

que os agentes fossem perfeitamente racionais, ainda havia o problema da

sensibilidade as condições iniciais que fazia com que as previsões, depois de um

certo tempo não façam mais nenhum sentido.

Os economistas, acuados em um canto, falavam que se eles não fizessem uso de

certas hipóteses, então eles não poderiam fazer nada. Anderson, com um leve

sorriso no rosto, afirmou : “De que adianta vocês resolverem todos estes

problemas se eles não tem conexão nenhuma com a realidade”.

O clima estava ficando tenso mas propício para que Arthur mostrasse sua

abordagem.

W. Brian Arthur
213

A principal contribuição de Arthur foi a formalização precisa da noção de

Retornos Crescentes aplicada a economia. Como vimos, a teoria econômica

neoclássica é fundamentada na noção de Retornos Decrescentes, ou seja, a idéia

de que a segunda barra de chocolate não é tão gostosa quanto a primeira ou que

duas vezes mais fertilizantes não produz duas vezes mais colheita ou que quanto

mais você faça de uma coisa, menos útil, lucrativa ou prazerosa esta coisa será.

As ações econômicas são afetadas por feed-back negativo que leva a um

equilíbrio de preços e market-share. Este equilíbrio é considerado a forma mais

eficiente de alocação de recursos.

Na visão de Arthur :

“Esta confortável situação normalmente violenta a realidade. Em muitas partes da

economia, as forças estabilizadoras parecem não operar. O que se tem são feed-backs

positivos que magnificam o efeito de pequenas variações econômicas; os modelos

econômicos que melhor descrevem tais efeitos são bastante diferentes dos modelos

neoclássicos tradicionais. Retornos Decrescentes implicam em um único ponto de

equilíbrio para a economia, mas feed-back positivos – Retornos Crescentes –

possibilitam uma grande quantidade de pontos de equilíbrio. Não há garantia de que o

ponto de equilíbrio escolhido entre os vários possíveis seja o melhor. Uma vez que

eventos econômicos selecionam uma determinada trajetória de forma aleatória, esta

escolha pode “aprisionar” o mercado, mesmo que esta não seja a melhor dentre as

alternativas. Se um produto, ou nação em um mercado competitivo toma a dianteira por

acaso, a tendência é que fique na frente e até aumente a vantagem”.

Na verdade o conceito de Retornos Crescentes não é novo em economia, como

afirma Kenneth Arrow no prefácio do livro “Retornos Crescentes e Trajetórias

Dependentes em Economia” de Brian Arthur. Adam Smith, nos capítulos iniciais


214

da Riqueza das Nações, usa o argumento de Retornos Crescentes para explicar

Crescimento Econômico e especialização. A complexidade do sistema aumentava

com sua evolução. A divisão do trabalho também levava a retornos crescentes na

medida em que aumentava a destreza dos trabalhadores por um lado e por outro a

invenção de novas tecnologias. Smith não foi a fundo no estudo das implicações

da divisão do trabalho. Sua teoria dos mercados competitivos, para ser

demonstrada rigorosamente, precisava da hipótese de retornos constantes.

A.A. Cournot, um matemático e economista francês, já em 1838, observou a

incompatibilidade entre Retornos Crescentes e Competição Perfeita e

desenvolveu teorias sobre Monopólio e Oligopólio. Alfred Marshall explicou

vagamente as relações entre Retornos Crescentes e Crescimento Econômico e o

conceito de externalidades. E em seus Principios (1890) afirmou que Firmas

ganham vantagem quando seus market-shares aumentam. Portanto, a Firma que

tiver um bom começo obterá monopólio do mercado. Durante toda sua vida

Marshall perseguiu a idéia de que uma abordagem evolucionaria e dinâmica seria

preferível para o entendimento dos fenômenos econômicos ao invés de uma

abordagem mecanicista e estática. Anos após a publicação de seus Princípios, em

um artigo publicado no Economic Journal, afirmou :

“[…] Em seus aspectos vitais, as ciências da vida tem algo em comum, algo que não se

vê nas ciências físicas. E portanto, nos estágios avançados da economia, onde se lida

com questões vitais, analogias biológicas são preferíveis `as mecânicas, […]”.

A partir da quinta edição de seus Princípios, Marshall sempre citou nos prefácios

que :
215

“ … a Meca dos economistas é a economia biológica e não a economia dinâmica.”

Contudo e ironicamente, o livro sobre economia biológica ficou na promessa e

Marshall continua sendo lembrado como um dos pais da Economia neoclássica.

Nos anos 30, Edward Chamberlain e Joan Robinson, dois dos mais renomados

economistas de seu tempo, estudaram as implicações de Retornos Crescentes

para Competição Imperfeita. E nos anos 50, Nicholas Kaldor também contribuiu

para o tema de Crescimento Econômico. Hoje em dia, o conceito de Retornos

Crescentes é central para estudos sobre Comércio Internacional, Crescimento

Econômico, Economia da Tecnologia, Organização Industrial, Macroeconomia,

Economia Regional, Economia do Desenvolvimento e Política Econômica.

Apesar de estar presente nas discussões das questões econômicas a longa data, o

conceito de Retornos Crescentes sempre foi visto como uma anomalia. A

dificuldade de expressão matemática e seus resultados desconcertantes do ponto

de vista neoclássico contribuíram para esta situação até a década de 70, quando a

aceitação de que as economias tendiam para um equilíbrio único atingiram seu

ápice. Mas, por incrível que pareça, a aceitação de que a economia podia possuir

mais de um ponto de equilíbrio sobre certas hipóteses veio de dentro do próprio

corpo teórico neoclássico quando economistas do ramo da Teoria dos Jogos e do

Equilíbrio Geral notaram que equilíbrios múltiplos não eram uma situação tão

rara assim. Para Arthur, o maior obstáculo para a aceitação de suas teorias sobre

Retornos Crescentes seria o “problema da seleção”, ou seja, como um ponto de

equilíbrio vem a ser aceito quando se tem a possibilidade de escolha entre vários

outros pontos.
216

Engenheiro por formação, Arthur começou a se interessar por esta questão

quando fazia doutorado em Economia em Berkeley e se fascinou pelo tema de

Desenvolvimento Econômico. Em uma de suas ferias no Havaí ele leu “O oitavo

dia da Criação, de Horace Freeland, um livro de 700 paginas sobre a história da

descoberta da estrutura do DNA. Ainda no Havaí, leu também “Chance e

Necessidade”, de Jacques Monod, sobre a relação entre determinismo e acidente

histórico em suas descobertas sobre sistemas auto-catalizadores. Posteriormente,

Arthur leu “Ordem via Flutuações : Auto-organização e Sistemas Sociais” de Ilya

Prigogine. Foi ai que Arthur teve seu grande “insight”. O Principio da Auto-

Organização, a espontânea dinâmica dos sistemas vivos também se aplicava

aos sistemas econômicos.

“… Ventos moderadamente suaves dão origem a furacões. Sementes e embriões crescem

e se desenvolvem em criaturas vivas. Feed-Back positivo parecia ser condição sine qua

non para mudança, surpresa e para a própria vida.”

Este arcabouço, que claramente representava uma visão diferente de Ciência,

uma visão onde processos não-lineares se auto-reinforcavam, poderia claramente

ajudá-lo a explicar os Retornos Crescentes de forma rigorosa. Assim, Arthur

começou a compreender que os problemas que a ele interessavam tinham algo em

comum. A economia era um sistema que se auto-organizava. A auto-organização

vinha da capacidade de auto-reinforçar pequenos eventos. Ele descobriu que :

“ (os problemas) … envolviam competição entre objetos cujo sucesso no mercado era

cumulativo e auto-reinforçado. Eu descobri que em qualquer lugar onde estes problemas

se apresentavam, eles costumavam ter propriedades similares. Tipicamente a solução

apresentava mais de um equilíbrio de longo-prazo. A solução escolhida não era


217

previsível de antemão; poderia “aprisionar” o mercado; não era necessariamente a mais

eficiente e sua seleção era sujeita a eventos históricos. Se o problema fosse simétrico em

sua formulação, o resultado seria tipicamente assimétrico.”

Não havia um equilíbrio, mas a possibilidade de muitos. O segredo seria

descobrir qual deles seria o selecionado. Para complicar, o selecionado poderia

não ser o melhor. O interessante é que tais características eram comuns em

problemas de Física da matéria condensada. O que Arthur estava chamando de

equilíbrio múltiplo, imprevisibilidade, aprisionamento do mercado, ineficiência,

dependência histórica e assimetria, os físicos atribuíam outros nomes próprios de

seu jargão. Sua teoria tinha fortes paralelos com as modernas teorias não-lineares

de Física de partículas e com Biologia. Para ele, Feed-Back positivo era

exatamente o que estava faltando a Ciência Econômica. Em certas situações, esta

seria a melhor forma de se explicar certos fenômenos econômicos, especialmente

aqueles ligados a Economia da Informação e Tecnologia. Os Retornos Marginas

Decrescentes que levavam a Economia ao equilíbrio e afirmava que pequenas

perturbações eram assimiladas com o tempo não podia explicar fenômenos

complexos. Retornos Marginais Decrescentes eram bons para explicar situações

econômicas do tempo de David Ricardo, quando a agricultura e mineração eram

as principais atividades da época.

No final do século 20, quando a economia é uma grande rede globalizada e

conectada por uma gigantesca rede de computadores, os Retornos Crescentes

prevalecem. Produtos como computadores, farmacêuticos, aeronaves,

automóveis, equipamentos de telecomunicação, software ou fibra ótica são

complicados de desenhar e produzir. Eles requerem altos investimentos em


218

Pesquisa e Desenvolvimento mas uma vez que as vendas começam, a produção

de unidades adicionais é muito mais barata. O custo para desenvolver, patentear e

produzir a primeira versão do Windows 95 foi algo em torno de U$300 milhões.

O segunda copia não custou mais do que alguns centavos, por exemplo. Além

disso, a tecnologia melhora quanto mais ela é adotada.

Contudo, existe o problema do “aprisionamento do mercado” (do inglês lock-in).

Conforme o sistema evolui e escolhe um determinado caminho, este pode levar o

mercado ou a sociedade a uma situação que não necessariamente é a melhor.

Imagine o exemplo dos teclados de computador. Todos seguem o mesmo padrão

QWERTY (o nome se dá devido aos seis primeiros caracteres da linha de cima

do teclado) em qualquer lugar do mundo ocidental. Na verdade, este padrão foi

inventado por um engenheiro chamado Christopher Scholes em 1873 para reduzir

a velocidade dos datilógrafos pois se estes escrevessem muito depressa as

máquinas tendiam a travar. Obviamente, o formato QWERTY não era o mais

eficiente para se distribuir as letras no teclado. Contudo, a firma Remington

Sewing Machine Company produziu o teclado em massa e “aprisionou” o

mercado em seu padrão. Os concorrentes tiveram que se render e produzir com o

mesmo padrão apesar deste não ser o mais eficiente uma vez que as outras firmas

da época passaram a oferecer os teclados QWERTY para seus funcionários e

estes começaram a aprender a datilografar desta forma. Quanto mais gente

aprendia a datilografar desta forma, mais difícil ficava para os concorrentes

introduzirem uma nova formação para as letras no teclado. Isto é Retornos

Crescentes aprisionando o mercado e tendo efeitos perversos na prática.


219

Quanto mais gente aprende a usar o sistema operacional Microsoft Windows,

mais caro fica para empresas ensinarem outro sistema operacional para seus

funcionários. A Microsoft aprisionou o mercado com seu sistema operacional

graças aos retornos crescentes que produtos de tecnologia e telecomunicação

apresentam. Em muitos casos, estes produtos funcionam em rede e requerem

compatibilidade. Quanto mais gente usar estes produtos, maior é o incentivo para

novos consumidores também usá-los para poderem trocar informação e fazer

parte da rede. Quanto mais eles são usados, melhores são suas novas versões.

Um outro exemplo seria o da corrida pelo padrão de vídeo entre Beta e VHS em

meados da década de 70. Já em 1979, estava claro que o padrão VHS iria dar um

“corner” no mercado apesar do padrão Beta ser considerado pelos profissionais

do ramo um pouco melhor. A pesar de inicialmente a vantagem ser pequena a

favor do VHS, tantos os consumidores quanto os donos das locadoras de fitas

preferiam que só houvesse um formato. Então, como o formato VHS estava um

pouco a frente, esta vantagem tendeu a aumentar exponencialmente e a dominar o

mercado. Poderia ter sido o formato Beta, mas a chance quis que a história

favorecesse o VHS. Se a pequena vantagem fosse inicialmente a favor do Beta, a

história seria diferente. A pequena diferença foi magnificada pela presença de

Feed-Back Positivo e “aprisionou” o mercado mais uma vez.

Neste processo dinâmico, o resultado final não pode ser previsto mesmo se

tivéssemos conhecimento das preferencias dos consumidores. O resultado final

de tal tipo de processo é imprevisível, aleatório e indeterminado. Outra

característica deste tipo de processo é a ineficiência potencial do resultado final.


220

Não basta que as escolhas individuais sejam racionais para que o resultado final

seja o melhor. A escolha social pode potencialmente levar a escolha de resultado

quasi-ótimo. Uma outra propriedade relativa a dinâmica do processo é a

seguinte : quanto mais o tempo passa, mais difícil fica para que os consumidores

mudem de uma tecnologia para a outra, eles ficam “aprisionados”. Os pequenos

eventos históricos não são esquecidos com o tempo. Eles vão se acumulando e

podem ser magnificados influenciando no resultado final. A História pode decidir

o resultado. Assim, problemas econômicos que apresentam retornos crescentes

são melhores descritos como processos dinâmicos influenciados por eventos

aleatórios e Feed-Back Positivos, ou seja, como processos estocásticos não-

lineares e não estacionários. Arthur encontrou uma enorme dificuldade em

publicar seu artigo original que explicava sua teoria. Era o meio da Guerra Fria e

nem os economistas capitalistas nem os socialistas queriam ouvir falar que a

economia poderia se aprisionar em uma situação não melhor do que a ótima. A

lição que Arthur aprendeu foi que a Ciência nem sempre representa o que nós

acreditamos mas o que culturalmente queremos acreditar.

Para tentar resolver este problema de demonstrar matematicamente a presença de

Retornos Crescentes e Lock-inn, Arthur passou a colaborar com dois

Matemáticos russos especializados em Probabilidade. Três anos mais tarde,

Arthur, Yuri Ermoliev e Yuri Kanioviski publicaram um artigo no jornal

cientifico Kibernetika chamado “O problema geral da Urna e suas aplicações”.

Eles viam o problema da seguinte forma :

“Imagine uma urna na qual bolas são adicionadas uma de cada vez; elas podem ser de

várias cores : branca, azul, vermelha ou verde. A cor da próxima bola a ser adicionada na
221

urna é desconhecida mas a sua probabilidade depende da proporção de bolas da mesma

cor já dentro da urna. Se uma maior proporção de bolas de uma mesma cor dentro da

urna aumenta a probabilidade de a próxima bola ser daquela cor, o sistema pode

demonstrar Feed-Back Positivo. A questão então passa a ser, qual será a proporção de

cada cor na urna depois que muitas bolas forem adicionadas?”

A resposta foi inspirada pela solução de um problema parecido resolvido em

1930 pelo matemático George Polya onde a probabilidade de se adicionar uma

cor é igual a sua proporção dentro da urna.

Figura do artigo “Positive Feedbacks in the Economy” de Brian W. Arthur que mostra que a probabilidade de cada cor é igual a

proporção da cor na urna.

No gráfico A acima vemos o caso onde temos retornos crescentes. A seta mostra

a probabilidade da direção do movimento. Quanto mais bolas de uma cor, maior

a probabilidade de mais bolas daquela cor serem colocadas na urna. Neste caso

tem-se dois pontos de equilíbrio. Um onde quase todas as bolas são da mesma cor

e outro onde quase nenhuma bola é daquela cor. No gráfico B vemos o caso dos

retornos decrescentes. Quanto mais bolas da mesma cor forem adicionadas,

menor é a probabilidade de adicionarmos mais bolas daquela cor. Tem-se um


222

ponto de equilíbrio. No Gráfico C vemos um misto de retornos crescentes e

decrescentes. Temos inúmeros pontos de equilíbrio.

Com este instrumental, os economistas seriam capazes de estudar o processo de

escolha de uma determinada tecnologia em detrimento a outra de forma

matematicamente formal.

Se as bolas fossem substituídas por firmas e a urna por regiões geográficas, tal

instrumental poderia ser utilizado também para estudar o padrão de distribuição

regional de industrias em um determinado país. Digamos que por uma razão

qualquer uma grande firma se localizou no Sudeste do Brasil. Isto fará com que

uma segunda firma também se localize lá simplesmente para ficar perto da

primeira e com isso se beneficiar de externalidades ou fornecer insumos ou

serviços para a primeira firma. Uma terceira firma também se posicionará perto

das demais e assim sucessivamente até que um centro urbano e industrial começe

a se formar. A razão que levou a primeira firma a se localizar no Sudeste do

Brasil é desconhecida para as outras firmas. O mesmo ocorreu em Santa Clara

nos Estados Unidos onde o Silicon Valley se formou. Talvez a proximidade com

as Universidades de Stanford e Berkeley tenha levado empresas do setor eletro-

eletronico, como Hewlett Packard a lá se localizarem devido a oferta de bons

engenheiros na região nos anos 50. Se os pioneiros do setor tivessem decidido

se localizar um outra região, as 900 firmas que se sucederam provavelmente não

estariam lá e a História de Silicon Valley seria bem diferente.

A visão de Arthur para a Economia pode ser resumida em uma tabela por ele

escrita já em 1979, muito antes de seu trabalho com os matemáticos russos ou do

encontro no Instituto de Santa Fé.


223

Velha Economia Nova Economia


• Retornos Decrescentes • Grande uso de Retornos Crescentes
• Baseada na Física do Século 19 • Baseada na Biologia (estrutura, padrão,

(equilíbrio, estabilidade, determinismo) auto-organização)


• Pessoas idênticas • Indivíduos diferentes
• Elementos são Quantidades e Preços • Elementos são padrões e possibilidades
• Não se considera a dinâmica na medida • Economia esta no Limiar do Caos.

em que a economia sempre tende ao Estruturas em constante mutação

equilíbrio
• Economia é estruturalmente simples • Economia é estruturalmente complexa

Na visão de Arthur, a Economia era como um organismo: vivo, sempre se

adaptando, fluido e aberto para o mundo. Neste contexto a questão de se

perturbada a economia volta ao equilíbrio ou não deixa de ser relevante. O que

interessa é entender o processo de co-evolução dos agentes. Conforme o sistema

evolui, o que emerge é uma rede de firmas interrelacionadas. Novos nichos dão

origem a novos nichos em um processo de Feed Back positivo que culmina na

especialização das firmas de uma industria. Com a industria da computação

vieram as firmas que produzem os microprocessadores, por exemplo. Com estas,

as que produzem o silicone que é utilizado na produção dos microprocessadores.

Além disso, novas firmas que produzem as máquinas que produzem os

microprocessadores. Com estas, firmas que produzem as máquinas que produzem

as máquinas, além de Bancos de Investimento e advogados, todos interligados em

uma simbiose parasítica. A especialização aumenta a eficiência, que contribui

para o crescimento, aumentando novamente a especialização.


224

Mais eficiência ⇒ Mais crescimento⇒ Mais especialização

Nichos criando novos nichos em um processo de co-evolução causado por Feed

Back positivo que aumenta a especialização e a complexidade do sistema.

Isto significa que conforme a Economia evolui, ela tende a ficar mais complexa.

A evolução tende a colocar um prêmio na melhora da performance do organismo.

Contudo, toda melhora de performance tem um limite. A forma como os sistemas

complexos superam estes limites é através de mais profundidade as suas

estratégias via a adição de novos sub-sistemas. O resultado é a evolução de sub-

sistemas complexos. Por exemplo, o crescimento de burocracias. A adição de

novos sub-departamentos a departamentos pouco eficientes de uma firma ou

instituição tende a melhorar a sua performance.

Obviamente esta visão sofreu muitas criticas. “Se a Economia pode se auto-

organizar em vários padrões e o padrão finalmente escolhido é um acidente

histórico, perguntavam os críticos, como poderemos prever alguma coisa? E se

não podemos prever nada, como você chama isto de Ciência?” questionavam os

críticos.

Arthur não estava preocupado em fazer com que a Economia se parecesse com a

Física no sentido de ter que provar tudo matematicamente e poder reproduzir os

experimentos como em um laboratório. Para ele, o Darwinismo não deixava de

ser cientifico porque Darwin não podia prever quais as espécies que evoluirão

nos próximos milhões de anos. Ou os geólogos não eram menos científicos do

que os Físicos por não poderem prever precisamente onde os próximos


225

terremotos ocorrerão. Ou os astrônomos por não poderem prever onde a próxima

estrela nascerá. Para ele, a essência da Ciência estava na explicação dos

fenômenos e não em sua previsão.

O encontro de 1987 deixou vários legados. Entre eles a criação de um programa

de estudos visando a Economia como Sistema Dinâmico Complexo do qual

Arthur foi convidado a ser Diretor e obviamente aceitou. Neste contexto, a Teoria

do Caos Deterministico deu lugar a Teoria da Complexidade como ponto de

partida para o estudo de processos Não-Lineares em Economia devido a sua

natureza estocástica e adaptativa. Uma perspectiva coerente emergiu e ficou

conhecida como a Visão de Santa Fé. Dentre suas principais características John

Holland (o criador dos algoritmos genéticos), em seu artigo “A Economia Global

como processo Adaptativo”55 citou :

• Descentralização – O que acontece na economia é resultado da interação de

muitos agentes atuando em paralelo. As ações de um agente em particular

será resultado de sua expectativa em relação ao que os outros agentes irão

fazer. Os agentes antecipam e co-criam o mundo a sua volta.

• Ausência de um Controlador Central – Não há uma entidade global que

controla as interações ou que tenha conhecimento da estrutura global do

sistema. O controle é feito pelo processo de cooperação e competição entre os

agentes e mediado pela presença de Instituições e regras.

• Organização Hierárquica Flexível – A economia tem vários níveis de

organização e interação. Unidades em um certo nível – comportamentos,

ações, estratégias, produtos – tipicamente servem de base para a construção

de unidades a níveis superiores. A organização global é mais do que


55
Artigo publicado em “The Economy as an Evolving Complex System” - Santa Fé Institute 1987.
226

hierárquica, com interações entre os diversos níveis se misturando e criando

uma complexa rede de relacionamentos e canais de comunicação.

• Adaptação Continua – Comportamentos, ações, estratégias e produtos são

revisados continuamente na medida em que os agentes ganhem experiência –

o sistema esta em constante adaptação. O elemento surpresa e a chance

permitem que o sistema tenha muitas soluções e aproveite novas

oportunidades. Eventualmente, uma destas soluções será a escolhida mas não

necessariamente será a melhor.

• Novidade Perpetua – Nichos são continuamente criados por novos

mercados, novas tecnologias, novos comportamentos e novas instituições. O

próprio ato de se preencher um nicho já cria novos nichos. O resultado é um

sistema onde sempre aparecem novidades. Inovações são desenvolvidas, que

levam a produtos mais avançados e que por sua vez demandam mais

inovações.

• Dinâmica fora do Equilíbrio – Como novos nichos e novas possibilidades

estão sempre sendo criadas, a economia opera fora de uma situação de

equilíbrio global, ou seja, sempre há espaço para melhora. A pesar de estar

fora do Equilíbrio, o sistema possui regras que limitam seu comportamento

evitando que este se torne caótico durante o processo de adaptação e

evolução.

Além da economia, outros sistemas tanto na natureza como na sociedade

apresentam tais características, como por exemplo o sistema nervoso, o sistema

imunológico, ecossistemas ou a Internet. A Internet é um exemplo clássico de

SCA. Em 1957, durante a Guerra Fria e após o lançamento do satélite russo


227

Sputnik, o governo do Presidente americano Eisenhower, através do

Departamento de Defesa resolveu formar o ARPA, uma Agencia para Pesquisa

de Projetos Avançados que se dedicaria a manter os EUA na liderança de novas

tecnologias. Uma das iniciativas da Agencia foi a criação de uma rede que

conectaria os computadores das diversas universidades dos EUA de forma a

manter a informação o mais descentralizada possível para evitar que uma Guerra

Nuclear destruísse o arsenal de conhecimento americano. A idéia básica era

montar uma rede que lembrasse uma teia de aranha ou uma rede de pesca, onde

não houvesse uma “autoridade central”. A ARPANET, como foi chamada, foi a

precursora da Internet. Uma mensagem que precisasse ir de São Francisco para

Washington poderia chegar ao seu destino final através de vários caminhos

diferentes. Desta forma, se uma parte da rede fosse destruída, a mensagem

seguiria outra trajetória e chegaria ao seu destino final. A mensagem deveria ser

desmembrada em varias partes pois caso uma das partes fosse interceptada, a

mensagem não faria sentido. As partes se reuniriam automaticamente quando

chegassem ao seu destino final.

Hoje em dia a Internet forma uma grande estrutura descentralizada, onde os sites

são conectados uns aos outros mas não há uma administração central para a rede.

Conforme os sites foram ficando mais sofisticados, surgiu a demanda por

modems mais rápidos. Com modems mais rápidos, os sites foram ficando mais

sofisticados, demandando modems ainda mais rápidos. A inovação levando a

mais inovação em uma forma de feed-back. O feed-back leva a adaptação.

Quando o ambiente muda e a necessidade dos usuários muda, o sistema, através

do mecanismo de feed-back, cria as inovações para se adaptar ao novo ambiente.


228

Varias inovações serão produzidas, mas somente algumas sobreviverão. Estas,

por sua vez, não são necessariamente as melhores alternativas, mas quasi-otimas.

Chance tem um papel importante no resultado final da decisão de qual alternativa

será a escolhida.

Sistemas deste tipo não agem de forma passiva, eles procuram antecipar os

eventos.

No caso dos sistemas econômicos, os agentes formam expectativas, ou seja, eles

criam um modelo da economia e atuam com base nas previsões geradas por este

modelo. Do ponto de vista complexo, estes modelos não precisam ser explícitos,

coerentes ou mutuamente consistentes. O que acontece é que esta concepção de

economia implica em sérios problemas para os fundamentos da Teoria econômica

do ponto de vista convencional como vimos no exemplo das companhias aéreas,

onde as expectativas se tornam indeterminadas e instáveis. O uso da lógica

dedutiva da lugar ao uso de uma mistura entre dedução e indução, no que Charles

Peirce chamou de abdução e Brian Arthur de Indução Racional.


229

Implicações para Política Econômica

A visão de mundo complexa tem implicações interessantes para o velho debate

acerca da intervenção do Governo na Economia ou não. Ela apresenta

argumentos contra e a favor políticas econômicas intervencionistas e liberais.

Vejamos primeiro os argumentos a favor das políticas liberais.

A teoria Neoclássica argumenta a favor do não intervencionismo e do livre

mercado com base no modelo de Equilíbrio Geral. Caso não hajam maiores

atritos o processo de mercado tende a por si só levar a Economia a uma situação

ideal. Neste contexto, qualquer intervenção do Governos só viria a atrapalhar este

processo. A prova para isto é feita de forma dedutiva, rigorosa e matemática.

Na visão complexa não ha garantias de que o processo de mercado leva a

Economia para uma solução ótima. Não ha como se deduzir de forma lógica que

a melhor política é a não intervencionista. Os argumentos a favor de políticas

liberais na ótica complexa se através de dois argumentos, o da ignorância e o

histórico. O argumento da ignorância é o seguinte : a economia é um SCA e está

acima de nossa capacidade analítica formal, ela emerge da complexa interação

dos agentes. Seria um delírio acharmos que podemos afetar algo tão complexo

como o mercado de forma positiva. Um outro aspecto deste argumento seria em

relação ao conceito de Ótimo, a meta do que deveríamos estar buscando. A

abordagem complexa nos leva a ver a economia com um processo dinâmico que

se auto-organiza, onde flutuações não podem ser evitadas, elas fazem parte do

sistema. O melhor estado para um economia capitalista é aquele onde esta está a
230

margem do caos, onde criatividade e chance coexistem e flutuações de todos os

tamanhos e duração ocorrem de forma descentralizada.

O argumento histórico é que todas as vezes em que se tentou interferir com o

mercado, acabou se criando mais problemas do que soluções. Utilizando-se a

historia como guia, o melhor seria a não interferência. Do ponto de vista

complexo, se alguém quiser defender políticas liberais não intervencionistas seria

através do argumento da ignorância e histórico e não via teorias dedutiveis

logicamente.

Agora vejamos as argumentos contra as políticas liberais.

Este argumentos advém do impacto de fatores como dependências as condições

iniciais, retornos crescentes, aprisionamento de mercado e trajetórias

dependentes. A mera existência destes fatores questiona a idéia de que o mercado

age de forma justa. De forma geral, as pessoas acreditam que em uma economia

de mercado cada um ganha o que merece, graças a sua competência e eficiência

em um regime de meritocracia. Isto forneceria as bases para o suporte popular `as

economias de mercado. A visão Neoclássica seria a prova teórica das vantagens

deste regime. Do ponto de vista complexo, os resultados proveniente da

distribuição de riqueza advindo do mecanismo de mercado não são

necessariamente os mais justos. Sorte, ou seja, estar no lugar certo na hora certa e

ser o primeiro a entrar em um determinado mercado podem ser as razoes da

acumulação de riqueza. Praticas restritivas também podem tem influencia neste

processo sendo então eficiência e competência fatores secundários. Pode haver o

caso de se tem cem indivíduos igualmente eficientes onde um recebe toda a

riqueza e os demais ficam sem nada.


231

Um segundo argumento a favor de praticas intervencionistas seria proveniente do

efeito dos retornos crescentes. Na teoria neoclássica, dado a presença de retornos

marginais decrescentes, existira um limite natural aos monopólios. A competição

dentro de um determinado setor da economia levaria a um balanço. Este não é o

caso na visão complexa de mundo. A livre competição pode levar ao monopólio

em certas industrias, como é o caso da Microsoft.

Um terceiro argumento que pode ser utilizado para apoiar políticas

governamentais viria como resultado das trajetórias dependentes. Uma economia

poderia seguir um caminho indesejado e um redirecionamento para o melhor

caminho poderia ser feito logo no começo deste processo. Os exemplos do

teclado de computador e do padrão de vídeo mostram como acidentes históricos

podem causar prejuízos futuros para a sociedade. A nova visão oferece a

possibilidade de se evitar que situações como estas se perpetuem e possam ser

evitadas através de políticas que guiem a economia por trajetórias mais

favoráveis.

Modelos complexos baseados na interação entre agentes foram propostos para

ajudar a guiar políticas governamentais em questões como pobreza e

desigualdade social. Steven Durlauf, um economista do Instituto de Santa Fé está

criando um programa de computador que simula um conjunto de indivíduos e

como estes interagem, levando em consideração características destes indivíduos

tais como educação, raça, familiaridade, vizinhança, escolaridade, local de

trabalho e etc. O que Durlauf está buscando são as regularidades estatísticas ou

padrões do comportamento agregado dos seus “agentes” no processo de formação

de comunidades. Assim como moléculas de água interagem e em certas


232

condições formam gelo, agentes sociais interagem e em certas condições criam

desigualdades sociais. Ambas seriam propriedades emergentes dos sistemas. A

idéia básica do modelo foi resumida por ele da seguintes maneira56 :

“ Primeiro, preferencias individuais, crenças e oportunidades são

fortemente influenciadas pela participação de um indivíduo em vários

grupos. Tais grupos podem ser fixos, como sua raça ou determinados pela

economia ou sociedade, como vizinhança, escolas ou firmas. Segundo, a

interação entre agentes de um mesmo grupo influencia a performance

econômica destes agentes. Terceiro, a estratificação social por renda, raça,

educação ou linguagem leva a divergência nas características dos grupos, o

que resulta no aumento das desigualdades e diminui a mobilidade social.”

Olhando as comunidades sob esta ótica, as oportunidades que são passadas de

geração para geração podem apresentar efeito feedback. Dado o feedback na

distribuição de renda e profissão que os membros de uma comunidade passam

para os seus filhos, existe um grande incentivo para que estes queiram viver nas

comunidades mais afluentes. Portanto, grandes incentivos existem para que haja

segregação econômica nas comunidades. Um conseqüência desta teoria é que

gerações inteiras de famílias podem cair na pobreza e assim permanecer

indefinidamente, enquanto outras ficarão sempre ricas. Uma vez que famílias

ricas e pobres são separadas pelo diferencial do preço das moradias, estas ficam

isoladas. Este isolamento significa que os filhos das famílias ricas terão melhor

escolaridade e oportunidades de trabalho. Portanto, diferenças iniciais na renda

dos adultos podem ser magnificadas para os seus filhos. Getos podem emergir e

56
Durlauf, Steven [1997] – “Trying to understand the behaviour of this monster…” – Santa Fe Institute Bulletin, Volume 12,
Numero 1.
233

se perpetuar como conseqüência desta estratificação. Notamos então a presença

de trajetórias dependentes com a presença de lock in, características de um

processo dinâmico complexo. De fato, a economia é tão complexa que tentar

modela-la em todas as suas nuances em um computador é uma tarefa muito

difícil. Mesmo que Durlauf consiga, sabemos que pequenas interferências do

Governo na economia criam deslocamentos históricos que afetam a capacidade

preditiva de longo prazo de tais modelos. Mesmo que estes modelos não

possibilitem previsões eles devem ser utilizados para ajudar na árdua tarefa de

entender as conseqüências de políticas governamentais. Assim como a Teoria da

Evolução de Darwin não prediz a formação de espécies mas ajuda a entender a

diversidade da Natureza, simulações da economia podem ajudar a elucida-la sem

necessariamente possuir poder preditivo em ambientes complexos.


234

PARTE 4

CAOS E COMPLEXIDADE NO

MUNDO DAS FINANÇAS


235

A Lógica do Irracional

Wall Street nasceu há 200 anos nas ruas de Lower Manhattan. Em 1790, a

América representava abundância de recursos e terras para já existente classe de

investidores ingleses e holandeses. Sem regulamentações, o mercado americano

era uma verdadeira selva. Peixes grandes engolindo menores e criando lendas,

folclores e também muitas fortunas. No final do século 19, a América viu sua

indústria sendo consolidada e também o mercado financeiro. Os grandes

banqueiros e industriais emergiram durante esta época. Firmas de Wall Street

com apenas 15 anos de existência ocupavam lugar de destaque na economia.

Casas como Belmont, Lazard e Morgan. Os tempos modernos da legislação para

as práticas de trading começaram em 1934. “Nesses tempos modernos” os

investidores ganharam proteção e os excessos cometidos no passado foram

abolidos. Neste período, bancos e seguradoras foram separados para proteger o

sistema e evitar catástrofes como o crash de 29. Proteção que veio a cair com o

tempo, e seguros e bancos vieram a ficar juntos novamente. Wall Street, sua

história e como novas fortunas são criadas sempre provocou um grande interesse.

Desde a origem de Wall Street até agora, o homem vem tentando decifrar os

segredos do movimento das ações. Quais são os melhores investimentos? Quais


236

ativos vão subir e quais ativos irão cair? É possível controlar o risco? O

comportamento dos preços no passado influi no comportamento futuro?

A maioria dos modelos criados tem a essência Linear e ainda hoje são os mais

usados. Apesar de serem os mais usados, os modelos lineares não conseguem

representar fielmente o que acontece nos mercados financeiros e apresentam

falhas. Por isso a importância da incorporação da nova teoria do

Caos/Complexidade na Ciência Econômica e nas Finanças. Ela representa o

mercado com mais precisão e vem revolucionar o paradigma atual: a Hipótese de

Mercado Eficiente (HME) segundo a qual os investidores reagem à informação

assim que é recebida, não esperando que ela se torne uma tendência baseada em

uma série cumulativa de eventos. A HME não leva em consideração a história,

uma vez que em um mercado eficiente, toda a informação já esta descontada nos

preços correntes dos ativos.

A Teoria do Caos/Complexidade trabalha com o fato de que o investidor nem

sempre responde de imediato ao receber novas informações. Ela considera um

leque maior de reações dos investidores, englobando o modelo anterior e indo

além.

A principal diferença entre as duas formas de analisar o mercado está na relação

do investidor com a informação. A visão linear é construída em torno do conceito

do investidor racional e de mercados eficientes. Os investidores ditos como

“racionais” são aqueles que preferem ativos que apresentem o maior retorno

esperado com um menor nível de risco e reagem à informação assim que é

recebida. Todos os investidores tem acesso a mesma informação na mesma hora

e por serem racionais, reagem a ela de mesma forma. Como o mercado é


237

eficiente, os investidores “irracionais”, ou seja, aqueles que reagem a informação

de forma diferenciada, são eliminados pelo processo de competição.

O modelo de mercado eficiente reduz o agente ao homem econômico: decisor

racional que busca defender seus interesses, utilizando de sua capacidade

ilimitada de cálculo e de plena informação. Esta hipótese assume que todos tem a

mesma capacidade matemática e o mesmo acesso à notícias. Todos os

investidores tem reagem a informação da mesma maneira, ou seja, os investidores

são homogêneos.

Utilizando-se de simples relações entre custo/benefício e risco/retorno, o

investidor avalia todas as alternativas e escolhe aquela que maximize sua

satisfação. Como o mercado é bem organizado e altamente competitivo, o

paradigma linear o define como Mercado Perfeito.

Na Teoria de Mercado Eficiente, a informação passada já está descontada nos

preços presentes. Se o investidor já é detentor das informações passadas, as

variações nos preços de hoje, por exemplo, só seriam alteradas por notícias

inesperadas no desenrolar do dia. Assim, variações nos preços de hoje só serão

causadas por notícias inesperadas no dia de hoje. As notícias de ontem não mais

importam e, portanto, as cotações do momento não tem relação com as de ontem,

elas são independentes. A percepção de que os preços são independentes motivou

matemáticos do ramo da estatística a tentar modelá-los como jogos de azar, onde

mecanismos de chance tem o papel principal na tomada de decisão. Quando

alguém vai a um cassino, não se sabe exatamente quanto se vai ganhar ou perder,

mas existe uma probabilidade para tais eventos. Ao falarmos de chance, não

podemos deixar de falar em probabilidade.


238

A estatística utiliza a Teoria da Probabilidade para diminuir as chances de erro na

busca de um resultado de um evento qualquer. Por exemplo, a vida média de um

gato é de aproximadamente quinze anos. Portanto, tomando como base um grupo

de mil gatos, a probabilidade maior é de que qualquer um dos gatos viva quinze

anos. É obvio que alguns gatos viverão mais e outros menos. Se traçarmos um

gráfico que indique o tempo de vida de uma população de gatos, este se

assemelhará a curva em forma de sino da distribuição normal.

Inicialmente chamada Lei do Erro, a distribuição normal foi utilizada por

astrônomos e matemáticos no século XVIII e é conhecida também como curva de

Gauss. Ela mostra como valores observados se distribuem em torno de sua média,

fornecendo probabilidades para variações destes valores. Adolphe Quetelet,

filosofo e estatístico, em seu livro Mecanica Social (título dado em homenagem a

Mecânica Celeste de Laplace) foi o primeiro a trazer a distribuição normal para

as ciências sociais.

Aproximação binomial a uma distribuição Normal (Quetelet, 1846)

Tudo começou a ser analisado através de distribuições de probabilidades: crimes,

casamentos, taxas de suicídio, nascimentos e etc.


239

O modelo de Mercado Eficiente utiliza a distribuição normal para explicar o

comportamento das variações de preços no mercado financeiro. A hipótese de

que a distribuição de probabilidade das variações de preços converge para uma

distribuição normal, possibilita uma grande quantidade de testes estatísticos e

técnicas de modelagem econômica.

Para entender a Teoria do Mercado Eficiente alguns conceitos básicos são

fundamentais :

Investidores racionais : Os investidores “praticam” a análise média\variância.

Eles medem retornos potenciais por um método probabilístico que gera retornos

(variações de preços) esperados. O risco é mensurado pelo desvio padrão dos

retornos. Os investidores (homogêneos) preferem ativos que garantam o maior

retorno esperado para um dado nível de risco : são avessos ao risco.

Mercados eficientes : Preços refletem toda a informação pública. As variações

nos preços são não correlacionadas, exceto em alguns casos de curta dependência

que se dissipa rapidamente no tempo. O valor é determinado pelo consenso de

grande número de técnicos fundamentalistas que determinam o preço justo da

ação de uma empresa olhando para o seu balanço e Fluxo de Caixa. Lucros

especulativos se tornam inviáveis e o preço dos ativos pode se deduzido

logicamente.

Passeio ao acaso : Em função dos conceitos acima citados, os retornos seguem

um passeio ao acaso. Portanto, as distribuições de probabilidade são

aproximadamente normais. Isto significa que a distribuição de probabilidade dos

retornos tem média e variância finitas.


240

A Teoria do Mercado de Capitais é dependente da hipótese de normalidade dos

retornos. Estudos empíricos tentaram comprovar a hipótese Gaussiana mas

freqüentemente chegam a resultados diferentes.

Em geral, o mercado de ações e as Economias de Mercado podem se comportar

como um Sistema Dinâmico não-linear, preferencialmente ao comportamento

esboçado acima. Este novo paradigma generaliza a reação do investidor para

aceitar a possibilidade de reações não-lineares à informação e pode portanto ser

visto como uma extensão natural da visão corrente.

Este novo meio de analisar o mercado tem como instrumentos a Dinâmica não-

linear e a Geometria Fractal. A Geometria Fractal é composta por objetos em

que as partes, de alguma forma, são relacionadas com o todo, ou seja, os

componentes individuais são auto-similares.

Já em 1938, Ralph N. Elliott (1871-1948) um expert em administração de

cafeterias que havia estudado os segredos da Grande Pirâmide e as profecias de

Melchi-Zedik, patenteou o que considerava ser uma grande descoberta.

O Principio da Onda afirmava que todas as atividades humanas se davam em

cinco ondas do mesmo formato que se repetiam a escalas cada vez menores.

Elliott aplicou sua teoria para diversas áreas em economia e finanças sendo até

hoje utilizada por muitos traders no mercado financeiro para tentar prever o seu

comportamento.
241

Ondas de Elliott que se repetem a escalas cada vez menores

A Teoria aplicada ao gráfico Mensal e Semanal do Índice Dow Jones Industrial

Finalmente, cabe ainda notar que outras considerações críticas podem ser feitas a

respeito do uso da HME do ponto de vista comportamental dos agentes:

1. As pessoas não são necessariamente avessas ao risco todo o tempo. Elas podem

apresentar comportamento “amante do risco” caso o jogo evite uma perda certa

no futuro. Tversky (1990) sugere o seguinte exemplo. Suponha que o investidor

possa escolher entre (1) uma perda certa de $85.000 ou (2) 85% de chance de

perder $100.000 e 15% de chance de não perder nada. Neste caso, mesmo que o

retorno esperado seja idêntico em ambos os casos, o investidor irá jogar.

2. As pessoas podem não reagir prontamente ao recebimento da informação,

reagindo somente quando esta confirmar uma nova tendência. Esta é uma reação

não-linear, oposta ao tipo de reação linear prevista pelo conceito de investidor

racional.

Caso as hipóteses simplificadoras da HME sejam colocadas de lado, o paradigma

corrente fica seriamente prejudicado, levando a conclusões errôneas. Os

fundadores da Teoria dos Mercados de Capitais tinham perfeita consciência do


242

impacto destas hipóteses simplificadoras, contudo, achavam que estas não

reduziriam a generalidade de seus modelos.

A natureza fractal dos mercados de capitais contradizem a HME e todos os

modelos quantitativos que dela dependem, entre eles o Capital Asset Pricing

Model (CAPM), o Arbitrage Pricing Theory (APT) e o famoso Black-Scholes

option pricing model , assim como outros modelos que dependem da distribuição

normal e/ou de variância finita. Estes modelos falham pois ignoram a influência

do tempo no processo de tomada de decisão , na medida em que os eventos

passados não interferem nos eventos futuros.

Mandelbrot vs Bachelier

As forças de oferta e demanda conduzem a um equilíbrio no nível de preços do

mercado de ativos, tornando o preço corrente do ativo a melhor estimativa para

preços futuros. Desse modo, os movimentos de preços somente poderiam ser

criados a partir de novas informações no mercado. Como não há qualquer razão

para se esperar que o surgimento de informações tenha qualquer raiz não

aleatória, o movimento do nível de preços dos ativos deve seguir um

comportamento aleatório. Sendo assim, encontrou-se suficiente motivação para

se desenvolver o estudo de processos e modelos estocásticos no mercado de

capitais.

Louis Bachelier (1870-1946), um matemático francês, em sua tese de doutorado

intitulada “Théorie de la Speculation”(1900) foi o primeiro a desenvolver um


243

modelo estocástico57, analisando os preços de ativos. Na verdade, Bachelier foi o

primeiro a descobrir a noção de que os preços de ativos financeiros poderiam

seguir um passeio ao acaso58 (movimento aleatório). Cinco anos depois, Einstein

e outros, independentemente redescobriram e desenvolveram este conceito na

Física ao estudar o movimento de partículas sujeitas a choques aleatórios.

Eventualmente, mas não até a década de 60, quando os modelos estocásticos

foram introduzidos no estudo da Econometria, este conceito voltou a fazer parte

da agenda de estudo das Ciências Econômicas. O trabalho de Bachelier ficou

esquecido durante décadas. Bachelier baseou seu modelo nas seguintes hipóteses:

• as variações sucessivas dos preços são independentes, ou seja, o que aconteceu

no passado não influencia o que vai acontecer no futuro;

• todos os preços seguem um comportamento característico de um Mercado

Perfeito;

• as imperfeições do mercado se mantém apenas quando são inferiores aos custos

de transação, sendo assim, não comprometem as demais hipóteses;

• os preços competitivos seguem o Passeio ao Acaso.

Mandelbrot criticou duramente o modelo desenvolvido por Bachelier, baseado na

falta de dados mais atualizados e na descontinuidade dos preços. Mandelbrot

chega a assinalar que a aceitação de continuidade não passa de uma simples

cópia, consciente ou não, dos métodos de sucesso comprovados na física

Newtoniana. Para demonstrar a existência de descontinuidade nas séries de

57
Uma revisão dos trabalhos de diversos economistas matemáticos sobre a aplicação de métodos estocásticos para evidenciação
empírica de Caos em Economia e Finanças pode ser encontrada no apêndice matemático.
58
Uma definição informal porém comumente utilizada no mercado financeiro para passeio ao acaso, seria a trajetória de um
bêbado andando na rua a noite, tentando buscar o rumo de casa.
244

preços de ativos, Mandelbrot alegou, entre outros motivos, as alterações das

variáveis que formam o preço durante o período que o mercado de ativos

permanece fechado. Tais mudanças podem gerar, na abertura do mercado,

bruscas variações nos preços de ativos, caracterizando, deste modo, uma

descontinuidade na série observada.

Além da crítica específica ao modelo apresentado por Bachelier(1900),

Mandelbrot acusa ainda alguns economistas de insistirem mesmo assim em

enquadrar as séries de preços de ativos em comportamentos Gaussianos. Para tal,

estes “insistentes” economistas se valem, principalmente, de três métodos:

• separar as grandes variações dos preços, que causam a descontinuidade da série,

como componente não-estocástico, enquanto que, as pequenas variações, são

analisadas como seguindo um comportamento Gaussiano;

• utilizar transformações lineares (soma e multiplicação) ou não-lineares (como a

logaritimização) nas variáveis, de modo a encaixá-las no contexto Gaussiano;

• considerar que os preços seguem um processo estocástico, porém com

parâmetros incontroláveis, desta forma, tornando o modelo ad hoc e

incontestável.

De modo a evitar críticas ao seu modelo - estruturado na geometria fractal e

baseado na natureza não-estacionária dos preços de ativos, Mandelbrot pressupôs

uma variância infinita, contrapondo-se assim ao modelo desenvolvido por

Bachelier (1900) que pressupunha média e variância finitas. Como conseqüência,

algumas ferramentas estatísticas, baseadas no princípio de variância finita (por


245

exemplo, regressões do tipo Mínimos Quadrados) se tornam altamente

imprecisas.

Distribuição Pareto Estável

O que Mandelbrot buscava era uma distribuição de probabilidade onde os eventos

pudessem ter flutuações bruscas e descontínuas além de tendências e ciclos, para

com isso explicar fenômenos como as crises da Bolsa em 1929 ou 1987. As

características possuídas pela Distribuição Pareto Estável a fez a candidata ideal

para o que Mandelbrot estava procurando. Usando duas estórias da Bíblia,

Mandelbrot ilustrou metaforicamente estas características. O Efeito José, que se

refere ao fato das distribuições fractais de terem tendências e ciclos, tem como

inspiração o sonho do faraó egípcio onde sete vacas gordas eram seguidas por

sete vacas magras e significava que sete anos de fartura seriam seguidos por sete

anos de escassez. E o Efeito Noé, inspirado na estória do Dilúvio, onde sistemas

dinâmicos não lineares podem ter alterações abruptas e dramáticas em suas

trajetórias, com a presença de pontos críticos.

Hoje em dia, é amplamente aceito o fato de que as distribuições de probabilidade

de ativos financeiros são leptocúrticas, ou seja, possuem média alta e caudas

largas. As distribuições de probabilidade Pareto Estáveis também possuem esta

mesma característica. As caudas largas podem ser atribuídas ao fato de que as

informações que movimentam o mercado surgem em blocos, e não de forma

contínua. Assim, grandes variações de preços ocorrem em pequenas quantidades

de grandes magnitudes. Na distribuição normal, uma grande variação ocorre


246

devido a uma grande quantidade de pequenas variações. Como a distribuição das

informações é leptocurtica, a distribuição das variações de preços também o é.

Talvez uma das mais importantes conseqüências das caudas largas para as

técnicas aplicadas em Finanças seja em relação a controle de risco. Com as

caudas largas, a probabilidade de eventos extremos pode ser várias vezes maior

do que com a distribuição normal. Para distribuições que possuem caudas largas,

a variância pode ser um indicador inadequado e potencialmente perigoso para se

medir o risco de um ativo ou portfólio de ativos, como pôde ser visto em 1998

com a quase quebra do hedge fund Long Term Capital Management durante a

crise da Rússia. Na prática, com caudas largas, um evento pouco provável de

acontecer, é mais provável que aconteça, pois existem muitos eventos

improváveis. Mas foi Edgar Peters, em seu livro Caos e Ordem no Mercado de

Capitais quem melhor explicou o motivo das caudas largas. Para ele, tudo passa

pela forma como os investidores reagem as informações. Caso as informações

forem refletidas nos preços assim que recebidas, os eventos passados não mais

influenciam nos eventos futuros. Contudo, caso os investidores esperem que estas

informações se transformem em uma tendência de mercado, ou seja, caso eles

esperem para ver o que os outros investidores irão fazer com a informação, esta

têm um período de memória. Ela leva um tempo para “caducar”. Este tempo de

espera é o que causa o viés no passeio ao acaso, fazendo com que o que

aconteceu no passado ainda influencie o que vai acontecer no futuro. Deste

modo, modelos estocásticos estacionários, onde sempre as mesmas variáveis são

relevantes, como o proposto por Bachelier, não são a melhor forma de se modelar

o mercado.
247

O gráfico 1 abaixo, da série histórica da Bolsa de Valores do Rio de Janeiro,

ilustra esta característica. Como pode ser visto no Gráfico 2, a distribuição de

probabilidade possui média acima da distribuição normal e caudas mais largas.

250000

200000

150000

100000

50000

0
01/55 07/57 01/60 07/62 01/65 07/67 01/70 07/72 01/75 07/77 01/80 07/82 01/85 07/87 01/90 07/92

GRÁFICO 1 : IBV Mensal de 1955 até 1993 deflacionado pelo dólar comercial e descontada a

inflação em dólares

120

100

80

60
Frequências
40

20

0
-1 -0,5 0 0,5
Desvio Padrão

GRÁFICO 2 : Distribuição de Freqüência do IBV Mensal , Janeiro de 1955 - Junho de 1993 :

Normal Teórica vs. Retornos Ocorridos

A forma irregular com que as pessoas assimilam as informações, não tomando

decisões até que novas tendências despontem, pode causar uma tendência no

passeio ao acaso, ou seja, um passeio ao acaso viesado. Passeios ao acaso

viesados foram estudados extensivamente por Hurst na década de 40 e por


248

Mandelbrot nas décadas de 60 e 70. Mandelbrot as chamou de séries temporais

fractais.

As distribuições de probabilidade extraídas das séries temporais fractais foram

chamadas por Mandelbrot de Distribuições Fractais por serem estatisticamente

auto-similares em relação ao tempo.

Além da consideração da variância infinita, Mandelbrot construiu o Princípio de

Escala na Economia, afirmando que não há qualquer razão suficiente para se

presumir que uma escala de tempo possa ser mais relevante que outra.

Exatamente o inverso dos processos estocásticos, que partiam da convicção de

que as pequenas modificações dinâmicas, transitórias e imprevisíveis, nada

tinham a ver com as mudanças estruturais de longo prazo, não diferenciando

assim as escalas de tempo. Mandelbrot por outro lado, assume uma concepção

de escalas de tempo onde as amplas oscilações de preços durante meses, anos ou

até décadas eram determinadas a partir de forças de mercado. Todas essas escalas

diferentes de tempo seguiam o mesmo padrão, uma simetria observada através de

seus diagramas fractais.

Peters (1991) realizou um amplo trabalho de evidenciação empírica para diversas

séries de ativos. Seus resultados demostram a presença de características próprias

de Sistemas Dinâmicos não-lineares com estrutura fractal. A tabela a seguir

resume tais resultados :

Índices Dimensão Expoente Máximo de Lyapunov (bit/mês)

Fractal
S&P 500 2.33 0.0241
MSCI Japão 3.05 0.0228
MSCI Alemanha 2.41 0.0168
249

MSCI Inglaterra 2.94 0.0283

Resumindo, se o mercado de ativos financeiros pode ser melhor entendido pelo

uso de distribuições de probabilidade Pareto Estável, eles devem respeitar

algumas características importantes de Sistemas Dinâmicos não-lineares.

Primeiro, quanto à natureza retroalimentativa dos mercados, ou seja, o que

aconteceu ontem influi no que acontecerá hoje; Pt+1 depende de Pt . Segundo,

quanto à existência de níveis críticos onde pode haver a possibilidade de mais de

um ponto de equilíbrio. Terceiro, quanto à natureza fractal do sistema (como

vimos no diagrama de bifurcação), ou seja, a propriedade de auto-similaridade a

qualquer escala de tempo é característica de Sistemas Dinâmicos não-lineares e

sintomática de processos de retroalimentação (feedback) não-linear. Esta

complexidade ocorre somente quando um sistema esta longe do equilíbrio. E

finalmente a sensibilidade às condições iniciais, facilmente observável no

contexto da equação logística.

Estas características indicam que, se o mercado de capitais é um sistema

dinâmico não-linear, devemos esperar :

1. Correlações e tendências de longo prazo (efeito feedback);

2. Mercados imprevisíveis em certos momentos e condições (níveis críticos);

3. Uma série temporal de retornos que, dados pequenos incrementos de tempo,

continue tendo características estatísticas similares (auto-similaridade);

4. Previsões menos confiáveis quanto mais longe no tempo olharmos (sensibilidade

às condições iniciais) .
250

Tentamos com isso, fazer uma ligação intuitiva entre a Geometria Fractal e a área

de sistemas dinâmicos não-lineares. Sistemas caóticos de alta dimensionalidade

possuem muitas similaridades com a equação logística e esta, por sua vez, é

também relacionada com fractais.

Estas características descrevem um mercado que não se enquadra no contexto da

HME, contexto este que dominou a Economia Financeira durante os últimos 30

anos e supôs que o investidor utiliza expectativas racionais para tomar suas

decisões de investir. Este modelo de comportamento reduz a formulação

matemática de mercados eficientes a equações diferenciais lineares com uma

única solução. Contudo, sabemos que o mercado não é simples e linear mas

complexo e não-linear onde as expectativas se tornam fugazes podendo em certos

momentos ser indeterminadas, como vimos no exemplo das companhias aéreas e

como veremos com mais detalhe em seguida.


251

O Ponto de Vista Complexo

O mega especulador e filantropo George Soros, em seu livro The Alchemy of

Finance59 definiu conceito de Reflexividade :

“ A conexão entre o pensamento dos participantes e a situação em que eles

participam pode ser quebrada em duas relações funcionais. Eu chamo o

esforço dos participantes em tentar entender a situação de esforço

cognitivo, ou função passiva e o impacto dos seus pensamentos no mundo

real de participativa, ou função ativa.”

Vejamos um simples exemplo retirado do âmbito da Teoria das Finanças para

demonstrar como as expectativas dos agentes do mercado influenciam no preço

futuro de um ativo. Suponha que o preço de amanhã de um determinado ativo

dependa do somatório das expectativas individuais de cada investidor em relação

aos dividendos e ao preço do ativo no trimestre seguinte (target price). Não há

como cada investidor conhecer as previsões de todos os demais investidores, nem

“como a opinião media saber o que a opinião media acha que vai acontecer”, para

usar as palavras de Keynes, que também via o mundo de forma reflexiva. Caso
59
Soros, George [1987] – “The Alchemy of Finance : reading the mind of the market” – John Wiley & Sons, Inc.
252

contrário teríamos uma regressão lógica do tipo “Eles acham que eu acho isso,

mas realizando que eu acho isso, eles acharão aquilo”. Não há também um

planejador central, somente o especialista, uma espécie de leiloeiro walrasiano,

que esta lá apenas para cumprir a função social de casar ordens de compra e

venda.

A não ser que todos os investidores sejam idênticos, mais uma vez nossos

investidores estão tentando prever um resultado (o preço futuro) que depende das

expectativas de outros investidores. Não ha solução dedutiva lógica para este tipo

de problema pois as expectativas são indetermináveis.

Pior do que isso, as expectativas se tornam instáveis. Imagine que um grupo de

pessoas acreditam que o preço de um ativo irá subir. Se eu acredito nisso, e

acredito que outros também acreditam nisso, devo ajustar minhas expectativas

para cima. Mas, de repente surge um boato novo com conotações negativas para

o mercado. Vou rever minhas expectativas para baixo novamente. Mas realizando

que outros investidores também reverão suas expectativas para baixo, revejo as

minhas para mais baixo ainda, tentando me adiantar ao movimento que virá em

seguida. As expectativas se tornam fugazes, mudando ao sabor dos negócios que

efetivamente são fechados no mercado ou não. As previsões se tornam instáveis.

É desta forma que começam as bolhas especulativas. Se alguém espera que os

preços irão subir é porque este alguém acredita que os outros investidores

também acreditam que os preços irão subir. Então todos compram o ativo. Uma

vez que a bolha começa, os investidores assistem o preço do ativo realmente

subir e suas expectativas são realizadas. Deste modo, os preços podem continuar

a subir.
253

Uma lógica similar se aplica a suportes e resistências no gráfico do preço de

ativos financeiros, a conhecida analise técnica. Se, por exemplo, ao preço de 894

muitos investidores acreditam que o preço vai para 900, existe algum tipo de

“membrana”, ou atrator, que é uma resistência, um “teto”, e quando o ativo

alcança este teto, ele pode bater e voltar a cair, ou pode romper a resistência e

continuar a subir, confirmando uma tendência de alta. Alguns investidores podem

querer tentar vender o ativo quando o preço dele chegar a 900, somente por ser

este um número “redondo”. Muitos investidores não acreditam na existência de

suportes e resistências, mas mesmo aqueles que não acreditem, as olham com

cuidado, pois eles sabem que muitos outros investidores acreditam. Suportes e

resistências emergem como profecias auto-realizáveis, colocadas em lugares

“convenientes” para se comprar ou vender o ativo. Neste momento, estamos

muito distantes do mundo racional de investidores homogêneos onde a

informação é interpretada da mesma forma por todos. Sob hipótese realista, a

informação é interpretada de forma diferente por investidores diferentes e as

expectativas se tornam instáveis e indeterminadas podendo se tornar auto-

realizaveis.

Bolsa de Valores Artificial

Em 1988, John Holland e Brian Arthur decidiram estudar situações onde os

agentes passam a ser heterogêneos, continuamente adaptando suas expectativas

ao mercado cujo as próprias expectativas ajudam a criar. Devido a

impossibilidade de se modelar tal problema analiticamente, eles simularam um


254

mercado de ações artificial no computador. Este mercado era totalmente auto-

suficiente, não precisando receber cotações reais da bolsa de valores. Eles

fizeram um mundo a parte dentro do computador onde os agentes – programas

artificialmente inteligentes - compravam e vendiam as ações uns dos outros. O

computador mostrava o preço, os dividendos, quem esta comprando e quem esta

vendendo, quem esta ganhando dinheiro e quem esta perdendo, quem esta no

mercado e quem esta fora e assim por diante. Um outro programa, chamado de

especialista (uma espécie de leiloeiro walrasiano), era responsável por casar os

compradores e vendedores, como no mercado real. O mercado simulado continha

dois ativos : uma ação (ativo de risco) e um ativo sem risco (como um Fundo de

Renda Fixa por exemplo). Os agentes, a cada rodada de negócios, deveriam

decidir o quanto alocar em cada um dos dois ativos, dadas as suas restrições

orçamentárias. Eles fazem isto através de suas previsões em relação ao preço da

ação e ao seu risco (medido pela variância dos preços). As regras de previsão são

do tipo SE-ENTÃO, ou seja, SE a situação do mercado for esta ENTÃO, esta

previsão é feita. SE a situação for aquela, ENTÃO, aquela previsão é feita.

Os agentes podem reconhecer dois tipos de comportamento de mercado : técnico

e fundamentalista. O comportamento técnico é quando os agentes reconhecem

algum padrão na história passada dos preços. O fundamentalista é quando o preço

das ações é sub ou super avaliado pelo mercado. Um exemplo de analise técnica é

: o preço é maior do que a média móvel dos últimos 14 dias, e um exemplo de

analise fundamentalista é : o preço esta sub-avaliado em 10% em relação ao

preço justo calculado com base no lucro esperado da empresa.


255

Para um determinado período, se a descrição de uma regra de previsão for

satisfeita, a regra é automaticamente ativada pelos agentes que a possuem. Várias

regras podem ser ativadas ao mesmo tempo e o agente deve escolher qual delas

usar. O decisão é feita com base no sucesso passado das regras que estão

competindo para serem usadas. Uma vez que a regra é escolhida, o agente deve

decidir o quanto investir, levando em consideração sua aversão ao risco. As

decisões são submetidas ao especialista, um agente a parte que tem a função de

casar as ordens de compra e venda entre os diversos agentes.

Um Algoritmo Genético (AG) é responsável pela evolução da população de

regras de previsão ao longo do tempo. Toda vez que o AG é invocado ele

substitui as regras mais fracas por novas regras. O critério para criação de novas

regras é feito com base na precisão das previsões e na complexidade da regra,

sendo as mais simples preferíveis as mais complexas. Novas regras são criadas

pelo AG através da mutação das regras mais bem sucedidas no arsenal de regras

de cada agente. As regras de previsão são diferentes para cada agente. Os agentes

são heterogêneos.

Em situações onde os agentes são heterogêneos, temos o problema da

indeterminação das expectativas de forma dedutiva. As expectativas tem uma

característica recursiva, ou seja, a expectativa de um agente é função de sua

antecipação da expectativa dos demais agentes e vice-versa. Esta auto-referencia

impede que as expectativas sejam formadas dedutivamente. Se os agentes não

podem formar suas expectativas de forma dedutiva, como eles as formam então?

Brian Arthur e seus co-autores no artigo “A precificação de ativos em Bolsa de

Valores Artificiais com expectativas endógenas” decidiram optar pela Indução


256

Racional, ou seja : os agentes agem continuamente com base em modelos de

previsão apropriadamente selecionados, reforçam a confiança nos modelos que

são validados e descartam os que não são. Os agentes aprendem a reconhecer

padrões que eles coletivamente estão criando e que por suas vez criam novos

padrões para o comportamento do preço das ações, para o qual novos modelos de

previsão são formados. As crenças individuais, ou expectativas, se tornam

endógenas ao mercado e competem constantemente em uma ecologia de várias

crenças e expectativas. A ecologia de crenças co-evolui com o passar do tempo.

Esta é uma forma bem mais realista de se modelar o comportamento dos

mercados.

O resultado dos experimentos do mercado artificial no computador com

expectativas endógenas explica um dos mais interessantes problemas em

finanças: porque os operadores de mercado muitas vezes acreditam em analise

técnica, “psicologia” de mercado e efeito manada, enquanto os teóricos do mundo

acadêmico acreditam em mercados eficientes e falta de oportunidades

especulativas. Ambas as visões estão corretas mas em diferentes circunstancias.

Quando Arthur e Cia. iniciavam os agentes com hipóteses expectacionais perto

da hipótese de expectativas racionais, a solução gravitava em torno deste ponto.

Caso alguns agentes eventualmente tentassem utilizar hipóteses diferentes, as

previsões eram eliminadas pelo AG com o passar do tempo. Em regimes onde os

agentes exploravam as alternativas expectacionais a uma taxa baixa, o mercado

também tendia ao equilíbrio das expectativas racionais aceito pela HME.

O segundo regime, que prevalecia em maior número de situações, era o regime

complexo. Quando os agentes começavam com hipóteses um pouco fora da


257

hipótese de expectativas racionais ou em um regime onde a taxa de exploração

das alternativas expectacionais é alta, o mercado se auto-organizava em um

padrão complexo.

Em um mercado onde 100 agentes artificiais, cada um utilizando 60 modelos de

previsão diferentes, tem-se um universo de 6000 hipóteses preditivas. Algumas

das previsões que emergem podem apresentar feed-back positivo, outras, feed-

back negativo. Suponha que muitas hipóteses preditivas acreditem que o mercado

funciona em ciclos de alta e baixa. Estas hipóteses apresentam feed-back negativo

pois elas levarão os agentes a comprar no fundo do ciclo e vender na alta do

ciclo, eliminando a possibilidade de lucros na medida em que o tempo passa e

eventualmente desaparecendo da população de hipóteses preditivas.

Mas se um subconjunto de hipóteses emergisse por acaso e acreditasse que “o

preço no próximo período sobe caso ele tenha subido nos três períodos

anteriores” e caso hajam muitos agentes que acreditem nesta hipótese, ela levará

os agentes a comprar, o que na média fará com que o preço suba, reinforçando

este subconjunto. Este subconjunto que emerge tem seus dias contados. Em

algum momento, outros agentes descobrirão a nova estratégia tornando-a inócua.

Novos subconjuntos de hipóteses são continuamente criados, consequentemente

remodelando o mercado que é não-estacionário. Não ha qualquer razão para que

hipóteses que obtiveram sucesso em um certo momento de suas vidas continuem

gerando lucros para os agentes indefinidamente. Arthur e Cia. fizeram este

experimento ao congelar hipóteses bem sucedidas em seu tempo e colocá-las de

volta no mercado em tempos posteriores. As hipóteses geraram retornos não

melhores do que média. Neste regime complexo, o mercado adquire uma


258

psicologia rica, o trading técnico emerge, bolhas e crashes aparecem e os preços e

volumes apresentam características estatísticas semelhantes as series retiradas de

mercados reais, mais precisamente o comportamento GARCH60 – períodos de

alta volatilidade no preço da ações, seguidos por períodos de calmaria. Este

comportamento pode ser explicado pela presença de novas hipóteses preditivas

melhores que as anteriores. As novas hipóteses levam os agentes a mudar sua

forma de operar e a mudar a forma como os outros agentes por sua vez operam.

Para alguns agentes as novas hipóteses podem ativar regras preditivas otimistas,

para outros, as mesmas hipóteses podem ativar regras pessimistas. Este cenário é

definido como um mercado “nervoso”. Avalanches de mudança acontecem no

mercado, em escalas grandes e pequenas. Períodos onde grandes mudanças levam

a grandes mudanças, seguidos por períodos onde pequenas mudanças levam a

pequenas mudanças. Enquanto as grandes mudanças não forem assimiladas pelo

mercado, a volatilidade continuará alta. Em um segundo momento o que vemos é

a calmaria depois da tempestade. Isto é o comportamento GARCH.

Estendendo a conclusão do experimento da Bolsa de Valores artificial para

englobar a Economia como um todo, o que vemos é que esta, a pesar de ser

formada por fábricas, tecnologias, mercados, instituições financeiras e outras

entidades bastante tangíveis, o que de fato esta por trás guiando suas ações são

crenças : expectativas subjetivas, hipóteses preditivas que tentam antecipar a

ações dos outros seres humanos que formam o mercado. As crenças podem se

reinforçar mutuamente ou competir entre si. Elas podem surgir, ficar

proeminentes, dominar a cena por um tempo e depois cair e desaparecer. Podem

ser formadas através de alguma teoria especifica ou de reconhecimento de


60
Do inglês Generalized AutoRegressive Conditional Heteroscedastic.
259

padrões passados e podem ser transmitidas de um agente para outro. De forma

conjunta, elas formam a macroeconomia, movem o mercado financeiro e

determinam o fluxo de capital internacional. Governam as alianças estratégicas e

o investimento. Elas são o DNA da Economia. Em certos momentos as crenças

podem levar a Economia a sua condição de equilíbrio. Contudo, na maior parte

das vezes o que se vê é um comportamento complexo com crenças que são

dedutivamente indeterminadas de antemão e que emergem como resultado da

interação entre os agentes. A emergência de subconjuntos de crenças que se auto-

reinforçam lembra o comportamento dos sistemas auto-catalisadores que deram

origem a vida na Terra de acordo com Stuart Kauffman.

A Economia melhor se descreve como uma entidade viva, orgânica, ao invés de

uma máquina gigante. A complexidade da Economia de mercado é fruto de nossa

própria complexidade.

Epílogo

A maior contribuição da Teoria do Caos e Complexidade é na tentativa de

entender a evolução de sistemas vivos, onde o aprendizado tem um papel

principal. Diferentemente de sistemas puramente físicos, onde a evolução se da

via reações químicas, nos sistemas animais a evolução se da via aprendizado. A

evolução cultural fez dos humanos o que eles são e teve como resultado a criação

de diferentes civilizações. A evolução das linguagens permitiu a emergência das


260

sociedades e suas organizações, tais como os mercados, sistemas políticos e

instituições.

A linguagem foi desenvolvida para comunicação e portanto para transmissão

cultural. Através da palavra escrita, da imprensa e agora das redes de

computadores, as sociedades estão conectadas de uma forma que supra os limites

ate então conhecidos.

Esta transmissão de regras e informação, inerente em processos culturais e

comerciais é o que contribui para que a dinâmica de certos sistemas seja caótica.

Dai a importância de se tentar entender a evolução dos sistemas pois só assim

podemos ver o porque de certos parâmetros apresentarem volatilidade. Por

exemplo, as expectativas tem um papel fundamental na criação de volatilidade

nos mercados financeiros.

Como vimos, sistemas complexos podem ser espontâneos e desordenados. A

pesar disso, a dinâmica de seu comportamento apresenta um padrão, ela não é

totalmente aleatória.

Durante os últimos 25 anos, a Teoria do Caos nos mostra que sistemas simples

podem ter um comportamento extraordinariamente intrincado. Contudo, esta

teoria não explica a coerência, a estrutura e a auto-organizção deste sistemas. Mas

o entendimento da dinâmica do processo evolutivo dos sistemas nos faz notar a

presença do ponto que ficou conhecido como Margem do Caos. A Margem do

Caos os componentes do sistema não ficam parados mas também não se

dissolvem em turbulência. Um sistema vivo tem estabilidade suficiente para se

sustentar e criatividade suficiente para sobreviver e evoluir.


261

Após termos percorrido mais de quinze séculos de Historia do pensamento

econômico notamos que a sua própria evolução pode ser vista como um processo

complexo a margem do caos. Um corpo teórico básico da sustentação `a

diferentes escolas, compondo uma ecologia de teorias que competem e se

adaptam como organismos vivos em busca da sobrevivência. As escolas

heterodoxas trazem novas idéias que inseminam o corpo teórico tradicional de

vida e oxigenam o sangue dos economistas mais tradicionais. Estes por sua vez,

sentindo uma necessidade de incluir a novas correntes de pensamento que trazem

aspectos mais realistas ao escopo de suas teorias, adaptam a teoria padrão em

uma dança evolutiva tão bela quanto seu esforço quase sobre-humano de tentar

entender e prever as trajetórias de nossas economias. É isto que faz com que

sistemas dinâmicos complexos sejam espontâneos, adaptativos e portanto vivos.


262

Referências Bibliográficas

Alexander, Sidney S. [1961] - “Price Movements in Speculative Markets: Trends or Passeio ao

acasos” - Industrial Management Review, Volume 2, no 2. pp 7 - 26.

Alexander, Sidney S. [1964] - “Price Movements in Speculative Markets: Trends or Passeio ao

acasos, No 2” - Cootner, P.H., Editor, The Random Character of Stock Market Prices,
Cambridge: MIT Press, 1964. pp. 338 - 372.

Anderson, P. Arrow, K. Pines, D. [1988] – “The economy as an evolving complex system” –


Proceedings of a workshop sponsored by Santa Fe Institute. Santa Fe, NM. Perseus Books
Publishing.

Arrow, K., Debreu, G. [1953] – “Existance of Equilibrium for a Competitive Economy” –


Econometrica vol. 22, pp.265-290.

Arthur, W. Brian. [1994] – “Increasing Returns and Path Dependency in the economy” – The
University of Michigan Press.

Bachelier, L. [1900] - “Théorie de la Speculation” - Gauthier-Villars, Paris.

Bak, Per. [1996] – “How nature works : the science of self-organized criticality” – Copernicus
Springer-Verlag New York, Inc.
263

Bala, V. & Majumdar, M. [1992] – “Chaotic Tatonnement” – Economic Theory, 2 (4), pp.
437-45.

Barnett,W.A. & P. Chen [1988] – “The Aggregation-Theoretic Monetary Aggregates are


Chaotic and have Strange Atractors: an Economic Application of Mathematical Chaos” -
Dynamic Econometric Modeling, Proceedings of the Third International Symposium on
Economic Theory and Econometrics , Ed. Barnett,W.A.; E.R.Berndt & H. White. Cambridge :
Cambridge University Press. pp 199-245.

Becker, Gary [1976] – “The economic approach to Human Behavior” – The University of
Chicago Press.

Benhabib, Jess (Editor) [1992] – “Cycles and chaos in economic equilibrium” – Princeton
University Press.

Bernstein, Peter [1996] – “Against the gods : The remarkable story of risk”- John Wiley &
Sons.

Bollerslev, T. [1986] - “Generalized Autoregressive Conditional Heteroskedasticity “ - Journal


of Econometrics 31. pp.207-327.

Boldrin, Michele [1992] - The Impact of Chaos on Economic Theory - mimeo, Northwestern
University, Evanston, IL.

Brock, W.A. [1986] - “Distinguishing Random and Deterministic Systems: Abridged Version” -
Journal of Economic Theory 40. pp. 168-195.

Brock,W.A., D.W.Dechert & J.A.Scheinkman [1988] - “A Test for Independence Based on


the Correlation Dimension” - mimeo, University of Wisconsin, Madison, University of Houston
& University of Chicago.

Brock, Hsieh & LeBaron [1991] - “A Test for Nonlinear Dynamics, Chaos and Instability” -
Cambridge, MA : MIT Press.

Brock, W.A. [1991] – “Understanding Macroeconomic Time Series using Complex Systems
Theory” – Structural Changes and Economic Dynamics, 2(1), pp. 119-41.
264

Brock, W.A. [1993] – “Pathways to Randomness in the Economy : Emergent Nonlinearity and
Chaos in Economics and Finance” – Estudios Economicos, 8(1), pp. 3-55.

Cohen, Bernice [1997] – “The edge of chaos : Financial booms, bubbles, crashes and chaos” –
New York : John Wiley and Sons, Inc.

Cohen, J & Stewart, I. [1994] – “The colapse of Chaos : discovering simplicity in a complex
world” – NY, NY : Penguin Books.

Colander, David. (editor) [2000] – “The complexity vision and the teaching of economics” –
Cambridge, MA : Edward Elgar Publishing Limited.

Colander, David. (editor) [2000] – “Complexity and the History of Economic Thought –
Perspectives on the history of economic thought” – Selected papers from the History of
Economics Society Conference, 1998. London : Routledge.

Cootner, Paul H. [1962] - “Stock Prices: Random vs. Systematic Changes” - Industrial

Management Review, Volume 3, no 2 (Spring 1962). pp 24 - 45.

Cootner, Paul H. [1964] - “The Random Character of Stock Market Prices”.- Cambridge, MA :
M.I.T. Press, 1964.

Cowan, G. Pines, D. Meltzer, D. [1994] – “ Complexity : Metaphors, Models and Reality” –


Santa Fe, NM : Perseus Books Publishing.

Creedy, John II, Vance L. [1994] – “Chaos and non-linear models in economics : theory and
applications” Edward Elgar Publishing Company.

Day, Richard. [1999] – “Complex Economic Dynamics, Volume II : An Introduction to


Macroeconomic Dynamics” – Massachusets Institute of Technology.

Day, Richard & Pianigiani, Guilio. [1991] – “Statistical Dynamics and Economics” – Journal
of Economic Behaviour and Organization, 16, pp. 37-83.
265

Dechert, W. Davis. (Editor) [1996] – Chaos Theory in Economics : methods, models and
evidence” – The International library of critical writings in economics : no 66. Published by
Edward Eglar Publishing Limited.

Dornbusch, R. & Fischer, S. [1994] – “Macroeconomics” – Sixth Edition, McGraw-Hill, Inc.

Durlauf, Steven [1997] – “Trying to understand the behaviour of this monster…” – Santa Fe
Institute Bulletin, Volume 12, Numero 1.

Engle,R. [1982] - “Autoregressive Conditional Heteroskedasticity with Estimates of the


Variance of U.K. Inflation”- Econometrica 50. pp. 987-1007.

Fama, Eugene F. [1963a] - “The Distribution of Changes of the Logarithm of Stock Prices” -
Ph.D. Dissertation, University of Chicago, 1963.

Fama, Eugene F. [1963b] - “Mandelbrot and the Stable Paretian Hypothesis”- Journal of

Business, Volume 36, no 4 (October, 1963). pp 420 - 429.

Fama, Eugene F. [1965] - “The Behavior of Stock Market Prices” - Journal of Bussines , 38.

Farmer, J. Doyne [1998] – “Market force, ecology and evolution” – Prediction Company, Santa
Fe, NM.

Frisch, R. [1933] – “Propagation and Impulse Problems in Dynamic Economics” – in Essays in


Honour of Gustav Cassel, London: Macmillan. pp. 197-198.

Geisst, Charles. [1997] – “Wall Street : A History” - New York, New York : Oxford University
Press.

Gleiser, I. & Fernandes, M. [1993] - “A Questão da Dinâmica de Preços de Ativos


Financeiros”- Rio de Janeiro, Brasil : Revista Brasileira de Economia, Vol 48 Abril/Junho 1994 –
Fundação Getulio Vargas.

Gleiser, Marcelo. [1997] – “A dança do universo : dos mitos da criação ao Big-Bang” – São
Paulo : Editora Schwarcz Ltda.
266

Grassberger, P. & I. Procaccia [1983] - “Characterization of Strange Atractors” - Phisical


Review Letters 50. pp. 346-349.

Goodwin, Richard. [1990] – “Chaotic Economic Dynamics” – New York, Oxford University
Press.

Harrod, Roy [1951] - “The Life of John Maynard Keynes” - Norton, England.

Heilbroner, R. [1953] – “A História do Pensamento Econômico” – São Paulo, Brasil : Nova


Cultural.

Heilbroner, R. & Milberg, W. [1995] – “The crisis of vision in modern economic thought” –
Cambridge University Press.

Holte, John (Editor) [1990] – “Chaos : the new science” – 26th Nobel Conference at Gustavus
Adolphus College : University Press of America.

Hodgson, G.M., [1993] – “Economics and Evolution : bringing life back into economics” - The
Univesity of Michigan Press, Michigan, pp.147.

Hurst, H.E. [1951] - “Long-term Storage of Reservoirs” - Transacions of the American Society
of Civil Engineers 116, 1951.

Invernizzi, S. & Medio, A. [1991] – “On Lags and Chaos in Economic Dynamic Models” –
Journal of Mathematical Economics, 20. pp. 521-50.

Jaditz, T. & C.L. Sayers [1992] - “Are Chaotic Attractors Generic in Economic Data?” -
mimeo, Bureau of Labor Statistics, Washington, DC & University of Houston, Houston, TX.

Jevons, W. Stanley. [1965] – “The Theory of Political Economy” – Quinta edição. New York :
Augustus M. Kelley.

Kauffman, Stuart [1995] – “At home in the universe : the search for the laws of self-
organization and complexity” – Oxford : Oxford University Press.
267

Kellert, Stephen H. [1993] – “In the wake of chaos : unpredictable order in dynamical systems”
– The University of Chicago Press.

Kendall, M.G. [1953] - “The Analysis of Economic Time Series, Part1: Prices” - Journal of the
Royal Statistical Society, no116, pp 11-25.

Kindelberger, Charles [1989] - “Manias, Panics and Crashes : A History of Financial Crises” –
Harper Collins Publishers

Krugman, Paul. [1996] – “The self organizing economy” – Malden, Massachusets : Blackwell
Publishers.

Lewin, Roger. [1992] – “Complexity : life at the edge of chaos” – The University of Chicago
Press.

Lorenz ,E.N. [1963] - “Deterministic Nonperiodic Flow” - Journal of Atmospheric Sciences 20.
pp.130-141.

Louçã, Francisco. [1997] - “Turbulence in Economics : an evolutionary appraisal of cycles and


complexity in historical processes” – UK : Edward Elgar.

Lucas, R.E. Jr [1978] – “Unemployment Policy” – American Economic Review, May.

Macedo e Silva, A.C. [1994] – “Uma introducao a Teoria Macroeconomica” (mimeo, pp 8-16) –
Instituto de Economia – UNICAMP.

Mandelbrot, B. & Wallis, J.R. [1969] - “Noah, Joseph, and Operational Hidrology.” Water
Resources Research 4 , pp.909-918.

Mandelbrot, Benoit B. [1963]- “The Variation of Certain Speculative Prices” - Journal of


Business 36, pp 394 - 419.

Mandelbrot, Benoit B. [1977] - “The Fractal Geometry of Nature” - Updated and Augmented
Edition. New York: W. H. Freeman and Company, 1983.
268

Mandelbrot, Benoit B. [1997] – “Fractals and scaling in finance : discontinuity, concentration,


risk” – Springer Verlag New York.

Marion, R. [1999] – “ The Edge of Organization : Chaos and Complexity Theories of Formal
Social Systems” Thousand Oaks, California : SAGE Publications, Inc.

Marshall, Alfred [1920] – “Principles of Economics”- London : Macmillan.

Minsky, H. [1975] – “John Maynard Keynes” – New York : Columbia University Press.

Moore, A.B. [1962] - “A Statistical Analysis of Common Stock Prices,” - Cootner, P.H., Editor,
The Random Character of Stock Market Prices, Cambridge: MIT Press, 1964. pp. 139-161.

Morgan, Mary [1990] – “The history of econometric ideas” – Cambridge : Cambridge


University Press.

Pascale, R. Millemann, M. Gioja, L. [2000] – “Surfing the Edge of Chaos : the laws of nature
and the new laws of business” – New York, New York : Crown Business Publishing Group.

Peters E. Edgar. [1991]- “Chaos and Order in the Capital Markets” - 1aEdição. New York: A
Wiley Finance Edition.

Peters E. Edgar. [1994] – “Fractal Market Analysis : applying chaos theory to investment and
economics” – New York : John Wiley & Sons, Inc.

Peters E. Edgar. [1999] – “Patterns in the dark : understanding risk and financial crisis with

complexity theory” - 1a Edição. New York: A Wiley Finance Edition.

Possas, M. [1987] – “A Dinamica da Economia Capitalista : uma abordagem teórica” – São


Paulo, Brasiliense.

Prechter, Robert Jr. [1994] – “R. N. Elliott’s Masterworks : The Definitive Collection” – New
Classics Library.

Pressman, Steve. [1999] – “Fifty major economists : a reference guide” – New York, NY :
Routledge.
269

Prigogine, Ilya [1996] – “The end of certainty : time, chaos, and the new laws of nature” – New
York, NY : The Free Press.

Ramsey, J.B., P. Rothman & C.L. Sayers.[1990] - “The Statistical Properties of Dimension
Calculations Using Small Data Sets: Some Economic Applications”. International Economic
Review 31 , pp. 991-1020.

Richter, Maurice N. [1982] – “Technology and Social Complexity” – State University of New
York Press.

Rothschild, Michael L. [1990] – “Bionomics : economy as ecosystem” – New York, New


York : Henry Holt and Company, Inc.

Scheinkman, J.A. [1990] – “Nonlinearities in Economic Dynamics” – Economic Journal, 100


(400), Conference, pp. 33-48.

Scheinkman, J.A. & B. LeBaron. [1989] - “Nonlinear Dynamics and Stocks Returns”. Journal
of Business 62 , pp. 311-37.

Schumpeter, Joseph [1939] – “Business Cycles”, pp. 181, New York: McGraw-Hill.

Schumpeter, Joseph [1942] – “Capitalism, Socialism and Democracy”, England : George Allen
and Uwin.

Schumpeter, Joseph [1997] – “The Theory of Economic Development” – Editora Nova


Cultural, São Paulo. Série Os Economistas. Título originalmente publicado em 1964 em Berlim,
Alemanha por Dunker & Humblot.

Shapiro, C. Varian, H. [1998] – “Information Rules : a strategic guide to the network


economy”. Boston, Massachusetts : Harvard Business School Press.

Sharpe,W.F. [1970] - “Portfolio Theory and Capital Markets”. New York: McGraw-Hill.

Skidelsky, R. [1992] – “John Maynard Keynes: The Economist as Saviour, 1920 – 1937” - New
York : Penguin Press, Volume II, pp. 539.
270

Smith, Adam. [1996] – “A Riqueza das Nações : Investigação sobre sua Natureza e suas
Causas” – Título originalmente publicado em 1776. São Paulo, Brasil : Editora Nova Cultural.
Série Os Economistas.

Snowdon, B. Howard, V. Wynarczyk. [1994] – “A modern guide to Macroeconomics : an


introduction to competing schools of thought” – Glos, UK : Edward Elgar Publishing Limited.

Soros, George. [1987] – “The Alchemy of Finance : reading the mind of the market” – John
Wiley & Sons, Inc.

Turner, A.L. & Weigel, E.J. [1990] - “An Analisys of Stock Market Volatility,” Russell
Research Commentaries, Frank Russell Co. Tacoma,WA.

Tvede, Lars [1997] – “Business cycles : the business cycle problem from John Law to chaos
theory” – Nederlands : Harwood Academic Publishers.

Von Neumann, John [1966] – “Theory of Self-Reproducing Automata” - Completed and edited
by Arthur Burks. Champaign-Urbana: University of Illinois Press.

Waldrop, Mitchell [1992] – “Complexity : the emerging science at the edge of order and chaos”
– New York, New York : Published by Simon & Schuster.

Williams, Bill [1995] – “Trading Chaos : applying expert techniques to maximize your prfits” –
John Willey & Sons, Inc.
271

Apêndice Matemático

Equilíbrio Geral Walrasiano

Vamos inicialmente descrever a ação das firmas e depois a dos consumidores

num contexto de equilíbrio walrasiano com produção, levando em consideração

a problemática da determinação simultânea dos preços e níveis de produção.

Comportamento das Firmas

Seja Yj o conjunto de possibilidades de produção da j-ésima firma. Cada plano de

produção é formalizado pelo vetor yi, com entradas negativas indicando os

"inputs" e entradas positivas indicando os "outputs". Portanto, se p é o vetor de

preços de vários bens, p yi é a quantidade de lucros associada com o plano de

produção yi. A firma j, por hipótese, escolhe o plano de produção factível yj*que

maximize os lucros.

Para garantir a existência de um plano de produção que maximize os lucros,

deve-se fazer a hipótese de que a disponibilidade de "inputs" para a produção

limita o conjunto de possibilidades de produção factíveis, ou seja, assume-se que

só exista um número finito de recursos primários e que impossível se produzir

algum bem sem que haja insumo para isso. Dado que existe tal escassez de

recursos limita-se o conjunto de vetores factíveis e só se considera uma parte

limitada dos possibilidades de produção originais.


272

Assim, Yj é fechado e limitado para j=1,...,m e Yj é estritamente convexo;

j=1,...,m.

Portanto, se Yj é fechado, limitado e estritamente convexo, a função demanda

da j-ésima firma é bem definida. Assumindo-se que o conjunto de possibilidades

de produção Y é fechado , limitado e estritamente convexo, a função de oferta

y(p) é bem definida e contínua.

Sob estas condições, o comportamento da oferta e demanda das firmas

individuais será bem definido e comportado. Dada qualquer firma j com conjunto

de possibilidade de produção Yj, denota-se a função oferta por yj(p). Se existirem

m firmas, a função de oferta agregada será y(p) = ∑j =1 y j ( p ) .


m

Pode-se considerar também o conjunto de possibilidade de produção agregado Y.

Este conjunto indica todos os vetores de "output" factíveis para a economia com

um todo e seria a soma dos conjuntos de possibilidade de produção individuais.

Deste modo, um plano de produção agregado y = ∑ yj

maximiza os lucros agregados py para y em Y se e somente se o plano de

produção yj de cada firma maximizar os seus lucros pyj , sobre todos os planos

de produção disponíveis em Yj.

Comportamento dos Consumidores


273

A Teoria da Produção de Walras introduz basicamente dois novos problemas ao

modelo da Teoria de trocas puras, quais sejam : oferta de trabalho e distribuição

de lucros. Na Teoria das Trocas Puras, o consumidor era dotado de uma cesta

inicial de bens W.Se o consumidor vendesse este vetor de commodities, ele

receberia uma renda pW.

Com a introdução do trabalho no modelo, tem-se uma nova possibilidade :

os consumidores irão ofertar diferentes quantidades de trabalho em função das

taxas de salário. Em relação a questão da distribuição de lucros, considero

importante mostrar uma evolução do modelo original de Walras, onde os

consumidores são os donos das firmas e devem dividir s lucros entre os

acionistas. Pode-se sumarizar esta relação como um conjunto Tij, onde Tij

representa a participação do consumidor i na firma j. Para qualquer firma,

∑ Tij = 1, portanto, a firma será completamente controlada por consumidores. A


i

um vetor de preços p, cada firma j vai escolher o plano de produção que garanta o

lucro potencial p yj(p). A renda total proveniente de lucros que um consumidor i

pode ter será ∑ j


T ij pyj ( p) . A restrição orçamentária do consumidor seria

então :

px i = pW i + ∑ j T ij pyj ( p)

Adicionando-se as funções de demanda dos consumidores, tem-se um função de

demanda
274

agregada X ( p) = ∑ ix i ( p) . O vetor de oferta agregada vem, quando de

adicionam as ofertas agregadas dos consumidores, que se denotam por

W = ∑i =Wi
n
1
e a oferta agregada das firmas por Y(p). Finalmente, define-se a

função excesso de demanda agregada por :

z(p) = X(p)-Y(p)-W

Pode-se então aplicar a Lei de Walras para uma economia com produção. Se z(p)

é definida

como da maneira acima, pz(p) = 0 para todo p.

pz ( p) = p −Y ( p) + X ( p) − W =
= p −∑j yj ( p ) +∑i x i ( p ) − ∑iW i

= −∑j pyj ( p ) + ∑i px i ( p ) − ∑i pW i

Usando-se a restrição orçamentária para o consumidor i :

pz ( p ) = − ∑ j pyj ( p ) + ∑ iW i + ∑ i ∑ j T ijpyj ( p) − ∑ i pW i
= − ∑ j pyj ( p ) + ∑ i T ij ∑ j pyj ( p)
= − ∑ j pyj ( p ) + ∑ j pyj ( p ) = 0

pois ∑i Tij = 1 para cada j.


275

A questão da existência do Equilíbrio Walrasiano envolvendo a produção dos

bens de

consumo pode ser uma extrapolação da prova de equilíbrio para economia de

pura troca, passando pelo Teorema do Ponto Fixo de Brower. Contudo, irei me

abster da pura demonstração matemática do Teorema para me concentrar em seu

entendimento econômico. Vale lembrar que para Walras, o Equilíbrio

envolvendo produção de bens de consumo corresponde ao segundo nível de sua

abordagem, não incluindo a produção de bens de capital e a moeda, sendo estes

tratados nos dois níveis posteriores.

Existência de uma Configuração de Equilíbrio

Se z(p) é a função contínua definida no simplex de preços que satisfaz a Lei de

Walras,

pode-se mostrar que existe um p* tal que z(p*)≤0. Como vimos, a continuidade

segue, se o conjunto de possibilidade de produção para cada firma for

estritamente convexo. Não é difícil de notar que somente se necessita que o

conjunto de possibilidades de produção seja convexo. Mesmo se as firmas

individuais possuírem tecnologias que apresentem pequenas concavidades, como

pequenas regiões de retornos crescentes de escala, as conseqüentes

descontinuidades serão "alisadas" no agregado.

Portanto, para que uma Configuração de Equilíbrio exista numa economia que

produza
276

bens de consumo, as seguintes hipóteses devem ser satisfeitas :

1. Os consumidores preferem mais à menos;

2. Para cada consumidor i, o conjunto {xi : xi preferível xi'} é fechado;

3. Cada consumidor possui um vetor de bens que representa sua dotação inicial;

4. Para cada consumidor i, se xi e xi' são duas cestas de consumo, então, dado que

xi é preferível a xi', txi+(1-t)xi' é preferível à xi', para 0<t<1;

5. Para cada firma j, 0 é elemento de Yj;

6. Yj é fechado e convexo para j=1...m;

7. Yj ∩(-Yj) = {0}, j = 1,...,m;

8. Yj ⊃ (-R+).

As hipótese de (1) a (4) são usadas para provar a continuidade das funções de

demanda dos consumidores. A hipótese (5) é usada para mostrar que as firmas

podem simplesmente não produzir, caso não seja interessante. A hipótese (6) é

para garantir a continuidade das funções de demanda das firmas. A (7) serve para

mostrar que não se pode pegar um "output" e usar como "input" e produzir os "

inputs" como "outputs", ou seja, mostra que o conjunto de alocações factíveis é

limitado. E finalmente a (8), mostra que um plano de produção que use todos os

bens como "inputs" é factível.

Neste momento, iremos apresentar a idéia de "non-substitutabilities" para tentar

com isto responder a segunda parte da questão.

Vamos assumir que existam n industrias produzindo os yi, i=1,..,n "outputs".


277

Cada industria produz somente um produto, não havendo a possibilidade de

produção conjunta. Só existe um "input" que não é produzido, qual seja, o

trabalho, denotado por y0. Os preços de cada um dos n+1 bens é denotado por

w0,w1,...,wn.

Como de costume, os preço de equilíbrio são determinados como preços

relativos. Assume-se que o trabalho é um "input" necessário para cada industria.

Portanto, em equilíbrio, w0>0, e pode ser escolhido como numerário, ou seja,

w0=1 por hipótese.

Assume-se também que a tecnologia apresenta retornos constantes de escala.

Isto implica que a função custo de cada firma pode ser escrita como

ci(w,yi)=ci(w)y, i=1,...,n. As funções ci(w) são interpretadas como o quanto custa

para produzir uma unidade de "output" ao preço w0.

Pode-se tirar daí que se existe um vetor de preços de equilíbrio para a economia,

este deve ser a solução para wi = ci(w) para i = 1,...,n. É importante lembrar que

w não depende das condições de demanda, ou seja, é independente das

preferências e dotações.

Como o vetor de preços de equilíbrio é independente das condições de demanda,

o nível de "output" de diferentes bens pode mudar, mas o método de produção

permanece constante.

O sistema de equilíbrio geral foi desenvolvido no final do século passado por

Leon Walras de forma matematicamente incompleta. Somente em 1953, Arrow e

Debreu deram uma formulação geral e rigorosa às economias Walrasianas,

provando um teorema de existência de equilíbrio para estas economias, utilizando


278

do teorema do ponto fixo de Kakutani. Como este teorema e o teorema do ponto

fixo de Brouwer só foram obtidos após a morte de Walras, pode-se entender as

limitações das exposições iniciais do equilíbrio geral.

Para que se compreenda o modelo de equilíbrio geral como um todo, começa-se

por estudar ocaso para uma economia de trocas puras, caso esse que será o tema

de nossa presente exposição. Suponha que se tenha n consumidores, cada qual

com uma cesta inicial contendo k bens. A cesta inicial do i-ésimo agente é

representada por um vetor Wi. Os agentes trocam os bens entre sí com o objetivo

de maximizar suas preferências.

No modelo de pura trocas o único agente econômico é o consumidor.

Cada consumidor pode ser descrito completamente por sua preferência, P (ou sua

função utilidade , ui) e sua dotação dos k bens, Wi. Cada consumidor deve agir

competitivamente, ou seja, tomar os preços como dados e independentes de suas

ações. O objetivo do consumidor é maximizar suas preferências.

O objeto básico da teoria do equilíbrio geral walrasiano é entender como os

bens são alocados entre os agentes econômicos. A cesta de consumo do agente i

será denotada por xi , sendo um vetor de k linhas que descreve quanto de cada

bem o indivíduo i consome. A quantidade do bem j que o indivíduo i consome

será denotada por xij. Uma alocação x = (x1, ... ,xn) é um conjunto de cestas de

consumo que descreve o que cada um dos n agentes possui. Uma alocação

factível é uma alocação que é possível. No caso da troca pura, esta é uma

∑x =∑
n n
alocação que usa todos os bens, ou seja, i =1
i W i . (Algumas vezes a
i =1

igualdade é substituída pela desigualdade ≤ ).


279

Como foi colocado, os agentes são price-takers. Imaginemos agora que existe um

vetor de preços de mercado p = (p1,...,pk), um preço para cada bem. Cada

consumidor toma esses preços como dado e escolhe a cesta mais preferível, ou

seja, cada consumidor i atua como se estivesse resolvendo o seguinte problema :

max ui ( x i )
s. a
px i = yi = pW i

A resposta a esse problema, xi( p, pWi), é a função de demanda do consumidor,

considerando-se que a renda do consumidor é entendida como o valor de sua

cesta inicial de bens, que por sua vez é parametrizada por p. Fica claro que para

determinado valor de p arbitrário, poderia ser impossível a realização total das

transações desejadas, pois a quantidade demandada, ∑ x ( p, pW ) ,pode


i
i i
ser

maior do que a quantidade ofertada, ∑i =W


n
i.
1

Eis que surge a grande questão : será que existe algum vetor de preços p* tal que

a oferta e a demanda sejam iguais em todos os mercados ? Em alguns momentos

pode ser demais exigir a igualdade entre oferta e demanda. Até porque, se alguns

bens são indesejáveis, numa situação de equilíbrio eles devem estar em excesso

de oferta. Portanto, geralmente se define o equilíbrio walrasiano como sendo o

par (p*, x*) tal que

∑ x *= ∑
i
i
i
x i ( p*, p *W i ) ≤ ∑ iW i
280

ou seja, p* é um equilíbrio walrasiano se não houver nenhum bem para o qual

exista excesso de demanda. O próprio Walras só define o equilíbrio para

situações onde ao invés da desigualdade tem-se a igualdade entre oferta e

demanda.

Vejamos agora alguns fatos acerca da existência do equilíbrio geral. Em primeiro

lugar, a restrição orçamentária Bi fica inalterada se multiplicarmos todos os

preços por uma constante positiva, consequentemente, a função de demanda de

cada consumidor é homogênea de grau zero em preços. Como o somatório de

funções homogêneas é homogênea, a função de excesso de demanda agregada é :

z ( p ) = ∑i x i ( p , pW i ) − ∑iW i

que também é homogênea de grau zero em preços. Se a função de demanda de

todos os indivíduos for contínua, então z será uma função contínua.

Como a função de excesso de demanda agregada é homogênea, normaliza-se

preços e escreve-se as demandas em termos de preços relativos. Uma forma

conveniente de se fazer isso é substituindo cada preço absoluto p'i por um preço


k
normalizado pi = p ' i j =1
p ' j . Isso tem como conseqüência que os preços

relativos pi devem sempre somar um. Portanto, podemos restringir nossa atenção

a vetores de preço pertencentes ao simplex de unidade dimensional k-1 :

={ p ∈R +: ∑
k −1 k k
S i =1
pi =1}
281

Podemos agora estabelecer a Lei de Walras, que vem a ser um importante

resultado acerca da função excesso de demanda :

, tem-se pz ( p ) = 0 , ou seja, o
k −1
LEI DE WALRAS - Para qualquer p em S
valor do excesso de demanda é zero. Para provar isso vejamos :

pz ( p ) = p ( ∑i x i ( p , pW i ) − ∑iW i ) = ∑i ( px i ( p , pW i ) − pW i ) = 0 como

x i ( p , pW i ) deve estar na restrição orçamentária do i-ésimo agente

K
B i = {x ∈ R : px = pW i} .

Temos então que se todos os bens da economia são desejáveis e p* é um

equilíbrio walrasiano, z ( p*) = 0 , ou seja, temos um equilíbrio essencial de troca.

Caso um dos bens não fosse desejável, e se estivesse tratando com uma economia

de dois bens, não haveriam transações. Para Arrow-Debreu, este seria um

equilíbrio de troca, já para Walras, esta não seria uma troca de equilíbrio pois não

houve efetivamente nenhuma mercadoria trocada.

Em suma : em geral, o que se requer para o equilíbrio é que não haja excesso de

demanda para nenhum bem. Mas como vimos, se algum bem está em excesso de

oferta, no equilíbrio seu preço deve ser zero. Portanto, se cada bem é desejável de

forma que um preço zero implique excesso de demanda, então o equilíbrio será

de fato caracterizado pela igualdade entre oferta e demanda em todos os

mercados. Além disso, a prova básica de existência do equilíbrio geral passa pela

demonstração do teorema do ponto fixo de Brouwer, que está além do escopo

deste trabalho.
282
283

A questão das Expectativas em Keynes

As expectativas de curto prazo são um dos componentes das curvas de oferta

desejada (Rd) e demanda esperada (Re) na medida em que influenciam o

comportamento dos lucros desejados e esperados, seja devido a variações

imprevistas nos custos ou mudanças futuras nas relações de concorrência , fatores

estes que alterariam a receita desejada para um dado nível de produção, ou, no

caso da demanda esperada, o fato de o capitalista não decidir quanto receber,

criando incertezas em relação ao nível de receita esperada. O ponto onde se dá o

cruzamento entre as curvas de oferta desejada e demanda esperada é o ponto de

operação ou ponto de demanda efetiva, que para Keynes (e só para ele) é ex-ante.

Qualquer variação em torno deste ponto, ou seja, desajustes entre oferta e

demanda no período curto, podem se refletir em alterações nos preços ou

estoques, dependendo se o mercado em questão opera com fix ou flex-prices,

como veremos depois.

A função de oferta desejada pode ser escrita da seguinte maneira :

Rd = CT + Ld, onde

Rd = Receita desejada

CT = CF + CV = Custo total = Custo Fixo + Custo Variável

Ld = rd * Kt = Lucro desejado

rd = taxa interna de retorno de longo prazo ou taxa de lucro desejada


284

Kt = Capital total

q* = quantidade produzida

Observamos que para cada nível de produção temos uma receita. Subtraindo-se

desta receita os custos totais, temos o lucro desejado, que é a quantia que

assegura a valorização mínima desejada do capital aplicado. Contudo, para que o

capitalista decida a quantidade q* a ser produzida em dado período curto é

necessário que haja uma função de demanda esperada que reflita, como

mencionamos, o estado das expectativas quanto as condições de mercado

correntes. Esta função de demanda esperada pode ser escrita da seguinte forma :

Re = CT + Le , onde :

Re = Receita esperada

Le = Lucro esperado
285

Rd,Re,CT

Rd
B A Re

CT

q*
qB qA
Gráfico 1 : O Ponto de Produção

rd,re

B
A rd

re

q*
qB qA
Gráfico 2 : As taxas de lucro

O ponto A nos gráficos 1 e 2 é o Ponto de Operação. Nele, as funções de oferta e

demanda se interceptam, ou seja, a receita esperada iguala a receita desejada e a

taxa de lucro desejada iguala a taxa de lucro esperada. Vale lembrar que o ponto

de operação é um ponto ex-ante, o que implica que ele somente ocorrerá caso as

expectativas do capitalista quanto à demanda efetiva sejam confirmadas após o

término do período curto. Neste momento, os resultados, expressos na receita de

vendas, serão confrontados com as expectativas de curto prazo que levaram o

capitalista decidir produzir uma dada quantidade qA. A receita de vendas pode

ser expressa como :

R = p*q , onde

p = preço de mercado efetivamente verificado, e

q = quantidade vendida
286

são valores ex-post.

Neste momento, as expectativas de curto prazo podem ser "frustradas" pois o

lucro esperado pode diferir , para mais ou para menos, do lucro realizado. No

primeiro caso teríamos frustração positiva de expectativas e no segundo,

obviamente, negativa. Isto pode ocorrer, como vimos, devido principalmente ao

comportamento volátil da demanda efetiva ou a uma variação de um dos itens de

custo (pelo lado da oferta).

RE,R B
F

D
Re=Rd A

E
C
G

qA q*

Gráfico 3 : Confronto entre expectativas e resultados

No Gráfico 3 podemos ver o ajustamento entre o lucro efetivo e o realizado no

período de mercado, devido ao desequilíbrio entre oferta e demanda. Este

ajustamento pode ocorrer via preços ou via quantidades. Podemos entender o

gráfico como três grupos de possibilidade, quais sejam : o resultado previsto pode

ser igual ao realizado (caso 1), resultado acima do previsto (caso 2) e resultado

abaixo do previsto (caso 3). O primeiro caso ocorre no ponto A. Neste ponto

temos que a receita efetiva iguala à receita esperada e a desejada, a renda efetiva

iguala à renda esperada, o lucro efetivo iguala o lucro esperado e o desejado, a

quantidade vendida iguala a ofertada e o preço iguala o preço desejado. Não há


287

frustração de expectativas. O segundo caso ocorre nos pontos B,D e F. Aqui

temos uma frustração positiva de expectativas, acarretando um lucro maior do

que o esperado, sendo que a maneira com que ocorre o ajustamento entre oferta e

demanda pode ser via preços ou estoques, dependendo do ponto. No ponto B, o

lucro maior que o esperado ocorre em função do preço efetivo ter sido maior que

o preço esperado, sendo este um mercado onde se praticam flex-prices , e a

produção foi totalmente demandada não havendo formação involuntária de

estoques. Já nos pontos D e F, o lucro efetivo maior do que o esperado ocorre

devido ao fato de ter sido efetivamente vendida uma quantidade de mercadorias

maior do que a produzida no período de produção pertencente ao período curto

em questão. Pressupõe-se para isto que hajam estoques de produtos acabados que

não foram demandados em períodos anteriores. A diferença entre o ponto D e o F

é função dos preços. No ponto D, o preço efetivo é igual ao preço esperado e no

ponto F o preço efetivo é maior do que o esperado. Por isso notamos que o lucro

alcançado no ponto F é o maior de todos, uma vez que preço e quantidade

superaram positivamente as expectativas, sendo este o melhor dos mundos. O

terceiro caso ocorre nos pontos C,E e G. Aqui temos uma frustração negativa de

expectativas, acarretando um lucro menor do que o esperado, sendo que a

maneira com que ocorre o ajustamento entre oferta e demanda pode ser via

preços ou estoques, dependendo do ponto. No ponto C, o lucro menor que o

esperado ocorre em função do preço efetivo ter sido menor que o preço esperado,

sendo este um mercado onde se praticam flex-prices , e a produção foi totalmente

demandada não havendo formação involuntária de estoques. Já nos pontos D e F,

o lucro efetivo menor do que o esperado ocorre devido ao fato de ter sido
288

efetivamente vendida uma quantidade de mercadorias menor do que a produzida

no período de produção pertencente ao período curto em questão. Neste caso há

formação involuntária de estoques. A diferença entre o ponto E e o G é função

dos preços. No ponto E, o preço efetivo é igual ao preço esperado e no ponto G o

preço efetivo é menor do que o esperado. Por isso notamos que o lucro alcançado

no ponto G é o menor de todos, uma vez que preço e quantidade frustraram

negativamente as expectativas, sendo este o pior dos mundos.

Um conceito útil para entendermos o processo de ajuste é a elasticidade-preço da

oferta (eS). Quanto menor a elasticidade-preço da oferta, mais inclinada será a

curva de oferta no período de mercado. Uma curva de oferta vertical (eS = 0)

significa que o capitalista está disposto a vender a qualquer preço pois variações

neste não alteram a quantidade vendida. É uma decisão calcada na quantidade e

não no preço. Uma curva de oferta horizontal (eS = ∞ ) significa que o capitalista

está disposto a vender a qualquer quantidade a um dado preço. É uma decisão

calcada no preço e não na quantidade. Situações intermediárias - elasticidade

finita positiva - correspondem a curvas de oferta positivamente inclinadas.

Portanto, em razão do que foi visto, pode-se pensar que a frustração de

expectativas desempenha o papel principal na determinação do emprego para a

teoria keynesiana. Para Kregel (1980),contudo, Keynes atribui papel secundário

às expectativas. A tática utilizada por Keynes foi manter o estado de expectativas

de longo prazo constante, mas, introduzir ocasionalmente os efeitos de

desapontamentos nas expectativas de curto prazo. Assim não seria preciso supor

um mundo com perfeita informação e portanto sem incerteza. Porém, Keynes

achou que sua tática foi insatisfatória para colocar as expectativas em uma
289

posição secundária em sua teoria e nas cartas à Ohlin (1937) lê-se : "se eu

estivesse escrevendo o livro novamente começaria assumindo que as

expectativas de curto-prazo sempre são realizadas; depois, no capitulo seguinte

mostraria as diferencas para situações onde as expectativas não são realizadas.

(C.W.XIV,p.181)". , o que ocorre de fato para Kregel é que Keynes possuía em

mente três distintos modelos, diferenciados pelo estado de expectativas, sendo

um modelo de equilíbrio estático, um de equilíbrio estacionário e um de

equilíbrio variante como mostra a tabela 1 :

Expectativas de Expectativas de Interseção entre (a) e


Longo prazo (a) curto prazo (b) (b)
Modelo estático Constantes em um Realizadas Independente
dado nível
Modelo estacionário Constantes em um podem ser frustradas Independente
dado nível
Modelo variante variando no tempo Frustradas Interdependente

Pode-se pensar então que foi o modelo puramente estático, que excluía as

variações expectacionais, que Keynes preferiu utilizar para demonstrar que o

desemprego não era um fenômeno de desequilíbrio de curto prazo e portanto não

era função dos erros provenientes de expectativas frustradas dos capitalistas e que

portanto, teoricamente, o sistema poderia repousar em equilíbrio a quase qualquer

nível de emprego entre zero e pleno emprego, ou seja, o pleno emprego seria um

nível de emprego como outro qualquer e que na terminologia da Teoria do Caos

não representaria necessariamente um atrator.

De fato, na minha leitura da Teoria Geral o nível de pleno emprego é um nível de

emprego como outro qualquer mas que diferentemente de Kregel, depende

fundamentalmente do estado das expectativas de longo prazo na medida em que


290

estas são diretamente responsáveis pela decisão de gasto e consequentemente de

emprego. Não que o investimento seja a variável de maior importância em função

de sua magnitude, pois o consumo é maior, mas devido ao seu grau de

volatilidade associado a tomada de decisões na presença de incerteza. Deste

modo, a frustração ou não das expectativas de curto prazo teriam papel

secundário uma vez que seriam as expectativas de longo prazo um dos fatores

responsáveis pela decisão de investir e portanto a hipótese adotada por Keynes

em diferentes momentos de que as expectativas de curto prazo sempre se

realizam seria compatível com o Princípio da Demanda Efetiva.

A PRECIFICAÇÃO DE ATIVOS PARA KEYNES

A Teoria de Composição de Portfólio para Keynes aparece como função da

necessidade do cálculo capitalista para a especificação dos determinantes do

investimento, sendo este um caso particular na Teoria da Aplicação do Capital

que é elaborada no contexto da determinação da renda agregada.

A avaliação da rentabilidade de uma aplicação resulta de uma comparação

entre os retornos esperados e o poder de compra que deve ser temporariamente

imobilizado sob a forma específica do ativo adquirido, uma vez que o lucro

cresce no futuro e incorre-se no custo no presente.

A NOÇÃO DE VALOR PRESENTE


291

Esta comparação pode ser feita com o uso da taxa de liquidez do agente, que

representa uma taxa mínima de remuneração aceitável. O agente sempre preferirá

a liquidez garantida pelo dinheiro a uma aplicação cuja rentabilidade esperada

seja inferior à taxa de liquidez. Neste caso, o preço de demanda de um ativo

eqüivale a somatória dos valores presentes dos rendimentos futuros e é obtido

mediante a comparação destes rendimentos com as vantagenes derivadas da

posse do dinheiro.

Em uma formulação genérica (porém simplificada), o preço de demanda pode ser

calculado como :

(Q − C + L)i
Pd = ∑i =1
n
,
(1 + ja ) i

onde :

Q - "quase-renda" do ativo produtivo + rendimentos (dividendos) dos ativos

financeiros;

C - custo de manutenção do ativo, inclui o custo financeiro;

L - prêmio de liquidez.;

n - período de realização do ativo;

a - apreciação do preço do ativo;

ja - taxa de liquidez do aplicador;

( Q − C + L ) i = Fi - retornos totais (esperados e/ou contratados) do ativo no

período i;

ja = ka * j
292

ka - prêmio de risco , * 1;

j - prêmio de liquidez do dinheiro;

O preço de oferta de um ativo corresponde ao valor mínimo que seu possuidor

considera necessário para desfazer-se dele. Para que ocorra uma transação, é

necessário que o preço de mercado (Pm, aquele que o ativo é efetivamente

transacionado) esteja contido no intervalo entre o preço de oferta - determinado

pelo vendedor - e o preço de demanda - determinado pelo comprador do ativo, ou

seja, o critério para o investimento é que Pa * Pm * Po. Caso o Pd seja menor que

o Po, é mais vantajoso que o possuidor do ativo não o venda.

Pd,Po
Pd
Lim ite para o investim ento

Po

Xa X

A NOÇÃO DE EFICIÊNCIA MARGINAL DOS ATIVOS PARA KEYNES

Uma outra maneira de se calcular a rentabilidade esperada de uma ativo é via sua

eficiência marginal (Rm). Dados o preço de mercado (esperado ou efetivo) e o

fluxo esperado Fi, Rm é calculada da seguinte forma :

(Q − C + L)i
Pm = ∑ i =1
n

(1 + R m) i
293

A definição de Macedo e Silva61 difere um pouco da de Keynes e é a seguinte : "a

eficiência marginal do capital é a taxa de desconto que torna a somatória das

valores presentes dos fluxos F igual ao preço de mercado do ativo ". A

comparação entre Rm e ja fornece uma medida da rentabilidade do primeiro em

relação a rentabilidade do dinheiro. Podemos extrair as seguintes relações :

Quantidade demandada (Xd) > 0 * Pd * Pm * ja * Rm

Para que a quantidade demandada seja positiva, o preço de demanda deve superar

o preço de mercado (e de oferta), fato este que ocorre se e somente se a eficiência

marginal do capital superar a taxa de liquidez que desconta o fluxo Fi. Vale

lembrar que a recíproca é verdadeira. O cálculo da eficiência marginal deve

também incorporar a taxa de risco e incerteza (Tm), que deve descontar cada um

dos fluxos Fi pela taxa correspondente no período i. Um aumento da taxa de risco

e incerteza implica na redução da eficiência marginal de um ativo e o preço de

mercado pode ser rescrito na forma :

( Q − C + L)i
Pm = ∑ i =1
n

ti (1 + R m) i

Os critérios a serem avaliados por um investidor antes de incorporar um ativo

ao seu portfólio são portanto a relação entre preço de demanda e preço de

mercado por um lado, e por outro lado a estrutura das eficiências marginais.

61
Macedo e Silva, A.C. [1994] – “Uma introducao a Teoria Macroeconomica” (mimeo, pp 8-16) – Instituto de Economia –
UNICAMP.
294

Neste contexto, é importante lembrar o "princípio da rentabilidade esperada

decrescente dos ativos", como define Possas62 (1987) :

"A lucratividade esperada de cada unidade de um ativo está inversamente

relacionada à participação desse ativo no portfólio do agente : o preço de

demanda e a eficiência atribuídos pelo agente ao ativo decrescem a cada

unidade adicional cogitada. A somatória dos fluxos F atribuídos a cada

unidade de um ativo, descontada pela taxa de risco e incerteza, cresce a

taxas decrescentes com o aumento do número de unidades".

Outro fator que influencia negativamente para a rentabilidade esperada de um

ativo é a sua perda de liquidez para maiores quantidades do ativo. Isto porque o

conceito de liquidez vigente implica em negociabilidade sem perdas, ou seja, em

relação ao preço de mercado. O ativo não é líquido por ser reserva de valor mas

pela sua realização no mercado secundário.

A função que relaciona eficiência marginal e quantidade do ativo pode ser

denominada escala da eficiência marginal do ativo, como afirma Macedo e Silva,

que a partir deste conceito apresenta um gráfico de composição do portfólio.

Rm Rm Rm

a1 A B
a1 a1 b1 b2 b3 c C
ativo a ativo b ativo c
62
Possas, M. [1987] – “A Dinamica da Economia Capitalista : uma abordagem teórica” – São Paulo, Brasiliense.
295

Estes gráficos reproduzem a escala da eficiência marginal de três ativos,

conforme as expectativas de um capitalista. No eixo vertical tem-se a eficiência

marginal do ativo, e no horizontal o volume total aplicado, em valor monetário. O

primeiro gráfico mostra um ativo que perde sua eficiência marginal rapidamente

conforme novas unidades deste ativo são adquiridas, sendo a eficiência da

terceira unidade próxima a zero, mas que mantém o preço de mercado constante

(isto pode ser visto pela constância do tamanho dos segmentos). O segundo

gráfico mostra um ativo que tem seu preço de mercado esperado crescente

conforme a sua demanda aumenta. A queda no fluxo F aliada ao aumento no

preço de mercado esperado determina a queda da eficiência marginal do ativo.

No terceiro gráfico, o valor reduzido do preço do ativo permite traçar uma curva

contínua. Deste modo, tomando-se estes três ativos como exemplo, a ordem de

preferência das aplicações seria : uma unidade de A, três de B, novamente uma

de A, o número de unidades de C corresponde ao valor aplicado "c", e assim por

diante.

Podemos afirmar que o ativo fixo possui Q, C, mas não possui L.

O ativo circulante possui Q, C e L. O ativo financeiro possui Q (dividendos), C

(que é baixo) e L (que é alta). O C só inclui o custo de oportunidade se os

recursos forem próprios, se forem de terceiros, deve-se considerar os juros

efetivamente pagos. Para Minsky (1975), financia-se o total do ativo com o total

do passivo, sendo que a parcela líquida do passivo financia a parcela não líquida

e líquida do ativo. Ao compor seu portfólio, o agente levará em consideração a

possibilidade de alavancagem, ou seja, a aquisição de ativos num valor superior


296

ao seu capital próprio, por meio de endividamento. Isto ocorrerá na medida em

que o excesso de retorno desses ativos sobre os juros possibilitar uma elevação da

taxa de lucro sobre o capital próprio, pois o objetivo do agente é obter a

combinação de ativos e passivos que maximize o lucro esperado. Vale lembrar

que quanto maior for a proporção do passivo sobre o ativo, maior será a

fragilidade do portfólio. Portanto, um investidor racional montará um portfólio

onde Rm será igual para todos os ativos, sendo a taxa de juros de mercado um

patamar para as Rm desses ativos.


297

IS-LM

A curva IS representa as posições de equilíbrio no mercado de bens. IS significa

que no mercado de bens, (I) Investimento é igual a Poupança (S, do inglês

Savings). A curva IS negativamente inclinada mostra que dada uma queda na

taxa de juro, a produção deve aumentar, para equilibrar o mercado de bens. Isto

porque com taxa de juro mais baixa, o investimento aumenta e a poupança

diminui. Para aumentar a poupança para que esta seja igual ao investimento, é

necessário que a economia produza mais bens, empregos e renda.

A curva LM mostra as possíveis posições de equilíbrio no mercado monetário.

LM significa que no mercado monetário a demanda por moeda (L) deve ser igual

a oferta de moeda (M). A curva LM é positivamente inclinada e mostra que se a

taxa de juro subir, a economia deve se expandir para que haja equilíbrio no

mercado monetário. Isto porque uma taxa de juro mais alta diminui a demanda

por moeda, pois as pessoas preferem comprar títulos que pagem estas taxas de

juro mais altas. Contudo, se a economia crescer, as pessoas irão demandar mais

dinheiro, pois precisarão deste para comprar mais bens. Com mais bens

produzidos, maior a demanda por moeda, que será igual a sua oferta.

O equilíbrio simultâneo se da no ponto de interseção entre as duas curvas (IS e

LM). A economia toda se move em direção a um atrator.

Hicks depois mostrou como diferenças entre os economistas keynesianos e os

economistas Clássicos apareciam, assumindo certas hipóteses para as duas

curvas. Se a curva LM fosse flat, ao invés de inclinada, Política fiscal seria

necessária para a expansão do emprego e estaríamos vivendo em um mundo

descrito pelos economistas Keynesianos. Se a curva IS fosse flat, Política


298

monetária seria necessária para expandir o emprego e estaríamos vivendo em um

mundo descrito por economistas Clássicos.

ECONOMETRIA : É o conjunto de técnicas matemáticas utilizadas pelos

economistas para estimar a relação quantitativa entre duas ou mais variáveis. Por

exemplo, estudando as relações históricas entre taxas de juros e poupança, os

economistas podem estimar quão mais as pessoas irão poupar dado um aumento

na taxa de juro. Colocando a taxa de juro no eixo-x e a poupança no eixo-y,

podemos construir um gráfico bidimensional da relação destas variáveis.

. ..
. . ..
Poupança

. .
... .. .

Taxa de Juro

Cada ponto do gráfico representa a taxa de Poupança (a quantidade poupança em

relação a renda disponível) e a taxa de juro em um ano qualquer. A analise de

Regressão Linear é uma técnica estatística que permite aos economistas encontrar

a melhor linha que represente a relação entre poupança e taxa de juro, sendo a

“melhor” aquela linha que minimize a diferença entre os pontos individuais e a

própria linha, de forma tal que o conjunto de pontos fique o mais próximo

possível da linha. Matematicamente, a analise de Regressão permite ao

economista achar esta linha na forma de uma equação, tal como y = a + bx,

onde a é o intercepto com o eixo y e b é a inclinação da linha, ou o coeficiente da

Regressão. O coeficiente da Regressão mede quanto varia y dada a variação


299

unitária em x, ou quão mais as pessoas pouparão para um aumento de um

unidade de taxa de juro.

EXPECTATIVAS RACIONAIS

Usando o exemplo da expectativa dos agentes em relação a performance da ação

de uma empresa em bolsa, a HER pode ser expressa algébricamente da seguinte

forma :

P
e
t
=E (P /I )
t t −1

onde o lado esquerdo da equação representa o retorno esperado da ação de t `a t

+1 e o lado direito representa o retorno esperado da ação condicional a

informação disponível para os agentes econômicos no período t-1.


300

TESTES ESTATÍSTICOS PARA A VERIFICAÇÃO EMPÍRICA DE CAOS

DETERMINÍSTICO

Dentre estes testes podemos citar:

• Entropia de Kolmogorov: estabelece a sensibilidade da dependência às

condições iniciais, através da mensuração da velocidade pela qual a trajetória de

dois pontos inicialmente muito próximos no espaço de fase divergem até que se

tornem distinguíveis um do outro. Para se comprovar a presença do caos

determinístico a entropia de Kolmogorov deve ser diferente de zero,

representando a existência de um distanciamento dos dois pontos considerados.

• Expoente Máximo Estimado de Lyapunov [Brock, 1986]: mede a dinâmica de

um atrator*. Sendo positivo também busca medir o grau de dependência às

condições iniciais, mensurando a distância entre dois pontos inicialmente muito

próximos ao longo do tempo, ou seja, a perda da habilidade preditiva ao longo do

tempo.

• Box-Counting Dimension: busca medir a dimensão do atrator, de modo a

verificar se esta é ou não fractal. Para tal, utiliza-se a seguinte fórmula, onde d é a

dimensão e N(e) é o número mínimo de quadrados de lado e necessários para

preencher o atrator:

d = lim ln N(e)
ln (1/e)
e→∞
301

• Correlação de Dimensão [Grassberger & Procaccia, 1983]: é uma estimativa

da dimensão fractal que (1) mede a probabilidade de que dois pontos escolhidos

aleatoriamente estarão a uma certa distância um do outro e (2) examina como esta

probabilidade muda, dado que houve um incremento da distância entre os pontos.

• Estatística BDS [Brock, Dechert & Scheinkman, 1987]: desenvolve um teste

geral para dependência da série de dados sobre a hipótese de que os dados são

independentes e identicamente distribuídos (IID). Deste modo, testa tanto a não-

linearidade, como a autocorrelação serial.

• Teste Residual [Brock, 1986]: para se confirmar a presença de caos

determinístico na série, deve-se estimar a mesma Entropia de Kolmogorov e a

mesma dimensão da série temporal para os resíduos de uma filtração por método

linear.

• Shuffle Diagnostic [Scheinkman & LeBaron, 1989]: teste de significância,

onde se mistura os dados observados, de modo a torná-los teoricamente IID, e se

refaz os demais testes de evidenciação para estas novas séries. As séries

construídas aleatoriamente devem ter resultados bem distintos dos dados brutos

(iniciais) para que se comprove a presença de um determinado grau de

dependência nos dados brutos.

Expoente de Hurst (H) [Hurst, 1951]: é uma medida do viés do movimento

browniano fractal. Quando H = 0,5 temos um movimento browniano . Quando H

pertence ao intervalo aberto em 0,5 e fechado em 1, temos uma série persistente e

quando H pertence ao intervalo fechado em 0 e aberto em 0,5 temos uma série


302

anti-persistente. O inverso do Expoente de Hurst é o alpha, o expoente

característico para as distribuições Pareto Estáveis.

Jaditz & Sayers (1992) destacam a importância da filtração dos dados, uma vez

que esta evita as relações espúrias de dependência, principalmente se a série se

caracterizar por alto grau de volatilidade (Volatility Clustering). Para tal utiliza-se

modelos do tipo ARCH (Autoregressive Conditional Heteroskedasticity) ou

GARCH (Generalized - ARCH) e se analisa seus resíduos em busca de

dependências adicionais. Brock, Hsieh & LeBaron (1991) reportam que séries

temporais geradas por processos caóticos exibem dependência mesmo após a

aplicação de filtros de modelos tipo ARCH. O procedimento de filtragem pode

ser interpretado como um teste de especificação com o modelo ARCH (ou

GARCH) como hipótese nula. Sendo assim, se a hipótese nula for rejeitada, isto

é, os resíduos do modelo não apresentarem um caráter IID, demonstra-se o

padrão caótico da série temporal considerada.


303

A vida e obra de Harold E. Hurst (1880-1978)

Hurst foi um hidrólogo que trabalhou no projeto de construção de uma represa

para o Rio Nilo, chegando à região por volta de 1907 e permanecendo por lá

durante 40 anos. Seu problema consistia na política de fluxos a ser adotada, de

modo que a represa não transbordasse nem ficasse muito vazia. Na construção

deste tipo de modelo era comum assumir que o fluxo de águas da chuva, parte

essencial do sistema, seguia um passeio ao acaso, na medida em que a ecologia

da região do Nilo era um sistema com muitos graus de liberdade. Hurst resolveu

testar a hipótese de que o regime de chuvas seguia um tal processo e criou assim

uma nova estatística, o expoente de Hurst (H), que servia para distinguir uma

série aleatória de uma não aleatória, mesmo que a série aleatória fosse não

Gaussiana. Hurst descobriu que a maioria dos fenômenos naturais, tais como o

fluxo dos rios, o regime de chuvas e a temperatura, seguiam um passeio ao acaso

viesado, ou seja, uma tendência com ruído. A força da tendência e o nível do

ruído poderiam ser mensurados pelo valor da estatística H. Peters adaptou o

estudo de Hurst para o uso em fenômenos econômicos e séries temporais do

mercado de capitais e verificou que estas séries também possuíam

comportamento viesado. Ao fazer isso, Peters precisou definir limites que seriam

comparáveis com as flutuações da represa. Começou com a série temporal

existente eu, com T observações, que é dividida, sucessivamente, em segmentos

de N observações. Seja para o i-ésimo segmento de N observações as

estatísticas :
304

Xt,N = σ( eu - MN )

( 1.1 )

u=1

onde Xt,N = desvio acumulado nas t primeiras observações do i-ésimo segmento

eu = fluxo no instante u, onde u é um instante do i-ésimo segmento

MN = MÉDIA DE EU NOS N INSTANTES DO I-ÉSIMO SEGMENTO

O limite seria a diferença entre os níveis máximo e mínimo atingidos em (1.1) no

i-ésimo segmento:

R = Maxt ( Xt,N ) - Mint ( Xt,N ) ( 1.2 )

onde

R = amplitude dos valores de Xt,N

Max (X) = valor máximo de Xt,N

Min (X) = valor mínimo de Xt,N

De modo a poder comparar diferentes tipos de séries temporais, Hurst dividiu

este limite R pelo desvio padrão das observações originais (S) no segmento, de
305

forma a padronizar esta medida no tempo. Este tipo de análise reescalonada ficou

conhecida como Análise R\S e pode ser formulada da seguinte maneira:

R\S = (a*N)h ( 1.3 )

onde R\S = média dos limites reescalonados em cada segmento

N = número de observações em cada segmento

a = constante

H = expoente de Hurst

Quando H é igual a 0,5 a série é um passeio ao acaso e as observações são

independentes. Quando H difere de 0,5 as observações não são independentes e

contém uma memória dos eventos que a precederam. Este não é o tipo de

memória de curto prazo ( markoviana ) e sim uma memória de longo prazo, onde

eventos presentes influenciam eventos futuros distantes . Em outras palavras,

sistemas que exibem H diferente de 0,5 são resultado de uma longa corrente de

eventos interconectos . É o que nos termos de Sistemas Dinâmicos Não-Lineares

chama-se efeito borboleta, pois o suave vôo de uma borboleta no Brasil poderia

influenciar uma terrível avalanche de neve no Alasca. O impacto do presente no

futuro pode ser expresso da seguinte maneira :

C = 2(2H-1)-1 (1.4)

onde C = medida de correlação

H = expoente de Hurst
306

Quando temos valores de H variando entre 0,5 e 1 ( 0,5< H <1 ), intervalo este

mais comum para séries temporais retiradas do mercado financeiro, encontramos

comportamento persistente e com tendência. Se a série subiu (desceu) no período

passado, há chance dela continuar subindo (descendo) no próximo período. A

força do comportamento tendencioso, ou persistente, é função direta do valor de

H, ou seja, quanto mais próximo de 1 ou 100% de correlação na equação (1.4),

mais forte será a tendência . Séries persistentes significam movimento browniano

fractal, ou, passeios aleatórios viesados. Estas séries têm como característica a

correlação entre eventos em escalas de tempo diferentes. Neste caso, a

probabilidade de dois eventos consecutivos ocorrerem é descrita pelo expoente de

Hurst. Se H = 0.6 , então existe 60% de probabilidade de que se o evento anterior

foi positivo, o próximo evento também será. Mandelbrot (1977) mostrou que o

inverso de H é a dimensão fractal. Um passeio ao acaso , com H = 0.5 tem

dimensão fractal igual a 2. Se H = 0.7, a dimensão fractal será 1/0.7 ou 1.43. Vale

lembrar que o passeio ao acaso é realmente bidimensional e completa o espaço no

plano. Uma série temporal fractal é o que separa uma série puramente aleatória de

um sistema determinístico perturbado por eventos aleatórios.

Para estimar o expoente de Hurst usamos o log da equação (1.3) que fica :

log(R/S) = H*log(N) + log(a) (1.5)

Vale lembrar que esta estimativa de H não sugere nada sobre a distribuição, ou

seja, achar H = 0.5 não significa um passeio ao acaso Gaussiano ; nos prova
307

apenas se há ou não um processo de longa memória. Em outras palavras,

qualquer sistema independente, Gaussiano ou não, produzirá H = 0.5 .

Para testar a validade da estatística H, podemos realizar um teste desenvolvido

por Scheinkman e LeBaron (1989) . Valores de H significantemente diferentes de

0.5 podem ter duas possíveis explicações :

1. De fato existe um componente de longa memória na série temporal estudada, ou

seja, cada observação é em algum grau correlacionada com a observação

posterior.

2. A análise é incoerente e um valor anormal de H não implica necessariamente que

exista um efeito de longa memória .

O teste consiste em misturar aleatoriamente a série, de modo que as observações

fiquem numa ordem completamente diferente da original . Recalcula-se o

expoente de Hurst para a nova série e compara-se o valor encontrado com o valor

calculado para a série original. Se a série original for composta por observações

verdadeiramente independentes, o cálculo de H permanecerá inalterado, isto

porque não há efeito de longa memória presente, ou seja, correlação entre as

observações. Caso haja algum efeito de longa memória presente, a ordem da série

é muito importante e alterando-a estaremos destruindo a estrutura do sistema. O

valor de H recalculado, neste caso, será muito menor ( próximo a 0.5 ) do que o

valor de H calculado para a série original .


308

AS SÉRIES DAS BOLSAS DE CHICA GO E DO RIO DE JA NEI RO

Fazendo a Análise R/S para o índice S&P 500 da bolsa de Chicago com

observações mensais dos retornos num período de 38 anos ( Janeiro de 1950 à

Julho de 1988), Peters (1991) calculou um ciclo médio de período igual a 48

meses e H = 0.78 . Este alto valor para H mostra claramente que o mercado de

ações é representado por uma série temporal fractal e não por um passeio ao

acaso. Aplicando o teste de Scheinkman e LeBaron, H foi estimado em 0.51 ,

mostrando assim que a mudança na seqüência dos retornos alterou a característica

da série temporal. Podemos concluir, portanto, que os retornos de mercado são

representados por séries temporais com comportamento persistente , com

distribuição de probabilidade fractal e seguindo um passeio ao acaso viesado . A

Análise R/S também foi feita para ações individuais e foram encontrados os

seguintes resultados :

Expoente de

Hurst (H)
S&P 500 0.78
IBM 0.72
Xerox 0.73
Apple Computer 0.75
Coca-Cola 0.70
Anheuser-Busch 0.64
McDonald’s 0.65
Niagara Mohawk 0.69
Con Edison 0.68
Fonte : Peters (1991)

Risco
309

Podemos observar que estes resultados levantam uma questão interessante no que

diz respeito às definições de risco normalmente aceitas. De acordo com o Capital

Asset Pricing Model (CAPM)*, um maior beta (sendo beta a inclinação da curva

risco/retorno ) implica em maiores riscos , uma vez que a volatilidade medida

pelo desvio padrão dos retornos é maior para maiores valores de beta . Apple

Computer tem um beta de 1.2 e é portanto mais arriscada do que Consolidated

Edison (ConEd) com um beta de 0.60. O expoente de Hurst mede quão irregular

é a série temporal . Quanto menor o valor de H , mais ruído haverá no sistema e

mais aleatória será a série . Deste modo, valores maiores de H significa menos

risco, uma vez que haverá menos ruído nas observações. Contudo, ações com um

alto valor de H têm grandes chances de mudanças abruptas . A Apple Computer

tem H = 0.68 ; a ConEd tem H = 0.58 como mostra a tabela acima. A série

temporal dos retornos de ConEd é menos persistente e mais irregular do que a

série de retornos de Apple Computer . Neste caso, como ambas as séries têm H

maior do que 0.5, ambas são fractais e portanto a análise do risco via variância se

torna inútil

Para fazermos a análise R/S pode-se usar retornos logarítmicos, que são definidos

da seguinte forma :

St = ln(Pt/P(t-1))

(1.6)

onde St = retorno logarítmico no tempo t


310

PT = PREÇO NO TEMPO T

Neste caso, retornos logarítmicos são mais apropriados do que as variações

percentuais nos preços pois o “R” da análise R/S é o desvio cumulativo em

relação à média e os retornos logarítmicos somam com os retornos cumulativos

enquanto que o mesmo não ocorre com as variações percentuais.

Utilizando a mesma série do IBV (Índice da Bolsa de Valores do Rio de Janeiro)

apresentada no gráfico do capítulo 1, do período de Janeiro de 1955 até Junho de

1993 com dados mensais, fizemos a análise R/S obtendo resultados satisfatórios.

O primeiro passo foi converter a série em retornos logarítmicos utilizando a

equação (1.6); obtivemos então 460 observações. O segundo foi aplicar as

equações (1.1) e (1.2) para vários incrementos de tempo, N. Começamos por

dividir a série em incrementos de 2 meses, obtivemos então 230 incrementos de 2

meses. Aplicamos as equações (1.1) e (1.2) e calculamos o range para cada

período de 2 meses. Reescalonamos então cada range pelo desvio padrão das

observações do período e obtivemos 230 estimativas R/S para a série com

período de N = 2 meses. Fazendo a média das 230 estimativas R/S obtemos uma

estimativa R/S para N = 2 .

Continuamos o processo para N = 3,4,5, ... , 230. Efetuou-se uma regressão do

Log(N) contra o Log(R/S) para todo o intervalo de N, tomando a inclinação como

a estimativa de H , de acordo com a equação (1.3). O gráfico 3 mostra o log/log

plot usando o método descrito acima. Um processo de longa memória está

ocorrendo para N aproximadamente menor que 84 meses, sendo este o

comprimento médio do ciclo ou período. Após este ponto, o gráfico começa a


311

seguir um passeio ao acaso com H = 0,5. Antes deste ponto, temos um H = 0,62

que podemos dizer ser a estimativa do Expoente de Hurst para o IBV. Este

resultado demonstra que este mercado se comporta de forma fractal e não como

um passeio ao acaso.

Aplicando o Shuffle Diagnostic para a série dos retornos mensais encontramos

um H = 0,48. Isto mostra que ao se misturar os dados destroe-se a estrutura de

longa memória da série original, transformando-a em uma série independente.

Estes resultados são inconsistentes com a Hipótese do Mercado Eficiente. A

análise R/S mostra que a hipótese da independência dos retornos fica seriamente

fragilizada. Os retornos dos mercados são séries aleatórias persistentes com uma

distribuição de probabilidade fractal e seguem um passeio ao acaso viesado,

como descrito por Hurst. O mercado exibe comportamento persistente e portanto

tem ciclos e tendências, com um período médio de ciclo de aproximadamente 84

meses. Este período é médio porque o sistema é não-períodico e fractal.


312

H=0,62
2

Log(R/S)
H=0,5

-1

0 1 2 3

Log(# de Meses)

Gráfico 3 : Análise R/S ; Retornos Mensais do IBV - Janeiro de 1955 - Junho 1993. H estimado
em 0.62
313

Processos estocásticos e preços de ativos financeiros

Muitas revisões quanto à aplicação de processos estocásticos aos movimentos dos

preços de ações foram apresentadas desde o início dos anos 60. Anteriormente, a

tendência das pesquisas era buscar estabelecer estatisticamente uma aproximação

dos preços de ações à Hipótese de Passeio ao acaso, calcada em incrementos

independentes e de variância finita. As evidências empíricas mais consistentes

foram desenvolvidas por Kendall (1953) e Moore (1962).

Enquanto alguns autores criticam a adoção da Hipótese de Passeio ao acaso a

partir do pressuposto de incrementos independentes, Alexander (1961 e 1964) e

Cootner (1962), outros, como Mandelbrot (1963) e Fama (1963a e b), questionam

a hipótese dos incrementos seguirem distribuição Gaussiana. De qualquer forma,

se abriu espaço para a introdução de outras teorias de distribuição de

probabilidade, como a Pareto-Levy proposta por Mandelbrot (1963), e novos

instrumentos estatísticos na análise dos movimentos de preços de ações.

Alexander (1961) se utiliza de uma série de índices de preços de ações,

basicamente com o intento de testar a hipótese de incrementos Gaussianos

independentes. Contudo os resultados não diferem muito dos apresentados por

Kendall. A idéia central dos ensaios de Alexander (1961 e 1964) gira em torno da

existência de uma tendência presente em determinados intervalos de tempo, mas

insignificante em outros períodos maiores. Assim sendo, se os incrementos são

realmente independentes, então inexiste qualquer estratégia de mercado que


314

possibilite lucros extraordinários. A partir dessa hipótese, Alexander tenta

desenvolver uma estratégia de mercado, fundamentada na filtragem de

movimentos de preços menores que um certo nível. Considerando os movimentos

apenas acima do nível estabelecido, essa regra acaba por resultar em

investimentos substancialmente bem sucedidos.

O trabalho posterior de Alexander (1964) vem a corrigir alguns erros de

procedimento no processo de filtragem considerado. Contudo, o método de

filtragem pode apresentar um comportamento similar a outras estratégias de

mercado, com ganhos mais freqüentes do que perdas, mas ocasionalmente

produzindo também grandes prejuízos. Entretanto, os resultados também podem

ser questionados quanto ao pressuposto de uma natureza não-linear, uma vez que

se o processo estocástico envolvido apresentasse um caráter não-estacionário, os

resultados exibiriam um comportamento semelhante.

Assim como Alexander, Cootner (1962) também apresenta uma regra de decisão

com melhores resultados que um método de compra aleatória de ações.

Evidentemente, tal resultado implica na presença ou de dependência ou de não-

estacionariedade da série. Além disso, Cootner aborda possíveis desvios de um

processo Gaussiano. A hipótese sugerida por Cootner define o movimento dos

preços das ações como seguindo um processo de Passeio ao acaso viesado,

caracterizado por leptocurtose, um comportamento flutuante na correlação serial

e um padrão que explique o sucesso das estratégias elaboradas por Alexander e

pelo próprio Cootner.


315

Utilizando de uma série dos movimentos de preços de ações, Fama (1963a)

realiza toda uma investigação empírica em torno da validade da hipótese de

distribuição Pareto Estável, vindo portanto, a complementar os resultados

encontrados por Mandelbrot (1963) em relação aos dados dos preços de algodão.

As propostas de natureza mais teórica das hipóteses de Mandelbrot são expostas

com grande clareza em Fama (1963b).

Apesar de muitos outros trabalhos terem sido apresentados reexaminando o

assunto (Cootner 1964), este livro se limita a avaliar a corrente empenhada em

evidenciar processos de ordem caótica determinística. Em outras palavras,

processos de natureza determinística que exibem comportamentos aparentemente

aleatórios, onde se observa uma grande dependência às condições iniciais.

O primeiro estudo completo utilizando retornos diários foi realizado por Fama

(1965) , que achou serem os retornos negativamente viesados, ou seja, haviam

mais observações no lado esquerdo (negativo) da cauda do que no lado direito.

Além do mais, a cauda era larga e o pico em torno da média era mais alto do que

o previsto pela distribuição normal. Esta condição chama-se leptocurtose e é

característica de uma família de distribuições chamada por Mandelbrot (1964) de

Pareto Estável, que são conhecidas por apresentarem tendências e ciclos, assim

como mudanças abruptas e descontínuas. Outros autores como Sharpe, em seu

livro Portfolio Theory and Capital Markets (1970) e Turner & Weigel (1990) em

seus extensos estudos sobre volatilidade encontraram resultados semelhantes.

Sharpe comparou retornos anuais à distribuição normal e notou que esta tem

pouca semelhança com o que ocorre com os valores reais dos extremos
316

observados. Turner & Weigel utilizaram os retornos diários do índice S&P 500

de 1928 à 1990 e constataram que a distribuição dos retornos diários do Dow

Jones e do S&P 500 são negativamente viesadas. Fazendo a análise para os

retornos mensais do Índice da Bolsa de Valores do Rio de Janeiro de 1955 até

Junho de 1993, constatamos que este também apresenta um comportamento

leptocurtico, com uma curtose de 5.76, ou seja com o pico acima da média e com

um viés para o lado negativo (skew)de -0.76. Estes estudos oferecem ampla

evidência de que os retornos da bolsa de valores de Chicago e do Rio do Janeiro

não são normalmente distribuídos e portanto nada garante que o preço das ações

respeite um passeio ao acaso.