Вы находитесь на странице: 1из 65

Emergncia de Inteligncia nos Sistemas

F. Carvalho Rodrigues1,+, * , Andr S. Ribeiro 2,3,


1
NATO Headquarters, Division of Scientific and Environmental Affairs, B-1100 Brussels, Belgium. Tel:(+
322 707 42 31), Fax:(+322 707 42 33), E-mail: fcr@hq.nato.int ;
2
Universidade Independente, Faculdade de Cincias de Engenharia, Av. Marechal Gomes da Costa, Lote 9,
1800-255 Lisboa, Portugal Tel:(+351218361900), Fax: (+351 218361922), Email:A_Ribeiro@uni.pt;
3
IADE, Instituto de Artes Visuais Design e Marketing, Av D. Carlos I, n4, 1200-649 Lisboa, Tel.: (+351
21 393 96 00), Fax: (+351 21 397 85 61)

Abstract

A systems structure resides in the interactions, being emergency and transition of


phase synonyms, caused by the variation of the relativistic information quantity.
This variation explains the intelligence emergency in biological neuronal nets,
being a measure of the intelligence of such structures.
States of maximum variability of information, low internal energy and low heat
dissipation were defined as favorable for intelligence emergency.
An algorithm was built that determines those states analytically in function of
connectivity, avoiding the transcomputational problem of generating all possible
configurations of the systems.
Those states occur in a discontinuous way for growing values of connectivity,
evidencing that only some states of a system are favorable to the intelligence emergency
and that the biological neuronal nets only exist in some states being unable to evolve
continuously, but by leaps.
The algorithm was validated comparing his solutions with the experimental data
of the neuronal nets of C. Elegans and human brain, being verified adherence between the
foreseen connectivity and the experimental measures.
It was verified that some configurations of the favorable states to the intelligence
emergency are small worlds and that the constant decrease of the separation degree
demands growing increase of connectivity.

Keywords: Complex System, Emergent Behavior, Intelligence, Storable Relativistic


Information, Entropy, Phase Transition.

1 +
On secondment from Universidade Independente, Faculdade de Cincias de Engenharia, www.uni.pt,
Av. Marechal Gomes da Costa, Lote 9, 1800-255 Lisboa, Portugal, Tel.: (+351) 21 836 1900, Fax: (+351)
21 836 1922, E-mail: fcr@uni.pt
*
Disclaimer: The views presented in this paper are solely those of the author and do not necessarily reflect
the views of his employer or that of any NATO country government.

With fellowship from Fundao Para a Cincia e a Tecnologia, for PhD at Instituto Superior Tcnico.

1
ndice

Abstract..1
ndice..2
Captulo 1: Critrios para definir inteligncia de sistemas.....3
Captulo 2: Emergncia de inteligncia em sistemas.................................12
Captulo 3: Estratgias dos sistemas para atingirem estados propcios emergncia de
inteligncia ............................................31
Captulo 4: Sistemas mundos pequenos no so necessariamente propcios emergncia
de inteligncia........................46
Captulo 5: A relao entre conectividade e grau de separao mdio em grafos.............59

2
Captulo 1

Critrios para definir inteligncia de sistemas


Resumo

Provando que emergncia [1][2] e transio de fase [3][4] so sinnimos e


consequncia da variao da quantidade relativista de informao em sistemas,
mostramos que esta variao pode, de um modo semelhante s foras entrpicas
[5][6], agir como uma fora sobre o sistema. Ao contrrio da variao da entropia, a
variao de informao pode ainda impor mudanas na estrutura do sistema [7][8] ao
atingir determinado valor, enquanto que a variao de entropia apenas fora o sistema a
alcanar um estado de equilbrio.
As propriedades dos sistemas [9][10] so definidas pela estrutura de interaces, e
no pelas propriedades dos seus elementos [1][2]. Usando um modelo geomtrico de
sistema onde elementos so pontos sem propriedades internas, e interaces so linhas
que unem os pontos, possvel associar uma quantidade de informao relativista a cada
configurao de ligaes.
Assim, pudemos definir uma quantidade de armazenvel de informao relativista
de cada estado de sistema, que mede a variabilidade em informao deste.
Propomos uma medida para inteligncia de cada estado de um sistema.
Sustentamos que os sistemas so tanto mais inteligentes quanto maior for a quantidade de
armazenamento de informao que possam sustentar, tendo para tal uma necessidade
mnima por energia interna e dissipao de calor [11][12].
Alm disso, estabelecemos o conceito de estado propcio para a emergncia de
inteligncia em sistemas, que corresponde a um mximo relativo em quantidade
armazenvel de informao relativista, dissipao de calor mnima e energia interna
mnima numa dada vizinhana de estados no espao de estados do sistema.

Palavras-chave: Emergncia, Transio de Fase, Inteligncia, Sistema.

3
Introduo

A natureza dos sistemas, i.e., as propriedades que estes exibem, no reside nas
propriedades internas dos elementos mas sim nas interaces entre eles [1][2],
responsveis pela a estrutura adoptada.
Sistemas que mantm a sua estrutura inalterada com o passar do tempo,
representam estados estveis, sendo que um estado, e a estrutura que o suporta, estvel
quando tem energia interna e necessidades de dissipao mnima de calor [11][12]
durante o seu funcionamento.
Outra condio para a estabilidade de uma estrutura que esta deve ser
compatvel com um certo valor de informao [7][8], valor esse que pode ser associado
distribuio de uma interaco entre os elementos (independentemente da natureza de tal
interaco).
Considerando que sistemas inteligentes precisam de uma estrutura estvel que os
suporte as condies anunciadas deveriam se aplicar a eles. Estas condies so as
necessrias para a emergncia de inteligncia num sistema.
Na nossa aproximao ao problema de determinar condies para a emergncia
de inteligncia num sistema, os estados internos dos elementos, embora possam existir,
no so considerados. Apenas as interaces entre elementos so levadas em conta. Esta
aproximao baseia-se na suposio da teoria geral dos sistemas de que a natureza de um
sistema reside nas interaces e no nos estados internos dos elementos.
A mesma aproximao usada, por exemplo, na teoria dos mundos pequenos
[13][14] onde a dinmica do sistema reside somente no nmero de ligaes regulares e
aleatrias, independentemente dos estados internos dos elementos, tendo este modelo tido
bastante xito na descrio da dinmica de vrios sistemas [14].
Assim, representamos os sistemas geometricamente, sendo os elementos
representados por pontos geomtricos, sem propriedades internas, e as interaces por
linhas que ligam os elementos [7]. deste modo que so representadas redes neurais,
naturais ou artificiais, numa grande variedade de reas [15][16][17][18], focando as
propriedades constitutivas [9] dos sistemas.
Usando tal modelo podem-se relacionar a variao da quantidade de informao
com o conceito de emergncia num sistema.

1. Emergncia e transio de fase como consequncias da variao da quantidade


relativista de informao

conhecido que sistemas sofrem uma transio de fase [19] quando a sua
conectividade, a razo entre o nmero de ligaes e elementos, alcana um certo valor
[3][4]. Tal transio de fase, considerando um modelo de pontos e linhas [4], consiste na
emergncia de uma nova estrutura onde todos os elementos pertencem a um mesmo
agrupamento, de uma estrutura inicial de elementos escassamente ligados, simplesmente
por adio de ligaes de modo aleatrio [3][4].
Quando o comportamento da estrutura nova diferente e no explicvel pelo
comportamento da estrutura prvia, dito que um comportamento novo emergiu
[20][21]. Ento, emergncia e transio de fase so sinnimas, consequncias da
penetrao de uma interaco, de qualquer natureza, entre os elementos de um sistema.

4
A transio de fase causada pela variao da quantidade de informao
relativista do sistema [7][8] que age como uma fora que impele a estrutura a mudar.
A curva em S (caracterstica das transies de fase) do tamanho do maior
agrupamento [4] obtida ao colocar ligaes aleatoriamente entre os elementos do
sistema, com todas as ligaes igualmente provveis, i.e., a transio de fase o resultado
de um processo de difuso de interaces os elementos de um sistema.
Emergncia e transio de fase do tamanho do maior agrupamento so sinnimas.
A sua causa a mesma. A quantidade, cuja variao, explica ambos os fenmenos, a
quantidade relativista de informao [7][8].
Foi provado [22][23][24][25][26][27] que quando p(i), a probabilidade de se
receber uma mensagem i sobre a estrutura do sistema, alcana o valor 1/e (onde e a
constante de Nepper), a estrutura do sistema sofre uma transio de fase. Tal a razo
por que uma transio de fase observada quando so somadas ligaes aleatoriamente
num sistema de elementos inicialmente desligados.
Para provar esta afirmao relacionmos o valor da conectividade com o da
quantidade de informao, necessria para atingir uma transio de fase. Da condio de
mximo de informao relativista obtm-se a conectividade mnima para uma transio
de fase.
A quantidade de informao relativista mxima para p = 1/e. Para que, num
sistema de m elementos, se tenha a probabilidade de dois elementos terem uma ligao
igual a (1/e), tm que existir (m/e) ligaes, visto que cada ligao liga dois elementos.
Assim, neste caso, tem-se a conectividade:

m

n e 1 1
=> = = (1)
m m e 2

Note-se que 0.5 maior que (1/e), mas sabe-se que a taxa de difuso mais elevada
acontece em p = (1/e). Em casos como os grafos, a transio de fase ocorre quando a
conectividade atinge . Tal uma consequncia de, em condies prticas, no ser
possvel para um grafo de m elementos ter (m/e) ligaes, visto que esta no uma
quantidade inteira.
Assim, a conectividade determina quando a transio de fase ocorre, i.e. quando
se d a emergncia de um comportamento novo. Tal conectividade alcanada quando a
quantidade relativista de informao atinge o valor mximo. Conclumos que a
explicao de emergncia de inteligncia em sistemas, tal como por exemplo as redes
neuronais biolgicas, reside na variao da informao relativista.
Ento, esta variao deve ser usada como uma medida da inteligncia da estrutura
de um sistema, e assim, torna-se necessrio quantificar esta varivel, para cada possvel
estrutura de um sistema.

2. Quantidade relativista de informao de uma configurao de sistema

Na teoria de Shannon de informao [28], todas as mensagens so igualmente


pertinentes e consideradas, ao calcular a quantidade de informao de um estado do
sistema. Se p(i) a probabilidade do sistema B receber uma mensagem de um sistema A,

5
a quantidade de informao de um agrupamento de n mensagens de A para B,
determinada por:

n
I =- [p(i).ln (p(i) )]
i =1
(2)

Esta quantidade independente do observador.


H situaes que no podem ser estudadas com a equao de Shannon na sua
forma original. Para estes casos, foi criada a teoria da informao relativista [7][8].
Esta teoria leva em conta o observador, porque associa uma importncia a cada
mensagem, associando uma funo de peso a cada valor de probabilidade de uma
mensagem, determinada pelas expectativas do receptor. O valor da funo de peso
dependente do sistema de crenas do receptor [29][30][31].
No nosso modelo, o receptor s considera pertinentes as mensagens sobre o
nmero de elementos com i ligaes (onde i = 0,.., m-1, e m o nmero de elementos),
que so as necessrias para descrever as caractersticas constitutivas do sistema (i.e., a
sua estrutura).
Neste caso, a quantidade de informao relativista ganha pelo observador, ao
receber uma mensagem com o nmero de elementos com i ligaes, :

Irel = - p(i).ln[p(i)] (3)

Esta funo possui um comportamento bastante diferente do da frmula de


Shannon. Perde a sua simetria em torno do valor p = 0.5 e o valor mximo obtido
quando p(i) = 1/e (figura 1):
I (bit)
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0 p(i)
0 0.2 0.4 0.6 0.8 1

Figura 1 Informao relativista versus probabilidade para receber a mensagem.

Em geral, para descrever completamente uma estrutura em termos do nmero de


elementos com i = 0,...,m-1 ligaes, precisam-se de m mensagens. A quantidade total de
informao, sendo p(i) a probabilidade de um elemento ter i ligaes, determinada por:

m 1
Irel = - [ p(i ). ln p (i) ]
i =0
(4)

No nosso caso, a frmula idntica definio de Shannon mas o espectro de


valores, pi, discreto e os seus possveis valores restringidos pelas possveis

6
configuraes de ligaes. Como s consideramos as propriedades constitutivas dos
sistemas, esta medida relativa.
A cada configurao de ligaes corresponde um valor caracterstico de
informao. A cada estado corresponde uma gama de valores de informao. Variar a
quantidade relativista de valor de informao implica mudanas na estrutura do sistema.

3. Variao da quantidade relativista de informao como causa de mudanas na


estrutura

Ambas as variaes, da informao e da entropia termodinmica em sistemas,


esto relacionadas com mudanas estruturais. No entanto, embora formalmente
semelhantes, estas variaes medem aspectos diferentes de uma transio de fase.
A variao de informao responsvel por uma mudana estrutural no sistema,
enquanto que a variao da entropia termodinmica uma medida da energia necessria
para tais transformaes acontecerem a uma certa temperatura, ou, para um sistema
atingir o equilbrio, agindo a variao como uma fora que impele o sistema a atingir tal
estado.
Desta fora, denominada fora entrpica, so conhecidos vrios exemplos em
vrias reas [5][6]. Um exemplo de um fenmeno dirigido por foras entrpicas a
difuso [32] em misturas qumicas. Em alguns casos, tal aumento global de entropia leva
a uma diminuio, em certas zonas restritas, de entropia.
Para criar ordem num sistema, a entropia termodinmica deve ser exportada para
o exterior [33][34], caso contrrio a temperatura do sistema subiria. A necessidade de
dissipao de calor deve, ento, ser considerada.
Por sua vez, a variabilidade da quantidade relativista de informao de um certo
estado, pode-se medir pelo intervalo de valores de informao das configuraes
possveis do estado. Tal intervalo permite definir a quantidade de informao
armazenvel de um estado.

4. A quantidade de informao armazenvel

Da teoria dos sistemas sabe-se que estrutura e funcionamento so uma e a mesma


coisa [9], pelo que, calcular a quantidade de informao armazenvel da estrutura
equivalente a calcular a mesma quantidade para o funcionamento.
Para obter uma medida de inteligncia de cada estado de um sistema definiremos
ento a quantidade de informao relativista armazenvel ou capacidade de
armazenamento de informao de um sistema. Esta quantidade mede a variabilidade de
valores de informao de um sistema num certo estado, ou seja, mede a gama de valores
de informao das configuraes que suportam o estado:

I = Imax Imin (5)

Cada configurao de ligaes de um estado tem uma quantidade caracterstica de


informao relativista determinada por (4). A quantidade de informao armazenvel
relativista determinada pela diferena entre a quantidade de informao relativista da
configurao de ligaes com quantidade mais alta de informao relativista (Imax ) e a

7
quantidade de informao relativista da distribuio com mais baixa quantidade de
informao relativista (Imin ).
Uma das condies necessrias para um sistema estar num estado propcio
emergncia de inteligncia, numa certa vizinhana de estados, possuir mxima
capacidade de armazenamento de informao, porque a tal corresponde um estado de
variabilidade de informao mxima.
No entanto, como qualquer sistema, sistemas num estado propcio emergncia
de inteligncia esto sujeito a leis termodinmicas. Assim analisamos os sistemas do
ponto de vista enrgico de modo a estabelecer mais condies necessrias emergncia
de inteligncia.

5. Restries termodinmicas capacidade de armazenamento de informao

Como todos os sistemas, os sistemas inteligentes precisam de energia para criar a


sua estrutura e, ao funcionar, tm que dissipar energia sob forma de calor. A estrutura
adoptada deve uma com custo energtico mnimo.
possvel, usando a representao geomtrica, calcular o calor dissipado e a
variao da energia interna de um sistema, para atingir um certo estado.
A quantidade de calor necessrio dissipar pode ser calculada de acordo com a
conhecida relao da termodinmica clssica [35]:

dQ
dS = (6)
T

Para calcular o calor, tem que se saber a variao de entropia. Pode-se calcular a
entropia de um estado, usando a definio cannica de entropia, estabelecida por
Boltzmann. Se Wi o nmero de microestados (configuraes de n ligaes por m
elementos, no nosso caso) de um certo estado com i ligaes, e kb a constante de
Boltzmann, a entropia de um estado determinada por:

Si = kb.Log(Wi) (7)

Para calcular a variao de entropia pode-se considerar um estado inicial, sem


ligaes e, ento, com s uma possvel distribuio de ligaes. Se o nmero de
distribuies 1, ento a entropia de tal estado inicial nula.
Usando este mtodo, pode-se calcular o calor dissipado, associando a qualquer
estado a sua entropia, conhecendo o nmero total de distribuies de ligaes distintas, e
supondo que o estado inicial de entropia nula, pode-se usar a seguinte equao:

Q
S = (8)
T

Para chegar a um certo estado, o sistema tem que dissipar a quantidade de calor
dada por (8), que corresponde a uma variao de entropia.
Por sua vez, a energia interna pode ser calculada de acordo com o modelo de
sistema usado, a partir do nmero m de elementos e o nmero n de ligaes:

8
U = U(m, n) (9)

Tudo que necessrio saber, de modo a determinar estados propcios


emergncia de inteligncia, a lei de variao da energia interna estado tendo em conta
que cada elemento e ligao ter uma determinada energia interna, sendo que a energia
uma quantidade positiva, pelo que:

U U
>0 > 0 , n, m (10)
m n

Destas relaes possvel estabelecer uma comparao entre a energia interna


total de dois estados distintos, e determinar qual tem menor energia interna.
Considerando a quantidade de calor necessrio dissipar, a energia interna
necessria e a quantidade de informao relativista armazenvel, pode-se estabelecer um
critrio para determinar quais estados, de um sistema de nmero constante de elementos,
so propcios emergncia de inteligncia.

6. Estados propcios para a emergncia de inteligncia

possvel definir, usando uma combinao das condies para a emergncia de


inteligncia, o conceito de estado propcio emergncia de inteligncia.
As condies de entropia e energia interna mnimas, para sistemas de
processamento de informao atingirem estados propcios emergncia de inteligncia,
foram propostas em vrios trabalhos [11][12]. A estas condies, temos que somar a
condio de mxima capacidade de armazenamento informao.
Estruturas propcias emergncia de inteligncia so aquelas que permitem
mximo armazenamento de informao e simultaneamente tm uma energia mnima,
quer interna, quer em calor necessrio remover.
Mais, como qualquer optimizao ocorre dentro dos limites de uma vizinhana de
estados, se U a energia interna de um sistema e Q o calor por ele dissipado, as
condies para um estado ser propcio emergncia de inteligncia dentro de uma
vizinhana de estados, podem ser declaradas por:

I = Imax Imin mximo (11)


U = U(m,n) mnimo (12)
Q = T.S mnimo (13)

Considerando a temperatura do sistema constante (e tal uma necessidade


comum dos mamferos, por exemplo, no que concerne ao sistema nervoso central) e
calculando a variao de entropia ao passar de um estado de nenhuma ligao para um
estado de n ligaes, a ltima condio pode ser reduzida a:

S(m,n) mnima (14)

9
Combinando estas condies podem-se determinar quais estados so propcios
emergncia de inteligncia, do espectro de todos os possveis estados de um sistema com
um nmero conhecido de elementos.

Concluses

Num sistema, emergncia e transio de fase so sinnimos, causados pela


variao da quantidade relativista de informao. Esta variao age como uma fora que
obriga o sistema a passar por uma transio de fase (como no caso da penetrao de um
tipo novo de interaco entre os elementos) e adoptar uma nova estrutura, quando a
informao atinge determinado valor.
Esta variao pode ser usada como uma medida da inteligncia de uma estrutura,
pois mede o intervalo de valores de informao que o sistema pode suportar. Tal medida
pode ser obtida pelo clculo da capacidade de armazenamento de informao relativista,
i.e., a diferena entre as informaes mais alta e mais baixa do espectro de possveis
configuraes de um estado.
Sistemas so tanto mais inteligentes quanto maior for a variabilidade de
informao que possam sustentar, tendo para isso uma necessidade mnima de energia
interna e dissipao de calor. Destas condies possvel determinar estados propcios
emergncia de inteligncia num sistema de nmero conhecido de elementos.

Desenvolvimentos futuros

No modelo usado no considermos estados internos dos elementos. Mais


desenvolvimentos, como considerar estes estados, poderiam permitir o estabelecimento
de condies adicionais para a emergncia de inteligncia em sistemas.
Para sistemas de mais de 1000 elementos, o clculo da quantidade de informao
de cada configurao e entropia de cada estado, tornam-se um problema
transcomputational [36][37]. No entanto, embora a determinao exacta destas
quantidades para qualquer estado de um sistema com um nmero grande de elementos
no seja possvel, possvel determinar, no caso da variabilidade de informao para
quais estados o seu valor um mximo relativo dentro de uma certa vizinhana de
estados [38], e possvel, para a entropia, estabelecer uma lei de variao simples.

Referncias

[1] Holland, John H. Hidden Order: How Adaptation Builds Complexity. Reading, Massachusetts:
Addison-Wesley, 1995.
[2] Holland, John H. Emergence: From Chaos to Order. Reading, Massachusetts: Addison-Wesley, 1998.
[3] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5 (1960),
17-61.
[4] Kauffman S. A. At Home in the Universe: The Search for Laws of Self-Organization and Complexity,
Oxford University Press, Oxford, 1995.
[5] Bernd Mayer, Gottfried Kohler and Steen Rasmussen, Simulation and dynamics of entropy-driven,
molecular self-assembly processes, Physical Review E, April, 1997, Vol. 55, n 4.
[6] Entropically driven self-assembly of multichannel rosette nanotubes, Hicham Fenniri, Bo -
Liang Deng, Alexander E. Ribbe, Klaas Hallenga, Jaby Jacob and P. Thiyagarajan,
http://www.pubmedcentral.nih.gov/articlerender.fcgi?artid=128555

10
[7] Carvalho Rodrigues, F.,1990/1991, Funo de Coeso de Estruturas baseadas em Informao,
Memrias da Academia, TOMO XXXI, Academia das Cincias de Lisboa.
[8] J. Pinto Peixoto, F. Carvalho Rodrigues, "Sistemas, Entropia, Coeso", Editorial Discrdia, Lisboa,
1991.
[9] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[10] Ashby, W. Ross, An Introduction to Cybernetics. London: Chapman & Hall, 1956.
[11] Coren, R. L. Empirical Evidence for a Law of Information Growth. Entropy 2001, 3, 259-273.
[12] Jonathan D.H. Smith, Some Observations on the Concepts of Information-Theoretic Entropy and
Randomness, Entropy, ISSN 1099-4300, www.mdpi.org/entropy/
[13] Watts, D. J. & Strogatz S. H. Collective dynamics of small-world networks. Nature 393, 440442
(1998).
[14] Barabasi, Albert-Laszlo. Linked: The New Science of Networks. Cambridge, Massachusetts: Perseus
Publishing, 2002.
[15] B. Bollobas. Random Graphs. Academic Press, NY, 1985
[16] http://ginger.hpl.hp.com/shl/projects/constraints/specialAIJ/node3.html
[17] White, J. G., Southgate, E., Thomson, J. N. and Brenner, S. (1986). The structure of the nervous
system of Caenorhabiditis Elegans. Phil. Trans. R.Soc. Lond. B 314, 1-340.
[18] Achacoso, T., and Yamamoto, W. (1992) AYs Neuroanatomy of C. Elegans for computation, Boca
Raton, FL: CRC.
[19] http://www.wikipedia.org/wiki/Phase_transition
[20] M. Mitchell Waldrop, Complexity: The Emerging Science at the Edge
of Order and Chaos, New York: Touchstone, 1992;
[21] http://smile.jcon.org/soft/product/ref/entry/e/Emergence.html
[22] "The Military Landscape - Mathematical Models of Combat", Woodhead Publishing Ltd., Inglaterra,
1993. J. T. Dockery, A. E. R. Woodcock, F. Carvalho Rodrigues.
[23] Application of information entropy to defect characterisation in leather", Journal of the Society of
Leather Technologists Chemists, 75, 10; F. Carvalho Rodrigues, D. Fernando Carvalho, J. Pinto Peixoto,
M. Santos Silva, Victor Silvestre.
[24] Anlise Relativista da Quantidade de Informao para Avaliao de Comportamentos Emergentes no
Design", Carlos Alberto M. Duarte, PhD Thesis (2001)
[25] Quantidade de Informao na Arquitectura Portuguesa F. Carvalho Rodrigues, Carlos A. M. Duarte,
Andr S. Ribeiro, Tessaleno C. Devezas, Comunicao apresentada na Academia de Cincias de Lisboa,
aceite para publicao em Idade da Imagem, n2, Lisboa 2001.
[26] Carvalho Rodrigues, F., 1989. A proposed entropy measure for assessing combat degradation, J.
Opl. Res. Soc. (UK), 40 (8): 789-93.
[27] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Ep idemics, European J. of Operational Research, 71, 45-60.
[28] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 1948.
[29] Glenn Shaffer A mathematical theory of evidence, Princeton University Press, 1976.
[30] Glenn Shaffer The art of causal conjecture, MIT Press, 1996.
[31] P. Pakzad and V. Anantharam, "Belief propagation and statistical physics," Proc. 00 Conf. Inform.
Sciences and Systems, Princeton U., March 2002.
[32] http://www.arches.uga.edu/~bhummel/6200Project/Ad_SCurve.html
[33] Prigogine I. (1967), Dsspatve Structures in Chemical Systerns, in Fast Reactions and Primary
Processes in Chemical Kinetics, a cura di Stig Claesson, Interscience, New York.
[34] Prigogine I., Isabelle Stengers (1984), Order out of Chaos, Bantarn, New York (trad. it. La nuova
alleanza, Einaudi, Torino 1981
[35] Zemansky, Mark W., Dittman, RH, Heat and Thermodynamics McGraw-Hill, Physics Series, 6th
edition.
[36] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M. Duncan, ed.
Pergamon Press, Oxford (1977).
[37] H. J. Bremermann, "Quantum-theoretical Limitations of Data Processing, Abstracts of Short Communications,
International Congress of Mathematics, Stockholm (1962).
[38] Andre S. Ribeiro, F. Carvalho Rodrigues, The Emergence of intelligence in a system, in preparation.

11
Captulo 2

A emergncia de inteligncia em sistemas


Resumo

Neste captulo determinam-se os valores de conectividade de estados propcios


emergncia de inteligncia [1], usando um modelo de sistema onde somente as
propriedades constitutivas [2][3][4] so levadas em conta. Como tal, os elementos do
sistema so pontos e as interaces so ligaes entre pares de elementos.
Combinando as condies para a emergncia de inteligncia, construmos um
algoritmo capaz de determinar todos os estados propcios para a emergncia de
inteligncia em qualquer sistema de m elementos sem a necessidade de gerar todas as
configuraes possveis.
Depois de testar o algoritmo em sistemas com poucos elementos, aplicamos a
sistemas com nmero de elementos igual, respectivamente, ao sistema nervoso da C.
Elegans e ao crebro Humano, e comparamos as solues, obtidas pelo algoritmo, aos
dados decorrentes da observao de tais sistemas. Uma correspondncia significativa
entre predio e observao permite concluir a validez da definio e algoritmo para
determinar estados propcios emergncia de inteligncia em sistemas.
Alm disso, provamos que os estados propcios acontecem em nmero
relativamente pequeno e distanciados entre si no espao de fases de possveis estados.
Esta uma evidncia da impossibilidade de evoluo por variaes mnimas da estrutura
do sistema.

Palavras-chave: Emergncia de Inteligncia, Estado propcio, Algoritmo.

12
Introduo

As propriedades que os sistemas exibem dependem muito mais da estrutura de


interaces entre elementos, que das propriedades dos elementos como entidades
individuais [2][3][4], sendo que da resulta que, no obstante a variedade de natureza de
elementos e interaces, sistemas distintos exibam propriedades comuns a todos os
sistemas com estruturas similares [2][3][4][5].
Com tal conceito em mente, construmos um modelo geomtrico de sistema onde
s as propriedades constitutivas [4] so levadas em conta, usando pontos para representar
elementos e linhas para representar interaces.
Uma definio de inteligncia ento introduzida, baseada na capacidade dos
sistemas para armazenar informao, dissipar calor e a energia interna necessria [1] para
construir a estrutura. O objectivo determinar se existem estados propcios para a
emergncia de inteligncia numa vizinhana de estados possveis, do espao de estados
do sistema.
De acordo com o modelo, o nmero total do sistema de ligaes, n, define um
estado, enquanto as possveis distribuies de tais ligaes so as configuraes que
suportam o estado. Usando as condies de estado propcio, obtm-se condies
analticas capazes de obter o nmero total de ligaes de estados propcios.
Um sistema tanto mais inteligente quanto mais informao puder armazenar,
tendo simultaneamente uma dissipao de calor e energia interna mnimas [1]. Estas
condies so necessrias emergncia de inteligncia mas, no so suficientes. Assim, o
conjunto de condies para a emergncia de inteligncia permitir, para um sistema de m
elementos, o clculo de um conjunto de solues (os estados propcios) das quais nem
todas poderiam ser adoptveis por sistemas reais. No entanto, este conjunto soluo
dever conter todas as solues adoptveis.
As condies de energia dissipada e interna mnimas, para sistemas de
processamento de informao atingirem estados propcias emergncia de inteligncia,
foram propostas em vrios trabalhos [6][7]. A estas condies, somamos a condio de
mxima capacidade de armazenamento de informao, ou seja, mxima variabilidade de
valores de informao [1].
A quantidade de informao usada quantitativa, no qualitativa, visto que
obtida da estrutura das configuraes de ligaes. Mais, relativista no sentido em que
apenas se consideram pertinentes mensagens sobre o nmero de ligaes de cada
elemento [5][8][9][10][11][12] e nenhum outro aspecto da estrutura. Esta escolha
suportada pelo facto de se considerarem apenas propriedades constitutivas dos sistemas,
isto , devidas estrutura de interaces, e no devidas s propriedades internas dos
elementos [1][2][4][11].
Num sistema de m elementos, se U a energia interna de um sistema e Q o calor
por ele dissipado, as condies para um estado, definido pelo nmero total n de ligaes,
ser propcio emergncia de inteligncia dentro de uma vizinhana de estados, pode ser
declarado por [1]:

I = Imax Imin mximo (1)


U = U(m,n) mnimo (2)
Q = T.S mnimo (3)

13
Considerando a temperatura do sistema constante e calculando a variao de
entropia de uma transio de um estado sem ligaes para um estado de n ligaes, a
ltima condio (3) pode ser reduzida a:

S(m,n) mnimo (4)

Combinando estas condies num algoritmo, podem-se determinar quais estados


so propcios emergncia de inteligncia, do espectro de todos os possveis estados de
um sistema com um nmero conhecido de elementos, m.

1. Estados mximos relativos de quantidade de informao armazenvel

A quantidade armazenvel de informao mede a variabilidade da informao de


um sistema num certo estado. No entanto, o seu clculo para todos os estados de sistemas
com mais de 1000 elementos uma tarefa transcomputational [13][14].
Ao invs, propomos um mtodo onde somente a conectividade dos estados que
so mximos relativos, dentro de um certa vizinhana de estados, obtida, sabendo o
nmero total de elementos do sistema.
Foi estabelecido que a quantidade de informao relativista de um sistema de m
elementos e n ligaes, numa configurao especfica, determinada por [1][15]:

m 1
q(i) q(i)
I(m,n) = . ln (5)
i =0 m m

Cada termo i corresponde quantidade de informao associada mensagem


nmero de elementos com i ligaes, q(i). Sendo que cada elemento pode ter de 0 a (m-
1) ligaes, so necessrias m mensagens para descrever a configurao.
Em cada estado, pode-se calcular I, com (1), subtraindo a menor quantidade de
informao, Imin , mxima, Imax, de entre o conjunto de valores, sendo que cada valor
corresponde a uma possvel configurao distinta das n ligaes entre os m elementos.
Para tal tm que se estudar a variao de Imax e Imin com n.

1.1 Valores extremos da quantidade de informao de uma configurao

A quantidade de informao resulta de saber o nmero de elementos com i


ligaes dada por (6) sendo que de [11][15] os valores extremos (7) so conhecidos:

q(i) q(i)
I(m,n,i) = - .ln (6)
m m

Imin = 0, para q(i) = 0 ou m e Imax = 1/e para q(i) = m/e (7)

Como veremos, s alguns estados tm, na realidade, uma configurao tal que I
zero, e nenhum estado alcana o valor mximo (7), visto que o nmero de elementos com

14
i ligaes sempre um inteiro. Outra caracterstica importante que o valor mximo de I,
entre estados sucessivos, no variar significativamente de um estado para outro.
Ento, comearemos por determinar que estados tm configuraes de
quantidades de informao nula.

1.2. Estados com uma configurao com quantidade de informao nula

Como todo o I(i) positivo ou nulo, a condio necessria para uma configurao
ter I = 0 [16]:

q(i = k) = m q(i k) = 0 => I = 0 , com k, i [0, m-1] (8)

Esta condio declara que s quando todos os elementos tiverem o mesmo


nmero de ligaes, a configurao ter I = 0.
Para deduzir quais estados satisfazem esta condio introduzimos um argumento:
para que todos os elementos tenham o mesmo nmero de ligaes, o nmero total de
ligaes deve ser um mltiplo de (m/2), o nmero de elementos do sistema (16). Isto :

n = 0.(m/2), 1. (m/2), 2. (m/2), ., kmax . (m/2) (9)

onde kmax um inteiro tal que: 0 kmax.(m/2) m(m-1)/2

Por substituio pode-se verificar a valide, para todo o m e k, da condio. Esta


a primeira condio para um estado ser um mximo relativo de quantidade de informao
armazenvel.
Duas solues sero eliminadas: n = 0 e n = nmax , porque ambas tm s uma
possvel configurao distinta, pelo que I(n = 0 ou nmax ) nulo.
Finalmente, note que se m for mpar, no h nenhum estado definido pelos
mltiplos de (m/2). Neste caso, s quando n igual a mltiplos de m, se tem estados com
uma configurao tal que sua quantidade de informao, I, nula.
Pode-se melhorar a declarao inicial: para todos os elementos terem o mesmo
nmero de ligaes, o nmero total de ligaes do sistema deve ser um mltiplo de m, se
m mpar, e de (m/2), se m par.
Note-se que submltiplos menores de m (como m/4 por exemplo) no cumprem a
condio necessria de nmero igual de ligaes para todos os elementos.
Considerando os mltiplos de m e usando a simetria do sistema, em termos do
nmero total de ligaes, obtm-se um conjunto de estados adicionais, com uma
configurao de I nulo. conhecido que o nmero de configuraes distintas dos estados
(m,n) e (m, nmax-n) igual [1][17]:

W(m,n) = W(m,nmax -n) (10)

Esta simetria resulta do facto que qualquer configurao tem simtrica, obtida de
remover as ligaes existentes e ligando os pares de elementos previamente desligados.
Assim, dois estados simtricos tm nmero igual de configuraes e, como cada

15
configurao simtrica tem a mesma quantidade de informao, os estados simtricos tm
capacidade de armazenamento de informao igual.
Em particular, para cada estado W(m,n) com uma configurao tal que I = 0,
tambm h um estado simtrico W(m,nmax-n) com uma configurao I = 0. Dependendo
de m ser par ou mpar, esta soluo ter, ou no, j sido determinada pela primeira
condio.
Pode-se assim estabelecer uma regra geral para determinar todos os estados de um
sistema de m elementos com uma configurao tal que sua quantidade de informao seja
nula, tendo em conta a paridade de m. Os estados com uma configurao com informao
nula so, num sistema de m elementos [16][17]:

m.( m 1)
k N, 0 < nk < : nk = k.m nk = nmax k.m (11)
2

Quando m par, as solues obtidas por cada regra no emparelham e devem ser
aplicadas ambas. Quando m mpar as solues emparelham e uma s regra necessria.
importante provar que nenhum outro estado possa ter uma configurao com
informao nula. Tal prova baseia-se no facto que todos os termos so positivos se q(i)
diferente de 0 ou m [17]. Considerando que todos os termos so positivos ou nulos, basta
haver um qualquer termo no nulo, para a quantidade total de informao tambm no ser
nula. Assim, qualquer estado alm dos j mencionados, no pode ter configuraes onde
todos os elementos tenham nmero igual de ligaes, donde o resultado.

1.3 Mximos de informao

Determinar os valores de Imax de cada estado, uma tarefa transcomputational,


porque todas as configuraes de cada estado teriam que ser geradas. No entanto,
sabido [16][17] que os valores de Imax quase no diferem de um estado ao seu vizinho
mais prximo.
Tal deriva do fato que as informaes mais altas avaliam configuraes possvel
esses onde a maioria dos elementos tm um nmero diferente de ligaes de todos os
outros elementos (seu impossvel para todos os elementos numere de ligaes difira).
Para cada estado, Imax ocorre para a configurao onde mais elementos tm
nmero diferente de ligaes. De um estado n para o seu mais prximo vizinho (n+1) e
q(i ) q(i )
(n-1), Imax no difere significativamente pois cada termo .ln ser
m m
1 1
aproximadamente igual a . ln para todo o i. Colocando, ou removendo, uma
m m
1 1
ligao de um elemento ir, no mximo, aumentar ou diminuir I de . ln e
m m
assim d-se somente uma pequena variao na quantidade total de informao da
configurao, para m > 10 (sendo tambm desprezvel para m < 10 [16][17]).

16
Conclui que os valores mximos no so pertinentes na determinao dos
mximos relativos da quantidade de informao armazenvel, que ocorrem para os
estados com Imin = 0.
Este facto conduz concluso que os estados com mximos relativos de
quantidade de informao armazenvel surgem descontinuamente, isto , nunca so
primeiros vizinhos num espao de estados da conectividade [16][17], quer dizer, seguem
a regra (11).
Depois de estabelecer os estados mximos relativos de I, segue-se o estudo da
entropia termodinmica de todos os estados de um sistema de m elementos, de modo a se
determinarem os estados com necessidade de dissipao de calor mnima.

2. Clculo da entropia termodinmica de estados. Condio de entropia mnima.

Determinar a entropia termodinmica o modo mais simples de calcular o calor


necessrio remover para um sistema atingir um certo estado. Usaremos a definio
cannica de Boltzmann de entropia termodinmica. Da frmula de Boltzmann, a entropia
termodinmica de um sistema de m elementos com n ligaes, sendo W(m,n) o nmero de
configuraes distintas de um sistema de m elementos e n ligaes, dada por:

Sm,n = kb.Ln(W(m,n)) (12)

Erdos e Rnyi [18] desenvolveram uma frmula para calcular o nmero de


configuraes de cada estado, W(m,n), supondo elementos distintos:

W(m,n) = C np , with p = C2m (13)

Esta quantidade igual ao valor dado por outra expresso [17] por ns
estabelecida, mais facilmente aplicvel na nossa anlise:

n
C m i +1
W(m,n) = 2
,n > 0 (14)
i =1 i

Considerando (12) e (14), e de acordo com as propriedades da funo logaritmo,


para um estado (m,n), a entropia termodinmica dada por:

n
C m i +1 m.( m 1)
=> S(m,n) = kb. ln 2 , n inteiro: 0 < n < (15)

i =1 i 2

agora possvel estudar a variao da entropia do sistema quando elementos e


ligaes variarem em quantidade. Supondo um sistema onde so introduzidas ligaes
novas, para cada nova ligao a entropia termodinmica variar de acordo com
(ignorando a constante de Boltzmann que precisa ser multiplicada ao resultado final):

17
n +1
C m i +1 n C2m i + 1
S = Sn+1 Sn = ln 2 - ln (16)

i =1 i i =1 i

Operando a diferena, o nico termo que no se anula o correspondente a i=n+1:

Cm n + 2
=> S = ln 2 (17)
n +1

Ento, sempre que uma ligao adicionada aleatoriamente, a variao de


entropia :

m.( m 1)
S (n n+1) = ln n + 2 ln (n + 1) (18)
2

Como S(n = 0) = S(n = nmax ) = 0, quando n varia, mantendo m constante, S tem


que ter um ponto extremo na sua monotonia, ou seja, onde dS = 0. Neste caso, sendo uma
funo descontnua, N R, a condio de extremo pode ser escrita como S = 0. Desta
condio e usando a frmula de nmax , tem-se o nmero de ligaes correspondente:

m.(m 1)
S = 0 => ln n + 2 = ln (n+1) (19)
2
m.( m 1)
=> n+ 2 =n+1 (20)
2
m2 m + 2
=> n = (21)
4

Analisando (18) conclui-se que:

m2 m + 2
a) S(n n+1) > 0 para n<
4
m m+2
2
b) S(n n+1) = 0 para n=
4
m m+2
2
c) S(n n+1) < 0 para n<
4

Em alguns casos h duas solues para S(n n+1) = 0 que acontecem sempre
que a equao b) tem dois inteiros positivos como solues possveis. Se somente uma
das solues for um inteiro positivo, h s uma soluo vlida, dependendo da paridade
de n.
Suponha-se agora um sistema onde ocorre um aumento do nmero de elementos,
m, mantendo o nmero de ligaes, n, constante. De (15):

18
n C2m +1 i + 1
Sm+1 = ln



(22)
i =1 i

Pode-se calcular a variao de entropia devida a um aumento de m:

C 2m+1 i +1 n C2m i +1
n


S = Sm+1 Sm = ln

- ln



i =1 i i =1 i
n
( m + 1).m m.( m 1)
=> S(mm+1) = ln i + 1 ln i + 1 (23)
i =1 2 2

Desta expresso, tem-se:

m.( m 1) m.( m 1)
a) m, n: i + 1 1, porque imax =
2 2
(m + 1).m m.( m 1)
b) m, n:: i + 1 1, porque imax =
2 2
( m + 1).m m.( m 1)
c) i: ln i + 1 > ln i + 1 porque m um inteiro positivo.
2 2

Conclui-se que, sempre que aumenta o nmero de elementos, com n constante, a


entropia aumenta, ou seja, S(m m+1) > 0, para todo o m.
agora possvel combinar as duas leis de variao. Suponha-se que, para um
sistema de m elementos e n ligaes, um elemento novo e uma ligao nova
introduzida. De (15):

n +1 C2m+1 i + 1
=> Sm+1,n+1 = ln


(24)
i =1 i

A variao causada por esta transformao dada por:

n +1 C 2m +1 i + 1 n C2m i + 1
S = Sm+1,n+1 Sm,n = ln -
ln

(25)
i =1 i i =1 i
m( m 1) n
( m + 1).m m.(m 1)
=> S = ln
2
n -ln(n+1) +

ln
i =1 2
i + 1 ln
2
i +1 (26)

Esta equao mostra que o efeito de uma variao simultnea de m e n pode ser
obtido somando os efeitos causados independentemente por cada uma das variaes.
Desta anlise, conclui-se que a entropia termodinmica varia com o nmero de
ligaes, isso , de um estado para outro, de acordo com:

19
m.( m 1)
k,j N, k j, 0 < nk , nj < :
2
nmax n
[nk < nj nk , nj < ] [nk > nj nk , nj > max ] => S(m,nk) > S(m,nj) (27)
2 2

De acordo com esta frmula, a entropia do sistema, nula para n = 0 e nmax ,


aumenta enquanto o nmero de ligaes varia de 0 a metade do nmero mximo de
ligaes (nmax /2). Alm de tal valor, a entropia diminui at que fica nula novamente,
quando o nmero total de ligaes o mximo possvel (nmax).
O calor que o sistema tem que dissipar para chegar a um certo estado ento
calculvel, sabendo a temperatura do sistema (onde nenhum trabalho externo aplicado),
da seguinte relao [19]:

Q = T.S (28)

Sistemas vivos requerem um certo intervalo estvel de valores de temperatura


corporal interna para sobreviver. O mesmo pode ser declarado para qualquer sistema de
processamento de informao como crebros orgnicos e processadores electrnicos. O
crebro um exemplo de tal necessidade. Um imenso fluxo de sangue necessrio para
remover o calor produzido devido ao funcionamento do crebro.
De todos os possveis estados, os sistemas escolhero os de menor entropia cuja
dissipao de calor requerida mnima, numa determinada vizinhana de estados
possveis. Pode-se ento introduzir uma condio de emergncia de estados inteligentes:
um sistema, entre dois estados, com os mesmos valores em todas as propriedades,
adoptar o estado com menor entropia.
Alm de dissipar o calor mnimo possvel, para um estado ser propcio
emergncia de inteligncia ter que ser um estado de energia interna mnima [17].
Procedemos com a determinao desta condio e a forma de aplicao ao problema de
determinar o nmero de ligaes de estados propcios emergncia de inteligncia.

3. A condio de energia interna mnima

No modelo do sistema usado, a energia interna, exigida para criar a estrutura do


sistema, uma funo exclusiva do nmero de elementos e ligaes:

U = U(n, m) (29)

Cada ligao e elemento, para ser criado, exigem uma certa quantidade de
energia. Ento possvel estabelecer relaes para calcular a variao de energia interna.

dU/dn > 0 (30)


dU/dm > 0 (31)

Redes neuronais biolgicas no podem ter um nmero infinito de neurnios.


Associando a cada neurnio uma energia interna, obtm-se uma condio que limita o

20
nmero de neurnios. Tal limitao pode, num modelo mais concreto, ser associado aos
limites de fluxo de sangue, por exemplo.
O problema de saber a diferena de energia interna de um elemento e uma ligao
poderia ser lidado associando uma constante diferente para cada caso. Por razes de
simplicidade, embora levando em considerao as leis de variao da energia interna com
o nmero de elementos e ligaes, pode-se definir a energia interna de um estado do
sistema como:

U(m,n) = k1.m + k2 .n (32)

Esta aproximao vlida pois distncias geomtricas e propriedades internas dos


elementos no so consideradas no modelo. As constantes positivas k1 e k2 representam
respectivamente, a energia interna para criar um elemento e uma ligao. Porque k1 e k2
representam quantidades de energia, devem ser positivas. Ento:

U
= k1 > 0 , m > 0 (33a)
m
U m.( m 1)
= k2 > 0 , 0 n (33b)
n 2

Um sistema tem o mesmo nmero de configuraes distintas nos estados (m,n) e


(m,nmax -n) e assim, ter a mesma entropia e a mesma informao armazenvel. O critrio
para escolher, de entre estes dois estados, o propcio emergncia de inteligncia o
critrio de energia interna mnima.
Aplicaremos esta condio ao procurar estados propcios emergncia de
inteligncia declarando que os sistemas, entre dois estados de iguais S e I, adoptam o
estado com menor energia interna, sendo que a variao da energia interna em funo do
nmero de ligaes pode ser descrita por:

m.( m 1)
k,jN,kj, 0<nk , nj< : nk >nj => U(m,nk)>U(m,nj) (34)
2

Sendo as propriedades simtricas, S(nk) = S(nmax-nk) e I(nk) = I(nmax -nk ),


conclumos que somente estados do intervalo n nmax /2, podem ser propcios
emergncia de inteligncia. Assim, a condio de energia interna mnima, em termos do
nmero de ligaes, pode ser declarada como:

nmax
n (35)
2

Somos agora capazes de criar um algoritmo capaz de determinar, sabendo o


nmero total do sistema de elementos, os estados propcios emergncia de inteligncia
em termos do nmero total de ligaes, de acordo com as trs condies necessrias
(embora no suficientes).

21
4. Algoritmo para determinar estados propcios para emergncia de inteligncia

Sistemas com elevado nmero de elementos tm uma quantidade


transcomputational de configuraes [20][21][22]. Ento, no possvel calcular quais
estados so propcios emergncia de inteligncia da mirade de possveis estados.
Num sistema de m elementos distintos, o nmero de possveis configuraes
m ( m 1 )
2 2 . O uso de um algoritmo para determinar estados propcios emergncia de
inteligncia em sistemas com m>> 1 , ento, uma necessidade. Usando a definio de
estado propcio num vizinhana de estados, um algoritmo foi desenvolvido e permite
determinar tais estados sem a necessidade para gerar todas suas possveis configuraes.
Para um sistema estar num estado de propcio emergncia de inteligncia tem
que ter, simultaneamente, quantidade mxima de informao armazenvel, energia
interna mnima e dissipao de calor mnima. Em termos do nmero de ligaes, estas
condies so:

I. Condio de mximo I: Para qualquer sistema de m elementos, os mximos locais de


I ocorrem para nk ligaes tais que:

m.( m 1)
k N, 0 < nk < : nk = k.m nk = nmax k.m (36)
2

II. Condio de entropia mnima: Entre duas configuraes de igual I, o propcio


emergncia de inteligncia o de menor entropia:

k,j N, k j, 0 < nk , nj < m.(m-1)/2:


[nk<njnk ,nj<nmax /2][nk>njnk ,nj>nmax /2] => S(m,nk )>S(m,nj) (37)

Poderamos introduzir um limite, tal que se S(m,nk ) > Smax ento (m,nk ) no seria
uma soluo possvel. O valor de Smax seria determinado de restries fsicas conhecidas,
dependendo de caractersticas especficas dos sistemas.

III. Condio de energia interna mnima: De dois estados de igual I e S, o propcio


emergncia de inteligncia o de menor energia interna:

k,jN,k j,0<nk ,nj<m.(m-1)/2: nk >nj => U(m,nk)>U(m,nj) (38)

Desta condio, estados propcios emergncia de inteligncia possuem:

nmax
n (39)
2

Esta condio (39) uma consequncia de (38), mas mais fcil aplicar. Um
limite tambm poderia ser imposto: se U(m,nk ) > Umax ento (m,nk ) no seria uma
soluo possvel.

22
Note-se que, ao impor a maximizao da quantidade de informao armazenvel,
resulta uma condio de conectividade mnima [23][24]. O primeiro estado propcio
emergncia de inteligncia acontece quando:

nk=1 = m se m mpar
nk=1 = m/2 se m par.

Ento, n m/2, o que corresponde a uma conectividade de 0,5. A condio (n


m/2) poderia resultar da necessidade de uma transio de fase dos elementos do sistema
para um agrupamentogigante, devido a ligaes aleatoriamente introduzidas, o que j
est implcito na condio de maximizao da quantidade de informao armazenvel.
Estas condies permitem, para qualquer sistema de m elementos, a determinao
do conjunto de estados propcios emergncia de inteligncia. As condies so
necessrias, contudo, no suficientes, e assim, deste conjunto, s alguns estados sero
propcios.
Mais, nenhuma escolha pode ser feita, do conjunto de estados propcios, quanto a
qual o ptimo de entre eles. Tal no devido a uma falta de condies do algoritmo
mas por limitaes de computao em sistemas onde m>> 1 [20][21].
Note que, das condies, nenhuma restrio obtida para o nmero de elementos,
assim conclui-se que estas sero principalmente fsicas, ou seja, os sistemas tero o
mximo nmero possvel, limitados pela capacidade de os suportar e espao de
confinamento.
A capacidade do algoritmo para predizer estados propcios emergncia de
inteligncia deve ser testada atravs da comparao com os estados adoptados por redes
neuronais biolgicas. Sendo que estas so o resultado de um processo muito longo de
evoluo, sustentamos que se encontram em estados propcios emergncia de
inteligncia. A concordncia entre teoria e observao valida o algoritmo.
Para este teste escolheram-se o crebro Humano e o sistema nervoso da C.
Elegans. O primeiro o mais complexo e o segundo o mais simples de todos os
sistemas neuronais conhecidos na Natureza. O segundo tambm o melhor conhecido
actualmente, e, em particular, o nico cuja estrutura, todos os neurnios e ligaes,
conhecida de modo quase absoluto.

5. Validao do modelo

Comeamos por aplicar o algoritmo em modelos de sistemas com poucos


elementos. Para m < 10, possvel criar um programa capaz de gerar todas as possveis
configuraes calculando, para cada configurao, a sua quantidade relativista de
informao, e, para cada estado, a sua entropia, energia interna e quantidade de
informao armazenvel.
Os estados obtidos usando o algoritmo so exactamente os mximos relativos de
(I/S) obtidos gerando todas as configuraes possveis. A condio de energia interna
foi usada para escolher, entre esses, os de menor energia interna. Um acordo total entre
dados experimentais e predies do algoritmo foi observado [16]. Este procedimento no
possvel para sistemas com nmero grande de elementos pois se torna um problema
transcomputational [20][21].

23
Fomos em seguida comparar os dados experimentais dos sistemas neuronais da C.
Elegans e do crebro Humano, com as solues obtidas pelo algoritmo para modelos com
um nmero de elementos igual aos neurnios de cada um dos sistemas reais. O nico
parmetro necessrio introduzir no algoritmo o nmero exacto de elementos encontrado
nesses sistemas, ou seja, neurnios.

5.1 Sistema nervoso da C. Elegans

O sistema nervoso da C. Elegans o melhor conhecido sistema nervoso biolgico,


sendo o melhor teste possvel da validade do algoritmo. A sua estrutura exactamente a
mesma para todos os hermafroditas [25][26][27].
Construmos um modelo do sistema nervoso, considerando os neurnios como
elementos e todas as sinapses e junes como ligaes.
Devido natureza distinta destes dois tipos de ligaes e a independncia no
funcionamento, so considerados dois sistemas separados: o sistema de junes e o
sistema de sinapses [26].
As interaces entre o corpo e sistema nervoso no foram consideradas porque
no so ligaes entre neurnios. Alm disso, s uma ligao de uma determinada
natureza (por exemplo, sinapse), no mximo, contada, entre dois neurnios. Uma
ligao de um neurnio para ele prprio desprezada. Finalmente, todos os dados
referem-se s ligaes de 282 neurnios [26], pois nenhum mapa de ligaes est
disponvel para os 20 neurnios da pharyngeal. possvel obter uma matriz de ligaes
para o sistema de junes:

i q(i) Informao
0 88 0.156046807
1 65 0.143579745
2 65 0.143579745
3 41 0.117735585
4 25 0.089575077
5 7 0.037895239
6 2 0.014430311
7 2 0.014430311
8 3 0.019896215
9 1 0.008211944
10 2 0.014430311
11 1 0.008211944
Total Neurnios Informao
302 (214 com Junes) 0.768023235
Tabela 1: Nmero de elementos com i ligaes (q(i)) e a quantidade de informao correspondente do
estado. Sistema de junes.

Dos 302 neurnios, 88 tm nenhuma juno e consideraremos que no fazem


parte do sistema, assim, s 214 neurnios so considerados para esta rede. Somente 543
junes existem, em 22791 possveis ligaes, i.e., 2%, o que est de acordo com as
condies de entropia e energia interna mnimas.

24
Do sistema de sinapses s fazem parte 241 neurnios, com um total de 2280
ligaes.
Total Neurnios Informao Total
241 2.154334
i q(i) Informao
0 61 0
1 23 0.148206
2 29 0.156772
3 24 0.150077
5 13 0.116977
6 17 0.132551
7 24 0.150077
8 15 0.125363
9 8 0.089376
10 13 0.116977
11 11 0.107208
12 11 0.107208
13 7 0.082389
14 5 0.066382
15 7 0.082389
16 4 0.057102
17 7 0.082389
18 6 0.07476
21 2 0.034758
22 2 0.034758
23 3 0.04669
24 2 0.034758
27 3 0.04669
30 1 0.020482
34 2 0.034758
39 2 0.034758
96 1 0.020482
Tabela 2Nmero de elementos com i ligaes (q(i)) e a quantidade correspondente de informao do
estado. Sistema de sinapses.

Existem 2280 sinapses, 8% do nmero mximo possvel, 28920. Novamente h


um acordo com as condies de entropia e energia interna mnimas.
Para aplicar o algoritmo ao sistema de junes introduzimos o nmero de
neurnios, 214, possuidores das 543 junes.

I. Condio de mximo I: Para o sistema de junes da C. Elegans hermafrodita tem-se:

=> k N, 0 < nk < 22791: nk = k.214 nk = 22791 - k.214 (40)

As solues mais prximas do valor real so, respectivamente, da primeira e


segunda condies:

25
i) k = 2 e k = 3 => nk=2 = 428 e nk=3 = 642 => 428 < nreal = 543 < 642 (41a)

ii) k=103 e k=104 => nk=103 = 749 e nk=104 = 535 => 535 < nreal = 543 < 749 (41b)

A proximidade entre a soluo obtida usando k = 103, que implica 535 ligaes e
o valor real, 543, evidente.

II. Condio de entropia mnima: O nmero de configuraes possveis no estado n = 543


determinado por: W(m = 302, n = 543) =C np , com p = C2m .
De relao de Boltzmann e as propriedades da funo logartmica:

S = KB.[Log(45451!) - Log(44908!) Log(543!)] (42)

Um valor aproximado obtido usando a aproximao de Stirling para nmeros


grandes [28], contudo, esta aplicao depende de calcular o exacto valor de I para todos
os estados, tarefa essa que transcomputational. No obstante, verifica-se que esta
condio respeitada pois s 2% das possveis ligaes existem, o que corresponde a um
estado de relativamente baixa entropia.

III. Condio de energia interna mnima: Desta condio, obtm-se o mximo valor
possvel do nmero total de ligaes de estados propcios. Neste caso:
n
n < max = 11395,5
2
Sendo n um inteiro: n 11396 (43)

Ento, o estado adoptado pelo sistema de junes da C. Elegans est dentro dos
estados determinados como propcios emergncia de inteligncia pelo algoritmo.
Combinando todas as condies, o conjunto de solues para o sistema de junes :

n 11396 nk = k.214 nk = 22791 - k.214 k inteiro positivo (44)

O estado real, do sistema de junes, n = 543, pelo que so respeitadas todas as


condies, e, na realidade, uma das solues (k = 103 => n = 535), muito prxima da
soluo real adoptada.
Ao considerar o sistema de sinapses, introduz-se o nmero total de elementos
como parmetro no algoritmo. Para um total de 302 neurnios, 241 tm sinapses. Aplica-
se somente a condio n = m.k, do algoritmo (pois o nmero total de elementos mpar):

I. Condio de mximo I: Para o sistema de sinapses da C. Elegans hermafrodita tem:

k N, 0 < nk < 28920: nk = k.241 nk = 28920 - k.241 (45)

As solues mais prximas do valor real so, da primeira condio:

Para k = 9 e k = 10 => nk=9 = 2169 e nk=10 = 2410

26
=> 2169 < nreal = 2280 < 2410 (46a)

A soluo mais prxima k = 9.

II. Condio de entropia mnima

Como o estado adoptado n = 2280, e h 28920 possveis estados onde somente


8% tm mais baixa entropia que o escolhido, conclui-se que o estado real um estado
relativamente baixo de entropia.

III. Condio de energia interna mnima: De nreal = 2280 < 14460, esta condio tambm
respeitada.

Combinando todas as condies, o conjunto de solues de estados propcios


emergncia de inteligncia para o sistema de sinapses :

n < 14460 n = k. 241, k inteiro positivo (47)

H uma boa aproximao entre as solues do algoritmo e os valores reais. O


algoritmo provou ser capaz de determinar, dentro de um certo grau de aproximao,
estados propcios emergncia de inteligncia para os sistemas de sinapses e junes.
Um certo intervalo de erro era esperado. Quer porque o algoritmo s tem
condies necessrias emergncia de inteligncia, e no condies suficientes, pois no
so consideradas propriedades fsicas especficas dos sistemas, quer porque os dados
experimentais do sistema nervoso da C. Elegans no so completos [26]. Verifica-se,
pois, que o algoritmo e o modelo possuem uma boa aderncia realidade.

5.2 O crebro humano

Aplicamos agora o algoritmo a um sistema cujo nmero de elementos igual ao


nmero mdio de neurnios do crebro humano. O uso de valores mdios , neste caso,
inevitvel, pois nenhum crebro humano completamente semelhante a outro e deste
modo que os dados so apresentados na literatura [29][30][31].
O crebro humano tem, em mdia, 1011 neurnios, 1015 sinapses e 104 sinapses
por neurnio [29][30][31]. Impondo tal nmero de elementos ao algoritmo e, aplicando
as condies, obtm-se todos os estados propcios emergncia de inteligncia.

I. Condio de mximo I: No modelo do crebro humano: m = 1011.

1011.(1011 1) 1011.(1011 1)
=> k N, 0 < nk < : nk = k. 1011 nk = - k. 1011
2 2

Usando a aproximao, 1011 -1 1011 , tem-se:

=> k N, 0 < nk < 5.1021: nk = k. 1011 nk = 5.1021 - k. 1011 (48)

27
O conjunto de solues :

i) Os estados para os quais I um mximo local so: nk = 0, 1011 , 2.1011, 3.1011 , ....,
1015 , , 5.1021 .

ii) As solues dadas pela segunda condio so coincidentes e assim s a primeira


condio necessria. Note-se que o estado, n = 1015 , uma das solues. H um valor k
positivo tal que:

1015 = k. 1011 => k = 104 << kmax = 1011 (49)

II. Condio de entropia mnima: O nmero total de ligaes muito menor que o
nmero total de ligaes possveis, e assim respeita a condio. Aproximadamente,
somente 10-5% das possveis ligaes existem, sendo este um relativamente baixo estado
de entropia.

III. Condio de energia interna mnima: O estado real est claramente abaixo do limite n
n
= max , e assim respeita a condio.
2

Combinando todas as condies, o conjunto de solues, :

n 2.1021 n = k. 1011 , k inteiro positivo (50)

Como o sistema real est no estado n = 1015 , confirma-se a soluo obtida pelo
algoritmo.

Concluses

Combinando as condies de mxima capacidade de armazenamento de


informao relativista, necessidade de energia interna mnima e mnimo calor dissipado,
obtm-se um conjunto de condies capazes de estabelecer, dado o nmero total de
elementos, todos os estados propcios emergncia de inteligncia.
O algoritmo, quando aplicado a um modelo de um sistema de m elementos,
supera, em parte, o problema transcomputational de calcular todas as variveis que
caracterizam cada estado.
Para testar a validade do algoritmo, aplicou-se a modelos, representando somente
propriedades constitutivas de redes nervosas biolgicas, nomeadamente do crebro
Humano e do sistema nervoso da C. Elegans.
O algoritmo obteve as solues reais adoptadas, com uma pequena margem de
erro, para os sistemas de sinapses e de junes da C. Elegans e para o crebro Humano.
Assim, conclumos que o algoritmo capaz de determinar estados propcios
emergncia de inteligncia.
A introduo de especificidades dos sistemas neuronais no modelo permitir obter
um conjunto menor de estados propcios. No obstante, observando o conjunto de estados

28
propcios nos casos prticos e no caso geral, fica estabelecido que sistemas inteligentes
no podem evoluir atravs de mudanas estruturais mnimas mas antes por saltos no
espao de estados do sistema.

Referncias

[1] Andr S. Ribeiro, F. Carvalho Rodrigues, Criteria for systems intelligence, in preparation.
[2] Holland, John H. Hidden Order: How Adaptation Builds Complexity. Reading, Massachusetts:
Addison-Wesley, 1995.
[3] Holland, John H. Emergence: From Chaos to Order. Reading, Massachusetts: Addison-Wesley, 1998.
[4] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[5] Jumarie, Guy M., Subjectivity, Information, Systems, An introduction to a theory of relativistic
cybernetics , Gordon and Breach, Science Publishers, Inc., 1986
[6] Coren, R. L. Empirical Evidence for a Law of Information Growth. Entropy 2001, 3, 259-273.
[7] Jonathan D.H. Smith, Some Observations on the Concepts of Information-Theoretic Entropy and
Randomness, Entropy, ISSN 1099-4300, www.mdpi.org/entropy/
[8] Application of information entropy to defect characterization in leather", Journal of the Society of
Leather Technologists Chemists, 75, 10; F. Carvalho Rodrigues, D. Fernando Carvalho, J. Pinto Peixoto,
M. Santos Silva, Victor Silvestre.
[9] Carvalho Rodrigues, F., 1989. A proposed entropy measure for assessing combat degradation, J. Opl.
Res. Soc. (UK), 40 (8): 789-93.
[10] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Epidemics, European J. of Operational Research, 71, 45-60.
[11] Quantidade de Informao na Arquitectura Portuguesa F. Carvalho Rodrigues, Carlos A. M. Duarte,
Andr S. Ribeiro, Tessaleno C. Devezas, Comunicao apresentada na Academia de Cincias de Lisboa,
aceite para publicao em Idade da Imagem, n2, Lisboa 2001.
[12] Anlise Relativista da Quantidade de Informao para Avaliao de Comportamentos Emergentes no
Design", Carlos Alberto M. Duarte, PhD Thesis (2001)
[13] H. J. Bremermann, "Comp lexity and transcomputability", in The Encyclopedia of Ignorance, M. Duncan, ed.
Pergamon Press, Oxford (1977).
[14] H. J. Bremermann, "Quantum-theoretical Limitations of Data Processing, Abstracts of Short
Communications, International Congress of Mathematics, Stockholm (1962).
[15] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 1948.
[16] Clculo do Consumo Energtico e Capacidade de Armazenamento de Informao em Sistemas
Complexos, F. Carvalho Rodrigues, Andr S. Ribeiro, Proceedings Fsica 2002.
[17] Estados Propcios Emergncia de Inteligncia em Sistemas, Andr S. Ribeiro, PhD Thesis , 2003.
[18] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61.
[19] Zemansky, Mark W., Dittman, RH, Heat and Thermodynamics McGraw-Hill, Physics Series, 6th
edition.
[20] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M.
Duncan, ed. Pergamon Press, Oxford (1977).
[21] H. J. Bremermann, "Minimum Energy Requirements of Information Transfer and Computing", Int. J.
Theoretical Physics, 21(3-4):203-17 (April, 1982).
[22] H. J. Bremermann, "Complexity of automata, brains and behavior", in Physics and Mathematics of the
Nervous System, M. Conrad, W. Guttinger, and M. Dal Cin (eds.), Biomathematics Lecture Notes, Vol. 4.
Springer, Heidelberg (1974), p 304-331. [Nat. Sci. QP355.2.585]
[23] Kauffman S. A. At Home in the Universe: The Search for Laws of Self-Organization and Complexity,
Oxford University Press, Oxford, 1995.
[24] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61.
[25] White, J. G., Southgate, E., Thomson, J. N. and Brenner, S. (1986). The structure of the nervous
system of Caenorhabiditis Elegans. Phil. Trans. R.Soc. Lond. B 314, 1-340.

29
[26] Achacoso, T., and Yamamoto, W. (1992) AYs Neuroanatomy of C. Elegans for computation, Boca
Raton, FL: CRC.
[27] Richard M. Durbin Studies on the Development and Organization of the Nervous System of C.
Elegans, thesis. http://www.wormbase.org/papers/durbinv1.2/
[28] D.E. Knuth, The art of computer programming: Seminumerical algorithms, Volume 2, Second
Edition, Addison-Wesley Publishing Company, Reading MA
[29] http://faculty.washington.edu/chudler/facts.html#brain
[30] Kalat, J.W., Biological Psychology, 6th Edition, 1998, page 24
[31] Gershon, M.D., The Second Brain, HarperPerennial, 1999.

30
Captulo 3

Estratgias dos sistemas para atingir estados propcios emergncia de


inteligncia
Resumo

Conhecendo as condies para um estado ser propcio emergncia de


inteligncia [1][2][3][4], determinamos todos esses estados para um sistema com m
elementos e calculada a probabilidade de um sistema escolher, aleatoriamente, entre
todos os possveis estados, um estado propcio. Conclumos que este evento, se
totalmente aleatrio, se torna cada vez menos provvel quando o nmero de elementos
aumenta, embora seja uma ocorrncia longe de impossvel.
A difuso natural de ligaes num sistema de m elementos, conduzindo a um
aumento de informao relativista e responsvel por uma transio de fase, i.e. o
aparecimento de uma nova estrutura, a fora motriz para atingir estados propcios
emergncia de inteligncia, de mxima capacidade de armazenamento de informao. Tal
difuso est limitada pelas condies de mnima dissipao de calor e de energia interna
mnima.

Palavras-chave: Emergncia de inteligncia, Difuso de interaces.

31
1. Introduo

Tendo estabelecido as condies para um estado ser propcio emergncia de


inteligncia [2], analisa-se o modo como os sistemas alcanam tais estados.
Do captulo anterior sabe-se que estes estados so os adoptados por sistemas
neuronais biolgicos, e surgem devido a um processo de evoluo. Determinando todos
os possveis estados propcios emergncia de inteligncia de um sistema, calcula-se a
probabilidade de um sistema escolher, aleatoriamente, entre todos os possveis estados,
um propcio emergncia de inteligncia. Conclumos que este no um evento
provvel, embora no seja impossvel, i.e., a probabilidade tem um valor que no pode
ser considerado nulo.
No obstante, quando o nmero de elementos do sistema cresce, tal probabilidade
diminui, e assim, procuramos mecanismos que levem os sistemas a adoptar estados
propcios emergncia de inteligncia que no o aleatrio.
Sendo que tais estados distribuem-se escassamente no espao de fases do sistema,
sempre separados entre si por um certo nmero de estados, conclui-se que qualquer
processo de evoluo deve ser descontnuo, ocorrendo atravs de saltos de uma
vizinhana de estados para outra, e escolhendo, dentro de cada vizinhana, o estado
propcio emergncia de inteligncia.
Uma fora motriz que leva o sistema a adoptar estados propcios forando a
adio de ligaes at um estado de equilbrio ser alcanado. Tal fora a difuso natural
de ligaes em sistemas de elementos com capacidade de interaco entre si. O equilbrio
deve ocorrer antes dos limites de capacidade de dissipao de calor e quantidade de
energia interna do sistema serem alcanados.
A capacidade de armazenamento de informao relativista [3] de um estado, uma
medida da inteligncia do sistema, deve ser mxima num estado propcio, sendo usada
como o parmetro de escolha do estado propcio dentro de uma vizinhana de estados.
Estas condies gerais, combinadas com as limitaes especficas de sistemas
reais podero permitir a determinao da vizinhana provvel de estados onde o sistema
estar em equilbrio.
No obstante, sistemas complexos so conhecidos pela sua habilidade para exibir
muitos comportamentos inesperados e adoptar muitas solues, pelo que no
esperamos reduzir o conjunto de solues satisfatrias a uma s soluo.
Comeamos por estabelecer que emergncia e transio de fase so sinnimos e
causados por um processo de difuso de interaces, i.e., por um processo de
maximizao da quantidade relativista de informao.

2. Processo de difuso de interaces como causa de emergncia e transio de fase

Provou-se [5][6][7][8] que quando p(i), que representa a probabilidade de uma


mensagem i sobre a estrutura do sistema alcanar o valor 1/e (onde e a constante de
Nepper), a estrutura de sistema sofre uma transio de fase. Tal a razo por que uma
transio de fase observada quando so colocadas ligaes aleatoriamente num sistema
de elementos inicialmente desligados [9][10][11].
Para provar esta afirmao relacionamos o valor da conectividade e da quantidade
de informao, necessria para ocorrer uma transio de fase. Da condio de

32
maximizao da quantidade de informao relativista obtm-se a conectividade mnima
para uma transio de fase.
A quantidade de informao relativista mxima para p = 1/e. Para que, num
sistema de m elementos, se tenha a probabilidade de dois elementos terem uma ligao
igual a (1/e), tm que existir (m/e) ligaes, pois cada ligao liga dois elementos. Assim,
neste caso, tem-se a conectividade:

m

n e 1 1
=> = = (1)
m m e 2

Note-se que 0.5 maior que (1/e), mas a taxa de difuso mais elevada ocorre
para:
p = 1/e (2)

Em grafos a transio de fase ocorre quando a conectividade . Tal uma


consequncia de no ser possvel para um grafo com m elementos ter (m/e) ligaes, pois
esta no uma quantidade inteira. No obstante, (1/e) o valor exacto num processo de
difuso, embora num grafo se possa considerar aquele valor como .
Assim, a conectividade necessria para a qual a transio de fase ocorre, i.e., o
aparecimento de um comportamento novo [12], alcanado quando a quantidade
relativista de informao atinge o valor mximo. Conclumos que a explicao para a
emergncia de inteligncia em sistemas como redes neuronais biolgicas, reside na
variao da informao relativista. Ento, esta variao pode ser usada como uma medida
da inteligncia da estrutura do sistema, sendo ento necessrio quantificar esta varivel,
para cada possvel estado de um sistema.

3. Estados propcios emergncia de inteligncia

possvel medir um aumento em organizao pela diminuio da entropia


termodinmica, o que equivalente a um aumento de informao. Nestes processos, a
entropia deve, necessariamente, seja expelida para o exterior, tal como foi mostrado por
Prigogine [13][14].
A variao de informao relativista de um estado mensurvel pelo intervalo de
valores da informao de tal estado, e, os estados com os maiores intervalos de
informao sero propcios emergncia de inteligncia, pois so os com maior nmero
de bits disponveis para calcular. Assim, sustentamos que, quanto mais elevada esta
variao, mais inteligente o sistema se torna.
Definimos um sistema como propcio emergncia de inteligncia se este se
encontra num estado capaz de armazenar uma quantidade de informao mxima,
exigindo para tal um consumo mnimo de energia, dentro de uma vizinhana de estados.
Sendo U a energia necessria para criar o sistema e Q o calor por ele dissipado, estas
condies podem ser declaradas por [1][2]:

(Imax Imin) mximo (3)


U mnimo (4)

33
Q mnimo (5)

A quantidade de informao que corresponde a cada configurao ser obtida da


equao de Shannon [15] com, no nosso caso, (i) representando o nmero de elementos
com i ligaes, num universo de m elementos.
No calculamos todas as mensagens possveis de enviar pelo sistema. Apenas
consideramos as mensagens relativas ao nmero de ligaes de cada elemento. Assim,
usamos uma quantidade relativista de informao no sentido em que a quantidade de
informao das mensagens depende de nosso critrio como observadores [16].
Num sistema de m elementos e n ligaes numa certa distribuio, tem-se:

m-1
(i ) (i )
I(m,n) = - .ln (6)
i =0 m m

Agora pode-se estabelecer uma medida do nmero de mensagens distintas, em


termos do intervalo de valores de informao permitido, que um estado capaz de
receber ou enviar. Para isso definimos a quantidade de armazenvel relativista de
informao [3]:

I = Imax Imin (7)

Esta quantidade ter um comportamento bastante imprevisvel, com a variao de


n. Os mximos relativos correspondero a estados propcios emergncia de inteligncia
(se as condies de energia de mnima estiverem satisfeitas) pois, nesses estados, o
sistema pode receber e armazenar um nmero mximo de mensagens distintas, numa
certa vizinhana de estados.
A energia interna U funo do nmero de elementos e ligaes pois esses so os
nicos componentes do sistema. Note-se que o comprimento de tais ligaes no
pertinente pois, no modelo de sistema aqui usado, no relevante a localizao espacial
de elementos ou ligaes.

U = U(m,n) tal que: U n, m, (8)

Para ns, o facto relevante que a energia interna aumenta quando o nmero de
ligaes aumenta.
A entropia termodinmica uma medida do calor dissipado pelo sistema num
certo estado, sabendo a temperatura, pela relao:

Q = T. S (9)

Para calcular a entropia de cada estado usa-se a equao de Boltzmann (sendo que
W representa o nmero de configuraes que suportam o estado (m,n)):

S(m,n) = kb.log [W(m,n)] (10)

34
Desta condio podem-se determinar estados propcios, em termos do seu nmero
total de ligaes. Mais, no necessrio gerar as configuraes de cada estado, o que
seria uma tarefa transcomputational [17].

4. Nmero de ligaes dos estados propcios emergncia de inteligncia

Em trabalhos prvios [1][2][3][4] foi determinado o nmero de ligaes, n, para


os quais os valores de informao de armazenvel so mximos relativos num sistema de
m elementos, e as leis de variao da entropia, S, e energia interna, U, com n,:

A) Os mximos locais de I ocorrem quando o nmero de ligaes dado por:

m.(m - 1)
kN, 0 < n k < : nk = k.m nk = nmax k.m (11)
2

B) Entre dois estados de igual I, o propcio o de menor entropia, tal que:

m.(m - 1)
k,j N, k j, 0 < nk , nj < :
2
n n
[nk<nj nk ,nj < max ] [nk >nj nk ,nj > max ]=>S(m,nk )>S(m,nj) (12)
2 2

C) De dois estados de igual I, o estado propcio o de menor energia interna:

m.(m - 1)
k,jN, kj, 0<nk,nj< : nk > nj => U(m,nk )>U(m,nj) (13)
2

Da condio A, verifica-se que quaisquer dois estados propcios emergncia de


inteligncia esto separados por, pelo menos, (m/2) estados (i.e, ligaes) no espao de
estados. Ento, o processo de evoluo ter de se dar atravs de saltos no espao de
estados.
No obstante, isto no invalida uma anlise que supe adio sucessiva de
ligaes (uma a uma) pois os resultados obtidos so vlidos para qualquer processo de
adio aleatria de ligaes (m/2 em m/2 ligaes, por exemplo).
Destas condies, o nmero de estados propcios emergncia de inteligncia
calculvel, sabendo-se o nmero total de elementos do sistema.

5. Nmero de estados propcios (#Opt) num sistema de m elementos.

A probabilidade de escolher um estado aleatoriamente, e obter um propcio


emergncia de inteligncia calculvel do nmero de estados propcios e do nmero total
de estados de um sistema de m elementos.
Por definio de estado, cada sistema tem (nmax +1) possveis estados. Para um
sistema de m elementos, o nmero mximo de ligaes do sistema , supondo s uma
ligao possvel entre qualquer par de elementos, dado por,:

35
m.(m - 1)
nmax = (14)
2

De acordo com a condio de maximizao de I, os valores mximos ocorrem


para n tais que:

nk = m.k (15a)
e/ou nk = nmax m.k (15b)

m.(m - 1)
Com, 0 < n < , e em que k representa um inteiro positivo, respeitando as
2
condies limite de n. Os casos n = 0 e n = nmax , so removidos pois I nulo nesses
casos.
Usando as equaes (15a) e (15b), os limites de k so obtidos. Substituindo n por
nmax em (15a), k* obtido.

=> nmax = m.k*


m.(m -1)
2 m -1
=> k* = => k* = (16)
m 2

Porque n < nmax, kmax determinado subtraindo 1 a k *, obtendo-se o valor


mximo possvel de k (kmax):

m -1
=> kmax = k* - 1 = 1 (17)
2

Este o valor mximo que k pode adoptar para ambas condies (15a) e (15b).
Cada condio dar kmax solues. Ento, obteremos 2.kmax solues.
Considerando que algumas solues so repetidas, o nmero total de solues
diminuir. O problema determinar quantas solues (de 15a e 15b) sero iguais e ento,
representam o mesmo estado. A paridade do nmero total de elementos do sistema deve
ser levada em conta.

A. Nmero de estados propcios para m par

Comeamos provando que, para um sistema com um nmero par de elementos, as


solues das condies (15a) e (15b) nunca coincidem, pelo que o nmero de estados
propcios ser a soma das solues das duas condies.
Num sistema de m elementos, com m par, as solues de nk , das condies (15a) e
(15b) nunca coincidem para qualquer valor possvel de k, ou seja:

m -1
m par: m,ki,kj N, 0 < ki, kj < : m.ki nmax m.kj (18)
2

36
Podemos provar (18) provando que a expresso oposta impossvel. Suponha-se
que a declarao seguinte verdadeira para m par:

m -1
m,ki,kj N, 0 < ki, kj < : m.ki = nmax m.kj (19)
2

De (19), usando a equao (14):

m.(m - 1)
=> m.ki = m.kj
2
m -1
=> ki + kj = (20)
2

Agora, como ki e kj so inteiros, ento (ki + kj) tambm um inteiro. Mas, se m


par ento (m-1) mpar, ento:

m -1
Se m par, no um inteiro. (21)
2

impossvel ter um inteiro igual a um nmero no inteiro, pelo que a equao


(21) falsa para todo o m, ki, kj. Conclumos que (18) sempre verdade, para m par.
Disto conclumos que as solues para estados propcios das duas condies (15a)
e (15b) nunca coincidem e, ento, o nmero total de solues determinado pela soma
das solues de cada condio. Mas o facto de k ser um inteiro deve ser considerado
novamente. Da condio (15a) temos:

m.(m - 1)
nk = m.k < nmax => m.kmax <
2
m -1
=> kmax <
2

Ento, kmax ser igual ao maior inteiro, menor que [(m-1)/2]. como m par, (m/2)
m
inteiro: kmax < . O maior inteiro, menor que tal quantidade, obtido subtraindo
2
(1/2):

m
=> kmax = (22)
2
m- 2
=> kmax = , para m par (23)
2

37
Mostra-se que kmax igual, usando a condio (15b). Pelo que h duas condies
(15a e 15b), cada uma com kmax solues, e segue-se que o nmero de estados propcios
para sistemas em que m par (#Opt(m par)) dado por:

#Opt (m par) = 2.kmax

=> #Opt (m par) = m-2 (24)

Sem levar a condio de energia interna em conta, este resultado est em acordo
total com as observaes de sistemas com poucos elementos, onde possvel conferir
quais estados so propcios, calculando a entropia, energia interna e informao
armazenvel de cada estado.

B. Nmero de estados propcios para m mpar

Num sistema de m elementos, com m mpar, as solues de nk , das condies


(15a) e (15b) coincidem sempre para qualquer valor de k:

m -1
m mpar: m,kiN, 1kjN, 0<ki,kj< : m.ki = nmax m.kj (25)
2

Comparando com o caso prvio, uma condio extra necessria para nmax/2,
porque para m mpar, em alguns casos, esta uma quantidade inteira.
A condio (25) verdade se a cada (m.ki) corresponde um e um s, valor igual
(nmax m.kj). De (16):

m.(m - 1)
m.ki = m.kj
2
m -1
=> ki + kj = (26)
2

Tem que se provar que (26) sempre tem uma e uma s soluo, tendo a definio
de ki e kj em conta. Das condies limite de k tem-se:

m -1
0 < ki,kj < (m-1)/2 => 1 ki, kj 1 , ki,kj N
2

A equao (26) verdadeira quando, e s quando, a equao seguinte


verdadeira:

m -1
kj = - ki (27)
2

Esta equao tem sempre soluo dentro dos intervalos de valores de ki e kj.. A
cada ki existe um, e um s, kj correspondente, que torna (27) verdadeira. Note-se que

38
m -1
porque m mpar, ento (m-1) par, pelo que um inteiro. Podemos concluir que,
2
para m mpar:

m -1
m mpar: m,kiN, 1 kjN, 0<ki,kj< : m.ki = nmax m.kj (28)
2

Logo, o nmero de estados propcios, sem considerar a condio de energia


interna, , para m mpar:

m -1
=> #Opt (m mpar) = -1 (29)
2

Este resultado tambm est em acordo total com as observaes de sistemas com
poucos elementos.
agora possvel analisar o efeito da aplicao condio de energia interna.

C. A condio de energia interna

A condio de energia interna implica que:

m.(m - 1)
k,jN,kj,0<nk ,nj< : nk>nj =>U(m,nk )>U(m,nj) (30)
2

Note-se que os sistemas so simtricos no sentido em que todas as configuraes


n n
em n < max , sero repetidas para n > max , substituindo ligaes por nenhuma ligao
2 2
e colocando ligaes onde no havia nenhuma. Como consequncia, estes estados
simtricos tero a mesma quantidade de informao armazenvel e entropia.
Por isso conclumos que a aplicao da condio de energia interna mnima, leva
n
a que solues satisfatrias nunca tero mais que max ligaes. Ento, podemos impor a
2
condio seguinte para um estado ser propcio:

nmax
(m,nk ) propcio se, e s se, nk (31)
2

O nmero de estados propcios ser reduzido aproximadamente metade do


n
nmero obtido em (24) e (29). O caso n = max ser considerado separadamente.
2
Comeamos por determinar as consequncias da condio de energia interna
quando m par.

39
nmax
Note-se que, se m par, n = , no um estado propcio, o que pode ser
2
nmax
provado por absurdo. Se n = um estado propcio do sistema, ento possvel
2
escrever um dos dois possveis casos:

nmax
a) = m.k
2
m.(m -1)
2 m -1
=> = m.k => =k
2 4

Se m par, ento (m-1) mpar e k no um inteiro. Porque k tem que ser inteiro,
n = nmax/2 no um estado propcio do sistema.
Da segunda condio:

nmax
b) = nmax m.k
2
n nmax
=> - nmax + max = - m.k => = m.k
2 2

Este caso equivalente ao anterior, pois tambm no h nenhum inteiro k soluo


da equao. Deste raciocnio possvel concluir que o nmero total de estados propcios
n
no depende do caso n = max e, quando m par, ao introduzir a condio de energia
2
interna mnima, reduz-se o nmero de estados propcios a metade:

m- 2
n nmax/2 => #Opt (m par) = (32)
2

De modo a obter as consequncias da condio de energia interna mnima em


sistemas com m mpar segue-se o mesmo mtodo.
Note-se que se m mpar, n = nmax/2, um estado propcio se, e s se, m um
mltiplo de 4. Isto verdade porque, se n = nmax /2 um estado propcio do sistema, ento
possvel escrever um de dois casos possveis:

m.(m - 1)
2 m -1
a) nmax/2 = m.k => = m.k => =k
2 4

Como m mpar, (m-1) par, e k um inteiro se e s se (m-1) mltiplo de 4.


Sendo que k tem que ser inteiro conclui-se que n = nmax /2 um estado propcio do
sistema quando:

40
(m, n = nmax /2) propcio se: p N: 4.p = m-1

Da segunda condio temos:

nmax nmax
b) nmax/2 = nmax m.k => - nmax + = - m.k => = m.k
2 2

Este caso equivalente ao caso anterior e a mesma concluso segue-se. Assim, o


nmero total de estados propcios depende do caso n = nmax /2 somente quando (m-1)
um mltiplo de 4 e, introduzindo a condio de energia, o nmero de estados propcios s
ser reduzido para metade quando a condio b) que se verifica:

nmax
a) Se (m-1) = 4.p => um estado propcio
2
nmax
b) Se (m-1) 4.p => no um estado propcio
2

Quando (m-1) um mltiplo de 4, ento o caso n = nmax /2, tem que contar como
um estado propcio.
De (29), e se (nmax /2) um estado propcio, ento o nmero de estados propcios
ser mpar, e assim, ao dividir por 2, resulta um nmero no inteiro. Para levar o estado
(nmax/2) em conta, deve ser acrescentado ao nmero de estados propcios.
Ento, se p representa um ni teiro, e se m for mpar, o nmero de estados propcios
ser dado por:

nmax m -1 1 1
Para n : Se (m-1) = 4.p => #Opt(m mpar) = + (33a)
2 4 2 2
nmax m -1 1
Para n : Se (m-1) 4.p => #Opt (m mpar) = (33b)
2 4 2

Finalmente, de (29), (33a) e (33b), a regra completa para o nmero de estados


propcios de um sistema de m elementos, , sendo p um inteiro:

m -1
#Opt (m mpar) = , se (m-1) = 4.p (34a)
4
m -1 1
#Opt (m mpar) = , se (m-1) 4.p (34b)
4 2
m-2
#Opt (m par) = (34c)
2

Com estas equaes agora possvel obter a probabilidade de um sistema de m


elementos adoptar um estado propcio emergncia de inteligncia aleatoriamente.

41
5. Probabilidade do sistema adoptar um estado propcio aleatoriamente

A probabilidade de um sistema, com um nmero aleatrio de ligaes, estar num


estado propcio, determinada por (excluindo os casos n = 0 e nmax, e porque
m.(m - 1)
0<n< :
2

# Opt
% Opt = (35)
nmax 1

Ento, de (34a, b e c), as probabilidades de ocorrncia de um estado propcio, para


um sistema de m elementos, escolhendo qualquer estado ao acaso, so, sendo p um
inteiro:

m- 2
m par: %Opt = 2 .100% (36a)
nmax 1
m -1
m mpar (m-1) = 4p: %Opt= 4 .100% (36b)
nmax 1
m -1 1

m mpar (m-1) 4p: %Opt= 4 2 .100% (36c)
nmax 1

Quanto mais elementos possuir um sistema, menor a probabilidade. Diminui


aproximadamente de acordo com a lei de variao (1/m). A diferena entre os trs casos
tender a desaparecer para sistemas onde m >> 1.
No entanto, os estados propcios so, na realidade, os estados adoptados pelos
sistemas biolgicos [2]. Ento, o processo de como os sistemas atingem tais estados
propcios emergncia de inteligncia deve ser analisado.

6. Processos para atingir estados propcios emergncia de inteligncia

A estrutura, que determina as propriedades do sistema, definida pelas ligaes


entre elementos. O processo de introduo de ligaes entre elementos , ento, o
responsvel pelo sistema atingir estados propcios.
Este processo, de aumento de interaces entre elementos esparsamente ligados
de um sistema, um processo de difuso e corresponde a um aumento da quantidade
relativista de informao do sistema.
Shannon [15], ao calcular a entropia da probabilidade de ocorrncia de eventos
designou-a por quantidade de informao do sistema e provou que o grau de ordem em
qualquer sistema pode ser medido atravs da funo de distribuio das mensagens
enviadas pelo sistema, a entropia de informao, independentemente da natureza das
mensagens e interaces.

42
Quando so consideradas s certas mensagens sobre o sistema, a quantidade de
informao torna-se uma medida relativista. No modelo aqui usado s se consideram
pertinentes as informaes sobre o nmero de ligaes de cada elemento.
Foi mostrado [5][6] que a estrutura de um sistema s compatvel com o valor de
informao relativista at um certo valor mximo, p(i) = 1/e. Ao alcanar tal valor,
mudanas estruturais acontecem.
Assim, a variao da informao relativista a causa da emergncia de novas
estruturas e, portanto, pelo aparecimento de novos comportamentos, quando o sistema
est sujeito penetrao de interaces entre os elementos.
As variaes de informao e de entropia so formalmente iguais mas medem
fenmenos e grandezas diferentes.
A variao da informao responsvel por mudanas de estrutura num sistema,
sendo a variao da entropia uma medida da energia necessria para essas transformaes
acontecerem ou para o sistema adquirir um estado de equilbrio, agindo como uma fora
no sistema. Tais foras so designadas por foras entrpicas, existindo exemplos em
vrias reas [18 a 27].
Uma fora entrpica causa, por exemplo, a difuso de elementos em solues
qumicas, diminuindo os diferenciais de concentrao. Um aumento da entropia do
sistema o resultado, no equilbrio.
H exemplos de fenmenos onde certas reas do sistema se tornam mais
ordenadas, i.e., onde ocorrem diminuies de entropia devido a esta fora.
O caso da "priso entrpica de uma partcula grande, num meio com vrias
partculas menores, um exemplo. Neste caso, ordem emerge da desordem porque a
entropia do sistema devida essencialmente s partculas pequenas. A aproximao da
partcula grande s esferas pequenas ou paredes do recipiente determina o volume do
qual as partculas pequenas so excludas.

7. Processos de auto-assemblagem

Processos de auto-assemblagem de estruturas biolgicas so exemplos bem


conhecidos de processos dirigidos pela variao de entropia. Estes processos so
responsveis por gerar estruturas mais ordenadas, exportando entropia para o exterior.
A auto-assemblagem um exemplo de um processo de auto-organizao
espontnea, onde o aumento de organizao no controlado pelo ambiente ou outra
fora externa mas devido s propriedades intrnsecas do sistema. No obstante, embora a
energia do sistema varie devido s foras entrpicas, a variao de informao a
responsvel pelas mudanas estruturais em sistemas e, assim, a emergncia de
inteligncia um processo dirigido pela variao da informao.

8. Processos dirigidos pela variao de informao

A variao de informao relativista possvel, num sistema num certo estado,


mensurvel pela amplitude do intervalo de todos os possveis valores de informao.
Num modelo de sistema que consiste somente em elementos e ligaes, cada
valor de informao corresponde a uma configurao distinta de ligaes de um estado.

43
Os estados com amplitudes superiores so os propcios emergncia de inteligncia, pois
possuem quantidades maiores de bits disponveis para computao.
Supomos que, quanto maior esta quantidade, mais inteligente o sistema .
A variao da quantidade total de informao relativista num sistema onde uma
difuso de processo de interaces ocorreu, ou ocorre, obtida usando (6).
Note-se que, devido ao processo de adio de ligaes, a entropia aumenta, de
acordo com (10), enquanto n < nmax/2. Considerando que sistemas possuem capacidade
de dissipao de calor limitada, este aumento limitar o estabelecimento de interaces.
Tal processo de adio de ligaes permite sistemas para passar por todos os
estados. Quando a informao alcana o valor (1/e), uma transio de fase acontece. Com
este processo, o sistema chegar eventualmente a estados de mximos relativos de I.

Figura 1 Processo controlado pela variao de entropia, causando a difuso de interaces. Devido
variao da informao, uma mudana estrutural ocorre: emerge um conjunto contendo quase todos os
elementos .

A vizinhana de estados escolhida resulta das limitaes na capacidade do sistema


de acumular energia para sustentar o sistema de processamento de informao, a
capacidade de dissipao de calor, e a necessidade de maximizao da informao
armazenvel.
Por exemplo, nos humanos, a funo de dissipao de calor executada pelo
sistema de irrigao (fluxo de sangue), limitada pelo tamanho do pescoo e veias,
necessrias para transportar o sangue ao crebro. O tamanho do corao para bombear tal
sangue limita tambm a capacidade de dissipao de calor. Ainda outra limitao o
tamanho do crnio [29].

Concluses

Usando um modelo geral de sistemas baseado em interaces e no nas


propriedades internas dos elementos [28] provou-se que o nmero de estados propcios
emergncia de inteligncia, tal como foi aqui definida, tal que este evento improvvel
mas est longe de ser impossvel.
Mais, identificou-se um processo que conduz os sistemas a estados propcios
emergncia de inteligncia. A variao de informao e entropia agem como foras
motrizes do processo de difuso que conduz ao aumento do nmero de interaces, sendo
este processo limitado pela energia interna disponvel e capacidade de dissipao de
calor. Dentro da vizinhana de estados assim alcanada, os estados propcios
emergncia de inteligncia so os de capacidade de armazenamento de informao
mxima.

Referncias

44
[1] Andre S. Ribeiro, F. Carvalho Rodrigues, Criteria for systems intelligence, submitted for publication.
[2] Andre S. Ribeiro, F. Carvalho Rodrigues, The emergence of intelligence in a system, submitted for
publication.
[3] Clculo do Consumo Energtico e Capacidade de Armazenamento de Informao em Sistemas
Complexos, F. Carvalho Rodrigues, Andr S. Ribeiro, Setembro de 2002, Conferencia Nacional de Fsica
2002, Portugal.
[4] The Cost in Energy and in Time of the Intelligence, F. Carvalho Rodrigues, Andr S. Ribeiro,
Scientific Annals of UnI, Vol 2, no. 3, Winter 2001
[5] Carvalho Rodrigues, F., Dockery, J., 1996, Defining Systems Based on Information Exchange:
Structure from Dynamics, BioSystems 38,229-234.
[6] Carvalho Rodrigues, F.,1990/1991, Funo de Coeso de Estruturas baseadas em Informao,
Memrias da Academia, TOMO XXXI, Academia das Cincias de Lisboa.
[7] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Epidemics, Euro. J. Operational Research,71,45-60.
[8] Carvalho Rodrigues, F,1989. A proposed entropy measure for assessing combat degradation, J.
Opl.Res.Soc.(UK), 40 (8): 789-93.
[9] Investigations, Kauffman, S. A., Oxford University Press, 2000.
[10] At Home in the Universe, Kauffman, S. A., Oxford U. Press, 1995.
[11] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61
[12] Hidden Order, J. Holland, Addison Wesley, 1995.
[13] Prigogine I., Paul Glansdorff (1971), Thermodynamic Theory of Structure, Stability and Fluctuations,
Wley, New York
[14] Prigogine I., Isabelle Stengers (1984), Order out of Chaos, Bantarn, New York (trad. it. La nuova
alleanza, Einaudi, Torino 1981
[15] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 1948.
[16] Jumarie, Guy M., Subjectivity, Information, Systems, An introduction to a theory of relativistic
cybernetics , Gordon and Breach, Science Publishers, Inc., 1986.
[17] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M.
Duncan, ed. Pergamon Press, Oxford (1977).
[18] Hard Spheres in Vesicles: Curvature-Induced Forces and Particle-Induced Curvature", by A.D.
Dinsmore, D.T. Wong, Philip Nelson, A.G. Yodh; Phys. Rev. Lett. 80, 409 (1998).
[19] http://www.che.utexas.edu/~truskett/research1.htm
[20] Entrpicaally driven self-assembly of multichannel rosette nanotubes, Hicham Fenniri, Bo -
Liang Deng, Alexander E. Ribbe, Klaas Hallenga, Jaby Jacob and P. Thiyagarajan,
http://www.pubmedcentral.nih.gov/
[21] S. Asakura and F. Oosawa, J. Polym. Sci 33, 183 (1958).
[22] Y. Mao, M. E. Cates, and H. N. W. Lekkerkerker, Physica A 222, 10 (1995).
[23] R. Dickman, P. Attard, and V. Simonian, J. Chem. Phys. 107, 205 (1997).
[24] D. S. Corti and H. Reiss, Mol. Phys. 95, 269.
[25] T. M. Truskett, Second Proposition, Princeton University (1999).
[26] J. C. Crocker, J. A. Matteo, A. D. Dinsmore, and A. D. Yodh, Phys. Rev. Lett. 82, 4352 (1998).
[27] Dinsmore, Yodh, Pine. Nature 383, 239, (1996).
[28] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[29] Carlo Ranzi, Homo h Setenta Milhes de Anos, Distri Editora, Lisboa, 1983.

45
Captulo 4

Sistemas mundos pequenos no so necessariamente propcios


emergncia de inteligncia
Resumo

Da observao que alguns sistemas neuronais biolgicos e outros sistemas onde


elementos trocam informao entre si, adoptam estruturas mundo pequeno, fomos
verificar se os sistemas inteligentes so sempre mundos pequenos. Para tal ser verdade, a
estrutura mundo pequeno deve resultar das condies de emergncia de inteligncia [1 a
5] em sistemas.
Aps determinar o conjunto de todos estados propcios emergncia de
inteligncia em sistemas de m elementos, fomos verificar quais destes so estruturas
mundo pequeno [6][7], i.e., para cada estado propcio, o coeficiente de agrupamento
correspondente e grau de separao [8][9] foram calculados.
Destes clculos determinaram-se quais estados, propcios emergncia de
inteligncia podem adoptar configuraes mundo pequeno.

Palavras-chave: Emergncia de Inteligncia, Mundo pequeno.

46
1. Introduo

A teoria dos grafos mundos pequenos foi desenvolvida para representar um caso
especial de sistemas, com muitos elementos e interaces, distribudas principalmente de
um modo regular, mas com uma elevada taxa de transferncia de informao entre todos
os elementos, devido ao baixo valor do grau de separao mdio, sendo as poucas
ligaes aleatrias por tal responsveis.
Inicialmente, a estrutura de mundos pequenos foi observada em redes sociais por
Stanley Milgram [6] e Mark S. Granovetter [7], no mbito da sociologia, e
posteriormente foi desenvolvida usando conceitos da teoria dos grafos.
Tais estruturas revelaram caractersticas de grafos regulares, como um coeficiente
de agrupamento elevado, sendo simultaneamente capazes de representar praticamente
qualquer grau de aleatoriedade de uma distribuio de ligaes [10] pelos elementos de
um sistema.
A distribuio aleatria de ligaes provou ser a estrutura cujo grau de separao
mdio entre os elementos do sistema o menor possvel [11 a 14]. A estrutura mundo
pequeno tambm capaz de exibir uma elevada taxa de transmisso de informao entre
elementos, devido ao pequeno nmero mdio de ligaes necessrias percorrer entre cada
par de elementos.
Esta estrutura est presente no sistema nervoso da C. Elegans [15 a 21] e
amplamente observada em outras redes neuronais biolgicas, bem como em outros
sistemas de vrias naturezas [22 a 34] onde elementos interagem entre si.
Destes factos, perguntmos se os sistemas inteligentes so, necessariamente,
mundos pequenos. Para responder a esta pergunta foram calculados o grau de separao
mdio (<L>), e o coeficiente de agrupamento mdio (<C(p)>), bem como a
conectividade dos estados propcios emergncia de inteligncia, o que permite verificar
se, sendo um estado propcio, tambm ser, necessariamente, um mundo pequeno.
Assim, comeamos por rever sucintamente as caractersticas de estruturas mundo
pequeno e apresentar as relaes para obter <L> e <C(p)>.

2. A estrutura mundo pequeno

O algoritmo usualmente utilizado para gerar estruturas mundo pequeno foi


apresentado por Watts e Strogatz [8]. Vrios outros algoritmos, capazes de gerar mundos
pequenos foram estudados e muitas aplicaes [35] propostas.
As estruturas mundo pequeno so caracterizadas por um baixo grau de separao
mdio, imagem das redes aleatrias, mas tambm por um coeficiente de agrupamento
elevado, tal como em grafos regulares [8].
Dados dois locais (elementos do sistema) si e sj, o menor percurso entre eles, Lij
dado pelo menor nmero de ligaes percorridas para um sinal de si alcanar sj. O grau de
separao mdio (que define o tamanho do grafo) calculado pela mdia dos tamanhos
de todos os percursos. Se m for o nmero total de elementos, o grau de separao mdio
determinado por [8][36]:

Lij
<L> = C
i,j
m
(1)
2

47
Suponha um grafo de m elementos e n ligaes onde, em mdia, cada elemento
ligado aleatoriamente a k outros elementos (onde k o nmero mdio de ligaes dos
elementos do sistema, i.e., 2n/m). Se cada elemento tem, em mdia, k ligaes, podem-se
alcanar k elementos distintos, com um nico passo (uma ligao) a partir de cada
elemento. Em geral, com j passos, comeando num elemento podem-se alcanar kj
elementos, donde a caracterstica Lei da Potncia observada nestas estruturas [25][29].
Ento, para um sinal emitido por um elemento, alcanar todos os m elementos do
grafo, com m = kl, precisa-se, em mdia <L> passos, dados por:

Log (m )
L (2)
Log( k )

Esta relao vlida, com um certo grau de aproximao, quer para grafos
mundos pequenos [22] quer para aleatrios. O grau de separao mdio tem sempre um
valor menor para grafos aleatrios que para grafos regulares ou semi-regulares (supondo
igual nmero de elementos e ligaes em ambos os casos).
A topologia proposta por Watts e Strogatz [8] permite ao grafo variar de regular
(para p, a probabilidade para transformar uma ligao regular em aleatria, nula) para
uma estrutura totalmente aleatria (para p = 1). Para valores pequenos de p, uma estrutura
quase regular obtida com somente algumas ligaes aleatrias. Estas ligaes podem
ser vistas como defeitos na regularidade dos grafos.
Para quantificar estes defeitos, Watts e Strogatz definiram um coeficiente de
agrupamento, C(p) que mede, para todo o elemento st , quantos dos seus mais prximos
vizinhos tambm so primeiros vizinhos entre si [8].
O coeficiente de agrupamento, C(p), pode ser obtido [8][37][38] sabendo a
estrutura de ligaes. Para um elemento i, o seu coeficiente de agrupamento Ci dado por
uma relao entre o nmero de ligaes existentes entre os seus vizinhos de 1 ordem e,
Ei, o nmero mximo de ligaes possveis entre esses vizinhos: [ki.(ki-1)/2]. Um sistema
tem um coeficiente agrupamento dado pela mdia de todos os elementos:

2.Ei
C(p) = Ci = (3)
i
ki .( ki 1) i

Para uma distribuio aleatria de ligaes de um sistema de m elementos, tal


quantidade, aproximadamente [39]:

k
Crand = (4)
m

Watts e Strogatz declararam que uma densidade pequena p de ligaes de longo


alcance eram suficientes para reduzir <L(p)> significativamente, aproximando-se de
modo assimpttico do valor mximo (em p = 1), correspondente a grafos aleatrios.
Por outro lado, para quase todos os possveis valores de p, C(p) fica praticamente
constante, sofrendo uma diminuio rpida quando o valor de p se aproxima de 1. Assim,

48
concluiu-se [8] que sistemas com estruturas mundo pequeno tm, para valores
intermdios de p, caractersticas tpicas de estruturas aleatrias, i.e., comunicao rpida
entre todos os elementos (<L>SW < L>random) e um coeficiente de agrupamento elevado
(CSW > Crandom ), tpico de estruturas regulares.
Considerando que algumas redes neuronais biolgicas exibem estruturas mundo
pequeno, perguntmos se os sistemas inteligentes seriam, necessariamente, mundos
pequenos. Para tal ser verdade, os estados propcios emergncia de inteligncia que
agora definimos, tm que implicar estruturas mundo pequeno.

3. Estados propcios emergncia de inteligncia

Definimos um sistema como propcio emergncia de inteligncia se este se


encontra num estado capaz de armazenar uma quantidade de informao mxima,
exigindo para tal um consumo mnimo de energia, dentro de uma vizinhana de estados.
Sendo U a energia necessria para criar o sistema e Q o calor por ele dissipado, estas
condies podem ser declaradas por [1][2]:

(Imax Imin) mximo (5)


U mnimo (6)
Q mnimo (7)

A quantidade de informao que corresponde a cada configurao ser obtida da


equao de Shannon [15] com, no nosso caso, (i) representando o nmero de elementos
com i ligaes, num universo de m elementos.
No calculamos todas as mensagens possveis enviar pelo sistema. Apenas
estamos interessados em receber as mensagens relativas ao nmero de ligaes de cada
elemento. Assim, usamos uma quantidade relativista de informao no sentido em que a
quantidade de informao das mensagens depende de nosso critrio como observadores
[16].
Num sistema de m elementos, n ligaes e uma certa distribuio dessas ligaes:

m -1
(i ) (i )
I(m,n) = - .ln (8)
i =0 m m

Agora pode-se estabelecer uma medida do nmero de mensagens distintas, em


termos do intervalo de valores de informao permitido, que um estado capaz de
receber ou enviar. Para isso definimos a quantidade de informao relativista
armazenvel [3]:

I = Imax Imin (8)

Os mximos relativos correspondero a estados propcios emergncia de


inteligncia (se as condies de energia de mnima esto satisfeitas) pois, nesses estados,
o sistema pode receber e armazenar um nmero mximo de mensagens distintas, dentro
de uma certo vizinhana de estados.

49
A energia interna U, ser funo do nmero de elementos e ligaes pois esses
so os nicos componentes do sistema. Note que o comprimento de tais ligaes no
pertinente pois, no modelo de sistema aqui usado, no relevante a localizao espacial
de elementos ou ligaes.

U = U(m,n) tal que: U n, m, (10)

Para ns, o facto relevante que a energia interna aumenta quando o nmero de
ligaes aumenta.
A entropia termodinmica ser a medida do calor dissipado pelo sistema num
certo estado, sabendo a temperatura de sistema, da relao:

Q = T. S (11)

Para calcular a entropia de cada estado usa-se a equao de Boltzmann (sendo que
W representa o nmero de configuraes que suportam o estado (m,n)):

S(m,n) = kb.log [W(m,n)] (12)

Das condies de estados propcios emergncia de inteligncia (5)(6)(7) pode-se


determinar todos estes estados, em termos do seu nmero total de ligaes , para qualquer
sistema de m elementos. Mais, no necessrio gerar todas as configuraes, o que seria
uma tarefa transcomputational [47].
Foram determinados os estados cujos valores de informao de armazenvel so
mximos e as leis de variao da entropia e energia interna com o nmero de ligaes:

m.(m - 1)
kN, 0 < n k < : nk = k.m (13a)
2
nk = nmax k.m (13b)

Entre dois estados de igual I, o propcio o de menor entropia, tal que:

m.(m - 1)
k,j N, k j, 0 < nk , nj < :
2
n n
[nk<nj nk ,nj < max ] [nk >nj nk ,nj > max ]=>S(m,nk )>S(m,nj) (14)
2 2

Finalmente, de dois estados de igual I e S, o estado propcio o de menor


energia interna:

m.(m - 1)
k,jN, kj, 0<nk ,nj< : nk > nj => U(m,nk )>U(m,nj) (15)
2

50
Um valor de limite, Umax, tambm poderia ser imposto, de condies externas ou
caractersticas particulares do sistema, como: Se U(m,nk ) > Umax ento (m,nk ) no seria
uma soluo possvel.
agora possvel determinar se estes estados so mundos pequenos. Para tal temos
que calcular o grau de separao mdio e coeficiente de agrupamento.

4. Clculo do grau de separao mdio de estados propcio emergncia de


inteligncia

Do nmero total de ligaes de estados propcios emergncia de ni teligncia, e a


sua conectividade, pode-se calcular o grau de separao mdio correspondente. Tal
clculo supe uma distribuio aproximadamente uniforme de ligaes. Usando as
condies (13a) e (15) de estados propcios:

np = m.p onde p um inteiro tal que: 1 p (m 1) (16)


4

Para uma distribuio aproximadamente aleatria de ligaes, num sistema de m


elementos, se k o nmero mdio das n ligaes por elemento, i.e, o dobro da
conectividade, tem-se [24]:

log( m) n
L= com k = 2. (17)
log( k ) m

Assim, para estados propcios emergncia de inteligncia, de (16):

log( m) ( m 1)
=> L= p inteiro: 1 p (18)
log (2. p ) 4

Podem-se obter os valores extremos de L, introduzindo os valores extremos de p:

log( m) log( m)
=> L (19)
m 1 log (2)
log
2

m 1 m log( m) log( m)
Para m >> 1 => => L (20)
2 2 m log (2)
log
2
log( m )
Assim: L log 2 (m) (21)
log (m ) log( 2)

Como m>> 1, ento log(m) >> log (2), assim, embora tendo em conta a
aproximao, substituindo a condio extrema (L 1) por (L > 1), tem-se:

51
=> 1 < L log 2 (m) (22)

Note-se que o grau de separao tem valores finitos, somente se os estados


propcios tiverem n m. Para que L tenha um valor pequeno, i.e., menor que 7 [24], a
quantidade (2.p) deve ser, pelo menos, igual a (6 m). Substituindo (2.p) por este valor em
(17) tem-se L=6. Em geral, para 2.p = jm, com j inteiro positivo, obtm-se estruturas
com L = j. Note-se que p a conectividade, e assim temos uma relao directa entre
conectividade e grau de separao.
Para que um estado propcio emergncia de inteligncia seja um mundo
pequeno, p deve ser maior que 0,5. Este tambm o valor mnimo de conectividade
preciso para a ocorrncia de uma transio de fase de um grupo de elementos pouco
unidos, para um grupo de elementos que pertencem a um mesmo agrupamento [10].
Em geral, podemos calcular quantas ligaes so necessrias para que um
sistema, num estado propcio emergncia de inteligncia, tenha um grau de separao
mdio de um determinado valor. Como o nmero de ligaes do sistema, n, igual a
(m.p) (de 13a), e se sabe que para 2.p = Lm, o grau de separao L, resulta que para
um sistema ter um grau de separao L, o nmero total de ligaes necessrio :

m
=> n = .L m (23)
2

Assim tem-se as ligaes necessrias dadas como uma funo de m e L.


Do conjunto de solues de estados propcios emergncia de inteligncia, o
nmero mnimo de ligaes para o sistema possuir uma estrutura mundo pequeno
determinado pela condio:

n>m (24)

Esta condio implica que (23) tem sempre uma soluo possvel para L (com L
igual a log2 (m) no caso extremo de n igual a m).
Podemos concluir que somente os dois estados propcios emergncia de
inteligncia de menor conectividade (n = m da primeira condio e n = m/2 da segunda
condio) no possuem configuraes mundo pequeno, pelo que, a vasta maioria dos
estados ter configuraes mundos pequenos.
Para suportar esta afirmao precisamos calcular os coeficientes de agrupamento
dos estados propcios emergncia de inteligncia.

5. Clculo do coeficiente de agrupamento de estados propcios emergncia de


inteligncia

Da definio de coeficiente de agrupamento [8], com Ei o nmero de ligaes


entre os ki elementos ligados a um certo elemento, e ki .( ki 1) o mximo nmero de
2
ligaes possvel entre esses elementos, o coeficiente de agrupamento do sistema, C(p),
determinado pela mdia para todos os elementos:

52
2.Ei
C(p) = Ci = (25)
i
ki .( ki 1) i

Para calcular esta quantidade com preciso necessrio o conhecimento total da


configurao de ligaes. Tal conhecimento e posterior clculo para todas as
configuraes em sistemas com m >> 1 impossvel [47]. Felizmente, no obstante,
possvel mostrar que estados propcios emergncia de inteligncia tm coeficientes de
agrupamento compatveis com estruturas mundo pequeno.
Para obter um valor mdio do coeficiente de agrupamento em estados propcios
emergncia de inteligncia, comeamos por considerar nmero total de ligaes destes
estados. De 13(a):

nk = m.p

Donde, e porque cada elemento tem, em mdia 2.p ligaes:

ki = 2.p (26)

Para calcular Ei destes 2.p elementos considere-se a seguinte figura, como


exemplo:

Figura 1 Detalhe de grafos regulares com k = 2,4,6, das ligaes entre k elementos (ligados a um nico
elemento). Para k = 2, C(p) = 0. Mundos pequenos somente aparecem para k > 2. Note-se que foram
representadas somente as ligaes pertinentes anlise em causa.

necessrio calcular <Ei>, em geral, para qualquer k. Para isso, desenvolvemos


uma frmula que, supondo k par e m > 2.k, e supondo ainda um grafo com m >> 1 tal que
os primeiros vizinhos de k no so tambm vizinhos de ordem 1 entre si devido a outras
ligaes. Supondo k par, para m grande (m >> 1), tem-se:

k
1
2
k
< E > = 3. 2 i
i =1
(27)

possvel verificar que esta equao verdadeira, nas condies declaradas.


Imagine-se uma parte de uma rede circular e analise-se o caso de um elemento e seus
vizinhos de ambos os lados (figura 2).

53
Figura 2 Processo de contagem de ligaes entre vizinhos de um elemento central. As linhas a cheio
representam as ligaes pertinentes para a computao de Ei . Note-se que o nmero de ligaes entre
vizinhos do elemento central diminui linearmente, medida que nos afastamos do elemento central.
Isto porque cada par de elementos pode ter somente uma ligao entre si e tambm porque as ligaes ao
elemento anterior j foram levados em conta no processo de contagem anterior.

Considerando um 1 vizinho, ele tambm ligado a k elementos, da mesma


maneira que o elemento central o . Destes k elementos, k/2 so no mesmo lado do
elemento inicial que o tal vizinho. Destes, [(k/2)-1] elementos tambm tm uma ligao
ao elemento central.
Para o prximo vizinho somente consideramos [(k/2)-2] ligaes aos elementos
tambm ligados ao elemento central, pois o resto das ligaes j foi levado em conta. O
processo repete-se at se alcanar um vizinho do elemento central cujas ligaes aos
outros vizinhos j tenham sido contadas pelos termos anteriores.
Ento, o nmero de ligaes entre os vizinhos no lado esquerdo (por exemplo) do
k
1
2
k
elemento central : 2 i .
i =1
O mesmo verdade para o outro lado e assim tem-se
k
1
2
k
2 i ligaes adicionais.
i =1
Agora tem que se contar as ligaes entre vizinhos de um lado com os do outro
lado. Estas ligaes podem ser contadas somente considerando as ligaes de um lado
para o outro e no ao contrrio, de modo a no contar uma ligao duas vezes.
k
1
2
k
O nmero destas ligaes exactamente 2 i . Ento, o nmero total de
i =1
ligaes entre os vizinhos de um elemento central, num sistema onde cada elemento tem,
k
1
2
k
em mdia, k ligaes determinado aproximadamente por: 3 i .
i =1 2
Desta frmula, possvel obter <E>, conhecendo k. Pode-se conferir a validade
da frmula usando exemplos simples, contando as ligaes nas figuras de grafos, como
no caso da figura 2, por exemplo. Da frmula, para k igual a 2, <E> nulo. Quando k =
4, E = 3, para k = 6 vem E = 9 e, para k igual a 8 tem-se E = 18.
Pode-se simplificar (27):

54
k
1
k 2
< E > = 3. . (28)
2 2

Substituindo <E> e ki na definio de coeficiente de agrupamento:

k
1
k 2
3. .
=> C(p) = 2. 2 2 (29)
2.p.(2.p - 1)

3 ( p 1)
Como k = 2.p: C(p) = . (30)
2 (2.p - 1)

Das condies de estado propcio emergncia de inteligncia, como p adopta


m 1
valores inteiros no intervalo, 1 p , os valores extremos do coeficiente de
4
agrupamento destes estados so, usando (30) e os valores extremos de p:

m 1
1
3 (1 1) 3 4
. C(p) . (31)
2 (2.1- 1) 2 m 1
2. -1
4

O primeiro extremo nulo, correspondendo ao estado n = m. O segundo extremo


pode ser obtido em aproximao, supondo m>> 1:

m

3 4
=> 0 C(p) . (32)
2 m

2
3
=> 0 C(p) (33)
4

Na realidade, (3/4) o valor extremo na aproximao m>> 1, calculado por vrios


autores [8][35], para estruturas mundo pequeno.
agora possvel comparar este resultado com os valores de C(p) de redes
aleatrias, calculvel em aproximao pela frmula seguinte [8]:

k
Crand = (34)
m

55
n 2.p
Como k = 2. = 2.p, ento: Crand = (35)
m m

m1
Porque, 1 p , os valores extremos de C(p), para estados propcios
4
emergncia de inteligncia, so, supondo distribuies aleatrias de ligaes :

m 1
2 4
=> Crand 2. (36)
m m
1
=> Para m >> 1: 0 < Crand < (37)
2

Este valor para estruturas aleatrias sempre menor que o previamente obtido
para as configuraes mundos pequenos. Assim, o coeficiente de agrupamento existente
em alguns estados propcios emergncia de inteligncia , para algumas configuraes,
caracterstico de estruturas mundo pequeno.
Somente usmos a primeira (nk = k.m) (13a) e terceira condio (nk < nmax/2) (15)
de estados propcios emergncia de inteligncia. No obstante, sabe-se que, para m
mpar, a condio (13b) obtm as mesmas solues que (13a), e o mesmo pode ser dito
quando m par, se forem usadas quantidades mdias. A nica observao importante
que, o estado n = m/2, da segunda condio, no tem um grau de separao caracterstico
de mundos pequenos (da mesma maneira que n = m, da primeira condio, no tem).

Concluses

Da observao que alguns sistemas neuronais biolgicos e outros sistemas onde


elementos trocam informao entre si, adopte estruturas mundo pequeno, fomos verificar
se sistemas inteligentes so sempre mundos pequenos. Para tal ser verdade, a estrutura
mundo pequeno deveria ser o resultado das condies de emergncia de inteligncia.
Depois de determinar o conjunto de estados propcios emergncia de
inteligncia em sistemas de m elementos, fomos em verificar quais destes so estruturas
mundo pequeno, i.e., para cada estado propcio emergncia de inteligncia, o
coeficiente de agrupamento correspondente e grau de separao mdio foram calculados.
Comparmos os valores obtidos com os que seriam obtidos supondo distribuies
aleatrias de ligaes. Verificmos que, embora a maioria de estados propcios
emergncia de inteligncia seja capaz de adoptar estruturas mundo pequeno, alguns no o
so. Assim, as condies emergncia de inteligncia no implicam, em todos os casos, a
existncia de uma estrutura mundo pequeno embora na maioria de casos tal seja possvel.
Os valores do grau de separao mdio e do coeficiente de agrupamento foram
obtidos usando os valores mdios do nmero de ligaes de cada elemento. Note-se que,
para cada estado propcio emergncia de inteligncia, algumas configuraes so
mundos pequenos, e algumas no sero.

56
Referncias

[1] Andre S. Ribeiro, F. Carvalho Rodrigues, Critrios para inteligncia do sistemas, submeteu para
publicao.
[2] Andre S. Ribeiro, F. Carvalho Rodrigues, O aparecimento de inteligncia em um sistema, submeteu
para publicao.
[3] Andre S. Ribeiro, F. Carvalho Rodrigues, Estratgias para sistemas para atingir estados propcios
emergncia de inteligncia, submeteu para publicao.
[4] Clculo fazem Consumo Energtico e de de Capacidade de de Armazenamento em de Informao
Sistemas Complexos, F. Carvalho Rodrigues, Andr S. Ribeiro, Setembro de 2002, Conferencia de de
Nacional Fsica 2002, Portugal.
[5] o Custo em Energia e a tempo da Inteligncia, F. Carvalho Rodrigues, Andr S. Ribeiro, Scientific
Annals of UnI, Vo l 2, no. 3, Winter 2001
[6] S. Milgram, The Small World Problem, Psychol. Today 2, 60-67 (1377)
[7] Granovetter, Mark S. The strength of weak ties. American Journal of Sociology, Volume 78, Issue 6
(May, 1973) 1360-1380.
[8] Watts, D. J. & Strogatz S. H. Collective dynamics of small-world networks. Nature 393, 440442
(1998).
[9] D. J. Watts. "Networks, Dynamics and The Small World Phenomenon", American Journal of Sociology
105(2):493-527 (1999).
[10] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1370), 17-61.
[11] Transies de fase geomtricas em redes esparsas e simulaes de um processo de no-equilbrio
Marcio Argollo Ferreira de Menezes, PhD Thesis
[12] D. J. Watts. Small Worlds: The Dynamics of Networks Between Order and Aleatoriedade. Princeton,
NJ, Princeton University Press (1999).
[13] Fan Chung Linyuan Lu The average distance in a random graph with given expected degrees Dep.
of Mathematics, University of California at San Diego, La Jolla, CA 92093-0112
[14] A-L Barabsi and R Albert 1999 Emergence of scaling in random networks Science 286 509
[15] Achacoso, T., and Yamamoto, W. (1992) AYs Neuroanatomy of C. Elegans for computation, Boca
Raton, FL: CRC.
[16] Caenorhabditis elegans WWW Server - http://elegans.swmed.edu/
[17] WormBase - http://www.wormbase.org/
[18] Wood, W.B., et al, In The Nematode Caenorhabditis Elegans (Monograph 17) (W.B. Wood and
Community of C. Elegans Researchers, Eds), pp. 1-489. Cold Spring Harbor, NY, 1988.
[19] Worm Atlas - http://www.wormatlas.org/index.htm
[20] White, J. G., Southgate, E., Thomson, J. N. and Brenner, S. (1986). The structure of the nervous
system of Caenorhabiditis Elegans. Phil. Trans. R.Soc. Lond. B 314, 1-340.
[21] http://elegans.swmed.edu/Sydney.html
[22] Barabasi, Albert-Laszlo. Linked: The New Science of Networks. Cambridge, Massachusetts: Perseus
Publishing, 2002.
[23] Albert R, Jeong H, Barabasi A-L 1999: Diameter of the World-Wide Web. Nature, 410,9,130-131.
[24] Scale -free characteristics of random networks: The topology of the world wide web, A.-L. Barabsi,
R. Albert, and H. Jeong, Physics A 281, 69-77 (2000)
[25] Power-Law Distribution of the World Wide Web, A.-L. Barabsi, R. Albert, H. Jeong, and G.
Bianconi, Science 287, 2115 (2000).
[26] The large-scale organization of metabolic networks, H. Jeong, B. Tombor, R. Albert, Z. Oltvai, and
A.-L. Barabsi, Nature 407, 651-654 (2000).
[27] Topology of evolving networks: local events and universality, R. Albert and A.-L. Barabsi, Phys.
Rev. Lett. 85, 5234 (2000).
[28] Competition and multiscaling in evolving networks, G. Bianconi, A.-L. Barabasi, Europhys. Lett. 54
436 (2001).
[29] The physics of the Web, A.-L. Barabasi, Physics World, 14, 33 (2001).
[30] W. Aiello, F. Chung, L. Lu. Random evolution of massive graphs. Handbook of Massive Data Sets,
(Eds. James Abello et al.), Kluwer, 2002, pages 97-122

57
[31] M.E.J. Newman, S.H. Strogatz, D.J. Watts. Random graphs with arbitrary degree distributions and
their applications. Phys. Rev. E 64, 026118 (2001).
[32] Soon-Hyung Yook, Hawoong Jeong, and Albert-Lszl Barabsi Modeling the Internet's large-scale
topology. Proceedings of the Nat'l Academy of Sciences 99, 13382-13386 (2002).
[33] Jon M. Kleinberg, Ravi Kumar, Prabhakar Raghavan, Sridhar Rajagopalan, Andrew S. Tomkins, The
Web as a Graph: Measurements, Models, and Methods, Proceedings of the 5th Annual International
Conference on Computing and Combinatorics, 1999
[34] Watts, D.J. (1999b). Networks, dynamics, and the small-world phenomenon. American Journal of
Sociology, 105, 493-527
[35] Petter Holme, Characteristics of Small World Networks, 20th April 2001.
[36] http://www.efunda.com/math/exp_log/log_relation.cfm
[37] J. Davidsen, H. Elber, S. Bornholdt, Emergence of a Small World from Local Interactions: Modeling
Acquaintance Networks, Phys. Rev. Lett. 88, number 12, (25 March 2002).
[38] Case, J. The continuing Appeal of Small-World Network, SIAM News, Vol 34 n 4.
[39] M. E. J. Newman, Clustering and preferential attachment in growing networks" cond-mat/0104209.
[40] Carvalho Rodrigues, F., Dockery, J., 1937, Defining Systems Based on Information Exchange:
Structure from Dynamics, BioSystems 38,229-234.
[41] Carvalho Rodrigues, F.,1990/1991, Funo de Coeso de Estruturas baseadas em Informao,
Memrias da Academia, TOMO XXXI, Academia das Cincias de Lisboa.
[42] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Epidemics, Euro. J. Operational Research,71,45-60.
[43] Hidden Order, J. Holland, Addison Wesley, 1995.
[44] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[45] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 188.
[46] Jumarie, Guy M., Subjectivity, Information, Systems, An introduction to a theory of relativistic
cybernetics , Gordon and Breach, Science Publishers, Inc., 1986.
[47] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M.
Duncan, ed. Pergamon Press, Oxford (1977).

58
Captulo 5

A relao entre conectividade e grau de separao mdio em grafos

Resumo

Neste captulo analisado o efeito da variao da conectividade [1] no grau de


separao mdio [2] em grafos. Determinamos, em geral, a variao da conectividade
necessria para uma dada variao do grau de separao mdio.
Em sistemas onde os elementos so capazes de trocar informao [3][4] entre si,
um aumento da velocidade a que essas transferncias de informao so feitas
alcanvel com um aumento em conectividade [5]. Tal aumento em conectividade feito
custa de um aumento da energia interna do sistema, isto , do nmero total de ligaes
do sistema.
Assim, calculamos o custo da variao do grau de separao mdio, em energia
interna [6], devido necessidade de aumento de conectividade. Dependendo das
limitaes energticas do sistema, um valor do grau de separao mdio mnimo pode ser
estabelecido.

Palavras-chave: Conectividade, Grau de separao mdio.

59
1. Introduo

Um sistema um conjunto de elementos e ligaes [7], cuja estrutura reside nas


interaces, e no nas propriedades internas dos elementos [7][8][9].
A taxa de transferncia de informao entre elementos directamente dependente
do grau de separao mdio do sistema.
sabido que o aumento da informao [10], em alguns casos, leva o sistema a
mudanas estruturais [11]. A propagao de doenas [12], o fluxo de trfego, a coeso de
exrcitos [13] e muitas outras propriedades [14] exibidas pelos sistemas, so tambm
determinadas pela estrutura de interaces entre elementos, mais do que pelas
propriedades internas dos elementos.
Em geral, quanto menor o grau de separao dos elementos, mais rpido se
torna a troca de informao eles. Porm, a diminuio do grau de separao s acontece
custa do aumento em conectividade, ou seja, custa de um aumento da energia interna do
sistema, necessria para criar as ligaes que reduzam o grau de separao.
possvel determinar a variao necessria em conectividade de forma a diminuir
o grau de separao mdio num sistema. Desta anlise, uma lei de variao do grau de
separao mdio com a conectividade estabelecido, donde se deduz uma relao do
custo, em energia interna, para construir a estrutura que suporta o sistema.

2. Energia interna

Para este clculo, usamos um modelo de sistema onde elementos so pontos e


interaces so linhas que ligam elementos [15][16], sendo a localizao espacial dos
elementos e a distncia mtrica entre eles irrelevantes.
Assim, a energia interna U de um sistema, funo do nmero de elementos e
ligaes pois estes so os nicos componentes do sistema. Note-se que o comprimento de
tais ligaes no pertinente pois, no modelo de sistema aqui usado, no conhecida a
localizao espacial dos elementos. Ento, para um sistema de m elementos e n ligaes,
tem-se:

U = U(m,n) tal que: U n, m (1)

Do modelo resulta que a energia interna aumenta quando o nmero de ligaes


aumenta.
Com esta medida de energia interna possvel estimar o custo de diminuir o grau
de separao mdio de um sistema de m elementos, atravs da anlise da variao de
conectividade necessria.

3. Clculo da variao do grau de separao mdio em funo da conectividade

Suponha-se um sistema de m elementos e n ligaes. Se k representa o nmero


mdio de ligaes de cada elemento [17], tem-se para um sistema de m elementos e n
ligaes:

k = 2n/m (2)

60
Para uma distribuio de ligaes aproximadamente uniforme, o grau de
separao mdio do sistema, L, que mede o nmero de ligaes mnimo a percorrer para
um sinal de um elemento do sistema atingir outro, dado por [14][16]:

L = log(m)/log(k) (3)

possvel estudar a variao necessria em conectividade para diminuir o grau de


separao mdio de um sistema de m elementos e n ligaes. Desta equao e da
definio de k:

log( m)
=> L= (4)
2.n
log
m

Seja C a conectividade tal que: C = n/m [18]. Assim, tem-se:

log( m)
=> L= (5)
log( 2.C )

Desta expresso, e supondo grandezas contnuas, possvel calcular a variao de


L, ou seja, dL(m,C):

L L
dL = dm + dC (6)
m C

Assim:

1 1 1 log( m )
=> dL = . .dm + . .dC (7)
log( 2.C ) m C . log( 2.C ) log( 2.C )

Multiplicando e dividindo o primeiro termo por [log(m)] fica:

log( m ) 1 1 log( m)
=> dL = . .dm + . .dC
log( 2.C ) log( m).m C . log( 2.C ) log( 2.C )

log( m)
Como L = , tem-se:
log( 2.C )

1 1
=> dL = L. .dm + .L .dC
log( m).m C . log( 2.C )

61
dL 1 1
=> = .dm + .dC (8)
L log( m).m C .log( 2.C )

possvel estudar a variao de L, para uma variao da conectividade, supondo


que tal variao acontece com um nmero constante de elementos, variando somente o
nmero total de ligaes. Neste caso, dm = 0, donde:

dL 1
=> = .dC
L C . log( 2.C )
(m constante) (9)

Assim, a variao de L com C determinada por:

L 1
=> = L. (10)
C C . log( 2.C )

Note-se que, como C > 0 e log(2.C) > 0, porque 2.C > 1, se n > m/2, ento:

L m
< 0, se n > . (11)
C ( mconst ) 2

A condio de conectividade mnima, aqui imposta, equivale a impor que todos os


m elementos do sistema pertenam a um mesmo conjunto de elementos, i.e., este o
valor mnimo para ocorrer uma transio de fase de um sistema de elementos
esparsamente ligados para um sistema com um agrupamento gigante [18][19].
Desta relao conclui-se que o grau de separao mdio diminui com o aumento
de conectividade, para um nmero constante de elementos. Tal variao possui uma
caracterstica importante. De (10) pode-se concluir que esta variao negativa e
superior em mdulo para valores crescentes de L, ou, por outras palavras, a variao de L
cada vez menor para variaes constantes de C.
Conclumos que necessrio introduzir um nmero crescente de ligaes para
reduzir o grau de separao mdio de modo constante. Podemos verificar este resultado
calculando a variao da conectividade relativa supondo L constante. De (4):

2n
=> L. log = log(m) (12)
m

Usando as propriedades da funo logaritmo: L.log(2.n) L.log(m) = log(m)

L +1
=> log(2.n) = .log(m) (13)
L

62
agora possvel derivar esta equao em ambos os lados supondo que as
variveis so contnuas e L constante. Usando a base natural para os logaritmos [20],
du( x ) d ( 2n) L + 1 dm
como: d[ln(u(x))] = , tem-se: = . (14)
u (x ) 2n L m
dn
=> dm = L +1 (15)
n L
m

Esta expresso calcula a taxa de variao relativa da conectividade necessria


para que o grau de separao entre os elementos varie de uma unidade, em funo do
valor inicial de L. Representaremos esta taxa de variao de conectividade relativa por
(n/m):
dn

(n/m) = dm (16)
n

m

De (15), a taxa de variao da conectividade relativa pode ser calculada para


qualquer variao do grau de separao mdio desejada, resultando a seguinte tabela e
grfico:
L
1 2,00
2 1,50
3 1,33
4 1,25
5 1,20
6 1,17
7 1,14
8 1,13
9 1,11
10 1,10
11 1,09
12 1,08
13 1,08
14 1,07
15 1,07
16 1,06
17 1,06
18 1,06
19 1,05
20 1,05
Tabela 1: Taxa de variao da conectividade relativa para uma variao constante do grau de separao
mdio.

63

2.0

1.5

1.0
1 2 3 4 5 6 7 L

Figura 1: Taxa de variao da conectividade relativa para uma variao constante do grau de separao
mdio.

Observando a figura e os valores da tabela, conclumos que, a diminuio do grau


de separao mdio se torna cada vez mais dispendiosa em unidades de energia interna
(i.e, em ligaes a introduzir) para uma reduo constante. Por exemplo, diminuir L de 6
para 5 precisa de muito menos ligaes extras que as necessrias introduzir para diminuir
L de 2 para 1.
Note-se que, com esta frmula, dependendo das limitaes energticas especficas
dos sistemas, um valor do grau de separao mdio mnimo pode ser estabelecido.
Uma nota final pode ser dada relativamente entropia termodinmica do sistema.
Enquanto n < nmax/2, a entropia termodinmica aumenta com o aumento do nmero de
ligaes [5][6]. Este aumento de entropia corresponde a um aumento em calor necessrio
remover (para manter o sistema a temperatura constante [5]). Esta necessidade de mais
energia, pelo sistema, mais uma limitao diminuio do grau de separao mdio que
deve em alguns casos particulares, ser levada em considerao.

Concluses

Neste trabalho foi analisada a relao entre as variaes da conectividade e do


grau de separao mdio em sistemas.
Em sistemas de elementos capazes para trocar informao entre si, um aumento
da velocidade de troca de informao alcanvel atravs de um aumento em
conectividade. Este aumento em conectividade conseguido custa do aumento da
energia interna do sistema, funo do nmero total de ligaes do sistema, no modelo de
sistema aqui usado.
Calculmos o custo da variao do grau de separao mdio em termos do
nmero de ligaes que devem ser introduzidas ou removidas para tal variao ocorrer.
A frmula obtida permite calcular a variao relativa da conectividade que causa
uma variao de uma unidade no grau de separao entre os elementos, em funo do
valor inicial de L. Isto , supondo um valor inicial de L, determina-se a variao em
conectividade necessria para reduzir (ou aumentar) L de uma unidade.
Com uma medida de energia interna pode-se estabelecer, em geral, o custo de
diminuir o grau de separao mdio de um sistema de m elementos, em aumento de

64
energia interna necessrio. Dependendo das limitaes energticas do sistema, um valor
do grau de separao mdio mnimo pode ser estabelecido.

Referncias

[1] B. Bollobas. Random Graphs. Academic Press, NY, 1985


[2] Watts, D. J. & Strogatz S. H. Collective dynamics of small-world networks. Nature 393, 440442
(1998).
[3] Carvalho Rodrigues, F., Dockery, J., 1937, Defining Systems Based on Information Exchange:
Structure from Dynamics, BioSystems 38,229-234.
[4] Andre S. Ribeiro, F. Carvalho Rodrigues, The emergence of intelligence in a system, submitted for
publication.
[5] Andre S. Ribeiro, F. Carvalho Rodrigues, Strategies for systems to attain prone states for intelligence
emergence, submitted for publication.
[6] Andre S. Ribeiro, F. Carvalho Rodrigues, Criteria for systems intelligence, submitted for publication.
[7] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[8] J. Holland, Hidden Order, Addison Wesley, 1995.
[9] Ashby, W. Ross, An Introduction to Cybernetics. London: Chapman & Hall, 1956.
[10] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 188.
[11] J. Pinto Peixoto, F. Carvalho Rodrigues, "Sistemas, Entropia, Coeso", Editorial Discrdia, Lisboa,
1991.
[12] M. E. J. Newman, The spread of epidemic disease on networks, , Phys. Rev. E 66, 016128 (2002).
[13] Carvalho Rodrigues, F., 1989. A proposed entropy measure for assessing combat degradation, J.
Opl. Res. Soc. (UK), 40 (8): 789-93.
[14] Granovetter, Mark S. The strength of weak ties. American Journal of Sociology, Volume 78, Issue 6
(May, 1973) 1360-1380.
[15] Barabasi, Albert-Laszlo. Linked: The New Science of Networks. Cambridge, Massachusetts: Perseus
Publishing, 2002.
[16] M.E.J. Newman, S.H. Strogatz, D.J. Watts. Random graphs with arbitrary degree distributions and
their applications. Phys. Rev. E 64, 026118 (2001).
[17] Albert R, Jeong H, Barabasi A-L 1999: Diameter of the World-Wide Web. Nature, 410,9,130-131.
[18] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61.
[19] At Home in the Universe, Kauffman, S. A., Oxford U. Press, 1995.
[20] http://www.efunda.com/math/exp_log/log_relation.cfm

65

Вам также может понравиться