Академический Документы
Профессиональный Документы
Культура Документы
Abstract
1 +
On secondment from Universidade Independente, Faculdade de Cincias de Engenharia, www.uni.pt,
Av. Marechal Gomes da Costa, Lote 9, 1800-255 Lisboa, Portugal, Tel.: (+351) 21 836 1900, Fax: (+351)
21 836 1922, E-mail: fcr@uni.pt
*
Disclaimer: The views presented in this paper are solely those of the author and do not necessarily reflect
the views of his employer or that of any NATO country government.
With fellowship from Fundao Para a Cincia e a Tecnologia, for PhD at Instituto Superior Tcnico.
1
ndice
Abstract..1
ndice..2
Captulo 1: Critrios para definir inteligncia de sistemas.....3
Captulo 2: Emergncia de inteligncia em sistemas.................................12
Captulo 3: Estratgias dos sistemas para atingirem estados propcios emergncia de
inteligncia ............................................31
Captulo 4: Sistemas mundos pequenos no so necessariamente propcios emergncia
de inteligncia........................46
Captulo 5: A relao entre conectividade e grau de separao mdio em grafos.............59
2
Captulo 1
3
Introduo
A natureza dos sistemas, i.e., as propriedades que estes exibem, no reside nas
propriedades internas dos elementos mas sim nas interaces entre eles [1][2],
responsveis pela a estrutura adoptada.
Sistemas que mantm a sua estrutura inalterada com o passar do tempo,
representam estados estveis, sendo que um estado, e a estrutura que o suporta, estvel
quando tem energia interna e necessidades de dissipao mnima de calor [11][12]
durante o seu funcionamento.
Outra condio para a estabilidade de uma estrutura que esta deve ser
compatvel com um certo valor de informao [7][8], valor esse que pode ser associado
distribuio de uma interaco entre os elementos (independentemente da natureza de tal
interaco).
Considerando que sistemas inteligentes precisam de uma estrutura estvel que os
suporte as condies anunciadas deveriam se aplicar a eles. Estas condies so as
necessrias para a emergncia de inteligncia num sistema.
Na nossa aproximao ao problema de determinar condies para a emergncia
de inteligncia num sistema, os estados internos dos elementos, embora possam existir,
no so considerados. Apenas as interaces entre elementos so levadas em conta. Esta
aproximao baseia-se na suposio da teoria geral dos sistemas de que a natureza de um
sistema reside nas interaces e no nos estados internos dos elementos.
A mesma aproximao usada, por exemplo, na teoria dos mundos pequenos
[13][14] onde a dinmica do sistema reside somente no nmero de ligaes regulares e
aleatrias, independentemente dos estados internos dos elementos, tendo este modelo tido
bastante xito na descrio da dinmica de vrios sistemas [14].
Assim, representamos os sistemas geometricamente, sendo os elementos
representados por pontos geomtricos, sem propriedades internas, e as interaces por
linhas que ligam os elementos [7]. deste modo que so representadas redes neurais,
naturais ou artificiais, numa grande variedade de reas [15][16][17][18], focando as
propriedades constitutivas [9] dos sistemas.
Usando tal modelo podem-se relacionar a variao da quantidade de informao
com o conceito de emergncia num sistema.
conhecido que sistemas sofrem uma transio de fase [19] quando a sua
conectividade, a razo entre o nmero de ligaes e elementos, alcana um certo valor
[3][4]. Tal transio de fase, considerando um modelo de pontos e linhas [4], consiste na
emergncia de uma nova estrutura onde todos os elementos pertencem a um mesmo
agrupamento, de uma estrutura inicial de elementos escassamente ligados, simplesmente
por adio de ligaes de modo aleatrio [3][4].
Quando o comportamento da estrutura nova diferente e no explicvel pelo
comportamento da estrutura prvia, dito que um comportamento novo emergiu
[20][21]. Ento, emergncia e transio de fase so sinnimas, consequncias da
penetrao de uma interaco, de qualquer natureza, entre os elementos de um sistema.
4
A transio de fase causada pela variao da quantidade de informao
relativista do sistema [7][8] que age como uma fora que impele a estrutura a mudar.
A curva em S (caracterstica das transies de fase) do tamanho do maior
agrupamento [4] obtida ao colocar ligaes aleatoriamente entre os elementos do
sistema, com todas as ligaes igualmente provveis, i.e., a transio de fase o resultado
de um processo de difuso de interaces os elementos de um sistema.
Emergncia e transio de fase do tamanho do maior agrupamento so sinnimas.
A sua causa a mesma. A quantidade, cuja variao, explica ambos os fenmenos, a
quantidade relativista de informao [7][8].
Foi provado [22][23][24][25][26][27] que quando p(i), a probabilidade de se
receber uma mensagem i sobre a estrutura do sistema, alcana o valor 1/e (onde e a
constante de Nepper), a estrutura do sistema sofre uma transio de fase. Tal a razo
por que uma transio de fase observada quando so somadas ligaes aleatoriamente
num sistema de elementos inicialmente desligados.
Para provar esta afirmao relacionmos o valor da conectividade com o da
quantidade de informao, necessria para atingir uma transio de fase. Da condio de
mximo de informao relativista obtm-se a conectividade mnima para uma transio
de fase.
A quantidade de informao relativista mxima para p = 1/e. Para que, num
sistema de m elementos, se tenha a probabilidade de dois elementos terem uma ligao
igual a (1/e), tm que existir (m/e) ligaes, visto que cada ligao liga dois elementos.
Assim, neste caso, tem-se a conectividade:
m
n e 1 1
=> = = (1)
m m e 2
Note-se que 0.5 maior que (1/e), mas sabe-se que a taxa de difuso mais elevada
acontece em p = (1/e). Em casos como os grafos, a transio de fase ocorre quando a
conectividade atinge . Tal uma consequncia de, em condies prticas, no ser
possvel para um grafo de m elementos ter (m/e) ligaes, visto que esta no uma
quantidade inteira.
Assim, a conectividade determina quando a transio de fase ocorre, i.e. quando
se d a emergncia de um comportamento novo. Tal conectividade alcanada quando a
quantidade relativista de informao atinge o valor mximo. Conclumos que a
explicao de emergncia de inteligncia em sistemas, tal como por exemplo as redes
neuronais biolgicas, reside na variao da informao relativista.
Ento, esta variao deve ser usada como uma medida da inteligncia da estrutura
de um sistema, e assim, torna-se necessrio quantificar esta varivel, para cada possvel
estrutura de um sistema.
5
a quantidade de informao de um agrupamento de n mensagens de A para B,
determinada por:
n
I =- [p(i).ln (p(i) )]
i =1
(2)
m 1
Irel = - [ p(i ). ln p (i) ]
i =0
(4)
6
configuraes de ligaes. Como s consideramos as propriedades constitutivas dos
sistemas, esta medida relativa.
A cada configurao de ligaes corresponde um valor caracterstico de
informao. A cada estado corresponde uma gama de valores de informao. Variar a
quantidade relativista de valor de informao implica mudanas na estrutura do sistema.
7
quantidade de informao relativista da distribuio com mais baixa quantidade de
informao relativista (Imin ).
Uma das condies necessrias para um sistema estar num estado propcio
emergncia de inteligncia, numa certa vizinhana de estados, possuir mxima
capacidade de armazenamento de informao, porque a tal corresponde um estado de
variabilidade de informao mxima.
No entanto, como qualquer sistema, sistemas num estado propcio emergncia
de inteligncia esto sujeito a leis termodinmicas. Assim analisamos os sistemas do
ponto de vista enrgico de modo a estabelecer mais condies necessrias emergncia
de inteligncia.
dQ
dS = (6)
T
Para calcular o calor, tem que se saber a variao de entropia. Pode-se calcular a
entropia de um estado, usando a definio cannica de entropia, estabelecida por
Boltzmann. Se Wi o nmero de microestados (configuraes de n ligaes por m
elementos, no nosso caso) de um certo estado com i ligaes, e kb a constante de
Boltzmann, a entropia de um estado determinada por:
Si = kb.Log(Wi) (7)
Q
S = (8)
T
Para chegar a um certo estado, o sistema tem que dissipar a quantidade de calor
dada por (8), que corresponde a uma variao de entropia.
Por sua vez, a energia interna pode ser calculada de acordo com o modelo de
sistema usado, a partir do nmero m de elementos e o nmero n de ligaes:
8
U = U(m, n) (9)
U U
>0 > 0 , n, m (10)
m n
9
Combinando estas condies podem-se determinar quais estados so propcios
emergncia de inteligncia, do espectro de todos os possveis estados de um sistema com
um nmero conhecido de elementos.
Concluses
Desenvolvimentos futuros
Referncias
[1] Holland, John H. Hidden Order: How Adaptation Builds Complexity. Reading, Massachusetts:
Addison-Wesley, 1995.
[2] Holland, John H. Emergence: From Chaos to Order. Reading, Massachusetts: Addison-Wesley, 1998.
[3] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5 (1960),
17-61.
[4] Kauffman S. A. At Home in the Universe: The Search for Laws of Self-Organization and Complexity,
Oxford University Press, Oxford, 1995.
[5] Bernd Mayer, Gottfried Kohler and Steen Rasmussen, Simulation and dynamics of entropy-driven,
molecular self-assembly processes, Physical Review E, April, 1997, Vol. 55, n 4.
[6] Entropically driven self-assembly of multichannel rosette nanotubes, Hicham Fenniri, Bo -
Liang Deng, Alexander E. Ribbe, Klaas Hallenga, Jaby Jacob and P. Thiyagarajan,
http://www.pubmedcentral.nih.gov/articlerender.fcgi?artid=128555
10
[7] Carvalho Rodrigues, F.,1990/1991, Funo de Coeso de Estruturas baseadas em Informao,
Memrias da Academia, TOMO XXXI, Academia das Cincias de Lisboa.
[8] J. Pinto Peixoto, F. Carvalho Rodrigues, "Sistemas, Entropia, Coeso", Editorial Discrdia, Lisboa,
1991.
[9] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[10] Ashby, W. Ross, An Introduction to Cybernetics. London: Chapman & Hall, 1956.
[11] Coren, R. L. Empirical Evidence for a Law of Information Growth. Entropy 2001, 3, 259-273.
[12] Jonathan D.H. Smith, Some Observations on the Concepts of Information-Theoretic Entropy and
Randomness, Entropy, ISSN 1099-4300, www.mdpi.org/entropy/
[13] Watts, D. J. & Strogatz S. H. Collective dynamics of small-world networks. Nature 393, 440442
(1998).
[14] Barabasi, Albert-Laszlo. Linked: The New Science of Networks. Cambridge, Massachusetts: Perseus
Publishing, 2002.
[15] B. Bollobas. Random Graphs. Academic Press, NY, 1985
[16] http://ginger.hpl.hp.com/shl/projects/constraints/specialAIJ/node3.html
[17] White, J. G., Southgate, E., Thomson, J. N. and Brenner, S. (1986). The structure of the nervous
system of Caenorhabiditis Elegans. Phil. Trans. R.Soc. Lond. B 314, 1-340.
[18] Achacoso, T., and Yamamoto, W. (1992) AYs Neuroanatomy of C. Elegans for computation, Boca
Raton, FL: CRC.
[19] http://www.wikipedia.org/wiki/Phase_transition
[20] M. Mitchell Waldrop, Complexity: The Emerging Science at the Edge
of Order and Chaos, New York: Touchstone, 1992;
[21] http://smile.jcon.org/soft/product/ref/entry/e/Emergence.html
[22] "The Military Landscape - Mathematical Models of Combat", Woodhead Publishing Ltd., Inglaterra,
1993. J. T. Dockery, A. E. R. Woodcock, F. Carvalho Rodrigues.
[23] Application of information entropy to defect characterisation in leather", Journal of the Society of
Leather Technologists Chemists, 75, 10; F. Carvalho Rodrigues, D. Fernando Carvalho, J. Pinto Peixoto,
M. Santos Silva, Victor Silvestre.
[24] Anlise Relativista da Quantidade de Informao para Avaliao de Comportamentos Emergentes no
Design", Carlos Alberto M. Duarte, PhD Thesis (2001)
[25] Quantidade de Informao na Arquitectura Portuguesa F. Carvalho Rodrigues, Carlos A. M. Duarte,
Andr S. Ribeiro, Tessaleno C. Devezas, Comunicao apresentada na Academia de Cincias de Lisboa,
aceite para publicao em Idade da Imagem, n2, Lisboa 2001.
[26] Carvalho Rodrigues, F., 1989. A proposed entropy measure for assessing combat degradation, J.
Opl. Res. Soc. (UK), 40 (8): 789-93.
[27] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Ep idemics, European J. of Operational Research, 71, 45-60.
[28] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 1948.
[29] Glenn Shaffer A mathematical theory of evidence, Princeton University Press, 1976.
[30] Glenn Shaffer The art of causal conjecture, MIT Press, 1996.
[31] P. Pakzad and V. Anantharam, "Belief propagation and statistical physics," Proc. 00 Conf. Inform.
Sciences and Systems, Princeton U., March 2002.
[32] http://www.arches.uga.edu/~bhummel/6200Project/Ad_SCurve.html
[33] Prigogine I. (1967), Dsspatve Structures in Chemical Systerns, in Fast Reactions and Primary
Processes in Chemical Kinetics, a cura di Stig Claesson, Interscience, New York.
[34] Prigogine I., Isabelle Stengers (1984), Order out of Chaos, Bantarn, New York (trad. it. La nuova
alleanza, Einaudi, Torino 1981
[35] Zemansky, Mark W., Dittman, RH, Heat and Thermodynamics McGraw-Hill, Physics Series, 6th
edition.
[36] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M. Duncan, ed.
Pergamon Press, Oxford (1977).
[37] H. J. Bremermann, "Quantum-theoretical Limitations of Data Processing, Abstracts of Short Communications,
International Congress of Mathematics, Stockholm (1962).
[38] Andre S. Ribeiro, F. Carvalho Rodrigues, The Emergence of intelligence in a system, in preparation.
11
Captulo 2
12
Introduo
13
Considerando a temperatura do sistema constante e calculando a variao de
entropia de uma transio de um estado sem ligaes para um estado de n ligaes, a
ltima condio (3) pode ser reduzida a:
m 1
q(i) q(i)
I(m,n) = . ln (5)
i =0 m m
q(i) q(i)
I(m,n,i) = - .ln (6)
m m
Como veremos, s alguns estados tm, na realidade, uma configurao tal que I
zero, e nenhum estado alcana o valor mximo (7), visto que o nmero de elementos com
14
i ligaes sempre um inteiro. Outra caracterstica importante que o valor mximo de I,
entre estados sucessivos, no variar significativamente de um estado para outro.
Ento, comearemos por determinar que estados tm configuraes de
quantidades de informao nula.
Como todo o I(i) positivo ou nulo, a condio necessria para uma configurao
ter I = 0 [16]:
Esta simetria resulta do facto que qualquer configurao tem simtrica, obtida de
remover as ligaes existentes e ligando os pares de elementos previamente desligados.
Assim, dois estados simtricos tm nmero igual de configuraes e, como cada
15
configurao simtrica tem a mesma quantidade de informao, os estados simtricos tm
capacidade de armazenamento de informao igual.
Em particular, para cada estado W(m,n) com uma configurao tal que I = 0,
tambm h um estado simtrico W(m,nmax-n) com uma configurao I = 0. Dependendo
de m ser par ou mpar, esta soluo ter, ou no, j sido determinada pela primeira
condio.
Pode-se assim estabelecer uma regra geral para determinar todos os estados de um
sistema de m elementos com uma configurao tal que sua quantidade de informao seja
nula, tendo em conta a paridade de m. Os estados com uma configurao com informao
nula so, num sistema de m elementos [16][17]:
m.( m 1)
k N, 0 < nk < : nk = k.m nk = nmax k.m (11)
2
Quando m par, as solues obtidas por cada regra no emparelham e devem ser
aplicadas ambas. Quando m mpar as solues emparelham e uma s regra necessria.
importante provar que nenhum outro estado possa ter uma configurao com
informao nula. Tal prova baseia-se no facto que todos os termos so positivos se q(i)
diferente de 0 ou m [17]. Considerando que todos os termos so positivos ou nulos, basta
haver um qualquer termo no nulo, para a quantidade total de informao tambm no ser
nula. Assim, qualquer estado alm dos j mencionados, no pode ter configuraes onde
todos os elementos tenham nmero igual de ligaes, donde o resultado.
16
Conclui que os valores mximos no so pertinentes na determinao dos
mximos relativos da quantidade de informao armazenvel, que ocorrem para os
estados com Imin = 0.
Este facto conduz concluso que os estados com mximos relativos de
quantidade de informao armazenvel surgem descontinuamente, isto , nunca so
primeiros vizinhos num espao de estados da conectividade [16][17], quer dizer, seguem
a regra (11).
Depois de estabelecer os estados mximos relativos de I, segue-se o estudo da
entropia termodinmica de todos os estados de um sistema de m elementos, de modo a se
determinarem os estados com necessidade de dissipao de calor mnima.
Esta quantidade igual ao valor dado por outra expresso [17] por ns
estabelecida, mais facilmente aplicvel na nossa anlise:
n
C m i +1
W(m,n) = 2
,n > 0 (14)
i =1 i
n
C m i +1 m.( m 1)
=> S(m,n) = kb. ln 2 , n inteiro: 0 < n < (15)
i =1 i 2
17
n +1
C m i +1 n C2m i + 1
S = Sn+1 Sn = ln 2 - ln (16)
i =1 i i =1 i
Cm n + 2
=> S = ln 2 (17)
n +1
m.( m 1)
S (n n+1) = ln n + 2 ln (n + 1) (18)
2
m.(m 1)
S = 0 => ln n + 2 = ln (n+1) (19)
2
m.( m 1)
=> n+ 2 =n+1 (20)
2
m2 m + 2
=> n = (21)
4
m2 m + 2
a) S(n n+1) > 0 para n<
4
m m+2
2
b) S(n n+1) = 0 para n=
4
m m+2
2
c) S(n n+1) < 0 para n<
4
Em alguns casos h duas solues para S(n n+1) = 0 que acontecem sempre
que a equao b) tem dois inteiros positivos como solues possveis. Se somente uma
das solues for um inteiro positivo, h s uma soluo vlida, dependendo da paridade
de n.
Suponha-se agora um sistema onde ocorre um aumento do nmero de elementos,
m, mantendo o nmero de ligaes, n, constante. De (15):
18
n C2m +1 i + 1
Sm+1 = ln
(22)
i =1 i
C 2m+1 i +1 n C2m i +1
n
S = Sm+1 Sm = ln
- ln
i =1 i i =1 i
n
( m + 1).m m.( m 1)
=> S(mm+1) = ln i + 1 ln i + 1 (23)
i =1 2 2
m.( m 1) m.( m 1)
a) m, n: i + 1 1, porque imax =
2 2
(m + 1).m m.( m 1)
b) m, n:: i + 1 1, porque imax =
2 2
( m + 1).m m.( m 1)
c) i: ln i + 1 > ln i + 1 porque m um inteiro positivo.
2 2
n +1 C2m+1 i + 1
=> Sm+1,n+1 = ln
(24)
i =1 i
n +1 C 2m +1 i + 1 n C2m i + 1
S = Sm+1,n+1 Sm,n = ln -
ln
(25)
i =1 i i =1 i
m( m 1) n
( m + 1).m m.(m 1)
=> S = ln
2
n -ln(n+1) +
ln
i =1 2
i + 1 ln
2
i +1 (26)
Esta equao mostra que o efeito de uma variao simultnea de m e n pode ser
obtido somando os efeitos causados independentemente por cada uma das variaes.
Desta anlise, conclui-se que a entropia termodinmica varia com o nmero de
ligaes, isso , de um estado para outro, de acordo com:
19
m.( m 1)
k,j N, k j, 0 < nk , nj < :
2
nmax n
[nk < nj nk , nj < ] [nk > nj nk , nj > max ] => S(m,nk) > S(m,nj) (27)
2 2
Q = T.S (28)
U = U(n, m) (29)
Cada ligao e elemento, para ser criado, exigem uma certa quantidade de
energia. Ento possvel estabelecer relaes para calcular a variao de energia interna.
20
nmero de neurnios. Tal limitao pode, num modelo mais concreto, ser associado aos
limites de fluxo de sangue, por exemplo.
O problema de saber a diferena de energia interna de um elemento e uma ligao
poderia ser lidado associando uma constante diferente para cada caso. Por razes de
simplicidade, embora levando em considerao as leis de variao da energia interna com
o nmero de elementos e ligaes, pode-se definir a energia interna de um estado do
sistema como:
U
= k1 > 0 , m > 0 (33a)
m
U m.( m 1)
= k2 > 0 , 0 n (33b)
n 2
m.( m 1)
k,jN,kj, 0<nk , nj< : nk >nj => U(m,nk)>U(m,nj) (34)
2
nmax
n (35)
2
21
4. Algoritmo para determinar estados propcios para emergncia de inteligncia
m.( m 1)
k N, 0 < nk < : nk = k.m nk = nmax k.m (36)
2
Poderamos introduzir um limite, tal que se S(m,nk ) > Smax ento (m,nk ) no seria
uma soluo possvel. O valor de Smax seria determinado de restries fsicas conhecidas,
dependendo de caractersticas especficas dos sistemas.
nmax
n (39)
2
Esta condio (39) uma consequncia de (38), mas mais fcil aplicar. Um
limite tambm poderia ser imposto: se U(m,nk ) > Umax ento (m,nk ) no seria uma
soluo possvel.
22
Note-se que, ao impor a maximizao da quantidade de informao armazenvel,
resulta uma condio de conectividade mnima [23][24]. O primeiro estado propcio
emergncia de inteligncia acontece quando:
nk=1 = m se m mpar
nk=1 = m/2 se m par.
5. Validao do modelo
23
Fomos em seguida comparar os dados experimentais dos sistemas neuronais da C.
Elegans e do crebro Humano, com as solues obtidas pelo algoritmo para modelos com
um nmero de elementos igual aos neurnios de cada um dos sistemas reais. O nico
parmetro necessrio introduzir no algoritmo o nmero exacto de elementos encontrado
nesses sistemas, ou seja, neurnios.
i q(i) Informao
0 88 0.156046807
1 65 0.143579745
2 65 0.143579745
3 41 0.117735585
4 25 0.089575077
5 7 0.037895239
6 2 0.014430311
7 2 0.014430311
8 3 0.019896215
9 1 0.008211944
10 2 0.014430311
11 1 0.008211944
Total Neurnios Informao
302 (214 com Junes) 0.768023235
Tabela 1: Nmero de elementos com i ligaes (q(i)) e a quantidade de informao correspondente do
estado. Sistema de junes.
24
Do sistema de sinapses s fazem parte 241 neurnios, com um total de 2280
ligaes.
Total Neurnios Informao Total
241 2.154334
i q(i) Informao
0 61 0
1 23 0.148206
2 29 0.156772
3 24 0.150077
5 13 0.116977
6 17 0.132551
7 24 0.150077
8 15 0.125363
9 8 0.089376
10 13 0.116977
11 11 0.107208
12 11 0.107208
13 7 0.082389
14 5 0.066382
15 7 0.082389
16 4 0.057102
17 7 0.082389
18 6 0.07476
21 2 0.034758
22 2 0.034758
23 3 0.04669
24 2 0.034758
27 3 0.04669
30 1 0.020482
34 2 0.034758
39 2 0.034758
96 1 0.020482
Tabela 2Nmero de elementos com i ligaes (q(i)) e a quantidade correspondente de informao do
estado. Sistema de sinapses.
25
i) k = 2 e k = 3 => nk=2 = 428 e nk=3 = 642 => 428 < nreal = 543 < 642 (41a)
ii) k=103 e k=104 => nk=103 = 749 e nk=104 = 535 => 535 < nreal = 543 < 749 (41b)
A proximidade entre a soluo obtida usando k = 103, que implica 535 ligaes e
o valor real, 543, evidente.
III. Condio de energia interna mnima: Desta condio, obtm-se o mximo valor
possvel do nmero total de ligaes de estados propcios. Neste caso:
n
n < max = 11395,5
2
Sendo n um inteiro: n 11396 (43)
Ento, o estado adoptado pelo sistema de junes da C. Elegans est dentro dos
estados determinados como propcios emergncia de inteligncia pelo algoritmo.
Combinando todas as condies, o conjunto de solues para o sistema de junes :
26
=> 2169 < nreal = 2280 < 2410 (46a)
III. Condio de energia interna mnima: De nreal = 2280 < 14460, esta condio tambm
respeitada.
1011.(1011 1) 1011.(1011 1)
=> k N, 0 < nk < : nk = k. 1011 nk = - k. 1011
2 2
27
O conjunto de solues :
i) Os estados para os quais I um mximo local so: nk = 0, 1011 , 2.1011, 3.1011 , ....,
1015 , , 5.1021 .
II. Condio de entropia mnima: O nmero total de ligaes muito menor que o
nmero total de ligaes possveis, e assim respeita a condio. Aproximadamente,
somente 10-5% das possveis ligaes existem, sendo este um relativamente baixo estado
de entropia.
III. Condio de energia interna mnima: O estado real est claramente abaixo do limite n
n
= max , e assim respeita a condio.
2
Como o sistema real est no estado n = 1015 , confirma-se a soluo obtida pelo
algoritmo.
Concluses
28
propcios nos casos prticos e no caso geral, fica estabelecido que sistemas inteligentes
no podem evoluir atravs de mudanas estruturais mnimas mas antes por saltos no
espao de estados do sistema.
Referncias
[1] Andr S. Ribeiro, F. Carvalho Rodrigues, Criteria for systems intelligence, in preparation.
[2] Holland, John H. Hidden Order: How Adaptation Builds Complexity. Reading, Massachusetts:
Addison-Wesley, 1995.
[3] Holland, John H. Emergence: From Chaos to Order. Reading, Massachusetts: Addison-Wesley, 1998.
[4] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[5] Jumarie, Guy M., Subjectivity, Information, Systems, An introduction to a theory of relativistic
cybernetics , Gordon and Breach, Science Publishers, Inc., 1986
[6] Coren, R. L. Empirical Evidence for a Law of Information Growth. Entropy 2001, 3, 259-273.
[7] Jonathan D.H. Smith, Some Observations on the Concepts of Information-Theoretic Entropy and
Randomness, Entropy, ISSN 1099-4300, www.mdpi.org/entropy/
[8] Application of information entropy to defect characterization in leather", Journal of the Society of
Leather Technologists Chemists, 75, 10; F. Carvalho Rodrigues, D. Fernando Carvalho, J. Pinto Peixoto,
M. Santos Silva, Victor Silvestre.
[9] Carvalho Rodrigues, F., 1989. A proposed entropy measure for assessing combat degradation, J. Opl.
Res. Soc. (UK), 40 (8): 789-93.
[10] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Epidemics, European J. of Operational Research, 71, 45-60.
[11] Quantidade de Informao na Arquitectura Portuguesa F. Carvalho Rodrigues, Carlos A. M. Duarte,
Andr S. Ribeiro, Tessaleno C. Devezas, Comunicao apresentada na Academia de Cincias de Lisboa,
aceite para publicao em Idade da Imagem, n2, Lisboa 2001.
[12] Anlise Relativista da Quantidade de Informao para Avaliao de Comportamentos Emergentes no
Design", Carlos Alberto M. Duarte, PhD Thesis (2001)
[13] H. J. Bremermann, "Comp lexity and transcomputability", in The Encyclopedia of Ignorance, M. Duncan, ed.
Pergamon Press, Oxford (1977).
[14] H. J. Bremermann, "Quantum-theoretical Limitations of Data Processing, Abstracts of Short
Communications, International Congress of Mathematics, Stockholm (1962).
[15] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 1948.
[16] Clculo do Consumo Energtico e Capacidade de Armazenamento de Informao em Sistemas
Complexos, F. Carvalho Rodrigues, Andr S. Ribeiro, Proceedings Fsica 2002.
[17] Estados Propcios Emergncia de Inteligncia em Sistemas, Andr S. Ribeiro, PhD Thesis , 2003.
[18] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61.
[19] Zemansky, Mark W., Dittman, RH, Heat and Thermodynamics McGraw-Hill, Physics Series, 6th
edition.
[20] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M.
Duncan, ed. Pergamon Press, Oxford (1977).
[21] H. J. Bremermann, "Minimum Energy Requirements of Information Transfer and Computing", Int. J.
Theoretical Physics, 21(3-4):203-17 (April, 1982).
[22] H. J. Bremermann, "Complexity of automata, brains and behavior", in Physics and Mathematics of the
Nervous System, M. Conrad, W. Guttinger, and M. Dal Cin (eds.), Biomathematics Lecture Notes, Vol. 4.
Springer, Heidelberg (1974), p 304-331. [Nat. Sci. QP355.2.585]
[23] Kauffman S. A. At Home in the Universe: The Search for Laws of Self-Organization and Complexity,
Oxford University Press, Oxford, 1995.
[24] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61.
[25] White, J. G., Southgate, E., Thomson, J. N. and Brenner, S. (1986). The structure of the nervous
system of Caenorhabiditis Elegans. Phil. Trans. R.Soc. Lond. B 314, 1-340.
29
[26] Achacoso, T., and Yamamoto, W. (1992) AYs Neuroanatomy of C. Elegans for computation, Boca
Raton, FL: CRC.
[27] Richard M. Durbin Studies on the Development and Organization of the Nervous System of C.
Elegans, thesis. http://www.wormbase.org/papers/durbinv1.2/
[28] D.E. Knuth, The art of computer programming: Seminumerical algorithms, Volume 2, Second
Edition, Addison-Wesley Publishing Company, Reading MA
[29] http://faculty.washington.edu/chudler/facts.html#brain
[30] Kalat, J.W., Biological Psychology, 6th Edition, 1998, page 24
[31] Gershon, M.D., The Second Brain, HarperPerennial, 1999.
30
Captulo 3
31
1. Introduo
32
maximizao da quantidade de informao relativista obtm-se a conectividade mnima
para uma transio de fase.
A quantidade de informao relativista mxima para p = 1/e. Para que, num
sistema de m elementos, se tenha a probabilidade de dois elementos terem uma ligao
igual a (1/e), tm que existir (m/e) ligaes, pois cada ligao liga dois elementos. Assim,
neste caso, tem-se a conectividade:
m
n e 1 1
=> = = (1)
m m e 2
Note-se que 0.5 maior que (1/e), mas a taxa de difuso mais elevada ocorre
para:
p = 1/e (2)
33
Q mnimo (5)
m-1
(i ) (i )
I(m,n) = - .ln (6)
i =0 m m
Para ns, o facto relevante que a energia interna aumenta quando o nmero de
ligaes aumenta.
A entropia termodinmica uma medida do calor dissipado pelo sistema num
certo estado, sabendo a temperatura, pela relao:
Q = T. S (9)
Para calcular a entropia de cada estado usa-se a equao de Boltzmann (sendo que
W representa o nmero de configuraes que suportam o estado (m,n)):
34
Desta condio podem-se determinar estados propcios, em termos do seu nmero
total de ligaes. Mais, no necessrio gerar as configuraes de cada estado, o que
seria uma tarefa transcomputational [17].
m.(m - 1)
kN, 0 < n k < : nk = k.m nk = nmax k.m (11)
2
m.(m - 1)
k,j N, k j, 0 < nk , nj < :
2
n n
[nk<nj nk ,nj < max ] [nk >nj nk ,nj > max ]=>S(m,nk )>S(m,nj) (12)
2 2
m.(m - 1)
k,jN, kj, 0<nk,nj< : nk > nj => U(m,nk )>U(m,nj) (13)
2
35
m.(m - 1)
nmax = (14)
2
nk = m.k (15a)
e/ou nk = nmax m.k (15b)
m.(m - 1)
Com, 0 < n < , e em que k representa um inteiro positivo, respeitando as
2
condies limite de n. Os casos n = 0 e n = nmax , so removidos pois I nulo nesses
casos.
Usando as equaes (15a) e (15b), os limites de k so obtidos. Substituindo n por
nmax em (15a), k* obtido.
m -1
=> kmax = k* - 1 = 1 (17)
2
Este o valor mximo que k pode adoptar para ambas condies (15a) e (15b).
Cada condio dar kmax solues. Ento, obteremos 2.kmax solues.
Considerando que algumas solues so repetidas, o nmero total de solues
diminuir. O problema determinar quantas solues (de 15a e 15b) sero iguais e ento,
representam o mesmo estado. A paridade do nmero total de elementos do sistema deve
ser levada em conta.
m -1
m par: m,ki,kj N, 0 < ki, kj < : m.ki nmax m.kj (18)
2
36
Podemos provar (18) provando que a expresso oposta impossvel. Suponha-se
que a declarao seguinte verdadeira para m par:
m -1
m,ki,kj N, 0 < ki, kj < : m.ki = nmax m.kj (19)
2
m.(m - 1)
=> m.ki = m.kj
2
m -1
=> ki + kj = (20)
2
m -1
Se m par, no um inteiro. (21)
2
m.(m - 1)
nk = m.k < nmax => m.kmax <
2
m -1
=> kmax <
2
Ento, kmax ser igual ao maior inteiro, menor que [(m-1)/2]. como m par, (m/2)
m
inteiro: kmax < . O maior inteiro, menor que tal quantidade, obtido subtraindo
2
(1/2):
m
=> kmax = (22)
2
m- 2
=> kmax = , para m par (23)
2
37
Mostra-se que kmax igual, usando a condio (15b). Pelo que h duas condies
(15a e 15b), cada uma com kmax solues, e segue-se que o nmero de estados propcios
para sistemas em que m par (#Opt(m par)) dado por:
Sem levar a condio de energia interna em conta, este resultado est em acordo
total com as observaes de sistemas com poucos elementos, onde possvel conferir
quais estados so propcios, calculando a entropia, energia interna e informao
armazenvel de cada estado.
m -1
m mpar: m,kiN, 1kjN, 0<ki,kj< : m.ki = nmax m.kj (25)
2
Comparando com o caso prvio, uma condio extra necessria para nmax/2,
porque para m mpar, em alguns casos, esta uma quantidade inteira.
A condio (25) verdade se a cada (m.ki) corresponde um e um s, valor igual
(nmax m.kj). De (16):
m.(m - 1)
m.ki = m.kj
2
m -1
=> ki + kj = (26)
2
Tem que se provar que (26) sempre tem uma e uma s soluo, tendo a definio
de ki e kj em conta. Das condies limite de k tem-se:
m -1
0 < ki,kj < (m-1)/2 => 1 ki, kj 1 , ki,kj N
2
m -1
kj = - ki (27)
2
Esta equao tem sempre soluo dentro dos intervalos de valores de ki e kj.. A
cada ki existe um, e um s, kj correspondente, que torna (27) verdadeira. Note-se que
38
m -1
porque m mpar, ento (m-1) par, pelo que um inteiro. Podemos concluir que,
2
para m mpar:
m -1
m mpar: m,kiN, 1 kjN, 0<ki,kj< : m.ki = nmax m.kj (28)
2
m -1
=> #Opt (m mpar) = -1 (29)
2
Este resultado tambm est em acordo total com as observaes de sistemas com
poucos elementos.
agora possvel analisar o efeito da aplicao condio de energia interna.
m.(m - 1)
k,jN,kj,0<nk ,nj< : nk>nj =>U(m,nk )>U(m,nj) (30)
2
nmax
(m,nk ) propcio se, e s se, nk (31)
2
39
nmax
Note-se que, se m par, n = , no um estado propcio, o que pode ser
2
nmax
provado por absurdo. Se n = um estado propcio do sistema, ento possvel
2
escrever um dos dois possveis casos:
nmax
a) = m.k
2
m.(m -1)
2 m -1
=> = m.k => =k
2 4
Se m par, ento (m-1) mpar e k no um inteiro. Porque k tem que ser inteiro,
n = nmax/2 no um estado propcio do sistema.
Da segunda condio:
nmax
b) = nmax m.k
2
n nmax
=> - nmax + max = - m.k => = m.k
2 2
m- 2
n nmax/2 => #Opt (m par) = (32)
2
m.(m - 1)
2 m -1
a) nmax/2 = m.k => = m.k => =k
2 4
40
(m, n = nmax /2) propcio se: p N: 4.p = m-1
nmax nmax
b) nmax/2 = nmax m.k => - nmax + = - m.k => = m.k
2 2
nmax
a) Se (m-1) = 4.p => um estado propcio
2
nmax
b) Se (m-1) 4.p => no um estado propcio
2
Quando (m-1) um mltiplo de 4, ento o caso n = nmax /2, tem que contar como
um estado propcio.
De (29), e se (nmax /2) um estado propcio, ento o nmero de estados propcios
ser mpar, e assim, ao dividir por 2, resulta um nmero no inteiro. Para levar o estado
(nmax/2) em conta, deve ser acrescentado ao nmero de estados propcios.
Ento, se p representa um ni teiro, e se m for mpar, o nmero de estados propcios
ser dado por:
nmax m -1 1 1
Para n : Se (m-1) = 4.p => #Opt(m mpar) = + (33a)
2 4 2 2
nmax m -1 1
Para n : Se (m-1) 4.p => #Opt (m mpar) = (33b)
2 4 2
m -1
#Opt (m mpar) = , se (m-1) = 4.p (34a)
4
m -1 1
#Opt (m mpar) = , se (m-1) 4.p (34b)
4 2
m-2
#Opt (m par) = (34c)
2
41
5. Probabilidade do sistema adoptar um estado propcio aleatoriamente
# Opt
% Opt = (35)
nmax 1
m- 2
m par: %Opt = 2 .100% (36a)
nmax 1
m -1
m mpar (m-1) = 4p: %Opt= 4 .100% (36b)
nmax 1
m -1 1
m mpar (m-1) 4p: %Opt= 4 2 .100% (36c)
nmax 1
42
Quando so consideradas s certas mensagens sobre o sistema, a quantidade de
informao torna-se uma medida relativista. No modelo aqui usado s se consideram
pertinentes as informaes sobre o nmero de ligaes de cada elemento.
Foi mostrado [5][6] que a estrutura de um sistema s compatvel com o valor de
informao relativista at um certo valor mximo, p(i) = 1/e. Ao alcanar tal valor,
mudanas estruturais acontecem.
Assim, a variao da informao relativista a causa da emergncia de novas
estruturas e, portanto, pelo aparecimento de novos comportamentos, quando o sistema
est sujeito penetrao de interaces entre os elementos.
As variaes de informao e de entropia so formalmente iguais mas medem
fenmenos e grandezas diferentes.
A variao da informao responsvel por mudanas de estrutura num sistema,
sendo a variao da entropia uma medida da energia necessria para essas transformaes
acontecerem ou para o sistema adquirir um estado de equilbrio, agindo como uma fora
no sistema. Tais foras so designadas por foras entrpicas, existindo exemplos em
vrias reas [18 a 27].
Uma fora entrpica causa, por exemplo, a difuso de elementos em solues
qumicas, diminuindo os diferenciais de concentrao. Um aumento da entropia do
sistema o resultado, no equilbrio.
H exemplos de fenmenos onde certas reas do sistema se tornam mais
ordenadas, i.e., onde ocorrem diminuies de entropia devido a esta fora.
O caso da "priso entrpica de uma partcula grande, num meio com vrias
partculas menores, um exemplo. Neste caso, ordem emerge da desordem porque a
entropia do sistema devida essencialmente s partculas pequenas. A aproximao da
partcula grande s esferas pequenas ou paredes do recipiente determina o volume do
qual as partculas pequenas so excludas.
7. Processos de auto-assemblagem
43
Os estados com amplitudes superiores so os propcios emergncia de inteligncia, pois
possuem quantidades maiores de bits disponveis para computao.
Supomos que, quanto maior esta quantidade, mais inteligente o sistema .
A variao da quantidade total de informao relativista num sistema onde uma
difuso de processo de interaces ocorreu, ou ocorre, obtida usando (6).
Note-se que, devido ao processo de adio de ligaes, a entropia aumenta, de
acordo com (10), enquanto n < nmax/2. Considerando que sistemas possuem capacidade
de dissipao de calor limitada, este aumento limitar o estabelecimento de interaces.
Tal processo de adio de ligaes permite sistemas para passar por todos os
estados. Quando a informao alcana o valor (1/e), uma transio de fase acontece. Com
este processo, o sistema chegar eventualmente a estados de mximos relativos de I.
Figura 1 Processo controlado pela variao de entropia, causando a difuso de interaces. Devido
variao da informao, uma mudana estrutural ocorre: emerge um conjunto contendo quase todos os
elementos .
Concluses
Referncias
44
[1] Andre S. Ribeiro, F. Carvalho Rodrigues, Criteria for systems intelligence, submitted for publication.
[2] Andre S. Ribeiro, F. Carvalho Rodrigues, The emergence of intelligence in a system, submitted for
publication.
[3] Clculo do Consumo Energtico e Capacidade de Armazenamento de Informao em Sistemas
Complexos, F. Carvalho Rodrigues, Andr S. Ribeiro, Setembro de 2002, Conferencia Nacional de Fsica
2002, Portugal.
[4] The Cost in Energy and in Time of the Intelligence, F. Carvalho Rodrigues, Andr S. Ribeiro,
Scientific Annals of UnI, Vol 2, no. 3, Winter 2001
[5] Carvalho Rodrigues, F., Dockery, J., 1996, Defining Systems Based on Information Exchange:
Structure from Dynamics, BioSystems 38,229-234.
[6] Carvalho Rodrigues, F.,1990/1991, Funo de Coeso de Estruturas baseadas em Informao,
Memrias da Academia, TOMO XXXI, Academia das Cincias de Lisboa.
[7] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Epidemics, Euro. J. Operational Research,71,45-60.
[8] Carvalho Rodrigues, F,1989. A proposed entropy measure for assessing combat degradation, J.
Opl.Res.Soc.(UK), 40 (8): 789-93.
[9] Investigations, Kauffman, S. A., Oxford University Press, 2000.
[10] At Home in the Universe, Kauffman, S. A., Oxford U. Press, 1995.
[11] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1960), 17-61
[12] Hidden Order, J. Holland, Addison Wesley, 1995.
[13] Prigogine I., Paul Glansdorff (1971), Thermodynamic Theory of Structure, Stability and Fluctuations,
Wley, New York
[14] Prigogine I., Isabelle Stengers (1984), Order out of Chaos, Bantarn, New York (trad. it. La nuova
alleanza, Einaudi, Torino 1981
[15] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 1948.
[16] Jumarie, Guy M., Subjectivity, Information, Systems, An introduction to a theory of relativistic
cybernetics , Gordon and Breach, Science Publishers, Inc., 1986.
[17] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M.
Duncan, ed. Pergamon Press, Oxford (1977).
[18] Hard Spheres in Vesicles: Curvature-Induced Forces and Particle-Induced Curvature", by A.D.
Dinsmore, D.T. Wong, Philip Nelson, A.G. Yodh; Phys. Rev. Lett. 80, 409 (1998).
[19] http://www.che.utexas.edu/~truskett/research1.htm
[20] Entrpicaally driven self-assembly of multichannel rosette nanotubes, Hicham Fenniri, Bo -
Liang Deng, Alexander E. Ribbe, Klaas Hallenga, Jaby Jacob and P. Thiyagarajan,
http://www.pubmedcentral.nih.gov/
[21] S. Asakura and F. Oosawa, J. Polym. Sci 33, 183 (1958).
[22] Y. Mao, M. E. Cates, and H. N. W. Lekkerkerker, Physica A 222, 10 (1995).
[23] R. Dickman, P. Attard, and V. Simonian, J. Chem. Phys. 107, 205 (1997).
[24] D. S. Corti and H. Reiss, Mol. Phys. 95, 269.
[25] T. M. Truskett, Second Proposition, Princeton University (1999).
[26] J. C. Crocker, J. A. Matteo, A. D. Dinsmore, and A. D. Yodh, Phys. Rev. Lett. 82, 4352 (1998).
[27] Dinsmore, Yodh, Pine. Nature 383, 239, (1996).
[28] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[29] Carlo Ranzi, Homo h Setenta Milhes de Anos, Distri Editora, Lisboa, 1983.
45
Captulo 4
46
1. Introduo
A teoria dos grafos mundos pequenos foi desenvolvida para representar um caso
especial de sistemas, com muitos elementos e interaces, distribudas principalmente de
um modo regular, mas com uma elevada taxa de transferncia de informao entre todos
os elementos, devido ao baixo valor do grau de separao mdio, sendo as poucas
ligaes aleatrias por tal responsveis.
Inicialmente, a estrutura de mundos pequenos foi observada em redes sociais por
Stanley Milgram [6] e Mark S. Granovetter [7], no mbito da sociologia, e
posteriormente foi desenvolvida usando conceitos da teoria dos grafos.
Tais estruturas revelaram caractersticas de grafos regulares, como um coeficiente
de agrupamento elevado, sendo simultaneamente capazes de representar praticamente
qualquer grau de aleatoriedade de uma distribuio de ligaes [10] pelos elementos de
um sistema.
A distribuio aleatria de ligaes provou ser a estrutura cujo grau de separao
mdio entre os elementos do sistema o menor possvel [11 a 14]. A estrutura mundo
pequeno tambm capaz de exibir uma elevada taxa de transmisso de informao entre
elementos, devido ao pequeno nmero mdio de ligaes necessrias percorrer entre cada
par de elementos.
Esta estrutura est presente no sistema nervoso da C. Elegans [15 a 21] e
amplamente observada em outras redes neuronais biolgicas, bem como em outros
sistemas de vrias naturezas [22 a 34] onde elementos interagem entre si.
Destes factos, perguntmos se os sistemas inteligentes so, necessariamente,
mundos pequenos. Para responder a esta pergunta foram calculados o grau de separao
mdio (<L>), e o coeficiente de agrupamento mdio (<C(p)>), bem como a
conectividade dos estados propcios emergncia de inteligncia, o que permite verificar
se, sendo um estado propcio, tambm ser, necessariamente, um mundo pequeno.
Assim, comeamos por rever sucintamente as caractersticas de estruturas mundo
pequeno e apresentar as relaes para obter <L> e <C(p)>.
Lij
<L> = C
i,j
m
(1)
2
47
Suponha um grafo de m elementos e n ligaes onde, em mdia, cada elemento
ligado aleatoriamente a k outros elementos (onde k o nmero mdio de ligaes dos
elementos do sistema, i.e., 2n/m). Se cada elemento tem, em mdia, k ligaes, podem-se
alcanar k elementos distintos, com um nico passo (uma ligao) a partir de cada
elemento. Em geral, com j passos, comeando num elemento podem-se alcanar kj
elementos, donde a caracterstica Lei da Potncia observada nestas estruturas [25][29].
Ento, para um sinal emitido por um elemento, alcanar todos os m elementos do
grafo, com m = kl, precisa-se, em mdia <L> passos, dados por:
Log (m )
L (2)
Log( k )
Esta relao vlida, com um certo grau de aproximao, quer para grafos
mundos pequenos [22] quer para aleatrios. O grau de separao mdio tem sempre um
valor menor para grafos aleatrios que para grafos regulares ou semi-regulares (supondo
igual nmero de elementos e ligaes em ambos os casos).
A topologia proposta por Watts e Strogatz [8] permite ao grafo variar de regular
(para p, a probabilidade para transformar uma ligao regular em aleatria, nula) para
uma estrutura totalmente aleatria (para p = 1). Para valores pequenos de p, uma estrutura
quase regular obtida com somente algumas ligaes aleatrias. Estas ligaes podem
ser vistas como defeitos na regularidade dos grafos.
Para quantificar estes defeitos, Watts e Strogatz definiram um coeficiente de
agrupamento, C(p) que mede, para todo o elemento st , quantos dos seus mais prximos
vizinhos tambm so primeiros vizinhos entre si [8].
O coeficiente de agrupamento, C(p), pode ser obtido [8][37][38] sabendo a
estrutura de ligaes. Para um elemento i, o seu coeficiente de agrupamento Ci dado por
uma relao entre o nmero de ligaes existentes entre os seus vizinhos de 1 ordem e,
Ei, o nmero mximo de ligaes possveis entre esses vizinhos: [ki.(ki-1)/2]. Um sistema
tem um coeficiente agrupamento dado pela mdia de todos os elementos:
2.Ei
C(p) = Ci = (3)
i
ki .( ki 1) i
k
Crand = (4)
m
48
concluiu-se [8] que sistemas com estruturas mundo pequeno tm, para valores
intermdios de p, caractersticas tpicas de estruturas aleatrias, i.e., comunicao rpida
entre todos os elementos (<L>SW < L>random) e um coeficiente de agrupamento elevado
(CSW > Crandom ), tpico de estruturas regulares.
Considerando que algumas redes neuronais biolgicas exibem estruturas mundo
pequeno, perguntmos se os sistemas inteligentes seriam, necessariamente, mundos
pequenos. Para tal ser verdade, os estados propcios emergncia de inteligncia que
agora definimos, tm que implicar estruturas mundo pequeno.
m -1
(i ) (i )
I(m,n) = - .ln (8)
i =0 m m
49
A energia interna U, ser funo do nmero de elementos e ligaes pois esses
so os nicos componentes do sistema. Note que o comprimento de tais ligaes no
pertinente pois, no modelo de sistema aqui usado, no relevante a localizao espacial
de elementos ou ligaes.
Para ns, o facto relevante que a energia interna aumenta quando o nmero de
ligaes aumenta.
A entropia termodinmica ser a medida do calor dissipado pelo sistema num
certo estado, sabendo a temperatura de sistema, da relao:
Q = T. S (11)
Para calcular a entropia de cada estado usa-se a equao de Boltzmann (sendo que
W representa o nmero de configuraes que suportam o estado (m,n)):
m.(m - 1)
kN, 0 < n k < : nk = k.m (13a)
2
nk = nmax k.m (13b)
m.(m - 1)
k,j N, k j, 0 < nk , nj < :
2
n n
[nk<nj nk ,nj < max ] [nk >nj nk ,nj > max ]=>S(m,nk )>S(m,nj) (14)
2 2
m.(m - 1)
k,jN, kj, 0<nk ,nj< : nk > nj => U(m,nk )>U(m,nj) (15)
2
50
Um valor de limite, Umax, tambm poderia ser imposto, de condies externas ou
caractersticas particulares do sistema, como: Se U(m,nk ) > Umax ento (m,nk ) no seria
uma soluo possvel.
agora possvel determinar se estes estados so mundos pequenos. Para tal temos
que calcular o grau de separao mdio e coeficiente de agrupamento.
log( m) n
L= com k = 2. (17)
log( k ) m
log( m) ( m 1)
=> L= p inteiro: 1 p (18)
log (2. p ) 4
log( m) log( m)
=> L (19)
m 1 log (2)
log
2
m 1 m log( m) log( m)
Para m >> 1 => => L (20)
2 2 m log (2)
log
2
log( m )
Assim: L log 2 (m) (21)
log (m ) log( 2)
Como m>> 1, ento log(m) >> log (2), assim, embora tendo em conta a
aproximao, substituindo a condio extrema (L 1) por (L > 1), tem-se:
51
=> 1 < L log 2 (m) (22)
m
=> n = .L m (23)
2
n>m (24)
Esta condio implica que (23) tem sempre uma soluo possvel para L (com L
igual a log2 (m) no caso extremo de n igual a m).
Podemos concluir que somente os dois estados propcios emergncia de
inteligncia de menor conectividade (n = m da primeira condio e n = m/2 da segunda
condio) no possuem configuraes mundo pequeno, pelo que, a vasta maioria dos
estados ter configuraes mundos pequenos.
Para suportar esta afirmao precisamos calcular os coeficientes de agrupamento
dos estados propcios emergncia de inteligncia.
52
2.Ei
C(p) = Ci = (25)
i
ki .( ki 1) i
nk = m.p
ki = 2.p (26)
Figura 1 Detalhe de grafos regulares com k = 2,4,6, das ligaes entre k elementos (ligados a um nico
elemento). Para k = 2, C(p) = 0. Mundos pequenos somente aparecem para k > 2. Note-se que foram
representadas somente as ligaes pertinentes anlise em causa.
k
1
2
k
< E > = 3. 2 i
i =1
(27)
53
Figura 2 Processo de contagem de ligaes entre vizinhos de um elemento central. As linhas a cheio
representam as ligaes pertinentes para a computao de Ei . Note-se que o nmero de ligaes entre
vizinhos do elemento central diminui linearmente, medida que nos afastamos do elemento central.
Isto porque cada par de elementos pode ter somente uma ligao entre si e tambm porque as ligaes ao
elemento anterior j foram levados em conta no processo de contagem anterior.
54
k
1
k 2
< E > = 3. . (28)
2 2
k
1
k 2
3. .
=> C(p) = 2. 2 2 (29)
2.p.(2.p - 1)
3 ( p 1)
Como k = 2.p: C(p) = . (30)
2 (2.p - 1)
m 1
1
3 (1 1) 3 4
. C(p) . (31)
2 (2.1- 1) 2 m 1
2. -1
4
m
3 4
=> 0 C(p) . (32)
2 m
2
3
=> 0 C(p) (33)
4
k
Crand = (34)
m
55
n 2.p
Como k = 2. = 2.p, ento: Crand = (35)
m m
m1
Porque, 1 p , os valores extremos de C(p), para estados propcios
4
emergncia de inteligncia, so, supondo distribuies aleatrias de ligaes :
m 1
2 4
=> Crand 2. (36)
m m
1
=> Para m >> 1: 0 < Crand < (37)
2
Este valor para estruturas aleatrias sempre menor que o previamente obtido
para as configuraes mundos pequenos. Assim, o coeficiente de agrupamento existente
em alguns estados propcios emergncia de inteligncia , para algumas configuraes,
caracterstico de estruturas mundo pequeno.
Somente usmos a primeira (nk = k.m) (13a) e terceira condio (nk < nmax/2) (15)
de estados propcios emergncia de inteligncia. No obstante, sabe-se que, para m
mpar, a condio (13b) obtm as mesmas solues que (13a), e o mesmo pode ser dito
quando m par, se forem usadas quantidades mdias. A nica observao importante
que, o estado n = m/2, da segunda condio, no tem um grau de separao caracterstico
de mundos pequenos (da mesma maneira que n = m, da primeira condio, no tem).
Concluses
56
Referncias
[1] Andre S. Ribeiro, F. Carvalho Rodrigues, Critrios para inteligncia do sistemas, submeteu para
publicao.
[2] Andre S. Ribeiro, F. Carvalho Rodrigues, O aparecimento de inteligncia em um sistema, submeteu
para publicao.
[3] Andre S. Ribeiro, F. Carvalho Rodrigues, Estratgias para sistemas para atingir estados propcios
emergncia de inteligncia, submeteu para publicao.
[4] Clculo fazem Consumo Energtico e de de Capacidade de de Armazenamento em de Informao
Sistemas Complexos, F. Carvalho Rodrigues, Andr S. Ribeiro, Setembro de 2002, Conferencia de de
Nacional Fsica 2002, Portugal.
[5] o Custo em Energia e a tempo da Inteligncia, F. Carvalho Rodrigues, Andr S. Ribeiro, Scientific
Annals of UnI, Vo l 2, no. 3, Winter 2001
[6] S. Milgram, The Small World Problem, Psychol. Today 2, 60-67 (1377)
[7] Granovetter, Mark S. The strength of weak ties. American Journal of Sociology, Volume 78, Issue 6
(May, 1973) 1360-1380.
[8] Watts, D. J. & Strogatz S. H. Collective dynamics of small-world networks. Nature 393, 440442
(1998).
[9] D. J. Watts. "Networks, Dynamics and The Small World Phenomenon", American Journal of Sociology
105(2):493-527 (1999).
[10] P. Erdos and A. Rnyi, On the evolution of random graphs, Publ. Math. Inst. Hung. Acad. Sci. 5
(1370), 17-61.
[11] Transies de fase geomtricas em redes esparsas e simulaes de um processo de no-equilbrio
Marcio Argollo Ferreira de Menezes, PhD Thesis
[12] D. J. Watts. Small Worlds: The Dynamics of Networks Between Order and Aleatoriedade. Princeton,
NJ, Princeton University Press (1999).
[13] Fan Chung Linyuan Lu The average distance in a random graph with given expected degrees Dep.
of Mathematics, University of California at San Diego, La Jolla, CA 92093-0112
[14] A-L Barabsi and R Albert 1999 Emergence of scaling in random networks Science 286 509
[15] Achacoso, T., and Yamamoto, W. (1992) AYs Neuroanatomy of C. Elegans for computation, Boca
Raton, FL: CRC.
[16] Caenorhabditis elegans WWW Server - http://elegans.swmed.edu/
[17] WormBase - http://www.wormbase.org/
[18] Wood, W.B., et al, In The Nematode Caenorhabditis Elegans (Monograph 17) (W.B. Wood and
Community of C. Elegans Researchers, Eds), pp. 1-489. Cold Spring Harbor, NY, 1988.
[19] Worm Atlas - http://www.wormatlas.org/index.htm
[20] White, J. G., Southgate, E., Thomson, J. N. and Brenner, S. (1986). The structure of the nervous
system of Caenorhabiditis Elegans. Phil. Trans. R.Soc. Lond. B 314, 1-340.
[21] http://elegans.swmed.edu/Sydney.html
[22] Barabasi, Albert-Laszlo. Linked: The New Science of Networks. Cambridge, Massachusetts: Perseus
Publishing, 2002.
[23] Albert R, Jeong H, Barabasi A-L 1999: Diameter of the World-Wide Web. Nature, 410,9,130-131.
[24] Scale -free characteristics of random networks: The topology of the world wide web, A.-L. Barabsi,
R. Albert, and H. Jeong, Physics A 281, 69-77 (2000)
[25] Power-Law Distribution of the World Wide Web, A.-L. Barabsi, R. Albert, H. Jeong, and G.
Bianconi, Science 287, 2115 (2000).
[26] The large-scale organization of metabolic networks, H. Jeong, B. Tombor, R. Albert, Z. Oltvai, and
A.-L. Barabsi, Nature 407, 651-654 (2000).
[27] Topology of evolving networks: local events and universality, R. Albert and A.-L. Barabsi, Phys.
Rev. Lett. 85, 5234 (2000).
[28] Competition and multiscaling in evolving networks, G. Bianconi, A.-L. Barabasi, Europhys. Lett. 54
436 (2001).
[29] The physics of the Web, A.-L. Barabasi, Physics World, 14, 33 (2001).
[30] W. Aiello, F. Chung, L. Lu. Random evolution of massive graphs. Handbook of Massive Data Sets,
(Eds. James Abello et al.), Kluwer, 2002, pages 97-122
57
[31] M.E.J. Newman, S.H. Strogatz, D.J. Watts. Random graphs with arbitrary degree distributions and
their applications. Phys. Rev. E 64, 026118 (2001).
[32] Soon-Hyung Yook, Hawoong Jeong, and Albert-Lszl Barabsi Modeling the Internet's large-scale
topology. Proceedings of the Nat'l Academy of Sciences 99, 13382-13386 (2002).
[33] Jon M. Kleinberg, Ravi Kumar, Prabhakar Raghavan, Sridhar Rajagopalan, Andrew S. Tomkins, The
Web as a Graph: Measurements, Models, and Methods, Proceedings of the 5th Annual International
Conference on Computing and Combinatorics, 1999
[34] Watts, D.J. (1999b). Networks, dynamics, and the small-world phenomenon. American Journal of
Sociology, 105, 493-527
[35] Petter Holme, Characteristics of Small World Networks, 20th April 2001.
[36] http://www.efunda.com/math/exp_log/log_relation.cfm
[37] J. Davidsen, H. Elber, S. Bornholdt, Emergence of a Small World from Local Interactions: Modeling
Acquaintance Networks, Phys. Rev. Lett. 88, number 12, (25 March 2002).
[38] Case, J. The continuing Appeal of Small-World Network, SIAM News, Vol 34 n 4.
[39] M. E. J. Newman, Clustering and preferential attachment in growing networks" cond-mat/0104209.
[40] Carvalho Rodrigues, F., Dockery, J., 1937, Defining Systems Based on Information Exchange:
Structure from Dynamics, BioSystems 38,229-234.
[41] Carvalho Rodrigues, F.,1990/1991, Funo de Coeso de Estruturas baseadas em Informao,
Memrias da Academia, TOMO XXXI, Academia das Cincias de Lisboa.
[42] Carvalho Rodrigues, F., Dockery, J. and Rodrigues, T., 1993b, Entropy of Plagues: A Measure
Assessing the Loss of social Cohesion Due to Epidemics, Euro. J. Operational Research,71,45-60.
[43] Hidden Order, J. Holland, Addison Wesley, 1995.
[44] Von Bertalanffy, Ludwig (1973) General System Theory (Harmondsworth: Penguin Books).
[45] C. E. Shannon, A mathematical theory of communication, Bell System Technical Journal, vol. 27,
pp. 379-423 and 623-656, July and October, 188.
[46] Jumarie, Guy M., Subjectivity, Information, Systems, An introduction to a theory of relativistic
cybernetics , Gordon and Breach, Science Publishers, Inc., 1986.
[47] H. J. Bremermann, "Complexity and transcomputability", in The Encyclopedia of Ignorance, M.
Duncan, ed. Pergamon Press, Oxford (1977).
58
Captulo 5
Resumo
59
1. Introduo
2. Energia interna
k = 2n/m (2)
60
Para uma distribuio de ligaes aproximadamente uniforme, o grau de
separao mdio do sistema, L, que mede o nmero de ligaes mnimo a percorrer para
um sinal de um elemento do sistema atingir outro, dado por [14][16]:
L = log(m)/log(k) (3)
log( m)
=> L= (4)
2.n
log
m
log( m)
=> L= (5)
log( 2.C )
L L
dL = dm + dC (6)
m C
Assim:
1 1 1 log( m )
=> dL = . .dm + . .dC (7)
log( 2.C ) m C . log( 2.C ) log( 2.C )
log( m ) 1 1 log( m)
=> dL = . .dm + . .dC
log( 2.C ) log( m).m C . log( 2.C ) log( 2.C )
log( m)
Como L = , tem-se:
log( 2.C )
1 1
=> dL = L. .dm + .L .dC
log( m).m C . log( 2.C )
61
dL 1 1
=> = .dm + .dC (8)
L log( m).m C .log( 2.C )
dL 1
=> = .dC
L C . log( 2.C )
(m constante) (9)
L 1
=> = L. (10)
C C . log( 2.C )
Note-se que, como C > 0 e log(2.C) > 0, porque 2.C > 1, se n > m/2, ento:
L m
< 0, se n > . (11)
C ( mconst ) 2
2n
=> L. log = log(m) (12)
m
L +1
=> log(2.n) = .log(m) (13)
L
62
agora possvel derivar esta equao em ambos os lados supondo que as
variveis so contnuas e L constante. Usando a base natural para os logaritmos [20],
du( x ) d ( 2n) L + 1 dm
como: d[ln(u(x))] = , tem-se: = . (14)
u (x ) 2n L m
dn
=> dm = L +1 (15)
n L
m
63
2.0
1.5
1.0
1 2 3 4 5 6 7 L
Figura 1: Taxa de variao da conectividade relativa para uma variao constante do grau de separao
mdio.
Concluses
64
energia interna necessrio. Dependendo das limitaes energticas do sistema, um valor
do grau de separao mdio mnimo pode ser estabelecido.
Referncias
65