Вы находитесь на странице: 1из 10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

Caos, Complejidad y Entropa


Una charla sobre fsica para no-fsicos
Michel Baranger
Centro de Fsica Terica, Laboratorio de Ciencia Nuclear y Departamento de Fsica
Instituto de Tecnologa de Massachusetts, Cambridge, MA 02139, USA
e
Instituto de Sistemas Complejos de Nueva Inglaterra, Cambridge, MA 02138, USA
MIT-CTP-3112
El siglo 21 est empezando con una gran movida. Para la persona en la calle, la movida es acerca de una revolucin tcnica que
puede eventualmente ser mayor que la revolucin industrial de los siglos 18 y 19, habiendo ya producido un cambio drstico en las
reglas de la economa. Para aquellos con inclinacin cientfica, un aspecto de esta movida es la revolucin de la complejidad, que
est cambiando el foco de investigacin en todas las disciplinas cientficas, por ejemplo, biologa humana y medicina. Que rol
juega en esto la fsica, la ms vieja y ms simple de las ciencias? Siendo un fsico terico hasta el hueso, quiero enfocarme en
fsica terica. Cambiar tambin?
La fsica terica del siglo 20 sali de la revolucin relativstica y de la revolucin de la mecnica cuntica. Fue toda acerca de
simplicidad y continuidad (an a pesar de los saltos cunticos). Su herramienta principal fue el clculo. Su producto final fue la
teora de campos.
La fsica terica del siglo 21 est saliendo de la revolucin del caos. Ser acerca de complejidad y su principal herramienta ser la
computadora. Su expresin final no fue hallada an. La termodinmica, como una parte vital de la fsica terica, tomar parte en la
transformacin.
CAOS
Para los fsicos tericos la revolucin empez unas dcadas atrs con caos. Caos es un concepto puramente matemtico; es un
hecho matemtico innegable. Sabemos que la fsica terica esta construida sobre las matemticas y que todos los fsicos tericos
son matemticos aplicados. La primera pregunta que quiero examinar es: por qu es que, entre todos los practicantes de ciencia,
ciencia aplicada, disciplinas ingenieriles, y ciencias humanas, los fsicos fueron prcticamente los ltimos en interesarse en caos y
en cmo usarlo en su trabajo? Hubo excepciones, por supuesto. Quienes construyeron los grandes aceleradores de partculas saban
acerca de caos; de hecho, descubrieron mucho de l. Hubo muchas otras excepciones. Pero la mayora de los fsicos no saba
acerca de caos, y an no saben. Muchos tipos de ingenieros, meteorlogos, algunos tipos de qumicos, bilogos de poblacin,
cardilogos, economistas y hasta psiclogos, tomaron caos mucho antes de que lo hagan los fsicos. Durante mi carrera enseando
en el MIT, dos veces introduje algo de caos simple en un curso para estudiantes jvenes de fsica; quera que estos jvenes fsicos
estuvieran expuestos a l. Pero en el departamento de fsica del MIT, los profesores no ensean el mismo curso por mucho tiempo.
Tras dos o tres aos, son movidos a otros cursos, para evitar que se estanquen. Y as, dos veces la persona que me sucedi quit
caos del curriculum diciendo Lo lamento, no s nada sobre esto, no puedo ensearlo. Una vez ms, hubo grandes excepciones,
pero caos no es an parte del curriculum fsico de una universidad estadounidense promedio; la mayora de los estudiantes
obtienen ttulos en fsica sin siquiera or sobre l. El libro de texto ms popular sobre mecnica clsica no incluye caos. Su autor se
disculpa levemente en su introduccin, diciendo que el tema merece un libro entero, lo cual es una excusa ridcula.
Por qu es as?
La respuesta es simple. Los fsicos no tuvieron tiempo para aprender caos, porque estaban fascinados por otra cosa. Esa otra cosa,
fue la fsica del siglo 20, por supuesto! Relatividad, mecnica cuntica, y sus miradas de consecuencias. Dir ms an: caos era no
slo poco familiar para ellos; era ligeramente desagradable! Lo s, porque me sent bastante de esa forma yo mismo. Qu era tan
desagradable de l? Para explicar eso, debo mirar unos siglos hacia atrs.
Hace poco ms de 300 aos Newton y Leibniz, ms o menos simultneamente, inventaron el clculo. Al hacerlo, proveyeron al
mundo cientfico de la ms poderosa arma nueva en su arsenal matemtico desde el descubrimiento de los nmeros mismos. Una
forma de apreciar el alcance del clculo es mirarlo en trminos geomtricos. Antes del clculo, la geometra poda manejar lneas
rectas, planos, crculos, esferas y varias combinaciones entre ellos. Tambin, con un poco ms de dificultad, elipses, parbolas e
hiprbolas; elipsoides, paraboloides, e hiperboloides. Quizs algunos otros objetos ms complicados. Y eso era todo. Despus del
clculo, cualquier curva, la que fuera, cualquier superficie, la que fuera, poda ser manejada y analizada, siempre que fuera lo
suficientemente suave.
La idea del clculo es la simplicidad misma. Puede ser presentada en slo unas pocas lneas. Consideremos una cierta funcin, que
escribir as
y = f(x) .
Esta notacin significa que, si usted me da un cierto valor numrico para la variable x, yo tengo a mano un mecanismo (frmula,
programa de computadora, experimento, o lo que sea) que me permite hallar el valor numrico de y : y est determinado por x, y es
una funcin de x, y los matemticos escriben esto y = f(x). Puedo tambin si quiero dibujar un grfico de esta funcin usando dos
ejes, el eje horizontal para x y el eje vertical para y. Para cada valor de x uso mi mecanismo para hallar el valor de y, lo cual me da
un punto en el grfico. He dibujado tal grfico en la figura 1, asumiendo que era una curva suave, y he dibujado la misma curva
dos veces. Arriba, he tratado de reemplazar la curva por segmentos medianamente largos de lneas rectas: no es una representacin
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

1/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

muy buena. Abajo, hice lo mismo, pero esta vez usando segmentos rectos: la representacin es mejor. Si yo usara segmentos an
ms cortos, la representacin sera an mejor. Creo usted concordar en que, al ir haciendo los segmentos ms y ms cortos, un
procedimiento que los matemticos llaman tender al lmite, la aproximacin se hace ms y ms perfecta. Eso es todo lo que hay
sobre clculo; eso es el curso completo. Todo lo dems en clculo simplemente expande sobre esta idea.
Usted ve que es esencial que la curva sea suave, o de otra forma lo que recin hicimos no funcionara. Suavidad es la clave de toda
la cosa. Existen funciones, bien conocidas por los

Figura 1: La primera y ultima leccin sobre calculo.


matemticos, que no son suaves: el clculo no se aplica a ellas. Pero si usted se restringe slo a funciones suaves, ver que
cualquiera de ellas puede ser aproximada con cualquier grado de exactitud por pequeos segmentos de lneas rectas. Y dado que
ya conocemos todo lo conocible sobre la geometra de las lneas rectas, conocemos todo lo conocible sobre curvas suaves! Todo el
poder del clculo se sigue de esto.
Por durante al menos 200 aos, la ciencia terica se aliment de esta idea del clculo. Los matemticos inventaron conceptos
como continuidad y analicidad para describir suavidad ms precisamente. Y el descubrimiento del clculo llevo a una explosin de
ms descubrimientos. La rama de las matemticas as constituida, conocida como Anlisis, es no slo la ms rica de todas las
ramas, sino tambin por lejos la ms til para aplicaciones a ciencia cuantitativa, de fsica a ingeniera, de astronoma a
hidrodinmica, de ciencia de materiales a oceanografa. Los cientficos tericos se convirtieron en matemticos aplicados, y los
matemticos aplicados son gente para quienes el anlisis es una segunda naturaleza. Integrales, ecuaciones diferenciales,
expansiones de series, representaciones integrales de funciones especiales, etc. . . , stas son las herramientas que el clculo
provey y que son capaces de resolver una sorprendente variedad de problemas en todas las reas del conocimiento cuantitativo.
Tras muchas dcadas de xito ininterrumpido con anlisis, los tericos quedaron imbuidos con la nocin de que el anlisis era el
camino del mundo, que todos los problemas se rendiran eventualmente a l, dado el suficiente esfuerzo y el suficiente poder de
computacin. Esta idea no fue expresada explcitamente; fue inconsciente. Pero se encuentra presente en la mayora de la ciencia
del siglo 20. Est reflejada en las elecciones hechas en los curriculums universitarios y en los libros de texto. Las dos grandes teoras
de comienzos del siglo 20, Relatividad y Mecnica Cuntica, estn ambas totalmente enraizadas en anlisis. Esta idea de la
invencibilidad del anlisis fue an ms poderosa por ser insconsciente. La gente se olvid que haba supuestos iniciales. Las
verdades condicionales se volvieron verdades absolutas. Lo s, porque estuve ah yo mismo. Ninguno de nosotros, fsicos tericos,
siquiera discuta la posibilidad de que podan existir problemas prcticos a los cuales el clculo no se aplicara. Las curvas no suaves
eran simplemente fenmenos patolgicos de inters solamente para matemticos. Si usted va al fondo de esta creencia,
encontrar lo siguiente. Todo puede ser reducido a pequeos pedacitos de lneas rectas, por lo tanto todo puede ser conocido y
comprendido, si lo analizamos en una escala lo suficientemente fina. Puede requerir un montn de trabajo, y a veces puede no
valer la pena hacerlo, pero en principio, tenemos poder absoluto! Si, el enorme xito del clculo es en gran parte responsable por
la actitud decididamente reduccionista de la mayor parte de la ciencia del siglo 20, la creencia en control absoluto emergiendo de
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

2/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

conocimiento detallado. Si, los matemticos nos estaban diciendo todo el tiempo que las curvas suaves eran la excepcin, no la
regla: no los escuchamos!
Caos es la rev olucin anti-clculo. Caos es el redescubrimiento de que el clculo no tiene poder infinito. En su sentido ms
amplio posible, caos es la coleccin de aquellas verdades matemticas que no tienen nada que ver con el clculo. Y esta es la
razn por la cual les resulta desagradable a los fsicos del siglo 20. En trminos de aplicaciones, la Teora del Caos resuelve una
amplia variedad de problemas cientficos e ingenieriles que no responden al clculo. Esto no significa que de aqu en ms el
clculo haya pasado de moda, ni que debamos enfocar toda nuestra atencin en caos. No, el clculo retiene todo su poder, pero
este poder es limitado. El clculo es slo una parte de la verdad. Es slo un miembro de la pareja. Caos es la novia elegida por los
matemticos para casar al clculo. Cuando el clculo vio por primera vez a su novia, realmente no le gust, pero no habr divorcio,
estn casados para siempre, y el clculo llegar a quererla mucho, eventualmente. . . !
Esbozar brevemente de que trata el caos, y cmo encaja con sistemas complejos. De todas las dimensiones que usamos para mirar
a los objetos fsicos, las ms importantes son el espacio y el tiempo. Miremos primero al caos en el espacio. Un objeto que es
catico en el espacio es llamado un fractal. Existen muchas posibles definiciones de la palabra fractal. Una definicin muy vaga y
general, es esta: un fractal es una figura geomtrica que no se hace ms simple al analizarla en partes cada vez menores. Lo cual
implica, por supuesto, que no es suave. Los matemticos han conocido ejemplos simples de fractales por un largo perodo de
tiempo. Por ejemplo, tome un segmento de recta y qutele el tercio central. Quite el tercio central de los dos segmentos ms cortos
que quedaron tras hacerlo. Y as ad infinitum. En el lmite usted obtiene un fractal llamado un Conjunto de Cantor. Aqu tiene otro
ejemplo, pero bi-dimensional. Considere el rea dentro de un tringulo equiltero. Considere entonces el tringulo equiltero ms
pequeo obtenido uniendo con lneas rectas los centros de los tres lados del tringulo original. Quite el rea de este segundo
tringulo del primero. Le queda una figura que consiste en tres tringulos que se tocan, el rea de cada uno de los cuales es 1/4
que el del original. Ejecute la misma operacin que en el original. Y as ad infinitum. Usted obtiene un fractal llamado el Tringulo
de Sierpinski (ver figura 2). Mucha, gente, entre la cual me incluyo, sola pensar en estos objetos como curiosidades matemticas

Figura 2: El Tringulo de Sierpinski


(tomado de Bar-Yam, Dynamics of Complex Systems).
sin valor prctico. Pero aprendimos que no es as, especialmente desde los 1970s. Los dos ejemplos que di, son elementales, pero
el tema se ha convertido en altamente desarrollado. Existen infinitas posibilidades para fabricar fractales. El famoso Conjunto de
Mandelbrot, altamente popular en libros de imgenes y en los museos, es un fractal menos trivial, pero su definicin es an
sorprendentemente simple, dada la complejidad resultante. No hace falta decir que es imposible imprimir un fractal en un trozo de
papel. La imagen que uno ve en un papel, es slo una aproximacin del fractal real. Pero, en el caso del Conjunto de Mandelbrot,
esa aproximacin es lo suficientemente bella, especialmente cuando uno pasa a travs de sucesivas ampliaciones de regiones cada
vez ms chicas. En el caso de los fractales ms simples como el Conjunto de Cantor y el Tringulo de Sierpinski, amplificaciones
sucesivas siguen reproduciendo siempre la misma estructura: estos fractales son autosimilares. Esto no es cierto en el caso del
Conjunto de Mandelbrot, y para l, sucesivas ampliaciones traen un elemento de sorpresa y delicia.
No todos los fractales son hechos por el hombre. La naturaleza esta llena de fractales. Una cadena montaosa es un fractal. Un
rbol viejo sano es un fractal. El cuerpo humano es un fractal. Un patrn de asentamientos humanos, una hoja de helecho, un
patrn de fallas de terremoto, el cielo de un da parcialmente nublado, cualquier seccin de una costa, las olas en la superficie del
ocano, el patrn de vegetacin en el desierto de Sonora, etc., etc., todos estos son fractales en el sentido amplio descripto
anteriormente, es decir que no se vuelven ms simples al ser examinados con un microscopio cada vez ms potente. Algunas de
estas cosas realmente tienen un alto grado de autosimilaridad al examinarlas en escalas sucesivamente ms finas: un rbol, un
helecho, una cadena montaosa, por ejemplo. Otras, como nuestros cuerpos, no lo tienen, pero an no se simplifican, tal como
deberan si fueran tratables por el clculo. Vivimos entre fractales. Nos sentimos mucho ms confortables entre ellos que entre las
figuras de nuestros textos de geometra elemental. No es extrao, entonces, que la palabra fractal no fuera inventada hasta 1974?
Debe haber existido alguna oposicin sistemtica en algn lado . . . ? Y ahora existe una serie completa de fractales que han sido
diseados por matemticos u otros cientficos computacionales para verse como fractales naturales. Usted los ve seguido en su
salvapantallas, en juegos de computadora, y en animaciones.
Para un fsico como yo, existe otro ejemplo obvio de fractal, en este caso cargado con irona. Estuvimos todo el siglo 20
desarrollando las consecuencias de la mecnica cuntica y de la relatividad, dos teoras firmemente basadas en el clculo. En
particular, queramos usar estas teoras en el estudio de partculas elementales, y el resultado iba a ser el descubrimiento de las
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

3/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

leyes fundamentales de la fsica y del universo. Al comienzo, las partculas elementales eran los tomos, tal como fue proclamado
por la etimologa griega de la palabra. Pero mirando en una escala ms fina, encontramos que los tomos estaban realmente
hechos de ncleo y electrones, y stos se transformaron en las nuevas partculas elementales. Tras lograr refinar la escala
nuevamente, descubrimos que los ncleos estaban hechos de protones y neutrones, ms una legin de primos y otros parientes. As
que cambiamos la definicin de partculas elementales de nuevo. Unas pocas dcadas despus, gracias a aceleradores de cada vez
ms energa, pudimos mirar al mundo con una escala ms fina an, y sabemos ahora que nuestras viejas partculas elementales
estn realmente hechas de quarks de varios sabores y de gluones. Seguir el proceso ad infinitum? No tenemos ya realmente
ninguna buena razn para decir no . La Fsica de Partculas, este sacro sanctorum del Clculo, es realmente un gran fractal. Y este
fractal posee una razonable cantidad de autosimilaridad, tal como fue ejemplificado por la similaridad entre espectroscopa
atmica, espectroscopa nuclear y espectroscopa hadrnica.
Tras caos en el espacio, consideremos caos en el tiempo. Esta es en verdad la vista ms comn del caos y tambin de donde tom
su nombre. Un sistema cuya configuracin es capaz de cambiar con el tiempo se denomina un sistema dinmico. Un sistema
dinmico consiste de algunas variables y de algunas ecuaciones de movimiento o ecuaciones dinmicas. Las variables son
cualquier cosa que pueda variar con el tiempo. Pueden ser mltiples o simples, continuas o discretas. Deben ser elegidas de tal
forma que el conocimiento completo de todas las variables determine nicamente el estado del sistema en un momento dado. En
otras palabras, dos sistemas similares con los mismos valores de todas las variables estn en configuraciones idnticas ahora, y
evolucionarn idnticamente. El conjunto de todos los posibles valores de las variables, es decir, el conjunto de todos los posibles
estados del sistema, es llamado el espacio de fases. El estado presente del sistema es un punto en el espacio de fases. Al progresar
el tiempo, este punto se mueve en el espacio de fases. El trabajo de las ecuaciones de movimiento es determinar cmo se mueve.
Dado el presente estado del sistema en el espacio de fases, las ecuaciones de movimiento nos dicen cmo podemos calcular el
estado en el prximo instante de tiempo. Al progresar el tiempo, este punto describe una trayectoria o una rbita en el espacio de
fases. Si sabemos cmo calcular esta trayectoria, decimos que hemos resuelto las ecuaciones de movimiento. Usualmente, uno
conoce el estado del sistema en un momento inicial; esto se denomina las condiciones iniciales. Uno trata entonces de calcular la
trayectoria que se sigue de esas condiciones iniciales.
La firma del caos temporal es algo llamado sensitividad a las condiciones iniciales. Dice que, si usted tiene dos juegos de
condiciones iniciales, o dos puntos en el espacio de fases, extremadamente cerca uno de otro, las dos trayectorias que se siguen de
ello, si bien estn cerca al comienzo, eventualmente divergirn exponencialmente una respecto de otra. Edward Lorenz, el
descubridor de la sensitividad a las condiciones iniciales, tambin lo llam el efecto mariposa porque, gracias a la sensitividad a
las condiciones iniciales, es posible para una mariposa, moviendo sus alas en alguna isla del Caribe hoy, cambiar completamente
el patrn del clima en Europa un mes en el futuro. Si usted toma un sistema dinmico arbitrario, con ecuaciones de movimiento
elegidas de un sombrero, las chances son muy muy grandes de que obtendr sensitividad a las condiciones iniciales. El caos
temporal en este caso es la regla ms que la excepcin. En mecnica clsica, el opuesto de sensitividad a las condiciones iniciales
es llamado integrabilidad. Un sistema integrable es multiperidico: puede ser descripto por un juego de variables que vara
peridicamente con el tiempo. Esto efectivamente se cumple en los sistemas simples ms comunes, como el sistema de Kepler (dos
cuerpos celestes interactuando por gravitacin Newtoniana) o el oscilador armnico multidimensional. De hecho se cumple en todos
los sistemas discutidos en la mayora de los libros de textos de mecnica clsica. Estos libros de texto crean la impresin de que
todos los problemas interesantes son integrables, cuando en realidad los sistemas que discuten constituyen un conjunto de medida
nula. Y as es como generaciones de estudiantes han sido mal guiados!
Sensitividad a las condiciones iniciales es la muerte del reduccionismo. Dice que cualquier pequea incertidumbre que pueda
existir en las condiciones iniciales crecer exponencialmente con el tiempo, y eventualmente (muy rpido, en la mayora de los
casos) se convertir en tan grande que perderemos todo conocimiento til sobre el estado del sistema. Aun si conocemos el estado
del sistema de forma muy precisa ahora, no podremos predecir la trayectoria futura para siempre. Podemos hacerlo por un tiempo
breve, pero el error crece exponencialmente y debemos rendirnos en algn momento. Le hace acordar a las predicciones
climticas? Por cierto: Lorenz fue un meteorlogo.
La conexin entre el caos temporal y el caos espacial es muy estrecha. Tome un sistema dinmico catico. Elija una regin simple
en su estado de fases, tal como una esfera o un cubo o cualquier otro volumen simple. Considere esta regin como una regin de
posibles condiciones iniciales. Deje entonces que el tiempo corra. Al seguir cada punto su trayectoria, la regin misma se mueve y
cambia de forma. En el curso de su evolucin, la regin se convertir, lenta pero seguramente, en un fractal. El fractal se va
formando al progresar el tiempo y se convertir en completo en tiempo infinito. Cada sistema dinmico catico es una mquina de
fabricar fractales. Conversamente, cada fractal puede ser visto como el posible resultado de la accin prolongada del caos temporal.
Existe un aspecto del caos que tom un largo tiempo en penetrar la cultura del clculo. Es que el caos puede ser una propiedad
de sistemas muy simples. Hasta hace poco era ampliamente creido que el tipo de complicacin que ahora asociamos al caos, y
que por supuesto poda ser observado en muchos lugares en el mundo real, tena que ser causado por las interacciones de grandes
nmeros de variables independientes, lo cual hara estos problemas muy difciles de resolver por cualquier mtodo. Esa fue una
razn para la falta de inters en estos fenmenos que se vean caticos: se pensaba que eran insolubles. Pero esta creencia result
enteramente equivocada. Para un flujo, es decir, un sistema dinmico en el cual el tiempo fluye continuamente, tres dimensiones
son suficientes para garantizar que un sistema genrico ser catico en parte de su espacio de fases. Para un mapa (map), que es el
caso en que el tiempo cambia en pasos finitos, una sola dimensin es suficiente. Un ejemplo famoso del primer caso es el sistema
estudiado por Lorenz: tres simples ecuaciones en tres variables. Lorenz quera que esto fuera un modelo del clima, lo cual hizo reir
a alguna gente, pero, oh maravilla, descubri la sensitividad a las condiciones iniciales. Un ejemplo del segundo tipo es la
ecuacin logstica (logistic map), usado por largo tiempo por bilogos de poblacin para modelar variaciones estacionales en la
abundancia de una especie. Esta caracterstica de simplicidad hace al caos muy diferente de la complejidad, un punto al cual
retornar.
Esta importante faceta del caos, el que puede ser, y frecuentemente es, una propiedad de sistemas muy simples, fue un tremendo
choque para mi la primera vez que me enter de ello. Ms mundanamente, esto puede traducirse como: preguntas simples tienen
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

4/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

usualmente respuestas complicadas. Uno pregunta una pregunta simple, dando algunas simples ecuaciones de movimiento y
algunas simples condiciones iniciales, y la respuesta, que es la trayectoria en el espacio de fases, resulta ser . . . catica! Yo he sido
definitivamente enseado, a travs de mi educacin en Francia, imbuida de Cartesianismo, que las preguntas simples deben tener
respuestas simples. Cualquier otra cosa sera fea, irracional, y no artstica. Como puede ver, tuve que cambiar.
Luego existe otro aspecto del caos que comparte con complejidad. En ambos casos, la dinmica tiene que ser nolineal. En este
contexto, linealidad significa que las ecuaciones de movimiento no contienen ningn exponente de las variables mayor que 1. En
casos unidimensionales, linealidad es lo mismo que decir que la respuesta es proporcional al estmulo. Si cualquier otro exponente
entra en cualquier lugar, se dice que las ecuaciones son nolineales. Las ecuaciones lineales son especiales: existe un mtodo
general que las resuelve a todas exactamente. Nunca causan caos. En un sentido, son triviales; en otro, son muy tiles,
precisamente porque uno conoce exactamente qu hacer con ellas. Muchos fenmenos simples de hecho siguen ecuaciones
lineales aproximadamente. Estos van desde el simple pndulo, si su amplitud de oscilacin no es muy grande, hasta la propagacin
de la luz en un vaco, si la intensidad de la luz no es demasiado grande (lo cual es casi siempre el caso). Por lo tanto no es
sorprendente que, en el pasado, los fsicos hayan gastado un montn de su energa en ecuaciones lineales, y mucho menos en
ecuaciones nolineales, a pesar del hecho que las ecuaciones nolineales son mucho ms generales y mucho ms prevalentes en el
amplio mundo.
Y cmo fabrica la nolinealidad fractales y caos? Existe una y slo una respuesta: estirando y doblando. Todos los flujos y todos los
mapas que fabrican fractales lo hacen estirando y doblando. Miremos un ejemplo simple. Pensemos en un maestro repostero
haciendo un croissant. l pone la masa y la estira con un palo de amasar. Luego pone en ella una capa de manteca y la dobla. La
enrolla, la estira de nuevo, le pone otra capa de manteca y la dobla de nuevo. Y as ad infinitum, o casi. Lo que obtiene es un
objeto, un delicioso croissant, que es un fractal en la direccin perpendicular a la mesa, con un nmero de capas muy grande
(quasi-infinito). Esta es la forma en que trabaja todo caos dinmico! Es fcil ver cmo se produce la sensitividad a las condiciones
iniciales. Considere dos puntos cercanos uno a otro en la masa inicial. Cuando el repostero enrolla la masa la primera vez, stos se
separan un poco, a menos que ocurra que estn justo en la misma vertical, lo cual es muy improbable. La prxima vez que enrolla
la masa, se separan an ms. Eventualmente es inevitable que ocurra que, en una de las operaciones de bolado, nuestros dos
puntos terminen en diferentes capas. Tras eso, ambos tienen historias completamente diferentes, y si se acercan nuevamente ser
puro accidente. Todo esto es muy simple y obvio! pero para los fsicos en los 1970s era nuevo. Y resulta ser muy, muy til. Y dnde
esta la nolinealidad en esto? En el doblado. Las ecuaciones lineales de movimiento tienen soluciones cuyo comportamiento no
cambia con la amplitud. Si comienzan a estirarse, se estiran para siempre; nunca se doblan. Es la nolinealidad la que dobla.
Esto es todo respecto a caos. Debo seguir con sistemas complejos. para resumir, vemos que el caos destruye nuestro sueo
reduccionista, el sueo de que tendramos poder absoluto si conociramos lo suficiente acerca de los detalles. Pero el caos y el
clculo se necesitan el uno al otro, y darn frutos y se multiplicarn.
COMPLEJIDAD
Al momento, la nocin de sistema complejo no est precisamente delineada an. Esto es normal. A medida que la gente trabaja
ms y ms en sistemas complejos, ganarn mayor comprensin de sus propiedades definitorias. Ahora, sin embargo, la idea es algo
nebulosa y difiere de autor en autor. Pero existe un acuerdo bastante completo de que los sistemas complejos ideales, aqullos
que ms nos gustara comprender, son los biolgicos, y especialmente los sistemas que tienen que ver con gente: nuestros cuerpos,
nuestras agrupaciones, nuestra sociedad, nuestra cultura. No teniendo una definicin precisa, podemos intentar transmitir el
significado de complejidad enumerando las que parecen ser sus propiedades ms tpicas. Algunas de estas propiedades son
compartidas tambin por muchos sistemas no biolgicos.
1 Los sistemas complejos contienen muchos constituyentes interactuando nolinealmente.
Recordemos que la nolinealidad es una condicin necesaria para el caos, y que casi todos los sistemas nolineales cuyos espacios de
fases tienen tres o ms dimensiones son caticos al menos en parte de su espacio de fases. Esto no significa que todos los sistemas
caticos sean complejos; lejos de ello! Para empezar, la caoticidad ocurre con muy pocos constituyentes; complejidad, no.
Regresaremos en breve a la enorme diferencia entre caos y complejidad.
2 Los constituyentes de un sistema complejo son interdependientes.
Veamos un ejemplo de interdependencia. Considere primero un sistema no complejo con muchos constituyentes, digamos un gas
en un contenedor. Saque 10% de sus constituyentes, que son sus molculas. Qu ocurre? Nada muy dramtico! La presin cambia
un poco, o el volumen o la temperatura; o todas ellas. Pero en conjunto, el gas final se ve y se comporta en gran medida como el
gas original. Ahora haga el mismo experimento con un sistema complejo. Tome un cuerpo humano y qutele el 10%: cortmosle
una pierna! El resultado ser ms espectacular que el del gas. le dejo el escenario a usted. Y ni siquiera fue la cabeza lo que le
propuse cortar.
3 Un sistema complejo posee una estructura que atraviesa varias escalas.
Tome nuevamente el ejemplo del cuerpo humano:
Escala 1: cabeza, tronco, extremidades, . . .
Escala 2: huesos, msculos, estmago, sangre, nervios, . . .
Escala 3: clulas, cada una con un ncleo, mitocondria, citoplasma, . . .
Escala 4: cromosomas conteniendo ADN, molculas protenicas especializadas, cada una cumpliendo un rol especfico . . .
A toda escala encontramos una estructura. Esto es un esencial y radicalmente nuevo aspecto de los sistemas complejos, y nos lleva
a la cuarta propiedad . . .
4 Un sistema complejo es capaz de comportamiento emergente.
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

5/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

Emergencia ocurre cuando usted cambia el foco de atencin de una escala a la escala ms gruesa sobre ella. Un cierto
comportamiento, observado a una cierta escala, es llamado emergente si no puede ser entendido cuando usted estudia,
separadamente y uno por uno, cada constituyente de esta escala, cada uno de los cuales puede tambin ser un sistema complejo
hecho de escalas ms finas. As el comportamiento emergente es un fenmeno nuevo especial de la escala considerada, y resulta
de interacciones globales entre los constituyentes de esa escala. Ejemplo trivial: el cuerpo humano es capaz de caminar. Este es un
comportamiento emergente de la escala ms alta mencionada anteriormente. Si usted estudia slo una cabeza, o slo un tronco, o
solamente una pierna, usted nunca comprender el caminar.
La combinacin de estructura y emergencia conduce a auto-organizacin, que es lo que ocurre cuando un comportamiento
emergente tiene el efecto de cambiar la estructura o de crear una nueva estructura.
Existe una categora especial de sistemas complejos que fue creado especialmente para acomodar seres vivientes. Son los
sistemas adaptativ os complej os. Como su nombre lo indica, son capaces de cambiarse a si mismos para adaptarse a un medio
cambiante. Tambin pueden cambiar el medio para que quede acorde a si mismos. Entre ellos, una categora ms reducida an
son auto-reproductores: conocen nacimiento, crecimiento y muerte. No es necesario decir que conocemos muy poco que sea
general sobre tales sistemas considerados como abstracciones tericas. Sabemos un montn sobre biologa. Pero no sabemos
mucho, si es que algo en absoluto, sobre otras clases de vida, o de la vida en general. Existe gente trabajando en esto, y es
fascinante. Volvamos a la relacin entre complejidad y caos. No son para nada la misma cosa. Cuando usted mira un fractal
matemtico elemental, puede parecerle muy complejo, pero este no es el mismo significado de complejo que cuando decimos
sistemas complejos. El fractal simple es catico, no es complejo. Otro ejemplo sera el simple gas mencionado anteriormente: es
altamente catico, pero no es complejo en el sentido presente. Ya vimos que complejidad y caos tienen en comn la propiedad de
nolinealidad. Dado que prcticamente cada sistema nolineal es catico parte del tiempo, esto significa que la complejidad implica
la presencia del caos. Pero lo opuesto no es verdad. Caos es un tema muy grande. Existen muchos trabajos tcnicos. Muchos
teoremas fueron probados. Pero complejidad es mucho, mucho mas grande. Contiene muchas ideas que no tienen nada que ver
con caos. Caos es bsicamente pura matemtica, y a esta altura ya es bastante bien conocido. Complejidad es an casi
completamente desconocida. No es realmente matemticas. Es ms como fsica terica, o cualquier cosa terica. Por supuesto, una
vez que est en buena forma, usar un montn de matemticas, quizs un montn de nueva matemtica.
De modo que el campo del caos es un subconjunto muy pequeo del campo de la complejidad. Quizs la ms notable diferencia
entre ambos sea la siguiente. Un sistema complejo siempre tiene varias escalas. Mientras que el caos puede reinar en la escala n, la
escala ms gruesa arriba de ella (la escala n - 1) puede ser auto-organizadora, que en un sentido es el opuesto del caos. Por tanto,
agreguemos un quinto item a la lista de propiedades de los sistemas complejos:
5 Complejidad involucra una interaccin entre caos y no caos.
Mucha gente sugiri que complejidad ocurre al borde del caos, pero nadie ha sido capaz de hacer esto totalmente claro.
Presumiblemente significa algo como lo siguiente. Imagine que las ecuaciones de movimiento contienen algn parmetro de
control que puede ser cambiado, dependiendo del medio (ejemplos: temperatura, concentracin, intensidad de algn efecto
externo como luz solar). Sabemos que la mayora de los sistemas nolineales no son 100% caticos: son caticos para algunos
valores del parmetro de control y no caticos para otros. Tambin tenemos el borde del caos, es decir, el valor preciso del control
para el cual la naturaleza de la dinmica cambia. Es como un punto crtico en transiciones de fases. Es el punto donde las
correlaciones de largo rango son ms importantes. Quizs los sistemas complejos, tales como los sistemas biolgicos, se las arreglan
para modificar su medio de forma tal de operar tanto como sea posible en este lugar del borde-del-caos, que tambin sera el lugar
donde es ms factible que ocurra auto-organizacin. Tiene sentido esperar que ocurra auto-organizacin donde haya fuertes
correlaciones de largo rango.
Finalmente, existe una propiedad ms de los sistemas complejos que nos concierne a todos muy de cerca, que lo hace
especialmente interesante. En realidad, concierne a todos los sistemas sociales, a todas las colecciones de organismos sujetos a las
leyes evolutivas. Ejemplos podran ser poblaciones de plantas, poblaciones de animales, otras agrupaciones ecolgicas, nuestros
propios sistemas inmunes, y grupos humanos de varios tamaos tales como familias, tribus, ciudades-estados, clases sociales o
econmicas, equipos deportivos, Silicon Valley dotcoms, y por supuesto naciones modernas y corporaciones supranacionales. Para
evolucionar y mantenerse vivos, para mantenerse complejos, todos los anteriores necesitan obedecer la siguiente regla:
6 Complejidad involucra la interaccin entre cooperacin y competencia.
Una vez ms, esta es una interaccin entre escalas. la situacin usual es que la competencia n es nutrida por la cooperacin en la
escala ms fina bajo ella (la escala n+1). Colonias de insectos como hormigas, abejas, o termitas, proveen una demostracin
espectacular de esto. Para un ejemplo sociolgico, considere las familias burguesas del siglo 19, de la clase descripta por Jane
Austen u Honor de Balzac. Ellas competan con las dems por xito econmico y para casar de la forma mas convenientemente
posible a sus jvenes descendientes. Y tenan el mayor xito en esto si tenan la devocin inequvoca de todos sus miembros, y
tambin si todos sus miembros tenan una chance de participar en las decisiones. Luego, por supuesto, tenemos las guerras entre
naciones, y el subyacente patriotismo que las soporta. Una vez que comprendemos esta dicotoma cooperacin/competencia,
estamos a una gran distancia del viejo clich de la supervivencia del ms apto, que ha hecho tanto dao a la comprensin de la
evolucin en la mente del pblico.
ENTROPIA
Obviamente el estudio de sistemas complejos demandar que usemos algn tipo de mtodo estadstico. Tenemos que hacer
mecnica y tenemos que hacer estadstica al mismo tiempo. Esto se llama Mecnica Estadstica. Pero existe tambin otro nombre
para mecnica estadstica: Termodinmica. Termodinmica es acerca de energa desordenada. Hay montones de ella en sistemas
complejos: slo piense en dos muy populares, el clima y la economa. La termodinmica es realmente acerca de entender la
relacin entre energa desordenada y energa ordenada. En fsica y en qumica, energa totalmente desordenada es llamada calor.
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

6/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

Y termo- viene de la palabra griega que significa calor. El nombre termodinmica fue dado por los fsicos que estudiaron estas cosas
desde un punto de vista emprico en la mitad del siglo 19. El nombre de mecnica estadstica fue dado por fsicos posteriores que
estudiaban estas cosas pero desde un punto de vista terico, tratando de derivar las leyes de la termodinmica desde aqullas de la
mecnica, usando estadstica.
Usualmente el pblico tiene una bastante buena idea de lo que es energa, ordenada o no. por tanto no tienen mayor problema en
comprender la primera ley de la termodinmica, que dice que el total de energa, ordenada ms desordenada, se conserva,
significando que su valor numrico no cambia con el tiempo. Pero cuando llegamos a la segunda ley de la termodinmica, la
gente tiene a menudo problemas. Esto puede deberse a que hay muchos posibles enunciados de la segunda ley. Si usted toma dos
de ellos cualesquiera, frecuentemente suenan como se refirieran a cosas completamente diferentes. Y frecuentemente, contienen
algunas nociones que suenan tcnicas, tales como por ejemplo la palabra entropa. Pero entropa es simplemente otra palabra para
desorden. Es una medida cuantitativa para este concepto extremadamente comn. Y en realidad todo el mundo ya conoce
intuitivamente la segunda ley. Es acerca de orden comparado con desorden. Una frase simple de entender, y acertada es la
siguiente. Concierne a la evolucin temporal de un sistema aislado, que significa un sistema sin ningn tipo de interaccin o
conexin con el resto del universo. La evolucin espontnea de un sistema aislado no puede nunca conducir a una disminucin de
su entropa (= desorden). La entropa est siempre incrementndose en tanto el sistema evoluciona. Si el sistema eventualmente
alcanza el equilibrio y para de evolucionar, su entropa se transforma en constante. En otras palabras, un sistema aislado, privado
de toda ayuda externa, es incapaz de poner sus propios asuntos en orden. En el mejor de los casos, puede hacer que el nivel de
desorden crezca muy lentamente. En el peor, el desorden empeorar rpidamente hasta volverse total, lo cual es el estado de
equilibrio, el estado de mxima entropa. Todos aquellos que han sido padres de algn nio de dos aos estn totalmente
familiarizados con este sentido de la segunda ley. Vemos que, de acuerdo a lo anterior, para todo sistema complicado
evolucionando que est aislado, la entropa, que es una propiedad del estado presente del sistema, nunca disminuye con el
tiempo; puede permanecer constante, pero esto ocurre slo bajo condiciones ideales que nunca se dan en la prctica; en el mundo
real, siempre se est incrementando. Por tanto la evolucin de tal sistema es siempre irreversible: si usted ha observado una cierta
evolucin de su sistema, usted sabe que la evolucin hacia atrs, con las mismas cosas pasando en orden inverso, nunca puede ser
posible, porque hara que la entropa disminuyera con el tiempo. Y esto se nos presenta como un gran choque porque, en
mecnica, todo posible movimiento es tambin posible en la direccin inversa. La segunda ley dice que en termodinmica esto
nunca ocurre: para un sistema aislado, ningn movimiento termodinmico es jams reversible. Es el opuesto de lo que ocurre en
mecnica! Como puede esto ocurrir, dado que nos dicen que termodinmica es simplemente mecnica ms estadstica?
Dedicar el resto de este artculo a la explicacin de esta paradoja, llamada a veces la paradoja de la flecha del tiempo, y a la
derivacin de la segunda ley. Lo har al nivel ms elemental, similar al nivel de mi anterior discusin del calculo. Usted ver que el
caos es esencial para la segunda ley. Si el caos no existe, tampoco existe la segunda ley. La primera persona que se dio cuenta de
esto fue un joven ruso llamado Nicolai Krylov que era un estudiante graduado en Leningrado durante la Segunda Guerra, y que
estaba pensando sobre esto mientras estaba de servicio en la fuerza area en busca de aviones alemanes. Muri de una
enfermedad cortamente despus a la edad de 29, pero su nombre est para siempre asociado a la conexin entre caos y
termodinmica.
Quizs debera alertar al lector que hablar sobre un tipo de caos que no es el que la mayora de la gente conoce. El tipo de caos
ms importante para las aplicaciones es llamado caos disipativo. Podemos llamarlo el caos de los ingenieros. Es el tipo de caos
que contiene atractores extraos. Por el otro lado, el tipo de caos que necesito evocar es el caos conservativo, el caos de los
fsicos. Es el caos que uno encuentra al trabajar en mecnica clsica, teora clsica de campos, o cualquier otra disciplina derivada
de mecnica Hamiltoniana, con su geometra simplctica especial y sus muchas e interesantes leyes de conservacin. Como
siempre, los fsicos quieren mirar a las cosas desde el punto de vista ms fundamental, desde primeros principios. El caos
conservativo no tiene atractores extraos, pero tiene otros fractales que son igualmente bellos.
De nuevo necesitamos considerar el espacio de fases, al cual defin anteriormente. La Termodinmica se ocupa slo de sistemas
grandes, conteniendo muchos constituyentes. De otro modo, usted no tendra una distincin entre energa ordenada y calor. Por
tanto, el espacio de fases tiene un enorme nmero de dimensiones. El sistema puede o no ser complejo; esto es irrelevante para la
verdad de la segunda ley. Si conociramos el estado del sistema exactamente, podramos representarlo por un punto en el espacio
de fases. Pero obviamente, para un sistema con mltiples constituyentes, no podemos conocerlo exactamente. Tenemos slo
conocimiento parcial, y esto podemos representarlo mediante una distribucin de probabilidades en el espacio de fases. Suponga,
por ejemplo, que sabemos que el punto representativo est en algn lado dentro de un cierto volumen V del espacio de fases, pero
no sabemos dnde dentro de ese volumen. Podemos entonces representar nuestro conocimiento incompleto por medio de una
distribucin de probabilidades uniforme llenando el volumen V , con cero probabilidad de estar en cualquier otro lado (ver figura 3).
Este no es el tipo de distribucin de probabilidades ms general, pero ser suficiente para nuestro propsito actual.

file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

7/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

Figura 3: Un ejemplo de conocimiento incompleto.


A continuacin, inventamos un nmero que representar la cantidad de informacin que tenemos sobre el estado del sistema. Por
ejemplo, si la probabilidad est uniformemente distribuida a travs del espacio de fases, entonces no sabemos nada y la
informacin es I = 0. Si hemos dividido al espacio de fases en dos partes iguales y sabemos cul de las dos contiene el estado,
entonces la informacin debera ser, en lenguaje computacional, I = 1 bit, porque involucra hacer una eleccin binaria: o bien est
en una mitad, o bien en la otra. Si ahora dividimos cada una de estas dos mitades en dos partes iguales de nuevo, y si sabemos en
cual de los cuatro cuartos est nuestro estado, entonces la informacin debera ser I = 2 bits: debemos hacer dos elecciones binarias.
Y as sucesivamente. la generalizacin de este procedimiento es una simple frmula. Si la probabilidad est uniformemente
distribuida a travs de un volumen V del espacio de fases, y si Z es el volumen total del espacio de fases, entonces la cantidad de
informacin (en bits) es I = log(Z/V ), donde el logaritmo debe ser calculado con base 2. Si la distribucin es ms complicada, existe
tambin una frmula ms general, pero no la necesitaremos por ahora. Note que el bit no es una unidad hecha de masa, distancia
o tiempo: la informacin es una cantidad adimensional.
Ahora definimos otra cantidad tambin caracterizando la distribucin de probabilidad, su entropa, a la cual llamamos S. La
entropa es simplemente una medida de nuestra falta de informacin.
As la definimos como sigue:
S = constante - I .
El valor de la constante no es muy importante, porque estamos ms interesados en los cambios de entropa que en la entropa
misma. En mecnica cuntica la constante tiene un valor definido, pero no hablar sobre ello. La unidad de S es la misma que la
unidad de I, pero hemos invertido el signo, as que podramos llamarlo un tib (bit al revs). Como I, S es adimensional. (Nota: la
unidad histrica de S tiene dimensiones, pero eso es porque los termodinamicistas ponen en la frmula un factor extra que es
dimensional, la constante de Boltzmann). Para el caso donde la probabilidad est distribuida uniformemente en V , nuestra frmula
para I se transforma en la siguiente para S
S = logV + otra constante .
Una vez ms, la entropa es una medida de nuestra falta de conocimiento. Si slo sabemos que el punto que representa al sistema
en el espacio de fases est dentro de algn volumen, pero no sabemos precisamente dnde dentro del volumen, entonces este
punto podra ser cualquiera de un nmero muy grande (en realidad, infinito) de puntos, todos los cuales estn dentro del volumen.
Existen as un nmero muy grande de posibles estados del sistema y no sabemos cual es en realidad el verdadero. Es este gran
nmero de posibilidades cognitivas lo que es medido por la cantidad que llamamos entropa. Cuando decimos que la entropa es
una medida de desorden, el desorden est en nuestra cabeza, en nuestro conocimiento de la situacin. Este es en realidad el
verdadero significado de la palabra. El calificativo desordenado, como el calificativo azaroso, es siempre usado en el contexto de
una comparacin entre una situacin ideal, nica, bien definida, y la situacin real a la que consideramos como slo una de
muchas posibilidades diferentes, ninguna de las cuales merece ser registrada. Los juegos del nio de dos aos deberan estar
cuadradamente guardados en sus lugares correspondientes en cajones y cajas, pero en vez de eso estn desparramados alrededor
del cuarto en lugares cuyas coordenadas precisas no merecen ser notadas o registradas.
La siguiente pregunta, ahora que hemos definido la entropa, es cmo vara como una funcin del tiempo. Los estados en el
espacio de fases evolucionan de acuerdo a las trayectorias de la mecnica clsica. Cada probabilidad va con el estado al que
pertenece. Por tanto, la distribucin de probabilidades cambia con el tiempo. Qu ocurre con la entropa? La respuesta es muy
simple y es tambin chocante. La entropa permanece constante; no cambia para nada! Esto es fcil de ver para el caso especial
donde la probabilidad est distribuida uniformemente en un volumen V . Al avanzar el tiempo, este volumen evoluciona, se mueve
alrededor, y cambia su forma. Pero existe un teorema muy importante de la mecnica clsica, el teorema de Liouville, que dice
que el valor numrico del volumen nunca cambia; es una constante del movimiento. Y por tanto tambin lo es la entropa, dado
file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

8/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

que es esencialmente slo log V . As que tenemos ahora esta terrible contradiccin. La segunda ley nos dice que la entropa debe
incrementarse con el tiempo, salvo para situaciones de equilibrio, y el teorema de Liouville nos dice que la entropa no puede
cambiar nunca. Esta paradoja es la principal razn por la que la entropa es una cantidad interesante, porque la segunda ley es una
ley tan remarcable. El teorema de Liouville, vemos, es la causa de todo. Si no existiera el teorema de Liouville, no habra paradoja!
Y aqu es donde entra el caos. El caos resolver la paradoja. Verdad, el valor numrico de el volumen permanece estrictamente
constante, pero de acuerdo al caos, cambia su forma drsticamente. Se estira en algunas direcciones y se contrae en otras. Y se
dobla

Figura 4: La evolucin temporal de una regin simple


del estado de fases se convierte en un fractal.
repetidamente (recuerde estirar y doblar). Cada punto dentro del volumen trata de seguir su propia trayectoria, pero las trayectorias
que comienzan como vecinas divergen eventualmente unas de otras de forma exponencial (sensitividad a las condiciones iniciales).
Nuevos tentculos siguen apareciendo y estirndose por todos lados. Se forman nudos de todas formas y se vuelven ms y ms
complicados. La estructura sigue volvindose ms y ms fina. La escala subyacente se vuelve ms y ms chica. Usted est
presenciando la manufactura de un fractal. En el lmite de tiempos muy largos, eso es lo que queda: un fractal. Y ahora, qu hay
acerca de la entropa? Verdad, el valor del volumen permanece constante, tal como es garantizado por el teorema de Liouville.
Pero se est haciendo ms y ms difcil verlo, seguir sus cambios, y medir ese volumen (ver figura 4). Recuerde que, lo que usted
est viendo aqu, es una representacin de su conocimiento sobre el estado del sistema. Mientras usted ve el volumen
transformndose en ms y ms fractalizado, usted siente que su conocimiento se le est escapando; ya no puede entrar en su
cabeza! Eventualmente, mientras usted ve su precioso conocimiento parecerse ms y ms a un ovillo de lana al que agarr el gato,
usted levanta sus manos en desesperacin y exclama No lo aguanto ms; voy a dibujar una bolsa linda y lisita alrededor de todo
este lio (ver figura 5).

file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,%

9/10

31/12/2014

Baranger, Michel - Caos, Complejidad y Entropa

Figura 5: Embolsando el lio.


Por qu de repente escuchamos todas esas campanas y silbatos? Por qu todos los rayos y truenos? Qu acaba usted de hacer?
USTED INCREMENT LA ENTROPA! Si, usted reemplaz el volumen original por un volumen mayor. El volumen original estaba
lleno de agujeros (era una fractal). Usted lo reemplaz por un volumen liso sin agujeros, y por lo tanto, mayor. Y la entropa es el
logaritmo de este volumen: usted acaba de satisfacer la segunda ley de la termodinmica!
Si, usted es el que increment la entropa! No fue la fsica, no fue el caos, no fue Liouville: usted dibuj el volumen liso para hacer
su vida ms fcil, fue usted. Fue el caos el que manufactur el fractal, pero usted eligi alisarlo.
Por supuesto, este incremento en entropa no tiene que ser hecho de forma tan rpida y dramtica. Debera ser posible definir todo
de forma tal que S aumente lisa y gradualmente. Existe un procedimiento llamado granulado grueso (coarse-graining) que dice
que, antes de cada vez que usted quiera calcular la entropa, usted debera alisar los detalles de la distribucin para todas las
escalas ms finas que algn tamao dado, el cual debera ser el tamao ms all del cual usted es incapaz de rastrear estos
detalles. Cada uno de estos alisamientos es una prdida de conocimiento e incrementa el volumen efectivo de la distribucin, y por
tanto, la entropa.
La conclusin es que nuestra entropa adimensional, la cual mide nuestra falta de conocimiento, es una cantidad puramente
subjetiva. No tiene nada que ver con las leyes fundamentales de partculas y sus interacciones. Tiene que ver con el hecho de que
el caos transforma las cosas en un lio; que situaciones que eran inicialmente simples y fciles de conocer en detalle, se
transformarn eventualmente en tan complicadas, gracias al caos, que nos vemos forzados a dejar de tratar de conocerlas.
Una pregunta final: si la entropa es realmente subjetiva, por qu aparece tan objetiva para tanta gente? Pregntele a cualquier
fsico-qumico. Le dirn que la entropa es una propiedad permanente, fundamental de la materia en bulto. Usted puede medirla,
puede calcularla con precisin, puede mirarla en tablas, etc. Y la respuesta a esta nueva paradoja es: nmeros grandes. Es bien
sabido que nmeros muy grandes tienen su forma de transformar probabilidades en certezas absolutas. Pero llevara otro artculo
hacerle justicia a ese tema.
Acknow ledgments
I thank Yaneer Bar-Yam for teaching me and many others about complex systems. I am grateful to Constantino Tsallis for
enlightening discussions and other help. My unforgiving editor, Marty Stock, provided much precious advice. This work was partially
supported by the U.S. Department of Energy (D.O.E.) under Contract No. DE-FC02-94ER40818.
TEXTBOOKS
For the technically inclined, here are a few good books.
Steven H. Strogatz, Nonlinear Dynamics and Chaos (Addison-Wesley, Reading, 1994).
Undergraduate level. Mostly about dissipative chaos. Quite entertaining.
L.E. Reichl, The Transition to Chaos, (Springer, New York, 1992).
Graduate level. Mostly about conservative chaos. Very complete. Includes quantum chaos.
Yaneer Bar-Yam, Dynamics of Complex Systems (Addison-Wesley, Reading, 1997).
Invaluable. Very wide range of topics.
Roger Balian, From Microphysics to Macrophysics, 2 volumes (Springer, Berlin, 19912).
A thorough introduction to statistical mechanics.

file:///F:/LIBROS/libros/(SP)%20Baranger,%20Michel%20-%20Caos,%20Complejidad%20Y%20Entropia%20(HTM)/Baranger,%20Michel%20-%20Caos,

10/10

Вам также может понравиться