Вы находитесь на странице: 1из 76

UNIVERSIDAD CENTROCCIDENTAL

LISANDRO ALVARADO

ESTUDIO DEL MODELO DE ISING


MEDIANTE SIMULACIN NUMRICA

EDGAR HUGO PERAZA

BARQUISIMETO, 2003

UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO


DECANATO DE CIENCIAS Y TECNOLOGIA
MAESTRA EN CIENCIAS

ESTUDIO DEL MODELO DE ISING


MEDIANTE SIMULACIN NUMRICA

Trabajo presentado para optar al grado de


Magister Scientiarum

Por: EDGAR HUGO PERAZA


Tutor: Dr. RAFAEL TORREALBA

Barquisimeto, 2003

ESTUDIO DEL MODELO DE ISING


MEDIANTE SIMULACIN NUMRICA

Por: EDGAR HUGO PERAZA

Trabajo de grado aprobado

Dr. Rafael Torrealba

Dr. Freddy Torrealba

Tutor

Dr. Wilmer Colmenarez

Barquisimeto, 24 de octubre de 2003

AGRADECIMIENTO
Quiero Agradecer al Dr. Rafael Torrealba por su orientacin y consejos durante
la realizacin de este trabajo y a Dr. Erik Machado de la Universidad Simon
Bolivar, por su ayuda con el cdigo para la simulacin y a todos aquellos que de
una u otra forma han ayudado a la realizacin de este trabajo.

iv

NDICE GENERAL

AGRADECIMIENTO

iv

NDICE GENERAL

vii

RESUMEN

viii

I. INTRODUCCIN

II. SISTEMA DE SPIN 1/2

El experimento de Stern-Gerlach . . . . . . . . . . . . . . . . . . . . .

La evidencia espectroscpica . . . . . . . . . . . . . . . . . . . . . . . .

La hiptesis de Uhlenbeck y Goudsmit . . . . . . . . . . . . . . .

El experimento de Stern y Gerlach . . . . . . . . . . . . . . . . .

El Spin

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

III.MECNICA DE SISTEMAS MAGNTICOS

10
13

Ensemble microcannico y la entropa . . . . . . . . . . . . . . . . . . .

16

Entropa y probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . .

16

Ensemble Cannico y la Funcin de Particin . . . . . . . . . . . . . .

18

Energa Libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

Termodinmica de sistemas magnticos . . . . . . . . . . . . . . . . . .

21

Fluctuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

Transiciones de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

Modelo de Ising 1D: solucin exacta . . . . . . . . . . . . . . . . . . . .

25

Solucin del Modelo de Ising 2D . . . . . . . . . . . . . . . . . . . . . .

28

IV.EL MTODO DE MONTE CARLO

31

Integracin simple por Monte Carlo . . . . . . . . . . . . . . . . . . . .

31

Estimando el error . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

Algoritmo usando muestreo simple . . . . . . . . . . . . . . . . . . . .

33

Comparacin con los mtodos tradicionales . . . . . . . . . . . . . . . .

34

Muestreo por importancia . . . . . . . . . . . . . . . . . . . . . . . . .

35

Cadenas de Markov e Integracin . . . . . . . . . . . . . . . . . . . . .

37

Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . .

37

Integracin Monte Carlo y Cadenas de Markov . . . . . . . . . . . . . .

39

El algoritmo de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . .

41

Algoritmos basados en Metropolis . . . . . . . . . . . . . . . . . . . . .

43

Otros algoritmos tipo Metropolis . . . . . . . . . . . . . . . . . .

44

Error estimado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

La funcin de Autocorrelacin . . . . . . . . . . . . . . . . . . . .

45

Promedio por bloque . . . . . . . . . . . . . . . . . . . . . . . . .

47

V. RESULTADOS NUMRICOS

49

Ising 2D. Interaccin a primeros vecinos . . . . . . . . . . . . . . . . .

49

Ising 2D. Interaccin a segundos vecinos . . . . . . . . . . . . . . . . .

55

Ising 3D. Interaccin a primeros vecinos . . . . . . . . . . . . . . . . .

61

vi

VI.CONCLUSIONES

64

REFERENCIA BIBLIOGRAFICAS

66

ANEXOS

68

vii

UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO


DECANATO DE CIENCIAS Y TECNOLOGA
MAESTRA EN CIENCIA

ESTUDIO DEL MODELO DE ISING


MEDIANTE SIMULACIN NUMRICA

Autor: Edgar Peraza


Tutor: Dr. Rafael Torrealba

RESUMEN
El Modelo de Ising es uno de los modelos matemticos ms sencillos del magnetismo en la materia que exhibe una transicin de fase: a altas temperaturas,
existe un nico estado de equilibrio para el sistema. Esto corresponde al fenmeno
fsico de la magnetizacin espontanea. El modelo en 2D es formulado como sigue:
consideremos N spines atmicos si dispuesto en un reticulado rectangular en el
plano XY inmerso en un campo magntico en la direccin Z, si cada tomo tiene
spin 1/2 (si = 1) y slo interacta con su vecino mas cercano con energa J. El
Hamiltoniano del sistema es

H = J

si sj H

<i,j>

N
X

si

i=1

El calculo directo de H y de las cantidades termodinmicas asociadas al sistema


es muy difcil, por lo que es necesario recurrir a la simulacin numrica para el
estudio de este modelo. En este trabajo implementamos a parte de la clsica
simulacin del modelo 2D con interaccin de primeros vecinos, la simulacin del
modelo 2D con interaccin de segundos vecinos y el modelo 3D con el fin de
determinar si las introduccin de los segundos vecinos facilita las transiciones de
fases y si este modelo se puede comparar con el modelo 3D. El algoritmo fue
contrastado con las predicciones tericas del Modelo de Ising a fin de validar los
resultados del mismo.
Palabras Clave: Modelo de Ising, Mecnica Estadstica, Simulacin.
viii

CAPTULO I
INTRODUCCIN
El fenmeno del magnetismo se conoce desde hace miles de aos. La manifestacin ms antigua conocida es la que corresponde a los imanes, que se encuentran
en la naturaleza en forma de mineral de magnetita. Despus, los chinos descubren
el magnetismo terrestre junto con la invencin de la brjula y su aplicacin a
la navegacin. El estudio sistemtico de los fenmenos magnticos comenz slo
hace tres siglos atrs, pero hasta principios del siglo XX, cuando todava la mecnica de Newton era utilizada para describir los fenmenos ligados a la materia y
el electromagnetismo de Maxwell se utilizaba en aquellos que tenan que ver con
la radiacin, no se comprenda bien el magnetismo. Es ms, al querer pasar a la
escalas microscpica de objetos de existencia ya comprobada como los tomos (de
un tamao de unos 108 cm), se encontraban contradicciones entre la experiencia
y las descripciones clsicas dadas por el electromagnetismo (por ejemplo, en relacin a la radiacin del cuerpo negro, el efecto fotoelctrico) o la mecnica (por
ejemplo en relacin a las regularidades de los espectros de los tomos compuestos por electrones orbitando alrededor de sus ncleos, objetos de unos 1013 cm).
No es sino hasta unos aos mas tarde que todos estos fenmenos se comienzan a
entender mejor cuando entra en escena la Mecnica Cuntica.
El magnetismo en la materia es producido por los electrones, debido al movimiento de ste en orbitas cerradas o al efecto del spin. Recordemos que una
corriente circular crea, segn la ley de Ampere, un campo magntico a su alrededor. As, una partcula cargada girando alrededor de un eje que pase por ella
le podemos asociar un momento magntico intrnseco o spin, que ser en parte el
responsable de los fenmenos magnticos en la materia; cuando una coleccin de
estos spines se alinea, de tal forma que sus momentos magnticos asociados apun-

ten en la misma direccin, obtenemos un momento magntico total de tamao


macroscpico que produce los efectos magnticos observables.
La descripcin terica ms simple del magnetismo es proporcionada por el
modelo de Ising 1 [3]. Este modelo fue inventado por Wilhelm Lenz en 1920 y es
llamado as por Ernest Ising, un estudiante de Lenz quien eligi el modelo como
tema de su tesis doctoral [9] en 1925 . El modelo es como sigue: Consideremos
N tomos en presencia de un campo magntico H en la direccin z. Supongamos
que todos los tomos tienen spin 1/2 (la aproximacin clsica al spin). Entonces
(
si =

+1, spin arriba


1, spin abajo

donde si es (el doble de) la componente z del i-simo spin atmico. El momento
P
magntico M
si y M H (interno) creado por las partculas. La energa
magntica es HM (donde es una constante de proporcionalidad). La energa
total del sistema viene dada por:
H = J

si sj H

N
X

si

(1.1)

i=1

hi,ji

Aqu, hi, ji se refiere a la suma sobre los pares atmicos de vecinos ms cercanos.
El trmino si sj mide la energa magntica asociada a pares de spines cada uno

de los cuales crea un campo H i , por lo tanto la energa asociada a cada par es
P
proporcional a
si sj y la constante de proporcionalidad J es llamada constante
de energa de intercambio entre spines. La ecuacin (1.1) es la esencia del modelo
de Ising.
La interpretacin fsica del Modelo de Ising es como sigue. El primer trmino
de la ecuacin (1.1) muestra que la energa en conjunto es mnima cuando los
spines atmicos vecinos estn alineados. Separaciones espaciales diferentes, implican diferentes energas electrostticas de interaccin y la energa de intercambio,
mide esta diferencia. Note que la energa de intercambio de origen electrosttico
1
Este modelo aunque no describe satisfactoriamente el magnetismo, es una buena primera
aproximacin y es uno de los primeros modelos en exhibir verdaderas transiciones de fases.

es muy grande, J 1eV. Esta es ms grande que la energa asociada con la interaccin magntica entre los spines atmicos vecinos, la cual es de solo 104 eV. Sin
embargo, dado que las fuerza magnticas entre dos spines decae tan rpido como
r3 (donde r es la distancia entre los spines), el efecto del intercambio ocurre a
muy corto rango; y por tanto, la restriccin a interaccin entre vecinos cercanos
es bastante realista.
A partir de la dcada de los 50, la resolucin de problemas cientficos, ha introducido lo que han llamado una tercera metodologa a la investigacin cientfica:
la simulacin computacional. Este mtodo de carcter complementario y muchas
veces alternativo a los modos convencionales de hacer ciencia, el experimental y
el terico, ha ejercido un fuerte impacto en prcticamente todos los campos de la
ciencia. El objetivo de la simulacin computacional consiste en buscar soluciones
a los modelos tericos en su total complejidad, mediante la resolucin numrica de
las ecuaciones involucradas, haciendo uso intensivo y extensivo de computadoras.
El modelo de Ising es un perfecto ejemplo para la aplicacin de herramientas
computacionales en problemas de fsica estadstica terica. El problema de calcular la energa en el Modelo de Ising y las cantidades termodinmicas asociadas,
involucran la consideracin de un gran nmero de estados del sistema. Por ejemplo, tomando un pequeo arreglo rectangular de spines, para el modelo de Ising
2D con interacciones de cuatros vecinos y condiciones peridicas en la frontera,
de 10x10 se tienen 100 grados de libertad para el sistema y el nmero de posibles
estados del mismo es de 2100 1, 3x1030 combinaciones. Hacer los clculos de todas y cada una de estas combinaciones computacionalmente, tomara ms tiempo
que la edad del Universo 1, 5x1010 aos (por ejemplo, si pudisemos hacer mil
millones de combinaciones por segundo nos tomara aproximadamente 4, 0x1013
aos). Dado que un sistema macroscpico sencillo tiene un nmero de partculas
N 1023 estos problemas se haran intratables sin la ayuda de la Fsica estadstica y de tcnicas de simulacin que nos permitan obtener una aproximacin
del clculo de la energa sin realizar todas estas posibles combinaciones, aqu es
donde los mtodos de simulacin como el de Monte Carlo se presentan como una
de la mejores opciones debido a su simplicidad, no se necesita trabajar con todas
3

las combinaciones posibles sino con una muestra representativa, y al manejo del
error, el cual no depende del tamao dimensional del problema por lo que para
problemas que involucren grandes cantidades de calculo es ideal.
En este trabajo estudiaremos el Modelo clsico de Ising en dos dimensiones
con interaccin de primeros vecinos, tambin se consideran interacciones entre
segundos vecinos por lo que J no es una constante y decae como r3 (donde r es
1
la distancia entre los spines). As, si J1 = 1 para los primeros vecinos J2 =
2 2
para los segundos vecinos y el modelo de Ising para segundo vecinos se escribe
como
H = J1

si sj J2

hi,ji

X
hhk,lii

sk sl H

N
X

si

(1.2)

i=1

donde la primera suma se hace sobre los primeros vecinos y la segunda sobre los
segundos vecinos. Esto con el fin de ver si la adicin de las interacciones de los
primeros vecinos puede servir como mecanismo reforzador para inducir o acelerar
las transiciones de fase. Tambin estudiaremos el modelo de Ising en 3 dimensiones
el cual hasta hoy da no ha sido resuelto explcitamente.

CAPTULO II
SISTEMA DE SPIN 1/2
La Mecnica Cuntica fue desarrollada a finales de los aos 20 del siglo XX
cuando una cantidad de resultados experimentales microscpicos no pudo ser explicada por la fsica de aquella poca. Schrdinger, Heisenberg, Dirac y varios
otros desarrollaron las herramientas matemticas necesarias para resolver estos
problemas sin preocuparse al principio por el formalismo matemtico sino hasta
el final de lo que ste realmente implicaba. En el presente, el formalismo matemtico de la mecnica cuntica, un sistema axiomtico descrito por un algebra de
operadores sobre un espacio de Hilbert, es aceptado por la mayora de los fsicos,
y ha demostrado su utilidad en una gran variedad de situaciones [4].

El experimento de Stern-Gerlach
La evidencia experimental ms relevante de la existencia del spin es presentada por el experimento de Stern-Gerlach, el cual nos permite introducir algunos
conceptos de mecnica cuntica. El problema de los dos estados puede considerarse como uno de los ms representativo de los fenmenos cuantizados y una gran
cantidad de descubrimientos importantes estn relacionados con ste.

La evidencia espectroscpica
A finales del siglo XIX los fsicos de la poca estudiando el fenmeno de radiacin, encontraron que en contraste con el espectro continuo de la radiacin
trmica, la radiacin electromagntica emitida por un tomo libre, consiste de
un conjunto discreto de longitudes de onda. Cada una de estas longitudes de on-

da recibe el nombre de lnea, pues as es como aparece en las placas fotogrficas


obtenidas con los espectrgrafos. Cada especie atmica tiene su propio espectro,
integrado por un conjunto de lneas caractersticas. Este hecho tiene gran importancia prctica, pues permite identificar los elementos presentes en una fuente de
luz. Por esta razn durante el siglo XIX se dedic mucho esfuerzo a medir con
precisin los espectros de los diferentes tomos.
Tales espectros son muy complicados y generalmente constan de centenares de
lneas. El ms sencillo de todos los espectros es el del tomo de hidrgeno, lo que
no es sorprendente puesto que se trata del tomo ms simple ya que tiene un solo
electrn. Por este motivo, y tambin por razones histricas y tericas, presenta
mucho inters.

Figura 2.1: Parte visible del espectro del hidrgeno.

En 1916, en el marco de la Teora Cuntica Antigua, Sommerfeld dio una


explicacin aparentemente satisfactoria del espectro atmico del tomo de hidrgeno. Sin embargo, poco antes del desarrollo de la Mecnica Cuntica, aparecieron
problemas con la teora de Sommerfeld, en relacin con el espectro de los tomos
alcalinos. El estado fundamental de un tomo alcalino (aquellos con un slo electrn en su capa electrnica externa) tiene una estructura electrnica muy simple,
y su espectro se puede interpretar suponiendo que el tomo consiste esencialmente
de un in inerte alrededor del cual se mueve el nico electrn de valencia. Por lo
6

tanto, se comporta bsicamente como un tomo de hidrgeno, con la salvedad que


el potencial en el que se mueve el electrn de valencia no es Coulombiano, pues la
carga del ncleo est apantallada por los electrones del ion.
Sin embargo, en los espectros de los tomos alcalinos se observaban que las
lneas espectrales se desdoblan sin que se pudiese explicar bajo la teora de Sommerfeld.

La hiptesis de Uhlenbeck y Goudsmit


En 1926 Samuel A. Uhlenbeck y George E. Goudsmit, dos estudiantes graduados, explicaron el misterio y mostraron que las dificultades se resolvan si se
atribua al electrn una nueva propiedad: la de poseer un momento angular S y
un momento magntico MS intrnsecos, tal como ocurrira si un cuerpo cargado
elctricamente girara alrededor de un eje que pasara por l mismo.
La evidencia espectroscpica muestra que la magnitud del momento angular
intrnseco del electrn esta dado por:
S 2 = s(s + 1)h2
donde, s es el nmero cuntico del spin, el cual vale
s = 1/2
y la componente Sz del momento angular intrnseco S alrededor de un eje z de
orientacin slo puede tomar los valores
Sz = h
ms ,

ms = s = 1/2

En breve tiempo Uhlenbeck y Goudsmit (y otros como Wolfgang Pauli, Heisenberg, Jordan, Sommerfeld, etc.) mostraron que la introduccin del spin resuelve
todas las dificultades entonces conocidas y por lo tanto este nuevo atributo del
electrn se acept, junto a los ya conocidos de carga y masa. En efecto, se en7

contr que la aparicin de dobletes en el espectro de los metales alcalinos se debe


exclusivamente a la interaccin entre el momento magntico orbital y el momento
magntico intrnseco del electrn de valencia. En cuanto a la estructura fina de
los niveles de los tomos hidrogenoides, se vio que resulta de una solucin particular de la mecnica cuntica relativista, que por una curiosa coincidencia dan un
resultado idntico al que obtuvo originalmente Sommerfeld a partir de la Teora
Cuntica Antigua. El spin qued as incorporado a la Mecnica Cuntica como un
postulado adicional, que es perfectamente compatible con los dems postulados
de la teora pero no es una consecuencia lgica de los mismos, sino que se introduce en base a la evidencia experimental. Hay que aclarar aqu que el spin del
electrn no se puede imaginar como el resultado de la rotacin de una distribucin
de cargas. Es imposible formular un modelo semiclisco de ese tipo sin incurrir en
graves contradicciones.
La evidencia experimental ms reciente tiende a indicar que el electrn es una
partcula muy pequea ( 1023 ) por lo cual se puede considerar puntual para
efectos atmicos y an nucleares. Por consiguiente no es lcito interpretar el spin en
trminos de modelos clsicos, como esferas de carga en rotacin o cosas parecidas.
Posteriormente (1928) Dirac desarroll una teora relativista del electrn, en
la que no es preciso postular el spin sino que ste aparece en forma natural como
una consecuencia de la invariancia Lorentz de las ecuaciones que lo describen. La
ecuacin de Dirac tambin predice correctamente el valor del factor giromagntico. Estos resultados muestran que el spin est ntimamente relacionado con la
relatividad. Con la teora de Dirac el spin adquiri una firme base terica.

El experimento de Stern y Gerlach


Si bien en su momento no se tuvo conciencia de ello, en realidad el momento
magntico intrnseco del electrn ya haba sido medido en 1922 por Otto Stern y
Walter Gerlach, en un experimento muy interesante que ilustra varios conceptos
importantes para la interpretacin de la Mecnica Cuntica. En el experimento se
intentaba medir el momento magntico de tomos y molculas haciendo pasar un
8

haz atmico (o molecular) colimado a travs de un campo magntico fuertemente


inhomogneo (ver Figura 2.2).

Figura 2.2: Esquema del experimento de Stern y Gerlach.

De acuerdo con la fsica clsica, sobre un momento magntico M sometido a


un campo magntico no uniforme B se ejerce una fuerza dada por
F = (M B)

(2.1)

La fuerza (2.1) es la nica que acta sobre un tomo ya que ste es neutro.
En el experimento, las partculas se hacan pasar por una regin en la cual la
variacin de la direccin de B era muy pequea, pero su magnitud variaba muy
fuertemente con la posicin, es decir hay un gradiente de campo magntico. En
este caso la ecuacin (2.1) nos da
F = MB B
donde MB indica la proyeccin de M en la direccin B.

La deflexin se mide estudiando las trazas que el haz de partculas deja en una
pantalla, y a partir de ella se puede determinar F y de ah finalmente MB .
Los resultados de los experimentos fueron notables. Clsicamente se esperara
obtener en la pantalla una traza continua, correspondiente a los valores de MB
entre M y +M . En cambio, se observaron un nmero discreto de trazas, en
particular cuando se hacen con electrones o tomos alcalinos se obtienen 2 trazas
equidistantes del centro. Este resultado es una clara demostracin de la naturaleza
cuntica del momento magntico del tomo. Puesto que el vector M puede asumir
solamente ciertas direcciones discretas en el espacio, dicho fenmeno se denomina
cuantificacin espacial.
Stern y Gerlach tambin obtuvieron resultados cuantitativos (aunque de poca
precisin). Encontraron que los valores permitidos de MB variaban en pasos iguales
desde un mnimo M a un mximo +M . Por convencin, se suele designar al valor
mximo de la proyeccin de M como el momento magntico de la partcula.

El Spin
De acuerdo con lo anterior vamos a introducir el spin en la teora, para lo cual
agregamos a las variables dinmicas (x, y, z) que describen la posicin del electrn
una cuarta variable el spin, que indicaremos con S. Al spin le asignamos sentido
fsico asociando las dos posibles proyecciones del momento magntico intrnseco
MS que se miden en el experimento de Stern y Gerlach para el electrn, mediante
la relacin de proporcionalidad
M = B S
donde B es una constante de proporcionalidad llamada magnetn de Bohr.
De esta forma asociaremos los valores posibles del spin con los autovalores
de un operador, que de acuerdo a la axiomtica de la mecnica cuntica son las

10

nicas cantidades medibles en un experimento


s = +1

con

s = 1

con

e
h
2c
e
h
MS = +
2c

MS =

En mecnica cuntica cada partcula es descrita por una funcin de onda que
se denota

(
r , s) |i
y depende tanto de la posicin como del spin y la densidad de probabilidad de

que en un instante la partcula se encuentre en la posicin


r = (x, y, z) y tenga
spin s calculado mediante la norma cuadrada del vector
Z
= h | i =

kk2 d3 x

Los nicos valores medibles del operador de spin son sus autovalores s1 y s2
por lo tanto
S |+ i = s1 |+ i

= + |+ i

S | i = s2 | i
= | i

En general un estado es una mezcla estadstica de los autovalores


|i = |+ i + | i
de forma tal que la probabilidad de medir el spin arriba, es decir con autovalor s1 ,
es 2 , mientras que la probabilidad de hallar el spin abajo es decir con autovalor
s2 , es 2 . La probabilidad total esta normalizada a 1, esto es
h | i = 2 h+ | + i + 2 h | i + h | + i + h+ | i
Por ortogonalidad de la autofuncin h | + i = h+ | i = 0 y h+ | + i =
h | i = 1

11

se obtiene
h | i = 2 + 2 = 1
Esto significa que si hacemos N medidas del spin para un estado mezclado obtendremos 2 N veces s1 y 2 N veces s2 . Pero debemos acotar que en cada medicin
es posible medir solo s1 o s2 y nunca un valor intermedio.
La forma equivalente de definir la probabilidad de una medida es considerar
un sistema compuesto de N spines en lugar de medir como N veces. En este
caso el spin total es la suma de los spines individuales
ST =

N
X

Si

i=1

donde Si es la restriccin al espacio de estados de la partcula i y al aplicarla sobre


un estado (producto tensorial) de N partculas de spin 1/2:
|i = |1 i |2 i |N i =

N
Y

|i i

i=1

se obtiene
ST |i =

Si |i i

X
Y
i Si
=
|+ i + i si | i
Y
= (N s1 + N s2 )
|i i
X
=
si |i

de forma tal que el resultado de la medicin del spin total se puede aproximar por
P
P e
h
sT
si , de forma semejante obtenemos la magnetizacin total M ( si )
c

12

CAPTULO III
MECNICA DE SISTEMAS MAGNTICOS
Un sistema macroscpico tpico est compuesto por alrededor de 1023 partculas microscpicas. Dada la gran cantidad de variables involucradas se hace
prcticamente imposible conocer, investigar, o describir el comportamiento exacto de cada partcula individual en tales sistemas. Desde el punto de vista de las
propiedades macroscpicas que exhiba el sistema (por ejemplo la temperatura,
la presin o la magnetizacin), los detalles microscpicos precisos pueden no ser
necesarios, por lo que podemos limitarnos a conocer los valores promedios de estas
cantidades que llamaremos termodinmicas [8].
La Mecnica Estadstica provee la conexin entre el movimiento individual de
los tomos en la materia y las propiedades macroscpicas observables tales como
la temperatura, la presin, la entropa, la magnetizacin, etctera. Esta provee los
mtodos para calcular tales propiedades macroscpicas, de la informacin microscpica, como la energa de interaccin entre las partculas. Esto se logra a travs
del uso de las funciones de distribucin y las funciones de correlacin [15].
Consideremos por ejemplo un gas ideal de N partculas (no interactuantes) en
un espacio tridimensional. El Hamiltoniano viene dado por [14]:
3N
X
p2i
H=
2m
i=1

donde pi es la componente del momento de la partcula y m su masa. El sistema


queda completamente descrito si conocemos las coordenadas qi y los momentum
pi de todas las partculas (6N variables). Esto nos permite construir un espacio de
6N dimensiones llamado el espacio de fase del sistema, donde cada punto en este

espacio representa una configuracin {pi , qi } del sistema (posiciones y momentos


de todas las partcula). Por otra parte, la evolucin en el tiempo del sistema esta
completamente determinada por las ecuaciones cannicas del movimiento [6]:
pj =

H
qj

qj =

H
pj

Llamaremos estado microscpico o microestado de un sistema clsico a una


especificacin del espacio de fase del sistema en un tiempo dado.
Para obtener el valor promedio de una cantidad fsica macroscpica, digamos
A, deberamos hacer un promedio en el tiempo sobre un largo segmento de la
trayectoria de tal sistema en el espacio de fase (una coleccin de configuraciones
consecutivas) [15]
1
hAi = lm
t t

t0 +t

A [{qi (t), pi (t)}] dt


t0

A menudo no conocemos la trayectoria, y muchas propiedades macroscpicas


tales como la temperatura y la presin, son independientes del tiempo. Esto nos
sugiere sustituir el promedio en el tiempo de un sistema por un promedio sobre
muchos sistemas equivalentes a tiempo fijo. Una coleccin de sistemas equivalentes
(compartiendo una o ms caractersticas macroscpicas pero estando en un nico
microestado) es llamado un ensemble. Un ensemble puede ser visualizado como
una coleccin de estados de un sistema simple visto en diferentes tiempos. As en
vez de promedios en el tiempo, podemos hacer promedios sobre todo el sistema
(ensemble) a tiempo fijo. Esto es, podemos calcular el valor de un observable
promediando sobre todas las configuraciones (pertenecientes al ensemble) vistas
al mismo tiempo:
Z
A ({qi , pi })p ({qi , pi }) dq 3N dp3N

hAi =
W

Donde la integral se extiende sobre todo el espacio de fase W y p es la densidad de


probabilidad en el espacio fase, esta es la probabilidad de que un volumen unitario
14

del espacio fase este ocupado. Cuando el promedio en el tiempo y el promedio


sobre el ensemble son iguales decimos que el sistema es ergdico. Una definicin
alternativa pero equivalente dice que el sistema es ergdico si ste evoluciona de tal
forma que visite con igual probabilidad todos los puntos del espacio de fase que son
accesibles desde una configuracin inicial sujeta a la restriccin de la conservacin
de la energa. En otras palabras, la trayectoria en el espacio de fase de un sistema
ergdico gasta igual tiempo en todas las superficies de energa constante. Mucho
de los sistemas fsicos de inters en Mecnica Estadstica son ergdicos, as que
en estos casos reemplazaremos el promedio en el tiempo por el correspondiente
promedio sobre el ensemble.
Para el ejemplo anterior de un gas aislado, la energa total del sistema es
constante H = E, las trayectorias estn sobre superficies de energa constante
(E) y el promedio A sobre el ensemble es:
1
hAi =

Z
A ({qi , pi })dq 3N dp3N

(La integral se extiende sobre la superficie de energa constante (E)). Para sistemas cunticos como para sistemas clsicos con niveles de energa discretos, el
nmero de configuraciones es una funcin irregular de la energa E. Por lo tanto,
introduciremos un estrecho intervalo de energa E y generalizamos la hiptesis
ergdica de tal forma que todas las configuraciones, satisfaciendo la condicin que
su energa este en el intervalo entre E y E, puedan ocurrir con igual probabilidad. El nmero de configuraciones con energa en el intervalo entre E y E
es proporcional al volumen de la correspondiente capa en el espacio fase. Para
partculas indistinguibles, es:
1
(E) = 3N
h N!

Z
dq 3N dp3N
EHE+E

En principio, todos los sistemas en la naturaleza obedecen a la mecnica cuntica estadstica, los niveles de energa son discretos, partculas idnticas son indistinguibles entre s y sus funciones de onda son o simtricas (Bosones) o antisimtricas (Fermiones) en el momento de intercambios de partculas. La mecnica
15

clsica estadstica es valida en el caso cuando


(

Et h

N 1

donde t es el tiempo que pasa el sistema en cada configuracin.

Ensemble microcannico y entropa


Un ensemble microcannico representa una coleccin de configuraciones de sistemas aislados que han alcanzado el equilibrio trmico. Un sistema es aislado de
su ambiente si ste no intercambia partculas o energa con su alrededor. El volumen, la energa interna y el nmero de partculas de tales sistemas son constantes
y son los mismos para todas las configuraciones que forman parte del ensemble
microcannico. Todas las configuraciones con energa total entre E y E + E
estn en la misma capa delgada de volumen W en el espacio fase y el nmero
total de configuraciones es [14].
Estrechamente relacionado a la hiptesis ergdica esta el principio de equiparticin [15] que dice: en el equilibrio de un sistema aislado, todas las configuraciones con igual energa son igualmente probables. Para un sistema que pertenece al
ensemble microcannico, la probabilidad de que una configuracin {qi , pi } tenga
energa E 0 (qi , pi ) es:

1/(E) si
E E 0 (qi , pi ) E + E
p(qi , pi ) =
0
en otro caso
(E) es el nmero de configuraciones que tienen la energa en el intervalo E
E 0 (qi , pi ) E + E. Todas las configuraciones {qi , pi } dentro de este intervalo de
energa son ocupadas con igual probabilidad p(qi , pi )

16

Entropa y probabilidad
Probablemente la cantidad termodinmica ms fundamental en fsica estadstica es la entropa. La entropa es un concepto, definido solo para sistemas
macroscpicos, que mide el desorden del sistema, y es una cantidad estadstica
extensiva, esto es, su dependencia con el nmero de configuraciones del sistema
debe ser proporcional al mismo.
Para hallar una medida de la entropa S de un sistema microcannico consideremos un sistema aislado compuesto de dos subsistemas que estn en contacto uno
con el otro tales que permitan el intercambio de partculas y energa. Como resultado de este contacto una incertidumbre adicional ha sido introducida al sistema
(al principio conocamos la energa y el nmero de partculas en cada subsistema,
al final solo conocemos el nmero total de partculas y la energa total del sistema
completo).
Como la entropa es una cantidad extensiva, se debe tener que
S = S1 + S2
Por otra parte, la entropa es una funcin del nmero de configuraciones accesibles
en un ensemble microcannico por lo que
S = f ()
ya que los dos subsistemas son independientes uno del otro, el nmero total de
configuraciones es
= 1 + 2
As,
S + S2 = f (1 2 )
Esto nos lleva a la conclusin que S y estn relacionados por:
S = kB ln
17

Esta relacin fue descubierta por Ludwig Boltzmann y es llamada ecuacin de


Boltzmann. La constante de proporcionalidad kB es llamada constante de Boltzmann. Esta ecuacin provee la conexin entre termodinmica (entropa) y mecnica estadstica (nmero de configuraciones).
De la termodinmica sabemos que la diferencial total de la entropa es
T dS(E, V, N ) = dE + P dV udN
Esta es la primera ley de la termodinmica.
A partir de sta ecuacin podemos dar definiciones estadsticas de la temperatura T , la prensin P , el potencial qumico u:
1
=
T

S
E

N,V

S
P =T
V N,E

S
u = T
V E,V
T , P y u son cantidades intensivas, ellas son independientes de N , mientras que
la entropa S y la energa E son cantidades extensivas, ellas son proporcionales al
nmero de partculas N .

Ensemble Cannico y la Funcin de Particin


Un ensemble cannico es una coleccin de sistemas cerrados a temperatura
constante. Sistemas cerrados que tienen un nmero fijo de partculas y volumen
pueden intercambiar energa con su alrededor. La energa de un sistema cerrado es
por lo tanto no constante. Como ejemplo podemos imaginar un gas de partculas
(molculas de aire, por ejemplo) en un contenedor a temperatura constante.
Consideremos ahora un sistema aislado compuesto de un pequeo sistema

18

cerrado s con N partculas en un volumen V y dentro de un bao de calor a


temperatura T . Dejemos que los dos sistemas entren en contacto de tal forma que
ellos intercambien energa pero no partculas. En el equilibrio, el sistema s tiene
igual temperatura que el bao. Ahora, la energa del pequeo sistema Es , no ser
fija y el sistema s estar en cualquier estado Es , cada uno con una probabilidad
distinta ps . El bao debe ser grande Nb Ns , as que el cambio de energa en el
bao Eb , durante el intercambio de energa entre el pequeo sistema y el bao,
sea despreciable. Evidentemente ya que el sistema compuesto (= sistema + bao)
es aislado, la energa total Et = Eb + Es es constante y el sistema compuesto esta
descrito por el ensemble microcannico para el cual el nmero de configuraciones
en el intervalo de energa entre Et y Et + E es
t (Et ) = s (Es )b (Et Es )
Primero expresemos b con la entropa por medio de la ecuacin de Boltzmann
y expandimos ln b a primer orden en Es

kB ln b (Et Es ) = Sb (Et Es ) Sb (Et )

Sb
E

Es = Sb (Et )

Es
T

As,
b (Et Es ) = b (Et )eEs = CeEs
Aqu, la constante C es independiente de Es y es la inversa de la temperatura
=

1
kB T

La probabilidad de que el sistema s tenga energa entre Es y Es + dE es


s (Es )b (Et Es )dEs
p(Es )dEs = R
dEs s (Es )b (Et Es )
Despus de expresar b (Et Es ) con la ecuacin encontramos la densidad de
probabilidad
p(Es ) =

1
(Es )eEs
Z
19

donde (Es ) = (Es )/E es la densidad de estados (nmero de estados por


unidad de energa). Z es llamada la funcin de particin y esta constante de
normalizacin, depende de la temperatura, el volumen y el nmero de partculas
del sistema s

Z
(E)eE dE

Z(T, V, N ) =

Z(T, V, N ) es la transformada de Laplace para la funcin de particin microcannica (E) = (E)E. Para sistemas con niveles de energa discretos reemplazamos la integral por una suma sobre todos los niveles de energa l
Z(T, V, N ) =

gl eEl

(gl es la degenerancia del nivel de energa), o por una suma sobre todas las configuraciones i:
Z(T, V, N ) =

eEi

El papel de Z es mucho ms importante que ser solo una constante de normalizacin. Z es obtenida integrando sobre todo el espacio fase. De esta forma la
informacin sobre los estados microscpicos del sistema (coordenadas y momentos individuales, por ejemplo) se pierde pero la informacin termodinmica del
sistema es retenida y puede obtenerse a partir de Z.

Cantidades Termodinmicas
En esta seccin veremos la relacin entre los promedios de cantidades fsicas
del ensemble cannico y la funcin de particin Z.
La energa promedio hEi y la fuerza promedio generalizada hXi es una distribucin cannica estn dadas por:
1
hEi =
Z

Z
E(E)eE dE =

20

ln Z

1
hXi =
Z

Z
X(E)e

dE =

E E
1
e
dE =
ln Z
x
x

La coordenada generalizada X, conjugada a la fuerza generalizada. Ejemplos


de fuerzas y coordenadas conjugadas son: presin vs. volumen en los gases, campo
magntico vs. magnetizacin en sistemas magnticos; las fuerzas generalizadas son
intensivas mientras las coordenadas generalizadas son extensivas.
Introducimos la energa libre (de Helmholtz) como
F (T, V, N ) = kB T ln Z(T, V, N )
Al igual que la ecuacin de Boltzmann, tambin esta ecuacin relaciona la termodinmica (energa libre) con la mecnica estadstica (funcin de particin).
De la termodinmica se tiene una bien conocida relacin entre F y S a saber
F (T, V, N ) = hE(S, V, N )i T S
F (T, V, N ) es una transformada de Legendre de hE(S, V, N )i, por lo cual las variables independientes son cambiadas de (S, N, V ) a (T, N, V ). La diferencial total
de F es:
dF = SdT P dV + udN

Termodinmica de sistemas magnticos


La discusin anterior se centr principalmente en fluidos (gases por ejemplo).
Queremos considerar ahora sistemas magnticos, las relaciones anteriores entre
las cantidades termodinmicas son fcilmente reescritas teniendo en cuenta lo
siguiente. La energa potencial de un dipolo magntico en un campo magntico
H es
W = H

21

y el trabajo requerido para incrementar la magnetizacin del sistema por dM es:


Hd
Por lo tanto, la primera ley de la termodinmica para sistemas magnticos es [15]
T dS = dE HdM
comparando esta ecuacin con la primera ley de la termodinmica, vemos que solo
tenemos que reemplazar la fuerza generalizada presin P por la fuerza, actuando sobre el momento magntico H. Similarmente, la coordenada generalizada
V es reemplazada por la coordenada generalizada de sistemas magnticos M

Fluctuaciones
El ensemble cannico describe un sistema en contacto con un bao de calor.
Para tales sistemas, la energa no es fija, esta puede fluctuar alrededor de hEi.
Ahora evaluaremos el cuadrado de las fluctuaciones de la energa,

(E)2 = (E hEi)2 = hEi hEi2


En el ensemble cannico, el promedio trmico de la energa es
hEi =

1 Z
Z

y el cuadrado del promedio trmico de la energa es


2
1
E =
Z

Z
E 2 (E)eE dE =

1 2Z
Z

As, el cuadrado de la fluctuacin de la energa es


1 2Z

(E) =
Z

22

1 Z
Z

2
=

2 ln Z
2

Despus de expresar esto con hEi obtenemos


(E)2 =

hEi
hEi
= kB T

Definimos la capacidad calrica, como la cantidad extensiva CV (proporcional


a N ) dada por
CV =

hEi
T

luego, la fluctuacin de la energa queda expresada por


(E)2 = kB T 2 CV
La fluctuacin relativa de la energa es
E
=
hEi

kB cV T
N

donde es la energa por partcula y cV es el calor especfico a volumen constante

cV = CV /N . La fluctuacin relativa de la energa es 1/ N y sta se anula cuando N . El lmite N , en el cual las fluctuaciones se hacen despreciables
se llama lmite termodinmico. En transiciones de fases continuas las cantidades
como cV no son constante, y consecuentemente las fluctuaciones correspondientes
tienden a divergir sobre toda la longitud de escala. Esto hace muy difcil hacer
simulaciones computacionales de fenmenos reales que presentan transiciones de
fases (slo se pueden tratar los sistemas finitos).
Las fluctuaciones trmicas de N alrededor de hN i o de E alrededor de hEi son
procesos independientes del tiempo. Por lo tanto podemos asumir que los sistemas
son ergdicos a fin de identificar el promedio en el tiempo con el promedio sobre
el ensemble que son los que realmente calculamos.
Hemos mostrados que (E)2 es proporcional al calor especifico cV , si ahora
P
vemos en un sistema magntico y escribimos M = i si , la susceptibilidad queda

23

definida por
=

X
[hsi sj i hsi i hsj i]
N i,j

El sumando del lado derecho es la funcin de correlacin


ij = [hsi sj i hsi i hsj i]
que describe la correlacin en las fluctuaciones espaciales del spin alrededor de su
promedio trmico. Ya que la interaccin entre los spines es de vecinos cercanos,
podemos esperar que los spines estn correlacionados en cortas distancias y sus
fluctuaciones sean menores y menos correlacionadas cuando la distancia crece. As
la funcin de correlacin decae con la distancia. A menudo supondremos que
tiene la forma
(r) rp er/
donde la longitud de decaimiento es llamada longitud de correlacin. La longitud
de decaimiento es una cantidad que depende de la temperatura y que juega un
papel importante en las transiciones de fase, esta diverge en transiciones de fases
continuas.

Transiciones de fase
Hasta ahora hemos considerados solo sistemas homogneos, es decir, de una
fase. En la naturaleza, hay sin embargo, muchos sistemas que existen en diferentes
fases. Ejemplo el agua que a determinadas temperaturas cambia de estado slido
a estado lquido y de estado lquido a estado gaseoso, tambin los materiales magnticos presentan estados de magnetizacin y desmagnetizacin a temperaturas
crticas.
El estado de un sistema esta caracterizado por valor particular de una cantidad
fsica la cual es llamada un parmetro de orden. Este parmetro de orden es usado
para distinguir entre diferentes fases. En el caso de un gas-lquido la transicin a
presin y temperatura fija, la densidad juega el papel de parmetro de orden y la
transicin a la fase gaseosa de un lquido esta caracterizada porque la densidad
24

comienza a decrecer por un factor grande. En sistemas magnticos, con el campo


magntico y la temperatura como sistema de parmetros, el parmetro de orden es
la magnetizacin M la cual distingue la fase magntica M 6= 0 de la no magntica
M = 0. El parmetro de orden es una derivada de la energa libre (la densidad es
expresada en trminos de volumen, la cual es una derivada respecto a la presin,
y la magnetizacin es una derivada con respecto al campo magntico) y por lo
tanto un salto en el parmetro de orden significa una discontinuidad en la primera
derivada de la energa libre, esta transicin es llamada de primer orden. Si el
parmetro de orden es continuo en el espacio fase, hablamos de una transicin de
orden continua, crtica o de segundo orden.

Modelo de Ising 1D: solucin exacta


El modelo de Ising es uno de los pocos modelos de partculas interactuantes
para el cual se conoce su solucin exacta e indudablemente el ms simple de todos
ellos. Este modelo tiene enorme inters por diversas razones. Por un lado resulta
interesante su papel en el desarrollo histrico de la comprensin del ferromagnetismo y de las transiciones de fase continuas, en cuyo proceso represent un
papel fundamental. En segundo lugar, el mtodo de solucin en una dimensin
presentado por Ising [9] y luego extendido a dos dimensiones por Onsager [12],
constituye la base de diversos mtodos modernos de clculo en la fsica estadstica de los fenmenos crticos. Finalmente, hoy se sabe que el modelo de Ising y
generalizaciones del mismo sirven para explicar una variedad de fenmenos, no
solo fsicos (como veremos ms adelante), como tambin de diversas reas de la
biologa. Comenzaremos entonces con la solucin en una dimensin [19].
En una dimensin (d = 1) el Hamiltoniano de Ising puede ser escrito como
H = J

N
X

si si+1 H

N
X
i=1

i=1

25

si

(3.1)

donde s = 1 y vamos a utilizar condiciones de fronteras peridicas, esto es


si+N = si
En una dimensin, las condiciones de fronteras peridicas son equivalente a resolver el problema en una anillo. As, podemos escribir el Hamiltoniano (3.1) de
manera ms simtrica:
H = J

N
X

si si+1

i=1

N
HX
(si + si+1 )
2 i=1

(3.2)

La funcin de particin cannica viene dada por


ZN =

X
{si }

"
exp K

N
X
i=1

#
N
hX
si si+1 +
(si + si+1 )
2 i=1

(3.3)

donde K J y h B. Notemos que la funcin de particin puede ser escrita


en la forma
ZN =

X X
1 =1 2 =1

donde

N
X Y

T (si , si+1 )

(3.4)

N =1 i=1

h
T (si , si+1 ) = exp Ksi si+1 + (si + si+1 )
2

(3.5)

Esta ltima expresin puede ser interpretada como un elemento de una matriz
2 2, indexada por los valores de las variables de spin s = 1. Definiremos
entonces la matriz de transferencia:

T =

T (+1, +1) T (+1, 1)


T (1, +1) T (1, 1)

26

eK+h

eK

eK

eKh

!
(3.6)

As podemos escribir la funcin de particin como


ZN =
=

X X

s1 =1 s3 =1

sN =1

X X

s1 =1 s4 =1

..
.
=

sN =1

!
T (s1 , s2 )T (s2 , s3 ) T (s3 , s4 ) . . . T (sN , s1 )

s2 =1

!
T 2 (s1 , s3 )T (s3 , s4 ) T (s4 , s5 ) . . . T (sN , s1 )

s3 =1

T N (s1 , s1 )

s1 =1


= Tr T N
La matriz T es simtrica por construccin y por tanto sus autovalores son reales.
Si son estos autovalores entonces
N
ZN = N
+ +

De donde

q
2
= e cosh(h) cosh (h) 2e2K senh(2K)
K

A campo nulo H = 0, h tambin es igual a 0 y tenemos


+ = 2 cosh(K) = 2 senh(K) > 0
en general + 0. Si escribimos
"

ZN = N
+ 1+

N #

tenemos entonces que en el lmite termodinmico cuando N la energa libre


por partcula es

kB T
F (T ) = lm
ln ZN = kB T +
(3.7)
N
N

q
1
2
= J
cosh(H) + cosh (H) 2e2J senh(2J) (3.8)

27

que es una funcin analtica de T y H. Notemos que, a diferencia de los gases, en


este caso el lmite termodinmico se toma como N en lugar de V . En
general al tratar con modelos en redes, V y N son variables dependientes, de una
manera que solo una de ellas es relevante termodinmicamente. Habitualmente se
escoge el nmero de partculas, esto es, el nmero de sitios en la red.
La magnetizacin por spin est dada por

m(T ) =

F
H

senh(H)

=q

cosh2 (H) 2e2J senh(2J)

Vemos que m 0 cuando H 0, para toda T 6= 0, y por lo tanto este sistema


no presenta transicin de fase a temperatura finita, esto es, se comporta como un
paramagneto a toda temperatura. Podemos calcular tambin la entropa por spin
S(T ) = (F/T )H , y a mediante esta el calor especfico a campo constante

CH=0 = T

s
T

= T
H=0

2F
T 2

=
H=0

1
J2
2
kB T cosh ( k J T )
B

que es tambin una funcin analtica para toda T > 0.


Este argumento se puede extender a todo tipo de modelos unidimensionales
con interacciones de corto alcance.

Solucin del Modelo de Ising 2D


Consideremos ahora un arreglo de spines en dos dimensiones y escribamos el
Hamiltoniano del Modelo de Ising como
H = J

(si,j si+1,j + si,j+1 si,j ) H

i,j

X
i,j

28

si,j

donde los spines estn indexados por dos ndices correspondientes a los puntos en
el arreglo 2 dimensional. Introducimos una notacin mas corta para H
H=

N
X

[E(j , j+1 ) + E(j )]

j=1

donde
E(j , k ) =

N
X

sij sik

i=1
N
X

E() = J

sij si+1,j H

i=1

sj

ij

y es definida como el conjunto de spines en una columna particular


{s1j , . . . , snj }
Entonces, definimos la matriz de transferencia P, con elementos matriciales:
hj |P|k i = e[E(j ,j+1 )+E(j )]
la cual es una matriz de 2n x2n . La funcin de particin estar dada por

Z = Tr P N
y como en el caso unidimensional, el autovalor ms grande de P es real. Este es
un problema no trivial.
En el lmite termodinmico, el resultado final en campo nulo es:
kB T
F (T ) = kB T ln[2 cosh(2J)]
2
donde
K=

p
1
2
2
d ln
1 + 1 K sen
2

2
cosh(2J) coth(2J)

29

La energa por spin es


K dK
(T ) = 2J tanh(2J) +
2pi d
donde
=

d
0

sen2
( + 1)

1 K 2 sen2

La magnetizacin por spin, es, entonces

1/8
m = 1 [senh(2J)]4
para T < Tc y 0 para T > Tc , indicando la presencia de una transicin de fase en
campo nulo. La condicin para determinar la temperatura critica en la cual esta
transicin ocurre es dada por
2 tanh(2J) = 1

kB Tc = 2, 269185J

(3.9)

Cerca de T = Tc , la capacidad calrica esta dada por


C(t)
2
=
kB

2J
k B Tc

T
ln 1
Tc

+ ln

k B Tc
2J

pi
1+
4

As, la capacidad calrica parece diverger logartmicamente cuando T Tc .


Los exponentes crticos calculados de la solucin analtica de Onsager son
= 0
1
=
8
7
=
4
= 15

divergencia logartmica

los cuales son un conjunto de exponentes exactos para d = 2.

30

CAPTULO IV
EL MTODO DE MONTE CARLO
En este captulo introducimos el mtodo de Monte Carlo. Este mtodo resulta muy til en varias reas de la fsica y campos relacionados y para muchos
problemas se ha convertido en el mas poderoso mtodo numrico disponible.
Introducimos el mtodo usando un sistema muy simple, una integral unidimensional. Luego estimamos el tamao del error e introducimos el muestreo por
importancia como una forma de reducir el error. Tambin introduciremos el uso de
procesos de Markov en el procedimiento de muestreo y el algoritmo de Metropolis.
Finalmente, estimamos el error en el algoritmo de Metropolis.

Integracin simple por Monte Carlo


Supongamos que queremos evaluar la siguiente integral
Z

I=

f (x)dx

(4.1)

Tradicionalmente los mtodos de integracin numrica estn basados en la


evaluacin del integrando en valores particulares {xi } en el intervalo [0, 1] (vase
por ejemplo el captulo 4 en [13]). La integral se obtiene como el promedio sobre
los correspondientes valores del integrando fi = f (xi ). En el caso ms simple los
valores de x son elegidos de manera que estn igualmente espaciados mientras que
en los mtodos ms avanzados se optimiza la localizacin de los valores de x.
Aqu introduciremos un enfoque bastante diferente. En lugar de evaluar la in-

tegral con valores fijos de x, los elegiremos en forma totalmente aleatoria e independientes con igual probabilidad en el intervalo [0, 1]. La integral es aproximada
entonces por el valor promedio
IN =

N
N
1 X
1 X
f (xi ) =
fi
N i=1
N i=1

(4.2)

y el mtodo es llamado integracin por Monte Carlo, refirindose al casino de la


famosa ciudad.

Estimando el error
Para que el mtodo sea til debemos ser capaces de estimar el error en el
mismo. Es deseable que el error decrezca si el nmero de puntos de muestra N
se incrementa, pero la cuestin es en qu forma. Consideremos IN definida en
la ecuacin (4.2). Por construccin, esta consiste de una suma de N variables
aleatorias independientes {fi } con una distribucin comn. Asumiendo que el
valor de la media
= E [fi ]
y la varianza


2 = Var [fi ] = E (fi )2 = E fi2 2

existen. La suma IN tambin es una variable estocstica con media


#
" N #
N
N
X
1
1 X
1 X
fi = E
fi =
E [fi ] =
E [IN ] = E
N i=1
N
N i=1
i=1
"

(4.3)

y la varianza
#
" N #
N
N
X
1
1 X
2
1 X
Var [fi ] =
Var [IN ] = Var
fi = 2 Var
fi = 2
N i=1
N
N i=1
N
i=1
"

(4.4)

donde en la ltima ecuacin usamos el hecho que {fi } son estadsticamente independientes. Ahora, por el Teorema Central del Lmite [5] la distribucin de
probabilidad para la variable estocstica IN se aproximar a la distribucin Nor32

mal con media y varianza

2
N

cuando en el lmite N es muy grande . En otras

palabras tenemos

lm Prob |IN I| <


N
N

1
=
2

1 2
exp x dx
2

(4.5)

Este lmite puede ahora ser usado para estimar el error. Las restricciones necesarias para que este teorema sea vlido son:
i) Las variables {fi } tienen que ser estadsticamente independientes e idnticamente distribuidos.
ii) La media y la varianza tienen que existir.
iii) El nmero N tiene que ser grande.

Algoritmo usando muestreo simple


El algoritmo para integracin simple por Monte Carlo puede resumirse como
sigue:
1. Elegimos N puntos xi con distribucin uniforme en el intervalo [0, 1].
2. Usamos estos nmeros para determinar
N
1 X
hf i =
fi
N i=1
N
2
1 X 2
f =
f
N i=1 i

3. Aproximamos la integral por el valor medio y usamos la varianza para estimar el error

1
I hf i
N
33

q
hf 2 i hf i2

(4.6)

Hemos introducido la notacin h. . .i para indicar el promedio de una cantidad.


El error indicado representa una desviacin estndar ( = 1) y la probabilidad de
que el resultado sea el verdadero valor ser de un 68 %. Si usamos dos desviaciones estndar la correspondiente probabilidad de que dicho resultado sea el valor
verdadero ser de un 95 %. Los puntos {xi } han sido elegidos aleatoriamente lo
cual implica que debe usarse un buen generador de nmeros aleatorios. La media y la varianza son estimadas usando la sucesin {fi } y se tiene que asegurar
que la varianza exista, una forma de lograr esto es pidiendo que hf i hf 2 i sean
independientes de N .
Tambin notemos que el error puede ser reducido en dos formas diferentes.
Una es incrementando el nmero de puntos de muestra N , la otra es reduciendo
la varianza. El primero es el mtodo a fuerza bruta mientras que el segundo ser
introducido en el contexto del muestreo por importancia.

Comparacin con los mtodos tradicionales


El mtodo de Monte Carlo es superior en grandes dimensiones pero para integrales en bajas dimensiones debera no ser usado. Esto puede verse comparando
el error obtenido usando algunos de los mtodos tradicionales con el error obtenido usando el mtodo de Monte Carlo, el cual como vemos (ec 4.6) es del orden
O(N 1/2 ) y es independiente de la dimensin d de la integral.
Consideremos la formula del trapecio. El error asociado con este mtodo de
evaluacin de integrales unidimensionales esta dado por
Z

xi+1

f (x)dx = f h + O h3 f 00

xi

donde h = xi+1 xi y f = (f (xi ) + f (xi+1 )) /2. En d dimensiones el correspondiente error es

f (x)dd x = f hd + O h2+d f 00

y si hacemos N evaluaciones para esta integral el error se incrementa con un factor


N ; esto es N O(h2+d f 00 ). Usando N evaluaciones en cada dimensin en la integral
34

d-dimensional esta se divide hasta en N 1/d intervalos y h N 1/d Lh, donde L la


dimensin lineal de la regin de integracin. El error total usando la generalizacin
multidimensional de la frmula trapezoidal es entonces

2+d 00

N O h2+d f 00 = O N N 1/d L
f O N 2/d
la cual para d grande decrece muy lentamente al incrementarse N . Podemos com

parar esto con el error en Monte Carlo, O N 1/2 , y tenemos que para d > 4 este
estimado implica que el mtodo de Monte Carlo se hace mas eficiente. El punto
crucial es que tenemos dos formas diferentes en que el error depende de la dimensin d. Usando mtodos tradicionales, este depende severamente de la dimensin
d mientras que en el caso del mtodo de Monte Carlo, este es insensitivo para este
valor. En muchas aplicaciones de Monte Carlo la dimensin es muy grande [19].

Muestreo por importancia


La calidad del mtodo de Monte Carlo es que (el tamao del error) se puede
mejorar en dos formar diferentes, por fuerza bruta incrementando el nmero N de
puntos de muestra o por la va ms difcil reduciendo la varianza del integrando.
Aqu, presentaremos la base para la tcnica ms importante la reduccin de la
varianza, basada en el muestreo importancia.
Consideremos otra vez la integral unidimensional
Z

I=

f (x)dx

(4.7)

Si f (x) muestra grandes variaciones en el intervalo [a, b] parece ineficiente


tomar muestras de x uniformemente. Podramos tratar de tomar muestras de ms
puntos en regiones importantes, las cuales dan la contribucin dominante para
la integral. Esta es la base para el muestreo por importancia.
Introduzcamos una funcin p(x) que se parezca a f (x) de alguna manera, esto
es, p(x) es grande cuando f (x) es grande y pequea cuando f (x) lo sea. La funcin
35

p(x) tiene que estar normalizada y definida positiva


Z

p(x)dx = 1,

p(x) 0, x

(4.8)

La integral es reescrita como


Z

I=

f (x)dx =
a

f (x)
p(x)dx =
p(x)

g(x)p(x)dx

(4.9)

Con estas propiedades p(x) es una densidad de probabilidad. En vez de muestrear


a f (x) uniformemente en el intervalo [a, b] ahora podemos tomar muestras de la
funcin g(x) = f (x)/p(x) no uniformemente de acuerdo a la densidad de probabilidad p(x), esto es, p(x)dx da la probabilidad de elegir un punto en el intervalo
dx. La integral puede ser aproximada como
1
I hgip
N
donde

hg 2 ip hgi2p

(4.10)

N
N
1 X
1 X
hgip =
g(xi ) =
gi
N i=1
N i=1

(4.11)

y donde el subndice p denota que los puntos xi deben ser tomados de acuerdo
a la densidad de probabilidad p(x). Por construccin la funcin g(x) muestra
pequeas variaciones en el intervalo [a, b], comparada con f (x), lo cual implica
que la varianza ha sido reducida,
q
hg 2 i

hgi2p

q
<

hf 2 ip hf i2p

En dimensiones superiores esto puede mejorar la eficiencia del mtodo considerablemente.


Como caso especial tenemos la distribucin uniforme p(x) = 1/(b a), la cual
es usada en integracin simple por Monte Carlo si la longitud del intervalo no es
unitaria, como en la ecuacin (4.7).
El problema no trivial es como generar puntos de acuerdo a alguna densidad
36

de probabilidad prescrita p(x). El mtodo de transformacin puede ser usado si


la integral indefinida de p(x) puede ser calculada as como tambin la inversa de
esa funcin (ver captulo 7.2 en [13]). El mtodo de rechazo es algunas veces ms
general y esta basado sobre argumentos geomtricos simples (ver capitulo 7.3 en
[13]). Sin embargo, es solamente a travs de la introduccin de mtodos basados en
procesos estocsticos para generar {xi }, que el mtodo de Monte Carlo se convierte
en una de la ms poderosa tcnica numrica para manejar problemas en grandes
dimensiones. La primera y mas importante implementacin fue introducida por
Metropolis et al. en 1953 [11].

Cadenas de Markov e Integracin


Ahora introduciremos un cierto tipo de proceso estocstico discreto llamado
Cadena de Markov. En un sentido, la Cadena de Markov es el anlogo probabilstico de las trayectorias en mecnica clsica. La evolucin en el tiempo de la
Cadena de Markov esta determinada por una matriz estocstica mientras que las
trayectorias clsicas estn dadas por las ecuaciones de movimiento de Newton,
la cual es determinista. Sin embargo, ambas estn caracterizadas por una falta
de memoria. Esto es, el futuro inmediato esta nicamente determinado por el
presente, sin importar el pasado.

Cadenas de Markov
Consideremos un sistema que puede estar en diferentes estados i . En el caso
de una integral unidimensional el estado corresponde a los diferentes valores de
x, i = xi . En mecnica estadstica los estados corresponden a los microestados
del sistema. En un sistema clsico de spin los microestados estn dados por el
conjunto de valores para todos los spines, i = {sk } y en un fluido clsico o en
un slido se tiene que especificar las posiciones Rk y los momentos Pk para todas
las partculas, i = {Rk , Pk }. En el computador el nmero de estados es siempre
un nmero entero que puede ser muy grande.

37

Consideremos ahora, un proceso estocstico discreto, una sucesin de estados


i (0) i (1) i (2) i (n) i (n + 1) generados en forma estocstica. El proceso es llamado una Cadena de Markov si el resultado en cualquier
paso futuro slo depende del estado presente. Este no tiene memoria, es decir, los
estados futuros son estadsticamente independiente de los pasados. La sucesin en
este caso esta nicamente definida por las probabilidades condicionales,
wij = wij = Prob (j, n + 1|i, n)
junto con la especificacin del estado inicial. Las cantidades wij es igual a la
probabilidad de que en el prximo paso se haga una transicin de i a j, dado que
el sistema este en el estado i. Estas probabilidades definen una matriz, la matriz

de transicin
w , y esta tiene que cumplir las siguientes condiciones
wij 0,
y

i y j

wij = 1,

donde el trmino j = i deber ser incluido en la suma.


Ahora consideremos un ensemble de un sistema, la probabilidad de que uno de
los sistemas en el ensemble este en el estado i en el paso n usaremos la notacin
Pi (n). Usando la definicin de la Cadena de Markov podemos escribir
Pj (n) =

Pi (n 1)wij

o usando notacin vectorial

P (n) = P (n 1)
w
Iterando esta ecuacin obtenemos la relacin

n
P (n) = P (0)
w

38

Es deseable que cuando n se haga grande la informacin inicial contenida en P (0)


se haga despreciable y bajo condiciones bien generales (una cadena aperidica

ergdica irreducible) uno puede mostrar que P (n) se aproxima a una distribucin
constante independiente del tiempo

lm P (0)
w n = P stat

La distribucin lmite P stat es llamada la distribucin estacionaria y debe satisfacer la ecuacin de autovalores

stat

w
P
= P stat
o

Pistat [wij ij ] = 0

Cuan rpido el proceso se aproximar a la distribucin estacionaria depender de


los detalles de la matriz de transicin wi,j .

Integracin Monte Carlo y Cadenas de Markov


El uso de muestreo por importancia en la integracin por Monte Carlo requiere un procedimiento para generar estados de acuerdo a alguna probabilidad
especificada por una funcin de distribucin. Una forma muy general y poderosa de construir estos estados es hacer uso de una Cadena de Markov. La idea

es construir una adecuada matriz de transicin


w y generar una larga sucesin
de estados. La integral entonces se obtiene como el promedio a lo largo de esta
sucesin.
Sabiendo cual es la funcin de distribucin de probabilidad, la cual denotaremos con pi . Esta ser identificada como la distribucin estacionaria. En mecnica
estadstica asumiendo el ensemble cannico tenemos la funcin de distribucin de
probabilidad [10] [18]
pi =

1
exp [Hi /kB T ]
Z
39

donde Z es la funcin de particin, Hi la energa total del sistema en el estado


i y T la temperatura. El mtodo sin embargo no esta limitado a la mecnica
estadstica y el ensemble cannico sino que puede ser usado para funciones de
distribucin de probabilidad arbitrarias.
Al elegir una matriz de transicin wij que cumpla las condiciones (i ) - (iv ) que
se dan abajo podemos asegurar que la sucesin de estados generados usando wij
sern distribuidos de acuerdo a pi despus de un cierto nmero de pasos.
(i)

wij 0,
X

(ii)

i, j

wij = 1,

(4.12)

(4.13)

(iii)

La cadena debe ser aperidica, ergdica e irreducible

(iv)

pj =

wij

(4.14)

(4.15)

La ltima condicin puede ser reescrita en la siguiente forma


pj =

pi wij + pj wjj

i(6=j)

y si la relacin (ii ) es usada


pj =

pi wij + pj (1

i(6=j)

wji )

i(6=j)

pi wij =

i(6=j)

pj wji

i(6=j)

Una condicin suficiente pero no necesaria es que la igualdad se cumpla para cada

40

valor i. Entonces obtenemos la condicin


(iv)

pi wij = pj wji

(4.16)

la cual es a menudo referida como balance detallado. Las condiciones (i) (iv) y (iv) puede ser cumplida por muchas formas distintas. La ms importante
realizacin es la debida a Metropolis et al.

El algoritmo de Metropolis
Escribamos la matriz de transicin como
wij = ij ij

(4.17)

donde ij es la probabilidad de ensayar un cambio de i a j satisfaciendo la condicin de normalizacin

ij = 1

(4.18)

y ij es la probabilidad de aceptar el cambio ensayado. El algoritmo de Metropolis


se define entonces por las siguientes condiciones
ij = 1,

Si pj pi y i 6= j

(4.19)

ij = pj /pi ,

Si pj < pi y i 6= j

(4.20)

las cuales tambin podemos escribir como

(a)

pi
wij = ij mn 1,
, si i 6= j
pj

(4.21)

La matriz ij tiene que ser simtrica


(b)

ij = ji

41

(4.22)

para asegurar la condicin de balance detallado. Tambin es importante permitir


la posibilidad de que el sistema permanezca en el mismo estado.
(c)

wij = 1

wij

(4.23)

j(6=i)

Esta condicin implica que si un cambio ensayado no es aceptado el estado actual


tiene que ser contado una vez ms. Esta ltima condicin fue claramente enfatizada por Metropolis et al, pero varios autores objetaron sta en la historia temprana
del mtodo de Monte Carlo [20]. Tambin ntese que el algoritmo solo involucra
la evaluacin de la razn pj /pi , y no la probabilidad pi misma, la cual ser crucial
cuando se aplique en la mecnica estadstica.
Para implementar el algoritmo de Metropolis tenemos que especificar la matriz
ij , la cual est diseada para llevar el sistema de un estado i a un estado j. La
nica condicin es que sta debe ser simtrica ij = ji y por lo tanto tenemos una
considerable libertad de encontrar una matriz apropiada. A menudo esta contiene
uno o varios parmetros ajustables que pueden optimizar el muestreo. Lo comn
es que el muestreo ptimo es obtenido si aproximadamente el 50 % de los cambios
de prueba son aceptados.
La matriz ij en muchos casos es construida de tal forma que el estado de
prueba j est localizado en una vecindad de i . La razn para esto, es que
se desea usar las cadenas de Markov para guiar al sistema en regiones con alta
probabilidad. Realmente, es este hecho el que hace al mtodo eficiente en problemas en altas dimensiones. Si simplemente eligiramos j totalmente al azar
podramos nunca encontrar las raras regiones con alta probabilidad. Sin embargo,
el inconveniente es que los diferentes estados en la cadena de Markov se tornan
altamente correlacionados. Por ejemplo, si tomamos un conjunto de datos {fi } en
la cadena fi = i , stos no sern estadsticamente independientes. Por lo que, la
expresin para la varianza de la media en la ecuacin (4.4) no ser valida y el
error no se podr ser estimado por la ecuacin (4.6). Lo que a menudo se hace en
la prctica para solventar este problema es usar estados en la cadena de Markov
separados por algn intervalo fijo, lo suficientemente largo, de tal forma la corre42

lacin entre los estados sea despreciable. Mas adelante presentaremos dos formas
de determinar esta distancia.
Otro aspecto, es como se debe inicializar la cadena de Markov. Es deseable
elegir un estado 0 con alta probabilidad. Para ello, podemos iniciar la cadena
de Markov en algn paso y dejamos correr la cadena hasta que el sistema se
equilibre. Estos estados antes del equilibrio debern ser descartados y no se deben
incluirse en el clculo de las cantidades promediadas. En muchos casos la iniciacin
o equilibracin del sistema puede ser una parte importante para el clculo final.
Entonces los estados siguientes son usados para determinar diferentes cantidades.
Para asegurar un muestreo apropiado ij tiene que elegirse de tal forma que todos
los estados relevantes sean probados. Matemticamente esto esta expresado en la
parte (iii ) de la ecuacin (4.14), aqu es donde la intuicin fsica y la comprensin
del problema es de gran ayuda en la eleccin de dichos estados.

Algoritmos basados en Metropolis


Para hacer mas explcita este asunto, consideremos una simple integral unidimensional

Z
I=

g(x)p(x)dx

Ntese que hemos asumido que p(x) esta normalizada

(4.24)
R

p(x)dx = 1. Un ade-

cuada eleccin para la matriz de transicin ij puede ser escrita de la siguiente


forma
xi = x + (r 0,5)
Donde r es un nmero aleatorio uniforme en el intervalo [0, 1] y determina
la magnitud del cambio ensayado y es un parmetro ajustable. Este puede ser
determinado requiriendo que la mitad de los pasos ensayados sean aceptados. El
parmetro ajustable puede ser dado por un valor fijo antes que el clculo sea
comenzado o puede ser automticamente ajustado dentro del programa durante
el clculo. Esto puede ser hecho automticamente por el programa de la siguiente
forma. Despus de un cierto nmero de pasos ensayados determinamos la razn
43

de aceptacin y si esta es menor que el 50 % lo descartamos y lo aceptamos en


caso contrario. Este procedimiento puede ser repetido varias veces
1. Elegimos una posicin al azar de acuerdo a xt = xn + (r 0,5)
2. Calculamos la razn w = p(xi )/p(xn )
3. Generamos un nmero aleatorio uniforme r entre 0 y 1
si w r
Aceptamos el cambio y hacemos xn+1 = xt
Sino
Contamos el estado una vez ms, xn+1 = xn
4. Repetimos los pasos 1,2 y 3 varias veces
Antes que los clculos sean iniciados tenemos que elegir un estado inicial x0 .
El sistema es equilibrado repitiendo los pasos 1, 2 y 3 anteriores varias veces. Los
valores siguientes pueden ser usado para determinar la integral en la ecuacin
(4.24) para diferentes funciones g(x). Cuando el error sea estimado tenemos que
asegurarnos que los estados a lo largo de la cadena sean no correlacionados. En
la prctica esto se hace estimado la longitud de correlacin y tomando estados
a lo largo de la cadena distanciados por esta longitud. La cantidad de nmeros
aleatorios generados puede ser reducido al incluir una condicin extra. En este
caso, en el punto 3 anterior lo cambiamos a
3. Generamos un nmero aleatorio uniforme r entre 0 y 1
si w r
Aceptamos el cambio y hacemos xn+1 = xt
Sino
Generamos un nmero aleatorio uniforme r entre 0 y 1
Si w r
Aceptamos el cambio y hacemos xn+1 = xt
Sino
Contamos el estado una vez ms, xn+1 = xn
44

Otros algoritmos tipo Metropolis


El algoritmo de Metropolis no es el nico que satisface las condiciones (i) (iii) y (iv) en las ecuaciones (4.12) - (4.14) y (4.16). Una solucin ms simtrica
puede ser sugerida
wij = ij

pij
, si i 6= j
pi + pj

(4.25)

referida a menudo como un muestreo Barker o Glauber. Tambin en este caso la


matriz tiene que ser simtrica (4.22), y tenemos que tener en cuenta la posibilidad
de que no haya transicin (4.23). En muchos casos el algoritmo de Metropolis
parece ser ms eficiente, para algunos sistemas discretos, por ejemplo, para el
modelo de Ising de dos estados, la solucin anterior parece ser la ms favorable.

Error estimado
La diferentes estados i en la cadena de Markov pueden estar altamente correlacionados. Si consideramos un conjunto de datos {fi }, evaluados en la cadena
fi = f (i ), estos no sern estadsticamente independientes. La expresin para la
varianza en la ecuacin (4.4) no ser valida y el error no puede ser estimado por
(4.15). Definimos la ineficiencia estadstica s por la relacin
Var [IN ] =

s
Var [f ]
N

(4.26)

donde el valor N/s es una medida del nmero de valores estadsticamente independientes de fi . Por lo tanto es aconsejable en un clculo solamente incluir
estados en la cadena de Markov separados por esta distancia. Aqu, presentamos
dos formas de estimar , una basada en el clculo de funcin de autocorrelacin y
la otra basada en el promedio por bloques [1].

45

La funcin de Autocorrelacin
Queremos estimar el error en el valor medio
N
1 X
IN =
fi
N i=1

Esto se hace determinando la varianza


*"
Var [IN ] =

#"
#+
N
N
X
X
1
1
(fi hf i)
(fj hf i)
N i=1
N j=1

N
N

1 XX
= 2
hfi fj i hf i2
N i=1 j=1

La diagonal de la doble suma es igual a

1 2
1
f hf i2 = Var [f ]
N
N
y cambiando el ndice se sumatoria de j a k = j i la parte fuera de la diagonal
puede ser reescrita como
N
N
2 X X
2
hf
f
i

hf
i
i
j
N 2 i=1 j=i+1

N N i
2 XX
2
hf
f
i

hf
i
i
i+k
N 2 i=1 k=1

2 X
k
= 2
(1 ) hfi fi+ki i hf i2
N i=1
N

ya que hfi fi+k i es independiente de i. Introducimos la funcin de autocorrelacin


hfi fi+k i hfi i2
k =
hfi i hfi i2

46

(4.27)

donde h. . .i denota el promedio usual en la cadena, por ejemplo


N k
1 X
hfi fi+k i =
fi fi+k
N 1 i=1

La funcin de de correlacin esta normalizada a la unidad para k = 0, k=0 =


1, y para valores grandes de k esta decrece a 0 cuando las variables se hacen
estadsticamente independientes. Adicionando las partes diagonal y la que queda
fuera de la doble suma tenemos
"
#
N
X
Var [f ]
k
Var [IN ] =
1+2
(1 )k
N
N
k=1
Asumiendo que k ha decae a cero para k > M y que M N podemos
escribir la expresin para la varianza como
Var [IN ] =

(1 + 2ncorr )
Var [f ]
N

donde
ncorr =

M
X

(4.28)

(4.29)

k=1

es una medida de la longitud de correlacin en la cadena. Ahora podemos identificar s con (1 + 2ncorr )
s=1+2

N
X

(4.30)

k=1

Si k decae exponencialmente ncorr esta determinada por la relacin ncorr =


1/e. Por lo tanto un estimado para s puede ser obtenido del valor de k para el
cual k 0,1

Promedio por bloque


Otra forma de estimar s es determinar promedios por bloques. Dividimos el
nmero total de configuraciones en nb bloques con tamao B, es decir N = nb B.
47

Podemos entonces formar nuevas variables


Fj;B =

B
1 X
fi+(j1)B ; j = 1, . . . , nb
B i=1

Igual a la media en cada bloque. El valor medio y la varianza de estas nuevas


variables estn dadas por

nb
1 X
E [FB ] =
Fj;B
nb i=1

n
1 X
V ar [FB ] =
(Fj;B E [Fb ])2
nb j=1

Respectivamente. Si los bloques son lo suficientemente grande las nuevas variables


sern estadsticamente independiente y
V ar [IN ] =

1
V ar [FB ]
nb

Por otra parte, si los bloques son demasiado pequeos tendremos que
V ar [IN ] >

1
V ar [FB ]
nb

y usando la definicin (4.26) podemos escribir


s
1
V ar [IN ] V ar [FB ]
N
nb
o

BV ar [FB ]
B V ar [f ]

s = lm

(4.31)

Usando esta relacin un estimado de s puede ser obtenido haciendo clculos


de V ar [FB ] para diferentes bloques de tamao B.

48

CAPTULO V
RESULTADOS NUMRICOS
En este captulo analizaremos los resultados obtenido al simular tres modelos
de Ising:
1. Modelo de Ising en 2 dimensiones con interacciones de primeros vecinos y
condiciones peridicas en las fronteras.
2. Modelo de Ising en 2 dimensiones con interacciones de primeros vecinos y
segundos vecinos y condiciones peridicas en las fronteras.
3. Modelo de Ising en 3 dimensiones con interacciones de primeros vecinos y
condiciones peridicas en las fronteras.
Para simular estos modelos usaremos el algoritmo de Metropolis (anexo 1), tomando cadenas de Markov y promedios por bloques para reducir la varianza, tambin
optimizamos el algoritmo guardando en arreglos la asignacin de vecinos as como
el preclculo de los factores de Boltzman w antes de comenzar la simulaciones,
esto nos ahorra hacer estos calculo miles de veces durante la simulacin .
Las simulaciones de los modelos se hicieron sobre diferentes tamaos de red.

Ising 2D. Interaccin a primeros vecinos


El primer modelo a analizar para validar del algoritmo es el modelo de Ising
en 2 dimensiones con interaccin de primeros vecinos dado por
H = J

si sj H

<ij>

si

(5.1)

con constante J = 1 y H = 0, para diferentes tamaos de reticulado L = 32x32,


L = 64x64, L = 128x128
Modelo de Ising2d primeros vecinos J=1 H=0
-0.4
Red 32x32
Red 64x64
Red 128x128

-0.6

-0.8

Energia

-1

-1.2

-1.4

-1.6

-1.8

-2
0

3
Temperatura

Figura 5.1: Energa por spin.

50

Modelo de Ising2d primeros vecinos J=1 H=0


1
Red 32x32
Red 64x64
Red 128x128
0.8

Magnetizacion

0.6

0.4

0.2

-0.2

-0.4
0

3
Temperatura

Figura 5.2: Magnetizacin por spin.


Modelo de Ising2d primeros vecinos J=1 H=0
1.2
Red 32x32
Red 64x64
Red 128x128
1

Calor Especifico

0.8

0.6

0.4

0.2

0
0

3
Temperatura

Figura 5.3: Calor especifico.


51

Modelo de Ising2d primeros vecinos J=1 H=0


12
Red 32x32
Red 64x64
Red 128x128
10

Susceptibilidad

0
0

3
Temperatura

Figura 5.4: Susceptibilidad.


Observamos que la simulacin es muy buena, en cada caso, el valor donde
ocurre la transicin de fase (' 2,3) coincide bastante bien con la prediccin terica
kB Tc = 2, 269185J (ec 3.9)
Ahora, veamos el efecto de introducir un campo magntico externo no nulo en
el modelo anterior y comparemos estas respuestas con el modelo a campo nulo.

52

Modelo de Ising2d primeros vecinos J=1 H=1


-1
Red 32x32
Red 64x64
Red 128x128

-1.2
-1.4
-1.6

Energia

-1.8
-2
-2.2
-2.4
-2.6
-2.8
-3
0

3
Temperatura

Figura 5.5: Energa por spin.


Modelo de Ising2d primeros vecinos J=1 H=1
1
Red 32x32
Red 64x64
Red 128x128
0.9

Magnetizacion

0.8

0.7

0.6

0.5

0.4
0

3
Temperatura

Figura 5.6: Magnetizacin por spin.


53

Modelo de Ising2d primeros vecinos J=1 H=1


0.7
Red 32x32
Red 64x64
Red 128x128
0.6

Calor Especifico

0.5

0.4

0.3

0.2

0.1

0
0

3
Temperatura

Figura 5.7: Calor especifico.


Modelo de Ising2d primeros vecinos J=1 H=1
0.4
Red 32x32
Red 64x64
Red 128x128

0.35

Susceptibilidad

0.3

0.25

0.2

0.15

0.1

0.05

0
0

3
Temperatura

Figura 5.8: Susceptibilidad.


54

Aqu observamos el efecto del campo magntico externo (H = 1) sobre la


energa (figuras 5.1 y 5.5) y la magnetizacin (figuras 5.2 y 5.6) en un Modelo
de Ising 2D con interaccin de primeros vecinos, vemos que el efecto del campo
externos sobre la energa suaviza, casi hasta hacerla desaparecer, la transicin de
fase y es aun mas apreciable el efecto en la magnetizacin donde la transicin de
fase del segundo ya no se observa (figuras 5.2 y 5.6).
Tambin observamos el efecto del campo magntico externo (H = 1) sobre
el calor especifico (figuras 5.3 y 5.7) y la susceptibilidad magntica (figuras 5.4
y 5.8) en un Modelo de Ising 2D con interaccin de primeros vecinos, vemos
que el efecto del campo externos sobre la susceptibilidad cambia drsticamente
el comportamiento de la misma, cuando H = 0 la susceptibilidad presenta una
transicin de fase de segundo orden caracterizada por un pico en la temperatura
crtica y la presencia de dos curvas convexas, mientras que cuando H = 1 se
observa una curva continua y cncava, tambin podemos apreciar en la simulacin
el efecto de las correlaciones en el caso de un reticulado de 128x128 spines. En el
caso de la susceptibilidad tambin observamos similar.

Ising 2D. Interaccin a segundos vecinos


El segundo modelo a analizar es el modelo de Ising en 2 dimensiones con
interaccin de primeros y segundos vecinos
H = J1

X
<ij>

si sj J2

<<kl>>

sk sl H

si

(5.2)

primero con constantes J1 = 1, J2 = 1/ 8 y H = 0 y luego con J1 = 1, J2 =

1/ 8 y H = 1, para diferentes tamaos de reticulado L = 32x32, L = 64x64,


L = 128x128

55

Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=0


0
Red 32x32
Red 64x64
Red 128x128
-0.5

Energia

-1

-1.5

-2

-2.5

-3
1

5
Temperatura

Figura 5.9: Energa por spin.


Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=0
1
Red 32x32
Red 64x64
Red 128x128

0.8

Magnetizacion

0.6

0.4

0.2

-0.2

-0.4

-0.6
1

5
Temperatura

Figura 5.10: Magnetizacin por spin.


56

Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=0


1.2
Red 32x32
Red 64x64
Red 128x128
1

Calor Especifico

0.8

0.6

0.4

0.2

0
1

5
Temperatura

Figura 5.11: Calor especifico.


Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=0
8
Red 32x32
Red 64x64
Red 128x128

Susceptibilidad

0
1

5
Temperatura

Figura 5.12: Susceptibilidad.


57

Primero observamos que el adicionar las interacciones de los segundos vecinos


al modelo de Ising 2D (5.1), se mantienen las transiciones de fases (figuras 5.1, 5.2,
5.9 y5.10) pero se desplaza la temperatura crtica de 2, 3 K a 3, 1 K. Observamos
tambin un aumento del rango de variacin de la energa.
Tambin observamos que el efecto de la adicin de las interacciones de los
segundos vecinos al modelo de Ising 2D (con H = 0) con respecto al calor especifico
(figuras 5.3 y 5.11) y la susceptibilidad (figuras 5.4 y 5.12 se sigue manteniendo
las transiciones de fases aunque se ve una reduccin en sus valores.
Ahora, veamos como son los resultados para el segundo caso.
Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=1
-0.5
Red 32x32
Red 64x64
Red 128x128
-1

Energia

-1.5

-2

-2.5

-3

-3.5

-4
1

5
Temperatura

Figura 5.13: Energa por spin.

58

Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=1


1
Red 32x32
Red 64x64
Red 128x128

0.9

Magnetizacion

0.8

0.7

0.6

0.5

0.4

0.3

0.2
1

5
Temperatura

Figura 5.14: Magnetizacin por spin.


Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=1
0.7
Red 32x32
Red 64x64
Red 128x128
0.6

Calor Especifico

0.5

0.4

0.3

0.2

0.1

0
1

5
Temperatura

Figura 5.15: Calor especifico.


59

Modelo de Ising2d segundos vecinos J1=1 J2=1/sqrt(8) H=1


0.35
Red 32x32
Red 64x64
Red 128x128
0.3

Susceptibilidad

0.25

0.2

0.15

0.1

0.05

0
1

5
Temperatura

Figura 5.16: Susceptibilidad.


Aqu observamos que el efecto del campo magntico externo (H = 1) sobre la
energa (figuras 5.9 y 5.13) y la magnetizacin (figuras 5.10 y 5.14) es parecido al
del Modelo de Ising 2D con interaccin de primeros vecinos y es mas apreciable
la casi desaparicin de las transiciones de fases.
Cuando se introduce un campo magntico externo H = 1 observamos que el
afecto de este sobre el modelo es de anular las transiciones de fases en el calor
especifico (figuras 5.11 y 5.15) y la susceptibilidad magntica (figuras 5.12 y 5.16).

60

Ising 3D. Interaccin a primeros vecinos


El tercer modelo a analizar es el modelo de Ising en 3 dimensiones con interaccin de primeros vecinos
X

H = J

si sj H

<ij>

si

con constante J = 1 y H = 0, para diferentes tamaos de reticulado L =


16x16x16, L = 24x24x24, L = 32x3232
Modelo de Ising3d primeros vecinos J=1 H=0
-0.5
Red 16x16x16
Red 24x24x24
Red 32x32x32
-1

Energia

-1.5

-2

-2.5

-3
2

2.5

3.5

4
Temperatura

4.5

Figura 5.17: Energa por spin.

61

5.5

Modelo de Ising3d primeros vecinos J=1 H=0


1
Red 16x16x16
Red 24x24x24
Red 32x32x32
0.8

Magnetizacion

0.6

0.4

0.2

-0.2
2

2.5

3.5

4
Temperatura

4.5

5.5

Figura 5.18: Magnetizacin por spin.


Modelo de Ising3d primeros vecinos J=1 H=0
1.4
Red 16x16x16
Red 24x24x24
Red 32x32x32
1.2

Calor Especifico

0.8

0.6

0.4

0.2

0
2

2.5

3.5

4
Temperatura

4.5

Figura 5.19: Calor especifico.


62

5.5

Modelo de Ising3d primeros vecinos J=1 H=0


1.4
Red 16x16x16
Red 24x24x24
Red 32x32x32
1.2

Calor Especifico

0.8

0.6

0.4

0.2

0
2

2.5

3.5

4
Temperatura

4.5

5.5

Figura 5.20: Susceptibilidad.


Podemos observar que en el Modelo de Ising 3D a campo magntico nulo H = 0
se siguen manteniendo las transiciones de fases. Aunque el valor de la temperatura
crtica 4,7 K es mayor que el caso de 2 dimensiones y las transiciones tienden
a ser mas suaves, en la energa (figura 5.17) y la magnetizacin (figura 5.18) y
menos acentuadas en el calor especifico (figura 5.19) y la susceptibilidad (figura
5.20) pero manteniendo la convexidad de las curvas. Tanto en el calor especifico
como en la susceptibilidad a medida que aumentamos el tamao del retculo (Red
de 323 =32768 spines) vemos variaciones de dichas fluctuaciones, esto se debe a
correlacin de largo alcance entre la cadena de Markov.

63

CAPTULO VI
CONCLUSIONES
Estudiamos el modelo de Ising en 2 dimensiones junto con la novedad de incorporar el efecto de las interacciones de los segundos vecinos, tambin estudiamos
el modelo en 3 dimensiones para tamao de reticulados grandes por medio del
Algoritmo de Metropolis en una computadora personal. Los resultados de las simulaciones realizadas coinciden con las predicciones tericas de los modelos de
aproximacin por la Teora de Matrices de transferencia, la Teora del Campo
Medio [19] [8] [18], y con el Modelo de Onsanger en 2 dimensiones, y obtuvimos
resultados confiables.
Los resultados de las simulaciones, muestran que en general las variaciones en
el Calor Especifico y la Susceptibilidad Magntica cerca de la temperatura critica cuando se crece el nmero de spines se deben a los Efecto de Tamao Finito
[18] de las simulaciones, y las correlaciones de los medidas, los cuales pueden ser
mejorados implementando tcnicas de reduccin de dichos efectos, tales como algoritmos de Grubber, Wolff cluster o Swendsen-Wang. La aplicacin de un campo
externo puede cambiar el valor de la temperatura crtica hasta un valor mximo
a partir del cual desaparecen las transiciones de fases.
Los resultados del modelo de Ising 2d con interacciones de segundos vecinos
coinciden bien con las simulaciones de sistemas de Ising mixtos [2], usados para
modelar Aleaciones binarias de materiales magnticos.
Hemos mostrado en este trabajo que simulaciones del Modelo de Ising, para
tamaos grandes de reticulado puede ser llevadas a cabo con el algoritmo de
Metropolis en una moderna Pc. Esto indica que se pueden hacer implementaciones

de Modelos de Fsica Estadstica reales de estructura similar al modelo de Ising,


utilizando computadores modernos y econmicos. La precision numrica puede
mejorarse y ser llevada a cabo bien en modernos computadores de mayor capacidad
o implementando clusters de computadores personales en paralelo.

65

Referencias Bibliogrficas
[1] Binder, K. Hermann D. Monte Carlo Simulation in Statistical Physics. Springer Verlag, 1988.
[2] Buenda, G. M. and Machado E. Magnetic behavior of a mixed Ising ferrimagnetic model in an oscillating magnetic field. Physical Review B, 61 , 1468614690, 2000.
[3] Cipra, B. A. An Introduction to the Ising Model. Amer. Math. Monthly 94,
937-959, 1987.
[4] Eisberg, Robert & Resnick, Robert. Quantum Physics. 2nd Ed., Wiley, 1985.
[5] Feller, W. An Introduction to Probability Theory and Its Applications. Wiley,
1957.
[6] Goldstein, H. Classical Mechanics. Addison Wesley, 2nd edition, 1980.
[7] Gould, H. and Tobochnik J., An Introduction to Computer Simulation Methods. 2nd edition, Addison Wesley, 1996.
[8] Gould,

H.

and

Tobochnik

J.

Thermal

and

Statistical

Physics.

http://stp.clarku.edu/notes/, 2003
[9] Ising, E. Beitrag zur Theorie des Ferromagnetismus. Zeitschr.. f. Physik 31,
253-258, 1925. [Aleman].
[10] Koonin, Steven E. Computational Physics. Benjamin Cumming Publishing,
1996
[11] Metropolis, N., Rosembluth, A, Rosenbluth, M., Teller, A. & E., Equation of
State Calculation by Fast Computing Machine. J. Chem. Phys., 21, 1087, 1953.
66

[12] Onsager, L. Crystal Statistics. I. A Two-Dimensional Model with a OrderDisorder Transition. Phys. Rev. 65, 117-149, 1944.
[13] Press, W. H., Teukolsky, S. A., Vetterling, W. T. & Flannery, B. P. Numerical
Recipes: Art of Scientific Computing. 2nd edition, Cambridge, 1992.
[14] Reif, F. Fsica Estadstica. Revert. 1969.
[15] Reif, F. Statistical and Thermal Physics. McGraw-Hill, Singapore, 1985.
[16] Sakurai, J. J. Modern quantum mechanics. Addison-Wesley, 1994.
[17] Sbol, I. M. Mtodo de Monte Carlo. Ed. Mir. 1976.
[18] Thijssen, J. M. Computational Physics. Cambridge University Press, 1999.
[19] Toda, M. Kubo, R. y Sait, N. Statistical Physics I. 2nd edition, Springer,
1998.
[20] Wood, W. W. Molecular-Dynamics Simulation of Statistical Mechanical Systems. eds G. Ciccoti and W. G. Hoover. North-Holland, 1986.

67

ANEXOS