Вы находитесь на странице: 1из 36

Física Estadística

Torsten Fließbach1

1 Traducido del alemán por José M. Méndez A.


2
Índice general

1. Probabilidad 5

2. Ley de los grandes números 13

3. Distribución normal 21

4. Teorema de límite central 29

3
4 ÍNDICE GENERAL
Capítulo 1

Probabilidad

Se introducen y discuten los conceptos de probabilidad, valor medio y fluc-


tuación, explicándolos con ayuda del conocido juego de los dados.

Primero precisemos el concepto de probabilidad. Con tal fin consideremos


la expresión “la probabilidad p de obtener el número 1 al lanzar un dado
es 1/6”. Esto significa que en promedio un sexto de los lanzamientos llevan
a obtener dicho número. De hecho, en N intentos se obtiene Ni veces el
resultado i (1, 2, 3, 4, 5 ó 6). Así, Ni /N es la frecuencia del evento i y
Ni
pi = lı́m probabilidad (1.1)
N →∞ N

su probabilidad. Aquí, N → ∞ debe interpretarse como “suficientemente


grande”, lo que cuantificaremos más adelante. Puesto que inevitablemente
uno de los eventos i ocurre (así se define un dado), se tiene
6
!
Ni = N, (1.2)
i=1

de lo que sigue
6
!
pi = 1. (1.3)
i=1
La determinación experimental de la probabilidad pi puede hacerse de dos
formas, a las que llamaremos promedio temporal y promedio en el ensamble.
Promedio temporal significa que el mismo dado se lanzará N veces en las
mismas condiciones. Para promediar en el ensamble se toman N dados iguales
y se lanzan todos juntos, una sola vez.
La expresión pi = 1/6 para el dado se utiliza con dos significados distintos.
Se entiende ya sea como una propiedad física o como una propiedad hipotética
del sistema. En los siguientes párrafos se explican ambas posibilidades.

5
6 CAPÍTULO 1. PROBABILIDAD

Respecto al primer significado, para un dado real la expresión (1.1) con-


ducirá en general a pi ∕= 1/6. Por ejemplo, en un dado cargado el centro
de gravedad se ha trasladado hacia el 1, de tal forma que p6 > 1/6. Todo
dado real presentará desviaciones de la simetría de un dado ideal (centro de
gravedad ligeramente trasladado, cantos redondeados de forma ligeramente
distinta, etc.) que pueden conducir a desviaciones de pi = 1/6. La determi-
nación experimental de pi según (1.1) es por lo tanto la medición de una
propiedad física del sistema. Puesto que en la práctica N es finito, dicha
medición ocurre (como cualquier otra) con cierta imprecisión. Esta última se
discutirá en el siguiente capítulo.
Respecto al segundo significado, para un dado construido simétricamente
podemos hacer la suposición sensata de que todos los eventos i son igual-
mente probables, lo que lleva a pi = 1/6. Dicha suposición es razonable y
plausible, por lo menos mientras no haya resultados experimentales (a prio-
ri). La Física Estadística también se construye sobre la base de una hipótesis
a priori. Según ésta, todos los estados accesibles a un sistema aislado son
igualmente probables. Al contrario del dado, la suposición básica de la Física
Estadística no puede ser probada experimentalmente de forma directa. Sólo
sus predicciones pueden ser verificadas o refutadas.
En vez del dado consideremos como ejemplo físico un gas de átomos o
moléculas. La energía cinética ε de un átomo es medida con la precisión ∆ε.
Por lo mismo, podemos asociarle a cada átomo un valor discreto εi = i∆ε,
donde i toma los valores 0, 1, 2, · · · . Debido a los choques entre ellos, los
átomos varían su energía con frecuencia; el tiempo medio entre choques de
moléculas en el aire es τ ≈ 2 × 10−10 s (capítulo 42). Ahora preguntémonos
con qué probabilidad pi se presenta en el gas el valor εi .
Podemos determinar el promedio en el ensamble midiendo la energía de
N átomos (en un instante dado), de los cuales Ni tendrán la energía εi . En
cambio, el promedio temporal se obtiene midiendo N veces la energía de un
solo átomo (en instantes distintos); al número de veces que se obtenga εi
también le llamaremos Ni . En ambos casos las mediciones determinan las
probabilidades según
Ni
pi = p(εi ) = . (1.4)
N
El número N será tan grande (∼ 1024 ) que podremos prescindir del límite
N → ∞. Los intervalos ∆ε se deben escoger de tal forma que Ni ≫ 1.
Dado que no hay átomos marcados, las probabilidades del promedio en
el ensamble y del promedio temporal son iguales, con la condición de que
en el promedio temporal el tiempo transcurrido entre mediciones sea mucho
mayor que el tiempo promedio entre choques τ . Sólo entonces las energías
que llegue a poseer el átomo escogido serán representativas de la totalidad de
7

los átomos. Posteriormente veremos que las probabilidades (1.4) están dadas
"
por pi = exp(−βεi )/ j exp(−βεj ), donde β es una constante.

Adición y multiplicación

A continuación consideramos N sistemas del mismo tipo, cada uno de


ellos en un estado discreto i. La probabilidad de encontrar un sistema dado
en el estado i se define como en (1.1), donde con frecuencia se remplaza la
condición N → ∞ por “N suficientemente grande”. En las ecuaciones (1.2)
y (1.3) debe sumarse sobre todos los estados posibles.
Tratándose del dado se entiende por estado uno de los seis resultados
posibles. En el gas un determinado intervalo de energías. Alternativamente
hablaremos del evento i que se obtiene al lanzar un dado o al medir la energía.
Estudiemos el significado de sumar o multiplicar probabilidades. De la
definición de pi en (1.1) se obtiene inmediatamente

pi + pj = p(i ó j) (los eventos i y j se excluyen) (1.5)

para dos estados o eventos discretos del sistema, i y j, que se excluyan mú-
tuamente. Para tales estados se cumple desde luego N(i ó j) = Ni + Nj .
Hasta ahora sólo hemos considerado estados elementales como el número
de puntos del dado. En estos casos la especificación “mútuamente excluyen-
tes” para i ∕= j se cumple desde el principio. Ejemplos de estados generales
son a =“número par de puntos” y b =“número menor que 4”. Tales estados
no se excluyen mútuamente. Por lo mismo p(a ó b) ya no es igual a pa + pb .
La probabilidad de encontrar dos sistemas, el primero en el estado i y el
segundo en el j, es

pij = pi pj (los eventos i y j son independientes). (1.6)

Para el dado ésta es la probabilidad de obtener primero i puntos y después j,


o bien, la de obtener i y j puntos al lanzar dos dados distintos. Suponiendo
desde luego que el primer lanzamiento no influye sobre el segundo, o que
ambos dados no tienen influencia entre ellos.
Para argumentar (1.6) partamos de N primeros y M segundos sistemas,
de los cuales Ni se encuentran en el estado i y Mj en el j, respectivamen-
te. Supongamos las mismas probabilidades, es decir, pi = lı́m (Ni /N ) =
N →∞
lı́m (Mi /M ). Hay N M pares de sistemas, de los cuales Ni Mj se encuentran
M →∞
en el estado ij. Por lo tanto, la probabilidad de encontrar el estado ij es
Ni M j Ni Mj
pij = lı́m = lı́m lı́m = pi pj . (1.7)
N,M →∞ NM N →∞ N M →∞ M
8 CAPÍTULO 1. PROBABILIDAD

Valor medio y fluctuación

Para N sistemas en los estados discretos i la suma en


!
pi = 1 (1.8)
i

corre sobre todos los estados posibles. Consideremos ahora una cantidad
arbitraria x del sistema que adquiere el valor xi en el estado i. Dos ejemplos
son el número de puntos en un dado (xi = i) y la energía de un átomo
(xi = εi ). Definimos el valor medio como
!
x= pi xi valor medio. (1.9)
i

Evidentemente, x proporciona el valor promedio de x en los N sistemas (en


el límite N → ∞). La definición (1.9) puede extenderse inmediatamente a
una función: ! !
f (x) = pi f i = pi f (xi ) (1.10)
i i
Los valores reales xi que adquiere la variable difieren de x. Sin embargo, el
promedio de dichas diferencias se anula:
! ! !
x−x= pi (xi − x) = pi xi − x pi = x − x = 0. (1.11)
i i i

Esto se debe a que desviaciones positivas y negativas se suprimen. Una me-


dida de la desviación del valor medio es la desviación cuadrática media o
fluctuación ∆x definida como
#
∆x = (x − x)2 fluctuación. (1.12)

Se puede expresar a ∆x en términos de x2 y x2


! ! ! !
(∆x)2 = pi (xi − x)2 = pi x2i − 2x pi xi + x2 pi
i i i i
= x2 − x2 . (1.13)

De (∆x)2 ≥ 0 se tiene
x2 ≥ x2 . (1.14)
Como un ejemplo sencillo consideremos para un dado ideal la variable de
estado x =número de puntos, es decir, xi = i. Su valor medio es
6
! 1 7
x= pi i = (1 + 2 + 3 + 4 + 5 + 6) = . (1.15)
i=1 6 2
9

De
6
! 1 91
x2 = p i i2 = (1 + 4 + 9 + 16 + 25 + 36) = (1.16)
i=1 6 6
se tiene
35
(∆x)2 = x2 − x2 = , (1.17)
6
es decir, tenemos una fluctuación ∆x ≈ 1.7.

La física de los dados

Implícitamente hemos supuesto que el resultado de lanzar un dado es


aleatorio, es decir, que no puede ser predicho. Discutamos este punto en
relación con las ecuaciones deterministas que describen el movimiento del
dado.
Imaginémonos una máquina de lanzar dados, en la que varios dados se
encuentran en posiciones definidas, en la que sobre los dados actuan fuerzas
conocidas dependientes del tiempo. Después de cierto tiempo las fuerzas ce-
san y los dados vuelven al reposo. Tal descripción se ajusta particularmente
a las máquinas de la lotería que aparecen en televisión. El movimiento de
las pelotitas (los dados) se determina a través de las ecuaciones de la me-
cánica clásica, en las cuales se incluyen las fuerzas conocidas dependientes
del tiempo (por este motivo hemos prescindido de una persona para lanzar
los dados). Para condiciones iniciales dadas dichas ecuaciones determinan el
estado del sistema en cualquier instante posterior. Entonces, ¿por qué no se
puede predecir el resultado de la lotería?.
Una característica de estos sistemas es que variaciones muy pequeñas
en el estado inicial pueden volverse grandes rápidamente. Si por ejemplo
el parámetro de impacto variara un poco, el ángulo de dispersión también
cambiaría ligeramente. Sin embargo, en el trayecto hacia el próximo choque
esa pequeña variación puede conducir a un cambio sustancialmente mayor del
parámetro de impacto (figura 1.1). En resumidas cuentas, después de varios
choques dos estados cercanos se convertirán en dos estados completamente
diferentes. Ahora, las condiciones iniciales no pueden definirse con precisión
arbitraria en la máquina de la lotería. La región acotada por la precisión
posible contiene una gran cantidad de condiciones iniciales muy cercanas
unas de otras que, con las ecuaciones de movimiento deterministas, conducen
a todos los resultados posibles.
Debido al comportamiento caótico (estados vecinos divergen rápidamen-
te) otras pequeñas perturbaciones o incertidumbres (aparte de las que se
tienen al definir las condiciones iniciales) bastan para volver impredecible el
10 CAPÍTULO 1. PROBABILIDAD

Figura 1.1: Los círculos representan bolas de billar, pelotitas de la lotería o


átomos de un gas. Se muestran los siguientes dos choques de la pelota supe-
rior izquierda. La figura ilustra como pequeñas diferencias en las condiciones
iniciales pueden volverse grandes muy rápido y entonces conducir a trayec-
torias muy distintas. El movimiento puede predecirse para algunos choques
(billar), pero no para muchos (lotería, gas).

resultado. Las perturbaciones pueden ser incertidumbre de las fuerzas exter-


nas (como fluctuaciones en el voltaje de la corriente eléctrica), el estornudo
de una persona en el estudio de televisión, fluctuaciones térmicas, incerti-
dumbres mecánico-cuánticas, etc. Pero se hace hincapié en que para el com-
portamiento aleatorio de la máquina de la lotería no son indispensables ni
la temperatura finita, ni la incertidumbre mecánico-cuántica. En principio,
también pueden lanzarse dados a temperatura T = 0 K y en un mundo
ficticio donde ! = 0.
El comportamiento caótico de las pelotitas de la lotería puede ser com-
parado con el comportamiento de los átomos de un gas clásico. Un estado
inicial (análogo a las posiciones iniciales de las pelotitas de la lotería) tam-
bién se volvería caótico rápidamente. Aquí no hacen falta fuerzas externas
para revolver los átomos, basta con su energía cinética.

Ejercicios

1.1: Dos personas leen un libro. Una encuentra 200 errores de impresión,
la otra 150. Si 100 de ellos coinciden, estime el número de errores que
permanecieron ocultos.

1.2: ¿Cuál es la probabilidad de que en un grupo de 10 estudiantes al menos


dos de ellos cumplan años el mismo día? ¿De qué tamaño debe ser el
grupo para que dicha probabilidad sea 1/2?

1.3: La variable aleatoria x se mide N veces obteniendo los valores x1 , x2 ,


11

· · · , xN . Con ellos pueden calcularse las cantidades (N ≥ 2)

1 !N
1 ! N
x0 = xk y s2 = (xk − x0 )2 .
N k=1 N − 1 k=1

Muestre que x0 = x y s = ∆x para N → ∞. Demuestre que

x0 = x y s2 = (∆x)2

para N finito. Esto fundamenta las aproximaciones x ≈ x0 y ∆x ≈ s.


Nota: Las mediciones son independientes entre sí, por lo que xk xℓ =
xk xℓ = x2 para k ∕= ℓ.
12 CAPÍTULO 1. PROBABILIDAD
Capítulo 2

Ley de los grandes números

Un mecanismo que conduce a distribuciones aleatorias es el camino alea-


torio unidimensional. Con su ayuda es posible derivar fácilmente las propie-
dades que nos interesan de las distribuciones de probabilidad. En especial, la
ley de los grandes números (este capítulo) y la distribución normal (capítulos
3 y 4).

Camino aleatorio
En el caso unidimensional un camino aleatorio está compuesto de N pasos
sobre una línea recta. A esta la denotamos como eje-x. El camino aleatorio
inicia en x = 0. Un paso consiste de un salto en x = +1 ó −1. El salto en
+1 ocurre con probabilidad p, y en −1 con probabilidad q. Se cumple que

p + q = 1. (2.1)

Los pasos son independientes entre sí. El número de saltos positivos es n+ y


el de negativos n− . Juntos dan el número total de saltos

n+ + n− = N. (2.2)

Después de N pasos calculamos las siguientes cantidades:

1. La probabilidad PN (m) de llegar a x = m = n+ − n− . Esta es igual a


la probabilidad WN (n) de que ocurran n = n+ pasos positivos,

PN (m) = WN (n) (m = n+ − n− , n = n+ ). (2.3)

2. Los valores medios m y n.

3. La magnitud de las fluctuaciones ∆m y ∆n.

13
14 CAPÍTULO 2. LEY DE LOS GRANDES NÚMEROS

Figura 2.1: En un campo magnético externo B el spin de las partículas se


orienta paralelo a B con una probabilidad p y antiparalelo con probabilidad
q = 1 − p. ¿Con qué probabilidad WN (n) se orientan n de los N spines
paralelos al campo magnético?

4. La distribución continua para grandes valores de N (capítulo 3).

A continuación se dan algunos ejemplos de aplicación del camino aleato-


rio:

Supongamos un cristal que tiene en cada nodo de su red un electrón no


apareado cuyo spin (y con él su momento magnético µB ) se orienta inde-
pendientemente de los otros electrones (figura 2.1). En un campo mag-
nético externo B = Bez la componente z del spin mecánico-cuántico
puede tomar los valores +!/2 y −!/2. Como veremos posteriormente,
ambas posibilidades ocurren con probabilidades

p = C exp (+µB B/kB T ) y q = C exp (−µB B/kB T ) . (2.4)

La constante C se fija con p + q = 1. T representa a la temperatura


absoluta, kB a la constante de Boltzmann y µB al magnetón de Bohr.
En este ejemplo PN (m) proporciona la probabilidad de que los spines
paralelos a B sobrepasen en m a los antiparalelos. El momento magné-
tico medio de los N electrones es mµB = N (p−q)µB . Los valores reales
del momento magnético diferirán del valor medio en una cantidad del
orden de ∆mµB .

Los N átomos de un gas se mueven estadísticamente en un volumen


V , es decir, cada átomo ocupa cualquier posición con la misma proba-
bilidad. Imaginemos a V dividido en dos partes; pV y qV (figura 2.2).
WN (n) proporciona la probabilidad de que n átomos se encuentren en
la parte izquierda, en donde en promedio se encontrarán n = N p áto-
mos. En un sistema físico real los átomos del gas van constantemente
de una parte a la otra. Los valores reales del número n de átomos en
la parte izquierda dependen del tiempo y fluctúan alrededor del valor
medio n. El tamaño de la fluctuación está dado por ∆n.
15

Figura 2.2: El volumen V lleno de gas se divide en dos partes; pV y qV .


Un átomo determinado del gas (ideal) se encuentra con probabilidad p en la
parte izquierda y con probabilidad q en la derecha. ¿Con qué probabilidad
WN (n) se encuentran n de los N átomos en la parte izquierda?

El camino aleatorio unidimensional es equivalente a todos los problemas


del tipo “con probabilidad p es posible encontrar en N objetos una
propiedad determinada”. Entonces, n es el número medio de objetos
con dicha propiedad, y ∆n la fluctuación correspondiente. Un ejemplo
estándar es el lanzamiento de dados. Por ejemplo, se puede preguntar
con qué frecuencia se obtiene el 1 al lanzar N veces un dado (o al
lanzar una vez N dados). Para un dado ideal se tiene p = 1/6. De
N = 1000 lanzamientos se espera tener n = N p ≈ 167 veces el 1. En el
experimento sin embargo se obtienen resultados diferentes, por ejemplo
n1 = n = 159 ó n1 = 180. Los valores más probables para la desviación
|n1 − n| son del orden de ∆n.
Un problema emparentado con el camino aleatorio es el movimiento de
un átomo o molécula en un gas. Entre dos choques la partícula recorre la
distancia d; las direcciones de d están distribuidas aleatoriamente y sus mag-
nitudes d = |d| se distribuyen alrededor de un valor medio d. Este último
es la longitud de camino libre medio que, por ejemplo, en aire tiene el valor
d ∼ 10−7 m (capítulo 42). Entonces, ¿dónde se encuentra la partícula des-
pués de N choques? La respuesta es la distribución de probabilidades de un
camino aleatorio tridimensional con longitud de paso variable.
El movimiento browniano de partículas pequeñas sobre la superficie de un
líquido es un camino aleatorio bidimensional con longitud de paso variable.

Distribución de probabilidad
Dado que los pasos de un camino aleatorio son independientes entre sí, las
probabilidades correspondientes deben ser multiplicadas. Por ejemplo, para
16 CAPÍTULO 2. LEY DE LOS GRANDES NÚMEROS

el camino (+1, −1, −1, +1, +1) la probabilidad es

pqqpp = p3 q 2 .

Hay varios caminos que igualmente conducen a m = 1, ó n = n+ = 3,


como por ejemplo (−1, −1, +1, +1, +1). Los diversos caminos que conducen a
m = 1 se excluyen mútuamente, por lo que se deben sumar las probabilidades
correspondientes. Hay 5! formas de ordenar 5 cosas, pero si 3 de ellas son
idénticas sus 3! permutaciones no pueden diferenciarse. En nuestro caso hay
por lo tanto 5!/(3!2!) = 10 caminos distintos que llevan a m = 1, cada uno
de los cuales ocurre con probabilidad p3 q 2 . La probabilidad de llegar a m = 1
en 5 pasos, sin importar el camino, es entonces
5! 3 2
P5 (1) = W5 (3) = pq . (2.5)
3!2!
Esta también es la probabilidad de que 3 de 5 pasos vayan en la dirección
positiva.
Repitamos los mismos argumentos para un camino aleatorio de N =
n+ + n− pasos. Cada camino con n+ pasos positivos y n− negativos ocurre
con probabilidad pn+ q n− . Hay
$ %
N! N! N
= = (n = n+ ) (2.6)
n+ !n− ! n! (N − n)! n

caminos distintos, es decir, el número de formas en que se pueden colocar


n+ objetos idénticos y n− objetos también idénticos (pero distintos a los
primeros) en un orden determinado. Con esto se tiene
$ %
N n N −n
PN (m) = WN (n) = p q . (2.7)
n

Usando
N +m
n= (2.8)
2
podemos escribir el resultado como función explícita de m. En la figura 2.3
se muestra WN (n) para un ejemplo.
En (2.7) n puede tomar los valores 0, 1, 2, · · · , N y m los valores −N, −N +
2, · · · , N . WN (n) y PN (m) se anulan para cualquier otro valor; por ejemplo
P5 (0) = 0. La suma de todas las probabilidades WN (n) da 1;
N N
$ %
! ! N n N −n
WN (n) = p q = (p + q)N = 1. (2.9)
n=0 n=0 n
17

Figura 2.3: Un camino aleatorio unidimensional de 30 pasos contiene con


probabilidad W30 (n) un número n de pasos positivos. Para p = q = 1/2 se
muestra la distribución W30 (n).

En relación con esta ecuación también podemos derivar a WN (n) de la si-


guiente forma. En

1 = (p + q) (p + q) · . . . · (p + q) (2.10)
& '( )
N factores

cada factor representa uno de los N pasos del camino aleatorio, los que pueden
ocurrir con probabilidad p hacia la derecha o con probabilidad q hacia la
izquierda. Al realizar el producto (sin cambiar el orden de los factores p y
q) se obtienen 2N sumandos, cada uno de los cuales representa un camino
distinto. Ahora se ordenan los factores y se asocian todos los términos con
pn q N −n . Del álgebra elemental se sabe que el término con pn q N −n aparecerá
N !/(n!(N − n)!) veces, es decir,
N
$ % N
! N n N −n !
(p + q) =
N
p q = WN (n). (2.11)
n=0 n n=0

El término con pn q N −n nos proporciona WN (n). Debido a esta conexión se


conoce a WN (n) como distribución binomial.

Valor medio y fluctuación


Calculemos el valor medio y la fluctuación para un camino aleatorio de
N pasos. Las probabilidades pi del primer capítulo se convierten aquí en
pn = WN (n). Los estados posibles del sistema, es decir, las posibles posiciones
al final del camino aleatorio están dadas por los valores n = 0, 1, 2, · · · , N .
18 CAPÍTULO 2. LEY DE LOS GRANDES NÚMEROS

Con esto, el valor medio para n = n+ es


N N
$ %
! !
N n N −n
n= nWN (n) = n p q . (2.12)
n=0 n=0 n

Lo podemos escribir en la forma


N
$ %
∂ ! N n N −n
n = p f (p, q, N ) con f (p, q, N ) = p q . (2.13)
∂p n=0 n

Con f (p, q, N ) = (p + q)N obtenemos



n=p (p + q)N = pN (p + q)N −1 = N p. (2.14)
∂p
Este resultado es evidente. Observe que (p + q) = 1, pero que esto no debe
ser considerado explícitamente en f (p, q, N ) = (p + q)N , pues para (2.13) es
determinante la forma en que la función f (p, q, N ) depende de sus variables.
De forma análoga obtenemos

n− = N − n+ = N − n = N q (2.15)

y
x = m = n+ − n− = N (p − q) . (2.16)
Calculemos ahora n2 :
N
$ % N
$ %
! N n N −n ∂ ∂ ! N n N −n
2
n2 = n p q =p p p q
n=0 n ∂p ∂p n=0 n
∂ ∂ ∂
= p p (p + q)N = p N p (p + q)N −1
∂p ∂p ∂p
= pN + p N (N − 1) = N pq + n2 .
2
(2.17)

De aquí obtenemos *
(1.13)
*
∆n = n2 − n2 = N pq. (2.18)
De forma análoga se tiene
*
∆m = 2 N pq. (2.19)

Para la anchura relativa de la distribución WN (n) se tiene de (2.18) y (2.14)


+
∆n q 1
= → 0 Ley de los grandes números. (2.20)
N →∞

n p N
19

Para grandes valores de N la distribución WN (n) se convierte en una distri-


bución aguda localizada en n. Este comportamiento se conoce como ley de los
grandes números. En el capítulo 4 mostraremos que este resultado también
es válido bajo condiciones sustancialmente más generales. Ahora aclaramos
el significado de (2.20) con ayuda de dos ejemplos:

Supongamos que en la caja con gas de la figura 2.2 hay N = 1024 átomos
y que ambas partes son del mismo tamaño; p = q = 1/2. En promedio
habrá n = N p = N/2 átomos en la parte izquierda. El número real n sin
embargo se desvía de n en una cantidad del orden de ∆n = (N pq)1/2 =
0.5 × 1012 . Esta es una fluctuación relativa extremadamente pequeña;
∆n/n = 10−12 .
Si hubiera desviaciones del valor medio mayores (digamos de un 10 %)
se podría construir un perpetuum mobile de 2◦ tipo. En el momento
en que ocurriera una de estas desviaciones se introduciría de lado (sin
realizar trabajo) una pared entre ambos volúmenes. La mayor densidad
numérica en pV implicaría una mayor presión. Debido a esto el gas
podría realizar trabajo, enfriándose simultáneamente. El calor perdido,
que sería igual al trabajo realizado, podría ser recuperado del medio
ambiente. De esta forma se habría ganado trabajo (por ejemplo energía
eléctrica) enfriando el medio ambiente.
La imposibilidad de un perpetuum mobile de 2◦ tipo como el descri-
to se obtiene de la ley de los grandes números. De acuerdo con ella
las fluctuaciones que pueden ocurrir son tan pequeñas que no pueden
ser usadas para realizar trabajo. La generalización de este resultado
conduce a la 2a ley de la termodinámica.

Ahora utilizamos (2.20) para estimar el error de la medición de p1 al


lanzar N veces un dado. Usando p = p1 y q = 1 − p = p2 + p3 +
p4 + p5 + p6 podemos implementar inmediatamente las fórmulas del
camino aleatorio. Supongamos que hacemos un experimento concreto
con N ≫ 1 lanzamientos, de los cuales n = n1 llevan al resultado 1. Con
ello estimamos el valor experimental p1 exp y el error en su medición;
√ √
n1 ± ∆n1 n1 N pq n1 5 1
p1 exp = = ± ≈ ± √ . (2.21)
N N N N 6 N
En el siguiente capítulo se dará una argumentación más precisa sobre el
uso de ∆n1 /n1 = ∆n/n como estimación del error experimental. Como
el error es pequeño, es suficiente con usar los valores hipotéticos p = 1/6
y q = 5/6. Supongamos que el experimento consiste en lanzar un dado
20 CAPÍTULO 2. LEY DE LOS GRANDES NÚMEROS

103 veces; al hacerlo se obtiene 175 veces el 1. Otro experimento con


105 lanzamientos muestra 17500 veces el 1. De (2.21) obtenemos
,
0.012 (N = 103 )
p1 exp = 0.175 ± (2.22)
0.001 (N = 105 )

El primer experimento con 1000 lanzamientos es compatible con la su-


posición de que se trata de un dado “honesto”, es decir, realmente con
el valor p = 1/6 ≈ 0.167. Esto sin embargo es extremadamente im-
probable para el dado del segundo experimento (podría ser el mismo).
Las afirmaciones “compatible” y “extremadamente improbable” serán
cuantificadas en el siguiente capítulo.

Ejercicios

2.1: ¿Cuál es la probabilidad de tener tres números correctos en un sorteo


6 de 49? ¿Por qué dicha probabilidad no es igual a W6 (3) con p = 6/49
y q = 43/49?
Capítulo 3

Distribución normal

En el capítulo anterior se dió la distribución de probabilidad WN (n) de


que un camino aleatorio de N pasos contenga exáctamente n pasos positivos.
Bajo ciertas condiciones la distribución WN (n) puede ser aproximada con
una función Gaußiana cerca del valor medio n. A dicha función Gaußiana
se le conoce como distribución normal.
Funciones del tipo f (n) = pn ó f (n) = n! ≈ (n/e)n dependen de for-
ma extremadamente sensitiva de n, pues n aparece en el exponente. Por lo
mismo, un desarrollo en potencias de n − n sólo converge en un rango muy
pequeño. Sin embargo, el rango de convergencia puede ser sustancialmente
aumentado si se desarrolla ln f (n) en vez de f (n), pues ln f (n) varía mucho
más débilmente con n. Lo mostraremos usando como ejemplo el desarrollo
en serie de Taylor de f (n) = pn = exp(n ln p);
f (n) = f (n) + f ′ (n)(n − n) + . . . ≈ pn + (ln p) pn (n − n) . (3.1)
Como aproximación cortamos la serie en el término lineal. Comparemos la
aproximación con el valor exacto para n = n + 1:
,
p (exacto)
f (n + 1) = p n+1
=p n
(3.2)
1 + ln p (aproximación (3.1))
La igualdad se cumple trivialmente para p = 1, pues en ese caso f (n) no
depende de n. Para valores pequeños de p sin embargo la aproximación resulta
arbitrariamente mala. En comparación, la serie de Taylor para ln f (n) =
n ln p se corta en el primer término y proporciona el valor exacto:
ln f (n) = n ln p = n ln p + (n − n) ln p. (3.3)
Este ejemplo muestra que cuando una función f (x) depende muy intensamen-
te de x (en particular cuando la dependencia en x es exponencial), entonces
conviene desarrollar el logaritmo de la función, en vez de la función misma.

21
22 CAPÍTULO 3. DISTRIBUCIÓN NORMAL

Ahora deseamos desarrollar WN (n) en potencias de (n − n). La función


WN (n) contiene términos de la forma pn y n! que dependen muy intensamente
de n. Por esto partimos del logaritmo de WN (n):

ln WN (n) = ln N ! − ln n! − ln (N − n)! + n ln p + (N − n) ln q. (3.4)

Para la serie de Taylor de esta función necesitamos sus derivadas evaluadas


en n. La derivada de n! la aproximaremos con el cociente de diferencias con
dn = 1;
d ln n! ln(n + 1)! − ln n!
≈ = ln(n + 1) ≈ ln n (n ≫ 1). (3.5)
dn 1
Este resultado también se obtiene de la aproximación n! ≈ (n/e )n que será
derivada en el ejercicio 3.1. Calculemos
d ln WN (n)
= − ln n + ln(N − n) + ln p − ln q = 0. (3.6)
n=n
dn
Aquí se usó (3.5) para ln n! y para ln(N − n)!, para lo que debe cumplirse
simultáneamente que n = N p ≫ 1 y N − n = N q ≫ 1. A esta condición la
podemos resumir como

N pq ≫ 1 (condición). (3.7)

En el último paso de (3.6) se utilizó n = N p y N − n = N q. La anulación de


la primera derivada significa que ln WN (n), y por lo tanto también WN (n),
tiene un punto estacionario en n = n. La segunda derivada conduce a
d2 ln WN (n) 1 1 n=n 1 1
=− − = − =− < 0. (3.8)
dn 2 n N −n N pq (∆n)2
Dado que la segunda derivada es menor que 0 se tiene que ln WN (n), y por
lo tanto también WN (n), alcanza un máximo en n. Para las estimaciones del
error que haremos posteriormente calculamos también la tercera derivada;
d3 ln WN (n) 1 1 2
n=n q − p
2
= − = . (3.9)
dn3 n2 (N − n)2 N 2 p2 q 2

La serie de Taylor de ln WN (n) queda


$ %
d ln WN (n)
ln WN (n) = ln WN (n) + (n − n) (3.10)
dn n
$ % $ %
1 d2 ln WN (n) 12 d3 ln WN (n)
+ (n − n) + (n − n)3 + . . . .
2 dn2 n
6 dn3 n
23

Despreciando el último término tenemos


1 (n − n)2 (n − n)2
ln WN (n) ≈ ln WN (n) − = ln WN (n) − , (3.11)
2 N pq 2∆n2
ó $ %
(n − n)2
WN (n) = WN (n) exp − . (3.12)
2∆n2
Aquí se utilizó la notación ∆n2 = (∆n)2 ( y no ∆ (n2 ), como podría pensarse),
la que utilizaremos de aquí en adelante.
Calculemos el coeficiente WN (n). En el rango relevante n ∼ n el cambio
relativo de WN (n) entre n y n±1 es pequeño, lo que se obtiene de la condición
(3.7). Por lo mismo, podemos sustituir la suma sobre n por una integral;
N
! - N - +∞
1 = WN (n) ≈ dxWN (x) ≈ dxWN (x)
n=0 0 −∞
$ %
- +∞ (x − n)2 √
= WN (n) dx exp − = WN (n) 2π∆n. (3.13)
−∞ 2∆n2
En los límites de integración 0 y N el integrando es del orden exp(−N ),
por lo que podemos trasladar dichos límitites a ±∞. Con (3.13) la ecuación
(3.12) se convierte en
$ %
1 (n − n)2
WN (n) = √ exp − . (3.14)
2π∆n 2∆n2
Ahora sustituimos la longitud 1 del paso del camino aleatorio sobre el eje-
x con una longitud arbitraria ℓ. Entonces tendremos
x = nℓ, x = nℓ y σ ≡ ∆x = ∆nℓ. (3.15)
Definimos la densidad de probabilidad P (x) sobre el eje-x según
,
la probabilidad de encontrar a la
P (x)dx = (3.16)
variable aleatoria entre x y x + dx.
Para un intervalo dx que contenga dx/ℓ ≫ 1 valores discretos de n se cumple
! dx
P (x)dx = WN (n′ ) ≈ WN (n). (3.17)
n′ en dx

Con esto se obtiene de (3.14) y (3.15) la distribución normal:
$ %
1 (x − x)2
P (x) = √ exp − distribución normal. (3.18)
2πσ 2σ 2
24 CAPÍTULO 3. DISTRIBUCIÓN NORMAL

Figura 3.1: La distribución normal (3.18) es una función Gaußiana. El decre-


mento a partir del máximo en x está caracterizado por P (x ± σ) ≈ 0.6P (x).

La distribución normal se muestra en la figura 3.1. Ella es válida bajo condi-


ciones muy generales (capítulo 4). La cantidad σ = ∆x se llama desviación
estándar; ella da la anchura de la distribución. La longitud de paso ℓ introdu-
cida en (3.15) puede tener una dimensión física. En tal caso x, x y σ tendrán
la misma dimensión.
En el camino aleatorio x se limita a los valores discretos x = nℓ. Ahora
nos desentenderemos de esa limitación y trataremos a P (x) como una función
continua de la variable x. La suma sobre los valores discretos se convertirá
en una integral. La distribución normal (3.18) ya está normalizada;
- +∞
dxP (x) = 1. (3.19)
−∞

De (3.16) esto significa que la probabilidad de que ocurra cualquier valor de


x es 1. Ahora calculemos las probabilidades de que un valor de x ocurra en
un rango de una, dos o tres desviaciones estándar alrededor de x:
.
- x+νσ 0.683 ν = 1
/
0
dxP (x) = 0.954 ν = 2 . (3.20)
/
x−νσ 1
0.997 ν = 3

Esto significa que un evento fuera de tres desviaciones estándar es extrema-


damente improbable. Consideremos el experimento con el dado del capítulo
anterior con el resultado (2.22). En (2.22) se dió una desviación estándar
σ = ∆n como error experimental. En el primer experimento con N = 103
lanzamientos el resultado se encontraba a menos de una desviación estándar
del valor p1 = 1/6 de un dado ideal. Según (3.20) fluctuaciones de una o
25

más desviaciones estándar ocurren con una probabilidad de aproximadamen-


te 30 %. Por lo tanto, este experimento es compatible con la suposición de
que se trata de un dado ideal. En el segundo experimento con N = 105 el
resultado se encuentra a más de 10 desviaciones estándar de p1 = 1/6. En
este caso se puede estar (prácticamente) seguro de que no se trata de un dado
“honesto”.
En este capítulo partimos de la distribución de probabilidades WN (n)
para los eventos positivos n = n+ . Por lo tanto, P (x) es la distribución de
probabilidades para un camino aleatorio en el que sólo los pasos positivos,
x = nℓ, se consideran. Si tomamos en cuenta los pasos negativos el camino
aleatorio termina en x = (n+ − n− ) ℓ. En ambos casos el resultado viene
dado por (3.18), aunque los parámetros deben escogerse según corresponda:
*
x = N pℓ y σ = N pq ℓ para x = nℓ = n+ ℓ, (3.21)

ó
*
x = N (p − q) ℓ y σ = 2 N pq ℓ para x = (n+ − n− ) ℓ. (3.22)

Los valores medios provienen de (2.14) y (2.16), las fluctuaciones de (2.18) y


(2.19).

Validez de la distribución normal

En la derivación los términos de mayor orden en la serie de Taylor fueron


despreciados en (3.11). La condición es que el término de 3er orden, que fue
despreciado, sea muy pequeño comparado con el de 2◦ orden;
2 2
2 (ln W )′′′ (n − n)3 2 |n − n|
2 2
2 2 ≲ ≪ 1. (3.23)
2 (ln W )′′ (n − n)2 2 N pq

La misma condición se obtiene para el término de orden (i + 1) respecto


del término de orden i. Mientras se cumpla (3.23) el corte de la serie de
Taylor está justificado y la distribución normal es una aproximación válida.
Particularmente interesantes son los valores de n que sólo se desvían de n en
a lo más algunas desviaciones estándar σ = ∆n:
*
|n − n| = ν∆n = ν N pq, ν = O(1). (3.24)

En este caso se cumple (3.23) mientras N pq ≫ 1. En el rango de mayor rele-


vancia se tiene entonces que la distribución normal es válida bajo la condición
(3.7). El error va a 0 cuando N pq → ∞.
26 CAPÍTULO 3. DISTRIBUCIÓN NORMAL

La derivación no es válida para desviaciones muy grandes del valor medio,


en particular para n ≈ 0 y n ≈ N . En estos casos el error relativo de la
distribución (3.14) puede llegar a ser muy grande. En ese rango, sin embargo,
tanto el valor aproximado como el exacto son extremadamente pequeños, de
tal forma que aún aquí la aproximación resulta generalmente satisfactoria.
Nótese que la condición N ≫ 1 no basta por sí sola para validar la
distribución normal, pues para valores muy pequeños de p puede ocurrir que
el valor medio n = N p sea de orden 1 o aún menor, aunque N ≫ 1. En tal
caso se obtiene una distribución de Poisson en vez de la distribución normal
(ejercicio 3.3).

Ejercicios

3.1: La definición general de la función Gamma es


- ∞
Γ(n + 1) = n! = dx xn exp(−x), (3.25)
0

donde n es un número real; para n entero Γ(n + 1) = n!. Encuentre el


máximo de la función f (x) = xn exp(−x) para n > 0. Desarrolle ln f (x)
en serie de Taylor alrededor de dicho máximo y utilice el resultado para
derivar la fórmula de Stirling

n! = 2πn nn exp(−n)[1 + O(n−1 )] (n ≫ 1). (3.26)

Fundamente la aproximación
3 4n
n
ln n! ≈ n ln n − n ó n! ≈ (n ≫ 1). (3.27)
e
Determine WN (n) usando n = N p. Compare el resultado con (3.14).

3.2: En un grupo de N niños (N ≫ 1), cuyos padres fuman mucho, 20 %


padece de miopía. En contraste, en toda la población este porcentaje es
de 15 %. Suponiendo que no existe correlación alguna entre la miopía
y el fumar, ¿cúal es la probabilidad w de que 20 % o más niños sean
miopes? La cantidad 1 − w es una medida de la probabilidad de que
exista una correlación positiva. ¿Qué tamaño debería tener el grupo
para que con una probabilidad de 99 % pueda decirse que existe una
correlación entre la miopía de los niños y el tabaquismo de sus padres?

3.3: Muestre que la distribución binomial (2.7) con

λ = N p = O(1), (N ≫ 1)
27

puede ser aproximada con la distribución de Poisson


λn
WN (n) ≈ exp(−λ), (λ = N p). (3.28)
n!
Encuentre n y ∆n, y muestre que la distribución está normalizada. Si
un libro de 500 páginas contiene 500 errores de impresión distribuidos
al azar, ¿cúal es la probabilidad de que una página no contenga errores
y la de que contenga al menos cuatro?

3.4: La existencia de una trayectoria aleatoria (con p = q = 1/2) formada


por pasos de longitud ±ℓ, ocurriendo cada uno de ellos en intervalos de
duración ∆t, da lugar a una distribución de probabilidades dependiente
del tiempo P (x, t)dx = PN (m)dm. Aquí, x = mℓ es la distancia al
punto de partida x = 0 y N = t/∆t el número de pasos. Muestre que
P (x, t) para N ≫ 1 obedece la ecuación de difusión

∂P (x, t) ∂ 2 P (x, t)
=D (3.29)
∂t ∂x2
y determine la constante de difusión D. Grafique la media del cuadrado
de la distancia al punto de partida, x2 , como función de D y t. Muestre
que la cantidad $ %2
- ∞
∂P
Θ= dx ≥0
−∞ ∂x
decrece monótonamente con el tiempo, es decir, dΘ/dt ≤ 0. Esto sig-
nifica que la difusión descrita por (3.29) es un proceso irreversible.
28 CAPÍTULO 3. DISTRIBUCIÓN NORMAL
Capítulo 4

Teorema de límite central


"
Si la cantidad x = si es la suma de muchas variables aleatorias si ,
entonces la distribución de probabilidad para x es una distribución normal.
Este es el contenido del teorema de límite central que a continuación demos-
traremos.

Un camino aleatorio unidimensional es una suseción de N pasos si sobre


el eje x que conllevan al valor
N
!
x = s1 + s2 + · · · + sN = si , (4.1)
i=1

con la longitud de cada paso dada por

si = +1 ó si = −1, (4.2)

ocurriendo ambas posibilidades con probabilidades p y q, respectivamente.


Como primera generalización de esta definición permitamos longitudes de
paso si variables con probabilidades de ocurrencia dadas por
.
/
0 Probabilidad de que el
wi (si )dsi = i-ésimo paso tenga una . (4.3)
/
1
longitud entre si y si + dsi

La denominación longitud de paso para las variables aleatorias si tiene que


ver con su interpretación como camino aleatorio. Sin embargo, las variables si
pueden representar cualquier cantidad aleatoria, como por ejemplo la energía
de los átomos en un gas.
Supondremos que las distribuciones wi (s) están normalizadas,
- ∞
ds wi (s) = 1, (4.4)
−∞

29
30 CAPÍTULO 4. TEOREMA DE LÍMITE CENTRAL

Figura 4.1: En un camino aleatorio el i-ésimo paso ocurre con probabilidad


p hacia la derecha, y con probabilidad q = 1 − p hacia la izquierda. Esto
corresponde a la distribución de probabilidad w(si ) mostrada en la parte
izquierda de la figura. En este capítulo permitiremos distribuciones generales
w(si ) para cada paso, como la mostrada a la derecha de la figura.

y poseen el valor medio - ∞


si = ds s wi (s) (4.5)
−∞
con una desviación finita -

(∆si )2 = ds (s − s)2 wi (s) = s2i − si 2 . (4.6)
−∞

Lo último prohibe por ejemplo la distribución w(s) ∝ (a2 + s2 ) . Una dis-


−1

tribución permitida es en contraste wi (s) ∝ sn exp (−βi s2 ) con n ≥ 0. Al caso


particular de camino aleatorio (4.2) hasta ahora considerado le corresponde
una densidad de probabilidad
wi (s) = w(s) = pδ(s − 1) + qδ(s + 1). (4.7)
Este caso particular y su generalización aquí considerada se ilustran en la
figura 4.1.
Suponiendo que las distribuciones wi sean independientes tenemos
.
/
0 Probabilidad de que las variables
w1 (s1 )ds1 · · · wN (sN )dsN = aleatorias se encuentren en los , (4.8)
/
1
rangos entre si y si + dsi
de donde el valor medio de x puede calcularse directamente de (4.1):
- ∞ - ∞
x = ds1 w1 (s1 ) · · · dsN wN (sN ) (s1 + s2 + · · · + sN )
−∞ −∞
- ∞ - ∞
= ds2 w2 (s2 ) · · · dsN wN (sN ) (s1 + s2 + · · · + sN )
−∞ −∞
N
!
= si . (4.9)
i=1
31

La desviación (∆x)2 = (x − x)2 sigue de

- - $ N
%2
2
∞ ∞ !
(∆x) = ds1 w1 (s1 ) · · · dsN wN (sN ) (si − si )
−∞ −∞ i=1
5 7
- ∞ !N N
!
= ds1 · · · dsN · · · 6 (si − si ) (sj − sj )8
−∞ i=1 j=1
5 7
- ∞ !N N
!
= ds1 · · · dsN · · · 6 (si − si ) 2 + (si − si ) (sj − sj )8
−∞ i=1 i∕=j
- ∞ - ∞ N
!
= ds1 w1 (s1 ) · · · dsN wN (sN ) (si − si )2
−∞ −∞ i=1
N
!
= (∆si )2 , (4.10)
i=1

con lo que el ancho relativo de la distribución queda


* $ %
"
∆x (∆si )2 1 (Ley de los
= " =O √ . (4.11)
x si N grandes números)
9 : "
La estimación O N −1/2 viene de i · · · = O(N ). La derivación de la ley de
los grandes números se hizo aquí bajo condiciones mucho más generales que
en el segundo capítulo.
En el caso particular de distribuciones iguales wi (s) = w(s) se tiene
- ∞
si = s = ds s w(s) (4.12)
−∞
- ∞
(∆si )2 = (∆s)2 = ds (s − s)2 w(s), (4.13)
−∞

con x = N s y ∆x2 = N ∆s2 . La ecuación (4.11) queda

∆x ∆s 1
= √ Ley de los grandes números. (4.14)
x s N

Ahora damos dos ejemplos para este caso:

Consideremos N = 1024 átomos en un gas. El i-ésimo átomo tiene con


probabilidad wi (εi ) ∝ exp (−εi /kB T ) la energía εi , donde kB es la cons-
tante de Boltzmann y T la temperatura absoluta. Tanto el valor medio
ε como la desviación ∆ε de esta distribución son de orden O(kB T ).
32 CAPÍTULO 4. TEOREMA DE LÍMITE CENTRAL

La energía de una sola partícula está por lo tanto indeterminada en


términos relativos,
∆ε
= O(1). (4.15)
ε
"
La energía total E = εi está en contraste definida con gran precisión:
∆E ∆ε 1 9 :
= √ = O 10−12 . (4.16)
E ε N
Aquí, la ley de los grandes números nos dice que fijar la temperatura
(sistema en contacto con un baño térmico) equivale en la práctica a
fijar la energía (sistema aislado).

El elemento vibrante de un reloj (en concreto la agitación externa o el


cristal de cuarzo) posee el periodo t con una imprecisión del 1 %;
∆t
= 10−2 . (4.17)
t
Supongamos que se trata de una vibración forzada en la región de
resonancia; el rango de frecuencias, y por lo tanto ∆t/t, dependen del
oscilador. La frecuencia propia ω0 del oscilador determina el valor medio
t ≈ 2π/ω0 .
Cada oscilación tiene un periodo de magnitud ti con una distribución
w(ti ) no especificada, pero que satisface (4.17). Supongamos que el reloj
"
marca la hora T = ti . La imprecisión ∆T aumenta con el número
N de oscilaciones como ∆tN 1/2 . Entonces, la imprecisión relativa del
reloj debido a las fluctuaciones estadísticas de las oscilaciones decrece
con N ,
∆T ∆t 1
= √ . (4.18)
T t N
En un reloj de pulsera el cristal de cuarzo vibra unas 104 veces más
rápido que la agitación normal debido al movimiento de un elemento
mecánico; para un intervalo dado la variable N en (4.18) será 104 veces
mayor. De esta forma, la ley de los grandes números explica por qué
un reloj de cuarzo es mucho más preciso que uno mecánico.
La cantidad ∆T es el error esperado debido a fluctuaciones estadísti-
cas de las oscilaciones. En la práctica, cualquier reloj tendrá un error
mayor, debido a otro tipo de efectos. Por ejemplo, la frecuencia pro-
pia del oscilador (agitación o cuarzo) es en general una función de la
temperatura, lo que conduce a errores sistemáticos en la marcación del
tiempo.
33

Derivación del teorema de límite central


Ahora nos ocuparemos del teorema de límite central que nos dice que la
"
distribución de probabilidad de x = si es una distribución normal si N es
lo suficientemente grande. Es decir,
$ %
1 (x − x)2
P (x) = √ exp − , (4.19)
2π∆x 2∆x2
con x y ∆x definidos según (4.9) y (4.10).
Primero derivaremos el teorema considerando distribuciones iguales, wi (s) =
w(s). Supondremos además que en adición a (4.6) la distribución w(s) ad-
mite la definición de momentos arbitrarios sn (con n = 0, 1, 2, · · · ). Es decir,
que las cantidades - ∞
s =
n dssn w(s) (4.20)
−∞
son finitas.
La probabilidad de que las variables aleatorias tomen valores muy cerca-
nos a s1 , · · · , sN está dada por (4.8). Así, la densidad de probabilidad de que
x tome cierto valor se obtiene integrando sobre todos los posibles valores de
si que conduzcan al valor dado de x:
- - $ N
%
∞ ∞ !
P (x) = ds1 w(s1 ) · · · dsN w(sN )δ x − si . (4.21)
−∞ −∞ i=1

La función δ(x) admite tan sólo las contribuciones a la integral para las cuales
"
s = x. Integrando la función δ(x) sobre x se obtiene 1, de donde sigue que
; i
dxP (x) = 1.
Para evaluar (4.21) usaremos la representación
1 -∞
δ(y) = dk exp (−iky) (4.22)
2π −∞
de la función δ(x). Con ella tenemos
1 -∞ - ∞ - ∞
P (x) = dk ds1 w(s1 ) · · · dsN w(sN )eik(s1 +···+sN ) e−ikx
2π −∞ −∞ −∞
1 -∞ - ∞ - ∞
= dke−ikx ds1 w(s1 )eiks1 · · · dsN w(sN )eiksN
2π −∞ −∞ −∞
1 -∞
= dk [W (k)]N exp(−ikx). (4.23)
2π −∞
Desarrollando la cantidad W (k) introducida en el último paso alrededor de
k = 0 tenemos
- ∞
1
W (k) = dsw(s) exp(iks) = 1 + iks − k 2 s2 ± · · · (4.24)
−∞ 2
34 CAPÍTULO 4. TEOREMA DE LÍMITE CENTRAL

y 3 4
1
ln [W (k)] = N ln 1 + iks − k 2 s2 ± · · · .
N
(4.25)
2
Si ahora desarrollamos el logaritmo según ln(1 + y) = y − y 2 /2 + · · · ;
3 4
1 1
ln [W (k)]N
= N iks − k 2 s2 − (iks)2 ± · · ·
3
2 2 4
1 2 2
= N iks − k ∆s ± · · · . (4.26)
2
Despreciando los términos de tercer y mayor orden (4.26) conduce a
$ %
N ∆s2 2
[W (k)] ≈ exp iN sk −
N
k . (4.27)
2
Sustituyendo esta expresión junto con x = N s y ∆x2 = N ∆s2 en (4.23) e
integrando obtenemos
$ %
1 -∞ ∆x2 2
P (x) ≈ dk exp −i (x − x) k − k
2π −∞ 2
$ %
1 (x − x)2
= √ exp − . (4.28)
2π∆x 2∆x2
Para evaluar la integral se completó el binomio cuadrado en el exponente.
Este resultado es el teorema de límite central para el caso de distribuciones
iguales (wi = w).

Generalización

Ahora generalizamos la derivación de (4.28) al caso de distribuciones de


probabilidad wi (si ) diferentes. Primero obtenemos
5 7
1 -∞ N
<
P (x) = dk 6 Wj (k)8 exp (−ikx) (4.29)
2π −∞ j=1

en lugar de (4.23), donde Wj (k) se define como en (4.24). Con esto, (4.25) y
(4.26) toman la forma
3 4
N
< N
! 1
ln Wj (k) = ln 1 + iksj − k 2 s2j ± · · ·
j=1 j=1 2
N
! k2 !
N
= ik sj − (∆sj )2 ± · · ·
j=1 2 j=1
∆x2 2
= ixk − k ± ··· (4.30)
2
35

donde se desprecian términos de mayor orden y se sustituye (4.30) en (4.29).


El cálculo de la integral conduce de nuevo a (4.28). Así pues, la suma de
cantidades distribuidas aleatoriamente conduce a una distribución normal
bajo condiciones muy generales. Este es el contenido del teorema de límite
central.

Rango de validez

El desarrollo (4.26) es posible cuando el (n + 1)-ésimo término es muy


pequeño comparado con el n-ésimo:
2 2
2 sn+1 k n+1 2
2 2
2 2 ≪ 1 (n = 0, 1, 2, · · · ). (4.31)
2 sn k n 2

El rango de aplicación deseado puede limitarse a unas cuantas desviaciones


estándar. Los valores relevantes de k son entonces de magnitud
1 1
k∼ ∼√ , (4.32)
∆x N ∆s
con lo que la parte izquierda de (4.31) resulta en
2 2 2 2
2 sn+1 k n+1 2
2 2
2 sn+1 2
2 2 1 O (1)
2 2 ∼ 2 n 2 √ ∼ √ . (4.33)
2 sn k n 2 2 s ∆s 2 N N
Aquí hemos supuesto que los momentos sn escalan con el ancho de la distri-
bución, lo que es el caso para distribuciones típicas. En el caso límite N → ∞
el error de la distribución de Gauß es arbitrariamente pequeño; este resultado
es válido en la región más relevante de varias desviaciones estándar alrededor
del valor medio.
Resumamos una vez más las condiciones bajo las cuales hemos derivado
el teorema central de valor límite. Por un lado hemos supuesto que las va-
riables aleatorias poseen una distribución con momentos finitos (4.20); esta
condición puede ser de hecho debilitada un poco exigiendo que tan sólo si
y s2i sean finitas. Por otro lado hemos supuesto un número suficientemente
"
grande de variables aleatorias, de las cuales se obtiene x = si . Es decir,
N ≫ 1. La distribución resultante (4.28) es cuantitativamente válida sobre
varias desviaciones estandar σ = ∆x alrededor del valor medio. Para valores
grandes de |x − x| tanto la distribución normal (4.28) como la densidad de
probabilidad exacta (4.21) son muy pequeñas, con lo que en esa región el
error absoluto (no el relativo) resulta ser muy pequeño.

Ejercicios
36 CAPÍTULO 4. TEOREMA DE LÍMITE CENTRAL

4.1: Las variables aleatorias x y y son independientes una de otra y obedecen


sendas distribuciones de Gauß con medias x y y, y desviaciones ∆x
y ∆y. Calcule la distribución de probabilidad w(z) para z = x + y.
Obtenga z, z 2 y ∆z.

4.2: Las variables aleatorias x y y son independientes una de otra y obede-


cen las distribuciones de probabilidad p(x) y q(y). Estas distribuciones
poseen las medias x y y, y las desviaciones ∆x y ∆y, respectivamente.
Obtenga una expresión para la distribución de probabilidad w(z) para
z = x + y. Calcule z, z 2 y ∆z.

Вам также может понравиться