You are on page 1of 6

1

CAMINO ALEATORIO Y DISTRIBUCION


BINOMIAL

1.1-CONCEPTOS BASICOS
DE PROBABILIDAD Y ESTADISTICA
Iniciemos mencionando algunos ejemplos simples e ilustrativos pero importantes. Comencemos con el ejemplo del movimiento idealizado de un borracho, en el que cada paso que de es
igualmente probable que lo de hacia la derecha o hacia la izquierda. La cuestion de interes
consiste en la siguiente: despues que el hombre haya dado N pasos,cual es la probabilidad de
que el hombre este localizado en la posicion x = mL? suponiendo que cada paso es de longitud
L.
Otro ejemplo es el lanzamiento de una moneda al aire. En tal experimento solo hay dos
resultados posibles: cara o cruz.
Por u
ltimo, consideramos un sistema de N partculas, las cuales tienen espn 1/2 y momento
~ . Y solo pueden estar en cualquiera de los dos sentido; en presencia de campo
magnetico M
magnetico la probabilidad de orientarse en la direccion de esta sera mayor y con igualdad de
probabilidad si no hay campo magnetico.
Todos estos ejemplos encierran un problema en general llamado problema del camino
aleatorio en una dimension. Y esta consiste de una sucesion de sucesos, siendo cada una con
resultado de ser posible una de dos.
La condicion fundamental de este tipo de problemas es que son estadsticamente independientes, es decir, cada suceso ocurre independientemente de los demas.
Entonces del ultimo ejemplo vamos a describir el comportamiento de tal sistema usando
~ el campo magnetico por simplicidad despreciamos la interaccion
teora de probabilidad. Sea H
entre partculas. Para propositos practicos se considera que las partculas permanecen fijas,
como los atomos de un solido y que es relevante la parte configuracional.
Sea n1 el n
umero de partculas que se orienten en la direccion del campo con espn 1/2 y

momento magnetico ~o = o k.
~ con espn 1/2 y
Sea n2 el n
umero de partculas que se orienten en la direccion opuesta a H
momento magnetico
~o = o k
(1)
El n
umero total de partculas es:
N = n1 + n2
.
Sea m = n1 + n2 una cantidad que mide la orientacion neta en la direccion del campo. De
las ecuaciones anteriores se determina que:
n1 =

N +m
,
2

n2 =

N m
2

~ y sea q
Sea p la probabilidad de que el espn de la partcula se oriente en la direccion de H
~ Estas probabilidades satisfacen la condicion
la probabilidad de tener espn opuesto a H
p+q =1
Las orientaciones son completamente aleatorios, en ese sentido podemos afirmar que son estadstica mente independientes.
La probabilidad de que un evento en el n1 esten en una direccion y n2 en otra esta dada por:
n veces

z 2 }| {
(p) (p) (q) (q) = pn1 q n2
| {z }
n1 veces

Se define un Microestado del sistema como una distribucion de las N partculas como n1 en
una direccion y n2 en la otra
. Para calcular el n
umero de diferentes maneras de ordenar N espnes con n1 y n2 en otra,
hacemos las siguiente interpretacion:
Consideremos que en vez de N espines tenemos N cajas y queremos acomodar en ellas n1
objetos diferentes
. el primero objeto se puede acomodar de N maneras
el segundo objeto se puede acomodar de N 1 maneras
el ultimo objeto se puede acomodar de N n + 1 maneras
Por lo tanto, el n
umero de diferentes maneras es:
= N (N 1) (N n + 1)
Podemos expresar esto en terminos de N !, multiplicando y dividiendo por (N n1 ), entonces:
=

N!
N (N 1)(N 2) (N n + 1)(N n1 )!
=
(N n1 )!
(N n1 )!

Sin embargo, en nuestra situacion, debemos evitar aquellas permutaciones en los que solo
cambia el n
umero del objeto, para ello dividimos entre n1 !. Finalmente
N!
(N n1 )!(n1 )!

La probabilidad de hallar uno de estos eventos con esta distribucion es dada por:
Wn (n1 ) =

N!
pn1 q N n1
(N n1 )!n1 !

Estas distribucion se conoce como la distribucion binomial.Una configuracion de esta distribucion corresponde a un microestado
POSTULADO 1: todos los microestados son igualmente probables de ser alcanzados por el sistema.
Para realizar la medicion de una propiedad fsica, debemos tomar en cuenta todos los
microestados del ensemble. debemos realizar promedios asignando el mismo peso estadstico a
cada microestado.
para utilizar las definiciones basicas de la estadstica, consideremos una variable discreta u1 , con
M -valores, u1 , u2 ,. . . ,uM . cada una de estos valores con probabilidades P (u1 ), P (u2 ),. . . ,P (um ).
Se define el promedio de u1 como:
hui =

u1 P (u1 ) + u2 P (u2 ) + . . . + uM P (uM )


P (u1 ) + P (u2 ) + . . . + P (uM )

expresando en sumatoria:
Pi=M

i=1
u = hui = P
M

ui P (ui )

i=1

P (ui )

Se define la desviacion (u hui), como una medida de la separacion de u del valor central. El
promedio de u = u hui es:
hui =

M
X

P (ui )(ui u)

i=1

Por lo tanto :
u =

i=M
X

ui P (ui ) u

i=1

i=M
X

uP (ui ) = 0

i=1

Se define la fluctuacion como:


(u)2 = u2 2uu + u2
De igual manera su promedio es:
2

h(u) i =

M
X

(ui )2 P (ui ) = hu2 i hui2

i=1

Demostracion:
h(u)2 i = hu2 i 2huui + hu2 i
h(u)2 i = hu2 i 2uhui + u2
h(u)2 i = hu2 i u2
h(u)2 i = hu2 i hui2
Tambien el promedio de u para una constante c:
hcui = chui
En general, sean f y g funciones de u se definen los siguientes promedios:
PM
P (ui )f (ui )
hf i = i=1
PM
i=1 P (ui )
Suponiendo que la probabilidad esta normalizada:
M
X

P (ui ) = 1

i=1

Entonces para cualquier funcion f esta se convierte:


hf i =

M
X

P (ui )f (ui )

i=1

Para dos constantes c1 y c2 el valor medio de la funcion f y g es:


hc1 f + c2 gi =

M
X

P (ui )(c1 f (ui ) + c2 g(ui ))

i=1

hc1 f + c2 gi = c1 hf (u)i + c2 hg(u)i


De acuerdo a estos resultados que hemos visto, debemos confirmar la normalizacion de la distribucion de probabilidad al que habamos llegado, esto es:
N
X

Wn (n1 ) = 1

i=1

Sustituyendo la expresion de la distribucion en la sumatoria:


N
X
i=1

N!
pn1 q N n1 = (p + q)N = (1)N = 1
n1 !(N n1 )!

Por lo tanto la distribucion de probabilidad esta normalizada. Procedemos a calcular el promedio


de n1 :
N
X
N!
hn1 i =
n1
pn1 q N n1
n
!(N

n
)!
1
1
i=1
Se observa que tiene la forma del binomio de Newton, excepto por el factor n1 , ademas:
n1 pn1 = p

n1
p
p

Sustituyendo:
N

N!
hn1 i = p
pn1 q N n1 = p (p + q)N
p i=1 n1 !(N n1 )!
p
Finalmente tenemos:
hn1 i = pN (p + q)N 1 = pN
Tambien podemos calcular el valor medio de n1 2 , es decir; hn1 2 iobservando que:
2

hn1 i =

N
X
i=1

n1 2

N!
pn1 q N n1
n1 !(N n1 )!






N 
X

N!

n N n1
p
hn1 i =
p
p1 q
= p
p
(p + q)N = p pN (p + q)N 1
p
p n1 !N n1 !
p
p
p
i=1
2

hn1 2 i = pN (p + q)N 1 + p2 N (N 1)(p + q)N 2


Donde se llega a:
hn1 2 i = pN + p2 N (N 1) = hui2 + pqN
As, de acuerdo a estos dos resultados previos podemos determinar la desviacion estandar de n
esto es:
h(n1 )2 i = hn1 2 i hn1 i2
h(n1 )2 i = hn21 i + pqN (pN )2 = pqN

DE PROBABILIDAD CONTINUA
1.2 DISTRIBUCION
Algo que usualmente se desea es que la desviacion media sea peque
na, no es u
til si el valor
medio no es mucho mas peque
no a
un, por tanto mas importante que la propia desviacion es la
relacion n
que para la distribucion binomial resulta ser:
hni
n
=
hni

r
N pq
q 1
=
0,
pN
pN

Analizaremos el caso en el que N es muy grande. Para N grande el sistema tiende a presentar
un maximo muy agudo, en alg
un valor de n1 n
. De tal manera que para valores cercanos
4

al maximo la dispersion es casi nula, incrementandose dramaticamente para valores lejanos al


maximo.
Para dos valores adyacentes al maximo tendremos:
|Wn+1 Wn1 |  Wn1
En estas condiciones, podemos considerar W como una funcion suave, continua de n1 , aunque
solo se permiten valores enteros de n1 .
Podemos obtener una expresion aproximada de la distribucion desarrollando W en serie de
Taylor alrededor del maximo introduciendo n1 como:
n = n1 n
1
El maximo de W , se localiza con el criterio:
d
W (n1 ) = 0,
dn1

d
log |W (n)| = 0
dn1

Desarrollando la funcion logaritmo


2
d
log |W (n1 )| = log W (n1 + n
) = log W (
n)+ dn
log W |n1 =n (nhni)+ 12 dnd 1 2 log W |n1 =n (nhni)2 +
k
. . . + k!1 dnd k log W |n1 =n1
1

Como estamos considerando valores de n1 en la vecindad del maximo, n es peque


no. Podemos con buena aproximacion cortar la serie a segundo orden:
log |W (n1 )| log W (
n) +

1 d2
d
log W |n1 =n n2 + . . .
log W |n1 =n n () +
dn
2 dn1 2

Pero como W tiene un maximo:




dlog |W (n1 )|
dn1

Por lo tanto:
log W (n1 ) = log |W (
n1 )| +

=0
n1 =
n

1 d2
(log W )n1 =n n2
2 dn1 2

suprimiendo el logaritmo se llega a:


1 d2
W (n1 ) = W (
n1 )exp
(log W )n1 =n (n hni)2
2 dn1 2


Para hacer mas clara la simplificacion a la que se ha llegado observemos que la distribucion
depende de tres constantes a las que hemos llamado A, B y hni:


(n hni)2
W (n1 ) = A exp B
2
Donde A es un factor que se puede fijar directamente debido a la normalizacion de la distribucion, hni es otra constante y finalmente B se puede determinar algebraicamente; usando
la distribucion binomial WN (n1 ) y teniendo en cuenta que n es grande. Con todo esto se llega
a la siguiente expresion:




1
(n N p)2
1 1
(n hni)2
WN (n1 ) =
exp
=
exp
2N pq
2N pq
2N pq
2 n
5

Esta distribucion exponencial se llama Distribucion Gaussiana, llamando a n =


como hni = pN la distribucion se transforma en:


(n )2
1 1
exp
WN (n1 ) =
2 2
2

pqN y

Esta distribucion da la probabilidad P (m) para cuando N es grande, o lo que es lo mismo, la


distribucion Gaussiana es una buena aproximacion cuando pqN  1.