Вы находитесь на странице: 1из 59

Procesos estocsticos y ecuaciones diferenciales: una introduccin

Fabricio Maci y Gerardo Oleaga

2007 Disponible en: http://dcain.etsin.upm.es/ fabricio/Docencia.html

ndice
1. Repaso de la teora bsica de probabilidades
1.1. 1.2. 1.3. 1.4. 1.5. 1.6. 1.7. 1.8. 1.9. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propiedades bsicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Probabilidad condicional e independencia . . . . . . . . . . . . . . . . . . . . . . Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vectores aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transformacin de variables aleatorias Valor esperado y momentos Distribuciones condicionales Funciones generatrices

4
4 4 5 7 9 10 11 13 14

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2. La caminata aleatoria.
2.1. 2.2. 2.3. El proceso aleatorio ms simple en una dimensin. . . . . . . . . . . . . . . . . . Solucin explcita discreta y su comportamiento asinttico La funcin densidad de probabilidad 2.3.1. 2.3.2. 2.4. 2.5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16
16 16 17 18 19 21 23

Pared reejante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pared absorbente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Una ecuacin en diferencias para la densidad de probabilidad . . . . . . . . . . . La caminata aleatoria como lmite de pasos independientes: El teorema de LaplaceDe Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3. El proceso de Wiener.
3.1. 3.2. Denicin y propiedades bsicas del proceso de Wiener. . . . . . . . . . . . . . . La medida de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25
25 27

4. Interpretacin estocstica de esquemas numricos para EDP'S.


4.1. 4.2. 4.3. La ecuacin del calor: solucin numrica. . . . . . . . . . . . . . . . . . . . . . . La ecuacin del calor con una fuente La ecuacin del calor con potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29
29 31 33

5. Introduccin 6. Construccin de una caminata aleatoria innitesimal 7. El movimiento Browniano y la medida de Wiener
7.1. 7.2. 7.3. 7.4. Sobre el espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El teorema de Riesz-Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La construccin de la medida de Wiener . . . . . . . . . . . . . . . . . . . . . . La continuidad de las trayectorias del movimiento Browniano . . . . . . . . . . .

35 35 37
38 40 41 42

8. Frmula de Feynman-Kac y ecuaciones en derivadas parciales


8.1. 8.2. 8.3. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 La frmula de Feynman-Kac para + V . . . . . . . . . . . . . . . . . . . . 2 La frmula de Feynman para la ecuacin de Schrdinger . . . . . . . . . . . . .

46
46 46 48

9. Aplicacin al estudio de los autovalores de un operador elptico


9.1. 9.2.

1 Los autovalores del operador de Schrdinger + V (x) . . . . . . . . . . . . 2 Aplicacin de Feynman-Kac al estudio del comportamiento asinttico de los auAplicacin de la frmula de Feynman-Kac 2 . . . . . . . . . . . . . . . . .

50
50 52 54

tovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1.

9.2.2. 9.2.3.

El puente Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . t(/2V ) Estimaciones de tr e . . . . . . . . . . . . . . . . . . . . . . . .

55 56

A. La ecuacin del calor: solucin analtica.

57

1. Repaso de la teora bsica de probabilidades


1.1. Probabilidad
Al construir un modelo probabilstico tenemos en mente la idea de la

frecuencia

con la que

ocurren ciertos sucesos cuya naturaleza aleatoria nos impide conocer con detalle las leyes que los gobiernan. Ejemplos de este tipo de fenmenos son el resultado de arrojar una moneda, el ganador de una carrera de caballos o el comportamiento del precio de una accin. La abstraccin y generalizacin de estas situaciones y conceptos, nos llevan a las siguientes deniciones: 1) resultados posibles se llama

Experimento. Cualquier procedimiento que nos proporcione un conjunto bien denido de experimento. 2) Espacio muestral. El conjunto de todos los resultados posibles de un experimento se llama el espacio muestral y se denota por . Un resultado particular (pero no especicado) se suele
denotar 3)

Eventos. Un evento es un subconjunto del espacio muestral . En particular, es llamado c el evento seguro y su complemento, denotado por = , se llama evento imposible. 4) Espacio de eventos (o sigma lgebra). Una coleccin de eventos se llama espacio de eventos,
denotada por 1.

F,

si satisface:

est en

F; F,
entonces para

2. si 3. si 5)

est en

Ac

est en

F;
entonces

An

estn en

n = 1, 2, . . . ,

An n=1

est en

F.

Funcin de probabilidad. Una funcin P (), denida sobre los eventos en un espacio
P () = 1; 0 P (A) 1
para cualquier evento

F,

es una probabilidad, si: 1. 2.

A F. Aj Ak =
para

3. (Axioma de aditividad numerable) si

j = k,

entonces

P (nI An ) =
nI
donde 6)

P (An ) ,

(An ; n I)

puede ser una coleccin nita o innita numerable de eventos. La funcin

Espacio de probabilidad.
F

P ()

puede ser llamada una medida de proba-

bilidad, o una distribucin de probabilidad. La estructura completa consistente en muestral), un

(espacio

espacio de probabilidad.

(sigma lgebra de eventos) y

(funcin de probabilidad), es identicada como

1.2. Propiedades bsicas.


Listamos a continuacin algunas propiedades elementales que pueden demostrarse como ejercicio a partir de las deniciones. P1:

P (Ac ) = 1 P (A) .
P2:

P () = 0 .
4

P3:

P (A B) = P (A) + P (B) P (A B) .
P4:

P (A) P (B) ,
P5 (

si

AB.

Identidad de inclusin-exclusin ):
n

P (n Ar ) = r=1
r=1
P6 (

P (Ar )
r<s

P (Ar As ) + + (1)n+1 P (n Ar ) . r=1 An


es una sucesin de conjuntos tales que

Propiedad de continuidad ):
Si

supongamos que

An An+1 ,

entonces se verica que:

l An = A , m

entonces

l P (An ) = P (A) . m a A,
existe un

Aqu el lmite de los conjuntos debe entenderse del siguiente modo: dado n sucientemente grande tal que a r=1 Ar . P7 (

Desigualdad de Boole ) Para eventos cualesquiera A1 , . . . , An


n

tenemos que:

(n Ar ) r=1

r=0

P (Ar ) .

Ejercicio 1.

Prubense las propiedades P1-P7.

1.3. Probabilidad condicional e independencia


La probabilidad condicional cambia el espacio muestral proporciones del nmero de veces que ocurre nmero de veces que ocurren los eventos

a un evento

B,

de modo que las

A se reeren al evento B . Es decir, medimos el A y B al mismo tiempo y hallamos la proporcin respecto del nmero de veces que ocurri B . Probabilidad condicional. Si P (B) > 0, la probabilidad condicional de que A ocurra dado que B ocurre se denota por P (A|B), y se dene por: P (A|B) = P (A B)/P (B) .
Para entender intuitivamente la denicin podemos identicar la probabilidad con la frecuencia

fX es la frecuencia con la que ocurre el evento X , entonces el nmero de veces que ocurren A y B al mismo tiempo
relativa con la que ocurren los eventos al realizar un nmero es: de pruebas. Si

N fAB
Mientras que el nmero de veces que ocurre

es

N fB
y el cociente entre ambas es la denicin de probabilidad condicional desde el punto de vista intuitivo de las frecuencias:

fA|B =
Con ms generalidad, an cuando

fAB . fB

P (B) = 0

admitimos la llamada

ley de multiplicacin :

P (A B) = P (A|B)P (B) .
5

Es importante tener en cuenta que la correspondencia

A P (A|B)
es una funcin de probabilidad para los eventos en denicin.

y satisface todas las propiedades de la

Identidades importantes. La denicin de probabilidad condicional, junto con las reglas

bsicas de la probabilidad, proveen varias identidades tiles.

Regla de particin. La forma ms simple es:


Con ms generalidad, si

P (A) = P (A|B)P (B) + P (A|B c )P (B c ) . Bj Bk =


para

j = k,

A r Br ,

luego

P (A) =
r

P (A|Br )P (Br ) . P (A B) = P (A|B)P (B)


puede extenderse

Regla de multiplicacin.

La forma elemental

fcilmente a la forma ms general

P n+1 Ar = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) . . . P (An+1 | n Ar ) . r=1 r=1


Finalmente, si combinamos la regla de particin con la denicin de probabilidad condicional, obtenemos la conocida:

Regla de Bayes. Si Aj Ak = para j = k, B n Ak y P (B) > 0, entonces k=1


P (Ar |B) =
n k=1

P (B|Ar )P (Ar ) . P (B|Ak )P (Ak ) 0,01


cuando se lo

Ejercicio 2.
bilidad

(Uso de la regla de Bayes) Un test mdico detecta una enfermedad con proba-

0,99

cuando se le aplica a una persona enferma y con probabilidad

aplica a una persona sana. Cul es la probabilidad de tener efectivamente la enfermedad si el test da positivo y la enfermedad afecta a una persona cada 100? y si la enfermedad afectara 5 a una persona cada 10 ? La idea de condicionar nos lleva a un concepto muy importane: la

Independencia.
a)]Los eventos

independencia de sucesos.

son

independientes

si

P (A B) = P (A)P (B) .
Una

familia

de eventos

(Ai , 1 i n)

es independiente si

P (Ai1 Ai2 Air ) = P (Ai1 )P (Ai2 ) . . . P (Air )


para cualquier seleccin

1 i1 < i2 < . . . < ir n.

Ejercicio 3.

Se arrojan 3 dados. Se denen los eventos

A := El B := El C := El
familia de eventos.

primero y el segundo muestran el mismo resultado. segundo y el tercero muestran el mismo resultado. primero y el tercero muestran el mismo resultado.

Mustrese que los eventos son dos a dos independientes pero que no son independientes como

1.4. Variables aleatorias


Usualmente no estamos interesados en los resultados

del espacio muestral

de un ex-

perimento aleatorio sino en algn resultado numrico que dependa de en s. Al asignar un nmero bilidad de que

Por ejemplo, en una

apuesta uno est ms interesado en la ganancia o prdida resultante y no tanto en el resultado

X() a cada resultado, transferimos en forma natural la denicin R.


Denotaremos a las variables

de probabilidad a subconjuntos de la recta real, ya que estamos ms interesados en la proba-

X()

tome valores en distintos subconjuntos de

aleatorias por letras maysculas, mientras que sus valores posibles sern escritos con letras minsculas. Pasamos a las deniciones. a)1. b)

Variable aleatoria. Dado y una funcin de probabilidad P , una variable aleatoria


X(),
denida sobre

es una funcin 2.

tomando valores en

R.

Funcin de distribucin. La funcin de distribucin FX (x) de la variable X est denida como

FX := P ({ : X() x})
y tambin se denota directamente por conjunto funcin

P (X x).

Ntese que estamos asumiendo que el

{ : X() x} F para todo valor de x R. Esto es equivalente a que la X sea medible en la -lgebra F . Asumiremos que este es el caso para las variables
toma valores en un subconjunde nmeros enteros. Luego, la denota como

consideradas. 3.

Variables aleatorias discretas. Una variable discreta


to numerable

de

probabilidad de que

R. Comnmente es un subconjunto X asuma un valor x determinado se

fX (x) = P (X = x) := P ({ : X() = x}) .


La funcin

fX

se llama

funcin densidad de probabilidad

de la variable

X.

Ejemplos de variables discretas:

a ) Distribucin binomial. Si se realizan n pruebas independientes de un experimento


cuyos resultados son slo dos, E (de xito) con probabilidad probabilidad en las

p y F (de fracaso) con (1p), entonces la variable X denida por el nmero de xitos obtenidos n k

pruebas tiene la distribucin:

fX (k) =

pk (1 p)nk ,

0 k n. n
y

Nos referiremos a ella como la distribucin Binomial con parmetros denotaremos por usa la notacin

y la

B(n, p).

Para indicar que una variable

tiene esta distribucin se

X B(n, p) .

b ) Distribucin de Poisson. Cuando n es grande y p pequeo de modo que l n np = m


,
los valores de la distribucin binomial convergen a

fX (k) =

e k . k!

Nos referiremos a ella como Poisson(). Esta distribucin est asociada al nmero de xitos que pueden ocurrir en un intervalo temporal dado, cuando los mismos pueden ocurrir en cualquier instante del intervalo. Ejemplos pueden obtenerse en el nmero de llamadas recibidas en un intervalo dado; en este caso el parmetro el nmero esperado de llamadas en ese intervalo. 7

representa

c ) Distribucin geomtrica. En una sucesin de pruebas independientes con probabilidad de xito Luego

en cada intento y probabilidad

(1 p)

de fallo, sea

el nmero

de pruebas que se realizan hasta obtener un xito (incluyendo esta ultima prueba).

tiene distribucin

fX (k) = (1 p)k1 p,

k = 1, 2, . . .

Nos referiremos a esta distribucin como Geom(p).

Variables aleatorias continuas. Una variable X


distribucin pueda escribirse como:

que no sea discreta y cuya funcin de

FX (x) =

fX (s) ds

continua. En este caso fX (x) es


la densidad por

para alguna funcin no-negativa

fX (x) denida para todo valor de x, se llama variable aleatoria llamada la funcin de densidad (o densidad ) de X . Es anloga

a la funcin de probabilidad de una variable discreta. Cuando no haya confusin denotaremos

Ejemplos:

f (x)

omitiendo mencionar la variable.

1.

Densidad uniforme.

Si elegimos un punto al azar en el intervalo

(a, b)

con la idea

intuitiva de que los intervalos de igual longitud tienen la misma probabilidad de ser elegidos, es fcil ver que la distribucin de probabilidad viene dada por:

F (x) = P (X x) =
a
La densidad de

xa dx = . ba ba

queda denida por:

f (x) =
2.

1 , ba

para

a < x < b,

0,

en otro caso.

Densidad exponencial. Para cualquier constante > 0,


f (x) = ex , x 0 , 0, x < 0.

Nos referiremos a la distribucin generada como Exponencial(). 3.

Densidad normal. Para constantes R, 2 > 0,


f (x) = 1 (2 2 )1/2 (x )2 exp 2 2 , < x < .

Nos referiremos a esta distribucin con

Normal estndard. Para sta usaremos la notacin especial


1 1 (x) = exp x2 2 2
x

N (, 2 ). Si = 0 y 2 = 1, esta ser la Densidad ,

(x) =

(s) ds .

Ejercicio 4.

X N (, 2 ) y denamos la variable Y = aX + b, con a y b constantes. 2 2 Mustrese que Y N (a + b, a ). b) Sea U una variable aleatoria con distribucin uniforme en (0, 1), y denamos Y := (1/) log U . Mustrese que si > 0, Y Exponencial().
a) Sea 8

1.5. Vectores aleatorios


En muchos modelos es necesario tener en cuenta los efectos conjuntos de varias variables al mismo tiempo. Dichas variables deben estar denidas en el mismo espacio muestral su correspondiente funcin de probabilidad

con

y su espacio de eventos

F.

Denimos algunas

cantidades tiles para tratar estos casos distinguiendo entre el caso discreto y el continuo. 1.

Funcin de probabilidad conjunta. Para variables discretas X1 , X2 , . . . , Xn , tenemos:


f (x1 , x2 , . . . , xn ) = P (X1 = x1 , X2 = x2 , . . . , Xn = xn ) ,
donde cada

xi

recorre los valores posibles de cada variable

Xi .

Notacin:

x = (x1 , x2 , . . . , xn ) X = (X1 = x1 , X2 = x2 , . . . , Xn = xn ) .
De este modo, si

es un subconjunto de

Rn ,

tenemos que:

P (X D) =
xD

f (x) .

Distribuciones Marginales. Podemos recuperar las distribuciones de cada una de las


variables variable

Xi X1 :

si conocemos su distribucin conjunta. Consideremos la distribucin de la

fX1 (x) =
x2 ,...,xn

f (x, x2 , . . . , xn ) .

Es decir, sumamos sobre todos los valores posibles del resto de las variables, dejando jo al valor

x.

En trminos de eventos podemos interpretarlo de la siguiente forma:

{X1 = x} = {X1 = x} = {X1 = x} x2 ,...,xn {X2 = x2 , . . . , Xn = xn } = x2 ,...,xn {X1 = x} {X2 = x2 , . . . , Xn = xn }


Las distribuciones as obtenidas se denominan 2.

distribuciones marginales.
a, b, c, d,
b d

Funcin de densidad conjunta. Un par de variables aleatorias (X1 , X2 ) es (conjuntamente) continuo con densidad

f (x1 , x2 )

si, para todo

P ({a < X1 b} {c < X2 d}) =


a c

f (x1 , x2 ) dx2 dx1 X1 , X2


denotada por

En particular, esto dene la funcin de distribucin conjunta de

F (x1 , x2 ),

por:

x1

x2

F (x1 , x2 ) =

plano, tenemos que:

f (u, v) dvdu . D
es un subconjunto del

La densidad tiene la misma propiedad que en el caso discreto. Si

P ((X1 , X2 ) D) =
(x1 ,x2 )D

f (x1 , x2 ) dx1 dx2 .

Tambin podemos recuperar la distribucin de cada variable a partir de la conjunta:

P (a < X1 b) = P ({a < X1 b} { < X2 < }) =


a
De modo que

f (x1 , x2 ) dx2 dx1 .

fX1 (x) =

f (x, x2 )dx2 .

3.

Independencia de variables aleatorias. El par de variables X1


entes si, para todo

X2

son independi-

x1

x2 ,

P (X1 x1 , X2 x2 ) := F (x1 , x2 ) = FX1 (x1 )FX2 (x2 ) =: P (X1 x1 ) P (X2 x2 ) .


Para conjuntos arbitrarios podemos deducir la independencia a partir de las densidades. Derivando la expresin para

podemos obtener la factorizacin:

f (x1 , x2 ) = fX1 (x1 ) fX2 (x2 )


y probar que:

P (X1 A, X2 B) =
A B

f (x1 , x2 )dx1 dx2 =


A

fX1 (x1 ) dx1


B

fX2 (x2 ) dx2

= P (A)P (B)

y recuperamos la nocin previa de independencia.

Ejercicio 5.
c < d.

a) Sean

X1

X2

con distribucin conjunta

F (x1 , x2 ),

y supongamos que

a<b

Mustrese que

P (a < X1 b, c < X2 d) = F (b, d) + F (a, c) F (a, d) F (b, c) .


b) Sean

X1 , X2

variables independientes con distribucin exponencial con parmetros

respectivamente. Mustrese que

P (X1 t < X1 + X2 ) = P (X2 t < X1 + X2 ) .

1.6. Transformacin de variables aleatorias


Consideremos el caso de variables continuas; buscamos la distribucin de probabilidad de una funcin

Z = g(X, Y )

del vector aleatorio

(X, Y ).

Usando la denicin de la funcin de

probabilidad:

FZ (z) := P (Z z) = P (g (X, Y ) z) =
x,y:g(x,y)z

f (x, y) dxdy .
tienen densidad conjunta

Suma de variables aleatorias continuas.


suma es

Si

X, Y ,

f (x, y)

y su

Z =X +Y

luego:

FZ (z) = P (X + Y z) =
x,y:x+yz zx

f (x, y) dxdy

=
x= z y=

f (x, y) dxdy f (v, u v) dv du


u=

=
donde

u = x+y y v = x. De esta frmula vemos inmediatamente que la densidad de probabilidad

fZ (z) =

Si

f (v, z v) dv . f (x, y) = fX (x)fY (y),

y nos queda: (1)

X, Y

son independientes tenemos que

fZ (z) =

que representa la

fX (v) fY (z v) dv , X
y de

convolucin

de las densidades de 10

Y.

Ejemplo: Suma de normales estndar

Si

X, Y

son variables

N (0, 1),

luego usando (1):

fZ (z) =

1 1 1 exp v 2 (z v)2 dv 2 2 2 1 1 z 2 1 2 exp z 2 v dv = e(1/4)z , 2 4 2 2

que es una normal de media cero y varianza 2.

Ejercicio 6.
luego

Muestra que si es

X1 + X2

2 X1 N (1 , 1 ) 2 2 N (1 + 2 , 1 + 2 ).

2 X2 N (2 , 2 )

con

X1 , X2

independientes,

1.7. Valor esperado y momentos


Para hacer el promedio de una cierta cantidad de datos sumamos y dividimos por la cantidad total de datos:

N,

solemos hacer una lista

dn ,

los

w=

1 N

dn .
n

Si los datos repetidos.

dn corresponden a una variable discreta, podemos reescribir esto agrupando los datos Pongamos por ejemplo que dn {xi : 1 i < }. Entonces, podemos reescribir el 1 w= N

promedio del siguiente modo:

n(i)xi ,
i=1
a la

donde

con que aparece el dato

n(i) es el nmero de veces que aparece el dato xi . Llamando fi := n(i)/N xi , nos queda la siguiente expresin:

frecuencia

w=
i=1

fi xi .

Valor esperado. Sea X una variable discreta con distribucin de probabilidad f (k); el valor esperado (o media ) de X est denotado por E [X] y denido por
E [X] :=
k
siempre que k |xk | f (k) < . Si esta condicin falla diremos que la variable no tiene media nita. En el caso de una variable continua la denicin es anloga:

xk f (k) ,

E [X] :=

siempre que

x f (x) dx ,

|x| f (x) dx < . Consideremos ahora dos variables vinculadas por

debemos conocer (en principio) la distribucin de medio del siguiente resultado. 11

Y = g(X). Para calcular el valor esperado g(X). Podemos evitar esta dicultad por

Teorema
a) Si

Sean las variables aleatorias

tales que

Y = g(X),

donde

g ()

es una funcin

real denida sobre

R. E [Y ] =
k

es discreta, luego

g (xk ) f (k) ,

siempre que b) Si

|g (xk )| f (k) < .

es continua, luego:

E [X] :=

siempre que

g (x) f (x) dx ,

Demostracin:

|g (x)|

f (x) dx < .
E [Y ] : =
y

vemos solamente la parte a), ya que la b) es anloga.

yP (Y = y) P (X = x) g (x) P (X = x)
y x:g(x)=y

=
y

y
x:g(x)=y

= =
x

g (x) P (X = x) , y {x : g(x) = y}
son todos los

donde la ltima igualdad se obtiene teniendo en cuenta que valores posibles de

X.
e

Propiedad Ejercicio 7.

Si

son independientes, entonces para funciones reales

tenemos que:

E [g (X) h (Y )] = E [g (X)] E [h (Y )] .
Demustrese esta propiedad.

Momentos. Son cantidades que se denen a partir del valor esperado. k a) El momento k-simo de X es k := E X . k b) El momento central k-simo de X es k := E (X E [X]) .
En particular

es la media y

es llamada la varianza y denotada por

o Var[X].

Ejercicio 8.

Muestra que la varianza de la suma de dos variables independientes es igual a la

suma de las varianzas.

Covarianza y correlacin
La covarianza de

Para variables

X, Y

con distribucin conjunta debemos consid-

erar usualmente los siguientes parmetros:

es:

cov (X, Y

) = E [(X E [X]) (Y E [Y ])] .

El coeciente de correlacin (o correlacin) es: cov (X, Y

(X, Y ) :=

(var [X] var [Y ])1/2


12

1.8. Distribuciones condicionales


Las distribuciones condicionales de una variable se obtienen al considerar una restriccin en el valor de otra variable aleatoria. Consideramos el caso discreto, ya que las extensiones son obvias.

Funcin de probabilidad condicional


tribuidas en forma conjunta. El evento cionales de la variable

Consideremos dos variables discretas

Y,

dis-

Y = y , permite considerar las probabilidades condiX dado que Y = y . Esto dene una nueva funcin de probabilidad para P (X = x, Y = y) P (Y = y)

que la denotamos por:

fX|Y (x|y) := P (X = x|Y = y) = =


La funcin

fX,Y (x, y) , fY (y)

fY (y) > 0 . X:

x fX|Y (|y)

dene una nueva funcin de probabilidad para la variable

fX|Y (x|y) =
x x

fX,Y (x, y) 1 = fY (y) fY (y)

fX,Y (x, y) =
x

fY (y) = 1. fY (y)

Esperanza condicional.

La esperanza condicional de

dado

Y =y

se obtiene calculando

el valor esperado cuando jamos la variable

y aplicamos la distribucin condicional:

E (X|Y = y) =
x
Cuando no se especica un valor concreto de

xfX|Y (x|y) .
la esperanza condicional de

y,

nueva variable aleatoria cuyos valores dependen del resultado de la variable

X Y,

dado

es una

es decir:

E (X|Y ) : E (X|Y = Y ()) .

Caso continuo.
Y
de

Cuando las variables son continuas no se puede hacer la derivacin elemental

usando la probabilidad condicional. En este caso nos guiamos heursticamente por analoga con el caso discreto, aunque estas deniciones pueden justicarse en un contexto ms general. Si son continuas y tienen densidad de distribucin conjunta

Xe f , entonces la densidad condicional

dado

Y =y

est denida por:

fX|Y (x|y) =
La esperanza condicional de

f (x, y) , fY (y) Y =y

cuando

fY (y) > 0 .

dado

viene dada por:

E (X|Y = y) =
R

xfX|Y (x|y) dx , fX|Y (, y) es una densidad de prob-

siempre que la integral converja absolutamente. La funcin abilidad y

E (X|Y = Y ())

es una variable aleatoria. 13

El lema de particin.
a) Si

Sean

variables distribuidas en forma conjunta.

Ysondiscretas, entoncesfX b) Si

(x) = y fX|Y son continuas, entonces: fX (x) =

(x|y) fY (y) .

fX|Y (x|y) fY (y) dy .


R

Ejercicio 9.
discreto:

Prueba el lema de particin.

A partir de este lema podemos mostrar algunas identidades tiles. Consideremos el caso

E [X] =
x

xfX (x) =
x y

xfX|Y (x|y) fY (y) xfX|Y (x|y) fY (y)


y x

= =
y

E (X|Y = y) fY (y)

= E [E (X|Y )] .
Y hay una idendidad anloga para el caso continuo.

Ejemplo de aplicacin del lema de particin.


e independientes. Entonces:

Sean

variables aleatorias continuas

P (X < Y ) =

Al ser

P (X < Y |Y = y) fY (y) dy

independientes, tenemos que:

P (X < Y |Y = y) fY (y) = P (X < y) fY (y) = FX (y) fY (y)


y nalmente

P (X < Y ) =

FX (y) fY (y) dy .

Es costumbre utilizar la siguiente notacin, que es ms intuitiva que la anterior:

P (X < Y ) =

resaltando el hecho de que intervalo innitesimal

P (X < Y |y < Y < y + dy) fY (y) dy


es la probabilidad de encontrar a la variable

fY (y) dy (y, y + dy).

en el

1.9. Funciones generatrices


Funcin generatriz de momentos
aleatoria La

funcin generatriz de momentos (fgm) de la variable

est dada por:

MX (t) := E etX ,
14

para todos los valores reales convergencia:

en que est denido el valor esperado. En particular, cuando

la funcin est denida en un intervalo real

(a, a), =

podemos escribir, dentro del crculo de

E e

tX

=E
r=0

tr X r r!

r=0

tr E [X r ] . r! E etX
nos

De modo que los coecientes del desarrollo, que podemos recuperar derivando indican el momento

r-simo

de la variable

X.

Hay tres propiedades importantes que nos interesan de la fgm.

Unicidad]Si MX (t) es convergente en un intervalo (a, a) con a > 0, entonces los momentos
de la variable mentos de

determinan en forma nica la distribucin

FX (x).

Ms an, todos los mo-

son nitos. Si

de momentos

conjunta

son independientes, luego tenemos que la funcin generatriz

M (s, t) := E esX+tY = MX (s)MY (t) .


Ms an, puede mostrarse que si la fgm conjunta factoriza de esta manera, entonces

Y son independientes. Sea Mn (t) una sucesin de M (t), donde M (t) es una fgm de una distribucin distribucin Fn (x), tenemos que Fn (x) F (x) ,

X e fgms, tal que, cuando n , Mn (t) F (x). Adems, si Mn (t) es la fgm de una

n .

Ejemplo.

Para una variable

X N (0, 1)

tenemos que:

MX (t) =

1 2 ex /2 etx dx 2 2 1 2 e(xt) /2 dx = et /2 2 t2 /2 =e .

Del mismo modo si

Y N (, 2 ),

obtenemos:

MY (t) = E e

(+X)t

= e MX (t) = e

t+ t2 2

La funcin caracterstica

La funcin denida por

X (t) := E eitX = E [cos(tX) + isen(tX)] , t R, i2 = 1 ,


se llama la

funcin caracterstica

de la variable

o tambin fc. Esta funcin, a diferencia de

la fgm, existe siempre, ya que:

E eitX

E eitX

= 1. (a, a)
tenemos que:

Cuando la funcin generatriz de momentos existe en un intervalo

X (t) = MX (it) ,

t R.

Esto implica que la normal estndar tiene funcin caracterstica:

X (t) = et .
15

2. La caminata aleatoria.
2.1. El proceso aleatorio ms simple en una dimensin.
Nos planteamos el siguiente problema elemental de probabilidades:

Unicidad Factorizacin Continuidad

Una partcula puede moverse sobre la rec-

ta real dando saltos de longitud 1 hacia la derecha o la izquierda de modo aleatorio. La probabilidad de desplazarse hacia uno un otro lado es de 1/2. Despus de movimientos puede ocupar alguna de las posiciones:

XN = N, N + 1, . . . , 1, 0, 1, . . . , N 1, N
Si su posicin inicial es

X0 = 0

deseamos calcular la probabilidad

P (XN = m)

de encontrarla en la posicin

XN = m

al dar un nmero

w(m, N ) := de pasos N .

Haremos en primer lugar un abordaje directo calculando una expresin explcita para estas probabilidades. Como veremos ms adelante, ste tambin puede resolverse desde puntos de vista distintos: a travs de la solucin explcita de una ecuacin en derivadas parciales, como una ecuacin en diferencias, o como el valor esperado de una variable estocstica.

2.2. Solucin explcita discreta y su comportamiento asinttico


Dadas las condiciones del problema, est claro que

w(m, N ) = 0

para

entonces contar de cuntas maneras diferentes podemos llegar a un valor N caminos posibles son igualmente probables, con probabilidad 1/2 . Sean i,d Tenemos entonces que:

|m| > N . Debemos m, ya que todos los

0 el nmero de pasos realizado hacia la izquierda y a la derecha respectivamente. d+i = N di = m

las posiciones x = m son N m son enteros 2 positivos. En caso de que lo sean el problema es equivalente a contar las palabras de N letras, Los posibles valores de accesibles para un son de modo que

i, d

0, . . . , N

no todas

dado, slo lo son aquellas para las cuales

d= N +m , i = 2

entre las que hay

letras A e

letras B:

w(m, N ) =

N! 1 = d!i! 2N N

N +m 2

1 N! . N m ! 2 ! 2N XN
es cero y su varianza

Ejercicio 10.
es

Comprueba que para cada

la media de la variable

N.
El comportamiento de esta expresin para

m n e
n

N 1 , m, N n , limn f (n) = 1. g(n)

podemos verlo usando la

frmula de Stirling:

n! (2n)1/2
donde

(2) Usando esta aproximacin

f (n) g(n)

para

quiere decir que

podemos escribir:

w(m, N )
1 recordemos que

2 N +1/2 N
N

N m N +m

m/2

N 2 m2
l N m
m N

+1 N2

m.

(3)

para

es equivalente a

= 0.

16

o de forma equivalente:

w(m, N )
Por otra parte, si

2 N

1 m/N 1 + m/N

m/2

m 1 N

+1 N2

m.

(4)

N 1x 1+x

tenemos tambin que:

m/2

m m 2 2 = e 2 logf (x) = e 2 (2x+O(x )) = emx+mO(x )

de modo que

1 m/N 1 + m/N
y adems

m/2

m m = e N (1+O( N ))

1 x2
entonces

+1 N2

= e

N +1 log 2

+1 (1x2 ) = e N2 (x2 +O(x4 ))

m 1 N

+1 N2

=e

m2 2N

1+O

m2 N2



Y as, reemplazando en (4) obtenemos la siguiente relacin:

w(m, N )
El comportamiento asinttico para

2 m2 m2 e N e 2N = N N , m N,

2 m2 e 2N . N
es nalmente:

w(m, N ) =

N +m 2

N! 1 N m ! 2 ! 2N

2 m2 e 2N N

(5)

2.3. La funcin densidad de probabilidad


k := t/N , h := x/m (tamao de la malla), y teniendo en cuenta que en x entran aproximadamente x posiciones posibles (debido a que 2h dependiendo de m y N tenemos algunas posiciones inaccesibles), la probabilidad de encontrar x a la partcula en el intervalo [x , x + x ] viene dada por: 2 2
Si llamamos un intervalo de longitud

x+ x 2 x x 2

u(y, t)dy := P (x

x x x x mh x + ) w(x/h, t/k) = 2 2 2h h

k x2 k2 e 2t h 2t

(6)

h2 Deniendo adems el coeciente de difusin D := (es la velocidad a la que se recorre la 2k 2 distancia h partida por dos) tenemos que la densidad de probabilidad viene dada (para h 0,

1)

por la expresin

u(x, t) =

x2 1 e 4Dt 4Dt

(7)

que corresponde a la solucin fundamental de la ecuacin del calor. 17

2.3.1. Pared reejante


Supongamos que la partcula, al llegar a una posicin

r > 0,

tiene probabilidad 1 de ir

hacia la izquierda y probabilidad 0 de desplazarse a la derecha. La posicin anteriores. Consideremos la funcin

hace rebotar el

movimiento hacia la izquierda y debemos recalcular la probabilidad de algunos de los caminos

wref (m, N ; r):=probabilidad de que la partcula llegue a la posicin m, con m < r , al desplazarse N pasos. Para jar ideas tomemos un camino que rebote una sola vez en la posicin r . La probabilidad de cada paso sigue siendo 1/2, con excepcin del paso dado en la posicin r , que tiene
probabilidad 1 de ir hacia la izquierda. En este caso es equivalente a multiplicar por dos la probabilidad que tiene el mismo camino de ocurrir en un desplazamiento libre, sin una pared reejante. Es fcil convencerse de que la probabilidad de un camino que rebote n veces en la n pared, es 2 por la probabilidad del mismo camino considerado como un proceso sin pared reejante. Una forma grca de calcular estas probabilidades es considerar

caminos reejados

al otro lado de la pared. Por ejemplo, si el camino rebota slo una vez, podemos considerar otro camino que sale hacia la derecha en el punto de rebote y est reejado al otro lado de la pared. Al realizar los posicin

pasos el camino original llega a la posicin

y el reejado llegar a la

2r m

(vase la gura)

Del mismo modo, cada camino libre que atraviese una sola vez la posicin a la posicin

(y que llegue

m = 2r m)

corresponde a la reexin de un camino admisible. Si sumamos

la probabilidad del camino libre que llega a

y la del camino libre que llega a

tenemos

el mismo efecto que al multiplicar por dos la probabilidad del camino admisible (considerado como camino libre). Para generalizar esta idea, supongamos que el camino rebota dos veces en la pared. En este caso habr que multiplicar por 4 a la probabilidad del camino libre, con lo cual habr que construir 3 caminos ms para seguir con la misma idea.

Dado el camino admisible, tenemos 3 caminos libres ms para elegir, uno que llega a dos que llegan a

m.

Consideremos el que llega hasta el punto 1, despus de pasar la barrera se

dirige al punto 2 y de ah al punto

m.

Otro de ellos sigue el mismo camino admisible hasta el

punto 2 y en lugar de rebotar en la pared se dirige al punto

m.

Por ltimo, el camino que a

partir del punto 1 es una reexin del camino admisible con respecto al eje que pasa por este modo, podemos convencernos de que es vlida la siguiente frmula

r.

De

wref (m, N ; r) = w(m, N ) + w(2r m, N ) (m < r).


Una aclaracin importante para para posiciones caminos, pero

(8)

m = r. El razonamiento que hemos hecho es vlido solamente m < r, ya que por cada rebote contra la pared debemos considerar el doble de si m = r esto no es verdad. En este caso debemos tener en cuenta que el ltimo

paso, si bien toca la pared, no debe ser multiplicado por dos. Vase el ejemplo de la gura

La probabilidad que buscamos es entonces la mitad que la obtenida con la frmula (8) y tenemos entonces que

wref (r, N ; r) = w(r, N ) .


Es decir que la probabilidad de llegar a la pared reectante en tiempo misma que la probabilidad de llegar por caminos libres! 18

es exactamente la

Si tomamos

muy grande en (8) tenemos la frmula asinttica:

wref (m, N ; r)

2 N

1 2

em

2 /2N

+ e(2rm)

2 /2N

(m < r)

o en su versin continua (para la densidad de probabilidad):

1 uref (x, t) = 2 Dt
Donde

e 4Dt + e

x2

(2xr x)2 4Dt

(x < xr ),

(9)

xr := rh,

es la posicin de la pared.

Ntese que la funcin denida en (9) satisface la ecuacin:

uref |x=xr = 0 x

2.3.2. Pared absorbente


En este caso calcularemos la probabilidad de encontrar a la partcula en la posicin despus de

pasos, pero considerando que una vez que atraves una pared en la

m, posicin a,

ya no regresa. Es decir, si el camino que seguimos atraviesa la posicin

a > 0, a.

la probabilidad

de ir hacia la izquierda es ahora nula. De los caminos libres que llegan a quitar los que en algn instante anterior han atravesado la barrera en

tenemos que

Podemos hacer la

misma construccin grca que para el caso anterior, esta vez teniendo en cuenta que que llega a

descontar la probabilidad de los caminos que terminan en m . Por cada camino prohibido (libre)
m
(esto es, que atraviesa a la pared en

debemos
m

a),

podemos construir uno que llega a

usando la reexin con respecto al eje en por cada camino que sale de 0 y llega a

a partir de los puntos de contacto. Los caminos podemos contar un camino prohibido que llega a

admisibles no pueden reejarse ya que no hay puntos de contacto con el eje. Recprocamente,

m.

De este modo podemos decir que la probabilidad que buscamos es

wabs (m, N ; a) = w(m, N ) w(2a m, N )


y la funcin densidad es

2 N

1 2

em

2 /2N

e(2am)

2 /2N

m < a.

1 uabs (x, t) = 2 Dt
Con la propiedad

e 4Dt e

x2

(2xa x)2 4Dt

uabs (xa , t) = 0 .
Para

m=a

el razonamiento anterior no es vlido y solamente debemos quitar algunos de

los caminos inadmisibles (no todos los caminos que llegan a por la pared despus de a la posicin

m =a

son ahora inadmisibles).

El problema est vinculado con el clculo de la probabilidad de que la partcula sea absorbida

pasos. Debemos tener en cuenta que de todos los caminos que llegan

a,

debemos quitar todos los que han atravesado la barrera anteriormente. Una

forma de contar los caminos inadmisibles es la siguiente. Para llegar a dos posibilidades. O bien a tiempo que llegan a a

en tiempo

hay

N 1

estamos en

a+1

o en

a 1.

Algunos de los caminos

a1

son admisibles y otros son inadmisibles. Los que llegan a

inadmisibles. Los inadmisibles que llegan a

a1

son

la misma cantidad

a+1

son todos

que los que llegan

a+1

para tiempo

N 1.

Podemos ver esto con un argumento de reexin en el eje 19

a.

Si

a 1 (a partir del primer contacto con el eje a) a + 1 al mismo tiempo. De este modo, la probabilidad que queremos ser la de los caminos libres que llegan a a en tiempo N menos el doble de los caminos que llegan a a + 1 en tiempo N 1:
reejamos cada camino inadmisible que llega a obtenemos otro que llega a nmero de caminos

= = =

(N 1)! N! 2 (N 1)+(a+1) (N 1)(a+1) a +a ( N 2 )!( N 2 )! ( )!( )! 2 2 N! N +a a ( 2 )!( N 2 )! 12


a ( N2 ) N

N! a a N +a N ( 2 )!( N 2 )! a,
a tiempo

dividido por

La probabilidad de ser absorbido en la posicin N

es entonces el nmero anterior

wabs (a, N ; a) =
En el caso de

a N! a = w(a, N ) . N ( N +a )!( N a )! N2 N 2 2

grande tenemos la frmula asinttica

a wabs (a, N ; a) N
que expresada en trminos de

2 N

1 2

e(a

2 /2N )

xa = ah

t = Nk

viene dada por:


1 2

xa k p(xa , t) = t xa k = t
interpolacin de la funcin tiempo

2k h2 t 1 Dt

e(xa /4Dt) e(xa /4Dt)


especie de
2

1 2

Observacin: la funcin p no es la densidad de probabilidad, es simplemente una


wabs .
La densidad de probabilidad

q(xa , t)

respecto del tiempo la

calculamos a continuacin. La probabilidad de encontrar a la partcula en

xa

en el intervalo de

[t, t + t]

es

t+t t

xa t q(xa , t)dt p(xa , t) = 2k 2t 2k

1 Dt

1 2

e(xa /4Dt) t xa , estn Haciendo t 0

donde tuvimos que dividir por dos, ya que los tiempos posibles de llegada, jado denidos en intervalos de tamao obtenemos (dependiendo de la paridad de

m,N ).

xa q(xa , t) = 2t
Destaquemos la siguiente relacin

1 Dt

1 2

e(xa /4Dt)

q(xa , t) = D

(uabs (x, t)) |x=xa . x x=0


y llegan por

Si interpretamos la probabilidad como frecuencia a la que ocurre un suceso, hemos obtenido la fraccin de partculas (de un nmero muy grande de ellas) que salen de primera vez a la pantalla absorbente

xa

por unidad de tiempo. 20

2.4. Una ecuacin en diferencias para la densidad de probabilidad


Vamos a abordar el problema del clculo de la densidad de probabilidad desde otro punto de vista, sin utilizar la solucin explcita para las probabilidades obtenida en la seccin anterior. En primer lugar observemos que la funcin

w(m, N )

satisface una ecuacin en diferencias. La

idea bsica es la siguiente: la probabilidad de que la partcula llegue a

t = (N + 1)k puede calcularse como la probabilidad de que llegue N k por la probabilidad de desplazarse hacia la derecha en el siguiente paso temporal, ms la probabilidad de que llegue a (m + 1)h en el instante N k por la probabilidad de que se desplace
hacia la izquierda en el siguiente paso. Como cada paso es una variable discreta independiente del movimiento anterior tenemos que:

x = mh en el tiempo hasta (m 1)h en el tiempo

1 1 w(m, N + 1) = w(m 1, N ) + w(m + 1, N ), 2 2


donde un medio es la probabilidad de desplazarse a derecha o izquierda. Cuando tenemos que

(10)

m, N

w(m, N ) 0

ya que si en el caso discreto tenemos cada vez ms posiciones

posibles, la probabilidad de que alguna de ellas ocurra va a tender a cero necesariamente. Por esto es mejor que consideremos una aproximacin a la densidad de probabilidad

u(x, t):
(11)

uh,k (x, t) :=

1 w(x/h, t/k) . 2h u(x, t): h, k 0 .

La idea central que nos gua es encontrar una funcin de densidad lmite para momento, vamos a suponer que este lmite existe y lo denotamos por

h, k 0.

De

uh,k (x, t) = u(x, t) + h,k (x, t)

h,k (x, t) 0, u

para

Si reemplazamos los valores correspondientes de

en la ecuacin (10) tenemos que

1 1 uh,k (x, t + k) = uh,k (x h, t) + uh,k (x + h, t) . 2 2

(12)

Como veremos ms adelante, (12) es un esquema numrico que aproxima a la solucin de una ecuacin diferencial. En este caso tenemos el problema inverso al clculo numrico: dada la ecuacin en diferencias intentaremos determinar la ecuacin diferencial de la funcin lmite. Para hacer esto necesitamos saber con qu ecuacin es consistente este esquema, y debemos reemplazar la solucin continua el desarrollo de Taylor:

en el esquema dado. Aproximando las cantidades utilizando

u (x, t)k + O(k 2 ) t 1 1 2u (u(x h, t) + u(x + h, t)) = u(x, t) + (x, t)h2 + O(h4 ) 2 2 x2 u(x, t + k) = u(x, t) +
(ntese el error de orden 4 debido a la cancelacin de las potencias impares). Igualando las cantidades obtenidas tenemos que

u h2 2 u h4 (x, t) + O(k) = (x, t) + O( ). t 2k x2 k


h2 permanezca constante, 2k obtenemos la ecuacin del calor unidimensional para la densidad de probabilidad u:
Si tomamos ahora lmite para

h, k 0 de modo que el cociente D = u 2u = D 2. t x


21

Obsrvese que si

h2 /k 0

la ecuacin es consistente con

u/t = 0,

que corresponde a un

estado estacionario de la ecuacin del calor. Con esta forma de ver las cosas es relativamente sencillo imponer condiciones para tener una pared reejante o absorbente. De acuerdo con la condicin de reexin la nica posibilidad 1 de llegar a la pared es desde la izquierda (en el tiempo anterior) con probabilidad , de modo 2 que:

Por otra parte, la

1 wref (r, N ; r) = wref (r 1, N 1; r) . 2 probabilidad de llegar en tiempo N + 1 a la posicin r 1 1 wref (r 1, N + 1; r) = wref (r 2, N ; r) + wref (r, N ; r) , 2

es:

ya que tenemos probabilidad 1 de rebotar una vez que estamos en la posicin

r.

Eliminando

wref (r, N ; r)

de ambas ecuaciones obtenemos:

1 1 wref (r 1, N + 1; r) = wref (r 2, N ; r) + wref (r 1, N 1; r) . 2 2


En trminos de la densidad continua escribimos la ecuacin anterior:

1 1 uref (xr h, t + k) = uref (xr 2h, t) + uref (xr h, t k) . 2 2


Obsrvese que usamos la densidad para puntos interiores, ya que la relacin entre densidad y probabilidad discreta no es obvia para los puntos del borde (desde este punto de vista). Aproximando por Taylor obtenemos la identidad (todas las funciones estn evaluadas en y quitamos el

(xr , t)

ref

del subndice):

u 1 u 1 1 u 1 u u h+ k + o( k 2 + h2 ) = u h+ u h k + o( h2 + k 2 ), x t 2 x 2 2 x 2 t k = O(h2 ):

y teniendo en cuenta que el lmite es calculado para

u u h = O(h2 ) = 0. x x
Esta es la misma condicin, de tipo Neumann, que observamos para la solucin explcita. En el caso de la pared absorbente debemos observar que:

1 wabs (a 1, N + 1; a) = wabs (a 2, N ; a), 2


ya que la probabilidad de que venga por la derecha (desde absorbente. Usando la densidad continua:

a)

es igual a cero con la pared

1 uabs (xa h, t + k) = uabs (xa 2h, t), 2


y aproximando por Taylor (funciones evaluadas en

(xa , t)):

1 u + O(h + k) = u + O(h + k), 2


por lo tanto

u = 0,
como obtuvimos anteriormente con la solucin explcita para 22

uabs .

h y paso k , la densidad de probabilidad de encontrar a una partcula para tiempo t = N k en 2 la posicin x = mh, cuando m, N con h / (2k) = D , es consistente con ecuacin del calor
Resumiendo, hemos encontrado que, haciendo un camino aleatorio de paso espacial temporal

ut = Duxx .
Cuando hay una pared reectante en

(13)

x = xr

debemos aadir la condicin de contorno

u (xr , t) = 0 x
y cuando hay una pared absorbente tenemos la condicin

u(xa , t) = 0.
En ambos casos la condicin inicial para

es una

delta de Dirac. Es decir, para t = 0 toda


x=0
pero su integral

la probabilidad est concentrada en el origen, la densidad es cero para

en cualquier intervalo alrededor del origen es igual a 1. Esta es la solucin fundamental de la ecuacin del calor, podemos reconstruir a partir de ella cualquier condicin inicial y tambin utilizar las ideas aplicadas para caminos discretos con paredes reejantes y absorbentes.

2.5. La caminata aleatoria como lmite de pasos independientes: El teorema de Laplace-De Moivre
Podemos obtener la distribucin lmite de la caminata aleatoria a travs de un resultado clsico de suma de variables aleatorias discretas, conocido como el teorema de Laplace-De Moivre. La demostracin es esencialmente la misma que la vista anteriormente para los randomwalks (utilizando tambin el comportamiento asinttico de los factoriales). (Laplace-De Moivre). Sean toman valores 0 y 1 y tales que

In , n N,

variables aleatorias discretas independientes que

P (In = 1) = p P (In = 0) = q
con

p + q = 1.

Si

SN :=

N n=1 In , entonces

l P m

SN N p b a N pq SN

1 = 2

b a

e 2 dx .

x2

Ejercicio 11.

Demuestra el teorema de Laplace-De Moivre siguiendo los siguientes pasos: vienen dadas por:

1) Verica que la esperanza y la varianza de

E[SN ] = N p V [SN ] = N pq
2) Identica los posibles valores de la variable

SN ,

muestra que se satisface:

P (SN = m) = pm q (N m)

N! (N m)!m! N =
S N p N , escribe N pq

(14)

3) Considera ahora los valores posibles de la variable

m Np . x= N pq
23

Observa que si se deja jo el valor de

de Stirling (2) a (14) justicando su uso para que:

x y hacemos N , entonces m . Aplica la frmula x jo, N . 4) Escribe (14) en trminos de x y N , y desarrollando los exponentes hasta orden 2 demuestra P (SN = m) = P (N = x) =
x2 1 e 2 (1 + o(1)) 2N pq

Nota que:

m =q 1 N

p x qN

m =p 1+ N

q x pN

5) Suma las contribuciones del intervalo, teniendo en cuenta que la distancia entre los valores

m Np xm = N pq
es

xm = xm+1 xm =
Si sumamos sobre los

1 . npq
b a

xm

que entran en el intervalo tenemos que

1 P (a N b) = 2

e
xm [a,b]

x2 m 2

1 xm 2

e 2 dx N

x2

dependientes Bn

Para obtener la distribucin lmite de la caminata aleatoria denimos ahora variables

in-

que pueden tomar los valores 1 y 1 con probabilidad Bn +1 La variable In = satisface las condiciones del teorema, con p = q 2 N N N 1 n=1 Bn + 2 y el teorema nos dice que: n=1 In = 2

1/2 respectivamente. = 1/2. En este caso

l P m

N n=1 Bn b N

1 = 2 h

b a

e 2 dx .
y denimos

x2

Si cambiamos la escala de los pasos con una constante temporal, podemos escribir esto del siguiente modo

k = t/N

como el paso

N
Llamando

l P m
N n=1

h a t k

h hBn b t k n=1

1 = 2

b a

e 2 dx .

x2

XN

hBn ,

tenemos que

P
donde

h h a t XN b t k k N
con

1 = 2

b a

e 2 dx + N ,

x2

h jos. Obsrvese que si 0 para N , k la densidad de XN estar concentrada alrededor del origen. Eligiendo a, b 1 tales que b x2 1 e 2 dx est tan cerca del valor 1 como queramos y N sucientemente grande tal que 2 a h h < [a t k , b t k ] (, ), tenemos que:

N 0

para

P ( XN ) P
donde que

h h a t XN b t k k

1 = 2 a
y

b a

e 2 dx + N = 1 + N , b
convenientemente. Concluimos

x2

puede hacerse arbitrariamente pequeo eligiendo

l P ( XN ) = 1 m
24

si

h 0. k

Obsrvese que esta es la escala que corresponde a la ley de los grandes nmeros, donde tomaramos

h = 1/N = O(k).

b x2 h 1 Si por el contrario tenemos que , elegimos a 0 b de modo que e 2 dx < 2 a k , con pequeo. En este caso, dados A, B arbitrarios (jos), tendremos que para un N h h sucientemente grande [A, B] (a t , b t ) y por lo tanto k k

P (A XN B) P
de modo que

h h a t XN b t k k

1 = 2

b a

e 2 dx + N = + N ,

x2

N
para

l P (A XN B) m

arbitrariamente pequeo. Podemos decir entonces que

l P (A XN B) = 0 m

si

h . k

Los casos considerados son lmites que nos llevan a distribuciones de algn modo triviales. La primera, que concentra toda la medida en el origen, es una delta de Dirac. La segunda dispersa las posiciones de tal modo que la probabilidad de encontrarlas en un intervalo nito es nula. El caso que ms nos interesa es el que viene a continuacin. h Supongamos ahora que l N m = 2D > 0. Si denimos k h = b 2Dt, tenemos que B := b t k

h A := a t k = a 2Dt,

A/ 2Dt x2 1 P (A XN B) = e 2 dx + N 2 B/2Dt A x2 1 = e 4Dt dx + N 4Dt B


de modo que

l P (A XN B) = m

1 4Dt

A B

e 4Dt dx .

x2

(15)

Este resultado es idntico al que obtuvimos anteriormente y es el que corresponde al lmite difusivo.

3. El proceso de Wiener.
3.1. Denicin y propiedades bsicas del proceso de Wiener.
Hemos analizado uno de los procesos ms simples en una dimensin: la caminata aleatoria (random walk). Hemos visto tambin que el lmite de las distribuciones de probabilidad discretas puede llevarse al continuo por medio de un lmite adecuado en el tamao de los pasos espacial y temporal. Las escalas entre ambos pasos estn vinculadas de una manera particular para que en el lmite obtengamos una distribucin de probabilidad no trivial. Concretamente, hemos visto que

h debe ser del orden de k , donde k es el paso temporal y h el espacial. Si elegimos h = k (D = 1/2), en el lmite podemos generar un proceso continuo, o una familia de variables 2 aleatorias reales Wt , indexadas por el tiempo t, que tiene las siguientes propiedades:
2 Como es costumbre en estadstica, utilizaremos letras maysculas para indicar a las variables aleatorias y
minsculas para indicar un valor particular de las mismas.

25

1. 2.

W0 = 0. Wt
es una variable aleatoria con distribucin normal, es independiente de

N (0, t). N (0, t s). Importante: Ws , sino que el incremento

3. Si

t > s, Wt Ws

Ws

y tiene distribucin

Esta propiedad no nos dice que

Wt Ws

lo es. Las variables

Wt Wt y Ws

sea independiente de

tienen correlacin no nula. Para jar estas ideas es

mejor tener en mente el mecanismo de construccin del proceso. Las propiedades 1-3 pueden obtenerse a partir de los procesos discretos de caminata aleatoria que hemos denido en el apartado anterior. Escribamos nuevamente al proceso discreto como suma de variables aleatorias independientes, de tipo Bernouilli:

kBn ,

XN =
n=1
donde

k := t/N

es el paso temporal y

Bn , 1 n N

son variables aleatorias

independientes
XN

que pueden tomar los valores es cero para todo

con probabilidad

1/2

respectivamente. La media de

N y su varianza es la suma de las varianzas de cada incremento, es decir V [XN ] = N V [ kB1 ] = N k = t. Cuando N (dejando a t constante, con k 0), la variable Wt := l N XN es una suma independiente de variables equidistribuidas y el m teorema de t). Ntese Laplace-De Moivre (cf. (15)) nos dice que Wt tiene una distribucin normal N (0,
que el mismo lmite puede obtenerse sumando cada paso en lugar de las

variables normales
Zn

adecuadamente escaladas en

Bn

discretas. Supongamos que

son variables normales de media 0

y varianza 1, y construimos el proceso (ahora con una distribucin continua de posibles valores de la posicin, pero con valores temporales discretos)

kZn

XN =
n=1

Zn = N (0, 1) .

dist

Es fcil mostrar que la suma de variables normales independientes sigue siendo normal, con media igual a la suma de las medias respectivas y varianza igual a la suma de las varianzas respectivas. En este caso, todo

XN

tendr una distribucin normal de media cero y varianza

para

N ! La misma distribucin lmite puede obtenerse con la suma de variables independientes,

tral del lmite.

idnticamente distribuidas y con varianza nita. Este resultado es conocido como

teorema cens,

Para ver la propiedad nmero 3 del proceso tenemos que tener en cuenta que los incrementos a partir de un valor de tiempo modo que la variable

son todos independientes del valor del proceso a tiempo

de

Wt

puede escribirse como:

kBn ,

Wt = Ws + l m
Dado que todas las pruebas tenemos que de

k = (t s)/N . s
son independientes de la variable

n=1

Bn

posteriores al tiempo

Ws ,

Wt Ws

es independiente de

Ws

y que su distribucin es normal con media cero.

proceso de Wiener,

Este proceso bsico, que hemos estudiado desde distintos puntos de vista, tiene el nombre y es fundamental para la construccin de otros procesos en distintas

disciplinas (fsica, qumica, biologa, nanzas, etc.) El incremento de est dado por

Wt en un intervalo [t, t+t]

Wt := Wt+t Wt =

tZt ,
26

Zt = N (0, 1) .

dist

Podemos escribir, para

t 0: dWt =

dtZt .
(16)

Wt se obtiene realizando una muestra de una variable normal independiente del valor actual de Wt , multiplicada por la raz del incremento innitesimal dt. El subndice en Zt se utiliza para indicar que la prueba aleatoria debe realizarse en tiempo t y que esta prueba es independiente
de las que deban realizarse para calcular incrementos en otros valores de tiempo. Como variables aleatorias son idnticas (estn idnticamente distribuidas) pero es importante comprender que la innidad de pruebas de las variables

Una aclaracin sobre el uso de subndices en (16). El incremento innitesimal del proceso

Zt

que deben hacerse para construir el proceso

Wt

son

todas independientes. Dicho de otro modo y salvando las diferencias, es como si tuviramos que arrojar una moneda en cada instante de tiempo para calcular una muestra de la evolucin del proceso. Como veremos a continuacin, esto es equivalente a denir una medida de probabilidad en un espacio de caminos continuos.

3.2. La medida de Wiener


En el apartado anterior hemos denido el proceso de Wiener como el lmite de una suma de variables aleatorias de un modo parecido al que utilizamos para integrar una funcin continua: Sumamos una gran cantidad de variables de varianza pequea. Conocemos la distribucin lmite de estas variables, pero no sabemos si les corresponde algn espacio de probabilidad, con una

-lgebra

de conjuntos medibles bien denida. Veamos en primer lugar que el mismo

proceso de construccin, y la escala utilizada para aadir las pruebas independientes, hacen que una muestra del proceso de Wiener sea una funcin continua (en un sentido probabilstico). Calculemos la siguiente probabilidad:

Por otra

1 P (|Wt+t Wt | > ) = P (| tZt | > ) = 2t parte, para / t > 1: e


|x|>
x 2t 2

e 2t dx
|x|>

x2

dx = 2

x 2t

dx 2

x 2 t

e 2 t dx = t
(17)

De modo que:

P (|Wt+t Wt | > ) = o((t)n ) n 0, t 0 ,


donde la ultima igualdad se obtiene teniendo en cuenta que

l u un eu = 0 para todo n > 0. m

No debemos confundir (17) con la nocin de regularidad de una funcin en el sentido usual. Si bien esta relacin nos dice que la probabilidad de dar un salto es de un orden arbitrariamente pequeo respecto de

t, esto no implica regularidad alguna. Es decir, puede haber una muestra

lmite (que tendramos que denir con precisin) que sea discontinua, ya que en principio

cualquier grca se podra obtener al sumar la innidad de variables independientes. La nocin


de la regularidad de estas muestras no tiene sentido hasta que no denamos un ambiente natural en el que deben vivir los procesos lmite y le asignemos una medida de probabilidad. En ese caso podramos intentar demostrar una armacin del tipo: el conjunto de funciones discontinuas tiene medida cero, o el conjunto de funciones diferenciables tiene medida cero. en el hecho de que la familia de variables

Construccin de la medida de Wiener. El proceso de construccin de la medida se basa


Wt
est incluida de forma natural dentro del conjunto

de funciones reales denidas en la semirrecta real positiva. Es decir, una lmite es como asignar un valor real a cada

muestra

del proceso

t > 0,

y en ese sentido nuestro espacio muestral de-

bera ser el conjunto enorme de las funciones reales denidas en 27

[0, +). Sin embargo, teniendo

en cuenta (17) es posible restringirse al conjunto tales que

(0) = 03 .

de funciones continuas

: [0, +) R,

De hecho, N. Wiener asumi la continuidad como un postulado ms en su

trabajo original. Imaginemos ahora que, dada una muestra valor de la funcin continua

la variable

Wt : R

nos devuelve el

en

t: Wt () = (t) .

La distribucin de probabilidad de medida para unos subconjuntos de

Wt

nos permite calcular la probabilidad de encontrar a la

variable en un intervalo real determinado. Esta

distribucin marginal

nos permitira denir la

muy particulares: de los

P (a Wt b) = medida
El conjunto

que pasan por el intervalo

[a, b]

en

t.

C[a,b];t := { : a (t) b}
se llama

conjunto cilndrico o ventana y su medida de probabilidad la denimos entonces como:


b

P C[a,b];t :=
a

(x, t)dx , Wt ,

e 2t , (x, t) := 2t

x2

(18)

esto es, usando la distribucin de la variable

t y media cero. C[a1 ,b1 ];t1 y C[a2 ,b2 ];t2 debemos tener en cuenta la distribucin conjunta de las variables Wt1 y Wt2 (t1 < t2 ) caracterizada por la independencia del incremento Wt1 := Wt2 Wt1 respecto de Wt1 . La probabilidad que queremos medir es la de las funciones continuas que pasan en t1 por un intervalo [a1 , b1 ] y en t2 por un intervalo [a2 , b2 ]. Para ello notemos que:
que es normal de varianza Para denir la probabilidad de la interseccin de dos ventanas

b1

b2

P (a1 Wt1 b1 , a2 Wt2 b2 ) =


b1 b2

(1)

p(x1 , t1 ; x2 , t2 )dx1 dx2


a1 a2 b1 b2

=
a1 a2

p(x2 , t2 |x1 , t1 )p(x1 , t1 )dx1 dx2 =


a1

p(x1 , t1 )
a2

p(x2 , t2 |x1 , t1 )dx2 dx1

donde en la igualdad (1) usamos la densidad de la distribucin conjunta

p(x1 , t1 ; x2 , t2 )dx1 dx2 := P (x1 Wt1 x1 + dx1 , x2 Wt2 x2 + dx2 ) .


La independencia de los incrementos nos dice que

p(x2 , t2 |x1 , t1 )dx2 = P (x2 Wt2 x2 + dx2 |Wt1 = x1 ) = P (x2 x1 Wt2 t1 x2 x1 + dx2 ) = (x2 x1 , t2 t1 ) ,
donde

(19)

Wt2 t1 := Wt2 Wt1 .

Finalmente:

b1

b2

P C[a1 ,b1 ];t1 C[a2 ,b2 ];t2 :=


a1
tonces denida la de la unin:

(x1 , t1 )
a2

(x2 x1 , t2 t1 )dx2 dx1 .

Habiendo denido la probabilidad de la interseccin de eventos elementales, tenemos en-

P C[a1 ,b1 ];t1 C[a2 ,b2 ];t2 = P C[a1 ,b1 ];t1 + P C[a2 ,b2 ];t2 P C[a1 ,b1 ];t1 C[a2 ,b2 ];t2 .
3 La demostracin de esta armacin nos llevara un poco lejos a cuestiones tcnicas de teora de la medida.
Vase [2].

28

Esto nos permite denir una medida en el lgebra generada por los conjuntos cilndricos lgebra

F0

(uniones e intersecciones nitas de estos conjuntos). A partir de aqu podemos denir la sigma

como la mnima que contiene a

F0

y la medida se extiende en forma continua a todos

ellos. No entraremos en los detalles tcnicos para mostrar que la medida est bien denida, vase [2] o [5]. La denicin de esta medida, debida a Norbert Wiener, nos permite integrar funcionales denidos en

(si probamos previamente que el funcional es medible...). Podemos interpretar,

dado un funcional

F(),

a su integral

F()dP

como el valor esperado del funcional dado.

=
notacin

F()dW

recorre las funciones continuas en un intervalo

F cuando

Ejemplo (Chorin-Hald) Dado T > 0, consideremos el funcional


F() := (T )2 .

En este caso

F()dW =

x P ( : x (T ) < x + dx) =

(x, T ) x2 dx = T ,

que es la varianza del proceso de Wiener en tiempo

T.

4. Interpretacin estocstica de esquemas numricos para EDP'S.


4.1. La ecuacin del calor: solucin numrica.
En la seccin 4.1 identicamos una ecuacin de difusin como la ecuacin consistente con el esquema en diferencias para las funciones de densidad

uh,k

(11). En el apndice A mostramos

que esta ecuacin tiene una solucin explcita bien denida con una condicin inicial de tipo delta de Dirac. En este apartado veremos que los valores de valores en los nodos de un

esquema numrico convergente

uh,k

pueden interpretarse como y nos aporta una nueva

para la ecuacin del calor. Esto

cierra el mtodo iniciado con la ecuacin en diferencias para

w(m, N )

interpretacin estocstica de la solucin de la ecuacin en derivadas parciales. Consideramos como punto de partida a la ecuacin del calor (13), con un coeciente de difusin

D > 0,

y un mallado espacial de paso

h,

y temporal de paso

trminos de la ecuacin diferencial utilizando el desarrollo de Taylor

k . Aproximamos para t > 0:

los

u(x, t + k) u(x, t) u (x, t) = + O(k) t k 2u u(x + h, t) 2u(x, t) + u(x h, t) (x, t) = + O(h2 ) 2 x h2


El

error de truncatura local


n m =

viene dado por:

un 2un + un un+1 un m m1 m m D m+1 k h2 = O(k + h2 ) ,


29

u 2u (mh, nk) D 2 (mh, nk) t x

es vlido para cualquier funcin suave sobre la malla, no necesarin m 0 para h, k 0 se denomina en anlisis numrico. n Denamos entonces Um como la solucin del siguiente problema discreto (m Z, n N0 ): amente tiene que ser la solucin de la ecuacin del calor!). La propiedad

donde

un = u(mh, nk) (esto m

consistencia

n n n n+1 n Um+1 2Um + Um1 Um Um =D , k h2


o puesto en forma explcita:

0 Um = u0 (mh) ,

n+1 n n n Um = Um (1 2) + Um+1 + Um1 ;


donde

0 Um = u0 (mh) ,

(20)

Dk 0 . A partir del dato inicial Um , podemos calcular los niveles temporales sucesivos h2 por medio de la frmula explcita (20). Ntese que para = 1/2 nos queda exactamente el mismo

:=

esquema que el deducido para la funcin de probabilidad discreta

w(m, N ). Independientemente n n n de esto, veamos la convergencia del esquema numrico discreto. Sea em = um Um . La ecuacin en diferencias para e viene dada por:
n en+1 = en (1 2) + en + en m m m+1 m1 + km ,
Intentamos comparar el error del paso temporal

e0 = 0. m n-simo.
Si tomamos el

n+1

con el del paso

error mximo para cada nivel de tiempo obtenemos:

en := mx(|en |) , m
m
y deniendo

n = mx|m,n |;
m
Si

= mx n .
n

1 2 0

1 ) tenemos la siguiente acotacin: 2

en+1 en + k en1 + 2k e0 + (n + 1)k .


Teniendo en cuenta que

e0 = 0 y que nos interesa estudiar la convergencia del esquema para un instante de tiempo nito (ie. nk = t, n , h 0), tenemos que el esquema es convergente para 1/2. En el caso lmite = 1/2, como mencionamos anteriormente, el esquema discreto coincide con el de las probabilidades para un camino aleatorio unidimensional y podemos reinterpretar el resultado en trminos estadsticos. Realicemos algunas iteraciones hacia atrs del esquema discreto (20) para

= 1/2:

n Um =

1 n1 n1 U + Um+1 2 m1 1 n2 n2 n2 = U + 2Um + Um+2 4 m2

1 multiplica a todos los trminos, donde j es 2j el nmero de iteraciones realizadas. Los coecientes que acompaan a cada uno de los valores n2 Um corresponden al nmero de caminos que pueden realizarse dando dos pasos temporales, n para llegar a Um (vase la gura).
Ya en estas dos iteraciones podemos observar que

esqnumerico.eps

30

Desde la posicin

(m + 1, n 2)

no puede accederse a

(m, n)

en slo dos pasos y por lo

tanto le corresponde un cero en el coeciente. A medida que seguimos iterando, el nmero de j caminos partido por 2 no es otra cosa que la probabilidad de llegar al punto (i, n j) desde

cualquiera de los costados. De este modo podemos escribir


n Um = i
Esta ecuacin nos permite interpretar a

la posicin

(m, n) cuando realizamos una caminata aleatoria con probabilidad 1/2 de ir hacia w(i m, n) Ui0 .
n Um
como el

(21)

valor esperado

de los valores iniciales

Ui0

sobre el espacio de probabilidad de los caminos que unen el punto (m, n) con la recta del nivel 0 incial. Utilizando la frmula asinttica para w(m, n) (vase (5)), Ui = u(ih, 0), t = nk , x = mh, y el hecho de que solamente la mitad de los puntos aportan al promedio, podemos escribir

Um,n
En este caso

1 = 2

2 k k(ihx)2 e 2h2 t u(ih, 0)h . t h

k h2

1 y obtenemos 2D

1 Ux/h,t/k = 2 Dt

e
i

(ihx)2 4Dt

u(ih, 0)h ,

y utilizando el resultado de convergencia numrica para

h, k 0: u(y, 0)dy ,

1 u(x, t) = 2 Dt
(yx)2

(yx)2 4Dt

donde recuperamos la expresin calculada mediante la transformada de Fourier en A, pero con

e 4Dt dy , es una medida sobre la recta, para cada x, t 2 Dt jos y la solucin de la ecuacin del calor es el del dato inicial con respecto a
una nueva interpretacin: La funcin

valor esperado
(x, t)

esta densidad de probabilidad para cada

hacia atrs.

x, t.

Ntese que ahora estamos

mirando el problema

Es decir, asignamos una densidad de probabilidad en el nivel de tiempo inicial y llegan al nivel inicial.

recorriendo hacia atrs los caminos que salen de

Por otra parte, teniendo en cuenta que la variable aleatoria es el proceso de Wiener a tiempo

t,

podemos interpretar el resultado anterior como el siguiente valor esperado:

u(x, t) = E [u0 (x + Wt )] ,
donde

es el valor esperado de la variable aleatoria

Wt

denida en el conjunto de caminos

continuos que salen del origen y la integracin se realiza respecto de la medida de Wiener.

4.2. La ecuacin del calor con una fuente


Consideremos el siguiente problema de valor inicial (caso en que

D = 1/2)
(22)

1 2u u = + (x) , t 2 x2

u(x, 0) = (x)

Aproximemos la ecuacin por el esquema explcito en diferencias:

n+1 n n Um = U n + (1 2)Um + Um1 + km m+1


31

:=

1 k . 2 h2

Mostremos la convergencia del esquema, sea

n en := Um un m m

en+1 = en + (1 2) en + en un+1 un + un 2un + un m m+1 m m m1 m m+1 m m1 + km


Donde, al ser vlida la consistencia del mtodo

un+1 un = m m un 2un + un m+1 m m1 =


De este modo

u k + o(k) t

k 2u + k oh (1) (oh 0, h 0) 2 x2 u 1 2 u + k + o(k) + koh (1) t 2 x2 = km + o(k) + koh (1)

un+1 un + un 2un + un m m m+1 m m1 =

Obtenemos entonces:

en+1 = en + (1 2) en + en + o(k) + koh (1) m m+1 m m1


Si

1/2

obtenemos la acotacin, deniendo

en = maxm |en |: m k h2 .

en+1 en + o(k) e0 + (n + 1)(o(k) + koh (1))


De modo que el esquema es convergente para Elegimos ahora

h, k 0

con

1/2,

es decir

= 1/2

y escribimos algunos pasos del mtodo numrico

1 n1 1 n1 n + Um1 + km Um = U 2 m+1 2 1 n2 1 1 n2 n2 = Um+2 + 2Um + Um2 + km+1 + km1 + km 4 2 2 n2 = E Um+X2 + kE [(xm + hX1 )] + kE [(xm + hX0 )]
donde

Xn =
i=1

Bi ,

X0 = 0

(23)

es una caminata aleatoria con pruebas independientes dadas por:

Bi =
y

1 1

con probabilidad con probabilidad

1/2 1/2

E[]

representa el valor esperado de la variable aleatoria correspondiente. Si seguimos este

esquema hasta el nivel de tiempo inicial, podemos escribir

n n Um

= E [(xm + hXn )] +
i=1
con

kE [(xm + hXi )]

tomando lmite para

h, k 0

h2 /k = 1,

podemos escribir

u(x, t) =

dW (x + Wt ()) +
0 t

ds

dW (x + Ws ())
(24)

= E (x + Wt ) +
0

(x + Ws ) ds

donde, como antes, la integral se realiza en el espacio de caminos continuos denidos en el intervalo

[0, t]

respecto de la medida de Wiener. Esta representacin es otro caso simple de la

frmula de Feynman-Kac. 32

Vericacin
La ecuacin con fuente puede resolverse formalmente sumando una solucin particular con valor inicial cero y una solucin de la ecuacin homognea ( dada por la expresin:

0). La solucin particular viene

up (x, t) =
0 t

(ts) 2 2 x2

(x) ds ds

=
0

(x x , t s)(x) dx
t +

h=x x, =ts t

(h, )(x + h) dh d
0

=
0

E[(x + W )] d

Tenemos entonces la misma expresin que antes.

4.3. La ecuacin del calor con potencial


Consideremos ahora la ecuacin

u 1 2u = + V (x)u t 2 x2
donde

u(x, 0) = (x) |V (x)| M .

(25)

representa un

potencial

que asumiremos acotado, esto es

Proponemos la discretizacin numrica

n n n n n+1 Um Um 1 Um+1 2Um + Um1 1 n n = + Um+1 Vm+1 + Um1 Vm1 2 k 2 h 2

(26)

El esquema del lado derecho est elegido especialmente para conseguir una interpretacin estocstica ms directa. Reescribimos la relacin en la forma

n+1 Um =

k k n n n + Vm+1 Um+1 + (1 2) Um + + Vm1 Um1 2 2

(27)

Veamos que el trmino nuevo en (26) no destruye la consistencia del mtodo numrico:

1 n 1 u V um+1 Vm+1 + un Vm1 = un + h + o(h) Vm + h + o(h) + m1 m 2 2 x x 1 u V un h + o(h) Vm h + o(h) m 2 x x = un Vm + o(h) m


La convergencia del esquema puede mostrarse siguiendo pasos anlogos a los de la ecuacin del calor con una fuente.

en+1 = m

k k + Vm+1 en + (1 2)en + + Vm1 en + o(k) + koh (1) m m+1 m1 2 2


33

Podemos acotar asumiendo que sean positivos:

1/2

y que

kM 2,

as garantizamos que los parntesis

en+1 (1 + kM ) en + o(k) + koh (1) (1 + kM )2 en1 + (1 + kM ) (o(k) + koh (1)) + (o(k) + koh (1)) 1 (1 + kM )n+1 n+1 0 . . . (1 + kM ) e + (o(k) + koh (1)) 1 (1 + kM ) (1 + kM )n+1 1 eM t 1 = (ok (1) + oh (1)) (ok (1) + oh (1)) . M M
Donde vemos que el algoritmo es convergente para Elegimos ahora

h, k 0.

= 1/2

y obtenemos el esquema

1 n1 1 n1 n Um = Um+1 (1 + kVm+1 ) + Um1 (1 + kVm1 ) 2 2


Escribamos

ekVj = 1 + kVj + o(k)


de modo que el algoritmo nos queda

1 n1 1 n1 n Um = Um+1 ekVm+1 + Um1 ekVm1 + o(k) 2 2


donde

o(k)

est uniformemente acotado con

|V | M .

Una iteracin ms del algoritmo nos da la expresin:

n Um =

1 n2 kVm+2 1 n2 kVm n2 n2 Um+2 e U e + Um2 ekVm2 ekVm1 + o(k) + Um ekVm ekVm+1 + 4 4 m

1 n2 1 n2 1 n2 = Um+2 ekVm+1 +kVm+2 + Um ekVm+1 +kVm + ekVm1 +kVm + Um2 ekVm1 +kVm2 + 2o(k) 4 4 4
Esto lo escribimos ahora en una notacin ms sugerente:

n Um =
caminos

P2 1 n2 Um+X2 () e i=1 kVm+Xi () + 2o(k) 22 Pn 1 0 Um+Xn () e i=1 kVm+Xi () + no(k) 2n Rt


0

=
caminos

k0
donde

(xm + Wt ()) e

V (xm +Ws ())ds

dW
a los caminos

Xi ,

es la caminata aleatoria discreta denida en (23) y denotamos con

discretos de esta variable. Utilizando el resultado de convergencia obtenemos la frmula de Feynman-Kac para la solucin de la ecuacin del calor con potencial:

u(x, t) =

(x + Wt ()) e
34

Rt
0

V (x+Ws ())ds

dW

(28)

Observacin
Vamos a interpretar el lado derecho de la frmula (28). Suponiendo la existencia de una solucin

u de (25), construimos el siguiente proceso estocstico basado en el proceso de Wiener s = u(x + Ws , t s) e


Rs
0

V (x+W )d

Para

s=0

la variable

es determinista (esto es, toma un nico valor con probabilidad 1) que

viene dado por

0 = u(x, t) .
Si dejamos evolucionar a

hasta

s=t
Rt
0

tenemos que

t = u(x + Wt , 0) e

V (x+W )d

= (x + Wt ) e
Rt
0

Rt
0

V (x+W )d

Tomando ahora valor esperado sobre los caminos continuos obtenemos la expresin

E[t ] = E[(x + Wt ) e u(x, t) = 0 .


Es decir que

V (x+W )d

Si queremos que esta frmula represente a la solucin de (25), esto debe coindidir con

E[t ] = 0

t > 0 .

Una forma de vericar esto es calcular la siguiente derivada

Rs d E[u(x + Ws , t s) e 0 V (x+W )d ] ds
y comprobar que es cero para todo valor de

s. En ese caso, la solucin coincidir con la frmula

de Feynman-Kac para la ecuacin con potencial.

5. Introduccin
Los conocimientos bsicos de Teora de las Probabilidades necesarios para seguir el curso pueden encontrarse en el captulo 2 del libro [Evans]. Dicho texto tambin proporciona un enfoque complementario sobre algunos de los temas expuestos en estas notas. En la seccin primera recapitulemos brevemente algunos de los conceptos vistos en la parte primera del curso. A continuacin, en la seccin segunda describiremos con detalle la construccin de la medida de Wiener y del movimiento Browniano.

6. Construccin de una caminata aleatoria innitesimal


Hemos considerado el movimiento de una partcula que describe una la recta real

caminata aleatoria

en

R.

La posicin

Xn

de la partcula tras

nN

pasos temporales viene regida por

las siguientes leyes: 1. En el instante inicial la partcula se encuentra en el origen: 2. A cada paso temporal, la partcula se mueve una distancia izquierda con probabilidad

X0 = 0.
ja, a la derecha o a la

1/2.

En otras palabras, para

h > 0, n N,

Xn = Xn1 + hBn ,
donde

(29)

Bn

es una variable aleatoria tal que

P (Bn = 1) = P (Bn = 1) = 1/2.


35

(30)

3. El incremento de la posicin de la partcula en un paso de tiempo los incrementos correspondientes a los pasos aleatorias

es independiente de

1, ..., n 1.

Ms precisamente, las variables

Bn , n N, Wt ,

son independientes dos a dos.

El problema principal al que hemos dedicado el primer captulo del curso fue el de construir una ley de propagacin

innitesimal, de la caminata aleatoria. Con ello queremos decir:


(i) para cada instante aleatoria.

denida para instantes de tiempo

t [0, ),

que fuera una versin

t>0

la partcula se desplaza hacia la derecha o la izquierda de forma

(ii) al igual que ocurre con la caminata aleatoria, el incremento de la posicin partir de un instante

Wt+h Wt a t es independiente del recorrido previo de la partcula Ws para s t.

Dicho problema fue contemplado originalmente por Albert Einstein (1905) en su intento formular una teora cuantitativa que describiera las observaciones realizadas, entre otros, por el botnico Robert Brown (alrededor de 1827) sobre el movimiento, aparentemente catico, que describen pequeas partculas de polen en suspensin sobre un lquido. tambin que el proceso (iii) los caminos

4 Debido a considera-

ciones fsicas  las partculas no saltan instanneamente de una posicin a otra  requeriremos

Wt

satisfaga:

(Wt )t0 Wt

son continuos.

Para construir

hicimos lo siguiente. Fijado

t [0, )

dividimos el intervalo

[0, t]

en

N N
y, para

partes iguales; escribirmos

k := t/N, n = 0, ..., N ,
k Wnk := Xn ,
con la intencin de denir En media, la posicin

Wt como el lmite, cuando k 0+ , Wtk de la partcula es cero: E Wtk = 0.

de los

k Wtk = WN k .

No obstante, su desplazamiento cuadrtico medio es:

E
As pues, si hacemos tender

2 Wtk

h2 = h N = t. k
2

(31)

a cero sin ms, obtenemos que dicho desplazamiento converge a

innito. Si pretendemos obtener un lmite no trivial, hemos de reescalar tambien el parmetro 2 espacial h. Si hiciramos tender h a cero de modo que h /k 0 la identitad (31) sugiere que el proceso lmite obtenido es determinista, en el sentido de que la partcula permanece indenidamente en su posicin inicial 2 Si elegimos h de modo que h /k garantiza que:

W0 = 0. 2D > 0

entonces el teorema de Laplace-de Moivre

h,k0 h2 /k2D

l + P A Wtk B = m

1 4Dt

B A

e 4Dt dx. Wt

x2

(32)

Por tanto, la ley de probabilidad de un eventual proceso lmite media cero y desviacin tpica

2Dt.

Lo hecho hasta ahora

no prueba

ha de ser una normal de an la existencia del

4 Un comentario ms detallado de los aspectos histricos del decubrimiento del movimiento Browniano puede
encontrarse en el libro [Nelson67].

36

proceso lmite

Wt . Simplemente permite armar que, de existir Wt , ste ha de estar distribuido 2Dt . segn una ley normal N 0; Para obtener la ley de Wt nos hemos servido de una caminata aleatoria cuyos incrementos Bn
in-

estn distribuidos segn una ley muy particular (30). Es natural preguntarse si el resultado nal (32) depende de esta circunstancia. Dicho de otro modo: tomemos incrementos dependientes e idnticamente distribuidos  no necesariamente segn (30)  y formemos la k correspondiente caminata aleatoria (29); puede el lmite de los nuevos Wt seguir una ley que no sea normal? La respuesta a esta pregunta es negativa, y se conoce como

del Lmite.

Teorema Central

Teorema 6.1

(Teorema Central del Lmite)

Sean

dientes, idnticamente distribuidas, con media cero Entonces, para todos los reales

Bn , n N, variables aleatorias indepen2 E [Bn ] = 0 y varianza nita E [Bn ] = 2 . 1 2 2


b b
x2

a<b

se tiene

l P m

B1 + ... + Bn b n

e 22 dx.

Vemos por tanto que la distribucin normal aparece de forma natural como la nica distribucin posible para el proceso lmite suele decir que el

Wt

es un

objeto universal. Vimos tambin en el captulo 3 de la primera parte,


t>s0
necesariamente el incremento si

Wt ; dicho fenmeno se comoce como universalidad N 0; t s

y se

procediendo de forma anloga, que para de ser independiente de

Wt Ws
.

ha

y ha de tener una distribucin

7. El movimiento Browniano y la medida de Wiener


Lo hecho hasta ahora nos conduce a introducir la siguiente denicin.

5 espacio de probabilidad

Denicin 7.1.

Una familia de variables aleatorias reales

(, P)

es un

proceso de

Wiener 6 o

Wt , t [0, ),

movimiento Browniano 7

denidas sobre un estndar

si cumple las siguientes condiciones:

B1. W0 = 0. B2. Dados 0 t1 t2 ... tn

los incrementos

Wtn Wtn1 ,
son independientes.

Wtn1 Wtn2 ,
el incremento

... Wt2 Wt1


tiene una distribucin normal

B3.

N 0; h

Para todos .

t 0

h > 0,

Wt+h Wt

B4. Para casi todo se tiene que t Wt () es una aplicacin continua.


Esta denicin es un poco distinta de la que dimos en el captulo 3 de la primera parte de las notas. Recurdese la notacin:

(x, t) :=
Escribiremos tambin:

1 x2 e 2t , 2t

para

t > 0.

(x, 0) := 0 (x) ,
5 Salvo en los casos en que pueda haber ambigedad, no haremos referencia explcita a la sigma lgebra de

sobre que la que denimos la probabilidad

6 Esta es la terminologa preferida por los fsicos. 7 Es el trmino ms utilizado en la literatura matemtica.
37

P.

siendo

la medida de Dirac centrada en el orginen

distribucin de que

W0

es precisamente

0 .8

x = 0.

La condicin B1 expresa que la

La hiptesis B2 puede parecer un poco extraa en un primer contacto. Claramente, implica

Wt+h Wt

es independiente de

Ws

para todos los

s t.

El hecho de introducir esta

condicin ms fuerte es que determina de forma nica la distribucin conjunta de las variables

Wt1 , Wt2
para cualquier eleccin de

... , Wtn
Dicha ley necesariamente es:

(33)

0 t1 t2 ... tn .

P (Wt1 A1 , Wt2 A2 , ...Wtn An ) =


A1
para tiene

(34)

...
A2 An

(x1 , t1 ) (x2 x1 , t2 t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn ,


Boreliamos.

A1 , ..., An R

9 En otras palabras, para toda funcin

: Rn R

medible, se

E [ (Wt1 , ..., Wtn )] =


Rd
siendo

(x1 , ..., xn ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn , P.

(35)

la esperanza tomada respecto a

Es fcil demostrar que si un proceso verica que la ley conjunta de (33) viene dada por (34) entonces automticamente se tiene B2 y B3. Consideremos la siguiente condicin: B3'.

Wt+h Wt estn idnticamente distribuidos.


conocen como

Para todos t 0 y h > 0, los incrementos


Puede demostrarse, utilizando el Teorema

Central del Lmite que B2, B3' y B4 implican B3. Los procesos que verican B2 y B3' se

procesos de Lvy.
Wt .

A continuacin describimos cmo construir un espacio de probabilidad movimiento Browniano

(, P)

dotado de un

7.1. Sobre el espacio muestral


Supongamos por un momento que hemos construido un movimiento Browniano Wt en un espacio de probabilidad (, P ); esto es, Wt satisface B1,...,B4. Cada dene a travs del movimiento Browniano un camino

[0, )

t Wt () .

Dicho de otro modo, un movimiento Browniano induce una aplicacin:

W : R[0,) (Wt ())t[0,) ;


[0,) es conviente recordar que el producto cartesiano R es por denicin el conjunto de las funciones de [0, ) en R. La aplicacin W es Borel medible, puesto que cada una de sus componentes Wt lo es. La probabilidad P induce, a travs de la aplicacin W , una medida
8 Para una funcin medible de R se tiene (x) d0 (x) = (0). R 9 Si t = 0 hay que interpretar en (34) la integral respecto a la medida
1
a

todas

(x1 , 0) dx1

como la integral respecto

0 (x1 ).
38

de probabilidad ponemos

en los Borelianos de

R[0,)

del siguiente modo: para

E R[0,)

Boreliano,

P (E) := P W E = P
La medida de tiene

: W () E

P se suele llamar distribucin del proceso Wt . De hecho, P es la distribucin conjunta todas las variables aleatorias Wt para t [0, ). Si F : R[0,) R es medible entonces se F W dP =

Es sencillo demostrar el siguiente resutado.

F () dP () .
R[0,)

(36)

Proposicin 7.2. Todos los movimientos Brownianos tienen la misma distribucin P. Ms an,
si

Wt : R[0,) R

est denida por

denido sobre el espacio de

Wt () := (t) entonces Wt [0,) probabilidad R ,P .

es un movimiento Browniano

Vemos pues que existe una representacin la cual el proceso

cannica del movimiento Browniano. El problema


R[0,)
para

de su construccin es equivalente al de encontrar una medida de probabilidad sobre

Wt () := (t) es un movimiento Browniano. Dicha medida existe y se conoce

como la medida de Wiener. Describiremos a continuacin un modo de construirla. En lo sucesivo utilizaremos el smbolo P exclusivamente para referirnos a la medida de Wiener y escribiremos, [0,) para R , Wt () := (t). De los axiomas B1,..., B4 de la denicin del movimiento Browniano inferimos las siguientes propiedades para la medida de Wiener 1. Si

P. 0 t1

E R[0,) ... tn :

es una interseccin de ventanas elementales, esto es, para ciertos

E = C[a1 ,b1 ];t1 ... C[an ,bn ];tn = R[0,) : aj (tj ) bj


entonces, utilizando (34), deducimos: para

j = 1, ..., n

b1

bn

P (E) =
a1

...
an

(x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn . F

(37)

2. La frmula anterior se puede generalizar del siguiente modo. Si de la forma

es una funcin medible

F () = F ( (t1 ) , ..., (tn ))


R[0,)

entonces, debido a (35) y (36): (38)

F ( (t1 ) , ..., (tn )) dP () =


Rn
3. Una consecuencia inmediata de (37) es que

F (x1 , ..., xn ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn

R[0,) : (0) = 0 Wt

= 0.

4. La propiedad B4 de la denicin de

es equivalente a armar: (39)

P (C0 ([0, ) ; R)) = 1,


donde que

C0 ([0, ) ; R) (0) = 0.

denota el conjunto de los caminos continuos

de

[0, )

en

tales

La construccin que daremos de la medida

de (38) permite extender de forma nica la medida

se basa en probar que la denicin a travs P a todos los Borelianos de R[0,) . El

instrumento que permite esta extensin es el Teorema de Riesz-Markov. 39

7.2. El teorema de Riesz-Markov


El Teorema de Representacin de Riesz-Markov permite identicar ciertas medidas de Borel

10 en un espacio topolgico

con funcionales lineales denidos sobre

Cc (X),

el espa-

cio de las funciones continuas, a valores reales y con soporte compacto, denidas sobre

separable y localmente compacto. Teorema 7.3 (Riesz-Markov). Sea L una aplicacin lineal de Cc (X)
Supondremos que

X.

es

en

R.

Si

es positiva,

esto es, de

Lf 0

para

que representa a

f 0, L: Lf =

entonces existe una nica medida

denida sobre los borelianos

f (x) d (x) ,
X

para toda

f Cc (X) . K X.

(40)

La medida

verica adems que

(K)

es nita para todo compacto

La demostracin y varias de las aplicaciones de este resultado pueden leerse en [Rudin]. Hagamos algunas observaciones antes de proseguir. 1. Si

L es positiva entonces es automticamente continua. Basta observar que, para f Cc (X) con soporte en un compacto K X se tiene: |Lf | L |f | CK mxxX |f (x)| a con CK := L para Cc (X), con 0 e identicamente igual a uno sobre K .
que verica (40) se dene del siguiente modo. En primer lugar, para un conjunto abierto

2. La medida

V X

ponemos:

(V ) := sup {L : Cc (X) ,
Una vez hecho esto, denimos para

0 1,

sop V } .

EX

arbitrario: abierto y

(E) := { (V ) : V X nf

E V }. X.

(41) S es posible

3. La expresin (41) no dene una medida sobre todos los subconjuntos de probar que es una medida sobre los borelianos de

X.

De hecho,

puede denirse sobre

una sigma lgebra los conjuntos

A un poco mayor, que se forma aadiendo a los borelianos todos E X con la propiedad de que E est contenido en un boreliano B con
11 entonces es posible demostrar que
compacto y

(B) = 0.
4. Si

no es demasiado patolgico

adems verica: (42)

(E) = sup { (K) : K

K E} .

5. El Teorema de Riesz proporciona un modo de denir la integral de Lebesgue en d partir de la de Riemann. Consideramos la aplicacin lineal sobre Cc R :

Rd

Lf :=
Rd

f L
es positiva por lo

donde la integral se intepreta en el sentido de Riemann. Claramente, que el Teorema de Riesz garantiza la existencia de una medida

que satisface:

f=
Rd Rd

f (x) dm (x) ,

siendo la segunda integral la denida mediante la teora de la medida. Esfcil probar que m es precisamente la medida de Lebesgue sobre Rd .

10 Se llama

medida de Borel

sobre un espacio topolgico

a una medida denida sobre la sigma lgebra

generada por los conjuntos abiertos de compactos.

11 No demasiado patolgico quiere decir aqu que todos los abiertos de

X.

Los elementos de dicha sigma lgebra se denominan

Borelianos.

son unin numerable de conjuntos

40

6. Otra medida importante es la que resulta de evaluar en un punto. Tomemos denamos

x0 X

Lx0 : Cc (X) R . (x0 ) L x0


es lineal y positivo. Por tanto existe una medida

De nuevo

x0

con la propiedad:

(x) dx0 (x) = (x0 ) .


X
Dicha medida se conoce como la que

masa de Dirac
({x0 }) = 1. Rd )

centrada en

x0 .

Es inmediato comprobar

x0 (E) = 0

si

x0 E /

y que

En el caso de

X = Rd

(o un abierto de

el teorema de representacin de Riesz puede

renarse notablemente.

Teorema 7.4

d una distribucin positiva, esto es, que verica Sea T D R d T () 0 para toda Cc R tal que 0. Entonces existe una medida , con las mismas propiedades que en el Teorema 7.3 que verica:
(Schwartz)

T () =
Rd

(x) d (x) .

La demostracin puede encontrarse, por ejemplo, en el altamente aconsejable [LiebLoss]. Vemos pues que, por el simple hecho de ser positiva, T puede extenderse de Cc Rd a todas las funciones Borel medibles de soporte compacto.

7.3. La construccin de la medida de Wiener


La construccin que daremos es debida a E. Nelson [Nelson64]. Probaremos en esta seccin el siguiente resultado.

Proposicin 7.5.

[0,) sobre los Borelianos de R que satisface (37), (38). [0,) Como consecuencia de esto, el proceso en R , P denido por Wt () := (t) cumple la
Existe una medida

propiedades B1, B2 y B3.

L que se comporte como (38) sobre fun[0,) ciones que dependen de un nmero nito de coordenadas. Ms concretamente, si F : R R
es de la forma

La idea que seguiremos es la de denir un funcional

F () = F ( (t1 ) , ..., (tn )) ,


entonces denimos, basndonos en (38),

para ciertos

0 t1 ... tn ,

(43)

L (F ) :=
R

...
R

F (x1 , ..., xn ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn .

(44)

Se nos presentan dos grandes diculdas para aplicar el Teorema 7.3 en este contexto. Si X es innito dimensional entonces no es localmente compacto  por ejemplo, C ([0, ) ; R), RN o un espacio de Hilbert de dimensin innita no son localmente compactos. Ms precisamente, es fcil probar que un producto de espacios localmente compactos es localmente compacto si y slo si todos los factores, salvo eventualmente un nmero nito, son compactos. Lo que es ms importante, una funcin continua de la forma (43) no pertenece a 41

Cc R[0,)

Un modo de rodear estas dicultades es el siguiente. Denotemos por de de

R obtenida aadiendo un punto al innito; es decir, R : = R {} se denen como los complementarios de los compactos de R.
El espacio producto

la compacticacin

y los entornos abiertos

:= R[0,)
es automticamente compacto

Cc () = C (). Es en este marco consta simplemente de los caminos de R que pueden eventualmente pasar por el innito y que C := C () se puede identicar con las [0,) cuyas coordenadas tienen lmites nitos e idnticos en . funciones de C R Denotemos por Cn al conjunto de las funciones F continuas de en R de la forma (43). En otras palabras, Cn es subconjunto de C := C () constituido por las funciones que dependen nicamente de un nmero nito de variables. Denimos sobre Cn un funcional L mediante la formula (44). El funcional L est bien denido, puesto que:
ms an, donde aplicaremos el teorema de Riesz. Obsrvese que 1. La integral que lo dene es siempre nita. Ms an,

12 y contiene

R[0,) ;

|L (F )|

sup |F ()| .
R[0,)

(45)

2. La denicin (44) es consistente. Si

no depende de la coordenada tn claramente se tiene:

...
R R

F (x1 , ..., xn1 ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn ... F (x1 , ..., xn1 ) (x1 , t1 ) ... (xn1 xn2 , tn1 tn2 ) dx1 ...dxn .
R

=
R

L es positivo sobre Cn . El teorema de Stone-Weierstrass13  vase [Dugundji]  implica que Cn es denso en C ; ello, junto con la estimacin (45) permite asegurar que L se puede extender a un funcional lineal positivo sobre C .
Es evidente que de una medida que representa a claramente Estamos en condiciones de aplicar el teorema de Riesz-Markov y as obtener la existencia L. Denotamos por P a la restriccin de dicha medida a R[0,) ;

satisface (37). Queda por comprobar que tambin verica (39).

7.4. La continuidad de las trayectorias del movimiento Browniano


Concluiremos la demostracin de la existencia de la medida de Wiener probando:

Teorema 7.7
abilidad uno:

(Wiener)

Las trayectorias del movimiento Browniano son continuas con prob-

P (C0 ([0, ) ; R)) = 1.


12 Un producto  eventualmente no numerable  de espacios compactos es compacto. Este resultado se conoce
como el teorema de Tychonov. Vase [Dugundji] para una demostracin. K. Weiertrass reza as:
Teorema 7.6. Sea

13 La extensin de M. Stone del resultado clsico de aproximacin de funciones continuas por polinomios de

un espacio topolgico y

nula y que separa puntos  esto es, dados lgebra  respecto ala suma y el producto

D C (X) un conjunto de contiene una funcin constante no x, y X con x = y existe f D tal que f (x) = f (y). Entonces el  generada por D es densa en C (X).

42

Sea

(, ) := sup
0<t
claramente

(x, t) dt;
|x|>

(, ) = o ()
en un intervalo de longitud que todos los caminos

cuando

0.

Vamos a acotar la probabilidad de que un camino tenga una variacin de tamao mayor que

en funcin de . En todo lo que sigue, supondremos implcitamente considerados vercan (0) = 0.


y

Lema 7.8.

Sean

, > 0

0 t1 ... tn

tales que

tn t1 < .

Consideremos el conjunto

E := { : | (ti ) (tj )| > 2


Entonces

para ciertos

i, j = 1, ..., n} .

P (E) 2

, . 2

Demostracin. Basta probar que


P (A) 2
siendo

, , 2
para algn

A := { : | (t1 ) (tj )| >


puesto que

j = 2, ..., n} ,

E A. A
en distintas partes y estimar cada una de ellas. Sean

Vamos a descomponer

B := { : | (t1 ) (tn )| > /2} , Cj := { : | (tj ) (tn )| > /2} , Dj = { : | (t1 ) (tj )| >
Entonces se tiene: y

| (t1 ) (tk )|

para

k j} .

ABC
siendo

C :=
Esto es debido a que, dado entonces necesariamente

n j=2

(Cj Dj ) . j0
para el cual

A existe Cj0 . As,

un ndice menor

Dj0 .

Si

B /

P (A) P (B) + P (C) , + P (C) . 2


Ahora bien, visto que los incrementos

(tn ) (tj )

son independientes, tenemos

P (Cj Dj ) = P (Cj ) P (Dj ) , P (Dj ) . 2


Finalmente, como los

Dj

son disjuntos, se concluye la demostracin.

A partir de aqu la prueba del teorema es tcnica. Comencemos extendiendo el resultado a un intervalo continuo de tiempos. 43

Lema 7.9.

Sea ahora, para

0a<b

con

ba

y para ciertos

E (a, b, ) := { : | (t) (s)| > 2


Nuevamente,

t, s [a, b]} .

P (E (a, b, )) 2

, . 2

Demostracin. Sea S [a, b] nito y escribamos


E (a, b, , S) := { : | (t) (s)| > 2
El lema anterior garantiza que para ciertos

t, s S} .

(46)

P (E (a, b, , S)) 2
Claramente, nitos de

, . 2
recorre los subconjuntos

E (a, b, ) es la unin de los abiertos E (a, b, , S) cuando S [a, b]. Ms an, P (E (a, b, )) = sup P (E (a, b, , S)) ,
S

puesto que, dado

r>0

existe

K E (a, b, )

compacto  esto es una consecuencia del teorema

de Riesz  tal que

P (K) > P (E (a, b, )) r.


Necesariamente,

est contenido en la unin de un nmero nito de conjuntos (46) y dicha

unin es tambin un conjunto de la forma

E (a, b, , S).

Por tanto

P (E (a, b, , S)) > P (E (a, b, )) r,


lo cual concluye la demostracin.

Lema 7.10.

Sea

kN

y supongamos que

1 N.

Sea

F (k, , ) := { : | (t) (s)| > 4


Entonces

para ciertos

t, s [0, k] , |t s| < } .

k P (F (k, , )) 2 , . 2

Demostracin. Podemos escribir [0, k] como unin de los subintervalos


[0, ] , [, 2] , ...., [(k 1) , k] .
Si

F (k, , )

entonces

tervalos consecutivos. En cualquier caso subintervalos.

| (t) (s)| > 4 para t, s en el mismo subintervalo o en subin pertenece a E (a, b, ) siendo [a, b] uno de los dos

Para concluir la prueba del Teorema basta observar que:

C0 ([0, ) ; R) =
kN nN mN
En particular, como cada uno de los Por otra parte,

1 1 k, , n m

F (k, 1/n, 1/m)c

es cerrado,

C0 ([0, ) ; R) es un Boreliano. ,

C0 ([0, ) ; R)c =
kN nN mN
44

1 1 k, , n m

y claramente,

P
con lo que

mN

1 1 k, , n m

= l P F m
m

1 1 k, , n m

= 0,

P (C0 ([0, ) ; R)) = 1.

La construccin privilegiada por muchos textos se basa en probar que una medida que satisface (37) se puede extender a una medida de probabilidad sobre la sigma lgebra

B0

gen-

erada por las ventanas elementales (se utiliza el conocido como Teorema de extensin de Kolmogorov). Este enfoque tiene algunos inconvenientes tcnicos. Por ejemplo, como resultado de ello, el conjunto

C0 ([0, ) ; R) no es B0 -medible

 aunque puede probarse que existe un

conjunto que diere de l en un conjunto de medida nula que s lo es. Ello es debido a que

B0

es estrictamente menor que la sigma lgebra de los Borelianos. Para darse cuenta de elmientras que un conjunto del tipo [0,) es un abierto  y por tanto un Boreliano  de R . En par-

lo basta observar que cualquier union o interseccin numerable de ventanas elementales slo depende de una cantidad numerable de componentes

tj ,

{ : (t) > a

para algn

t R}

ticular, los anlogos de los lemas 7.9 y 7.10, que en nuestro caso son triviales, son mucho ms difciles de demostrar si uno trabaja con

B0 . RN
(equipado de una medida

La construccin original de N. Wiener se basa en tomar en

Gaussiana) una sucesin Gn , n = 0, 1, 2, ... de variables N (0; 1) independientes y denir para RN el camino Wt ()mediante una serie de Fourier con coecientes aleatorios:

Wt () := G0 () t +

2n 1

2
n=1 k=2n1

Gk (kt)

senkt . k t.
En el

Wiener demostr que la serie converge para casi todo tcnicamente mucho ms sencilla, debida a P. Lvy.

a una funcin continua en

captulo 3 de [Evans] puede encontrarse una demostracin basada en ideas similares, aunque

lo que hemos probado. Sea que, para todos

Es posible demostrar que las trayectorias del movimiento Browniano son ms regulares de C0 ([0, ) ; R) el espacio de los caminos Hlder de exponente > 0 que arrancan del origen, esto es, C0 ([0, ) ; R) si (0) = 0 y, dado k > 0, existe K tal

t, s [0, k] | (t) (s)| K |t s| .

Teorema 7.11.

0 < < 1/2 entonces P (C0 ([0, ) ; R)) = 1. Si 1/2 entonces P (C0 ([0, ) ; R)) = 0. En particular, con probabilidad uno las trayectorias del movimiento
Si

Browniano no son diferenciables.

Ejercicio 7.12.

Sea

SR

un Boreliano de medida cero. Prubese que el conjunto de medida positiva}

S := { : (t) S
verica

para un conjunto de tiempos

P (S ) = 0.
Advertencia: ante todo hay que probar que

es medible.

45

8. Frmula de Feynman-Kac y ecuaciones en derivadas parciales


8.1. Introduccin
Vimos en la primera parte del curso que la medida de Wiener conduca a una representacin muy sugerente para las soluciones de la ecuacin del calor. Concretamente, si

es solucin de

t u (x, t) 1 u (x, t) = 0, 2 u (x, 0) = (x) ,

(x, t) Rd [0, ) ,

(47)

Kac :

con, pongamos,

L2 R d

, entonces

puede representarse mediante la

fmula de Feynman(48)

u (x, t) =

donde

(x + (t)) dP,

:= C0 ([0, ) ; R)

denota la medida de Wiener.

14 Esta representacin propor-

ciona un marco comn para la resolucin de ecuaciones en derivadas parciales de carateres, en principio, muy diversos. Ilustremos esto con la ecuacin:

t u (x, t) v u (x, 0) = (x) ,


para

x u (x, t)

= 0,

(x, t) Rd [0, ) ,

(49)

v Rd .

Claramente,

u (x, t) = (x tv) ,
y podemos escribir,

u (x, t) =

siendo

(x + (t)) dMv ,
que satisface:

Mv

la medida de probabilidad sobre

Mv

(tv)t[0,)

= 1.

Pese a que (47) es parablica y (49) es hiperblica, ambas ecuaciones admiten una solucin en trminos de una integral del dato inicial en el espacio de caminos Llevados por esta analoga, podemos decir que las trayectorias del movimiento Browniano son las curvas caractersticas de la ecuacin del calor. De hecho, esta armacin es ms que una mera analoga. En la seccin siguiente mostraremos una aplicacin de la frmula de FeynmanKac (en su versin con potencial, que describimos a continuacin) al estudio del comportamiento de los autovalores de un operador de Schrdinger.

8.2. La frmula de Feynman-Kac para 1 + V 2


Nuestro objetivo ser derivar una frmula anloga a (48) para las soluciones de la ecuacin del calor con potencial:

1 t u (x, t) 2 u (t, x) + V (x) u (t, x) = 0,

(x, t) Rd [0, ) ,

u (x, 0) = (x) .
Concretamente, probaremos el resultado siguiente:

(50)

14 Conviene observar que la demostracin de esta frmula es elemental una vez que se conoce la frmula
explcita para la solucin fundamental para la ecuacin del calor en

Rd .

46

Teorema 8.1 (Frmula de Feynman-Kac).


y sea

C R

15 Entonces, para todo una funcin que se anula en el innito.

Sea

una funcin continua y acotada de

Rd
d

en

R,

xR

se tiene

que la solucin

de (50) viene dada por:

u (x, t) =

(x + (t)) e

Rt
0

V (x+(s))ds

dP.

(51)

Antes que nada, conviene saber que la frmula (51) es vlida bajo hiptesis mucho ms 2 dbiles sobre V y . Concretamente, basta suponer, por ejemplo, L Rd y V L1 Rd loc esencialmente acotado inferiormente [Nelson64, TayPDEII]. La prueba que presentamos es debida a Nelson [Nelson64] y est basada en la frmula de Lie para las soluciones de una ecuacin diferencial asociadas a la suma de dos campos de vectores (que en el marco innito-dimensional se conoce como frmula de Trotter). Comencemos recordando el resultado clsico de Lie:

Teorema 8.2

(Frmula de Lie)

Sean

matrices cuadradas

d d.

Entonces: (52)

et(A+B) = l m et/nA et/nB


n

Este resultado expresa que, para calcular las soluciones de la ecuacin diferencial:

x = (A + B) x
basta saber resolver alternativamente las ecuaciones

y = Ay,
en intervalos de tiempo cortos la frmula anterior es una identidad:

z = Bz,
conmutan

t/n. Como es bien sabido, si A y B et(A+B) = etA etB = etB etA .

AB = BA entonces

Ejercicio 8.3.

Demuestra la frmula de Lie (52).

La frmula de Lie es vlida en un marco ms general que el que presentamos aqu (en concreto, es cierta en el contexto de espacios de Banach y generadores de grupos de contracciones, vase [TayPDEII], Apndice 11.A). Nos limitamos a enunciar el resultado parcial que nos ser til; en cuanto a su demostracin, remitimos al lector a las referencias antes citadas.

Proposicin 8.4.
la solucin

Supongamos que

satisfacen las hiptesis del Teorema 8.1. Entonces

u (x, t)

de (50) viene dada por:

u (x, t) = l m et/n/2 et/nV


n
De hecho, la convergencia en (53) es uniforme sobre

(x) .

(53)

Rd .

sin potencial

El aspecto notable de la identidad (53) es que slo involucra resolver la ecuacin del calor et/2 y multiplicar por la funcin etV ; ambos pasos son explcitos. Comencemos usando la frmula (48) para deducir:

et/n/2 et/nV (x) =

et/nV (x+(t/n)) (x + (t/n)) dP et/nV (x+x1 ) (x + x1 ) (x1 , t/n) dx1 ;


Rd
existe

=
15 Con esto queremos decir que dado

>0

K Rd
47

compacto tal que

| (x)| <

para

x Rd \ K .

ahora, repitiendo el clculo anterior y realizando dos sencillos cambios de variable obtenemos:

et/n/2 et/nV =

(x) et/nV (x+x1 ) (x + (t/n) + x1 ) (x1 , t/n) dx1 dP


Rd

et/nV (x+(t/n))

=
R2d

et/nV (x+x2 ) et/nV (x+x1 +x2 ) (x + x1 + x2 ) (x1 , t/n) (x2 , t/n) dx1 dx2 et/nV (x+x2 ) et/nV (x+x1 ) (x + x2 ) (x1 , t/n) (x2 x1 , t/n) dx1 dx2 ,
R2d

y, reproduciendo el proceso anterior, obtenemos en general:

et/n/2 et/nV

(x) =
Rnd

et/n(V (x+xn )+...+V (x+x1 )) (x + xn )

(x1 , t/n) (x2 x1 , t/n) ... (xn xn1 , t/n) dx1 ....dxn .
Esta expresin no es ms que:

et/n/2 et/nV

(x) =

et/n

Pn
j=1

V (x+(j/nt))

(x + (t)) dP,

(54)

esto es, la esperanza de la variable aleatora:

Rn (t,)

(x + (t)) ,

donde

t Rn (t, ) := n t R,

V (x + (j/nt)) .
j=1

Ahora bien, si

(t)

es continuo entonces, para todo

t n
con lo que para

l Rn (t, ) = m
0
se tiene:

V (x + (s)) ds,

P-casi

todo

n
Como

l eRn (t,) (x + (t)) = e m

Rt
0

V (x+(s))ds

(x + (t)) .

es acotada, tenemos que

eRn (t,) (x + (t))

estn uniformemente acotadas (con re-

specto a

). As, podemos aplicar el teorema de la convergencia dominada y concluir, utilizando

(54) y (53) la frmula (51).

8.3. La frmula de Feynman para la ecuacin de Schrdinger


La idea de interpretar las soluciones de una ecuacin en derivadas parciales en trminos de una integral sobre un espacio de caminos es debida originalmente a Feynman en el contexto de sus investigaciones sobre la mecnica cuntica. Feynman se interes a interpretar las soluciones de la ecuacin de Schrdinger en trminos de trayectorias clsicas (caminos). Tomemos la ecuacin, para

h > 0: iht u (x, t)


h2 u (t, x) 2

+ V (x) u (t, x) = 0,

(x, t) Rd R,

u (x, 0) = (x) L2 Rd .
imaginaria

(55)

Esta ecuacin es muy similar a la ecuacin del calor, excepto por la presencia de la unidad

frente a la derivada temporal (la constante 48

es irrelevante desde un punto de

vista puramente matemtico). Su presencia cambia radicalmente el carcter de la ecuacin; supongamos por un momento

V = 0 y h = 1, entonces la solucin de (55) se calcula (utilizando, 1 (2it)


d/2 Rd
2

por ejemplo la transformada de Fourier) y resulta en:

u (x, t) = eit (x) =


Para

ei|xy|

/2t

(y) dy.

h > 0, la solucin de (55) es simplemente u (x, t) = eiht (x). En particular, se comprueba 2 fcilmente que, a diferencia de la ecuacin del calor, la norma L Rd de las soluciones de (55) se conserva: u (t, ) L2 Rd = L2 Rd . ( ) ( )
Al igual que sucede con la ecuacin del calor, es posible demostrar la siguiente frmula de Trotter (suponemos, hasta que digamos lo contrario, que

h = 1): L2 Rd
, la solucin

Proposicin 8.5.
u (x, t)

Supongamos que

continua y acotada. Para todo

de (55) viene dada por:

u (x, t) = l m eit/n/2 eit/nV


n
Calculemos dicho lmite. Comenzamos con

(x) .

(y)

(56)

it/n/2 it/nV

(x) =

1 (2it)d/2
Rd

t in

|xy|2 V 2(t/n)2

(y) dy,

el cuadrado satisface:

eit/n/2 eit/nV = = 1 (2it)2d/2 1 (2it)2d/2

(x)
 

e
R2d

t in

|xx2 |2 V 2(t/n)2


(x2 )

e


t in

|x2 x1 |2 V 2(t/n)2


(x1 )

(x1 ) dx1 dx2




e
R2d

t in

|xx1 |2 V 2(t/n)2

(x1 )

t in

|x2 x1 |2 V 2(t/n)2

(x2 )

(x2 ) dx1 dx2 ,

y, en general, escribiendo

x0 = x: 1 (2it)nd/2 t n
Rnd

eit/n/2 eit/nV
Si escribimos

0 1 2 Pn @ |xj xj1 | t i n j=1 V (xj )A 2

(x) =

2(t/n)

(xn ) dx1 ...dxn .

Sn (t, x0 , ..., xn ) :=
entonces si

j=1

|xj xj1 |2 V (xj ) 2 (t/n)2


tal que

(57)

(t)

es un camino denido en

[0, t]

(0) = x0 = x

(jt/n) = xj

para

j = 1, ..., n

obtenemos que, formalmente, (57) es la suma de Riemann correspondiente a la

accin clsica:

S (t, ) :=
0

1 | (s)|2 V ( (s)) ds. 2 u (x, t)


de (55) como:

Este clculo motiv la escritura de solucin

u (x, t) = l m =
Rd

1 (2it)
nd/2 Rnd

eiSn (t,x,...,xn ) (xn ) dx1 ...dxn

eiS(t,) (y) dC () dy
1 Cx,y ([0,t])

49

siendo

1 Cx,y ([0, t]) el conjunto de los caminos diferenciables que satisfacen (0) = x y (t) = y .

Este clculo es meramente formal. De hecho, es posible demostrar que no existe ninguna medida sobre el espacio de caminos para la que la frmula anterior es vlida (vase [Cameron]). No obstante, el proceso de paso al lmite dene una integral a la Riemann. Ms detalles sobre esta construccin pueden encontrarse en [Nelson64]. Si tomamos

h>0

obtenemos:

u (x, t) =
Rd
1 Cx,y ([0,t])

eiS(t,)/h (y) dC () dy.

Ejercicio 8.6.
cuando

Aplica formalmente el principio de la fase estacionaria para obtener el lmite, de la integral

h 0,

eiS(t,)/h dC () .
1 Cx,y ([0,t])

9. Aplicacin al estudio de los autovalores de un operador elptico


1 9.1. Los autovalores del operador de Schrdinger 2 + V (x)
Sea

V L1 Rd ; R loc

acotado inferiormente,

CV = essinf xRd V (x) > ,


y tal que

(58)

l essinf |x|R V (x) = +. m 1 + V . 2

(59)

Bajo estas condiciones existe una base ortonormal de autofunciones de

Proposicin 9.1. Supongamos que V


V (x)
es autoadjunto en

satisface (58) y (59). Entonces el operador

L2 Rd

1 A := 2 x +

con

D (A) :=

u H 1 Rd :
Rd

V (x) |u (x)|2 dx < .


de

Adems, existe una base ortonormal

(n )nN

L2 Rd

formada por autofunciones de

A:

1 x n + V n = n n . 2
Los autovalores correspondientes son reales, mayores que

CV ,

y verican

cuando

n .

Demostracin. La demostracin es estndar. Comencemos observando que podemos, sin prdida de generalidad suponer que en ese caso a

V + CV .

Sea

CV 0  de lo contrario, basta aplicar el resultado f L Rd ; claramente u D (A) es solucin de


2

obtenido

1 u + V u + u = f 2
si y slo si,

QA (u, ) :=
Rd

1 2

x u (x)

x (x)

+ u (x) (x) + V (x) u (x) (x) dx =

=
Rd

f (x) (x) dx =: Lf ()
50

para toda

D (A). QA (, ) D (A)
en

no es ms que el producto escalar cannico en

D (A)

(que

convierte a dicho espacio en un espacio de Hilbert); mientras que continua de d 2

Lf

dene una aplicacin para toda

R.

Podemos pues aplicar el teorema de Riesz y asegurar que, dada

f L

existe un nico

u D (A)

que verica

QA (u, ) = Lf ()

D (A).

Tenemos pues que:

(A + 1)1 : L2 Rd D (A) L2 Rd
est bien denida y es continua. Probaremos ms adelante que la inyeccin de 1 2 es compacta, de lo que se sigue que (A + 1) es un operador compacto de L

D (A) en L2 Rd Rd en si mismo.

Teniendo en cuenta que tambin es autoadjunto, concluimos  vase, por ejemplo, [Davies] o 2 cualquier otro libro de anlisis funcional  que existe una base ortonormal de L Rd formada por funciones

(n )nN

que satisfacen:

(A + 1)1 n = n n ,
siendo

n R

l n n = 0. m

Es inmediato comprobar que

An =
con lo que,

1 1 n . n
observar

n := 1n 1 son autovalores de A. Para concluir que su lmite es + basta si esuna autofuncin de A de norma uno y con autovalor entonces se tiene: CV
Rd

1 | 2

2 x |

+ V (x) | (x)|2 dx = .

Habremos completado la demostracin del resultado una vez que hayamos probado la compaci2 Rd . dad de la inyeccin de D (A) en L

Lema 9.2.

es una sucesin acotada en 2 converge fuertemente en L Rd .

Si

(un )

D (A)

entonces existe una subsucesin que

Demostracin. Sea Cc Rd
para

tal que

supp B (0; 2), |B(0;1) 1 y 0 1. Escribamos, x un (x) . N

N N: uN (x) := n N , la sucesin uN n

Fijado

1 H0 (B (0; 2)). Podemos por tanto aplicar el teorema 2 de Rellich (vase [LiebLoss]) y concluir la existencia de una subsucesin convergente en L Rd .
est acotada en De hecho, aplicando el argumento diagonal de Cantor, podemos garantizar la existencia de una N 2 subsucesin un que converja fuerte en L Rd para todo N N. Ahora bien, dado N > 0 se tiene, utilizando que V (x) |un (x)|2 dx < C para todo n N: Rd

Rd

un (x) uN (x) dx n

1
Rd

x N

|un (x)|2 dx

|un (x)|2 dx
|x|>N

1 essinf |x|>N V (x)


Rd

V (x) |un (x)|2 dx

CN ,
siendo es de

l N CN = 0. m 2 Cauchy en L Rd

De aqu es fcil  utilizando el argumento de . 51

/3

 concluir que

(un )

9.2. Aplicacin de Feynman-Kac al estudio del comportamiento asinttico de los autovalores


La solucin de la ecuacin del calor con potencial:

t u (x, t) 1 u (x, t) + V (x) u (t, x) = 0, 2 u (x, 0) = (x) ,

(x, t) Rd [0, ) ,

(60)

puede expresarse tambin como una integral en el espacio de los caminos:

u (x, t) :=

Rt
0

V (x+( ))d

(x + (t)) dP.

De hecho, la frmula anterior es vlida si

satisface las hiptesis (58) y (59). Para ms informa-

cin sobre las hiptesis que hay que requerir a del operador

puede consultarse [Simon]. Aplicaremos dicha

frmula a la obtencin de resultados nos sobre el comportamiento asinttico de los autovalores

A. H (x, p) := 1 2 |p| + V (x) . 2

Ante todo, escribamos:

En el enunciado del siguiente resultado requeriremos que nuestro potencial satisfaga tres hiptesis adicionales:

V C Rd ; R ,
0

etV L1 Rd ,
siendo

t [0, ) ,

(61)

l + l inf m m +
t0

Rd

etV (x) dx = 1, tV (x) dx d e R (2)d V

V (x) := mx V (y) , a
yB(x;)

(62)

l m

vol

(x, p) Rd Rd : H (x, p)

= C,

0.

(63)

La condicin (62) es meramente tcnica; simplica enormemene la prueba. La condicin (63) cuantica la tasa de crecimiento de en el innito. Se satisface para una gran clase de funciones.

Teorema 9.3.
mos por

Supongamos que

satisface las condiciones (58), (59), (61), (62), (63). Denote-

N ()

al nmero de autovalores de

menores que

Entonces:

N ()
cuando

1 (2)
d

vol

(x, p) Rd Rd : H (x, p)

La demostracin del teorema se har en varios pasos. Sea

Q (x, y, t) :=
nN
entonces para toda

etn n (x) n (y) ;

L2 Rd

la funcin:

u (x, t) :=
Rd
es la nica solucin de (60). La expresin

Q (x, y, t) (y) dy

Q (x, x, t) dx =
Rd
52

etn
nN

es la

traza

del ncleo del calor. Si denotamos por

a la medida:

c () :=
nN
entonces tenemos que:

n ()

etn =
nN
y

et dc ()
0

N () := c ([0, )) .
Nuestro objetivo ser probar el siguiente resultado:

(64)

Proposicin 9.4.

Cuando

t 0+ ,

se tiene:

etn =
nN 0

et dc ()

1 (2)
d Rd Rd

etH(x,p) dxdp.

(65)

Esta ltima integral se puede escribir como:

1 (2)
siendo, para

etH(x,p) dxdp =
Rd Rd

1 (2)
d 0

etE dH (E)

IR

medible:

H (I) := vol

(x, p) Rd Rd : H (x, p) I

Obsrvese que por hiptesis tenemos que

l m

H ((, E]) (2)d E

= C.

(66)

Los siguientes resultados permiten relacionar (66) con el comportamiento asinttico de (64) para

a travs de la propiedad (65). (Teorema Abeliano)

Teorema 9.5
ciertos

Sea

una medida de Borel en

[0, )

que satisface, para

, C 0,
E

l E ((, E]) = C. m

Entonces,

t0

l + t m

etE d (E) = C ( + 1) .
0

De ese resultado se deduce inmediatamente que,

t0

l + m

t (2)
d Rd Rd

etH(x,p) dxdp = C ( + 1) .

(67)

Ahora bien, el siguiente cuasi recproco es cierto:

Teorema 9.6
t e d () 0

(Teorema Tauberiano) para todo

Sea

una medida de Borel en

[0, )

que satisface

<

t>0

y, para ciertos

, D 0,

t0
Entonces,

l + t m

etE d (E) = D.
0

l ((, ]) = m
53

D . ( + 1)

As, si se cumple (65) tenemos por (67):

t0

l + t m

et dc () = C ( + 1) ,
0

y el teorema Tauberiano permite concluir que:

o en otras palabras, para

l c ((, ]) = C, m

: vol (x, p) Rd Rd : H (x, p) (2)d .

N ()

El resto de esta seccin estar dedicado a demostrar la Proposicin 9.4.

9.2.1. Aplicacin de la frmula de Feynman-Kac


Denamos

f (x) :=
de modo que

d x 1 d B(0;1)

Rd

f (x) dx = 1.

Claramente,

Q (x, y, t) f (y x) dy Q (x, x, t) =
Rd
Sea

etn |n (x)|2 ,
nN

cuando

0+ .

t C := { : | (t)| < } ;
utilizando la frmula de Feynman-Kac obtenemos:

Q (x, x, t) = l + m
0

Q (x, y, t) f (y x) dy
Rd

= l + m
0
Ahora bien,

Rt
0

V (x+( ))d

f ( (t)) dP.

Rt
0

V (x+( ))d

f ( (t)) dP = =

d d

e
t C

Rt
0

V (x+( ))d

dP
Rt
0

1 d/2 P (C t ) (2t)

e
t C

V (x+( ))d

dP,

donde hemos escrito:

K :=
claramente,

d d t (2t)d/2 P C = d d 0+ .
54

e|x|
|x|<

/2t

dx;

K 1,

cuando

9.2.2. El puente Browniano


Vamos a examinar con detalle el lmite:

l + m

1 t P (C )

t C

t ( ( )) dP = l + E (W ) |C , m 0

para

[0, t]

: Rd R l + m

medible. Formalmente, esperamos tener

1 t P (C )

( ( )) dP = E [ (W ) |Wt = 0] ;
t C

y de hecho obtenemos:

1 t P (C ) =
con

( ( )) dP
t C d/2

D1 d/2 (2 (t ))

(y) 1B(0;1) (x) e 2 (t ) e


Rd Rd

t|y|2

|x|2 2xy 2(t )

dxdy,

D =
|x|<1
A la vista de esto, se tiene:

|x|2 2t

dx.

l + m

1 t P (C )

( ( )) dP =
t C

td/2 (2 (t ))d/2
Rd

(y) e 2 (t ) dy.

t|y|2

Claramente, el mismo razonamiento da, para

0 1 ... n t:

l + m

1 t P (C ) td/2

( (1 ) , ..., (n )) dP
t C

(t n )d/2

(x1 , ..., xn ) e 2(tn ) 1 ,...,n (x1 , ..., xn ) dx1 ...dxn .


Rnd

|xn |2

Esta ltima expresin es precisamente la distribucin conjunta en

1 ...n

del proceso:

W0,t := W Wt , t
conocido como

[0, t] , P0,t
a su distribucin. Sirvindonos del ar-

puente Browniano.

Denotemos por

gumento basado en el teorema de Riesz-Markov que utilizamos para construir la medida de [0,) Wiener, podemos demostrar que, para toda funcin medible y acotada : R R se tiene:

l + m

1 t P (C )

() dP =
t C

() dP0,t .

En particular,

Q (x, x, t) =

1 (2t)
d/2

Rt
0

V (x+( ))d

dP0,t .

55

9.2.3. Estimaciones de tr et(/2V )


Comencemos estimando superiormente utilizando la desigualdad de Jensen:

etn =
nN

1 (2t)d/2 1 (2t) 1
d/2 Rd t 0 Rd

e 1 t

Rt
0

V (x+( ))d

dP0,t dx

= =

etV (x+( )) d dP0,t dx


0

(2t)d/2 1 (2t)
d/2

Rd

1 td/2 t (2 (t ))d/2

etV (x+y) e 2 (t ) dyd dx


Rd

t|y|2

etV (x) dx.


Rd

Por otra parte, si escribimos:

t := { : | ( )|

para

(0, t)

(0) = (t) = 0} ,

V (x) := mx V (y) , a
yB(x;)
tenemos, para todo

> 0, etn
nN

1 (2t) 1
d/2 Rd t

Rt
0

V (x+( ))d

dP0,t dx

(2t) P0,t (t ) (2t)


d/2

d/2

etV (x) dP0,t dx


Rd t

etV (x) dx.


Rd

Ahora bien, razonando como en las demostraciones de los lemas 7.9 y 7.10 obtenemos:

P0,t t 1 sup = 1 sup

td/2 (2 (t ))d/2 e
t |y|> (t ) |y|2 2

e 2 (t ) dy
|y|>

t|y|2

0 t

dy (2)d/2

0 t

=1 =
|y| 4 t
Ahora bien,

|y|> 4 t

(2)d/2 |y|2 dy e 2 . (2)d/2

|y|2 2

dy

l t0+ P0,t (t ) = 1 m

y, por hiptesis tambin tenemos:

0
Por tanto,

l + l inf m m +
t0

Rd

etV (x) dx = 1. etV (x) dx Rd

1 l inf m +
t0

(2t)d/2 nN etn etV (x) dx Rd

(2t)d/2 nN etn l sup m 1 etV (x) dx t0+ Rd


con lo que el resultado queda probado.

56

Apndice A. La ecuacin del calor: solucin analtica.


Para hallar una expresin para la funcin de densidad lmite debemos resolver la ecuacin del calor en una dimensin espacial. Repasemos brevemente la existencia de soluciones de esta ecuacin por medio de la transformada de Fourier. Denimos

f (s) :=

eisx f (x) dx

(68)

y asumimos la validez de la frmula de inversin

1 f (x) = 2
Podemos ver fcilmente que:

eisx f (s) ds.

(69)

f (s) =

eisx f (x) dx
+

= s2

eisx f (x) dx

= s f (s) .
2
Si transformamos la ecuacin (13) con respecto a la variable

a ambos lados obtenemos:

u (s, t) = Ds2 u(s, t) , t


tomamos a

como un parmetro de la ecuacin e integramos respecto de

t:

log

u 2 = Ds2 t u(s, t) = u0 (s)eDs t . u0 u


formalmente a travs de la frmula de inversin (69):

Podemos recuperar la funcin

u(x, t) =
Escribiendo la transformada de

1 2

eisxDs t u0 (s) ds.

u0

segn (68) obtenemos:

1 u(x, t) = 2

isxDs2 t

eisq u0 (q) dq

ds.

E intercambiando el orden de las integrales:

u(x, t) =

1 2 1 = 2 1 = 2

u0 (q)
+

eis(xq)Ds t ds
+

dq
2 Dt

e
+

(xq)2 4Dt

u0 (q)

e
i

 (xq) 2 is Dt+

ds

dq dq
(70)

(xq)2 4Dt

u0 (q)
(xq)2 4Dt

xq 2 Dt xq 2 Dt

i +

dp 2 ep Dt

1 = 2 Dt

u0 (q) dq .

57

Cuando

u0

es la funcin delta de Dirac centrada en el origen obtenemos la solucin fundamental


x2 1 e 4Dt , u(x, t) = 2 Dt

(71)

idntica a la expresin obtenida para la densidad de probabilidad (7). De esta manera recuperamos a la misma funcin a travs de la solucin de una ecuacin en derivadas parciales. En (70) podemos ver que la solucin para una condicin inicial arbitraria se obtiene a partir de la solucin fundamental a travs de la convolucin, esto es equivalente a distribuir en forma continua innidad de fuentes a lo largo de la recta.

Referencias
[1] Alexandre Chorin, Ole Hald:

Stochastic Tools in Mathematics and Science. Surveys


Springer 2006.

and Tutorials in the Applied Mathematical Sciences 1,

[2] Leo Breiman:

Probability, Addison-Wesley Series in Statistics, 1968. Stochastic Problems in Physics and Astronomy, The theory of stochastic processes.
en Reviews of

[3] S. Chandrasekar:

Modern Physics, Vol 15, N. 1, 1943. [4] D.R. Cox & H.D. Miller: [5] J.L. Doob:

Stochastic Processes, John Wiley and Sons 1953. Mathematics applied to deterministic problems in the Natural

[6] C.C. Lin, L.A. Segel:

Sciences. Classics in Applied Mathematics 1, SIAM. Natural Sciences. Springer-Verlag.

[7] C.W. Gardiner,

Handbook of Stochastic Methods for Physiscs, Chemistry and the

[8] H.P. McKean:

Application of Brownian motion to the equation of KolmogorovPetrovskii-Piskunov. Comunications on pure and applied mathematics, Vol. XXVIJ. Math. and Phys. 39 (1960/1961) 126140.

II, 323-331 (1975). [Cameron] Cameron, R. H. A family of integrals serving to connect the Wiener and Feynman integrals. [Davies]

Davies, E. B.

vanced Mathematics, [Dugundji] Dugundji, J. [Evans] Evans, L. C. URL: [LiebLoss]

Spectral theory and dierential operators. Cambridge Studies in Ad42. Cambridge University Press, Cambridge, 1995.

Topology. Allyn and Bacon, Inc., Boston, Mass. 1966. An introduction to Stochastic Dierential Equations. Disponible en la Analysis. Second edition. Graduate Studies in Mathematics, J. Mathematical Phys.

http://math.berkeley.edu/~evans/.

Lieb, E. H.; Loss, M.

14. American Mathematical Society, Providence, RI, 2001. 5 (1964) 332343.

[Nelson64] Nelson, E. Feynman integrals and the Schrdinger equation.

[Nelson67] Nelson, E.

Dynamical theories of Brownian motion.

Princeton University Press,

Princeton, N.J. 1967. Disponible en la URL:

~nelson/books.html.
58

http://www.math.princeton.edu/

[Rudin]

Rudin, W.

Real and complex analysis. Third edition. McGraw-Hill Book Co., New Functional integration and quantum physics.
Pure and Applied Mathe-

York, 1987. [Simon] Simon, B. matics,

86. Academic Press, Inc., New York-London, 1979.

[TayPDEII] Taylor, M. E.

Partial dierential equations. II. Qualitative studies of linear equations. Applied Mathematical Sciences, 116. Springer-Verlag, New York, 1996.

59