Вы находитесь на странице: 1из 216

PROBABILIDAD Y ECONOMÍA 3

Procesos Estocásticos

J. Margalef Roig, S. Miret Artés


E. Outerelo Domínguez

*
II
III

Prefacio

El objetivo de los autores al escribir este libro, que es el tercer volumen


de la obra Probabilidad y Economía, es dar a conocer las herramientas y
operativa matemática suficientes (contando también con las del volumen
2 ya publicado) para establecer los resultados teóricos de Matemática Fi-
nanciera tales como: El precio de los valores y de los derivados financieros,
y su cobertura a lo largo del tiempo (modelo de Black-Scholes-Merton) y
las curvas de tipos de interés (bonos y otros activos con tipo de interés).
La teoría de procesos estocásticos se expone ampliamente siguiendo estas
pautas:
(1). Fundamentos de la teoría: Teoremas de existencia de Kolmogorov y
de Ionescu Tulcea.

(2). Procesos estocásticos de Markov: Se realiza un estudio minucioso de


la probabilidad de transición (que caracteriza a estos procesos) y de
la densidad de transición con las ecuaciones backward y forward (o
de Fokker-Planck) de Kolmogorov

(3). Martingalas, martingalas locales y martingalas cuadrado integrables.

(4). Procesos Brownianos (o de Wiener): Que se utilizarán, en el volumen


siguiente, de manera esencial para dar precio y cobertura de activos
financieros. Finalmente, mediante técnicas de cálculo numérico se
llegará a las fórmulas explícitas del precio de las opciones que se uti-
lizan en el día a día y se incluyen sin demostraciones y con el mínimo
desarrollo matemático en los manuales de Mercados Financieros.

(5). Integrales estocásticas de Itô y de Fisk-Stratonovich relativas a un pro-


ceso de Wiener detallando sus propiedades más importantes. A par-
IV

tir de la integral estocástica de Itô se definen los procesos estocás-


ticos de Itô y las ecuaciones diferenciales estocásticas. De estas últi-
mas se establecen teoremas de existencia y se estudian algunas ecua-
ciones particulares con sus soluciones explícitas.

(6). Teoremas de Girsanov y el cambio de Girsanov.

Al final de cada sección se incluyen ejercicios y problemas con algunas


indicaciones, con el propósito de que el lector afiance los conocimientos
adquiridos o complete la teoría.

La metodología utilizada en el desarrollo del presente volumen permi-


tirá al lector adentrarse, de la forma más sencilla y precisa, en los temas de
la teoría de procesos estocásticos más utilizados en la economía financie-
ra.

Finalmente, se advierte al lector que a lo largo de todo este libro, las


referencias de resultados de los volúmenes 1 y 2 llevan asociadas V. 1 y V.
2, respectivamente.

Nuestro agradecimiento al Dr. D. Manuel Linares por las fructíferas dis-


cusiones y colaboraciones en estos temas, y al Dr. D. José María Sánchez
Abril autor de la excelente maquetación del libro.

Este trabajo ha sido parcialmente financiado por el proyecto: FIS2011-


29596-C02-C01 (Ministerio de Economía y Competitividad).

LOS AUTORES
Índice general

Prefacio III

Índice general V

4. Procesos estocásticos 1
4.1. Procesos estocásticos. Teoremas de existencia . . . . . . . . . 1
4.2. Procesos estocásticos medibles . . . . . . . . . . . . . . . . . . 21
4.3. Procesos estocásticos estacionarios. Procesos Gaussianos . . 30
4.4. Procesos estocásticos reales de Markov . . . . . . . . . . . . . 37
4.5. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.6. Movimiento Browniano. Procesos estocásticos de Wiener. . . 78
4.7. Integrales estocásticas . . . . . . . . . . . . . . . . . . . . . . . 96
4.8. Procesos estocásticos de Itô . . . . . . . . . . . . . . . . . . . . 120
4.9. Ecuaciones diferenciales estocásticas. Solución fuerte . . . . 145
4.10.Ecuaciones diferenciales estocásticas. Solución débil . . . . . 174
4.11.Representación de martingalas de cuadrado integrable . . . 175
4.12.Teorema de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . 189

Bibliografía 199

Índice alfabético 203

Símbolos 209

V
VI ÍNDICE GENERAL
1

Capítulo 4

Procesos estocásticos

En este capítulo se estudiarán familias de variables aleatorias, (Definición


3.3.1., (V. 2, pág. 149)), de un espacio medible (Ω, F ) en un espacio medi-
ble (E , E ), (espacio de estados), y con índices en un subconjunto arbitrario
S de los números reales, (algunas veces un conjunto abstracto arbitrario).

En todo el libro, si T es un elemento de [0, +∞) ⊂ R designaremos por


J T al intervalo [0, T ] de R. Por otro lado, denotaremos por J +∞ al intervalo
[0, +∞) de R. Además, el elemento +∞ de R se designará algunas veces,
para abreviar, por ∞, y así escribiremos J ∞ en lugar de J +∞ .
Queda, por tanto, definida la función J : [0, +∞] → P (R), por: J (T ) = J T =
[0, T ] si T ∈ [0, +∞) y J (+∞) = J +∞ = [0, +∞) si T = +∞.

4.1. Procesos estocásticos. Teoremas de existen-


cia
Vamos a considerar familias de variables aleatorias en un espacio medible
(Ω, F ) con valores en un espacio medible (E , E ) que dependan (cada una
de ellas) de un parámetro real. La mayoría de las ocasiones el espacio me-
dible (E , E ) será a su vez un subconjunto de R con la σ-álgebra de Borel de
E , B(E ) = B(R) ∩ E , (V. 2, pág. 39). Observamos que B(R) = σR (Tu ), (V.2,
pág. 39), y por tanto, B(E ) = σE (Tu |E ), (Proposición 3.1.14., (V. 2, pág.
16)).
2 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sea (Ω, F ) un espacio medible y S ⊂ R. Una familia de variables aleatorias


ξs : Ω → R, s ∈ S, en (Ω, F ) se llama proceso estocástico real con dominio del
parámetro S, (el parámetro s ∈ S suele asimilarse al tiempo).
Si S = {0, 1, 2, ...} = N, al proceso estocástico real con dominio del paráme-
tro N, se le llama proceso estocástico real discreto, (o mejor dicho proceso
estocástico real de tiempo discreto). A un proceso estocástico de este tipo,
también se le llama sucesión estocástica.
Si S es un intervalo de R no vacío y no puntual, a ξs , s ∈ S, se le llama pro-
ceso estocástico real con tiempo continuo.
Definición 4.1.1. Sean (Ω, F , P ) un espacio de probabilidad, S un subcon-
junto de R y © ª
ξ̃ = {ξs : Ω → R}s∈S y η̃ = η s : Ω → R s∈S
dos procesos estocásticos reales, en el espacio medible (Ω, F ), con dominio
del parámetro S. Entonces,
(1). Se dice
¡© que ξ̃ y η̃ son estocásticamente
ª¢ equivalentes ¡ si para
¢ todo s ∈
S, P ω : ξs (ω) = η s (ω) = 1 (lo cual equivale a P ξs 6= η s = 0, para
todo s ∈ S). Se suele decir
© (en talª caso) que ξ̃ = {ξs : Ω → R}s∈S es una
modificación de η̃ = η s : Ω → R s∈S .

(2). Si existe N ∈ F con P (N ) = 0 tal que ξs (ω) = η s (ω) para todo ω ∈ Ω r N


y todo s ∈ S, se dice que ξ̃ y η̃ son estocásticamente equivalentes en
sentido estricto (o indistinguibles).
Observamos que en la definición anterior el segundo concepto implica el
primero (téngase en cuenta que al ser ξs y η s variables aleatorias se verifica
que {ω : ξs (ω) 6= η s (ω)} ∈ F , s ∈ S). Si S es numerable, el recíproco también
es cierto.

Sean (Ω, F ) un espacio medible, S ⊂ R y ξ̃ = {ξs : Ω → R}s∈S un proceso


estocástico real en (Ω, F ) con dominio del parámetro S. Para cada ω ∈ Ω,
a la función
ϕω : S → R
ξ̃
s 7→ ξs (ω)
se le llama trayectoria (o realización) del proceso estocástico ξ̃ correspon-
diente al punto ω.
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 3

Sean (Ω, F , P ) un espacio de probabilidad, S un intervalo no vacío y no


puntual de R y ξ̃ = {ξs }s∈S un proceso estocástico real en este espacio. Se
dice que ξ̃ es continuo en el intervalo no vacío y no puntual S ′ ⊂ S si casi
todas (es decir, P -a.s., ((10), (V. 2, pág. 170))) sus trayectorias son continuas
en todos los puntos s de S ′ , (lo cual significa: Existe N ∈ F con P (N ) = 0
tal que ϕω es continua en todo s ∈ S ′ , para todo ω ∈ N c = Ω r N ). Si ξ̃ es
ξ̃
continuo en S ′ y S ′ = S, en tal caso, se dirá tan solo que ξ̃ es continuo (C).
Se tienen definiciones análogas de proceso estocástico continuo por la de-
recha (CD), continuo por la izquierda (CI), continuo por la derecha con lí-
mite por la izquierda (CDLI), continuo por la izquierda con límite por la
derecha (CILD).

Proposición 4.1.2. Sean (Ω, F , P ) un espacio de probabilidad, S un inter-


valo no vacío y no puntual de R y ξ̃ = {ξs }s∈S un proceso estocástico real en
(Ω, F ) con dominio del parámetro S. Entonces,
© ª
(1) Si ξ̃ es (C), se verifica que existe un proceso estocástico real η̃ = η s s∈S
en (Ω, F ) con todas sus trayectorias continuas que es indistinguible
de ξ̃. Se tienen resultados análogos si ξ̃ es (CD), (CI), (CDLI) o (CILD).
© ª
(2) Si ξ̃ es (CD) (o CI) y η̃ = η s s∈S es un proceso estocástico real (CD) (o CI,
respectivamente) en (Ω, F ) que es una modificación de ξ̃, entonces se
verifica que ξ̃ y η̃ son indistinguibles.

Demostración. (1). Como ξ̃ es continuo, existe Ω0 ∈ F con P (Ω0 ) = 1, tal


que sus trayectorias ϕω : S → R son continuas en S para todo ω ∈ Ω0 . Basta
© ª ξ̃
tomar η̃ = η s s∈S , donde
½
ξs (ω), si ω ∈ Ω0
η s (ω) =
0, si ω 6∈ Ω0 .

(2). Vamos a hacer la demostración sólo en el caso que ξ̃ y η̃ sean (CD), ya


que el caso (CI) se probaría de forma análoga.
Como η̃ es una modificación de ξ̃, se tiene que existe Ω0 ∈ F con P (Ω0 ) = 1
tal que ξs (ω) = η s (ω) para todo ω ∈ Ω0 y todo s ∈ Q∩S. Por otro lado, puesto
que ξ̃ y η̃ son (CD), existe Ω1 ∈ F con P (Ω1 ) = 1 tal que las trayectorias ϕω
ξ̃
y ϕω
η̃ de ξ̃ y η̃, respectivamente, son continuas por la derecha para todo
4 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

ω ∈ Ω1 . Los dos resultados implican que ξs (ω) = η s (ω) para todo s ∈ S y


todo ω ∈ Ω0 ∩ Ω1 , lo cual prueba que ξ̃ y η̃ son indistinguibles.
Sea S un subconjunto de R. En la página 41 de V. 2 se ha construido el
espacio medible producto directo de una familia dada de espacios medi-
bles. Como caso particular tenemos
à !
¡ S ¡ S ¢¢ O S
O
R ,B R = (Ωs , Fs ) = R , Fs ,
s∈S s∈S
¡ ¢ N S
donde© (Ωs , Fs ) = (R, B(R)), s ∈ ªS, y B RS = s∈S Fs = σR (AS ), siendo
AS = (p s )−1 (B) : s ∈ S, B ∈ B(R) , p s : RS 7→ R, x 7→ x(s) = x s , s ∈ S, x ∈ RS .

Sean (Ω, F ) un espacio medible y ξ̃ = {ξs }s∈S , un proceso estocástico


real dado en dicho espacio, es decir, ξs : Ω → R es variable aleatoria en
(Ω, F ), s ∈ S ⊂ R. Podemos construir la función:
X ξ̃ : Ω → RS
ω 7→ X ξ̃ (ω),
donde (X ξ̃ (ω))(s) = ξs (ω), ω ∈ Ω, s ∈ S. Entonces tenemos los espacios me-
¡ ¡ ¢¢
dibles (Ω, F ) y RS , B RS , y X ξ̃ : Ω → RS es variable aleatoria en (Ω, F )
¡ ¡ ¢¢
con valores en RS , B RS , (Definición 3.3.1., (V. 2, pág. 149)). En efecto:
Para todo s ∈ S, se tiene la igualdad p s ◦ X ξ̃ = ξs y ξs es una variable aleato-
ria en (Ω, F ). Así por el Corolario 3.1.45. (V. 2, pág. 43) se concluye que X ξ̃
¡ ¡ ¢¢
es variable aleatoria en (Ω, F ) con valores en RS , B RS .
Planteamiento ¡recíproco: ¡ ¢¢Sean (Ω, F ) un espacio medible, S ⊂ R, y Sel es-
pacio medible RS , B RS considerado anteriormente,
¡ S ¡ S ¢¢ y X : Ω → R una
variable aleatoria en (Ω, F ) con valores en R , B R , (V. 2, pág. 149). En-
tonces, p s ◦ X (= ξs ) es variable aleatoria en (Ω, F ) para todo s ∈ S, donde
p s : RS → R, como se ha dicho, es la proyección natural p s (x) = x s , x ∈ RS .
Además, ξ̃ = {ξs }s∈S es un proceso estocástico real tal que X ξ̃ = X .

Sean (Ω, F , P ) un espacio de probabilidad, S una parte infinita de R y


ξ̃ = {ξs : Ω → R}s∈S un proceso estocástico
¡ ¡real¢¢en el espacio medible (Ω, F ).
Consideramos el espacio medible RS , B RS y
X ξ̃ : Ω → RS ,
ω 7→ X ξ̃ (ω)
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 5

¡ S ¡ S ¢¢
que sabemos que es variable aleatoria en
¡ S¢ (Ω, F ) con valores en R , B R ,
−1
y sea P X ξ̃ (B) = P ((X ξ̃ ) (B)), B ∈ B R . Entonces, P X ξ̃ es una probabilidad
¡ ¡ ¢¢
en el espacio medible RS , B RS , que se llama distribución de probabili-
dad de X ξ̃ , (V. 2, pág. 151). Además, si (s 1 , ..., s n ) es una n-tupla ordenada
de elementos distintos dos a dos de S, entonces (ξs1 , ..., ξsn ) : Ω → Rn es
variable aleatoria en (Ω, F ) con valores en (Rn , B(Rn )) y

³ ¡ ¢ ´ ³¡ ¢−1 ¡ n ¢´ ¡ ¡ ¢¢
P (s1 ,...,sn ) B n = P ξs1 , ..., ξsn = P X ξ̃ J (s1 ,...,sn ) B n =
ξ̃
B
¡ ¢ ¡ ¢ ¡ ¢ © ª
= P ¡ξs ,...,ξs ¢ B n , B n ∈ B Rn , (J (s1 ,...,sn ) B n = x ∈ RS : (x s1 , ..., x sn ) ∈ B n ,
1 n
¡ ¢ ¡ ¢ ¡ ¡ ¢¢ ¡ ¢−1 ¡ n ¢
J (s1 ,...,sn ) B n ∈ B RS y X ξ̃−1 J (s1 ,...,sn ) B n = ξs1 , ..., ξsn B ),

(V. 2, páginas 130 y 158), es una probabilidad en el espacio (Rn , B(Rn )), lla-
mada probabilidad finito-dimensional de ξ̃, y por último obtenemos que

ξ̃ ¡ ¢
P (s ((−∞, x1 ] × · · · × (−∞, xn ]) = P ξs1 6 x1 , ..., ξsn 6 xn =
1 ,...,s n )
ξ̃
= F(ξs1 ,...,ξsn ) (x1 , ..., xn ) (= F(s (x1 , ..., xn )), x1 , ..., xn ∈ R,
1 ,...,s n )

ξ̃
y F(s ,...,s ) (x1 , ..., xn ) es función de distribución n-dimensional que se lla-
1 n
ma función de distribución finito-dimensional del proceso estocástico real
dado ξ̃ = {ξs }s∈S , (V. 2, pág.158).
Estas funciones de distribución finito-dimensionales cumplen la siguiente
propiedad muy importante (compatibilidad):
(1). Simetría. Si τ : {1, ..., n} → {1, ..., n} es una permutación (aplicación bi-
yectiva) y (s 1 , ..., s n ) es una n-tupla ordenada de elementos distintos dos a
dos de S, entonces

ξ̃ ξ̃
F(s1 ,...,sn ) (x1 , ..., xn ) = F(s (xτ(1) , ..., xτ(n) ),
τ(1) ,...,s τ(n) )

ξ̃
ya que se tiene: F(s (x1 , ..., xn ) = P X ξ̃ (J (s1 ,...,sn ) ((−∞, x1 ]×...×(−∞, xn ])) =
1 ,...,s n )
ξ̃
P X ξ̃ (J (sτ(1) ,...,sτ(n) ) ((−∞, xτ(1) ] × ... × (−∞, xτ(n) ])) = F(s ,...,s ) (xτ(1) , ..., xτ(n) ).
τ(1) τ(n)
(2). Consistencia. Para toda n-tupla ordenada (s 1 , ..., s n ) de elementos dis-
6 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

tintos dos a dos de S, n > 2, se verifica que


ξ̃ ξ̃
lı́m F (x1 , ..., xn−1 , xn ) = F(s ,...,s ) (x1 , ..., xn−1 ),
xn →+∞ (s 1 ,...,s n−1 ,s n ) 1 n−1

ξ̃ ξ̃
(F(s (x1 , ..., xn−1 , +∞) = F(s (x1 , ..., xn−1 )).
1 ,...,s n−1 ,s n ) 1 ,...,s n−1 )

(por el Teorema 3.1.10., (V. 2, pág. 11), aplicado a la probabilidad P ).

Todas estas distribuciones finito-dimensionales de ξ̃ constituyen (de-


finición) la ley de probabilidad del proceso estocástico dado ξ̃ = {ξs }s∈S , y
juegan un papel esencial en el estudio de los procesos estocásticos como
se pone de manifiesto a continuación.
© ª
Dos procesos estocásticos reales ξ̃ = {ξs }s∈S y η̃ = η s s∈S , S subconjun-
to infinito de R, definidos sobre los espacios de probabilidad (Ω1 , F1 , P 1 ) y
(Ω2 , F2 , P 2 ), respectivamente, se dice que son estocásticamente equivalen-
tes en sentido amplio si sus funciones de distribución finito-dimensional
coinciden, es decir,
ξ̃ ¡ ¢
F(s (x 1 , ..., x n ) = P 1 ξ s 6 x 1 , ..., ξ s 6 x n =
1 ,...,s n ) 1 n
¡ ¢ η̃
= P 2 η s1 6 x1 , ..., η sn 6 xn = F(s (x1 , ..., xn ),
1 ,...,s n )

para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos del
conjunto S y todo elemento (x1 , ..., xn ) de Rn , n ∈ N+ , que es equivalente a
¡© ª¢ ¡© ª¢
P 1 ω : ξs1 (ω) ∈ A 1 , ..., ξsn (ω) ∈ A n = P 2 ω : η s1 (ω) ∈ A 1 , ..., η sn (ω) ∈ A n ,
para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos de
S y todo A 1 ∈ B(R),..., A n ∈ B(R), n ∈ N+ (ver el Problema ¡ 1.2., pág. 19),¢ lo
−1
cual
¡ es equivalente, ¢a su vez, a que se cumpla que P 1 (ξs1 , ..., ξsn ) (B) =
−1
P 2 (η s1 , ..., η sn ) (B) , para toda n-tupla ordenada (s 1 , ..., s n ) de elementos
distintos dos a dos de S y todo B ∈ B(Rn ).
Se tiene que si dos procesos estocásticos reales son estocásticamente equi-
valentes, entonces son estocásticamente equivalentes en sentido amplio.

Vamos a ver, recíprocamente, que familias de funciones de distribu-


ción finito-dimensional, con una condición de compatibilidad, determi-
nan un proceso estocástico que induzca las distribuciones dadas.
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 7

Teorema 4.1.3 (Kolmogorov). Sean S un subconjunto infinito no numera-


ble de R y

{F(s1 ,...,sn ) (x1 , ..., xn ) : (s 1 , ..., s n ) n − tupla ordenada


de elementos distintos dos a dos de S, n ∈ N+ }

una familia de funciones de distribución finito-dimensionales (Definición


3.2.24., (V. 2, pág. 109)). Supongamos que dicha familia cumple la propie-
dad de compatibilidad:

(1). Simetría. Si τ : {1, ..., n} → {1, ..., n} es una permutación (aplicación bi-
yectiva) y (s 1 , ..., s n ) es una n-tupla ordenada de elementos distintos dos a
dos de S, entonces F(s1 ,...,sn ) (x1 , ..., xn ) = F(sτ(1) ,...,sτ(n) ) (xτ(1) , ..., xτ(n) ).

(2). Consistencia. Para toda n-tupla ordenada (s 1 , ..., s n ), n > 2, de elemen-


tos distintos dos a dos de S se verifica que

lı́m F(s1 ,...,sn−1 ,sn ) (x1 , ..., xn−1 , xn ) = F(s1 ,...,sn−1 ) (x1 , ..., xn−1 ),
xn →+∞

(F(s1 ,...,sn−1 ,sn ) (x1 , ..., xn−1 , +∞) = F(s1 ,...,sn−1 ) (x1 , ..., xn−1 )),

es decir, para todo (x1 , ..., xn−1 ) ∈ Rn−1 y todo ε > 0 existe r > 0, que depende
de (x1 , ..., xn−1 ) y de ε, tal que para todo xn > r , |F(s1 ,...,sn ) (x1 , ..., xn−1 , xn ) −
F(s1 ,...,sn−1 ) (x1 , ..., xn−1 )| < ε.

Entonces, existen un espacio de probabilidad (Ω, F , P ) y un proceso estocás-


tico real ξ̃ = {ξs }s∈S , en el espacio medible (Ω, F ), tal que

ξ̃
F(s (x1 , ..., xn ) = F(ξs1 ,...,ξsn ) (x1 , ..., xn ) =
1 ,...,s n )
¡ ¢
= F(s1 ,...,sn ) (x1 , ..., xn ) = P ξs1 6 x1 , ..., ξsn 6 xn ,

para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos de S


y todo elemento (x1 , ..., xn ) de Rn , n ∈ N+ .
¡ ¢
Demostración. Tomamos Ω = RS y F = B RS , (pág. 4). Dada la n-tupla
ordenada de elementos distintos dos a dos de S, (s 1 , ..., s n ), se tiene la fun-
ción de distribución n-dimensional F(s1 ,...,sn ) (x1 , ..., xn ) y por el Teorema
8 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

3.2.25. (V. 2, pág. 110), existe en (Rn , B(Rn )) una única probabilidad P (s1,...,sn )
tal que para todo (x1 , ..., xn ) ∈ Rn ,

P (s1 ,...,sn ) ((−∞, x1 ] × ... × (−∞, xn ]) = F(s1 ,...,sn ) (x1 , ..., xn ).

Por la propiedad de compatibilidad de las distribuciones


© ª (hipótesis), se tie-
ne la compatibilidad de las probabilidades P (s1 ,...,sn ) , (véase la Definición
3.2.37. (V. 2, pág. 131)). En efecto: Es claro que esta familia de probabilida-
des cumple la propiedad de simetría. Veamos que cumple la propiedad de
consistencia. Sea (s 1 , ..., s n ), n > 2, una n-tupla de elementos distintos dos
a dos de S. Entonces, P (s1 ,...,sn ) (·×R) es una probabilidad en (Rn−1 , B(Rn−1 ))
y por la propiedad de consistencia de la familia de funciones de distribu-
ción dada y el Teorema 3.1.10., (V. 2, pág. 11),

P (s1 ,...,sn ) ((−∞, x1 ] × ... × (−∞, xn−1 ] × R) =


= lı́m P (s1 ,...,sn ) ((−∞, x1 ] × ... × (−∞, xn−1 ] × (−∞, m]) =
m→+∞
= lı́m F(s1 ,...,sn ) (x1 , ..., xn−1 , m) = F(s1 ,...,sn−1 ) (x1 , ..., xn−1 ) =
m→+∞
= P (s1 ,...,sn−1 ) ((−∞, x1 ] × ... × (−∞, xn−1 ]), (x1 , ..., xn−1 ) ∈ Rn−1 .

Así, por la Proposición 3.2.27., (V. 2, pág. 111), las dos probabilidades en
el espacio (Rn−1 , B(Rn−1 )), P (s1 ,...,sn ) (·×R) y P (s1 ,...,sn−1 ) , son iguales, es decir,
P (s1 ,...,sn ) (B ×R) = P (s1 ,...,sn−1 ) (B), para todo B ∈ B(Rn−1 ), y se tiene la propie-
dad de consistencia de la familia de probabilidades. Luego por el Teorema
3.2.38.,
¡ S (V.¡2, Spág.
¢¢ 132), existe una única probabilidad P en el espacio medi-
ble R , B R tal que para cada ¡© n-tupla¡ ordenada ¢(s 1 , ...,
ª¢s n ) de elemen-
tos distintos dos a dos de S, P ω ∈ RS : ωs1 , ..., ωsn ∈ B = P (s1 ,...,sn ) (B),
B ∈ B(Rn ), y tomando B = (−∞, ¡ Sx1 ] ס ...S×
¢ (−∞,
¢ xn ] se tiene el resultado
del enunciado con (Ω, F , P ) = R , B R , P y ξs (ω) = ωs = ω(s), s ∈ S,
ω ∈ RS .

La construcción del espacio (Ω, F , P ) se llama construcción canónica y la


de ξs se llama método de coordenadas.

El espacio de probabilidad (Ω, F , P ) obtenido en la demostración del


teorema anterior de Kolmogorov (Teorema 4.1.3.) es demasiado amplio en
el sentido que el proceso estocástico construido, {ξs }s∈S , no cumple ciertas
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 9

condiciones de regularidad (continuidad, etc.). Se tiene el siguiente crite-


rio de reducción del espacio (Ω, F ,¡P ), (del teorema ¡ de¢ Kolmogorov):
¢ Sea
ξ̃ = {ξs }s∈S el proceso estocástico en Ω = RS , F = B RS , P , construido en
la demostración del teorema de Kolmogorov. Se considera el álgebra J3 en
RS ,¡(V. 2, pág. ∗
¢ 68), y sea P la medida exterior extensión de la medida P |J3
S
en R , J3 , (Proposición 3.1.34., (V.2, pág. 33)). En la citada proposición
se ha demostrado que J3 ⊂ σΩ (J3 ) = F ⊂ MP ∗ , donde MP ∗ es el conjunto
de partes de Ω que son P ∗ -medibles (Definición 3.1.32., (V. 2, pág. 31)), y
que el espacio de probabilidad (Ω, MP ∗ , P ∗ |MP ∗ ) es completo, (por la Pro-
posición 3.1.40., (V. 2, pág. 37) este espacio es la compleción del espacio de
probabilidad (Ω, F , P ), pues por el Lema 3.1.36., (V. 2, pág. 35), P = P ∗ |F ).
Sea Ω∗ un subconjunto P ∗ -medible de Ω con P ∗ (Ω∗ ) = 1 (por tanto, 1 =
P (Ω) = P ∗ (Ω) = P ∗ (Ω∗ ) + P ∗ ((Ω∗ )c ) y P ∗ ((Ω∗ )c ) = 0), y sea η s = ξs |Ω∗ para
todo s ∈ S. Entonces, η̃ = {η s }s∈S es un proceso estocástico definido sobre
el espacio de probabilidad completo (Ω∗ , MP ∗ ∩ Ω∗ , P ∗ ) que es estocásti-
camente equivalente en sentido amplio al proceso estocástico dado {ξs }s∈S
definido en el espacio de probabilidad (Ω, F , P ). En efecto: Se tiene

ξ̃
F(s (x1 , ..., xn ) = P (ξs1 6 x1 , ..., ξsn 6 xn ) =
1 ,...,s n )

P ∗ (ξs1 6 x1 , ..., ξsn 6 xn ) = P ∗ ({ω ∈ Ω∗ : ξs1 (ω) 6 x1 , ..., ξsn (ω) 6 xn })+
+ P ∗ ({ω ∈ (Ω∗ )c : ξs1 (ω) 6 x1 , ..., ξsn (ω) 6 xn }) =
η̃
= P ∗ ({ω ∈ Ω∗ : η s1 (ω) 6 x1 , ..., η sn (ω) 6 xn }) = F(s (x1 , ..., xn ),
1 ,...,s n )

para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos del
conjunto S y todo (x1 , ..., xn ) ∈ Rn , n ∈ N+ .

Criterio de continuidad de Kolmogorov. Para que el proceso estocástico


real ξ̃ = {ξs }s∈[a,b] en el espacio ©de ªprobabilidad completo (Ω, F , P ) admi-
ta una modificación continua ξ∗s s∈[a,b] , es suficiente que existan cons-
tantes d > 0, ε > 0 y C > 0 tales que E (|ξs+∆ − ξs |d ) 6 C |∆|1+ε para todo
s, s + ∆ ∈ [a, b].

Otra versión del Teorema 4.1.3. (Kolmogorov) y, de hecho, otra manera


de establecer toda la teoría de existencia y unicidad de procesos estocásti-
cos consiste en trabajar con subconjuntos finitos, del conjunto de índices
10 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

S ⊂ R, en lugar de las n-tuplas ordenadas de elementos distintos dos a dos


de S como se hizo en el citado teorema. Este procedimiento, de los sub-
conjuntos finitos de S, tiene la ventaja de utilizar menos elementos en la
hipótesis del teorema y simplificar las condiciones de compatibilidad en-
tre ellos.
Sea S un subconjunto infinito de R. Adoptamos el siguiente criterio: La
numeración de los elementos de un subconjunto finito de S será la inducida
por la ordenación usual de R.
Por ejemplo, si a, b, c, e ∈ S son tales que c < a < e < b, el conjunto finito
{a, b, c, e} lo escribiremos [s 1 , s 2 , s 3 , s 4 ] o {s 1 , s 2 , s 3 , s 4 }, donde s 1 = c, s 2 = a,
s 3 = e y s 4 = b.

Teorema 4.1.4 (Kolmogorov). Sea S un subconjunto infinito no numerable


de R. Con las notaciones anteriores, para cada subconjunto finito [s 1 , ..., s n ]
de S, n ∈ N+ , sea F[s1 ,...,sn ] (x1 , ..., xn ), (x1 , ..., xn ) ∈ Rn , una función de distri-
bución n-dimensional, (Definición 3.2.24., (V. 2, pág. 109))
Suponemos que esta familia de distribuciones cumple:

lı́m F[s1 ,...,sn ] (x1 , ..., xk , ..., xn ) = F[s1 ,...,sbk ,...,sn ] (x1 , ..., x
ck , ..., xn ),
xk →+∞

(propiedad de consistencia). Entonces, existen un espacio de probabilidad


(Ω, F , P ) y un proceso estocástico real {ξs }s∈S , en el espacio medible (Ω, F ),
tal que para todo [s 1 , ..., s n ], subconjunto finito de S, y todo (x1 , ..., xn ) ∈ Rn
se verifica que
© ª
P ξs1 6 x1 , ..., ξsn 6 xn = F[s1 ,...,sn ] (x1 , ...xn ).

Demostración. Tomamos el espacio medible (RS , B(RS )), (página 4). Sean
[s 1 , ..., s n ], un subconjunto finito de S, y F[s1 ,...,sn ] (x1 , ..., xn ) la correspon-
diente distribución. Por el Teorema 3.2.25., (V. 2, página 110), existe una
única probabilidad P [s1 ,...,sn ] en (Rn , B(Rn )) tal que para todo (x1 , ..., xn ) ∈
Rn ,

F[s1 ,...,sn ] (x1 , ..., xn ) = P [s1 ,...,sn ] ((−∞, x1 ] × ... × (−∞, xn ]) (∗).

Luego tenemos la colección de probabilidades


© ª
P = P [s1 ,...,sn ] : [s 1 , ..., s n ] ⊂ S, n ∈ N+ .
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 11

Sean, ahora, [s 1 , ..., s n ] y [s 1′ , ..., s k′ ] dos subconjuntos finitos de S tales que


[s 1′ , ..., s k′ ] ⊂ [s 1 , ..., s n ]. Si en la igualdad (∗) pasamos al límite +∞ las coor-
denadas correspondientes a índices de [s 1 , ..., s n ] que no están en [s 1′ , ..., s k′ ]
y se tiene en cuenta la propiedad de consistencia de la familia de distribu-
ciones de la hipótesis del teorema, se obtiene:

P [s ′ ,...,s ′ ] ((−∞, x1 ] × ... × (−∞, xk ]) = F[s ′ ,...,s ′ ] (x1 , ..., xk ) =


1 k 1 k
¡© ª¢
= P [s1 ,...,sn ] (y 1 , ..., y n ) ∈ Rn : y i 1 ∈ (−∞, x1 ], ..., y i k ∈ (−∞, xk ] ,

donde s i 1 = s 1′ < ... < s i k = s k′ .


Por tanto, por la Proposición 3.2.27, (V. 2, pág. 111), se concluye que para
todo B ′ ∈ B(Rk ),
µ³ ´−1 ¶
′ ′
P [s ′ ,...,s ′ ] (B ) = P [s1 ,...,sn ] p [s1 ,...,sn ],[s ′ ,...,s ′ ] (B ) ,
1 k 1 k

donde p [s1 ,...,sn ],[s ′ ,...,s ′ ] (y 1 , ..., y n ) = (y i 1 , ..., y i k ) ∈ Rk , (y 1 , ..., y n ) ∈ Rn .


1 k
Así, la familia de probabilidades P cumple la propiedad de consistencia
del Teorema 3.2.45., (V. 2, pág. 145), y en consecuencia, por el citado teo-
rema, existe una única probabilidad P en el espacio medible (RS , B(RS ))
tal que para todo subconjunto finito de elementos de S, [s 1 , ..., s n ], y todo
B ∈ B(Rn ), se verifica que
© ª
P (J [s1 ,...,sn ] (B)) = P [s1 ,...,sn ] (B), donde J [s1 ,...,sn ] (B) = x ∈ RS : (x s1 , ..., x sn ) ∈ B .

Tenemos el espacio de probabilidad (RS , B(RS ), P ) y para cada s ∈ S la pro-


yección natural ξs = p s , (ξs (x) = x(s) = x s ), es una variable aleatoria en ese
espacio. Es fácil comprobar que estos elementos cumplen la conclusión
del teorema.

Corolario 4.1.5. Sea p(s, x; t , B) una función no negativa definida para to-
do s, t ∈ J T con t > s, todo x ∈ R y todo B ∈ B(R), y que verifica las siguientes
condiciones:

(a) p(s, x; t , ·) es una probabilidad en (R, B(R)) para cada s, x y t fijados.

(b) Para s, t , B dados, p(s, x; t , B) es función de Borel en x.


12 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(c) Para 0 6 s < t < u y B ∈ B(R) se cumple la ecuación


Z
p(s, x; u, B) = p(t , y; u, B)p(s, x; t , d y) (C hapman−K ol mog or ov ).
R

Sea π(B) una probabilidad en (R, B(R)). Entonces existen un espacio de pro-
babilidad (Ω, F , P ) y un proceso estocástico ξ̃ = {ξs }s∈J T en (Ω, F ) tal que:
Zx 0 Zx 1 Zxn−1
π(d y 0 ) p(0, y 0 ; s 1 , d y 1 ) · · · p(s n−2 , y n−2 ; s n−1 , d y n−1 )·
−∞
Zxn −∞ −∞
¡ ¢
· p(s n−1 , y n−1 ; s n , d y n ) = P ξs0 6 x0 , ξs1 6 x1 , ..., ξsn 6 xn ,
−∞
0 = s 0 < s 1 < ... < s n , s 1 , ..., s n ∈ J T , x0 , ..., xn ∈ R.

(Para detalles de la demostración de este corolario véase el Teorema 4.4.12.,


pág. 47).
El proceso estocástico que se obtiene, en el corolario anterior, es un proce-
so de Markov, ya que cumple
n o la propiedad de Markov ((5) de la página 38)
ξ̃
respecto a la filtración Fs , (pág. 23). La probabilidad dada por ξ0 es
s∈J T
π y la probabilidad de transición asociada a todo proceso de Markov (pá-
ginas 42-48) es de hecho la p(s, x; t , B) dada en las hipótesis del corolario.
Estos procesos estocásticos se estudiarán con más amplitud y precisión en
la sección 4.4 (páginas 37-58).

En el caso de sucesiones estocásticas (S subconjunto infinito nume-


rable de R), se tiene el siguiente teorema análogo a los dos anteriores de
Kolmogorov:

Teorema 4.1.6 (Kolmogorov). Para cada n ∈ N+ sea F(1,...,n) (x1 , ..., xn ) una
función de distribución en Rn , (Definición 3.2.24., (V. 2, pág. 109)). Supon-
gamos que esta sucesión de funciones de distribución cumple la siguiente
propiedad de compatibilidad:

lı́m F(1,...,n) (x1 , ..., xn−1 , xn ) = F(1,...,n−1) (x1 , ..., xn−1 ), n ∈ N+ , n > 2.
xn →+∞

Entonces, existe una probabilidad P en el espacio medible (R∞ , B(R∞ )) y


existe una sucesión estocástica ξ̃ = {ξn }n∈N+ en el espacio de probabilidad
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 13

(R∞ , B(R∞ ), P ) tal que

ξ̃
F(1,...,n) (x1 , ..., xn ) = F(ξ1 ,...,ξn ) (x1 , ..., xn ) =
= F(1,...,n) (x1 , ..., xn ) = P (ξ1 6 x1 , ..., ξn 6 xn ) , n ∈ N+ , (x1 , ..., xn ) ∈ Rn .

Demostración. Para cada n ∈ N+ tenemos la función de distribución n-


dimensional F(1,...,n) (x1 , ..., xn ) y, por el Teorema 3.2.25. (V. 2, pág. 110),
existe en el espacio (Rn , B(Rn )) una única probabilidad P n tal que,

P n ((−∞, x1 ] × ... × (−∞, xn ]) = F(1,...,n) (x1 , ..., xn ), (x1 , ..., xn ) ∈ Rn .

De forma análoga a como se probó la propiedad de consistencia en el teo-


rema anterior, se demuestra que la sucesión de probabilidades {P n }n∈N+
tiene la siguiente propiedad:

P n+1 (B n × R) = P n (B n ), n ∈ N+ , B n ∈ B(Rn ).

Entonces, por el Teorema 3.2.35., (V. 2, pág. 129), existe una única proba-
bilidad P en el espacio medible (R∞ , B(R∞ )) tal que P (J n (B)) = P n (B) para
todo B ∈ B(Rn ) y todo n ∈ N+ , donde (recordamos) J n (B) = {(x1 , x2 , ...) ∈
R∞ : (x1 , ..., xn ) ∈ B}.
Por último, tomamos ξn : R∞ → R, ξn (ω) = ωn , n ∈ N+ . Por la construcción
del espacio medible (R∞ , B(R∞ )), (V. 2, pág. 61), es claro que ξn , n ∈ N+ , es
una variable aleatoria.
Se verifica que

P ({ω : ξ1 (ω) 6 x1 , ..., ξn (ω) 6 xn }) = P ({ω : ω1 6 x1 , ..., ωn 6 xn }) =


P n ((−∞, x1 ] × ... × (−∞, xn ]) = F(1,...,n) (x1 , ..., xn ).

Así, F(ξ1 ,...,ξn ) (x1 , ..., xn ) = F(1,...,n) (x1 , ..., xn ) = P (ξ1 6 x1 , ..., ξn 6 xn ).

Corolario 4.1.7. Sean F1 (x), F2 (x),... funciones de distribución en R (en-


tonces, el producto de cualquier número finito de ellas es una función de
distribución. Por ejemplo: F(1,2) (x1 , x2 ) = F1 (x1 ) · F2 (x2 )). Para todo n ∈ N+ ,
ponemos

F(1,...,n) (x1 , ..., xn ) = F1 (x1 ) · ... · Fn (xn ), xi ∈ R, 1 6 i 6 n.


14 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Es claro que esta familia de funciones de distribución cumple la propie-


dad de compatibilidad del teorema anterior, es decir, para todo n ∈ N+ con
n > 2, y todo (x1 , ..., xn−1 ) ∈ Rn−1 , se verifica que F(1,...,n) (x1 , ..., xn−1 , +∞) =
F(1,...,n−1) (x1 , ..., xn−1 ). Entonces, existe una probabilidad P en el espacio me-
dible (R∞ , B(R∞ )) y existe una sucesión estocástica ξ1 , ξ2 ,..., (ξn , n ∈ N+ ⊂
R), definida en este último espacio, tal que
P (ξ1 6 x1 , ..., ξn 6 xn ) = F(1,...,n) (x1 , ..., xn ) = F1 (x1 ) · ... · Fn (xn ),
para todo n ∈ N+ y todo (x1 , ..., xn ) ∈ Rn . En particular, P (ξi 6 x) = Fi (x).
Además, ξ1 , ξ2 ,... son independientes (Teorema 3.3.12., (V. 2, pág. 160)).
Corolario 4.1.8. Sea p k (x; B) una función definida para todo k ∈ N, x ∈ R,
B ∈ B(R). Supongamos que p k (x; ·) es una probabilidad en (R, B(R)) pa-
ra cada k y x fijadas, y p k (·; B) es una función de Borel, fijadas k y B. Sea,
también, π(B) una probabilidad en (R, B(R)). Entonces, existe una proba-
bilidad P en (R∞ , B(R∞ )) y existe un proceso estocástico en (R∞ , B(R∞ )),
ξ0 , ξ1 ,... tal que, (V. 2, páginas 168 y 169),

P (ξ0 6 x0 , ξ1 6 x1 , ..., ξn 6 xn ) =
Zx 0 Zx 1 Zxn−1 Zxn
π(d y 0 ) p 0 (y 0 ; d y 1 )... p n−2 (y n−2 ; d y n−1 ) p n−1 (y n−1 ; d y n ).
−∞ −∞ −∞ −∞
El proceso estocástico dado por este corolario es una cadena de Markov.
Estos procesos se estudiarán en las páginas 51-56.
Teorema 4.1.9 (Ionescu Tulcea). Sea (Ωn , Fn ), n ∈ N+ , espacios medibles
arbitrarios y Y O
Ω= Ωn , F = Fn ,
n∈N+ n∈N+
(V. 2, pág. 41). Supongamos que P 1 es una probabilidad en (Ω1 , F1 ) y que
para cada (ω1 , ..., ωn ) ∈ Ω1 × ... × Ωn , n ∈ N+ , se tiene una probabilidad en el
espacio (Ωn+1 , Fn+1 ), P (ω1 , ..., ωn ; ·). Supongamos que para cada B ∈ Fn+1 ,
la función en las variables (ω1, ..., ωn ), P (ω1 , ..., ωn ; B), es medible del espacio
N N
(Ω1 × ... × Ωn , F1 ... Fn ) en (R, B(R)). Sea, para todo n ∈ N+ ,
Z Z
P n (A 1 × · · · × A n ) = P 1 (d ω1 ) P (ω1 ; d ω2 )...
A1
Z Z A2
... P (ω1 , ..., ωn−2 ; d ωn−1 ) P (ω1 , ..., ωn−1 ; d ωn ), A i ∈ Fi , 1 6 i 6 n.
A n−1 An
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 15

Entonces, existe una única probabilidad P en el espacio (Ω, F ) tal que

P ({ω ∈ Ω : ω1 ∈ A 1 , ..., ωn ∈ A n }) = P n (A 1 × · · · × A n ), n ∈ N+ ,

y existen variables aleatorias ξ1 (ω), ξ2 (ω),..., del espacio medible (Ω, F ) en


(Ω1 , F1 ), (Ω2 , F2 ),..., respectivamente, tales que

P ({ω ∈ Ω : ξ1 (ω) ∈ A 1 , ..., ξn (ω) ∈ A n }) = P n (A 1 × · · · × A n ) , A i ∈ Fi , n ∈ N+ .

Consecuencia: Existen un espacio de probabilidad (Ω, F , P ) y una suce-


sión de variables aleatorias, definidas sobre (Ω, F , P ), que son de Bernoulli
(Ejemplo 1., (V. 2, pág. 277)) e independientes. En efecto:
Consideramos los espacios medibles (Ωn , Fn ), donde para todo n ∈ N+ ,
Ωn = {0, 1}, Fn = {;, {0}, {1}, Ωn } = P (Ωn ). A partir de estos espacios se
construye el espacio medible producto directo, (V. 2, pág. 41),
à !
O + O
(Ωn , Fn ) = {0, 1}N , Fn = (Ω, F ).
n∈N+ n∈N+

Sea P 1 la probabilidad en (Ω1 , F1 ), dada por P 1 (0) = q, P 1 (1) = p, donde


p > 0, q > 0 y p + q = 1. Para todo (ω1 , ..., ωn ) ∈ Ω1 × ... × Ωn , n ∈ N+ , to-
mamos P (ω1 , ..., ωn ; ·) = P 1 que es una probabilidad en (Ωn+1 , Fn+1 ). Para
cada B ∈ Fn+1 la función P (ω1 , ..., ωn ; B) es constante y, por tanto, es me-
N N
dible del espacio (Ω1 × ... × Ωn , F1 ... Fn ) en (R, B(R)).
Para todo n ∈ N+ , A 1 ∈ F1 ,..., A n ∈ Fn , tomamos
Z Z
P n (A 1 × · · · × A n ) = P 1 (d ω1 ) P (ω1 ; d ω2 )...
A1 A2
Z Z
... P (ω1 , ..., ωn−2 ; d ωn−1 ) P (ω1 , ..., ωn−1 ; d ωn ), A i ∈ Fi , 1 6 i 6 n,
A n−1 An

que a su vez es igual a P 1 (A 1 ) · ... · P 1 (A n ).


Entonces, por el teorema anterior de Ionescu Tulcea, existe una única pro-
babilidad P en (Ω, F ) tal que

P ({ω ∈ Ω : ω1 ∈ A 1 , ..., ωn ∈ A n }) = P 1 (A 1 ) · ... · P 1 (A n ), n ∈ N+ ,

y existen variables aleatorias ξ1 (ω), ξ2 (ω),..., (ξn (ω) = ωn , n ∈ N+ , ω ∈ Ω),


de (Ω, F ) en (Ω1 , F1 ), (Ω2 , F2 ),..., respectivamente, tales que

P ({ω ∈ Ω : ξ1 (ω) ∈ A 1 , ..., ξn (ω) ∈ A n }) = P 1 (A 1 ) · . . . · P 1 (A n ), A i ∈ Fi , n ∈ N+ .


16 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Así, ξ1 , ξ2 ,... son variables aleatorias de Bernoulli independientes.


Además, para A i = ai = 0 o 1, se tiene
P P
ai
P (ξ1 (ω) = a1 , ..., ξn (ω) = an ) = P 1 (a1 ) · ... · P 1 (an ) = p q n− ai
,

con lo cual podemos poner


µ½¯ ¯ ¾¶
¯ ξ1 + ... + ξn ¯
lı́m P ¯¯ ¯
− p¯ > ε = 0
n→+∞ n
que en el V. 1, (pág. 33), no pudimos escribir pues P dependía de n, cosa
que aquí no ocurre.

Corolario 4.1.10. Sean (E n , E n , P n ), n ∈ N+ , espacios de probabilidad. En-


tonces, existen un espacio de probabilidad (Ω, F , P ) y una familia ξ1 : Ω →
E 1 , ξ2 : Ω → E 2 ,... de funciones medibles e independientes tal que

P (ξn ∈ B) = P n (B), B ∈ E n , n ∈ N+ .
© ª
Corolario 4.1.11. Sea E un conjunto numerable y p k (x, y) k∈N , p k (x, y) :
E × E → R, tal que p k (x, y) es función no negativa y
X
p k (x, y) = 1, x ∈ E , k ∈ N.
y∈E
P
Sea también π : E → R tal que π(x) > 0, x∈E π(x) = 1. Entonces, existen
(Ω, F , P ) espacio de probabilidad y ξ0 , ξ1 ,... variables aleatorias en (Ω, F )
tal que para n ∈ N+ ,

P (ξ0 = x0 , ξ1 = x1 , ..., ξn = xn ) = π(x0 )p 0 (x0 , x1 ) · · · p n−1 (xn−1 , xn ), xi ∈ E ,

(se puede tomar Ω = {ω : ω = (x0 , x1 , ...), xi ∈ E }).

Una sucesión ξ0 , ξ1 ,... de variables aleatorias en un espacio de probabi-


lidad (Ω, F , P ) que cumple la igualdad precedente (del anterior corolario)
se llama cadena de Markov con espacios de estados E , matriz de transición
(p k (x, y)) y probabilidad inicial π, (véase la página 53).

Sea C el conjunto de las aplicaciones continuas de [0, 1] en R, dotados


(estos dos últimos) con la topología usual Tu |[0,1] y Tu , respectivamente,
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 17

(C ⊂ R[0,1] ). En C consideramos la métrica ρ(x, y) = supt∈[0,1] |x t − y t |, (co-


mo los elementos de C son funciones continuas, ρ(x, y) = máxt∈[0,1] |x t −
y t |), y sea Tρ la topología de esta métrica ρ. Entonces, se verifica que (C , Tρ)
es un espacio topológico polaco, (V. 2, pág. 134), ya que por la Proposición
7.1.23., pág. 360 de [29], (C , ρ) es un espacio métrico completo y Tρ = Tc ,
(Tc topología compacta-abierta), y por el Corolario 7.1.10., pág. 350 de
[29], Tρ = Tc tiene una base numerable. Además, se tiene que la σ-álgebra
T
en C , B(R[0,1] ) C (V. 2, páginas 14 y 65), coincide con la σ-álgebra σC (Tρ ),
(Ejemplo 5., (V.2, pág. 15)). En efecto:
(1). Para todo a ∈ R y todo t ∈ [0, 1], {x ∈ C : x t < a} ∈ Tρ = Tc . Así, se tiene
T
la inclusión B(R[0,1] ) C ⊂ σC (Tρ ), ya que por la Proposición 3.1.43., (V.
[0,1] ¡©© ª ª¢
2, pág. 42), σR x ∈ R[0,1] : x t < a : a ∈ R, t ∈ [0, 1] = B(R[0,1] ), y por la
Proposición 3.1.4.(4*), (V. 2, pág. 16), B(R[0,1] ) ∩ C = σC {{x ∈ C : x t < a} :
a ∈ R, t ∈ [0, 1]}, ({x ∈ C : x t < a} cilindro en C , (los cilindros en C se definen
de forma análoga a los de R[0,1] , (V. 2, pág. 46))).
(2). Para todo r > 0 y todo x 0 ∈ C ,
\© ª
B r= (x 0 ) = {x ∈ C : ρ(x, x 0 ) 6 r } = x ∈ C : |x tk − x t0k | 6 r ∈ B(R[0,1] ) ∩C ,
tk

donde tk recorre todos los números racionales de [0, 1]. Por consiguien-
T
te, σC (Tρ ) ⊂ B(R[0,1] ) C , ya que en espacios topológicos polacos, la σ-
álgebra generada por las bolas cerradas es igual a la σ-álgebra generada
por las bolas abiertas.
T
La σ-álgebra B(R[0,1] ) C = σC (Tρ ) la designaremos por B(C ).
Los conjuntos A 1 = {x ∈ C ⊂ R[0,1] : supt x t < M} y A 2 = {x ∈ C ⊂ R[0,1] : x t =
0, para al menos un t ∈ [0, 1]}, no son elementos de la σ-álgebra B(R[0,1] ),
(V. 2, pág. 69), pero son elementos de B(C ), (A 1 ∈ Tρ = Tc , A c2 ∈ Tρ = Tc ).

Sean (Ω, F ) un espacio medible, C el conjunto de aplicaciones con-


tinuas de [0, 1] en R y (C , B(C )) el espacio medible definido más arriba.
Entonces:

(1) Sea ξ : Ω → C una variable aleatoria de (Ω, F ) con valores en (C , B(C )),
(V. 2, pág. 149). Ponemos ξt = p t ◦ ξ, t ∈ [0, 1], donde p t : C → R es la
proyección p t (x) = x t , x ∈ C . Entonces, ξt : Ω → R es variable aleato-
18 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

ria en (Ω, F ), t ∈ [0, 1], y para todo ω ∈ Ω,

ϕω : [0, 1] → R
t 7→ ξt (ω)

es continua (Proposición 7.1.31., pág. 364 de [29]), (trayectoria del


proceso estocástico real ξ̃ = {ξt }t∈[0,1] respecto a ω, pág. 2), (Obsérve-
se que ϕω = X ξ̃ (ω)), (pág. 4).

(2) Sea ξ̃ = {ξt : Ω → R}t∈[0,1] , un proceso estocástico real con trayectorias


continuas (t 7→ ξt (ω) es continua para cada ω ∈ Ω). Entonces,

ψξ̃ : Ω → C
ω 7→ ψξ̃ (ω),

donde ψξ̃ (ω)(t ) = ξt (ω), t ∈ [0, 1], es variable aleatoria de (Ω, F ) con
valores en (C , B(C )).

Para este apartado (2) basta tener en cuenta que j ◦ ψξ̃ : Ω → R[0,1] , donde
j : C ,→ R[0,1] es la aplicación inclusión, es variable aleatoria de (Ω, F ) con
valores en (R[0,1] , B(R[0,1] )), (( j ◦ψξ̃ )(ω)(t ) = ξt (ω), ω ∈ Ω, t ∈ [0, 1], (pág. 4)),
T
y que B(R[0,1] ) C = σC (Tρ ).

Sea D el conjunto de las funciones de [0, 1] en R que son continuas por


la derecha, para todo t < 1, y tienen límite por la izquierda, para todo t > 0
(funciones cadlag (continue à droit limite à gauche)).
Consideramos la métrica, (introducida por Skorohod en 1956), en D:
½ ¾
d (x, y) = ı́nf ε > 0 : existe λ ∈ Λ con sup |x t − y λ(t) | + sup |t − λ(t )| 6 ε ,
t t

donde Λ es el conjunto de las funciones estrictamente crecientes λ = λ(t ),


t ∈ [0, 1], que son continuas en [0, 1] y cumplen λ(0) = 0, λ(1) = 1, (λ ∈ Λ si
y sólo si λ es una función estrictamente creciente de [0, 1] sobre [0, 1]).
Sea Td la topología de esta métrica. Entonces, se verifica que (D, Td ) es
un espacio topológico polaco, (V. 2, pág. 134), y que la σ-álgebra en D,
T
B(R[0,1] ) D (V. 2, páginas 64 y 16), coincide con la σ-álgebra σD (Td ),
(Ejemplo 5., (V. 2, pág. 15)). Esta σ-álgebra la designaremos por B(D).
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 19

Sea ξ una variable aleatoria de (Ω, F ) en (D, B(D)), (V. 2, pág. 149). Enton-
ces ξt = p t ◦ ξ, donde p t : D → R es la proyección p t (x) = x t , t ∈ [0, 1], es
variable aleatoria para todo t , y ϕω : [0, 1] → R, ϕω (t ) = ξt (ω), es continua
por la derecha y tiene límite por la izquierda, para todo ω ∈ Ω.
Recíproco: Sea ξ̃ = {ξt : Ω → R}t∈[0,1] , un proceso estocástico real con tra-
yectorias pertenecientes a D, es decir, t 7→ ξt (ω) es continua por la derecha
y tiene límite por la izquierda para cada ω ∈ Ω. Entonces
ψξ̃ : Ω → D
ω 7→ ψξ̃ (ω),
donde ψξ̃ (ω)(t ) = ξt (ω), ω ∈ Ω, t ∈ [0, 1], es una variable aleatoria de (Ω, F )
con valores en (D, B(D)).

Ejercicios y problemas

1.1. Sea ξ̃ = {ξs }s∈S un proceso estocástico real, definido sobre el espa-
cio de probabilidad (Ω, F , P ), tal que existe un subconjunto numerable
de R, F = {x1 , x2 , ...}, con ξs (ω) ∈ F para todo s ∈ S y todo ω ∈ Ω (al espa-
cio medible (F, B(F )) se le llama espacio de estados de ξ̃, (pág. 1)). Pro-
k ...k
bar que todas las funciones de probabilidad P s11...snn = P (ξs1 = xk1 , ..., ξsn =
xkn ), n ∈ N+ , s 1 , ..., s n ∈ S, k 1 , ..., k n ∈ N+ , dan todas las distribuciones finito-
dimensionales del proceso estocástico dado ¡ ξ̃, P (ξs1 6 y 1 , ...,¢ ξsn 6 y n ), n ∈
+
N , s 1 , ..., s n ∈ S, y 1 , ..., y n ∈ R, o bien P ξs1 ∈ B 1 , ..., ξsn ∈ B n , s 1 , ..., s n ∈ S,
B 1 , ..., B n ∈ B(R).

© ª
1.2. Sean ξ̃ = {ξs }s∈S y η̃ = η s s∈S dos procesos estocásticos reales defini-
dos sobre los espacios de probabilidad (Ω1 , F1 , P 1 ) y (Ω2 , F2 , P 2 ), respec-
tivamente. Probar que estos procesos son estocásticamente equivalentes
en sentido amplio si y sólo si para toda n-tupla ordenada (s 1 , ..., s n ) de ele-
mentos distintos dos a dos de S, y todo A 1 ,..., A n ∈ B(R), se verifica
¡ ¢ ¡ ¢
P 1 ξs1 ∈ A 1 , ..., ξsn ∈ A n = P 2 η s1 ∈ A 1 , ..., η sn ∈ A n ,

lo cual es equivalente a
³¡ ¢−1 ´ ³¡ ¢−1 ´
P 1 ξs1 , ..., ξsn (B) = P 2 η s1 , ..., η sn (B) , B ∈ B(Rn ).
20 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Indicación. Una implicación es evidente. Supongamos, por tanto, que ξ̃ y η̃


son equivalentes en sentido amplio, es decir, para toda n-tupla ordenada
(s 1 , ..., s n ) de elementos distintos dos a dos de S las funciones de distribu-
ξ̃ η̃
ción finito dimensionales, (pág. 5), F(s ,...,s ) (x1 , ..., xn ) y F(s ,...,s ) (x1 , ..., xn )
1 n 1 n
son iguales. Entonces, por el Teorema 3.2.28., (V. 2, pág. 112), las dos pro-
ξ̃ η̃
babilidades P (s ,...,s ) y P (s ,...,s ) , en (Rn , B(Rn )), coinciden. Así,
1 n 1 n
³¡ ¢−1 ´ ³¡ ¢−1 ´
P 1 ξs1 , ..., ξsn (G) = P 2 η s1 , ..., η sn (G) , G ∈ B(Rn )

y en particular se tiene la igualdad del enunciado del problema.


© ª
1.3. Sean {ξs }s∈S y η s s∈S dos procesos estocásticos reales estocásticamen-
te equivalentes, (pág. 2), en el espacio de probabilidad (Ω, F , P ). Probar
que dichos procesos son estocásticamente equivalentes en sentido am-
plio, (pág. 6).
Indicación. Sean s 1 ,..., s n elementos de S con s 1 < ... < s n ; A 1 ,..., A n elemen-
S
tos B(R) y M = ¡ s1 <...<s¢n M s1 ...sn , donde M s1 ...sn es el subconjunto P -cero de
Ω dado por P ξsi 6= η si , i = 1, ..., n. Entonces,
© ª © ª
ξs1 ∈ A 1 , ..., ξsn ∈ A n r M = η s1 ∈ A 1 , ..., η sn ∈ A n .
1.4. Sea ξ̃ = {ξs }s∈S un proceso estocástico real con E (ξ2s ) < +∞ para todo
s ∈ S, definido sobre el espacio de probabilidad (Ω, F , P ). Para cada s 1 , s 2 ∈
S se define la función R(s 1 , s 2 ) = cov (ξs1 , ξs2 ) = E (ξs1 ξs2 ) − E (ξs1 )E (ξs2 ) (a
R se le llama función de covarianza de ξ̃). Probar que para s 1 , ..., s n ∈ S y
λ1 , ..., λn , números reales, se verifica que
Σi ,k R(s i , s k )λi λk > 0.
1.5. Sea {ξn }n∈N una sucesión estocástica en el espacio de probabilidad
(Ω, F , P ), donde ξ0 = 0 y ξn es variable aleatoria estrictamente positiva
para todo n ∈ N+ . Se consideran las variables aleatorias η 0 = ξ0 y η n =
ξ0 + ... + ξn para todo n ∈ N+ . Para todo t ∈ J ∞ se define
ζt = máx{n : n ∈ N, η n 6 t }.
Probar que {ζt }t∈J ∞ es un proceso estocástico (proceso de conteo) en el es-
pacio de probabilidad dado y que sus trayectorias son funciones escalona-
das no decrecientes con discontinuidades (de salto 1) en t = η n (ω), ω ∈ Ω.
4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 21

4.2. Procesos estocásticos medibles


Observamos que un proceso estocástico es en realidad una función de dos
variables, una ω que varía en un espacio medible y otra paramétrica s, (este
parámetro s también se mueve en un espacio medible y, no siendo nece-
sario, lo identificamos al tiempo (casi siempre)), y como tal función de dos
variables en espacios medibles es susceptible de ser medible o no.
Definición 4.2.1. Sea ξ̃ = {ξs }s∈S , S subconjunto de R, un proceso estocástico
en el espacio medible (Ω, F ). Se consideran la función ξ̃∗ : S × Ω → R defi-
nida por ξ̃∗ (s, ω) = ξs (ω), s ∈ S, ω ∈ Ω, y la σ-álgebra de Borel de S, B(S),
(es decir, B(S) = {A ∩ S : A ∈ B(R)}, (V. 2, pág. 39)). Se dice que ξ̃ es me-
dible si la función ξ̃∗ es (B(S) ⊗ F )|B(R)-medible, (Definición 3.1.15., ¢(V.
S ¡
2, pág. 17)), lo que significa que para todo B ∈ B(R), s∈S {s} × ξ−1 s (B) =
{(s, ω) ∈ S × Ω : ξ s (ω) ∈ B} ∈ B(S) ⊗ F .
Observaciones. (1) Sean ξ̃ y η̃ procesos estocásticos indistinguibles, (pág.
2), en un espacio de probabilidad (Ω, F , P ), y supongamos que ξ̃ es
medible. Se considera el espacio de medida completo (S ×Ω, (B(S)⊗
F )µ , µ̄), compleción, (V. 2, página 24), del espacio de medida (S ×
Ω, B(S)⊗F , µ = λ|B(S) ×P ), (λ medida de Lebesgue en R). Entonces,
e∗ : S × Ω → R, (s, ω) 7→ η s (ω) es (B(S) ⊗ F )µ |B(R)-medible.
η

(2) Los procesos estocásticos ξ̃ = {ξs }s∈S con S numerable, (V. 2, (2) de la
página 2), son medibles. En efecto: En el caso de ser S infinito nume-
rable (S ≡ N) es evidente que para todo B ∈ B(R),
[¡ ¢
{(n, ω) : ξn (ω) ∈ B} = {n} × ξ−1
n (B) ∈ B(N) ⊗ F .
n∈N

El caso S finito se prueba de forma análoga.


Si ξ̃ = {ξs }s∈S , S subconjunto de R, es un proceso estocástico medible en
el espacio medible (Ω, F ), entonces para todo ω ∈ Ω la trayectoria ξs (ω),
s ∈ S, es función de Borel, es decir, B(S)|B(R)-medible, ya que por la Pro-
posición 3.1.47, (V. 2, pág. 43): Para todo B ∈ B(R),

HB = {(s, ω) : ξs (ω) ∈ B} ∈ B(S) ⊗ F ,


HB [ω0 ] = {s : (s, ω0 ) ∈ HB } = {s : ξs (ω0 ) ∈ B} ∈ B(S),
22 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

para todo ω0 ∈ Ω, y por tanto, (ξ̃∗ (·, ω0 ))−1 (B) = {s : ξs (ω0 ) ∈ B} ∈ B(S).
Por la observación anterior y el resultado que se acaba de demostrar, se
tiene que si ξ̃ = {ξs }s∈S es un proceso estocástico con S subconjunto nu-
merable de R, entonces todas las trayectorias de ξ̃ son funciones de Borel.
Se observa que existen procesos estocásticos no medibles tales que todas
sus trayectorias son funciones de Borel.
Definición 4.2.2. Sea ξ̃ = {ξs }s∈S , S intervalo de R, un proceso estocástico en
el espacio de probabilidad (Ω, F , P ). Se dice que ξ̃ es un proceso estocásti-
camente continuo o continuo en probabilidad en s 0 ∈ S, si para todo ε > 0
¡© ª¢
lı́m P ω : |ξs (ω) − ξs0 (ω)| > ε = 0.
s→s 0

Se dice que ξ̃ es estocásticamente continuo o continuo en probabilidad en


S ′ ⊂ S, si es estocásticamente continuo en todo s 0 ∈ S ′ .
Se tiene que todo proceso estocástico continuo (página 3) es estocásti-
camente continuo en S, (Teorema 3.9.7., (V. 2, pág. 267)). Sin embargo, el
recíproco no es cierto en general (véase el Problema 2.2., pág. 29).
Proposición 4.2.3. Sea ξ̃ = {ξs }s∈S , S intervalo de R, un proceso estocástico
en el espacio de probabilidad (Ω, F , P ). Entonces, si ξ̃ es estocásticamen-
te continuo (en particular, continuo) se verifica que existe un proceso esto-
cástico medible η̃ = {η s }s∈S que es estocásticamente equivalente (Definición
4.1.1, pág. 2) al proceso ξ̃ (es decir, ξ̃ tiene una modificación medible).
Teorema 4.2.4 (Fubini). Sean (Ω, F , P ) un espacio de probabilidad com-
pleto y ξ̃ = {ξt }t∈J T un proceso estocástico medible en (Ω, F ). Entonces,
(a) Para todo B ∈ B(J T ),
Z ·Z ¸ Z ·Z ¸
|ξt (ω)|d t P (d ω) = |ξt (ω)|P (d ω) d t =
B

ZB Ω Z
= E (|ξt (ω)|)d t = |ξt (ω)|d (λT × P ),
B B×Ω
donde λT es la medida de Lebesgue en (J T , B(J T )), (Teorema 3.4.36,
(V. 2, pág. 202)).

(b) Todas las trayectorias del proceso estocástico dado son medibles (Borel)
(J T ∋ t 7→ ξt (ω) ∈ R, ω ∈ Ω), (pág. 21).
4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 23

(c) Si E (ξt ) existe y es finita para cada elemento t de J T , entonces la aplica-


ción J T ∋ t 7→ E (ξt ) ∈ R es medible.
R
(d) Si B ∈ B(J T ) y B E (|ξt |)d t < +∞, entonces
Z Z µZ ¶
|ξt (ω)|d t < +∞ (P − a.s.) y E (ξt )d t = E ξt (ω)d t .
B B B

Filtraciones de espacios medibles

Sean (Ω, F ) un espacio medible, S un subconjunto de R y {Fs }s∈S una fami-


lia de σ-álgebras de Ω con Fs1 ⊂ Fs2 ⊂ F , s 1 6 s 2 , s 1 , s 2 ∈ S. En lo sucesivo
a una tal familia se la llamará filtración de (Ω, F ).

Observamos que si tenemos un experimento aleatorio modelado so-


bre un espacio de probabilidad (Ω, F , P ), entonces los elementos de F
pasan a ser los eventos del experimento. Si además tenemos una filtra-
ción {Fs }s∈S en este espacio (es decir, en el espacio medible (Ω, F )), S ⊂ R,
entonces, para todo s ∈ S, Fs pasa a ser la familia de los eventos del expe-
rimento que ocurren antes de s.

Un ejemplo importante de filtración es el que se obtiene por genera-


ción de σ-álgebras a partir de un proceso estocástico. Sea ξ̃ = {ξs }s∈S , S sub-
conjunto de R, un proceso estocástico real en el espacio medible (Ω, F ).
ξ̃
Para cada s ∈ S se designa también por Fs a la σ-álgebra en el conjunto Ω,
σ(Ω : ξt , t ∈ S, t 6 s) (la más pequeña σ-álgebra en Ω que hace medibles a
ξt , t 6 s, t ∈ S, es decir,

ξ̃ \© ª
Fs = E : E es σ − álgebra de Ω y hace medibles a ξt , t 6 s, t ∈ S ,
n o
ξ̃
(véase la página 40 de V. 2)). Es claro que Fs es una filtración de
s∈S
(Ω, F ). A dicha filtración se le llama filtración generada por ξ̃. (En el ca-
so particular de S = N, cabe otra descripción de

ξ̃
Fn = σ (Ω : ξt , t 6 n, t ∈ N) (= σ (ξ0 , ξ1 , ..., ξn ))
24 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

ξ̃ © ª
mediante la imagen inversa: Fn = (ξ0 , ..., ξn )−1 (B n+1 ) : B n+1 ∈ B(Rn+1 ) .
Para probar esta afirmación basta observar que:
© ª
(ξ0 , ..., ξn )−1 (B n+1 ) : B n+1 ∈ B(Rn+1 ) =
¡© ª¢
σΩ (ξ0 , ..., ξn )−1 (A 0 × ... × A n ) : A 0 , ..., A n ∈ B(R)

es una σ-álgebra en Ω, (Proposición 3.1.14., pág. 16 de V. 2), que hace me-


dible a ξm para todo m ∈ N con 0 6 m 6 n, (ξm = p m ◦(ξ0 , ..., ξn ), p m proyec-
T
ción) y (ξ0 , ..., ξn )−1 (A 0 × ... × A n ) = ni=0 ξ−1
i
(A i ) ∈ σ(ξ0 , ..., ξn ), A 0 , ..., A n ∈
B(R)).

Sean (Ω, F ) un espacio medible y {Ft }t∈J ∞ una filtración de este espacio.
Para cada t ∈ J ∞ ponemos
µ ¶ Ã !
\ [ [
Ft+ = Fs , Ft− = σΩ Fs , F0− = F0 , F+∞ = σΩ Fs .
s>t s<t s >0
© ª © ª
Es claro que Ft+ t∈J ∞ y Ft− t∈J ∞ son filtraciones de (Ω, F ).
La filtración {Ft }t∈J ∞ se dice que es continua por la derecha si Ft = Ft+
para todo t ∈ J ∞ , y que es continua por la izquierda si Ft = Ft− para todo
t ∈ J∞. © ª
Observamos: Si partimos de una filtración {Ft }t∈J ∞ la filtración Ft+ t∈J ∞
© ª
es continua por la derecha y Ft− t∈J ∞ es continua por la izquierda, (Ft+ =
T + −
¡
Ω S −
¢
s>t Fs y Ft = σ s<t Fs ).

Sean (Ω, F , P ) un espacio de probabilidad completo, (V. 2, páginas 24 y


25), y {Fs }s∈S , S ⊂ R, una filtración del espacio medible (Ω, F ). Se dice que
esta filtración es completa respecto a P , si para todo s ∈ S la σ-álgebra Fs
contiene a todos los elementos N de F tales que P (N ) = 0.
Obsérvese que si {Fs }s∈S es una filtración completa respecto a P , entonces
para todo s ∈ S el espacio de probabilidad (Ω, Fs , P |Fs ) es completo.
Proposición 4.2.5. Sean (Ω, F , P ) un espacio de probabilidad, S un sub-
conjunto de R y {Fs }s∈S una filtración de (Ω, F ). Se considera el espacio de
probabilidad (Ω, F P , P ) compleción de (Ω, F , P ), (V. 2, pág. 24; recordamos
que F P = {B ⊂ Ω : Existen A, Z ∈ F , N ⊂ Z con B = A ∪ N , P (Z ) = 0}, y si
B = A ∪ N ∈ F P , A ∈ F , N ⊂ Z ∈ F , P (Z ) = 0, entonces P (B) = P (A)).
4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 25

S n o
Para s ∈ S se define FsP Ω P
= σ (Fs N ), donde N = N ∈ F : P (N ) = 0 .
(Obsérvese que si existe N ∈ F con P (N ) = 0, no existe Z ∈ Fs con N ⊂ Z y
P (Z ) = 0, y M 6∈ Fs para todo M ⊂ N , M 6= ∅, se verifica que FsP no coincide
P|
con la σ-álgebra Fs Fs compleción de Fs con respecto a la probabilidad
P |Fs ). Entonces,
© ª
(1) FsP s∈S es una filtración completa con respecto a P en (Ω, F P ).
n¡ ¢+ o ¡ ¢+ T
(2) FsP , donde FsP = t>s FtP , s ∈ S es una filtración completa
s∈S
respecto a P y continua por la derecha en el espacio medible (Ω, F P ).
Procesos estocásticos adaptados a una filtración

Se dice que un proceso estocástico real ξ̃ = {ξs }s∈S , S ⊂ R, definido en el


espacio medible (Ω, F ), está adaptado a una filtración {Fs }s∈S de dicho
espacio, si para todo s ∈ S la variable aleatoria ξs es Fs |B(R)-medible (que
se abrevia por Fs -medible).
Es claro que todo proceso estocástico real ξ̃ = n {ξs }os∈S , S ⊂ R, en un espacio
ξ̃
medible (Ω, F ), esta adaptado a la filtración Fs generada por ξ̃.
s∈S
Proposición 4.2.6. Sean (Ω, F , P ) un espacio de probabilidad completo, S
un subconjunto de R y {Fs }s∈S una filtración © ªcompleta respecto a P del espa-
cio medible (Ω, F ). Sean ξ̃ = {ξs }s∈S y η̃ = η s s∈S procesos estocásticos reales
en (Ω, F ) tales que η̃ es una modificación de ξ̃. Entonces, si ξ̃ está© adapta-
ª
do
¡ a la filtración
© dada, η̃ª¢también
© lo está. (Basta
ª observar que η s ∈ B =
{ξs ∈ B} ∪ η s ∈ B, ξs ∈ B c r η s ∈ B c , ξs ∈ B , s ∈ S, B ∈ B(R).)
Advertencia. Como en la teoría de procesos estocásticos no se distinguen
procesos estocásticamente equivalentes en sentido estricto, (pág. 2), y se
pretende que los distintos conceptos de la teoría, (por ejemplo, entre otros,
el carácter medible y adaptación), perduren en esta igualdad (equivalen-
cia), en lo sucesivo se entenderá que se trabaja en espacios de probabili-
dad completos y con filtraciones completas respecto a la probabilidad de
ese espacio sin mencionarlos expresamente, aunque se resalta que algu-
nos resultados son válidos sin estas exigencias. Por lo visto anteriormente
para filtraciones, esto no supone ninguna restricción en el desarrollo de la
teoría de procesos estocásticos.
26 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Procesos estocásticos progresivamente medibles

Definición 4.2.7. Sean (Ω, F ) un espacio medible y {Fs }s∈J T una filtración
de (Ω, F ). Un proceso estocástico ξ̃ = {ξs }s∈J T , definido en (Ω, F ) se dice que
es progresivamente medible respecto a {Fs }s∈J T si, para todo t ∈ J T y todo
B ∈ B(R), {(s, ω) : 0 6 s 6 t , ω ∈ Ω, ξs (ω) ∈ B} ∈ B([0, t ]) ⊗ Ft .

El lema que sigue es un resultado auxiliar para demostrar que todo proce-
so estocástico progresivamente medible, respecto a una filtración, es me-
dible.

Lema 4.2.8. Sean (Ω, F ) un espacio medible y {Ft }t∈J ∞ una filtración de
este espacio. Para tn ∈ J ∞ se considera

An = {A × F ⊂ [0, tn ] × Ω : F ∈ F , A ∈ B([0, tn ])}.

Entonces,
(1). La aplicación inclusión i n : [0, tn ] × Ω ,→ J ∞ × Ω es una aplicación
(B([0, tn ]) ⊗ F )|(B(J ∞ ) ⊗ F )-medible.

(2). B([0, tn ]) ⊗ Ftn ⊂ B([0, tn ]) ⊗ F , σ J ∞ ×Ω (An ) ⊂ B(J ∞ ) ⊗ F , (B(J ∞ ) ⊗


F )∩([0, tn ]×Ω) ⊃ σ J ∞ ×Ω (An )∩([0, tn ]×Ω) = σ[0,tn ]×Ω (An ) = B([0, tn ])⊗F .

Demostración. (1). Sea A = {A × F ⊂ J ∞ × Ω : F ∈ F , A ∈ B(J ∞ )}. Entonces,


se verifica la igualdad σ J ∞ ×Ω (A ) = B(J ∞ ) ⊗ F y para cada A × F ∈ A ,

i n−1 (A × F ) = (A × F ) ∩ ([0, tn ] × Ω) = (A ∩ [0, tn ]) × F ∈ An ⊂ B([0, tn ]) ⊗ F .

Entonces, (1) sigue del Lema 3.1.16., (V. 2, pág. 17).


(2). Por la Proposición 3.1.17., (V.2, pág. 17), tomando i = i n y G = An , se
concluye que,

An ∩ ([0, tn ] × Ω) = An ⊂ B([0, tn ]) ⊗ F , B([0, tn ]) ⊗ F =


¡ ¢
= σ[0,tn ]×Ω (An ) = σ J ∞ ×Ω (An ) ∩ ([0, tn ] × Ω) ⊂ (B(J ∞ ) ⊗ F ) ∩ ([0, tn ] × Ω),
σ J ∞ ×Ω (An ) ⊂ B(J ∞ ) ⊗ F .
4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 27

Proposición 4.2.9. Sean (Ω, F ) un espacio medible y ξ̃ = {ξs }s∈J T un proceso


estocástico, en este espacio, progresivamente medible respecto a la filtración
{Fs }s∈J T de (Ω, F ). Entonces,
(1). ξ̃ está adaptado a la filtración {Fs }s∈J T .

(2). ξ̃ es medible.
Demostración. (1). Para todo t ∈ J T , la aplicación [0, t ] × Ω → R, (s, ω) 7→
ξs (ω), es (B([0, t ]) ⊗ Ft )|B(R)-medible, de donde, para todo B ∈ B(R)
(G t,B =){(s, ω) ∈ [0, t ] × Ω : ξs (ω) ∈ B} ∈ B([0, t ]) ⊗ Ft
y por la Proposición 3.1.47., (V. 2, pág. 43),
G t,B [t ] = {ω ∈ Ω : (t , ω) ∈ G t,B } = {ω ∈ Ω : ξt (ω) ∈ B} = ξ−1
t (B) ∈ Ft ,

y por tanto, ξt es Ft -medible y ξ̃ está adaptado a {Fs }s∈J T .


(2). Si T es un número real, se tiene que T ∈ J T , (J T = [0, T ]). Así, como
ξ̃ es progresivamente medible respecto a la filtración {Fs }s∈J T , la aplica-
ción [0, t ] × Ω → R, (s, ω) 7→ ξs (ω), es (B(J T ) ⊗ FT )|B(R)-medible y por
tanto, (B(J T )⊗F )|B(R)-medible, (B(J T )⊗FT ⊂ B(J T )⊗F , (Proposición
3.1.56., (V. 2, pág. 53))).
Supongamos ahora que T = +∞. Tenemos que ver que la función ξ̃∗ :
J ∞ × Ω → R, ξ̃∗ (t , ω) = ξt (ω), es (B(J ∞ ) ⊗ F )|B(R)-medible.
Sea tn ∈ J ∞ , n ∈ N, tal que tn < tn+1 y lı́mn→+∞ tn = +∞. Es claro que
[0, tn ] × Ω ∈ B(J ∞ ) ⊗ F , n ∈ N, y [0, tn ] × Ω ↑ J ∞ × Ω, n → +∞.
Por otro lado, de la hipótesis (progresivamente medible), se tiene que la
aplicación ξ̃∗ |[0,tn ]×Ω : [0, tn ] × Ω → R es ((B(J ∞ ) ⊗ F ) ∩ ([0, tn ] × Ω))|B(R)-
medible, ya que para todo B ∈ B(R),
¡ ∗ ¢−1
ξ̃ |[0,tn ]×Ω (B) = (ξ̃∗ )−1 (B) ∩ ([0, tn ] × Ω) =
= {(t , ω) : t 6 tn , ξt (ω) ∈ B} ∈ B([0, tn ]) ⊗ Ftn ⊂
⊂ B([0, tn ]) ⊗ F ⊂ (B(J ∞ ) ⊗ F ) ∩ ([0, tn ] × Ω),
donde se ha utilizado la Proposición 3.1.56., (V. 2, pág. 53), para la pri-
mera inclusión y el lema anterior para la segunda inclusión. Entonces por
la Proposición 3.1.18., (V. 2, pág. 18), se concluye que la aplicación ξ̃∗ es
(B(J ∞ ) ⊗ F )|B(R)-medible, es decir, ξ̃ es medible.
28 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.2.10 (Chung-Doob (1964), Meyer (1966)). Sean (Ω, F , P ) un


espacio de probabilidad, {Fs }s∈J T una filtración de (Ω, F ) y ξ̃ = {ξs }s∈J T un
proceso estocástico real en (Ω, F ) medible y adaptado a la filtración dada.
Entonces, existe una modificación de ξ̃, (Definición 4.1.1., pág. 2), que es
progresivamente medible respecto a la filtración {Fs }s∈J T .

Corolario 4.2.11. Si el proceso estocástico ξ̃ = {ξs }s∈J T , en el espacio de pro-


babilidad (Ω, F , P ), está adaptado a la filtración {Fs }s∈J T de (Ω, F ) y es es-
tocásticamente continuo (Definición 4.2.2., pág. 22), entonces existe una
modificación de ξ̃ que es progresivamente medible respecto a {Fs }s∈J T .

Proposición 4.2.12. Sean (Ω, F , P ) un espacio de probabilidad, {Fs }s∈J T


una filtración de (Ω, F ) y ξ̃ = {ξs }s∈J T un proceso estocástico sobre el espacio
medible (Ω, F ) adaptado a la filtración {Fs }s∈J T . Supongamos que ξ̃ tiene
todas sus trayectorias continuas ( continuas por la derecha o continuas por
la izquierda). Entonces, ξ̃ es progresivamente medible respecto a la filtración
{Fs }s∈J T , y por tanto, es medible y adaptado a la filtración {Fs }s∈J T .
Como consecuencia se tiene que si ξ̃ está adaptado a la filtración {Fs }s∈J T
y es continuo, (pág. 3), (continuo por la derecha o continuo por la izquier-
da), entonces existe un proceso estocástico η̃ en (Ω, F ) indistinguible de ξ̃ y
progresivamente medible respecto a {Fs }s∈J T .

Demostración. Supongamos que ξ̃ es continuo por la derecha, y sea t ∈ J T .


Para todo n ∈ N+ , se define la función ξ∗n : [0, t ] × Ω → R por

n
2X −1 µ ¶
(k + 1)t
ξ∗n (s, ω) = ξ̃∗ (0, ω) · I {0} (s) + ∗
ξ̃ , ω · I (kt2−n ,(k+1)t2−n ] (s).
k=0 2n

Es claro que todas estas funciones son (B([0, t ]) ⊗ Ft )|B(R)-medibles, (V.


2, páginas 149 y 154). Por la continuidad por la derecha de ξ̃, se deduce que
lı́mn→+∞ ξ∗n (s, ω) = ξ̃∗ (s, ω), y por Teorema 3.3.5. (V. 2, pág. 153) se conclu-
ye que la restricción de ξ̃∗ (s, ω) a [0, t ]×Ω es (B([0, t ])⊗Ft )|B(R)-medible,
lo cual prueba que ξ̃ es progresivamente medible respecto {Fs }s∈J T . La úl-
tima parte de la proposición sigue de la Proposición 4.2.9., (pág. 27).
Para la consecuencia basta aplicar la Proposición 4.1.2.(1), (pág. 3).
El caso ξ̃ continuo por la izquierda se prueba de forma análoga.
4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 29

En la proposición que sigue se establece una de las propiedades más


significativas de los procesos estocásticos reales medibles y de los progre-
sivamente medibles.

Proposición 4.2.13. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T


una filtración del espacio medible (Ω, F ) y ξ̃ = {ξt }t∈J T un proceso estocásti-
co real en (Ω, F ). Entonces,
³R ´
T
(1). Si ξ̃ es medible y P 0 |ξs |d s < +∞ = 1, se verifica que para todo t ∈ J T
Rt
y todo ω ∈ Ω existe la integral de Lebesgue
© 0R ξs d s y es
ª finita, y se tiene
t
definido el proceso estocástico real η̃ = η t = 0 ξs d s t∈J T , (es decir, η t
es variable aleatoria, t ∈ J T , (Teorema 3.4.36., (V. 2, pág. 202))), que
es medible.

(2). Si ξ̃ es progresivamente medible respecto³R a {Ft }t∈J T (por


´ tanto, medi-
T
ble y adaptado a esa filtración) y P 0 |ξs |d s < +∞ = 1, el proceso
©Rt ª
estocástico real de (1), η̃ = 0 ξs d s t∈J T , es progresivamente medible
respecto a {Ft }t∈J T .

Para un ejemplo de proceso© estocásticoRt real


ª medible y adaptado a una
filtración, ξ̃ = {ξt }t∈J T , con η̃ = η t = 0 ξs d s no adaptado a esa filtración,
véase el ejemplo (2.2) de la página 251 de [26], (por la Proposición 4.2.9.,
(pág. 27), η̃ no es progresivamente medible respecto a la filtración consi-
derada en el ejemplo).
Por último, destacamos el siguiente resultado: Sea ξ̃ = {ξs }s∈S un pro-
ceso estocástico sobre el espacio de probabilidad (Ω, F , P ), medible y tal
que E (|ξs |) < +∞, s ∈ S, y sea {Fs }s∈S una filtración de (Ω, F ). Entonces,
E
© (ξªs |Fs ) (= η s ) se puede escoger de tal forma que el proceso estocástico η̃ =
η s s∈S sea medible. Siempre se supondrá hecha esta elección.

Ejercicios y problemas
2.1. Probar que un proceso estocástico continuo con dominio del paráme-
tro S, intervalo de R, (pág. 3), es estocásticamente continuo en S, (pág. 22).
2.2. En el espacio de probabilidad ([0, 1], B([0, 1]), λ), donde λ es la medi-
da de Lebesgue en [0, 1], se considera el proceso estocástico ξ̃ = {ξt }t∈[0,1] ,
30 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

definido por ξt (ω) = 1 si t > ω, y ξt (ω) = 0 si t 6 ω. Probar que ξ̃ es estocás-


ticamente continuo y que no es continuo.
2.3. Probar que los procesos estocásticos dados por el teorema de Kolmo-
gorov (pág. 7) no son medibles.

4.3. Procesos estocásticos estacionarios. Proce-


sos Gaussianos
Sucesiones estocásticas estacionarias

Una sucesión estocástica real ξ̃ = {ξn }n∈N+ , en el espacio de probabilidad


(Ω, F , P ), es estacionaria en sentido estricto si para cada B ∈ B(R∞ ), (V. 2,
pág. 62), y cada k ∈ N+ , se tiene P ({(ξ1 , ξ2 , ...) ∈ B}) = P ({(ξk+1 , ξk+2 , ...) ∈ B}),
(Corolario 3.1.45., V. 2, pág. 43).
Teniendo en cuenta las definiciones de la sección 4.1, el concepto anterior
se reformula de la siguiente manera:

Proposición 4.3.1. Sea ξ̃ = {ξn }n∈N+ una sucesión estocástica real. Las si-
guientes afirmaciones son equivalentes:

(1). ξ̃ es estacionaria en sentido estricto.

(2). Para todo elemento k de N+ , las sucesiones estocásticas ξ̃ = {ξn }n∈N+


y ξ̃(k) = {ξn+k }n∈N+ tienen la misma distribución de probabilidad, es
decir, P X ξ̃ = P X ξ̃ , (pág. 5).
(k)

(3). Para todo elemento k de N+ , las sucesiones estocásticas ξ̃ = {ξn }n∈N+


y ξ̃(k) = {ξn+k }n∈N+ tienen la misma ley de probabilidad (pág. 6), es
decir, para todo t1 ,...,tm ∈ N+ distintos dos a dos, m ∈ N+ ,
ξ̃ ξ̃ ξ̃
F(t = F(t(k),...,t = F(t .
1 ,...,tm ) 1 m) 1 +k,...,tm +k)

(4). Para todo k ∈ N+ , todo t1 ,...,tm ∈ N+ distintos dos a dos, m ∈ N+ , y todo


(x1 , ..., xm ) ∈ Rm ,
¡ ¢ ¡ ¢
P ξt1 6 x1 , ..., ξtm 6 xm = P ξt1 +k 6 x1 , ..., ξtm +k 6 xm .
4.3. PROCESOS ESTOCÁSTICOS ESTACIONARIOS. PROCESOS GAUSSIANOS 31

Se deduce del Corolario 3.4.29., (V. 2, pág.191), que: Si ξ̃ = {ξn }n∈¡ N+¢es
una sucesión estocástica real estacionaria en sentido estricto con E ξ2n <
+∞, n ∈ N+ , entonces E (ξn ) = E (ξ1 ), (es decir, E (ξn ) es independiente de
n) y E (ξn+m ξn ) = E (ξ1+m ξ1 ), n, m ∈ N+ .
Teniendo en cuenta la fórmula cov (ξ, η) = E (ξη)−E (ξ)E (η), (V. 2, pág. 249),
las dos condiciones anteriores son equivalentes a:
E (ξn ) = E (ξ1 ) y cov (ξn+m , ξn ) = cov (ξ1+m , ξ1 ), n, m ∈ N+ .
Este resultado motiva la siguiente definición:
Una sucesión
¡ 2 ¢ estocástica real ξ̃ = {ξn }n∈N+ es estacionaria en sentido am-
plio si: E ξn < +∞, E (ξn ) = E (ξ1 ) y cov (ξn+m , ξn ) = cov (ξ1+m , ξ1 ), n, m ∈
N+ . Por lo dicho
¡ 2 ¢ más arriba, estas condiciones son equivalentes a las si-
guientes: E ξn < +∞, E (ξn ) = E (ξ1 ) y E (ξn+m ξn ) = E (ξ1+m ξ1 ), n, m ∈ N+ .
Definición 4.3.2. Una sucesión ζ̃ = {ζn }n∈Z de variables aleatorias comple-
jas, (V. 2, pág. 273), definidas sobre el espacio de probabilidad (Ω, F , P ), es
estacionaria en sentido amplio si
¡ ¢
E |ζn |2 < +∞, E (ζn ) = E (ζ0 ) y cov (ζk+n , ζk ) = cov (ζn , ζ0 ) , n, k ∈ Z.
Por comodidad suponemos E (ζ0 ) = 0. No se pierde generalidad y se
obtiene poder identificar la covarianza con el producto escalar del espacio
de Hilbert H 2 (Ω, F , P ), (V. 2, pág. 274).

Ponemos R(n) = cov (ζn , ζ0 ), n ∈ Z, y ρ(n) = R(n)/R(0), n ∈ Z, donde


hemos supuesto que R(0) = cov (ζ0 , ζ0 ) = (ζ0 , ζ0 ) = kζ0 k2 6= 0.
Luego asociadas a una sucesión ζ̃ estacionaria en sentido amplio tenemos
R(n) (función de covarianza) y ρ(n) (función de correlación) que cumplen:
1. R(n) es semidefinida positiva, es decir, para a1 ,...,am , números com-
plejos, y todo t1 ,...,tm , elementos de Z, m > 1, tenemos
m
X
ai ā j R(ti − t j ) es un número real no-negativo.
i ,j =1

2. R(0) > 0, R(−n) = R(n), |R(n)| 6 R(0),


|R(n) − R(m)|2 6 2R(0)[R(0) − R e R(n − m)].

Los resultados del apartado 2 son consecuencia del apartado 1, es decir,


son propiedades generales de las funciones semidefinidas positivas.
32 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.3.3 (Herglotz). Sea R : Z → C una función. Entonces, R es fun-


ción de covarianza de una sucesión estocástica estacionaria en sentido am-
plio, ζ̃ = {ζn }n∈Z , sobre el espacio de probabilidad (Ω, F , P ) si y sólo si exis-
te en el espacio medible ([−π, +π], B([−π, +π])) una medida finita µ(B),
B ∈ B([−π, +π]), tal que para cada n ∈ Z
Z+π
R(n) = exp(i un)µ(d u).
−π

Si ζ̃ = {ζn }n∈Z es una sucesión estocástica estacionaria en sentido am-


plio sobre el espacio de probabilidad (Ω, F , P ), a la medida µ, dada por
el teorema anterior, que es única, se le llama medida espectral de ζ̃ y a
F (u) = µ([−π, u]) se le llama función espectral de ζ̃, (F es la función de dis-
tribución generalizada determinada por µ, (Observación, (V. 2, pág. 103))).
P
Ejemplo 1. Sea ζn = +∞ k=−∞ k
z · exp(i λk n), donde z k , k ∈ Z, son variables
aleatorias¡ complejas¢ con esperanza matemática 0 y tales que E (z i z̄ j ) = 0,
2 2
i 6= j , y E |z k | = σk > 0, −π 6 λk < π, k ∈ Z, λi 6= λ j , i 6= j .
P P
Supongamos que +∞ k=−∞ k
σ2 < +∞. Entonces, la serie +∞ k=−∞ k
z ·exp(i λk n)
converge en media cuadrática, la sucesión de variables aleatorias comple-
jas, ζ̃ = {ζn }n∈Z , es estacionaria en sentido amplio y
X
+∞
R(n) = cov (ζn , ζ0 ) = σ2k exp(i λk n).
k=−∞
P
Consideramos la función, F (λ) = {k : λk 6λ} σ2k , con la cual se obtiene

R(n) = exp(i λn)F (d λ)
−π

(integral de Lebesgue-Stieltjes; F (λ) es distribución generalizada y es la


función espectral de ζ̃).
P
La sucesión estacionaria en sentido amplio ζn = +∞ z · exp(i λk n), n ∈
k=−∞ k
Z, está representada como suma de armónicos exp(i λ¡k n) con ¢ frecuencias
2 2
λk y amplitudes estocásticas z k de intensidades σk = E |z k | .
Los valores de F (λ) dan información completa sobre el espectro de ζ̃, es
decir, sobre la intensidad con la cual cada frecuencia aparece en ζn .
4.3. PROCESOS ESTOCÁSTICOS ESTACIONARIOS. PROCESOS GAUSSIANOS 33

Ejemplo 2. Sea ζ̃ = {ζn }n∈Z una sucesión de variables aleatorias comple-


jas ortonormal, (es decir, E (ζn ζm ) = (ζm , ζn ) = δn,m , (delta de Kronecker)),
con E (ζn ) = 0 para todo n ∈ Z. Es claro que esta sucesión estocástica ζ̃ es
estacionaria en sentido amplio y
½
cov (ζ0 , ζ0 ) = (ζ0 , ζ0 ) = |ζ0 |2 = 1, para n = 0
R(n) = cov (ζn , ζ0 ) =
cov (ζn , ζ0 ) = E (ζn ζ̄0 ) = 0, para n 6= 0.

Ponemos
R+π f (λ) = 1/2π, −π 6 λ < π y F (λ) = −π f (x)d x. Entonces, R(n) =
−π exp(i λn)F (d λ).
Podemos decir que ζ̃ consta de armónicos de intensidades iguales, ya que
la densidad espectral f (λ) es constante. Esta propiedad llevó a que a ζ̃ se
llamase sucesión estocástica ruido blanco (white noise), por analogía con
luz blanca (white light), que consiste en diferentes frecuencias con las mis-
mas intensidades, (para procesos estocásticos con tiempo continuo (ruido
blanco), véase la sección 4.6).

Procesos estocásticos estacionarios

El proceso estocástico real ξ̃ = {ξs }s∈S , S ⊂ R, definido en el espacio de pro-


babilidad (Ω, F , P ), se dice que es estacionario en sentido estricto si

(x1 , ..., xn ), (x1 , ..., xn ) ∈ Rn ,


ξ̃ ξ̃
F(s1 ,...,sn ) (x1 , ..., xn ) = F(s
1 +h,...,s n +h)

para todo n ∈ N+ , toda n-tupla ordenada de elementos distintos dos a dos


de S, (s 1 , ..., s n ), y todo número real h tal que s 1 + h, ..., s n + h ∈ S, (pág. 5).
Obsérvese que por la Proposición 4.3.1., (pág. 30), toda sucesión estocás-
tica real estacionaria en sentido estricto es un proceso estocástico real es-
tacionario en sentido estricto según la definición anterior.

Si ξ̃ = {ξs }s∈S , S subconjunto de R, es un proceso estocástico real esta-


cionario en sentido estricto y E (ξ2s ) < +∞, (es decir, ξs ∈ L 2 , (V. 2, pág. 271)),
para todo s ∈ S, entonces se tiene que:
(1). Para todo s, h ∈ R con s, s + h ∈ S, E (ξs ) = E (ξs+h ), es decir, E (ξs ) = m =
const ant e.
(2). Para todo t , s, h ∈ R con t , s, t + h, s + h ∈ S, E (ξt ξs ) = E (ξt+h ξs+h ).
34 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teniendo en cuenta la fórmula cov (ξt , ξs ) = E (ξt ξs ) − E (ξt )E (ξs ), (V. 2, pág.
249), las dos afirmaciones (1). y (2). anteriores son equivalentes a las dos
siguientes:
(1∗ ). Para todo s, h ∈ R con s, s +h ∈ S, E (ξs ) = E (ξs+h ), es decir, E (ξs ) = m =
const ant e.
(2∗ ). Para todo t , s, h ∈ R con t , s, t +h, s +h ∈ S, cov (ξt , ξs ) = cov (ξt+h , ξs+h ).

El resultado anterior motiva la siguiente definición: El proceso estocás-


tico ξ̃ = {ξs }s∈S real o complejo, S subconjunto de R, definido en el espacio
de probabilidad (Ω, F , P ), se dice que es estacionario en sentido amplio si
¡ ¢
E ξ2s < +∞, E (ξs ) = E (ξs+h ) , y cov (ξs , ξt ) = cov (ξs+h , ξt+h ),

para todo s, t , h ∈ R con s, t , s + h, t + h ∈ S. Por lo dicho ¡ 2 ¢ más arriba, es-


tas condiciones son equivalentes a las siguientes: E ξs < +∞, E (ξs ) =
E (ξs+h ) y E (ξt ξs ) = E (ξt+h ξs+h ), para todo s, t , h ∈ R con s, t , s + h, t + h ∈ S.
Obsérvese que toda sucesión estocástica real (o compleja) estacionaria en
sentido amplio es un proceso estocástico real (o complejo) estacionario en
sentido amplio según la definición anterior.

Sea ξ̃ = {ξt }t∈R un proceso estocástico real o complejo estacionario en


sentido amplio. A la función R : R → C definida por R(t ) = cov (ξt , ξ0 ) =
cov (ξs+t , ξs ), t , s ∈ R, se le llama función de covarianza de ξ̃. Es claro que si
ξ̃ es un proceso estocástico real, entonces i m(R) ⊂ R ⊂ C.

Proposición 4.3.4. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξt }t∈R


un proceso estocástico real o complejo estacionario en sentido amplio en
este espacio. Se considera la función de covarianza R : R → C de ξ̃. Entonces,
las siguientes afirmaciones son equivalentes:

(1). R es una función continua.

(2). R es una función continua en 0.

(3). El proceso estocástico ξ̃ es continuo en media cuadrática, es decir, para


todo t0 ∈ R, se verifica que lı́mt→t0 E ((ξt − ξt0 )2 ) = 0, (véase (3) de la
página 265 de V. 2).
4.3. PROCESOS ESTOCÁSTICOS ESTACIONARIOS. PROCESOS GAUSSIANOS 35

Teorema 4.3.5 (Bochner-Khinchine). Sea R : R → R (o R : R → C) una fun-


ción continua. Entonces, R es la función de covarianza de un proceso esto-
cástico real (o complejo), ξ̃ = {ξt }t∈R , estacionario en sentido amplio, (por la
proposición anterior, ξ̃ será continuo en media cuadrática), si y sólo si existe
una medida finita µ en (R, B(R)) tal que
Z+∞
R(t ) = exp(i t u)µ(d u), t ∈ R (∗).
−∞

Además, si R es función de covarianza de un proceso estocástico estacionario


en sentido amplio ξ̃, la medida finita µ cumpliendo (∗) es única.

Sea ξ̃ = {ξt }t∈R un proceso real o complejo, sobre el espacio de probabi-


lidad (Ω, F , P ), estacionario en sentido amplio y continuo en media cua-
drática, ((3) de la proposición anterior), y R R su función de covarianza. A la
+∞
única medida µ en (R, B(R)) tal que R(t ) = −∞ exp(i t u)µ(d u), t ∈ R, da-
da por el teorema anterior, se le llama medida espectral de ξ̃. Esta medida
µ determina una única distribución generalizada en R, F (u), mediante la
fórmula F (u) = µ((−∞, u]), u ∈ R, (V. 2, pág. 103), que se llama función de
distribución espectral de ξ̃. Si F tiene densidad
R+∞ f , a f se le llama densidad
espectral
R+∞ de ξ̃ y se tiene la fórmula F (t ) = −∞ f (u) · exp(i t u)d u.
Si −∞ |R(t )|d t < +∞, F tiene función de densidad, f , que se obtiene por
la fórmula de inversión:
Z
1 +∞
f (u) = R(t ) · exp(−i t u)d t .
2π −∞

(Véase el Teorema 3.10.7, (V. 2, pág. 284)). Físicamente, la función espec-


tral F se puede interpretar como una función de distribución acumulativa
describiendo la distribución de energía en términos de las distintas fre-
cuencias de la que está formada, es decir, su espectro.

Procesos estocásticos Gaussianos

Definición 4.3.6. Sea ξ̃ = {ξu }u∈U , U conjunto arbitrario, un proceso esto-


cástico. Se ¡dice que ξ̃ ¢es un proceso estocástico (o un sistema) Gaussiano o
normal si ξu1 , ..., ξun es Gaussiana, (Definición 3.12.2., (V. 2, pág. 301))
para cada n ∈ N+ e índices u 1 ,...,u n cualesquiera y distintos dos a dos de U .
36 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Propiedades de los procesos estocásticos Gaussianos.

(1) Si ξ̃ = {ξu }u∈U es un sistema Gaussiano, se verifica que cada subsistema


{ξu }u∈U ′ , U ′ ⊂ U , es un sistema Gaussiano.

(2) Si ξ̃ = {ξu }u∈U es proceso estocástico con elementos independientes y


cada ξu es Gaussiana, entonces ξ̃ = {ξu }u∈U es sistema Gaussiano.

(3) Sea ξ̃ = {ξu }u∈U un sistema Gaussiano. Sea L (ξ̃) la expansión lineal de
este sistema ξ̃ en el espacio vectorial de las variables aleatorias. Sea
½ ¾
[ L2
L (ξ̃) = L (ξ̃) η : ξn → η, ξn ∈ L (ξ̃) .

Entonces L (ξ̃) es un sistema Gaussiano.

(4) Todo proceso estocástico Gaussiano ξ̃ = {ξs }s∈S , S ⊂ R, en un espacio


de probabilidad (Ω, F , P ), estacionario en sentido amplio es un pro-
ceso estocástico estacionario en sentido estricto. (Dos variables alea-
torias Gaussianas con los mismos dos primeros momentos, tienen
la misma función característica, (V. 2, pág. 275), y por el Teorema
3.10.8., (V. 2, pág. 285), tienen igual función de distribución).

Ejercicios y problemas
3.1. Sean (Ω, F , P ) un espacio de probabilidad, S un subconjunto de R y
ξ̃ = {ξs }s∈S un proceso
¡ 2 ¢ estocástico estacionario en sentido estricto, en ese
espacio, tal que E ξs < +∞ para todo s ∈ S. Probar que ξ̃ es un proceso
estocástico estacionario en sentido amplio.
3.2. Sean (Ω, F , P ) un espacio de probabilidad, S un subconjunto de R y ξ,
η dos© variables ªaleatorias, en este espacio. Probar que el proceso estocás-
tico ζs = ξ + sη s∈S es Gaussiano en cada uno de los siguientes casos:
(1). (ξ, η) es un vector aleatorio Gaussiano.
(2). ξ y η son variables aleatorias Gaussianas de esperanza 0, varianza 1 e
incorreladas (cov (ξ, η) = 0).
3.3. Sean (Ω, F , P ) un espacio de probabilidad, S un subconjunto de R y
ξ, η dos variables aleatorias, en este espacio, de esperanza 0, varianza 1 e
incorreladas
© (cov (ξ, η) = 0). Probar
ª que el proceso estocástico definido por
ζs = ξsen(2πs) + ηcos(2πs) s∈S es estacionario en sentido amplio.
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 37

3.4. Sean (Ω, F , P ) un espacio de probabilidad y {ξn }n∈N una sucesión de


variables
© aleatorias independientes
ª y Gaussianas de este espacio. Probar
que η n = ξ0 + ξ1 + ... + ξn n∈N es un proceso estocástico Gaussiano.

4.4. Procesos estocásticos reales de Markov


Definición 4.4.1. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S
un proceso estocástico real definido sobre el espacio medible (Ω, F ) y con
dominio del parámetro S, donde S es un subconjunto no vacío y no puntual
de R (mientras no se advierta lo contrario, S será de esta forma), (nótese que
si S es numerable, el proceso ξ̃ es medible, (Observación (2), pág. 21)).

(1) Sea {Fs }s∈S una filtración de (Ω, F ). Se dice que ξ̃ = {ξs }s∈S es un proceso
de Markov respecto a {Fs }s∈S y a P si:

(a) ξ̃ está adaptado a {Fs }s∈S , (pág. 25).


³ ´
ξ̃
(b) Para todo s ∈ S, A ∈ Fs , B ∈ σ (Ω : ξt , t ∈ S, t > s) = F> s , (V. 2,
pág. 40),se verifica que P (A ∩ B¡| ξs ) = P¢ (A | ¡ξs ) P (B |¢ ξs ), (P -a.s.).
(Recordamos que P (C | ξs ) = P C | Gξs = E I C | Gξs , C ∈ F , ((4)
y (5), (V. 2, pág. 220)).

(2) Se dice que ξ̃ = {ξs }s∈S es un proceso de Markov


n o en (Ω, F , P ) si es un pro-
ξ̃
ceso de Markov respecto a la filtración Fs generada por ξ̃, (pág.
s∈S
23), y a P , (obsérvese que por construcción, ξ̃ está siempre adaptado a
la filtración que genera).

Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S , donde S es un


subconjunto numerable de R, un proceso estocástico real en (Ω, F ). En-
tonces, si ξ̃ es un proceso de Markov respecto a una filtración {Fs }s∈S , de
(Ω, F ), y a P , se dice que ξ̃ es una cadena de Markov respecto a {Fs }s∈S y a
P ; y si ξ̃ = {ξs }s∈S es un proceso estocástico de Markov en (Ω, F , P ), se dice
que ξ̃ = {ξs }s∈S es una cadena de Markov en este espacio de probabilidad.
(Usualmente, al considerar procesos de Markov, S será J T o N).

Teorema 4.4.2. Sean (Ω, F , P ) un espacio de probabilidad, {Fr }r ∈S , S sub-


conjunto de R, una filtración de (Ω, F ) y ξ̃ = {ξr }r ∈S un proceso estocástico
real, en (Ω, F ), adaptado a {Fr }r ∈S . Entonces son equivalentes:
38 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(1) ξ̃ es un proceso de Markov respecto a {Fr }r ∈S y a P .

(2) Para todo s ∈ S y todo B ∈ σ(Ω : ξt , t ∈ S, t > s), se cumple que P (B|Fs ) =
P (B|ξs ), (P -a.s.).

(3) Para todo elemento s ∈ S y toda variable aleatoria η en (Ω, F ¡ ), (V.¢ 2,


pág.
¡ 149),
¢ acotada y σ (Ω : ξt , t ∈ S, t > s)-medible, se tiene E η | Fs =
E η ξs , (P -a.s.).
|

(4) Para todo s, t ∈ S con s < t y toda función f : R → R de Borel aco-


tada
¡ (o E ( f (ξ
¢ t )) ¡existe y es¢ finita, en vez de f acotada), se verifica
E f (ξt ) | Fs = E f (ξt ) | ξs , (P -a.s.).

(5) (Propiedad de Markov) Para todo t , s ∈ S con s < t y todo B ∈ B(R),


P (ξt ∈ B|Fs ) = P (ξt ∈ B|ξs ), (P -a.s.).
(Nótese que con las hipótesis generales del teorema se verifica que:
P (ξs ∈ B|Fs ) = P (ξs ∈ B|ξs ) = I ξ−1
s (B)
= I B (ξs ), (P -a.s.), s ∈ S).

Observación. Con las hipótesis generales del Teorema 4.4.2. y supuesto


que se cumple (1), se tiene que Gξs ⊂ σ (Ω : ξu , u ∈ S, u 6 s) ⊂ Fs para todo
s ∈ S, y por (8) y (9), (V. 2, pág. 221) y la propiedad de Markov (5), se deduce

P (ξt ∈ B|ξs ) = E (P (ξt ∈ B|ξs ) |σ(Ω : ξu , u ∈ S, u 6 s)) =


= E (P (ξt ∈ B|Fs ) |σ(Ω : ξu , u ∈ S, u 6 s)) =
= P (ξt ∈ B|σ(Ω : ξu , u ∈ S, u 6 s)), (P − a.s.), s, t ∈ S, s < t , B ∈ B(R).

Respecto a la propiedad de Markov cabe la siguiente interpretación (te-


niendo en cuenta que Fs , de una filtración, significa los eventos anteriores
al tiempo s, (pág. 23)), a saber, que el futuro sólo depende del presente y no
del pasado o dicho de otra forma el pasado y el futuro son independientes,
conocido el presente. Decimos que el proceso no tiene memoria.
El aserto que acabamos de establecer se ve con más claridad en su análogo
en ecuaciones diferenciales ordinarias en el análisis de sistemas dinámicos
deterministas. La ecuación diferencial ordinaria

d x(t )
= f (t , x(t ))
dt
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 39

dice que la velocidad de cambio de x en el tiempo t depende sólo de x en


el tiempo presente t y no de x(s), s < t . Como consecuencia, para t0 < t1 ,
x(t1 ) = x(t1 , x(t0 ), t0 ). Es decir, la solución de la ecuación dada en t1 es una
función de la condición inicial x(t0 ) y no depende de x(s), s < t0 .
A continuación se precisa la afirmación que se ha comentado en la obser-
vación anterior.
Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξt }t∈J ∞ un proceso de
Markov respecto a una filtración {Ft }t∈J ∞ , de (Ω, F ), y de P .
(a). Para todo s ∈ J ∞ , n ∈ N y toda n-tupla ordenada (t1 , ..., tn ) de elemen-
tos distintos dos a dos de [0, s], y B 1 , ..., B n ∈ B(R), por la definición de
P (ξt1 ,...,ξtn ) , (pág. 5), se tiene que:

³¡ ¢−1 ´
P ξt1 , ..., ξtn (B 1 × ... × B n ) = P ¡ξt ,...,ξtn ¢ (B 1 × ... × B n ) ,
1
¡ ¢−1
ξt1 , ..., ξtn (B 1 × ... × B n ) ∈ σ (Ω : ξu , 0 6 u 6 s).
¡ ¢−1
Al elemento ξt1 , ..., ξtn (B 1 × ... × B n ) de la σ-álgebra σ (Ω : ξu , 0 6 u 6 s)
lo designaremos por A st1 ...tn (B 1 × ... × B n ).
(b). En Mecánica estadística la difusión de una partícula en un medio den-
so se modela mediante un proceso de Markov como el descrito anterior-
mente (ver (5) de teorema anterior). De manera aleatoria ξu da la posición
de la partícula en el tiempo u, es decir, la probabilidad de que la partícula
esté en B ∈ B(R) en el tiempo u es P (ξu ∈ B). Suponemos que s es el pre-
sente. De forma aleatoria, ξu , u < s, es la trayectoria del pasado. ¿Cuál es la
probabilidad de que (la trayectoria del pasado) en t1 ∈ [0, s) haya entrado
en B 1 ∈ B(R),..., en tn ∈ [0, s) haya entrado en B n ∈ B(R)?:
¡© ª¢ ¡ ¢
P ω : ξt1 (ω) ∈ B 1 , ..., ξtn (ω) ∈ B n = P A st1 ...tn (B 1 × ... × B n ) ,
A st1 ...tn (B 1 × ... × B n ) ∈ σ (Ω : ξu , 0 6 u 6 s).

Así, σ (Ω : ξu , 0 6 u 6 s) da noticias de la trayectoria del pasado ξu , u < s.


En la Observación de la página 38, tenemos la propiedad de Markov
P (ξt ∈ B|ξs ) = P (ξt ∈ B|σ (Ω : ξu , 0 6 u 6 s)), s < t , B ∈ B(R),
que dice que la probabilidad de permanecer (la partícula) en B en el tiem-
po futuro t conocida la posición ξs en el tiempo presente s, es igual a la
40 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

probabilidad de permanecer en B en el tiempo futuro t , conocida la posi-


ción de la trayectoria pasada (en el tiempo u 6 s). Luego dado un presente
s, futuro t y pasado son independientes.

Proposición 4.4.3. Sea ξ̃ = {ξs }s∈S un proceso de Markov en el espacio de


probabilidad (Ω, F , P ). Entonces, para todo s 1 , s 2 , s 3 ∈ S, con s 1 < s 2 < s 3 , y
todo B ∈ B(R), se verifica
¡ ¢ ¡ © ª ¢
P ξs3 ∈ B|ξs1 = E P ξs3 ∈ B|ξs2 |ξs1 , (P − a.s.), (Chapman-Kolmogorov).
© ª
Demostración. Sea A = ξs3 ∈ B = ξ−1 s 3 (B), entonces por la propiedad de
Markov y (9) de la página 221 de V. 2, se tiene

¡ £ ¤ ¢ ³ h i ´ ³ ³ ´ ´
ξ̃ ξ̃
E P A|ξs2 |ξs1 = E P A|Fs2 |ξs1 = E E I A |Fs2 |ξs1 =
¡ ¢ ¡ ¢ ¡ ¢
= E I A |ξs1 = P A|ξs1 = P ξs3 ∈ B|ξs1 , (P − a.s.).

Corolario 4.4.4. Sea ξ̃ = {ξs }s∈S un proceso de Markov respecto a la filtra-


ción {Fs }s∈S , en el espacio de probabilidad (Ω, F , P ), y a P . Entonces,

(1). ξ̃ es proceso de Markov, (véase la Proposición 4.4.7.).

(2). Para todo s 1 , s 2 , s 3 ∈ S, con s 1 < s 2 < s 3 , y todo B ∈ B(R), se verifica


¡ ¢ ¡ © ª ¢
P ξs3 ∈ B|ξs1 = E P ξs3 ∈ B|ξs2 |ξs1 , (P − a.s.), (Chapman-Kolmogorov).

A continuación se presenta un criterio útil para detectar los procesos


de Markov:

Teorema 4.4.5. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S , S


subconjunto de R, un proceso estocástico real definido sobre este espacio.

(a). Si ξ̃ es un proceso de Markov, entonces para todo S ′ ⊂ S se verifica que


{ξs }s∈S ′ es un proceso de Markov.

(b). Si S es infinito y {ξs }s∈F es un proceso de Markov para todo subconjunto


finito no vacío F de S, entonces ξ̃ = {ξs }s∈S es un proceso de Markov.
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 41

Corolario 4.4.6. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S , S


parte infinita de R, un proceso estocástico real definido sobre (Ω, F ). Enton-
ces ξ̃ es un proceso de Markov si y sólo si para cada función f (x) medible y
acotada,
¡ y todo s 1 , ...,
¢ s n ,¡s ∈ S con s 1 < ... < s n¢ < s, ¡se tiene: ¢
E f (ξs ) | ξs1 , ..., ξsn = E f (ξs ) | σ(ξs1 , ..., ξsn ) = E f (ξs ) | ξsn , (P -a.s.).

Proposición 4.4.7. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S ,


S subconjunto de R, un proceso estocástico real definido sobre este espacio.
Sean {Fs }s∈S y {G s }s∈S filtraciones de (Ω, F ), tales que G s ⊂ Fs para todo
s ∈ S. Entonces, si ξs es G s -medible (por tanto, también es Fs -medible), s ∈
S, y ξ̃ = {ξs }s∈S es proceso de Markov respecto a la filtración {Fs }s∈S y a P ,
también lo es respecto a la filtración {G s }s∈S y a P .
Caso particular: Si ξ̃ = {ξs }s∈S es un proceso de Markov respectona {F o s }s∈S y
ξ̃
a P , entonces ξ̃ es un proceso de Markov respecto a la filtración Fs ya
s∈S
P , es decir, es proceso de Markov.

Demostración El resultado sigue de (5) del Teorema 4.4.2 teniendo en cuen-


ta las propiedades (8) y (9) de la página 221 de V. 2. En efecto:
³ ´ ³ ³ ´ ´ ³ ³ ´ ´
P (ξt ∈ B|G s ) = E I ξ−1 (B) |G s = E E I ξ−1 (B) |Fs |G s = E E I ξ−1 (B) |ξs |G s
t t t
³ ´
= E I ξ−1 (B) |ξs = P (ξt ∈ B|ξs ), (P − a.s.), s, t ∈ S, s < t , B ∈ B(R). 
t

Ejemplo 1. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξn }n∈N una su-


cesión de variables aleatorias independientes definidas sobre este espacio.
Entonces, ξ̃ es una cadena
n o de Markov en (Ω, F , P ), (la filtración de (Ω, F )
ξ̃
que se considera es Fn ), pues para todo n ∈ N y todo B ∈ B(R), por
n∈N
(10) de la página 221 de V. 2, se verifica que

ξ̃
P (ξn ∈ B|Fn−1 ) = P (ξn ∈ B|ξ0 , ..., ξn−1 ) =
³ ´
= E I ξ−1
n (B)
|ξ0 , ..., ξn−1 = P (ξn ∈ B) = P (ξn ∈ B|ξn−1 ), (P−a.s).

(I ξ−1
n (B)
y σ(ξn−1 ) son independientes; I ξ−1
n (B)
y σ(ξ0 , ..., ξn−1 ) son indepen-
dientes). Se itera el proceso para n − 2 en vez de n − 1, etc. y se concluye
que ξ̃ cumple la propiedad de Markov.
42 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Ejemplo 2. Sean (Ω, F , P ) espacio de probabilidad y ξ̃ = {ξn }n∈N sucesión


de variables aleatorias independientes en este espacio. Entonces, η̃ = {η n =
ξ0 + ... + ξn }n∈N es cadena de Markov en (Ω, F , P ).
En efecto. Para todo n ∈ N y todo B ∈ B(R), se verifica que:
η̃
P (η n ∈ B|Fn−1 ) = P (η n ∈ B|ξ0 , ..., ξn−1 ) = P ((η n−1 , ξn ) ∈ µ−1 (B)|ξ0 , ..., ξn−1 )
= P (η n−1 + ξn ∈ B|η n−1 ), (P -a.s.), (µ((x, y)) = x + y)).
En el caso particular de ser además las variables aleatorias {ξn }n∈N+ idén-
ticamente distribuidas, (V. 2, pág. 290), y ξ0 = 0, se dice que la cadena de
Markov η̃ es paseo aleatorio en R. En esta situación, a las variables aleato-
rias ξn se les llama pasos del paseo aleatorio y las sumas η n determinan la
posición del paseo aleatorio en el instante n (realizados n pasos).
De forma análoga se definen los paseos aleatorios en Rn considerando vec-
tores aleatorios n-dimensionales independientes e igualmente distribui-
dos, (V. 2, pág. 157), en vez de variables aleatorias con esas propiedades.

Probabilidad de transición de un proceso de Markov

Sean (Ω, F , P ) un espacio de probabilidad y ξ : Ω → R una variable aleato-


ria en (Ω, F ).

(1). Se considera una σ-álgebra G en Ω con G ⊂ F . Entonces, por el Teo-


rema 3.5.11., (V. 2, pág. 243), existe una aplicación, (distribución con-
dicionada regular de ξ con respecto a G , (V. 2, pág. 243)), Q ξG : Ω ×
B(R) → R que cumple las tres propiedades que siguen:

(1a). Q ξG (ω, ·) : B(R) → R es probabilidad en (R, B(R)), para todo


ω ∈ Ω, (por tanto, i m(Q ξG ) ⊂ [0, 1]).
(1b). Q ξG (·, B) : Ω → R es función G -medible, para todo B ∈ B(R).
(1c). Para cada B ∈ B(R), Q ξG (ω, B) = P (ξ ∈ B|G ) (ω), (P -a.s.).

Además, se prueba que Q ξG es única en el sentido que sigue:

(1d). Si la aplicación Q ′ : Ω×B(R) → R cumple las propiedades (1a),


(1b) y (1c), entonces existe N ∈ G ⊂ F con P (N ) = 0 tal que
para todo ω ∈ N c , Q ξG (ω, B) = Q ′ (ω, B) para todo B ∈ B(R).
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 43

(2). Agregamos, a la hipótesis general, η : Ω → R, variable aleatoria en


(Ω, F ), y tomamos la σ-álgebra G = Gη de Ω. Con las notaciones de
(1), tenemos la aplicación Q ξGη cumpliendo además de las propie-
dades (1a), (1b), (1c) y (1d), las dos siguientes:

(2a). Para R
todo B ∈ B(R) y todo C ∈ Gη , se verifica que P (C ∩ {ξ ∈
B}) = C Q ξGη (ω, B)P (d ω), (véase la página 245 de V. 2).
(2b) Si g : R → R es una función
R de Borel tal que g (ξ) es integrable,
entonces E (g (ξ)|η)(ω) = R g (x)Q ξGη (ω, d x), (P -a.s), (En efecto:
Para g = I B , B ∈ B(R), la fórmula es cierta, ya que en este ca-
so se convierte en P (ξ ∈ B|η)(ω) = Q ξGη (ω, B), (P -a.s.) que se
cumple por (1c). Entonces, la fórmula es válida para funciones
simples y el caso general se obtiene aplicando la convergencia
monótona, (V. 2, pág. 171)).

(3). Sean de nuevo η : Ω → R variable aleatoria en (Ω, F ) y G = Gη . Para


todo B ∈ B(R), por el Teorema 3.5.3, (V. 2, pág. 229), aplicado a las
variables aleatorias I ξ−1 (B) , η : Ω → R, se tiene que existe una función
ϕI ξ−1 (B) η : R → R, B(R)|B(R)-medible tal que:
R R
(i). η−1 (A) I ξ−1 (B) d P = A ϕI ξ−1 (B) η d P η , A ∈ B(R).

(ii). E (I ξ−1 (B) |η) = P (ξ ∈ B|η) = P (ξ ∈ B|Gη ) = ϕI ξ−1 (B) η η, (P -a.s.).

((ii), mediante cambio de variable, da (i)).


Además, ϕI ξ−1 (B) η es única cumpliendo (i), (P η -a.s.).

Notación: ϕI ξ−1 (B) η (y) = E (I ξ−1 (B) |η = y) = P (ξ ∈ B|η = y), y ∈ R.

Se pone q ξη (y, B) = P (ξ ∈ B|η = y) = ϕI ξ−1 (B) η (y), B ∈ B(R), y ∈ R, y se


tiene la función q ξη : R × B(R) → R con las propiedades:

(3a). q ξη (y, ·) : B(R) → R es una probabilidad en (R, B(R)), y ∈ R


(3b). q ξη (·, B) : R → R es una función de Borel para todo B ∈ B(R).
(3c). q ξη (η(ω), B) = P (ξ ∈ B|η)(ω) = Q ξGη (ω, B), ω ∈ Ω, B ∈ B(R).
(3d). Además, q ξη es única en el sentido que se ha detallado en (1d)
para Q ξG .
44 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(3e). Si η = ξ, para todo B ∈ B(R), se tiene: ϕI ξ−1 (B) ξ = I B , (P η -a.s.),


(basta tener en cuenta (i)).

Sean ahora (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξu }u∈S , S ⊂ R, un


proceso estocástico real en dicho espacio. Entonces, con las notaciones
anteriores (tomando ξ = ξt y η = ξs , s < t ), para cada s, t ∈ S con s < t ,
B ∈ B(R) y x ∈ R, se tiene el número real q ξt ξs (x, B) = P (ξt ∈ B|ξs = x) =
ϕI ξ−1 (B) ξs (x)(= p(s, x; t , B)).
t
La función p(s, x; t , B) cumple las tres propiedades siguientes:

(a). Fijados s, t , B, p(s, ·; t , B) : R → R es una función de Borel.

(b). Fijados s, x, t , p(s, x; t , ·) : B(R) → R es una probabilidad en (R, B(R)).

(c). p(s, ξs ; t , B) = P (ξt ∈ B|ξs ), s, t ∈ S con s < t , B ∈ B(R) y p(s, x; t , B) =


P (ξt ∈ B|ξs = x), s, t ∈ S con s < t , B ∈ B(R), x ∈ R.

Observación 1. Para todo s ∈ S y todo B ∈ B(R), por (3e) se tiene q ξs ξs (·, B) =


I B , (P ξs -a.s.), lo que justifica que algunos autores tomen p(s, ·; s, B) = I B .

Proposición 4.4.8. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξu }u∈S ,


S ⊂ R, un proceso estocástico de Markov en este espacio. Sea p(s, x; t , B) =
P (ξt ∈ B|ξs = x), s, t ∈ S con s < t , x ∈ R, B ∈ B(R). Entonces,

(1). Para todo s 1 , s 2 , s 3 ∈ S, con s 1 < s 2 < s 3 , y todo B ∈ B(R),


Z
p(s 1 , ξs1 ; s 3 , B) = p(s 2 , y; s 3 , B)p(s 1 , ξs1 ; s 2 , d y), (P − a.s.),
R
(Ecuación de Chapman-Kolmogorov).

(2). Para todo s 1 , s 2 , s 3 ∈ S, con s 1 < s 2 < s 3 , todo x ∈ R, y todo B ∈ B(R),


Z
p(s 1 , x; s 3 , B) = p(s 2 , y; s 3 , B)p(s 1 , x; s 2 , d y), (P ξs1 − a.s.),
R
(Ecuación de Chapman-Kolmogorov),

es decir, la igualdad se cumple¡ para todo


¢ x ∈ N c , donde N es un sub-
conjunto de Borel de R, con P ξ−1s 1 (N ) = P ξs 1 (N ) = 0.
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 45

Demostración. (1). Por (c) anterior, la Proposición 4.4.3., (pág. 40), y (2b)
de la página 43 con g (x) = p(s 2 , x; s 3 , B) y Q ξs2 Gξs , se tiene
1

¡ ¢ ¡ ¢ ¡ ¡ ¢ ¢
p s 1 , ξs1 ; s 3 , B = P ξs3 ∈ B|ξs1 = E p s 2 , ξs2 ; s 3 , B |ξs1 =
Z
= p (s 2 , x; s 3 , B) p(s 1 , ξs1 ; s 2 , d x), (P − a.s.).
R

(2). Sigue de (1) y de la unicidad de las funciones q ξt ξs ((3), pág. 43).

Observación 2. En el caso particular del fenómeno de difusión de una par-


tícula en un medio denso, (pág. 39), de la definición de p(s, x; t , B) se tiene
que p(s, x; t , B) = P (ξt ∈ B|ξs = x) es la probabilidad de que la partícula ob-
servada esté en B en el tiempo t si en tiempo s estaba en x.
Resaltamos que p está bien definida incluso cuando P (ξs = x) = 0.

Definición 4.4.9. Sea p(s, x; t , B), s, t ∈ S ⊂ R, s < t , x ∈ R, B ∈ B(R), una


función con valores reales.

(1) Se dice que p es una función de transición si verifica:

(1a) Fijados s, x, t , p(s, ·; t , B) : R → R es una función de Borel.


(2a) Fijados s, x, t , p(s, x; t , ·) : B(R) → R es probabilidad en (R, B(R)).

(2) Se dice que p es una función de transición Markoviana si verifica:

(2a) Fijados s, x, t , p(s, ·; t , B) : R → R es una función de Borel.


(2b) Fijados s, x, t , p(s, x; t , ·) : B(R) → R es probabilidad en (R, B(R)).
(2c) Para todo s 1 , s 2 , s 3 ∈ S, s 1 < s 2 < s 3 , todo x ∈ R y todo B ∈ B(R),
Z
p(s 1 , x; s 3 , B) = p(s 2 , y; s 3 , B)p(s 1 , x; s 2 , d y),
R
(Ecuación de Chapman-Kolmogorov),

Los resultados establecidos en las páginas 42, 43 y 44, prueban la pro-


posición que sigue.

Proposición 4.4.10. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S


un proceso estocástico real en (Ω, F ). Entonces,
46 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) La función p(s, x, t , B) = P (ξt ∈ B|ξs = x) = ϕI ξ−1 (B) ξs (x) es una función
t
de transición que se llama probabilidad de transición de ξ̃.

(b) Si ξ̃ es un proceso de Markov, la función p(s, x, t , B) = P (ξt ∈ B|ξs = x) =


ϕI ξ−1 (B) ξs (x) es una función de transición Markoviana que se llama
t
probabilidad de transición Markoviana de ξ̃.
Las funciones de distribución finito-dimensionales de un proceso de Mar-
kov ξ̃ = {ξs }s∈S están determinadas por la probabilidad de transición Mar-
koviana y la distribución de probabilidad (π =)P ξ0 , (π(B) = P (ξ0 ∈ B), B ∈
B(R)), que se llama distribución inicial del proceso de Markov ξ̃. Con más
precisión, se tiene el siguiente teorema:
Teorema 4.4.11. Sea S un subconjunto no puntual de [0, +∞) con 0 ∈ S.
Sean ξ̃ = {ξs }s∈S un proceso estocástico real en el espacio de probabilidad
(Ω, F , P ), y p(s, x; t , B) una función de transición, (Definición 4.4.9.). En-
tonces, las siguientes afirmaciones son equivalentes:
(1). La probabilidad de transición del proceso estocástico ξ̃, (Proposición
4.4.10.(a)), es la función p(s, x; t , B) dada y ξ̃ es un proceso de Markov.

(2). Para todo s 1 , ..., s n ∈ S con 0 = s 0 < s 1 < ... < s n ,


Zx 0 Zx1
P ξ0 (d y 0 ) p(s 0 , y 0 ; s 1 , d y 1 ) · · ·
−∞ −∞
Zxn−1 Zxn
··· p(s n−2 , y n−2 ; s n−1 , d y n−1 ) · p(s n−1 , y n−1 ; s n , d y n ) =
−∞ −∞
¡ ¢
= P ξs0 6 x0 , ξs1 6 x1 , ..., ξsn 6 xn , x0 , ..., xn ∈ R,

o de forma equivalente, para 0 = s 0 < s 1 < ... < s n y B 0 , ..., B n ∈ B(R),


Z Z Z
¡ ¢
P ξs0 ∈ B 0 , ..., ξsn ∈ B n = ... p(s n−1 , xn−1 ; s n , d xn )·
B0 B1 Bn
· p(s n−2 , xn−2 ; s n−1 , d xn−1 )...p(s 0 , x0 ; s 1 , d x1 )P ξ0 (d x0 ).

Con las hipótesis generales del teorema que precede, suponemos que se
cumple (1). Entonces:
R Para s 0 = 0, s 1 > 0, B 1 ∈ B(R), B 0 = R, se tiene que
P (ξs1 ∈ B 1 ) = R p(0, x; s 1 , B 1 )P ξ0 (d x).
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 47

De esta forma, si en dos procesos estocásticos de Markov, ξ̃ y η̃, las dis-


tribuciones iniciales P ξ0 y P η0 son iguales, y las probabilidades de transi-
ción Markovianas coinciden, también coinciden sus distribuciones finito-
dimensionales y por tanto, en este caso, los dos procesos son estocástica-
mente equivalentes en sentido amplio, (pág. 6).
Teorema 4.4.12. Sean S un subconjunto no puntual de [0, +∞) con 0 ∈ S,
y p(s, x; t , B), s, t ∈ S, s < t , x ∈ R, B ∈ B(R), una función de transición
Markoviana en el sentido de la definición anterior y π una probabilidad
en (R, B(R)). Entonces, existen un espacio de probabilidad (Ω, F , P ) y un
proceso estocástico de Markov en dicho espacio, ξ̃ = {ξs }s∈S , tales que
(1). La probabilidad de transición de ξ̃ es la función de transición Marko-
viana dada.

(2). π(A) = P (ξ0 ∈ A), para todo A ∈ B(R).

(3). Para todo s 0 , s 1 , ..., s n ∈ S con 0 = s 0 < s 1 < ... < s n y todo (x1 , ..., xn ) ∈ Rn ,
Zx 0 Zx 1 Zxn−1
π(d y 0 ) p(s 0 , y 0 ; s 1 , d y 1 ) · · · p(s n−2 , y n−2 ; s n−1 , d y n−1 )·
−∞ −∞ −∞
Zxn
¡ ¢
· p(s n−1 , y n−1 ; s n , d y n ) = P ξs0 6 x0 , ξs1 6 x1 , ..., ξsn 6 xn .
−∞

Demostración. A partir de p(s, x; t , B) y π (los datos del teorema) mediante


integración, (el primer miembro de la igualdad del enunciado del teore-
ma), se obtiene una familia de distribuciones finito-dimensionales (abs-
tractas) F[s0 ,...,sn ] (x0 , ..., xn ), (siendo la unidimensional la dada por π), y por
aplicación de forma iterada de la ecuación de Chapman-Kolmogorov, se
comprueba que dichas distribuciones cumplen la condición de consisten-
cia del teorema de Kolmogorov (Teorema 4.1.4., pág. 10), así, por el citado
teorema de Kolmogorov, existen un espacio de probabilidad (Ω = RS , F =
B(RS ), P ) y un proceso estocástico ξ̃ = {ξs }s∈S , (ξs = p s , s ∈ S), en dicho
espacio tal que sus distribuciones finito-dimensionales son las obtenidas
anteriormente por integración, es decir, para todo, s 1 < ... < s n ,
¡ ¢
P ω ∈ RS : (ω0 , ωs1 , ..., ωsn ) ∈ (−∞, x0 ] × (−∞, x1 ] × ... × (−∞, xn ] =
¡ ¢
= P ξ0 6 x0 , ξs1 6 x1 , ..., ξsn 6 xn = F[0,s1 ,...,sn ] (x0 , x1 , ..., xn ), s 1 , ..., s n ∈ S,
48 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

que da la igualdad de (3) para la función p(s, x; t , B) dada. Además,¡ se tiene ¢


P ξ0 ((a, b]) = π((a, b]) = F0 (b) − F0 (a), π = P ξ0 , π(A) = P ξ0 (A) = P ξ−1
0 (A) ,
A ∈ B(R), lo cual prueba (2).
Finalmente, (1) es consecuencia del teorema anterior.

(Véase el Corolario 4.1.5., (pág. 11)).

Procesos de Markov con densidad de transición. Ecuaciones de Kolmo-


gorov
Definición 4.4.13. Sean (Ω, F ) un espacio medible y p(s, x; t , B), s, t ∈ S ⊂
R, s < t , x ∈ R, B ∈ B(R), una función de transición en (Ω, F ), (Definición
4.4.9., pág. 45). Se dice que p tiene función de densidad si existe una fun-
ción p(s, x|t , y), x, y ∈ R, s, t ∈ S, s < t , con valores reales, tal que p(s, x|t , ·)
es una función de Borel para todo s, x, t , dados y fijados, y
Z
p(s, x; t , B) = p(s, x|t , y)d y, s, t ∈ S, s < t , B ∈ B(R).
B

Si p es la probabilidad de transición de un proceso estocástico ξ̃, en un es-


pacio de probabilidad (Ω, F , P ), que tiene función de densidad, a ésta se le
llamará densidad de transición de ξ̃.
Sean (Ω, F , P ) un espacio de probabilidad, ξ̃ = {ξs }s∈J T un proceso es-
tocástico de Markov en (Ω, F ) y p(s, x; t , B) = P (ξt ∈ B|ξs = x) su probabili-
dad de transición. Supongamos que el proceso ξ̃ tiene densidad de transi-
ción, p(s, x|t , y), s, t ∈ J T , s < t , x, y ∈ R. Entonces,

(1). Para todo s 1 , s 2 , s 3 ∈ J T con s 1 < s 2 < s 3 y todo x, z ∈ R, se verifica que


Z+∞
p(s 1 , x|s 3 , z) = p(s 2 , y|s 3 , z)p(s 1 , x|s 2 , y)d y.
−∞

(La igualdad anterior, se obtiene fácilmente de la ecuación de Chapman-


Kolmogorov correspondiente, (pág. 44).)

(2). Supongamos además que:

(2a). La función M1 (y, t , △t ) = ( t +△t△t t t ) , y ∈ R, t , t + △t ∈ J T , △t 6=


E (ξ −ξ )|ξ =y

0, está acotada y lı́m△t→0 M1 (y, t , △t ) = m(y, t ).


4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 49

¡ ¢
E (ξt +△t −ξt )2 |ξt =y
(2b). La función M2 (y, t , △t ) = △t
, y ∈ R, t , t + △t ∈ J T , △t 6=
2
0, está acotada y lı́m△t→0 M2 (y, t , △t ) = σ (y, t ).
¡ ¢
t +△tE (ξt −ξ )3 |ξ =y
t
(2c). La función M3 (y, t , △t ) = △t
, y ∈ R, t , t + △t ∈ J T , △t 6=
0, está acotada y lı́m△t→0 M3 (y, t , △t ) = 0.

∂p(s,x|t,y) ∂p(s,x|t,y) ∂2 p(s,x|t,y)


(2d). Las derivadas parciales ∂t , ∂y , ∂y 2
existen, son con-
tinuas
¯ y acotadas
¯ en (t , y) para cada (s, x) dado y fijado. Además,
¯ ∂p(s,x|t,y) ¯
¯ ∂t ¯ está acotada por una función integrable Lebesgue g (y)
para cada (s, x) dado y fijado.

Con estas hipótesis, se verifica que p(s, x|t , y) cumple la ecuación

∂p(s, x|t , y) ∂(m(y, t )p(s, x|t , y)) 1 ∂2 (σ2 (y, t )p(s, x|t , y))
=− + ,
∂t ∂y 2 ∂y 2

que es una ecuación diferencial en derivadas parciales de tipo parabó-


lico llamada ecuación forward (avanzada) de Kolmogorov o ecuación de
Fokker-Planck, (el término avanzada se utiliza para indicar que la derivada
parcial respecto al tiempo t se determina en el final del intervalo [s, t ]).
(3). Supongamos además que:
E
(3a). La función M1 (x, s, △s) = ((ξs+△s△s s )|ξs , s ∈ R, s, s +△s ∈ J T , △s 6= 0,
−ξ =x)

está acotada y lı́m△s→0 M1 (x, s, △s) = m(x, s).


¡ ¢
E (ξs+△s −ξs )2 |ξs =x
(3b). La función M2 (x, s, △s) = △s
, x ∈ R, s, s + △s ∈ J T , △s 6=
0, está acotada y lı́m△s→0 M2 (x, s, △s) = σ2 (x, s).
¡ ¢
s+△sE (ξ
s s −ξ )3 |ξ =x
(3c). La función M3 (x, s, △s) = △s , x ∈ R, s, s + △s ∈ J T , △s 6=
0, está acotada y lı́m△s→0 M3 (x, s, △s) = 0.

∂p(s,x|t,y) ∂p(s,x|t,y) ∂2 p(s,x|t,y)


(3d). Las derivadas parciales ∂s , ∂x , ∂x 2
existen, son con-
¯tinuas y acotadas
¯ en (s, x) para cada (t , y) dado y fijado. Además,
¯ ∂p(s,x|t,y) ¯
¯ ∂s ¯ está acotada por una función integrable Lebesgue g (x)
para cada (t , y) dado y fijado.
50 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Con estas hipótesis, se verifica que p(s, x|t , y) cumple la ecuación

∂p(s, x|t , y) ∂p(s, x|t , y) 1 2 ∂2 p(s, x|t , y)


= −m(x, s) − σ (x, s) ,
∂s ∂x 2 ∂x 2

que es una ecuación diferencial en derivadas parciales de tipo parabóli-


co llamada ecuación backward (retardada) de Kolmogorov, (en este caso,
el término retardada hace referencia a que la derivada parcial respecto al
tiempo s se determina en el extremo inicial del intervalo [s, t ]).

Procesos de Markov homogéneos

Un proceso de Markov ξ̃ = {ξt }t∈J ∞ , en el espacio de probabilidad (Ω, F , P ),


se dice que es homogéneo si su probabilidad de transición p(s, x; t , B) cum-
ple: p(s + u, x; t + u, B) = p(s, x; t , B), s, t , u ∈ J ∞ , s < t , x ∈ R, B ∈ B(R).
En este caso para r ∈ J ∞ con r > 0, x ∈ R y B ∈ B(R), p(s, x; s + r, B) no
depende de s ∈ J ∞ , es decir, p(s 1 , x; s 1 + r, B) = p(s 2 , x; s 2 + r, B), s 1 , s 2 ∈ J ∞ ,
y la probabilidad de transición la podemos poner de la forma p(r, x, B) =
p(0, x; r, B) = p(s, x; s + r, B), r, s ∈ J ∞ , x ∈ R, B ∈ B(R), (p(r, x, B) es la pro-
babilidad de transición de x a B en el tiempo r ).
Dado un proceso de Markov, ξ̃ = {ξt }t∈J ∞ , se tiene:
(1). Supongamos que ξ̃ es homogéneo. Entonces, la ecuación de Chapman-
Kolmogorov, (Proposición 4.4.8.(2), pág. 44), se convierte en:
Z
p(t +s, x, B) = p(s, y, B)p(t , x, d y), (P ξ0 −a.s), s > 0, t > 0, x ∈ R, B ∈ B(R).
R

(2). Supongamos que ξ̃ es homogéneo y que π asociada a ξ0 cumple: π(B) =


R
R p(t , x, B)π(d x), B ∈ B(R), t ∈ J ∞ , lo cual equivale a que las variables
aleatorias ξt , t ∈ J ∞ , estén idénticamente distribuidas, (por la observación
que sigue al RTeorema 4.4.11., (pág. R46), se deduce que para todo s ∈ S,
P (ξs ∈ B) = R p(0, x; s, B)P ξ0 (d x) = R p(s, x, B)π(d x) = π(B), B ∈ B(R)).
Entonces, por el Teorema 4.4.11. (pág. 46), se tiene ¡que para cualesquiera ¢
t1 ¡, ..., tn , δ ∈ J ∞ con t1 < ...¢< tn y B 1 , ..., B n ∈ B(R), P ξt1 ∈ B 1 , ..., ξtn ∈ B n =
P ξt1 +δ ∈ B 1 , ..., ξtn +δ ∈ B n , y así ξ̃ es un proceso estocástico estacionario
en sentido estricto (página 33), y por tanto, P (ξt1 ,...,ξtn ) = P (ξt +δ ,...,ξtn +δ ) .
1
(3). Con las hipótesis de (2) se tiene la fórmula P (ξt − ξs ∈ A) = P (ξt+u −
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 51

ξs+u ∈ A), s, t , u ∈ J ∞ , A ∈ B(R), ya que ξt − ξs = ψ ◦ (ξt , ξs ) y ξt+u − ξs+u =


ψ ◦ (ξt+u , ξs+u ), donde ψ(x, y) = x − y, (x, y) ∈ R2 .

Probabilidad de transición de una cadena de Markov

(i). De la Definición 4.4.1. (pág. 37) y el Teorema 4.4.2., (pág. 37), se tiene:
Sea ξ̃ = {ξn }n∈N una sucesión estocástica en un espacio de probabilidad
(Ω, F , P ). Entonces, ξ̃ es una cadena de Markov si y sólo si

P (ξn ∈ B|ξ0 , ξ1 , ..., ξm ) = P (ξn ∈ B|ξm ) , (P −a.s.), m, n ∈ N, n > m, B ∈ B(R).

(En la Proposición 4.4.7., (pág. 41), se probó que si ξ̃ = {ξn }n∈N es cadena
de Markov respecto a una filtración {Fn }n∈N , entonces ξ̃ es unan cadena
o de
ξ̃
Markov, es decir, es cadena de Markov respecto a la filtración Fn .)
n∈N
(ii). Sean ξ̃ = {ξn }n∈N una cadena de Markov en el espacio de probabilidad
(Ω, F , P ) y p(m, x; n, B), m, n ∈ N con m < n, x ∈ R, B ∈ B(R), su probabili-
dad de transición. Entonces, por (c) de la página 44, p(m, x; n, B) = P (ξn ∈
B|ξm = x) y p(m, ξm (ω); n, B) = P (ξn ∈ B|ξm ) (ω), m, n ∈ N con m < n, x ∈ R,
ω ∈ Ω, y por (2) de la Proposición 4.4.8., (pág. 44), se tiene la ecuación de
Chapman-Kolmogorov:
Z
(*) p(k, x; n, B) = p(m, y; n, B) · p(k, x; m, d y), (P ξk − a.s.),
R

para todo k, m, n ∈ N con k < m < n, todo B ∈ B(R) y todo x ∈ R.

Para todo n ∈ N, B ∈ B(R) y x ∈ R, ponemos (P n (x, B) =)p(n, x; n + 1, B)


y a la función P n (x, B), n ∈ N, x ∈ R, B ∈ B(R), se le llama probabilidad
de transición de ξ̃ de paso 1. Entonces, se tiene la igualdad P n (ξn (ω), B) =
p(n, ξn (ω); n + 1, B) = P (ξn+1 ∈ B|ξn )(ω), n ∈ N, B ∈ B(R), ω ∈ Ω.
Por otro lado, π(B) = P (ξ0 ∈ B), B ∈ B(R), es probabilidad en (R, B(R)).

La ecuación de Chapman-Kolmogorov (*) permite obtener p(m, x; n, B)


a partir de P k (y, B).
En efecto: Se tiene, (por definición), R p(m, x; m +1, B) = P m (x, B), m ∈ N, x ∈
R,
R B ∈ B(R); p(m, x; m +2, B) = R p(m +1, x1; m +2, B)p(m, x; m +1, d x1) =
R P m+1 (x 1 , B)P m (x, d x 1 ), m ∈ N, x ∈ R, B ∈ B(R); del último resultado se
52 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

R
sigue
R que p(m, R x; m + 3, B) = R p(m + 2, x 2 ; m + 3, B)p(m, x; m + 2, d x 2 ) =
R P m+2 (x 2 , B) R P m+1 (x 1 , d x 2 )P m (x, d x 1 ), m ∈ N, x ∈ R, B ∈ B(R); y reite-
rando el proceso se llega a la fórmula
Z Z
p(m, x; m + k, B) = P m−(k−1) (xk−1 , B) P m−(k−2) (xk−2 , d xk−1 )...
Z R R

... P m+1 (x1 , d x2 )P m (x, d x1 ), m ∈ N, x ∈ R, B ∈ B(R), k > 2.


R

Por otro lado, por el Teorema 4.4.11., (pág. 46), se tiene que
Zx 0 Zx1
P ξ0 (d y 0 ) P 0 (y 0 , d y 1 ) · · ·
−∞
Z−∞
xn−1 Zxn
··· P n−2 (y n−2 , d y n−1 ) · P n−1 (y n−1 , d y n ) =
−∞ −∞
= P (ξ0 6 x0 , ξ1 6 x1 , ..., ξn 6 xn ), n ∈ N, x0 , ..., xn ∈ R.

(iii). Sea ahora una función p k (x, B) definida para todo k ∈ N, x ∈ R y B ∈


B(R), tal que:

(a). p k (x, ·) : B(R) → R es una probabilidad en (R, B(R))) fijados k y x.

(b) p k (·, B) : R → R es una función de Borel fijados k y B.

Se definen (p(m, x; m + 1, B) =)p m (x, B), m ∈ N, x ∈ R y B ∈ B(R), y


Z Z
p(m, x; m + k, B) = P m−(k−1) (xk−1 , B) P m−(k−2) (xk−2 , d xk−1 )...
Z R R

... P m+1 (x1 , d x2 )P m (x, d x1 ), m ∈ N, x ∈ R, B ∈ B(R), k > 2.


R

Se comprueba que p(m, x; n, B), m, n ∈ N con m < n, x ∈ R, B ∈ B(R) es


una función de transición Markoviana, (Definición 4.4.9., pág. 45).
Sea π una probabilidad en (R, B(R)).
Entonces, por el Teorema 4.4.12., (pág. 47), existen una probabilidad P en
(R∞ , B(R∞ )) (véase la demostración de dicho teorema) y una cadena de
Markov ξ̃ = {ξn }n∈N en (R∞ , B(R∞ )) cuya probabilidad de transición es la
función p(m, x; n, B) construida anteriormente, por tanto, la probabilidad
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 53

de transición de paso 1 de ξ̃ es la función dada p k (x, B). Además, π(A) =


P (ξ0 ∈ A), para todo A ∈ B(R), y
Zx0 Z x1
P (ξ0 6 x0 , ξ1 6 x1 , ..., ξn 6 xn ) = π(d y 0 ) · p(0, y 0 ; 1, d y 1 )...
−∞
Zxn−1 Zxn −∞
... p(n − 2, y n−2 ; n − 1, d y n−1 ) p(n − 1, y n−1 ; n, d y n ) =
−∞ −∞
Zx 0 Zx 1 Zxn−1 Zxn
π(d y 0 ) p 0 (y 0 ; d y 1 )... p n−2 (y n−2 ; d y n−1 ) p n−1 (y n−1 ; d y n ).
−∞ −∞ −∞ −∞

(Obsérvese que en este resultado de existencia de una cadena de Markov a


partir de la función p k (x, B) verificando (a) y (b) de la página 52, estableci-
do en (iii), no se necesita la ecuación de Chapman-Kolmogorov, ((*) de la
página 51). Compárese esto con el Teorema 4.4.12., (pág. 47).)
Lo expuesto en (iii) da una demostración del Corolario 4.1.8., (pág.14).
(iv). Supongamos ahora que ξ̃ = {ξn }n∈N es una cadena de Markov en el
espacio de probabilidad (Ω, F , P ) y con espacio de estados (E , E ), (pág. 1),
con E conjunto numerable y {x} ∈ E para todo x ∈ E , (por tanto, podemos
suponer que E ⊂ R y E = B(R)|E ). En este caso la probabilidad de transi-
ción de paso 1, P n (x, B), n ∈ N, x ∈ E , B ∈ E , queda determinada por

(p k (x, y) =)P k (x, {y}) = P (ξk+1 = y|ξk = x).

Para cada k ∈ N, P(k) = (p k (x, y))x,y∈E es una matriz estocástica, con lo que
P
se expresa que p k (x, y) > 0, x, y ∈ E , y y p k (x, y) = 1, x ∈ E .
Para todo x0 , x1 , ..., xn ∈ E se verifica que
P (ξ0 = x0 , ξ1 = x1 , ..., ξn = xn ) =
= P (ξ0 = x0 )P (ξ1 = x1 |ξ0 = x0 )P (ξ2 = x2 |ξ1 = x1 ) · · · P (ξn = xn |ξn−1 = xn−1 ) =
= π({x0 })p 0 (x0 , x1 )p 1 (x1 , x2 ) · · · p n−1 (xn−1 , xn ),

con π probabilidad en (E , E ) definida por ξ0 , (probabilidad inicial de ξ̃).


Recíprocamente, en el Corolario 4.1.11., (pág. 16), a partir de un conjun-
to numerable E , una matriz estocástica P(k) = (p k (x, y))x,y∈E para todo
k ∈ N, y una probabilidad inicial (π) se construye una cadena de Markov
ξ̃ = {ξn }n∈N , en un espacio de probabilidad (Ω, F , P ), con espacio de esta-
dos (E , P (E )) tal que p k (x, y) = P (ξk+1 = y|ξk = x), k ∈ N, x, y ∈ E .
54 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Cadenas de Markov homogéneas

Se dice que una cadena de Markov ξ̃ = {ξn }n∈N es homogénea si es homogé-


nea como proceso de Markov general, es decir, para todo x ∈ R, B ∈ B(R),
m, n ∈ N con m < n, se verifica que p(m, x; n, B) = p(m + r, x; n + r, B), para
todo r con m + r, n + r ∈ N.

Proposición 4.4.14. Una cadena de Markov ξ̃ = {ξn }n∈N es homogénea si y


sólo si P 0 (x, B) = P 1 (x, B) = P 2 (x, B) = ..., ((ii), pág. 51), para todo x ∈ R y
B ∈ B(R).

Demostración. Si la cadena de Markov ξ̃ es homogénea es evidente que


P 0 (x, B) = P 1 (x, B) = ..., x ∈ R, B ∈ B(R).
Recíproco: Supongamos ahora que la cadena de Markov ξ̃ cumple que
P 0 (x, B) = P 1 (x, B) = ..., x ∈ R, B ∈ B(R). Entonces para r, m ∈ N, x ∈ R,
B ∈ B(R), por la ecuación de Chapman-Kolmogorov (*), se tiene que

p(m, x; m + 1, B) = P m (x, B) = P 0 (x, B) = p(0, x; 1, B);


Z
p(m, x; m + 2, B) = p(m + 1, y; m + 2, B) · p(m, x; m + 1, d y) =
Z R

= p(m, y; m + 1, B) · p(m − 1, x; m, d y) = p(m − 1, x; m + 1, B),


R

y por inducción p(m, x; m + 2, B) = p(0, x; 2, B). Procediendo de nuevo por


inducción, se concluye que p(m, x; m + r, B) = p(0, x; r, B), lo que prueba
que la cadena de Markov ξ̃ es homogénea.

Sea ξ̃ = {ξn }n∈N una cadena de Markov homogénea en el espacio de


probabilidad (Ω, F , P ). Ponemos P (x, B) = P 0 (x, B). De ξ0 obtenemos π,
probabilidad en (R, B(R), mediante la fórmula π(A) = P (ξ−1 0 (A)), A ∈ B(R).
Se tienen las siguientes propiedades:

(1) P (x, B) = p(0, x; 1, B), P (x, ·) es una probabilidad en (R, B(R)), x ∈ R.

(2) Para todo B ∈ B(R), fijo, P (·, B) es una función de Borel.


4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 55

(3) Para n > 0 y A ∈ B(Rn+1 ),


Z
¡ −1
¢
P (ξ0 , ξ1 , ..., ξn ) (A) = π(d x0 )·
Z Z R Z
· P (x0 , d x1 )... P (xn−2 , d xn−1 ) I A (x0 , ..., xn )P (xn−1 , d xn ),
R R R
¡ ¢
B(Rn+1 ), es una probabilidad en el espa-
(P (ξ0 , ξ1 , ...,¡ξn )−1 (A)¡ , A ∈¢¢
n+1 n+1
cio medible R , B R ).

(4) Si g (x0 , ..., xn ) es B(Rn+1 )-medible y es de signo constante o acotada,


¡ ¢
E g (ξ0 , ..., ξn ) =
Z Z Z
= π(d x0 ) P (x0 , d x1 )... g (x0 , ..., xn )P (xn−1 , d xn ).
R R R
¡ ¢
(5) Tomamos I {ξn ∈B} , ξ0 , B ∈ B(R). Entonces, E I {ξn ∈B} |ξ0 = x , que hemos
designado anteriormente por q ξn ξ0 (x, B), es tal que
Z Z
¡ −1 −1
¢
P ξ0 (A) ∩ ξn (B) = I {ξn ∈B} d P = q ξn ξ0 (x, B)d P ξ0 , A ∈ B(R),
ξ−1
0 (A) A
¡ ¢
además, q ξn ξ0 (·, B) ◦ ξ0 = E I {ξn ∈B} |ξ0 = P (ξn ∈ B|ξ0 ).
Ponemos P n (x; B) = q ξn ξ0 (x, B) = P (ξn ∈ B|ξ0 = x) = p(0, x; n, B). Así, se tie-
ne P n (ξ0 (ω); B) = P (ξn ∈ B|ξ0 )(ω), (P -a.s.).
De la propiedad de Markov y la fórmula de Chapman-Kolmogorov, se de-
duce que para todo k, l > 1:
P k+l (ξ0 ; B) = P (ξk+l ∈ B|ξ0 ),
P (ξk+l ∈ B|ξk ) = P (ξk+l ∈ B|ξ0 , ..., ξk ), (P -a.s.),(propiedad de Markov)
R
P k+l (ξ0 ; B) = R P l (y; B)P k (ξ0 ; d y), (P -a.s.), (Chapman-Kolmogorov).

Se prueba la fórmula general de Chapman-Kolmogorov:


Z
(**) P k+l (x; B) = P l (y, B)P k (x; d y), x ∈ R,
R
n
para las funciones P (x; B).
56 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Partimos de la situación general siguiente: π(A) probabilidad en (R, B(R)),


y P (x, B), x ∈ R, B ∈ B(R), tal que P (x, ·) es probabilidad en (R, B(R)), x ∈
R, P (·, B), B ∈ B(R), es aplicación de Borel en R. Entonces, tomamos el
espacio medible (Ω, F ) = (R∞ , B(R∞ )).
Para cada A ∈ B(Rn+1 ) ponemos

P n+1 (A) =
Z Z Z Z
= π(d x0 ) P (x0 , d x1 )... P (xn−2 , d xn−1 ) I A (x0 , ..., xn )P (xn−1 , d xn ).
R R R R
¡ n+1 ¢
Se prueba¡ directamente
¢ que P n+1 (A), A ∈ B R es σ-aditiva, P n+1 (A) >
0 y P n+1 Rn+1 = 1. Así, P n+1 es una probabilidad en (Rn+1 , B(Rn+1 )).
Se comprueba la propiedad de consistencia de esta familia de probabili-
dades P n+1 , es decir, P n+1 (B × R) = P n (B) para todo B ∈ B (Rn ).
Entonces, por el Teorema 3.2.35. (V. 2, pág. 129), se tiene que existe una
única probabilidad P en (R∞ , B(R∞ )) tal que para todo A ∈ B(Rn+1 ), n ∈ N,

P {ω ∈ R∞ : (x0 , ..., xn ) ∈ A} = P n+1 (A) =


Z Z Z Z
= π(d x0 ) P (x0 , d x1 )... P (xn−2 , d xn−1 ) I A (x0 , ..., xn )P (xn−1 , d xn ).
R R R R

Ponemos ξn (ω) = xn , ω = (x0 , x1 , ...), n ∈ N. Entonces, {ξn }n∈N es una ca-


dena de Markov en el espacio de probabilidad (R∞ , B(R∞ ), P ), (efectiva-
mente se cumple: P (ξm+k ∈ B|ξ0 , ..., ξm ) = P (ξm+k ∈ B|ξm ), (P -a.s.), k > 1,
B ∈ B(R)). Con esta cadena de Markov tenemos las funciones:

P n (x, B) = P (ξn+1 ∈ B|ξn = x) , P n (ξn (ω), B) = P (ξn+1 ∈ B|ξn ) (ω).

La cadena de Markov obtenida cumple: P 0 (x, B) = P 1 (x, B) = P 2 (x, B) = ...,


y P (x, B) = P 0 (x, B), x ∈ R, B ∈ B(R), y por tanto, es cadena de Markov ho-
mogénea (Proposición 4.4.14., pág. 54).

Otro tipo especial de procesos de Markov (procesos de Markov con do-


minio finito de parámetro y espacio de estados finito) se ha estudiado en
la sección 1.8., (V. 1., páginas 62-72).
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 57

Procesos estocásticos con incrementos independientes

Un proceso estocástico {ξs }s∈S , (S subconjunto de R), en el espacio de pro-


babilidad (Ω, F , P ), (definición) es un proceso estocástico con incrementos
independientes si para toda serie finita s n > s n−1 > ... > s 1 de elementos de
S, las variables aleatorias ξs2 −ξs1 , ξs3 −ξs2 ,..., ξsn −ξsn−1 , constituyen un sis-
tema de variables aleatorias independientes.
En el teorema que sigue, se establece que estos procesos estocásticos cons-
tituyen un tipo especial de procesos estocásticos de Markov.

Teorema 4.4.15. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξs }s∈S ,


S ⊂ R, un proceso estocástico real definido sobre este espacio. Entonces, si ξ̃
es un proceso estocástico con incrementos independientes, se verifica que ξ̃
es un proceso de Markov.

Un proceso estocástico real {ξs }s∈S con incrementos independientes se di-


ce que tiene incrementos estacionarios si: P (ξt − ξs ∈ A) = P (ξt+δ − ξs+δ ∈ A)
para todo s, t , δ con s, t , s + δ, t + δ ∈ S, s < t , δ > 0, y todo A ∈ B(R).

Proposición 4.4.16. Sea ξ̃ = {ξt }t∈J ∞ un proceso estocástico continuo (o me-


dible), con incrementos independientes y estacionarios, y tal que E (|ξt |) <
+∞ para todo t ∈ J ∞ . Entonces,

1. E (ξt − ξ0 ) = (E (ξ1 − ξ0 ))t , t ∈ J ∞ .

2. V (ξt − ξ0 ) = (V (ξ1 − ξ0 ))t , t ∈ J ∞ .

La proposición anterior prueba que los procesos estocásticos con incre-


mentos independientes y estacionarios no son siempre procesos estocás-
ticos estacionarios en sentido estricto ni en sentido amplio (ver pág. 33).

Sea ξ̃ = {ξt }t∈S un proceso estocástico con incrementos independien-


tes y variables aleatorias idénticamente distribuidas. Supongamos que ξ̃
es homogéneo como proceso de Markov (véase el teorema anterior y la
página 50). Entonces por (3) de la página 50, se tiene que ξ̃ es un proceso
estocástico con incrementos independientes y estacionarios.
58 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Ejercicios y problemas
4.1. Sean ξ0 , ξ1 ,... variables aleatorias en (Ω, F , P ), espacio de probabili-
dad, con valores en un conjunto I finito o infinito numerable de R (es-
pacio de estados). Probar que dicha sucesión de variables aleatorias es ca-
dena de Markov si y sólo si para todo n ∈ N+ y cualquier sucesión de es-
tados i 0 ,...,i n+1 tales que P (ξ0 = i 0 , ..., ξn = i n ) > 0 se verifica que P (ξn+1 =
i n+1 |ξn = i n , ..., ξ0 = i 0 ) = P (ξn+1 = i n+1 |ξn = i n ), (propiedad de Markov).

4.2. Consideramos un proceso estocástico ξ̃ = {ξt }t∈J T estacionario con in-


crementos independientes para el cual existe E (ξ1 ). Probar que:
¡ ¢
(1) Existe E ξq para todo número racional q ∈ J T .
© ª
(2) Si T = +∞ y para todo t ∈ J ∞ existe E (ξt ), entonces lı́mn→+∞ n1 ξnt =
E (ξt ), (P -a.s.).
4.3. En el espacio de probabilidad (Ω, F , P ) consideramos un proceso es-
tocástico ξ̃ = {ξ¡t }t∈J¢∞ estacionario con incrementos independientes para
el cual existe E ξt0 para algún t0 > 0. Probar que existen dos sucesiones
de números reales {an } y {b n } tales que para todo x ∈ R,
µ ¶
ξnt0 − an
lı́m P 6 x = Φ(x),
n→+∞ bn
donde Φ(x) es la distribución normal estándar (V. 2, pág. 90).

4.4. En el espacio de probabilidad (Ω, F , P ) se considera un proceso de


Markov ξ̃ = {ξt }t∈J T respecto a una filtración {Ft }t∈J T y a P . Probar que para
ξ̃
todo s ∈ J T y todo A ∈ F> s se verifica que P (A|Fs ) = P (A|ξs ), (P -a.s.).
ξ̃
Indicación: Probar que G = {A ∈ F> s : P (A|Fs ) = P (A|ξs )} es una álgebra
© ª
monotónica que contiene a ξ−1t (B) : t > s, B ∈ B(R) .

4.5. Martingalas
Sean (Ω, F , P ) un espacio de probabilidad, S ⊂ R, y {Fs }s∈S una filtración
de (Ω, F ). El proceso estocástico ξ̃ = {ξs }s∈S , en (Ω, F ), medible y adapta-
do a la filtración {Fs }s∈S , (páginas 21 y 25; por (2) de la página 21, si S es
numerable la condición ξ̃ medible ya se tiene), se llama:
4.5. MARTINGALAS 59

(a) martingala respecto a {Fs }s∈S y a P si


¡ ¢
E (|ξs |) < +∞, s ∈ S, y E ξs2 | Fs1 = ξs1 , (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S. (m)

(b) submartingala respecto a {Fs }s∈S y a P si


¡ ¢
E (|ξs |) < +∞, s ∈ S, y E ξs2 |Fs1 > ξs1 , (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S. (sbm)

(c) supermartingala respecto a {Fs }s∈S y a P si


¡ ¢
E (|ξs |) < +∞, s ∈ S, y E ξs2 |Fs1 6 ξs1 , (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S. (spm)

Observación 1. Si ξ̃ = {ξs }s∈S es supermartingala (submartingala) respecto


a {Fs }s∈S y a P , el proceso estocástico −ξ̃ = {−ξs }s∈S es submartingala (su-
permartingala) respecto a {Fs }s∈S y a P .

De la definición de esperanza condicionada es claro que las condicio-


nes (m) de martingala, (sbm) de submartingala y (spm) de supermartinga-
la se pueden escribir de la siguiente forma equivalente que designaremos
por (m’), (sbm’) y (spm’), respectivamente:
Z Z
E (|ξs |) < +∞, s ∈ S, y ξs2 d P = ξs1 d P, s 1 < s 2 , s 1 , s 2 ∈ S; A ∈ Fs1 (m’)
Z A Z A
E (|ξs |) < +∞, s ∈ S, y ξs2 d P > ξs1 d P, s 1 < s 2 , s 1 , s 2 ∈ S; A ∈ Fs1 (sbm’)
ZA ZA
E (|ξs |) < +∞, s ∈ S, y ξs2 d P 6 ξs1 d P, s 1 < s 2 , s 1 , s 2 ∈ S; A ∈ Fs1 (spm’)
A A

Por otro lado, en el caso de sucesiones estocásticas (S = N), por las propie-
dades (2) y (8), de la página 221 de V. 2, de la esperanza condicionada, esas
mismas condiciones (m), (sbm) y (spm) son equivalentes a:
E (|ξn |) < +∞, n ∈ N, y E (ξn+1 | Fn ) = ξn , (P -a.s.), n ∈ N (m”)
E (|ξn |) < +∞, n ∈ N, y E (ξn+1 |Fn ) > ξn , (P -a.s.), n ∈ N (sbm”)
E (|ξn |) < +∞, n ∈ N, y E (ξn+1 |Fn ) 6 ξn , (P -a.s.), n ∈ N (spm”),
respectivamente.
Como en el caso de tiempo continuo, las condiciones (m”), (sbm”) y (spm”)
se pueden reformular equivalentemente en términos de integrales.
60 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sean (Ω, F , P ) un espacio de probabilidad, S ⊂ R, y ξ̃ = {ξs }s∈S un


n proce-
o
ξ̃
so estocástico medible en dicho espacio. Se considera la filtración Fs
s∈S
generada por ξ̃, (pág. 23). Entonces se tiene que ξ̃ está adaptado a es-
ta filtración, (pág. 25). Si dicho proceso
n o ξ̃ es martingala (o submartinga-
ξ̃
la o supermartingala) respecto a Fs y a P , diremos simplemente que
s∈S
ξ̃ = {ξs }s∈S es martingala (o submartingala o supermartingala) en (Ω, F , P ).

Observación 2. De la definición de martingala y la propiedad (7) de la pági-


na 221 de V. 2, se deduce que si {ξs }s∈S es una martingala respecto a {Fs }s∈S
y a P , entonces la función E (ξs ), s ∈ S, es constante.
En el caso de submartingala la función E (ξs ), s ∈ S, es monótona no decre-
ciente y en el caso de supermartingala es monótona no creciente.

Proposición 4.5.1. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtra-


ción de (Ω, F ) y ξ̃ = {ξt }t∈J T una supermartingala respecto a {Ft }t∈J T y a P
tal que E (ξ0 ) = E (ξT ). Entonces, ξ̃ es martingala respecto a {Ft }t∈J T y a P .

Demostración. Se tiene que E (ξT ) 6 E (ξt ) 6 E (ξ0 ), (Observación 2 ante-


rior), y por tanto, E (ξt ) es constante, t ∈ J T . Sea

A = {ω : E (ξt | Fs ) < ξs } , donde 0 6 s < t 6 T.

Supongamos que P (A) > 0. Entonces,

E (ξt ) = E (E (ξt | Fs )) = E [I A E (ξt | Fs ) + (I − I A )E (ξt | Fs )] =


= E (I A E (ξt | Fs ))+E ((I − I A )E (ξt | Fs )) < E (I A ξs )+E ((I − I A )ξs ) = E (ξs ) ,

(ya que E (I A E (ξt | Fs )) < E (I A ξs ), por ser P (A) > 0; recordamos que las
condiciones ξ > 0 y E (ξ) = 0 implican que ξ = 0, (P -a.s.)), lo que es una
contradicción. Así, P (A) = 0 y ξ̃ es martingala respecto a {Ft }t∈J T y a P .

Ejemplo 1. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξn }n∈N una


sucesión de variables aleatorias independientes con E (ξn ) = 0, n ∈ N. Sean
ξ̃ © ª
η n = ξ0 + ... + ξn y Fn = σ{ξ0 , ..., ξn }, n ∈ N, (pág. 23). Entonces η̃ = η n n∈N
n o
ξ̃
es una martingala respecto a Fn y a P . En efecto:
n∈N
4.5. MARTINGALAS 61

(a). Es claro
n oque η̃ es una sucesión estocástica medible y adaptada a la fil-
ξ̃
tración Fn de (Ω, F ).
n∈N
(b). E (η n ) = 0, n ∈ N.
(c). Las variables aleatorias ξn+1 , I {ω:ξ0 (ω)∈A 0 ,...,ξn (ω)∈A n } , A i ∈ B(R) son in-
dependientes, (Proposición 3.3.11., (V. 2, pág. 159)).
ξ̃
(d). Las variables aleatorias ξn+1 , I A (A ∈ Fn ) son³ independientes,
´ (luego
ξ̃ ξ̃
ξn+1 y σ(ξ0 , ..., ξn ) = Fn son independientes, y E ξn+1 |Fn = E (ξn+1 ) = 0,
(P -a.s.), (V. 2, (10) de la página 221).
(e). Por (d) y las propiedades de la esperanza condicionada, (V. 2, pág. 221),
se tiene: Para todo n ∈ N
³ ´ ³ ´
ξ̃ ξ̃
E η n+1 |Fn = E ξn+1 + η n |Fn =
³ ´ ³ ´
ξ̃ ξ̃
= E ξn+1 |Fn + E η n |Fn = E (ξn+1 ) + η n = η n , (P − a.s.).

Observación 3. Sean (Ω, F , P ) un espacio de probabilidad, ξ : Ω → R una


variable aleatoria y E ⊂ B(R). Entonces, σΩ (ξ−1 (E )) = ξ−1 (σR (E )).
Análogo para el vector aleatorio (ξ0 , ..., ξn ) : Ω → Rn+1 y para E ⊂ B(Rn+1 ):
n+1
σΩ ((ξ0 , ..., ξn )−1 (E )) = (ξ0 , ..., ξn )−1 (σR (E )).

Para probar (d) del ejemplo precedente tenemos en cuenta que:


© ª
(ξ0 , ..., ξn )−1 (A 0 × . . . × A n ) : A i ∈ B(R) ⊂
n o
ξ̃ ξ̃
⊂ A : A ∈ Fn ; ξn+1 , I A son independientes ⊂ Fn

y tomando σΩ se obtiene
³n o´
ξ̃ Ω ξ̃ ξ̃
Fn = σ A : A ∈ Fn ; ξn+1 , I A son independientes = Fn .
n o
ξ̃
Por último se prueba que A : A ∈ Fn ; ξn+1 , I A son independientes es σ-
álgebra, para lo cual sólo hay que ver que es álgebra, pues es claro que es
monotónica (Teorema 3.1.21., (V. 2, pág. 20)).

Ejemplo 2. Sean ξ una variable aleatoria, en el espacio de probabilidad


(Ω, F , P ), con E (|ξ|) < +∞ y {F
© s }ªs∈S una filtración de (Ω, F ), con S sub-
conjunto de R. Entonces η̃ = η s s∈S , donde η s = E (ξ|Fs ), s ∈ S, es una
martingala en (Ω, F , P ) respecto a {Fs }s∈S y a P . En efecto:
62 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) Es claro que η̃ es un proceso estocástico medible y adaptado a {Fs }s∈S .

(b) Para todo s ∈ S, E (η s ) = E (ξ).

(c) Por (8) de la página 221 de V. 2, para todo s 1 , s 2 ∈ S con s 1 < s 2 , se tiene
E (η s2 |Fs1 ) = E (E (ξ|Fs2 )|Fs1 ) = E (ξ|Fs1 ) = η s1 .
Observamos que la condición E (|ξs |) <
¡ +∞, s ¢∈ S, (en la definición de mar-
tingala) garantiza
¡ ¢ la existencia de E ξs2 |Fs1 , s 1 < s 2 , s 1 , s 2 ∈ S. Sin em-
bargo, E ξs2 |Fs1 puede también existir sin suponer la condición E (|ξs |) <
+∞, s ∈ S (V. 2, pág. 219, Observaciones. (1)). Lo cual motiva la siguiente
definición de martingala generalizada.
Definición 4.5.2. Sean (Ω, F , P ) un espacio de probabilidad, {Fs }s∈S una
filtración del espacio medible (Ω, F ) y ξ̃ = {ξs }s∈S un proceso estocástico real
en (Ω, F ). Se dice que ξ̃ es una martingala generalizada (submartingala ge-
neralizada) en (Ω, F , P ) respecto a {Fs }s∈S ¡y a P , si ¢ξ̃ es un proceso estocásti-
co medible y adaptado a {Fs }s∈S tal que E ξs2 |Fs1 , s 1 < s 2 , s 1 , s 2 ∈ S, existe
y se cumple:
¡ ¢
E ξs2 |Fs1 = ξs1 (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S
¡ ¢ ¡ ¢
(E ξs2 |Fs1 , existe y E ξs2 |Fs1 > ξs1 (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S).

Un proceso estocástico ξ̃ = {ξs }s∈S es una supermartingala generalizada en


(Ω, F , P ) respecto a {Fs }s∈S y a P , si −ξ̃ = {−ξs }s∈S es submartingala¡ genera- ¢
lizada en (Ω, F , P ) respecto a {Fs }s∈S y a P ,¡lo cual equivale
¢ a que E ξ s 2 |F s 1 ,
s 1 < s 2 , s 1 , s 2 ∈ S, exista y se cumpla: E ξs2 |Fs1 6 ξs1 , (P -a.s.), s 1 < s 2 ,
s 1 , s 2 ∈ S.
Consecuencias de esta definición:
(1) Si {ξs }s∈S es submartingala generalizada (supermartingala generaliza-
da) en (Ω,¡F , P ) respecto
¢ a la filtración {Fs }s∈S y a P , entonces
¡ + ¢ se tie-
ne que E ξ− s2 |F s1 < +∞ (P -a.s.), s 1 < s , s
2 1 2, s ∈ S (E ξ s2 |F s 1 < +∞
− +
(P -a.s.), s 1 < s 2 , s 1 , s 2 ∈ S), ((−ξs2 ) = ξs2 ).

(2) Si {ξs }s∈S es martingala generalizada en (Ω, F , P ) respecto a {Fs }s∈S y a


P , entonces
¡ ¢
E |ξs2 ||Fs1 < +∞, (P.a.s.), s 1 < s 2 s 1 , s 2 ∈ S, (|ξs2 | = ξ+ −
s 2 + ξs 2 ).
4.5. MARTINGALAS 63

Si {ξn }n∈N es sucesión estocástica, en un espacio medible (Ω, F ) con


una filtración {Fn }n∈N , que cumple ξn es Fn−1 -medible, n ∈ N+ , entonces
a {ξn }n∈N se le llama sucesión previsible (o predecible) respecto a {Fn }n∈N ,
(donde se toma F−1 = F0 por convenio).
Si ξ̃ = {ξn }n∈N es una sucesión estocástica, en el espacio de probabilidad
(Ω, F , P ), que cumple ξ0 = 0 y ξn 6 ξn+1 (P -a.s.) para todo n ∈ N, entonces
se dice que ξ̃ es creciente.
Proposición 4.5.3. Sean (Ω, F , P ) un espacio de probabilidad y {Fn }n∈N
una filtración de (Ω, F ). Sean ς̃ = {ςn }n∈N una sucesión estocástica adap-
tada a {Fn }n∈N y υ̃ = {υn }n∈N una sucesión estocástica previsible respecto a
{Fn }n∈N . Para cada n ∈ N se define
n
X
(υ̃.ς̃)n = υ0 ς0 + υi ∆ςi , donde ∆ςi = ςi − ςi −1 y υ̃.ς̃ = {(υ̃.ς̃)n }n∈N .
i =1
© ª
Entonces, (υ̃.ς̃)n n∈N es una sucesión estocástica medible y adaptada a la
filtración {Fn }n∈N , llamada transformada de ς̃ mediante υ̃. Si además ς̃ es
martingala respecto a la filtración {Fn }n∈N y a P , entonces υ̃.ς̃ es martingala
respecto a {Fn }n∈N y a P , y se dice que υ̃.ς̃ es la martingala transformada de
ς̃ mediante υ̃.
Definición 4.5.4 (Martingala diferencia). Sea ξ̃ = {ξn }n∈N una sucesión es-
tocástica en el espacio de probabilidad (Ω, F , P ) adaptada a la filtración
{Fn }n∈N de (Ω, F ). Se dice que ξ̃ es una martingala-diferencia respecto a la
sucesión {Fn }n∈N y a P , si:
E (|ξn |) < +∞ y E (ξn+1 |Fn ) = 0 (P -a.s.), n ∈ N.
Relaciones entre martingalas y martingalas-diferencia
© ª
Sea η̃ = η n n∈N una martingala en el espacio de probabilidad (Ω, F , P )
respecto a la filtración {Fn }n∈N de (Ω, F ) y a P . Entonces, ξ̃ = {ξn }n∈N , don-
de ξ0 = η 0 y ξn = ∆η n = η n − η n−1 , n ∈ N+ , es una martingala-diferencia en
(Ω, F , P ) respecto a {Fn }n∈N y a P , ((4) y (6) de la página 221 de V. 2).
Recíprocamente, si ξ̃ = {ξn }n∈N es una martingala-diferencia © ªen (Ω, F , P )
respecto a {Fn }n∈N y a P , entonces se verifica que η̃ = η n n∈N , donde
η n = ξ0 + ... + ξn , n ∈ N, es una martingala en (Ω, F , P ) respecto a {Fn }n∈N
y a P.
64 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sea (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξn }n∈N una sucesión de


variables aleatorias
© ª independientes en dicho espacio con E (ξn ) = 0, n ∈ N.
Entonces, η̃ = η n n∈N , donde η n = ξ0 + ... + ξn , n ∈ N, es una martingala en
(Ω, F , P ) respecto a la filtración {Fn }n∈N , donde Fn = σ{ξ0 , ..., ξn }, n ∈ N, y
a P (Ejemplo 1., pág. 60). Así, por lo visto más arriba, ξ̃ es una martingala-
diferencia respecto a {Fn }n∈N y a P .
Se aclara a continuación la estructura de submartingala.
Teorema 4.5.5 (Doob). Sean (Ω, F , P ) un espacio de probabilidad y {ξn }n∈N
una submartingala en este espacio respecto a la filtración {Fn }n∈N©, delª es-
pacio medible (Ω, F ), y a P . Entonces, existe una martingala µ̃ = µn n∈N
en (Ω, F , P ) respecto a {Fn }n∈N y a P y existe π̃ = {πn }n∈N sucesión estocásti-
ca en (Ω, F , P ) creciente y previsible respecto a {Fn }n∈N y a P (pág. 63) tales
que ξn = µn + πn , (P -a.s.), para cada n ∈ N.
Una descomposición de este tipo es única.
P £ ¡ ¢¤
Demostración. Tomamos µ0 = ξ0 , µn = µ0 + n−1 j =0 ξ j +1 − E ξ j +1 |F j , π0 =
P £ ¡ ¢ ¤
0, πn = n−1 j =0 E ξ j +1 |F j − ξ j , n ∈ N+ .
Es claro que µn y πn , así definidos,©cumplen ª lo exigido en el teorema.
′ ′ ′
Sea ξn = µn + πn , (P -a.s.), © donde
ª µn n∈N es martingala en (Ω, F , P ) res-
pecto a {Fn }n∈N y a P , y π′n n∈N es sucesión estocástica en (Ω, F , P ) cre-
ciente y predecible respecto a {Fn }n∈N y a P . Entonces, π′n+1 − π′n = πn+1 −
πn + µn+1 − µn − µ′n+1 + µ′n y tomando esperanzas condicionadas se tiene
π′n+1 − π′n = πn+1 − πn (P -a.s.). Pero π0 = π′0 = 0, y por tanto, πn = π′n y
µn = µ′n , (P -a.s.), n ∈ N.
Definición 4.5.6. A la sucesión estocástica previsible {πn }n∈N del teorema
anterior, se le llama compensador de ξ̃.
Tiempo de Markov

Un tiempo de Markov es una variable aleatoria extendida cuyos valores se


interpretan como los instantes de tiempo para los cuales un proceso esto-
cástico dado exhibe un cierto comportamiento de interés, asociado a una
σ-álgebra de sucesos. De estas variables aleatorias es importante consi-
derar aquéllas que determinan la aparición de un determinado suceso en
base al tiempo presente y pasado, lo que suministra un mecanismo pa-
ra decidir si parar o no un proceso estocástico real, en un tiempo finito,
4.5. MARTINGALAS 65

teniendo en cuenta la información obtenida a partir de estos sucesos en


tiempo presente y pasado.

Definición 4.5.7. Sean (Ω, F ) un espacio medible y {Ft }t∈J T una filtración
de (Ω, F ). Sea τ : Ω → R una variable aleatoria extendida tal que i m(τ) ⊂
[0, +∞], (Definición 3.3.1., (V. 2, pág. 149)). Entonces,

(a). Se dice que τ es un tiempo de Markov respecto a {Ft }t∈J T , si para cada
t ∈ J T , {ω : ω ∈ Ω, τ(ω) 6 t } ∈ Ft , (lo que equivale a {ω : ω ∈ Ω, τ(ω) >
t } ∈ Ft para todo t ∈ J T ).

(b). Sea P una probabilidad en (Ω, F ). Si τ es un tiempo de Markov respecto


a {Ft }t∈J T tal que P (τ < +∞) = 1, (lo que equivale a P (τ = +∞) = 0), se
dice que τ es tiempo de parada en el espacio de probabilidad (Ω, F , P )
respecto a la filtración {Ft }t∈J T .

Toda aplicación constante de Ω en [0, +∞] es tiempo de Markov respecto


a {Ft }t∈J T , y es tiempo de parada si la constante es distinta de +∞.

Lema 4.5.8. (1) Si τ es un tiempo de Markov respecto a {Ft }t∈J T , entonces


{τ < t } y {τ = t } son elementos de Ft , para todo t ∈ J T .

(2) Sea τ un tiempo de Markov respecto a {Ft }t∈J ∞ con i m(τ) ⊂ N ∪ {+∞} ⊂
[0, +∞]. Entonces, queda inducida una filtración {Fn }n∈N y natural-
mente {τ 6 n}, {τ < n} y {τ = n} son elementos de Fn para todo n ∈ N.
S
Demostración. (1) Basta observar que {τ < t } = k∈N+ {τ 6 t − (1/k)}, y que
{τ = t } = {τ 6 t } r {τ < t }.
(2) Sigue de (1).

Observación 4. Sean (Ω, F ) un espacio medible, τ : Ω → R una variable


aleatoria extendida con i m(τ) ⊂ [0, +∞] y {Ft }t∈J T una filtración de (Ω, F ).
La propiedad [para todo t ∈ J T , {τ < t } ∈ Ft ] no implica que τ sea tiempo
de Markov respecto a {Ft }t∈J T , (véase (c) de página 68).

A la vista de (2) del lema que precede cabe la definición que sigue.

Definición 4.5.9. Sean (Ω, F ) un espacio medible y {Fn }n∈N una filtración
de (Ω, F ). Sea τ : Ω → R una variable aleatoria extendida tal que i m(τ) ⊂
N ∪ {+∞} ⊂ [0, +∞]. Entonces,
66 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a). Se dice que τ es un tiempo de Markov respecto a {Fn }n∈N si {τ = n} ∈ Fn


para todo n ∈ N.

(b). Si P es una probabilidad en (Ω, F ) y τ es tiempo de Markov respecto


a {Fn }n∈N con P (τ < +∞) = 1, (lo que equivale a P (τ = +∞) = 0), se
dice que τ es tiempo de parada en el espacio de probabilidad (Ω, F , P )
respecto a la filtración {Fn }n∈N .

Lema 4.5.10. Sean (Ω, F ) un espacio medible, τ : Ω → R una variable alea-


toria extendida con i m(τ) ⊂ N ∪ {+∞}, y {Fn }n∈N una filtración del espacio
dado. Entonces, τ es un tiempo de Markov respecto a {Fn }n∈N si y sólo si
{τ 6 n} ∈ Fn para todo n ∈ N.
n
[
Demostración. Basta observar que {τ 6 n} = {τ = k}, n ∈ N.
k=0

Sean (Ω, F ) un espacio medible, τ : Ω → R una variable aleatoria ex-


tendida con i m(τ) ⊂ N ∪ {+∞}, y {Fn }n∈N una filtración del espacio dado.
Supongamos que τ es tiempo de Markov respecto a la filtración {Fn }n∈N
(definición anterior). Ampliamos la filtración dada {Fn }n∈N a una filtración
{Ft }t∈J ∞ , (n 6 t < n + 1, Ft = Fn , n ∈ N). Entonces,

{τ 6 t } = {τ = n} ∪ {τ = n − 1} ∪ ... ∪ {τ = 0} ∈ Fn = Ft , n 6 t < n + 1, n ∈ N,

ya que {τ = 0} ∈ F0 , {τ = 1} ∈ F1 ,..., {τ = n} ∈ Fn . Por tanto, τ es tiempo de


Markov respecto a la filtración {Ft }t∈J ∞ según la Definición 4.5.7..

Sea τ : Ω → R con i m(τ) ⊂ [0, +∞] un tiempo de Markov respecto a la


filtración {Ft }t∈J T , (Definición 4.5.7.). Consideramos el conjunto
© ª
Fτ = A ∈ F : A ∩ {τ 6 t } ∈ Ft para todo t ∈ J T ⊂ F .

Entonces Fτ es una σ-álgebra de Ω, (para probar la propiedad del com-


plementario, téngase en cuenta que A c ∩{τ 6 t } = {τ 6 t } r A ∩{τ 6 t }), que
se llama σ-álgebra asociada a τ.

Si τ es tiempo de Markov constante de valor u ∈ J T , se verifica que Fτ =


Fu .
4.5. MARTINGALAS 67

Se prueba fácilmente que si τ : Ω → [0, +∞] es un tiempo de Markov


respecto a la filtración {Ft }t∈J T , entonces τ es Fτ |B(R)-medible, (para to-
do r ∈ [0, +∞] y todo t ∈ J T , se tiene que {τ 6 r } ∩ {τ 6 t } = {τ 6 t } ∈ Ft si
t 6 r , y si r < t se verifica que {τ 6 r } ∩ {τ 6 t } = {τ 6 r } ∈ Ft , ya que r < t
implica que r ∈ J T y Fr ⊂ Ft . Así, {τ 6 r } ∈ Fτ ).

Sean ξ̃ = {ξt }t∈J T un proceso estocástico en el espacio medible (Ω, F ) y


τ : Ω → [0, +∞] un tiempo de Markov respecto a una filtración {Ft }t∈J T de
ese espacio. Se designa por ξ̃τ a la aplicación del conjunto (Ωτ =){ω : ω ∈
Ω, τ(ω) ∈ J T } ∈ F y con valores en R, definida por ξ̃τ (ω) = (ξτ(ω) )(ω), ω ∈ Ωτ
(si i m(τ) ⊂ J T , entonces Ωτ = Ω y ξ̃τ está definida sobre todo Ω).

Sean (Ω, F ) un espacio medible y {Fn }n∈N una filtración de este espa-
cio. Sea τ : Ω → R con i m(τ) ⊂ N ∪ {+∞} un tiempo de Markov respecto a
{Fn }n∈N . Entonces,

Fτ = {A ∈ F : A ∩ {τ = n} ∈ Fn para todo n ∈ N}

es una σ-álgebra que coincide con la construida en la página 66 cuando


i m(τ) ⊂ N ∪ {+∞} y se considera la filtración {Fn }n∈N .
S
En efecto: Ω ∈ Fτ ; si A n ∈ Fτ , n ∈ N, se tiene que n∈N A n ∈ Fτ . Por último,
sea A ∈ Fτ . Entonces,

A c ∩ {τ = n} = {τ = n} r {τ = n} ∩ A ∈ Fn ,

lo que prueba que A c ∈ Fτ . Luego efectivamente Fτ es σ-álgebra.


Finalmente, la igualdad de esta σ-álgebra con la construida en la página
66, cuando S = N, i m(τ) ⊂ N ∪ {+∞} y se tiene la filtración {Fn }n∈N , sigue
S
de las igualdades: para todo n ∈ N, {τ 6 n} = nk=0 {τ = k} y {τ = n} = {τ 6
n} r {τ 6 n − 1}.
Como se ha dicho más arriba, τ es Fτ |B(R)-medible.

Propiedades de los tiempos de Markov

Sean (Ω, F ) un espacio medible, {Ft }t∈J T una filtración de este espacio, y
τ, τ1 , τ2 : Ω → [0, +∞] tiempos de Markov respecto a {Ft }t∈J T . Entonces,
68 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

© ª
(a) τ es un tiempo de Markov respecto a Ft+ t∈J ∞ , (pág. 24), es decir,{τ 6
t } ∈ Ft+ , t ∈ J ∞ .

(b) {τ < t } ∈ Ft y por tanto, {τ = t } ∈ Ft , t ∈ J T . (Lema 4.5.8.(1), pág. 65).

(c) Sea σ : Ω → R una función F |B(R)-medible con ©i m(σ) ª ⊂ [0, +∞]. En-
+
tonces, σ es un tiempo de Markov respecto a Ft t∈J ∞ si y sólo si
para todo t ∈ J ∞ , {σ < t } ∈ Ft .
Como consecuencia, si {Ft }t∈J ∞ es continua por la derecha, (pág.
24), y {σ < t } ∈ Ft , t ∈ J ∞ , entonces σ es tiempo de Markov respecto
a {Ft }t∈J ∞ . © ª
En efecto: Si σ es tiempo de Markov respecto a Ft+ t∈J ∞ , enton-
ces para todo t ∈ J ∞ con t > 0 elegimos una sucesión {s n }n∈N+ es-
trictamente creciente de números reales positivos que converge a t ,
S
(s n < t ). Así, {σ < t } = n {σ 6 s n } ∈ Ft .
Reciprocamente, para todo t , s ∈ J ∞ con t < s, consideramos una
sucesión de números reales estrictamente decreciente {s n }n∈N+ que
T
converge a t y tal que t < s n < s. Entonces,{σ 6 t } = n {σ < s n } ∈ Fs
y así {σ 6 t } ∈ Ft+ .

(d) mı́n {τ1 , τ2 }(= τ1 ∧τ2 ), máx {τ1 , τ2 } (= τ1 ∨τ2 ) y τ1 +τ2 son también tiem-
pos de Markov respecto a {Ft }t∈J T . En particular, τ1 ∧ t es tiempo de
Markov para todo t ∈ J T . (ParaÃel caso τ1 +τ2 , téngase en cuenta ! que:
S [
{τ1 +τ2 6 t } = {τ1 = t , τ2 = 0} {τ1 6 q} ∩ {τ2 6 t − q} , t ∈ J T )
q∈Q∩[0,t]

(e) τ es Fτ |B(R)-medible, (pág. 67). Lo mismo ocurre cuando τ es un


tiempo de Markov respecto a la filtración {Fn }n∈N , (pág. 67).

(f ) Si F0 contiene a todos los P − 0-conjuntos, y τ1 6 τ2 (P -a.s.), entonces


Fτ1 ⊂ Fτ2 .
En efecto,
Sea A ∈ Fτ1 . Para todo t ∈ J T , como P (τ1 6 τ2 ) = 1, A ∩ {τ2 6 t } y
A ∩ {τ1 6 t } ∩ {τ2 6 t }, el cual pertenece a Ft , son dos conjuntos que
difieren en un P − 0-conjunto. Por tanto, A ∩ {τ2 6 t } ∈ Ft y A ∈ Fτ2 .
4.5. MARTINGALAS 69

(g) Si ξ̃ = {ξt }t∈J T es un proceso estocástico en (Ω, F ) e i m(τ) ∩ J T es nu-


merable, entonces, ¡ se verifica
¢ que ξ̃τ es una variable aleatoria en el
espacio medible Ωτ , F |Ωτ ), (pág. 67).

(h) Sea ξ̃ = {ξt }t∈J ∞ un proceso estocástico real y progresivamente me-


dible respecto a {Ft }t∈J ∞ . Entonces ξ̃τ : Ωτ → R, es Fτ |Ωτ -medible,
(recordamos que si +∞ 6∈ i m(τ), entonces Ωτ = Ω, (pág. 67)). Por
tanto, la aplicación ξ̃∗τ : Ω → R definida por ξ̃∗τ (ω) = ξ̃τ (ω) si τ(ω) <
+∞, y ξ̃∗τ (ω) = 0, si τ(ω) = +∞, es Fτ -medible, (véase la Proposición
3.4.6.(1), (V. 2, pág. 167)).

(k) Sean (Ω, F ) un espacio medible y ξ̃ = {ξn }n∈N una sucesión estocásti-
ca en (Ω, F ) adaptada a una filtración {Fn }n∈N de ese espacio. Sea
τ : Ω → R con i m(τ) ⊂ N ∪ {+∞} ⊂ [0, +∞] un tiempo de Markov res-
pecto a {Fn }n∈N . Entonces,
P
(k1) ξ̃∗τ (ω) = n∈N ξn (ω) · I {τ=n} (ω), ω ∈ Ω, (ξ̃∗τ (ω) = 0 si ω ∈ {τ = +∞},
y ξ̃∗τ (ω) = ξ̃τ (ω) si ω 6∈ {τ = +∞}), y es variable aleatoria en (Ω, F ).
En efecto, para todo B ∈ B(R),
X \
{ω : ξ̃∗τ (ω) ∈ B} = {ω : ξn (ω) ∈ B} {ω : τ(ω) = n} ∈ F
n∈N

si 0 6∈ B, y si 0 ∈ B, {ξ̃∗τ ∈ B} =
à !
X \ [
= {ω : ξn (ω) ∈ B} {ω : τ(ω) = n} {ω : τ(ω) = +∞} ∈ F .
n∈N

(k2) ξ̃∗τ : Ω → R es Fτ -medible.


Este resultado es un caso particular de (h), pues toda sucesión
estocástica es progresivamente medible respecto a la filtración
{Fn }n∈N , (pág. 21).

Ejemplo 3. Sean {ξn }n∈N una sucesión estocástica en el espacio de proba-


bilidad (Ω, F , P ) adaptada a la filtración {Fn }n∈N de (Ω, F ), y B ∈ B(R). En-
tonces, τB (ω) = ı́nf{n > 0 : ξn (ω) ∈ B} con τB (ω) = +∞ si {n > 0 : ξn (ω) ∈ B}
= ;, es tiempo de Markov respecto a {Fn }n∈N (tiempo de primera visita). En
efecto: {ω : τB (ω) = n} = {ω : ξn (ω) ∈ B, ξn−1 (ω) 6∈ B, ..., ξ0 (ω) 6∈ B} ∈ Fn , n ∈
N. Por otro lado, {ω : τB (ω) = +∞} = {ω : ξn (ω) 6∈ B, n ∈ N} ∈ F .
70 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Ejemplo 4. En el párrafo 7 del capítulo 1 (V.1, pág. 55) se ha comentado que


el término matemático martingala procede de los juegos reales en los que
el citado término se utiliza para referirse a la estrategia: doblar la apuesta
después de perder y retirarse después de ganar. Analizamos esta estrategia.
© ª
Sean (Ω, F , P ) un espacio de probabilidad y η̃ = η n n∈N+ una sucesión de
variables aleatorias de Bernoulli independientes con P (η n = 1) = p, P (η n =
−1) = q, p + q = 1, (véase página 15).
η̃
Consideramos las σ-álgebras F0 = {;, Ω}, Fn = Fn = σ{η 1 , ..., η n }, n ∈ N+ ,
(pág. 23). Sea {υn }n∈N+ una sucesión de variables aleatorias tal que υn es
Fn−1 -medible ({υn }n∈N+ es previsible respecto a {Fn }n∈N ). Ponemos
n
X
ξn = υi η i , ξ0 = 0, y ςn = η 1 + ... + η n , ς0 = 0.
i =1

Entonces,
n
X n
X
ξn = υi ∆ςi = υi (ςi − ςi −1 )
i =1 i =1

y ξ̃ = {ξn }n∈N es una sucesión de variables aleatorias adaptada a la filtra-


ción {Fn }n∈N de (Ω, F ). Además {ξn }n∈N es la transformada de {ςn }n∈N me-
diante {υn }n∈N . Sabemos que si {ςn }n∈N es martingala, {ξn }n∈N es también
martingala, (Proposición 4.5.3., pág. 63).

(1) Si p = q = 21 , entonces E (η n ) = 0, y {ςn }n∈N ,(ς0 = 0), y {ξn }n∈N son mar-
tingalas respecto a {Fn }n∈N y a P .

(2) Si p > q, entonces ξ̃ es submartingala respecto a {Fn }n∈N y a P .

(3) Si p < q, entonces ξ̃ es supermartingala respecto a {Fn }n∈N y a P .

Para demostrar (2) y (3) recordamos: Sea ζ una variable aleatoria tal que
existe E (ζ). Supongamos que ζ es independiente de G . Entonces, se verifi-
ca que E (ζ|G ) = E (ζ), (P .a.s.), (V. 2, (10) de la página 221).
En nuestro caso (2), por lo dicho y (11) de la página 221 de V. 2:
¡ ¢
E (ξn+1 − ξn |Fn ) = E υn+1 η n+1 |Fn =
¡ ¢ ¡ ¢
= υn+1 E η n+1 |Fn = υn+1 E η n+1 = υn+1 (p − q) > 0,
4.5. MARTINGALAS 71

de donde E (ξn+1 |Fn ) > ξn (submartingala).


El caso (3) se prueba de forma análoga.

Caso particular: υ1 = 1 y para n > 1,


½
2n−1 , η 1 (ω) = −1, ..., η n−1 (ω) = −1
(*) υn (ω) =
0, en el resto de casos

Entonces υn es Fn−1 -medible, y

n
X
ξn (ω) = −(2n − 1) = υi (ω)η i (ω), si η 1 (ω) = −1, ..., η n (ω) = −1, y
i =1
ξn+1 (ω) = ξn (ω) + υn+1 (ω)η n+1 (ω) = −(2n − 1) + 2n = 1, si
η 1 (ω) = −1, ..., η n (ω) = −1, η n+1 (ω) = 1.
© ª
Sea τ = ı́nf n ∈ N+ : ξn = 1 . Entonces, si p = q = 21 , P (τ = n) = (1/2)n , P (τ <
+∞) = 1, y por tanto, por el ejemplo anterior, τ es tiempo ¡ ¢ de parada res-
pecto a la filtración {Fn }n∈N . Además, P (ξ̃τ = 1) = 1, y E ξ̃τ = 1, (obsérvese
que E (ξ̃τ ) 6= E (ξ0 ) = 0).
© ª © ª
Interpretamos el suceso η n = 1 como éxito y η n = −1 como no éxito
de un jugador en la jugada n. Sea υn la apuesta del jugador en la jugada
n. Entonces la ganancia total en la jugada n (de 0 a n) del jugador es ξn .
La sucesión estocástica {υn }n∈N previsible respecto a {Fn }n∈N se interpre-
ta como la estrategia del jugador (la condición previsible significa que la
apuesta υn depende de υ1 ,...,υn−1 y de η 1 ,...,η n−1 ).
Desde el punto de vista del jugador el juego es justo (o favorable o desfa-
vorable) si en cada etapa E (ξn+1 − ξn |Fn ) = 0 (o, > 0, o, 6 0).
Entonces, si p = q = 1/2, el juego es justo, si p > q, el juego es favorable, y
si p < q, el juego es desfavorable.
Es interesante destacar que en un juego justo la elección de las apuestas
no permite incrementar o disminuir la ganancia esperada (si p = q = 21 ,
por (1) de la página 70 se tiene que ξ̃ es una martingala respecto a {Fn }n∈N
y a P , y por tanto, E (ξn ) = E (ξ0 ) = 0, para todo n ∈ N).
Con la estrategia (*), (que expresa formalmente la estrategia del comienzo
del ejemplo), y p = q = 1/2 un jugador puede en un tiempo finito (P (τ <
72 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

+∞) = 1) terminar el juego con éxito incrementando su capital en una uni-


dad (E (ξ̃τ ) = 1 > ξ0 = 0).

Martingalas y tiempos de Markov

Ejemplo 5. Sean ξ̃ = {ξn }n∈N una martingala (submartingala), en el espacio


de probabilidad (Ω, F , P ), respecto a la filtración {Fn }n∈N (del espacio me-
dible (Ω, F )) y a P , y τ : Ω → N = N∪{+∞} un tiempo de Markov respecto a
{Fn }n∈N . Entonces, ξn∧τ (ω) = ξn∧τ(ω) (ω) = ξmı́n(n,τ(ω)) (ω) se puede escribir:

ξn∧τ (ω) = ξ0 I (τ=0) (ω) + ξ1 I (τ=1) (ω) + ... + ξn−1 I (τ=n−1) (ω) + ξn I (τ>n) (ω),

lo que implica que ξn∧τ es Fn -medible. Luego {ξn∧τ }n∈N es una sucesión
estocástica adaptada a {Fn }n∈N . Además, ξn∧τ , n ∈ N, son integrables, es
decir, E (|ξn∧τ¡ |) < +∞, n ∈ N, y cumplen
¢ que ξ(n+1)∧τ − ξn∧τ = (ξn+1 − ξn ) ·
I (τ>n) . Así, E ξ(n+1)∧τ − ξn∧τ |Fn = I (τ>n) E (ξn+1 − ξn |Fn ),(P -a.s.).
Por tanto, como

E (ξn+1 − ξn |Fn ) = E (ξn+1 |Fn ) − E (ξn |Fn ) , (P − a.s.), (> 0, (P − a.s.)),


¡ ¢
se concluye que E ξ(n+1)∧τ − ξn∧τ |Fn = 0, (P -a.s.), (> 0,(P -a.s.)) y por con-
siguienre {ξn∧τ }n∈N es una martingala (submartingala) respecto a la filtra-
ción {Fn }n∈N y a P .

Definición 4.5.11. Sea ξ̃ = {ξs }s∈S , S ⊂ R, una martingala en el espacio de


probabilidad (Ω, F , P ) respecto a la filtración {Fs }s∈S (del espacio medible
(Ω, F )) y a P . Se dice que ξ̃ es ¡regular
¢ si existe una variable aleatoria inte-
grable η : Ω → R tal que ξs = E η | Fs , (P -a.s.), s ∈ S.

Este concepto es equivalente a: {ξs }s∈S es uniformemente integrable (es


decir, para todo ε > 0 existe M > 0 tal que
Z
sup |ξs |d P < ε, si c > M,
s∈S {|ξs |>c}

(Definición 3.4.14., (V. 2, pág. 173)).


4.5. MARTINGALAS 73

Teorema 4.5.12. Sea ξ̃ = {ξt }t∈J ∞ una martingala, en el espacio de probabi-


lidad (Ω, F , P ), respecto a la filtración {Ft }t∈J ∞ (del espacio medible (Ω, F ))
y a P . Supongamos que ξ̃ es regular y tiene trayectorias continuas por la de-
recha. Sean τ y σ¡tiempos ¢ de Markov respecto a {Ft }t∈J ∞ , con P (σ 6 τ) = 1.
Entonces, ξ̃σ = E ξ̃τ |Fσ , (P -a.s.).
Definición 4.5.13. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξn }n∈N
una sucesión estocástica adaptada a la filtración {Fn }n∈N del espacio medi-
ble (Ω, F ). Se dice dice ξ̃ es una martingala local ( submartingala local) res-
pecto a {Fn }n∈N y a P si existe una sucesión {τk }k∈N+ de tiempos de Markov
respecto a {Fn }n∈N tal que τk©6 τk+1 , (P -a.s.),
ª τk ↑ +∞, (P -a.s.), k → +∞ y,
+
por último para todo k ∈ N , ξn∧τk · I {τk >0} n∈N , (que ya es sucesión estocás-
tica adaptada a {Fn }n∈N ) es martingala (submartingala) respecto a {Fn }n∈N
y a P.
Definición 4.5.14. Sean (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξt }t∈J T
un proceso estocástico medible y adaptado a la filtración {Ft }t∈J T del espa-
cio medible (Ω, F ). Se dice que ξ̃ es una martingala local respecto a {Ft }t∈J T
y a P si existe una sucesión creciente {τn }n∈N de tiempos de Markov respecto
a {Ft }t∈J T tal que:
(1) P (τn 6 n) = 1, P (lı́m τn = +∞) = 1.
© ª
(2) Para todo n ∈ N, ξt∧τn t∈J T es una martingala en (Ω, F , P ) respecto
a {Ft }t∈J T y a P que es uniformemente integrable (observación que
sigue a la Definición 4.5.11.).
Proposición 4.5.15. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T
una filtración del espacio medible (Ω, F ) y ξ̃ = {ξt }t∈J T una martingala lo-
cal no negativa, en (Ω, F , P ), respecto a {Ft }t∈J T y a P . Entonces, ξ̃ es una
supermartingala respecto a {Ft }t∈J T y a P .
Demostración. Como ξ̃ es una martingala local, existe {τn }n∈N sucesión
creciente de tiempos de Markov respecto© a {Ftª}t∈J T tal que P (τn 6 n) = 1,
P (lı́m τn = +∞) = 1 y para todo n ∈ N, ξt∧τn t∈J T es una martingala en
(Ω, F , P ) respecto a {Ft }t∈J T y a P . Entonces por el Teorema 3.5.2. del V. 2,
(pág. 224), teniendo en cuenta que ξ̃ es no negativa, para todo s, t ∈ J T con
s < t se tiene que
¡ ¢ ¡ ¢
E (ξt |Fs ) = E lı́mξt∧τn |Fs 6 lı́mE ξt∧τn |Fs = lı́mξs∧τn = ξs ,
74 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

lo cual prueba que ξ̃ es una supermartingala respecto a {Ft }t∈J T y a P

El siguiente teorema unifica, en el caso de sucesiones estocásticas, los


conceptos de martingala local, martingala generalizada y martingala trans-
formada.

Teorema 4.5.16. Sea ξ̃ = {ξn }n∈N una sucesión estocástica, en el espacio de


probabilidad (Ω, F , P ), adaptada a la filtración {Fn }n∈N (del espacio medi-
ble (Ω, F )) con ξ0 = 0 (P -a.s.). Las siguientes afirmaciones son equivalentes:

(a) ξ̃ es martingala local respecto a {Fn }n∈N y a P (Definición 4.5.13.).

(b) ξ̃ es martingala generalizada respecto a }Fn }n∈N y a P (Definición 4.5.2.).

(c) Existe υ̃ = {υn }n∈N sucesión estocástica predecible respecto a {Fn }n∈N ,
(pág. 63), con υ0 = 0 y existe ς̃ = {ςn }n∈N martingala con respecto a
{Fn }n∈N y a P con ς0 = 0 tales que ξ̃ = υ̃.ς̃, es decir, ξ̃ es la martingala
transformada de ς̃ mediante υ̃ (Proposición 4.5.3., pág. 63).

Demostración.
£ Veamos ¤ sólo (a)=⇒ (b). Para todo m ∈ N, por la hipótesis
(a), E |ξm∧τk | · I {τk >0} < +∞ y por consiguiente,
£ ¤ £ ¤
E |ξ(n+1)∧τk | · I {τk >n} = E |ξn+1 | · I {τk >n} < +∞ (1)

La variable aleatoria I {τk >n} es Fn -medible. Así de (1) y (11) de la página


221 de V. 2,
£ ¤
E |ξn+1 | · I {τk >n} |Fn = I {τk >n} · E [|ξn+1 ||Fn ] < +∞ (P − a.s.)

Es claro que I {τk >n} → 1 (P -a.s.), k → +∞. Por tanto, E (|ξn+1 ||Fn ) < +∞ (P -
a.s.). Bajo esta condición, E (ξn+1 |Fn ) existe. Veamos que se cumple que
E (ξn+1 |Fn ) = ξn (P -a.s.), n ∈ N, lo que terminará la prueba de (a)=⇒(b).
De E (|ξn ||Fn ) < +∞ (P -a.s.). deducimos que la medida en (Ω, Fn )
Z
Q(A) = |ξn+1 |d P, A ∈ Fn ,
A

es σ-finita, (Teorema 3.4.20., (V. 2, pág. 183)), de hecho son situaciones


equivalentes.
© ª
Como ξn∧τk · I {τk >0} n∈N es una martingala respecto a la filtración {Fn }n∈N
4.5. MARTINGALAS 75

© ª
y a P , |ξn∧τk | · I {τk >0} n∈N es una submartingala respecto a {Fn }n∈N y a P .
Entonces, ya que {τk > n} ∈ Fn , para todo B ∈ Fn
Z Z
|ξn |d P = |ξn∧τk | · I {τk >0} d P 6
B∩{τk >n} B∩{τk >n}
Z Z
6 |ξ(n+1)∧τk | · I {τk >0} d P = |ξn+1 |d P.
B∩{τk >n} B∩{τk >n}

Pasando al límite, k → +∞, tenemos (pág. 74)


Z Z
|ξn |d P 6 |ξn+1 |d P, B ∈ Fn .
B B

Luego la medida en (Ω, Fn )


Z
Q(A) = |ξn |d P, A ∈ Fn ,
A

es también σ-finita.
R
Sea B ∈ Fn tal que B |ξn+1 |d P < +∞. Entonces tenemos la ecuación
de la martingala (operando como antes en la submartingala)
Z Z
ξn d P = ξn+1 d P.
B∩{τk >n} B∩{τk >n}

Por el Teorema 3.4.10. (V. 2, pág. 172) de la convergencia dominada, se


tiene Z Z Z
ξn d P = ξn+1 d P, B ∈ Fn con |ξn+1 |d P < +∞.
B B B
Luego Z Z
ξn d P = ξn+1 d P, B ∈ Fn ,
B B
en particular E (ξn ) = E (ξn+1 ).
Luego hemos probado que E (ξn+1 |Fn ) = ξn (P -a.s.), n ∈ N (por la unici-
dad).

Si {ξn }n∈N es una martingala definida en el espacio de probabilidad (Ω, F , P )


respecto a la filtración {Fn }n∈N (del espacio medible (Ω, P )) y a P , sabemos
76 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

que E (ξn ) = E (ξ0 ) (pág. 60), n ∈ N+ . Sin embargo, en el Ejemplo 4., (pági-
nas 70, 71 y 72), se han construido una martingala {ξn }n∈N y un tiempo de
Markov τ tales que E (ξ̃τ ) 6= E (ξ0 ), (ξ̃ = {ξn }n∈N ).

A continuación se estudian situaciones en las que se da la igualdad


E (ξ̃τ ) = E (ξ0 ).
Teorema 4.5.17. Sea ξ̃ = {ξt }t∈J ∞ una martingala en el espacio de probabi-
lidad (Ω, F , P ) respecto a la filtración {Ft }t∈J ∞ (del espacio medible (Ω, F ))
y a P . Supongamos que el proceso estocástico ξ̃ es continuo. Entonces,
(1) Si τ es un tiempo de Markov respecto a {Ft }t∈J ∞ acotado, E (ξ̃τ ) = E (ξ0 ).

(2) Si τ1 , τ2 son dos tiempos de Markov respecto


¡ ¢ a {Ft }t∈J ∞ ¡con τ1 6 ¢τ2 6 K
(K ∈ R constante), se verifica que E | ξ̃τ2 | < +∞ y E ξ̃τ2 | Fτ1 = ξ̃τ1 ,
(P -a.s.).
Teorema 4.5.18 (Doob). Sea ξ̃ = {ξn }n∈N una martingala (o submartingala)
en el espacio de probabilidad (Ω, F , P ) respecto a la filtración {Fn }n∈N (del
espacio medible (Ω, F )) y a P , y sean τ1 , τ2 tiempos ¡de Markov ¢ respecto a
{Fn }n∈N , que
R sean a su vez tiempos de parada, con E |ξ̃τi | < +∞, i = 1, 2 y
lı́mn→+∞ {τi >n} |ξn |d P = 0, i = 1, 2. Entonces,
¡ ¢ =
E ξ̃τ2 |Fτ1 (>)ξ̃τ1 en {ω : τ2 (ω) > τ1 (ω)} (P − a.s.).
¡ ¢ = ¡ ¢
Si se tiene también P (τ1 6 τ2 ) = 1, entonces E ξ̃τ2 (>)E ξ̃τ1 .
(Recordamos que Fτ1 = {A ∈ F : A ∩ {τ1 = n} ∈ Fn para todo n ∈ N).
Demostración. Es suficiente probar que para cada A ∈ Fτ1 ,
Z Z
=
ξ̃τ2 d P (>) ξ̃τ1 d P (∗)
A∩{τ2 >τ1 } A∩{τ2 >τ1 }

Para esto ((∗)), es suficiente probar a su vez:


Z Z
=
ξ̃τ2 d P (>) ξ̃τ1 d P
A∩{τ2 >τ1 }∩{τ1 =n} A∩{τ2 >τ1 }∩{τ1 =n}

para todo n ∈ N, o lo que es lo mismo


Z Z
=
ξ̃τ2 d P (>) ξn d P, B = A ∩ {τ1 = n} ∈ Fn .
B∩{τ2 >n} B∩{τ2 >n}
4.5. MARTINGALAS 77

Teorema 4.5.19. Sean (Ω, F , P ) un espacio de probabilidad y ξ0 , ξ1 ,... va-


ξ̃
riables aleatorias en (Ω, F ). Tomamos, (pág. 23), Fn = σ{ξ0 , ..., ξn }, (ξ̃ =
{ξn }n∈N ), n ∈ N.
n (Sabemos
o que {ξn }n∈N es una sucesión estocástica adaptada
ξ̃
a la filtración Fn ). Supongamos que {ξn }n∈N es una martingala (sub-
n∈N n o
ξ̃
martingala) respecto a Fn y a P . Sea τ un tiempo de Markov respecto
n o n∈N
ξ̃
a Fn , que sea también tiempo de parada (pág. 66).
n∈N
Supongamos que E (τ) < +∞ y que para algún n ∈ N y alguna constante M
n o
ξ̃
E |ξn+1 − ξn ||Fn 6 M en {ω : τ(ω) > n}, (P − a.s.).
¡ ¢ ¡ ¢ =
Entonces, E |ξ̃τ | < +∞ y E ξ̃τ (>)E (ξ0 ).

Ejercicios y problemas
5.1. Probar las relaciones entre martingalas y martingalas-diferencia esta-
blecidas en las páginas 63 y 64.
5.2. Sea (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξn }n∈N una sucesión
de variables aleatorias independientes tal que E (ξn ) > 0 (respectivamente,
ξ̃
E (ξn ) 6 0), n© ∈ N.
ª Sean η n = ξ0 +...+ξn y Fn = σ (ξ0 , ..., ξn ), n ∈ N, (pág. 23).
Probar que η n n∈N es una submartingala (respectivamente, supermartin-
gala) respecto a {Fn }n∈N y a P .
5.3. Sea ξ̃ = {ξn }n∈N una sucesión estocástica en el espacio de probabilidad
(Ω, F , P ) adaptada a la filtración {Fn }n∈N (del espacio medible (Ω, F )) y tal
que E (|ξn |) < +∞ para todo n ∈ N. Probar que el proceso estocástico ξ̃ es
una martingala respecto a {Fn }n∈N y a P si y sólo si E (ξn+m |Fn ) = ξn para
todo n ∈ N y todo m ∈ N+ .
5.4. Sea {ξs }s∈S, una martingala en el espacio de probabilidad (Ω, F , P ) res-
pecto a la filtración {Fs }s∈S de (Ω, F ) y a P . Probar que E (ξs ) = E (ξ0 ), s ∈ S.
5.5. Probar (a), (b) y (c) de la página 61.
5.6. Sea ξ̃ = {ξt )t∈J T una martingala respecto a¡ {F¢t }t∈J T y a P en el espacio
2
de probabilidad (Ω, ¡ F , P )(pág. ¢58), tal
¡ 2que2 E ξt¢ < +∞ para todo t ∈ J T .
2
Demostrar que E (ξt − ξs ) | Fs = E ξt − ξs | Fs , s 6 t .
Indicación: (ξt − ξs )2 = ξ2t − ξ2s + 2ξ2s − 2ξt ξs .
78 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

4.6. Movimiento Browniano. Procesos estocásti-


cos de Wiener.
© ª
Sean β̃ = βt t∈J T un proceso estocástico real y medible, (pág. 21), definido
en el espacio de probabilidad (Ω, F , P ), y r un número real. Se dice que β̃
es un movimiento Browniano (o proceso estocástico Browniano) con origen
en r si:
(1) β0 = r , (P -a.s.).

(2) β̃ es un proceso estocástico con incrementos independientes y esta-


cionarios (véase la página 57).

(3) Los incrementos


¡ β¢t −βs son
¡ variables
¢ aleatorias Gaussianas, (V. 2, pág.
2 2
300), y E βt − βs = 0, V βt − βs = σ |t − s|, σ > 0.

(4) β̃ es un proceso estocástico continuo, (pág. 3).


Si r = 0 y σ2 = 1, se dice que β̃ es un movimiento Browniano estándar.

Observamos que si β̃ = {βt }t∈J T es un movimiento Browniano con ori-


gen en 0 y r es un número real, entonces β̃r = {βt +r }t∈J T es un movimiento
Browniano con origen en r .

En algunos libros y artículos, a un proceso estocástico real y medible β̃ =


{βt }t∈J T con las propiedades (2) y (4) ya se le llama movimiento Browniano
con origen en r . Con estas
¡ dos¢ hipótesis se tiene¡ que βt ¢− β0 es variable
aleatoria Gaussiana y E βt − β0 = (E (β1 −β0 ))t , V βt − β0 = (V (β1 −β0 ))t ,
t ∈ J T , (Proposición 4.4.16., pág. 57).
Teorema 4.6.1 (Existencia). Sea η 1 , η 2 ,... una sucesión de variables aleato-
rias independientes y Gaussianas N (0, 1), (V. 2, pág. 299). Sea ϕ1 (t ), ϕ2 (t ),...,
t ∈ J T , T ∈ R, una sucesión arbitraria de elementos de L 2 (J T ) que constituye
un conjunto ortonormal y completo. Entonces, para cada t ∈ J T ,
X Zt
+∞
βt = ηj ϕ j (s)d s
j =1 0
© ª
converge (P -a.s.). Además, βt t∈J T es un movimiento Browniano estándar.
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 79

Nota. El movimiento Browniano estándar se obtiene como límite de pa-


seos aleatorios, (pág. 42), lo cual justifica de alguna forma que dicho movi-
miento Browniano se tome para modelar el desplazamiento de partículas
suspendidas en un fluido (un líquido o un gas).
Sea ξ̃ = {ξn }n∈N una sucesión de variables aleatorias independientes e idén-
ticamente distribuidas en un espacio de probabilidad (Ω, F , P ). Supon-
gamos que E (ξn ) = 0 y V (ξn ) = 1 para todo n ∈ N, (observamos que si
µ̃ = {µn }n∈N es una sucesión de variables aleatorias independientes, idén-
ticamente distribuidas
p y con varianza finita y no nula, entonces ξ̃ = {ξn =
(µn −E (µn ))/ V (µn )}n∈N es una sucesión de variables aleatorias indepen-
dientes e idénticamente distribuidas tal que E (ξn ) = 0 y V (ξn ) = 1, n ∈ N).
Consideramos el paseo aleatorio generado por la sucesión de variables
P
aleatorias dada (Ejemplo 2., pág. 42), η n = nk=0 ξk , n ∈ N, e interpolamos
linealmente entre los puntos enteros de R, es decir,
η t = η [t] + (t − [t ])(η [t]+1 − η [t] ), t ∈ J ∞ ,
(donde [t ] es la parte entera de t ). De esta forma se obtiene un proceso
estocástico con trayectorias continuas, {η t }t∈J ∞ .
Ahora consideramos la sucesión de procesos estocásticos, {η̃ n }n∈N+ , donde
p
η̃ n = {η nt / n}t∈[0,1] .
Por lo dicho en (2) de la página 18, ψη̃n , n ∈ N+ , es una variable aleatoria
de (Ω, F ) con valores en (C , B(C )).
Con las notaciones anteriores y lo establecido en páginas 17 y 18, tenemos:
Teorema 4.6.2 (Principio de invariancia de Donsker). La sucesión de va-
riables aleatorias del espacio de probabilidad (Ω, F , P ) con valores en el es-
pacio medible (C , B(C )), {ψη̃n }n∈N+ , converge en distribución a una varia-
ble aleatoria β de (Ω, F , P ) con valores en (C , B(C )), (es decir, para toda
función continua y acotada g de (C , Tρ ) en (R, Tu ), se verifica que E (g (β)) =
lı́mn→+∞ E (g (ψη̃n )), (véase la Definición 3.9.1., (V. 2, pág. 264))), tal que
el proceso estocástico, β̃ = {βt = p t ◦ β}t∈[0,1] (p t (x) = x(t ), t ∈ [0, 1], x ∈ C ,
(véase (1) de la página 17)), es un movimiento Browniano estándar.
Para los movimientos Brownianos se tiene un comportamiento muy
irregular de sus trayectorias: Con probabilidad 1 las trayectorias son no
diferenciables para cada t > 0 y de variación no acotada en todo intervalo
(véase el Lema 4.6.6., pág. 84).
80 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Propiedades de los procesos estocásticos Brownianos estándar


© ª
Sean (Ω, F , P ) un espacio de probabilidad y β̃ = βt t∈J T , un proceso esto-
cástico Browniano estándar en este espacio. Entonces:
¡ ¢
(1) Para todo
¡ ¢ t ∈ J T , β t es una variable aleatoria Gaussiana con E βt = 0
y V βt = t . Por tanto,
Zx µ ¶ r
¡ ¢ 1 y2 ¡ ¢ 2t
P βt 6 x = Fβt (x) = p exp − d y, x ∈ R y E |βt | = .
2πt −∞ 2t π

(2) cov (βs , βt ) = E (βs βt ) = mı́n{s, t }, s, t ∈ J T .

(3) Propiedad de invariancia de escala: Para todo a > 0, el proceso esto-


cástico β̃a = {a −1 βa 2 t }t∈J T /a 2 es un proceso estocástico Browniano
estándar.
¡ ¢
(4) Si 0 6 t1 < ... < tn 6 T , βt1 , ..., βtn es un vector Gaussiano, (Definición
3.12.2., (V. 2, pág. 301)) y por tanto, β̃ es un proceso estocástico Gaus-
siano, (Definición 4.3.6., pág. 35).

(5) Propiedad de inversión del tiempo: Si T = +∞, entonces η̃ = {η t }t∈J ∞ ,


donde η 0 = 0 y η t = t β1/t para t > 0 es un proceso estocástico Brow-
niano estándar.

(6) Teorema central del límite: lı́mt→+∞ βt /t = 0, (P -a.s.).


¡ ¢ ³ ´+ T
β̃ β̃ β̃
(7) Sean Ft = σ Ω : βs , s ∈ J T , s 6 t , t ∈ J T , (pág. 23), y Ft = h>t Fh ,
t ∈ J T , (pág. 24). Entonces, para todo s con 0 < s < T , {βt+s −βs }t∈J T −s
es un proceso estocástico Browniano estándar que es independiente
³ ´+ ³ ´+
β̃ β̃ β̃
de Fs , y por tanto, independiente de Fs ⊂ Fs .
n o
β̃
(8) β̃ es una martingala respecto a la filtración Ft de (Ω, F ) y a P ,
t∈J T
(páginas 58 y 59), es decir, si s < t , s, t ∈ J T ,
³ ´
β̃
E βt | Fs = βs , (P − a.s.).
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 81

h¡ ¢2 i
β̃
(9) E βt − βs | Fs = t − s, (P-a.s.), s < t , s, t ∈ J T , (véase 5.6, pág. 77).
© ª
(10) β̃ = βt t∈J T es un proceso de Markov, (pág. 37), y su probabilidad de
transición Markoviana, ((b) de la página 46), está dada explícitamen-
te por la fórmula:
Z µ ¶
1 (x − y)2
p(s, x; t , A) = P (ξt ∈ A|ξs = x) = p exp − d y,
2π(t − s) A 2(t − s)
donde x ∈ R, A ∈ B(R), s < t , s, t ∈ J T .
Si T = +∞, como p(s + u, x; t + u, A) = p(s, x; t , A), s, t , u ∈ J ∞ , s <
t , se tiene que ξ̃ es un proceso de Markov
³ homogéneo,
´ (pág. 50), y
R (x−y)2
p(r, x, A) = p(0, x; r, A) = p 1 exp − 2r d y, r ∈ J ∞ , r > 0, x ∈ R,
2πr A
A ∈ B(R).
n o
β̃
(11) Sea τ = τ(ω) un tiempo de Markov respecto a Ft , (Definición
t∈J T
4.5.7., pág. 65). Supongamos que P (τ(ω) 6 T ) = 1. Entonces,
³ ´ ¡ ¢
β̃
E f (βs+τ )|Fτ = E f (βs+τ )|βτ , (P − a.s.),

donde s es tal que P (s + τ 6 T ) = 1 y f es cualquier función medible


y acotada, (recordamos que βτ (ω) = βτ(ω) (ω), βs+τ (ω) = βs+τ(ω) (ω)).

Ecuación de Fokker-Planck de un proceso Browniano estándar


© ª
Sean (Ω, F , P ) un espacio de probabilidad y β̃ = βt t∈J T un proceso Brow-
niano (o movimiento Browniano) estándar en este espacio (pág. 78). Por la
propiedad (10) anterior se tiene que β̃ es un proceso de Markov con den-
sidad transición, (Definición 4.4.13., pág. 48),
µ ¶
1 (x − y)2
p(s, x|t , y) = p exp − , x, y ∈ R, s, t ∈ J T , s < t .
2π(t − s) 2(t − s)
Por lo expuesto en las páginas 48, 49 y 50, p(s, x|t , y) verifica a las ecuacio-
nes forward y backward de Kolmogorov, que en este caso, se determinan
de la siguiente manera: Por la propiedad (13)(b) de la página 231 de V. 2,
tomando ϕ(i ) (x1 , x2 ) = x1i , (ϕ(i ) : R2 → R), i = 1, 2, 3, y teniendo en cuen-
ta que β̃ es proceso estocástico de incrementos independientes, ((2) de la
82 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

³¡ ¢i ´
³¡ ¢i ´
página 78), se deduce que E βs+△s − βs |βs = x = E βs+△s − βs , i =
¡¡ ¢ ¢
³¡ Entonces, ¢por (3) de
1, 2, 3. ´ la página 78, se tiene: E βs+△s − βs |βs = x =
2
0, E βs+△s − βs |βs = x = △s, y por la propiedad (5) de la página 280
³¡ ¢3 ´
de V. 2, E βs+△s − βs |βs = x = 0. Así, con notación de páginas 48 y 49,
m(x, s) = 0, σ2 (x, s) = 1 y lı́m△s→0 M3 (x, s, △s) = 0, y por tanto, las ecuacio-
nes de Kolmogorov buscadas son las siguientes:

∂p(s, , x|t , y) 1 ∂2 p(s, x|t , y)


= − , s < t (∗)
∂s 2 ∂x 2
∂p(s, x|t , y) 1 ∂2 p(s, x|t , y)
= , s < t (∗∗)
∂t 2 ∂y 2

La ecuación (∗) es la ecuación backward de Kolmogorov y la ecuación (∗∗)


la ecuación forward de Kolmogorov o ecuación Fokker-Planck del movi-
miento Browniano β̃.

Seguimos con este movimiento Browniano estándar. Se prueba que


µ ¶ Z+∞ µ 2¶
¡ ¢ 2 y
P máx βs > x = 2P βt > x = p exp − d y.
06 s 6 t 2πt x 2t

Ponemos τa = ı́nf{t > 0 : βt = a}, a > 0. Entonces, τa es un tiempo de Mar-


β̃
kov respecto a Ft = σ{Ω : βs ,¡s ∈ J T , s 6 t }, t ∈ ¢J T , (Definición 4.5.7., pág.
65). Puesto que P (τa 6 t ) = P máx06 s 6 t βs > a , entonces,
Z+∞ µ 2¶ r Z µ 2¶
2 y 2 +∞ y
P (τa 6 t ) = p · exp − dy = p exp − d y,
2πt a 2t π a/ t 2

de donde µ 2¶
∂P (τa 6 t ) a a
= p · exp − ,
∂t t 3/2 2π 2t
expresión que denotamos por p τa (t ). Si a > 0, entonces E (τa ) = +∞.
Ponemos, ahora, τ = ı́nf{t > 0 : βt = a −bt }, a > 0, 0 6 b < +∞. En este caso
se tiene µ ¶
∂P (τ 6 t ) a (bt − a)2
= p · exp − (= p τ (t )).
∂t t 3/2 2π 2t
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 83

Procesos de Wiener
© ª
Sean (Ω, F , P ) un espacio de probabilidad y β̃ = βt t∈J T un proceso es-
tocástico Brownianonestándar
o en este espacio, (pág. 78). Consideramos la
β̃
filtración en (Ω, F ), Ft , generada por β̃, (pág. 23).
t∈J T

n (8)
Entonces, por o de la página 80 y (9) de la página 81, β̃ hes una martingala
¡ 2¢ ¡ ¢2 β̃ i
β̃
respecto a Ft y a P , tal que E βt < +∞, t ∈ J T , E βt − βs |Fs =
t∈J T
t − s, (P -a.s.), s < t , s, t ∈ J T , β0 = 0, (P -a.s.), y (P -a.s.) sus trayectorias son
continuas (pág. 2). Veremos a continuación que se tiene un cierto recípro-
co.
Definición 4.6.3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una
filtración del espacio medible (Ω, F ), (véase la Advertencia de la página 25),
yWf = {Wt }t∈J un proceso estocástico real en (Ω, F , P ), medible y adaptado
T
f es un proceso estocástico de Wiener respecto a
a {Ft }t∈J T . Se dice que W
{Ft }t∈J T y a P si:
f
(a) Las trayectorias (J T ∋ t 7→ Wt (ω) ∈ R) son continuas (P -a.s.), es decir, W
es un proceso estocástico continuo, (pág. 3).
f es una martingala respecto a {Ft }t∈J y a P , (E (|Wt |) < +∞, t ∈ J T ,
(b) W T ¡ ¢
E (Wt |Fs ) = Ws (P -a.s.) t > s), tal que E Wt2 < +∞, t ∈ J T , W0 = 0
(P -a.s.) y £ ¤
E (Wt − Ws )2 |Fs = t − s, t > s, (P − a.s.).

Teorema 4.6.4 (Lévy). Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T


una filtración del espacio medible (Ω, F ) y Wf = {Wt }t∈J un proceso de Wie-
T
f es un proceso Browniano están-
ner respecto a {Ft }t∈J T y a P . Entonces, W
dar.
© ª
Observación. Sean (Ω, F , P ) un espacio de probabilidad y β̃ = βt t∈J T un
n o
β̃
proceso Browniano estándar. Se considera la filtración Ft generada
n ot∈J T
β̃
por β̃. Entonces, βe es un proceso de Wiener respecto a Ft y a P.
t∈J T
Después del teorema de Lévy y de la observación anterior, no distin-
guiremos entre movimientos (procesos) Brownianos estándar y procesos
de Wiener.
84 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Lema 4.6.5. En el espacio de probabilidad (Ω, F , P ), sean W f = {Wt }t∈J



un proceso de Wiener, en este espacio, respecto a la filtración {Ft }t∈J ∞ (del
espacio medible (Ω, F )) y a P , y σ un tiempo de Markov respecto a {Ft }t∈J ∞
con P (σ 6 K ) = 1, K < +∞. Ponemos ¡Wt∗ = W ¢ ©t∧σ y
ª Ft∗ = Ft∧σ , (t ∧ σ es de
nuevo tiempo de Markov). Entonces, W f∗ = W ∗
© ∗ª t t∈J ∞ es una martingala,
en (Ω, F , P ), respecto a la filtración Ft t∈J ∞ (del espacio medible (Ω, F ))
y a P , tal que E (Wt∗ − Ws∗ |Fs∗ ) = 0, y
h¡ ¢2 i £ ¤
E Wt∗ − Ws∗ | Fs∗ = E (t ∧ σ) − (s ∧ σ) | Fs∗ , t > s.

Demostración.
© ª aplicar el Teorema 4.5.12. (pág. 73) a las martingalas
Basta
{Wt }t∈J ∞ y Wt2 − t t∈J ∞ , en (Ω, F , P ), respecto a la filtración {Ft }t∈J ∞ y a P
(Problema 6.2, pág. 96).

Propiedades de las trayectorias de los procesos de Wiener

Sean (Ω, F , P ) un espacio de probabilidad y {Ft }t∈J T una filtración del es-
pacio medible (Ω, F ), (véase la Advertencia de la página 25). Sea W f=
{Wt }t∈J T un proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P .
Lema 4.6.6. Con los datos anteriores, consideramos un intervalo [0, t ] con-
tenido en J T y una sucesión de subdivisiones
n o
σ(n) = 0 = t0(n) < t1(n) < ... < tk(n)
(n)
= t , n ∈ N+ ,

del intervalo [0, t ] tal que k(n) < k(n + 1), σ(n) ⊂ σ(n+1) , n ∈ N+ , y

½ h i¾
(n) (n) (n)
lı́m δ = máx ti − ti −1 = 0.
n→+∞ 16i 6k(n)

Entonces,
(1). (P -a.s.), ( )

k(n)
¯
¯
¯
lı́m W (n) = ¯Wt (n) − Wt (n) ¯ = +∞,
n→+∞ i i −1
i =1
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 85

es decir, n o
P ω : lı́m W (n) (ω) = +∞ = 1.
n→+∞
(2). En media cuadrática
( )
n

k(n) ´2
l .i .m.n Q = Wt (n) − Wt (n) = t, (∗)
i i −1
i =1

es decir, ( ï ¯2 !)
¯k(n) h i2 ¯
¯X ¯
lı́m E ¯ Wt (n) − Wt (n) − t ¯ = 0.
n→+∞ ¯ i =1 i i −1 ¯
(3). Si
X
+∞
δ(n) < +∞,
n=1
se tiene que ( )
Xh
k(n) i2
lı́m Wt (n) − Wt (n) = t , (P − a.s).
n→+∞ i i −1
i =1
En particular se tiene (1), (2) y (3) para k(n) = n.

Demostración. (1). De σ(n) ⊂ σ(n+1) y la desigualdad triangular del valor


absoluto en R, se deduce que W (n) 6 W (n+1) , n ∈ N+ . Razonando como en
la demostración de (a) del Teorema 3.9.3. (V. 2, pág. 265), para probar (1)
es suficiente ver que dado M > 0 se verifica que
© ª © ª
lı́m P (W (n) > M) = 1, o lı́m P (W (n) 6 M) = 0.
n→+∞ n→+∞

Como W f es un proceso de incrementos independientes y estos incremen-


tos tienen distribución normal con esperanza matemática nula y varianza
igual a la amplitud temporal del incremento, tenemos (V. 2, pág. 249)
¯´ k(n) µ¯ ¯2 ¶
X ³¯¯
¡ (n) ¢ k(n) ¯ X ¯ ¯
V W = V ¯Wt (n) − Wt (n) ¯ 6 E ¯Wt (n) − Wt (n) ¯ = t .
i i −1 i i −1
i =1 i =1

(Se ha utilizado también que si ξ1 ,...,ξm son variables aleatorias indepen-


dientes dos a dos y existen sus esperanzas y son finitas,¡ 2 ¢ entonces V (ξ1 +...+
2
ξm ) = V (ξ1 ) + ... + V (ξm ) y, en general, V (ξi ) = E ξi − (E (ξi )) , i = 1, ..., m,
(V. 2, pág. 249)).
86 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Por otro lado,(pág. 83), existen η, variable aleatoria con distribución nor-
mal estándar, y a número real no nulo tal que
¯ ¯ q
¯ ¯
Wt (n) − Wt (n) = aη, a 2 = ti(n) − ti(n)
−1
, ¯W t (n) − W (n) ¯ = |η|
t
ti(n) − ti(n)
−1
,
i i −1 i i −1

y por consiguiente,
³¯ ¯´ q
¯ ¯
E ¯Wt (n) − Wt (n) ¯ = E (|η|) ti(n) − ti(n)
−1
,
i i −1

y por tanto, (V. 2, pág. 191)


Z+∞ p
E (|η|) = |x| f η (x)d x = 2/π.
−∞

Así, puesto que q ³ ´ 1


ti(n) − ti(n)
−1
> t (n)
i
− t (n)
i −1 p (n)
,
δ
se concluye que

X ³¯¯
¡ (n) ¢ k(n) ¯´
¯ X q (n)
k(n) t E (|η|)
E W = E ¯Wt (n) − Wt (n) ¯ = E (|η|) ti − ti(n)
−1
> p .
i =1 i i −1
i =1 δ(n)
© (n)
ª
Por tanto,
¡ (n) ¢ lı́m n→+∞ E (W ) = +∞, y, así, para n suficientemente
¡ (n)grande,
¢
E W > M, es decir, existe n 0 tal que para todo n > n 0 , P W > M.
Ahora aplicando la desigualdad de Chébyshev (V. 2, pág. 179),
¡ ¢ ¡¯ ¡ ¢¯ ¡ ¢ ¢
P W (n) 6 M 6 P ¯W (n) − E W (n) ¯ > E W (n) − M 6
³¯ ¡ ¢¯2 ´ ¡ ¢
E ¯W (n) − E W (n) ¯ V W (n) t
6 ¡ ¡ ¢ ¢2 =¡ ¡ ¢ ¢2 6 ¡ ¡ ¢ ¢2 ,
E W (n) − M E W (n) − M E W (n) − M

que permite concluir que


¡ ¢
lı́m P W (n) 6 M = 0.
n→+∞

(2). Consideramos las variables aleatorias


³ ´2 ³ ´
(n) (n) (n)
η i = Wt (n) − Wt (n) − ti − ti −1 , n = 1, 2, ..., i = 1, ..., k(n),
i i −1
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 87

³ ´
(n)
las cuales son independientes, y cumplen E η i = 0 y

¡ ¢ ¡ n ¢2 ³ (n) (n)
´2 ¡ ¢2
V ηni = E η i = ti − ti −1 E (ν)2 − 1 ,

ν designa la variable aleatoria con distribución normal estándar

1 ³ ´
ν= q Wt (n) − Wt (n) .
ti(n) − ti(n)
i i −1
−1

Tenemos, por los cálculos realizados en (1), que

à !2 à !2

k(n) ´2 k(n)
X k(n)
X ³ ´2
E Wt (n) − Wt (n) −t =E η(n)
i
= E η(n)
i
=
i i −1
i =1 i =1 i =1

k(n) ´2 ¡ ¢2 ¡ ¢2
= ti(n) − ti(n)
−1
E (ν)2 − 1 6 t δ(n) E (ν)2 − 1 ,
i =1

lo que prueba que


( Ã !2 )

k(n) ´2
lı́m E Wt (n) − Wt (n) −t = 0,
n→+∞ i i −1
i =1

y por tanto, se tiene (∗).


(3). Tenemos, por la desigualdad de Chébyshev ((2) de la página 179 de V.
2) y las acotaciones obtenidas en (2), que
ï ¯ !
X ¯k(n) ³ ´2 ¯
¯X
+∞
¯
P ¯ Wt (n) − Wt (n) − t ¯ > M 6
n=1
¯ i =1 i i −1 ¯
ï ¯!
X ¯k(n) ³ ´2 ¯ 2
1 +∞ ¯X ¯
6 2 E ¯ Wt (n) − Wt (n) − t ¯ 6
M n=1 ¯ i =1 i i −1 ¯
1 ¡ 2 X (n)
¢2 +∞
6 2
t E ν − 1 δ < +∞,
M n=1

y por el Corolario 3.9.4. (V. 2, pág. 266) se concluye la prueba de (3).


88 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Proceso estocástico ruido blanco. Derivada de un proceso de Wiener.

Usualmente en ingeniería, se considera ruido a todas las perturbaciones


eléctricas que interfieren sobre las señales de transmisión. En un senti-
do más general, también se asocia a un sonido molesto que distorsiona la
señal acústica (la radio, por ejemplo). En muchos casos un buen modelo
para el estudio del ruido es el denominado ruido blanco que se define a
continuación. Durante mucho tiempo este proceso se manejó sin el rigor
matemático adecuado, hasta que en el año 1964 I.M. Gel’fand y N. Ya. Vi-
lenkin establecieron, por primera vez, los fundamentos matemáticos de la
teoría de los procesos estocásticos generalizados en el libro [11].

Por ruido blanco se entiende un proceso estocástico Gaussiano y esta-


cionario en sentido amplio ξ̃ = {ξt }t∈R , con R+∞ E (ξt ) = 0, t ∈ R, (en este caso
1
existe densidad espectral de ξ̃, f (u) = 2π −∞ exp(−i t u)R(t )d t , (Teorema
4.3.5., pág. 35)), y con densidad espectral f (u) constante.
De la definición dada se obtiene: Para todo u ∈ R,
Z
1 +∞ c
(*) f (u) = exp(−i t u)R(t )d t = , donde
2π −∞ 2π
R(t ) = cov (ξt , ξ0 ) = cov (ξt+s , ξs ) = E (ξs ξt+s ), t , s ∈ R.

Observamos que c es una constante positiva que podemos suponer 1 sin


pérdida de generalidad.
La fórmula (*) es compatible sólo con R(t ) = δ(t ), función delta de Dirac
(de manera intuitiva, que será formalizada posteriormente en la página
90). En particular, de la fórmula
Z+∞
R(t ) = f (u) · exp(i t u)d u,
−∞

obtenida por inversión, se deduce que


Z+∞ Z
¡ 2¢ 1 +∞
R(0) = E ξs = f (u)d u = d u = +∞.
−∞ 2π −∞
Además, como f (u) = 1/(2π),
Z+∞
1
R(t ) = exp(i t u)d u = 0, para todo t 6= 0.
−∞ 2π
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 89

R+∞
Por otro lado, se tiene que −∞ R(t )d t = 1, y por tanto, la función de Dirac
no es una función en el sentido usual, sino que corresponde al concepto
de función generalizada que pasamos a describir brevemente.

Procesos estocásticos generalizados de Gel’fand-Vilenkin

Sea K el conjunto de todas las funciones ϕ(t ), t ∈ R, con valores reales, de


clase ∞ que se anulan idénticamente fuera de un intervalo finito que en
general depende de la función ϕ(t ) que se considere. Es claro que K es
un espacio vectorial real con la suma usual de funciones y el producto de
estas por escalares.
Una sucesión ϕ1 (t ), ϕ2 (t ),... de funciones de K se dice que converge a
ϕ(t ) ≡ 0, si todas estas funciones se anulan fuera de una sola región aco-
tada y si todas ellas y todas sus derivadas convergen uniformemente a 0.
Esta convergencia determina una topología en K que le convierte en un
espacio vectorial topológico.
A cada función Φ:K → R continua y lineal se le llama función generaliza-
da o distribución (no confundir con el concepto de distribución introduci-
do anteriormente en la teoría de probabilidades). (Las funciones generali-
zadas fueron introducidas por S. Sobolev en 1935 y redescubiertas por L.
Schwartz en 1945, que sistematizó su teoría en un libro publicado en dos
volúmenes en 1950, [38]). Al conjunto de todas estas funciones generaliza-
das lo designaremos por D (es el espacio vectorial dual topológico de K ).
Las siguientes funciones son elementos de K :
( ³ 2 ´
1
exp t 2ε−ε2 |t | < ε
ϕε (t ) = cε
0 |t | > ε,
R+∞
donde ε es un número real positivo
R+∞ y c es la constante positiva −∞ ϕ1 (t )d t .
Estas funciones cumplen que: −∞ ϕε (t )d t = 1.
Recordamos que las funciones generalizadas extienden, en este caso, a las
funciones de R en R que son localmente integrables Lebesgue, es decir, a
las funciones que son integrables Lebesgue sobre cualquier intervalo aco-
tado de R. Caso particular importante de este tipo de funciones son las
funciones continuas.
Toda función f : R → R localmente integrable Lebesgue determina una
90 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

función generalizada, Ψ f , mediante la fórmula


Z+∞
Ψ f : K → R, ϕ(t ) 7→ Ψ f (ϕ(t )) = f (t ) · ϕ(t )d t ,
−∞

(se prueba que Ψ f es lineal y continua en el espacio K ).


Por otro lado si f es una función localmente integrable Lebesgue, entonces
la función generalizada Ψ f cumple que:
Z+∞
f (x) = lı́m Ψ f (ϕε (t − x)) = lı́m f (t ) · ϕε (t − x)d t .
ε→0 ε→0 −∞

Por las propiedades de la integral de Lebesgue es claro que si f y g son dos


funciones localmente integrables Lebesgue que toman los mismos valores
salvo en un conjunto de medida de Lebesgue nula, entonces Ψ f = Ψg .

Como caso particular importante, que nos interesa destacar, tenemos


la función de Heaviside:
½
1, t > t0
h(t − t0 ) =
0 t < t0 ,

(t0 número real dado), que es localmente integrable Lebesgue y determina


la función generalizada Ψh(t−t0 ) . Destacamos que la función h(t − t0 ) no es
derivable en t0 .
La función generalizada φ : K → R, φ(ϕ) = ϕ(t0 ), para todo ϕ ∈K , y
t0 ∈ R fijo, se llama función delta de Dirac y se denota por δ(t − t0 ), (δ(t −
t0 )(ϕ) = ϕ(t0 )).
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 91

Sea φ : K → R una función generalizada, φ(ϕ), ϕ ∈ K . La derivada de φ es


(definición) φ̇ : K → R, φ̇(ϕ) = −φ(ϕ̇), ϕ ∈ K , la cual (φ̇) es de nuevo una
función generalizada, (φ̇ : K → R es lineal y continua).
Observación. Si f : R → R es una función con derivada f ′ localmente in-
tegrable Lebesgue, entonces la derivada de la función generalizada Ψ f es

Ψ f . En efecto, para todo ϕ ∈ K , se tiene por la fórmula de integración por
partes que:
Z+∞ Z+∞ Z+∞
′ ′
0= ( f (t ) · ϕ(t )) d t = f (t ) · ϕ(t )d t + f (t ) · ϕ′ (t )d t ,
−∞ −∞ −∞
′ ′
de donde se deduce que −Ψ f (ϕ′ ) = Ψ f (ϕ), y por tanto, Ψ̇ f = Ψ f .
Se verifica que la derivada de la función generalizada (de Heaviside)
h(t−t0 )
Ψ : K → R es la función delta de Dirac δ(t − t0 ). En efecto: Para todo
ϕ ∈ K , se tiene que
Z+∞
h(t−t0 ) h(t−t0 )
Ψ̇ (ϕ) = −Ψ (ϕ̇) = − ϕ̇(t )d t =
t0
= − lı́m (ϕ(s) − ϕ(t0 )) = ϕ(t0 ) = δ(t − t0 )(ϕ),
s→+∞

lo que prueba que Ψ̇h(t−t0 ) = δ(t − t0 ). 


A cada ϕ ∈ K le asignamos una variable aleatoria Φϕ , (Φϕ (ω)), o Φ(ϕ),
(Φ(ϕ)(ω)), en el espacio de probabilidad (Ω, F , P ) (de momento tenemos
un proceso estocástico ordinario con parámetro ϕ ∈ K ) tal que:
(1) Φαϕ+βψ = αΦϕ + βΦψ con probabilidad 1, donde ϕ, ψ ∈ K , α, β ∈ R.

(2) La convergencia de las funciones ϕk j ∈ K a ϕk ∈ K en el espacio K ,


para k = 1, 2, ..., n, cuando j → +∞, implica la convergencia de la
distribución del vector aleatorio (Φϕ1 j , ..., Φϕn j ) a la distribución de
(Φϕ1 , ..., Φϕn ) en el sentido:

Fϕ1 j ,...,ϕn j (x1 , ..., xn ) =


P (Φϕ1 j 6 x1 , ..., Φϕn j 6 xn ) → Fϕ1 ,...,ϕn (x1 , ..., xn ) =
= P (Φϕ1 6 x1 , ..., Φϕn 6 xn ),
converge puntualmente en cada punto donde Fϕ1 ,...,ϕn (x1 , ..., xn ) es
continua, (V. 2, pág. 287).
92 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Esta descripción corresponde a lo que entendemos por proceso estocástico


generalizado, Φϕ , ϕ ∈ K .

Es muy importante tener presente el siguiente ejemplo.

Ejemplo 3. Sea ξ̃ = {ξt }t∈R , un proceso estocástico (ordinario) con trayec-


torias continuas en el espacio de probabilidad (Ω, F , P ). Entonces,
Z+∞
Φϕ = ϕ(t )ξt d t , ϕ ∈ K ,
−∞

(variable aleatoria en (Ω, F , P )), es un proceso estocástico generalizado en


el espacio de probabilidad (Ω, F , P ), es decir, satisface las condiciones (1)
y (2) anteriores.
A veces para Φ pondremos la notación Φξ̃ ,
Z+∞
Φξ̃ (ϕ) = ϕ(t )ξt d t , ϕ ∈ K .
−∞

Un proceso estocástico generalizado Φϕ , ϕ ∈ K , se dice que es Gaussiano


si cumple:
Para ϕ1 ,...,ϕn , elementos arbitrarios de K linealmente independientes, la
variable aleatoria vectorial (Φϕ1 , ..., Φϕn ) es normal (normalmente distri-
buida, (V. 2, pág. 301):

ϕ(Φϕ1 ,...,Φϕn ) (t ) = E (exp(i (t1 Φϕ1 + ... + tn Φϕn ))) =


µ ¶
1
= exp i (t , m) − (R t , t ) , m = (m 1 , ..., m n ), |m k | < +∞, R = (r kl )),
2
¡ ¢
donde por sencillos cálculos se tiene m i = E (Φϕi ) y r kl = cov Φϕk , Φϕl =
E [(Φϕk − m k )(Φϕl − m l )].
Como en el caso ordinario un proceso estocástico generalizado Gaussiano
Φϕ , ϕ ∈ K , queda determinado por:

1. E (Φϕ ) = m(ϕ), ϕ ∈ K , lineal continua y por tanto, m(ϕ) es función


generalizada.

2. E [(Φϕ − m(ϕ))(Φψ − m(ψ))](= C (ϕ, ψ)), bilineal continua, en el pro-


ducto, > 0.
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 93

Sea Φϕ , ϕ ∈ K , un proceso estocástico generalizado, (es decir, Φϕ es va-


riable aleatoria en (Ω, F , P ), ϕ ∈ K , y cumple (1) y (2) de la página 91).
Se define la derivada Φ̇ϕ de Φϕ , (o la derivada Φ̇ϕ (ω) de Φϕ (ω)), mediante
la fórmula Φ̇ϕ = −Φϕ̇ . Se prueba que Φ̇ϕ , ϕ ∈ K , es de nuevo un proceso
estocástico generalizado, (Φ̇, ϕ 7→ Φ̇ϕ = −Φϕ̇ es variable aleatoria en el es-
pacio de probabilidad (Ω, F , P ) y se cumplen (1) y (2) de la página 91).

Sea Φϕ , ϕ ∈ K , un proceso estocástico generalizado y Gaussiano y sean


E (Φϕ ) = m(ϕ), E [(Φϕ − m(ϕ))(Φψ − m(ψ))](= C (ϕ, ψ)) su media y su cova-
rianza respectivamente. La derivada Φ̇ de este proceso estocástico gene-
ralizado Gaussiano Φ̇ϕ = −Φϕ̇ , ϕ ∈ K , es de nuevo proceso estocástico
generalizado Gaussiano y su media y su varianza son

E (Φ̇ϕ ) = −m(ϕ̇) = ṁ(ϕ) y


E [(Φ̇ϕ − ṁ(ϕ))(Φ̇ψ − ṁ(ψ))] = C (ϕ̇, ψ̇), respectivamente.

Ejemplo 4. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtra-


ción del espacio medible (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener, en

este espacio, respecto a {Ft }t∈J ∞ y a P , (Definición 4.6.3., pág. 83). Pone-
mos Wt ≡ 0 para t < 0. A cada ϕ ∈ K se le hace corresponder la variable
aleatoria Z +∞
Φϕ = ϕ(t )Wt d t
−∞

y se obtiene el proceso estocástico generalizado Φϕ , ϕ ∈ K , que se designa


también por ΦW f (ϕ), ϕ ∈ K .
Se comprueba que Φϕ = ΦW f (ϕ), ϕ ∈ K es Gaussiano y cumple las propie-
dades siguientes:
(a). E (Φϕ ) = m(ϕ) ≡ 0. R+∞ R+∞
(b). E (Φϕ · Φψ ) = C (ϕ, ψ) = 0 0 mı́n(t , s)ϕ(t )ψ(s)d t d s.
De donde, integrando por partes,
Z+∞
C (ϕ, ψ) = (ϕ̂(t ) − ϕ̂(+∞))(ψ̂(t ) − ψ̂(+∞))d t ,
0
Zt Zt
donde ϕ̂(t ) = ϕ(s)d s, ψ̂(t ) = ψ(s)d s.
0 0
94 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

R+∞
(c). Φ̇ϕ = −Φϕ̇ = − −∞ ϕ̇(t )Wt d t ,

E (Φ̇ϕ ) = −E (Φϕ̇ ) = −m(ϕ̇) = ṁ(ϕ) ≡ 0,


Z+∞
E (Φ̇ϕ Φ̇ψ ) = C (ϕ̇, ψ̇) = ϕ(t )ψ(t )d t .
0

(Φϕ = ϕ(t0 ), ϕ ∈ K , t0 elemento fijo de R, función delta de Dirac δ(t − t0 )).


R+∞
(d). Tenemos Φϕ = −∞ ϕ(t )Wt d t , ϕ ∈ K , proceso estocástico generaliza-
do Gaussiano y tenemos Φ̇ϕ = −Φϕ̇ , ϕ ∈ K , que también es proceso esto-
cástico generalizado Gaussiano.

Lo expuesto en los dos ejemplos anteriores da consistencia a la defini-


ción que sigue.

Definición 4.6.7. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una


filtración del espacio medible (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener,

en (Ω, F , P ) respecto a {Ft }t∈J ∞ y a P , (pág. 83). Ponemos Wt ≡ 0 para t < 0.
Consideramos
Z+∞
ΦWf (ϕ) = ϕ(t )Wt d t , ϕ ∈ K , (W f = {Wt }t∈J ∞ ).
−∞

f (ϕ), ϕ ∈ K , es un proceso estocástico generalizado Gaus-


Sabemos que ΦW
siano y
¡ ¢
E ΦW
f (ϕ) = m Wf (ϕ) ≡ 0,
Z+∞ Z+∞
¡ ¢
E ΦWf (ϕ)ΦWf (ψ) = C (ϕ, ψ) = mı́n(t , s)ϕ(t )ψ(s)d t d s.
0 0

Tomamos la derivada Φ̇W f de ΦWf , Φ̇W


f (ϕ) = −ΦW
f (ϕ̇), ϕ ∈ K . Sabemos que
f (ϕ), ϕ ∈ K , es un proceso estocástico generalizado y Gaussiano y
Φ̇W
¡ ¢
E Φ̇W
f (ϕ) = −m W
f (ϕ̇) = ṁ W
f (ϕ) ≡ 0 y
Z+∞
¡ ¢
E Φ̇W f (ϕ)Φ̇W
f (ψ) = C (ϕ̇, ψ̇) = ϕ(t )ψ(t )d t .
0
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 95

(1). Al proceso estocástico generalizado Gaussiano Φ̇W f (ϕ), ϕ ∈ K , se le lla-


ma ruido blanco ( White noise) Gaussiano. A veces se pone (si no hay con-
f (ϕ) = Ẇϕ , ϕ ∈ K , (se tiene así la formalización de la expresión
fusión), Φ̇W
simplificada: un proceso estocástico ruido blanco Gaussiano es la deriva-
da de un proceso estocástico de Wiener).

(2). Sea ξ̃ = {ξt }t∈R un proceso estocástico con trayectorias continuas. Sea
Z+∞
Φξ̃ (ϕ) = ϕ(t )ξt d t , ϕ ∈ K ,
−∞
que sabemos que es un proceso estocástico generalizado. Se dice que Φξ̃ (ϕ),
ϕ ∈ K , es un proceso Gaussiano ruido blanco ( White noise) si Φξ̃ (ϕ), ϕ ∈
K , es Gaussiano y
³ ´ ³ ´ Z+∞
E Φξ̃ (ϕ) ≡ 0, E Φξ̃ (ϕ)Φξ̃ (ψ) = C ξ̃(ϕ, ψ) = ϕ(t )ψ(t )d t .
0
La relación entre las descripciones (1) y (2) es consecuencia que al ser pro-
cesos Gaussianos, y vistas sus respectivas definiciones, tienen la misma fun-
ción característica y por tanto, por el teorema de unicidad, la misma fun-
ción de distribución.
De (2), de la definición anterior, se deduce que para funciones arbitra-
rias ϕ1,...,ϕn de K , la variable aleatoria vectorial (Φξ̃(ϕ1 (t +h)), ..., Φξ̃ (ϕn (t +
h))) tiene la misma distribución para todo h, y por tanto, Φξ̃ (ϕ), ϕ ∈ K , es
un proceso estocástico generalizado y estacionario.

Ejercicios y problemas
f = {Wt }t∈J un proceso estocástico de Wiener, en el espacio de
6.1. Sea W T
probabilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T (del espacio medi-
ble (Ω, F )) y a P . Demostrar que los siguientes procesos estocásticos tam-
bién son de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P :
(1) (−W̃ =) {−Wt }t∈J T .
©p ª
(2) aWt/a t∈J aT , donde a > 0.
© ª
(3) Wt+t0 − Wt0 t∈[t0 ,t0 +T ] , donde t0 > 0.
96 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

6.2. Sean Wf = {Wt }t∈J un proceso estocástico de Wiener, en el espacio de


T
probabilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T (del espacio medi-
ble (Ω, F )) y a P , y s, t ∈ J T con 0 6 s < t . Demostrar que:

(1) E (Wt | Fs ) = Ws . Por tanto, {Wt }t∈J T es una martingala respecto a {Ft }t∈J T
y a P.
¡ ¢ © ª
(2) E Wt2 − t | Fs = Ws2 − s, s 6 t , s, t ∈ J T . Por tanto, Wt2 − t t∈J T es una
martingala respecto a {Ft }t∈J T y a P .

(3) Si σ es una constante real,


µ µ ¶ ¶ µ ¶
σ2 σ2
E exp σWt − t Fs = exp σWs −
| s , s 6 t , s, t ∈ J T .
2 2
n ³ 2
´o
Así, exp σWt − σ2 t es martingala respecto a {Ft }t∈J T y a P .
t∈J T

4.7. Integrales estocásticas


La propiedad (1) del Lema 4.6.6., (pág. 84), impide construir la integral es-
tocástica a la manera de las integrales L-S o R-S, ya que las trayectorias de
un proceso de Wiener son de variación no acotada en cualquier pequeño
intervalo.

Definición 4.7.1. Sean (Ω, F ) un espacio medible y f (t , ω), t ∈ J T , ω ∈ Ω,


una función con valores reales. Supongamos que f (t , ω) es medible respecto
(t , ω), (es decir, para todo subconjunto de Borel B de R,

{(t , ω) : f (t , ω) ∈ B} ∈ B(J T ) ⊗ F ).

Se dice que f es no anticipativa respecto a la filtración {Ft }t∈J T del espa-


cio medible (Ω, F ), si para todo t ∈ J T , la función f (t , ·) es Ft -medible (de
hecho, en tal caso, { f (t , ·)(= f t )}t∈J T , ( f t (ω) = f (t , ω), ω ∈ Ω, t ∈ J T ), es un
proceso estocástico real medible y adaptado a la filtración {Ft }t∈J T , (pági-
nas 21 y 25)).
4.7. INTEGRALES ESTOCÁSTICAS 97

Definición 4.7.2. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T , (0 < T <
+∞), filtración de (Ω, F ) y f : J T × Ω → R una función. Se dice que f es una
función de clase P T respecto a {Ft }t∈J T y a P si: f es no anticipativa respecto
a {Ft }t∈J T y
µ½ ZT ¾¶
2
P ω∈Ω: f (t , ω)d t < +∞ = 1.
0
Definición 4.7.3. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T , (0 < T <
+∞), filtración de (Ω, F ) y f : J T × Ω → R una función. Se dice que f es una
función de clase E T respecto a {Ft }t∈J T y a P si: f es no anticipativa respecto
a {Ft }t∈J T y
µZT ¶
2
E f (t , ω)d t < +∞.
0
Observamos que por el Teorema 3.4.36.(Fubini), (V. 2, pág. 202)),
Z µZT ¶ ZT
2 2
¡ ¢
f (t , ω)d (λT × P ) = E f (t , ω)d t = E f 2 (t , ω) d t .
J T ×Ω 0 0

Así, si f es una función no anticipativa respecto a {Ft }t∈J R T se tiene que f es


función de clase E T respecto a {Ft }t∈J T y a P si y sólo si J T ×Ω f 2 (t , ω)d (λT ×
P ) < +∞, y esta última expresión significa que f es un elemento del espa-
cio de Banach L 2 (J T × Ω, B(J T ) ⊗ F , λT × P ), donde λT es la medida de
Lebesgue en J T , (Definición 3.9.12., (V. 2, pág. 270)). Por último, se llega
de nuevo a: Una función f no anticipativa respecto a {Ft }t∈J T es de clase
RT ¡ ¢
E T respecto a {Ft }t∈J T y a P si y sólo si 0 E f 2 (t , ω) d t < +∞.

Es claro que toda función de clase E T respecto a {Ft }t∈J T y a P es de


clase P T respecto a {Ft }t∈J T y a P , (0 < T < +∞)), ((10), (V. 2, pág. 170).
Definición 4.7.4. Sean (Ω, F , P ) un espacio de probabilidad, e = e(t , ω),
t ∈ J T , 0 < T < +∞, ω ∈ Ω, una función y {Ft }t∈J T una filtración del espacio
medible (Ω, F ). Supongamos que e es de clase E T respecto a {Ft }t∈J T y a P .
Se dice que e es simple respecto a {Ft }t∈J T y a P si existe una subdivisión
finita 0 = t0 < t1 < ... < tn = T del intervalo [0, T ] y existen variables alea-
torias en (Ω, F ), α, α0 ,...,αn−1 , donde α es F0 -medible y αi es Fti -medible,
i = 0, 1, ..., n − 1, tales que
n−1
X
e(t , ω) = α(ω)I {0} (t ) + αi (ω)I (ti ,ti +1 ] (t ), (∗)
i =0
98 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde I {0} , I (ti ,ti +1 ] son los correspondientes


¡ indicadores
¢ en el conjunto [0, T ],
2
(V. 2, pág. 149). (De (∗) se deduce que E |αi | < +∞, i = 0, 1, ..., n − 1).

Obsérvese que si la función e es simple respecto a {Ft }t∈J T y a P , e(·, ω),


ω ∈ Ω, es continua por la izquierda.

Definición 4.7.5. Sean (Ω, F , P ) un espacio de probabilidad, e = e(t , ω),


t ∈ J T , 0 < T < +∞, ω ∈ Ω, una función, y {Ft }t∈J T una filtración de (Ω, F ).
Supongamos que e es simple respecto a {Ft }t∈J T y a P , y sea W f = {Wt }t∈J
T
un proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P . Se define I t (e)
por:

 αW0 t =0
I t (e) = αW 0 + α (W − W ) 0 < t 6 t1
 P0m t ¡ 0 ¢ ¡ ¢
αW0 + i =0 αi Wti +1 − Wti + αm+1 Wt − Wtm+1 tm+1 < t 6 tm+2

donde m = 0, 1, ..., n − 2. Al proceso estocástico real {I t (e)}t∈J T se le llama


integral estocástica de e respecto a Wf (es claro que I t (e) no depende de la
representación que se haya escogido de e). Se adopta la notación
Zt µZ t ¶
I t (e) = e(s, ω)dWs o I t (e)(ω̄) = e(s, ω)dWs (ω̄), ω̄ ∈ Ω o
0 0
Zt µZt ¶
I t (e) = e s dWs o I t (e)(ω) = e s dWs (ω), ω ∈ Ω.
0 0

(En la definición anterior se podría haber utilizado funciones simples


continuas por la derecha.)

Observación. Con las notaciones de la definición anterior, se tiene:

(a) P (W0 = 0) = 1.

(b) I 0 (e) = αW0 .


4.7. INTEGRALES ESTOCÁSTICAS 99

(c) I t (e) = αW0 + α0 (Wt − W0 ), 0 < t 6 t1 .


¡ ¢ ¡ ¢
(d) I tn (e) = I T (e) = αW0 + α0 Wt1 − Wt0 + ... + αn−1 WT − Wtn−1 .
P ¡ ¢
(e) I tm+1 (e) = αW0 + m i =0 αi W t i +1
− W t i
, m = 0, 1, ..., n − 2.

Sea e una función simple respecto a {Ft }t∈J T y a P . Para todo s ∈ J T se


considera la función

(e s (u, ω) =)e(u, ω)I {t>s} (u).

Entonces, e s (u, ω) es de nuevo una función simple respecto a {Ft }t∈J T y a


Rt
P , y la integral I t (e s ) = 0 e s (u, ω)dWu se designa por
Zt
e(u, ω)dWu .
s

Propiedades de la integral estocástica de funciones simples

(1) Si a y b son constantes y e 1 , e 2 son funciones simples respecto a la


filtración {Ft }t∈J T y a P , entonces ae 1 + be 2 es simple respecto a esa
filtración y a P , y I t (ae 1 + be 2 ) = aI t (e 1 ) + bI t (e 2 ).

(2) Para todo u, t ∈ J T , con u 6 t , se tiene:


Zt Zu Zt
e(s, ω)dWs = e(s, ω)dWs + e(s, ω)dWs , (P − a.s.).
0 0 u

(3) {I t (e)}t∈J T es un proceso estocástico real medible, (pág. 21), adaptado


a la filtración {Ft }t∈J T , (pág. 25), y continuo, (pág. 3).
¡Rt ¢ Rs
(4) Para s 6 t , E 0 e(u, ω)dWu |Fs = 0 e(u, ω)dWu , (P -a.s.).
Por tanto, {I t (e)}t∈J T es una martingala respecto a {Ft }t∈J T y a P ,
(pág. 58), (ya que I t (e) es integrable, t ∈ J T ).

(5) Se verifica:
µµZt ¶µZt ¶¶ µZ t ¶
E e 1 (u, ω)dWu e 2 (u, ω)dWu = E e 1 (u, ω)e 2 (u, ω)d u .
0 0 0
100 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(6) Si e(s, ω) = 0 para todo s ∈ J T , y todo ω ∈ A ∈ FT , entonces


µZ t ¶
e(s, ω)dWs (ω̄) = 0, t ∈ J T , ω̄ ∈ A.
0

(7) El proceso estocástico {I t (e)}t∈J T es progresivamente medible respecto


a {Ft }t∈J T , (pág. 26), por (3) ya que T < +∞.
¡Rt ¢
(8) E 0 e(u, ω)dWu = 0 (se deduce de (4)).
¡ ¢
(9) Recordamos la desigualdad de Doob: Si µt t∈J T (0 < T < +∞) es una
martingala continua, entonces
à !
¡ ¢
E sup |µt | 6 4E |µT |2 .
2
t∈J T

De este resultado, y (3), (4) y (5) obtenemos:


à ¯Zt ¯2 ! µZT ¶
¯ ¯ 2
¯
E sup ¯ e(s, ω)dWs ¯ 6 4E¯ e(s, ω) d s .
t∈J T 0 0

(10) Si t ∈ J T y A ∈ Ft , la función I A (ω) · I (t,T ] (s) · e(s, ω) es simple respecto


a {Ft }t∈J T y a P , y
ZT ZT
I A (ω) · I (t,T ] (s) · e(s, ω)dWs = I A e(s, ω)dWs .
0 t

Lema 4.7.6. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T <
+∞, una filtración de (Ω, F ) y f (t , ω), t ∈ J T , ω ∈ Ω, una función no an-
ticipativa respecto a la filtración dada {Ft }t∈J T . Supongamos que f es de
clase E T respecto {Ft }t∈J T y a P , (pág. 97). Entonces, existe una sucesión de
funciones simples respecto a {Ft }t∈J T y a P , { f n }n∈N+ , tal que
½ µZT ¶¾
£ ¤2
lı́m E f (t , ω) − f n (t , ω) d t = 0. (∗)
n→+∞ 0

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T < +∞, una fil-
tración del espacio medible (Ω, F ) y f (t , ω), t ∈ J T , ω ∈ Ω, una función no
anticipativa respecto a la filtración {Ft }t∈J T .
4.7. INTEGRALES ESTOCÁSTICAS 101

Supongamos que f es de clase E T respecto {Ft }t∈J T y a P , (pág. 97). Sea


f
W = {Wt }t∈J T un proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P .
Por el lema anterior existe una sucesión de funciones simples respecto a
{Ft }t∈J T y a P , { f n (t , ω)}n∈N+ , tal que se cumple (∗). Por tanto, por la de-
sigualdad triangular de la norma del espacio de Banach L 2 (J T ×Ω, B(J T )⊗
F , λT × P ), (Teorema 3.4.32., (V. 2, pág. 194)),
½ µZT ¶¾
£ ¤2
lı́m E f n (t , ω) − f m (t , ω) d t = 0.
n→+∞
m→+∞ 0

Así, por (5) de la página 99,


( ÷Z ZT ¸2 !)
T
lı́m E f n (t , ω)dWt − f m (t , ω)dWt =
n→+∞
m→+∞ 0 0
½ µZT ¶¾
£ ¤2
= lı́m E f n (t , ω) − f m (t , ω) d t = 0.
n→+∞
m→+∞ 0

De esta forma la sucesión de variables aleatorias I T ( f n ), que son elementos


del espacio de Hilbert L 2 (Ω, F , P ), (V. 2, pág. 271), es fundamental en me-
dia de orden 2 (o media cuadrática) (V. 2, pág. 265) y por tanto, (Teorema
3.9.13., (V. 2, pág. 270)), I T ( f n ) converge en media deRorden 2 a un elemen-
T
to de L 2 (Ω, F , P ), que designaremos por I T ( f ) o por 0 f (t , ω)dWt :
L2
Tenemos ©por¡ tanto, l .i .m.n I T¢ª( f n ) = I T ( f ), (I T ( f n ) → I T ( f )), que significa
lı́mn→+∞ E |I T ( f n ) − I T ( f )|2 = 0.
El límite obtenido, I T ( f ), no depende de la sucesión { f n }n∈N+ escogida pa-
ra aproximar f , en el lema anterior. Por tanto, la integral estocástica I T ( f )
está bien definida.
Notamos que I T ( f ) pertenece a L 2 (Ω, F , P ), (V. 2, pág. 270. Recordamos
que dos variables aleatorias ξ y η en (Ω, F , P ) definen el mismo elemento
de L 2 (Ω, F , P ) si P (ξ 6= η) = 0).

Convenimos en que I T ( f )(ω) = 0 para todo ω tal que f (t , ω) = 0 para


todo t ∈ J T .

Observamos que hay consistencia, en esta construcción, para el caso


en que f sea simple.
102 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sea f función de clase E T respecto a {Ft }t∈J T y a P , (pág. 97). Entonces,


la función f (s, ω)· I [0,t] (s) es de clase E T respecto a {Ft }t∈J T y a P . Se define
I t ( f ), t ∈ J T , de la siguiente forma
ZT
It ( f ) = f (s, ω)I [0,t] (s)dWs
0
Rt
y el segundo miembro se denotará por 0 f (s, ω)dWs , con lo cual
Zt
It ( f ) = f (s, ω)dWs .
0

Ejemplo 1. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración de


(Ω, F ) y W f = {Wt }t∈J proceso de Wiener, en el espacio (Ω, F , P ), respecto
T
a {Ft }t∈J T y a P . Sea I [t1 ,t2 ] el indicador del intervalo [t1 , t2 ] ⊂ J T . Entonces,
I [t1 ,t2 ] ◦ p 1 , (p 1 (t , ω) = t , t ∈ J T , ω ∈ Ω), es de clase E T respecto a {Ft }t∈J T
y a P , y I T (I [t1 ,t2 ] ◦ p 1 ) = Wt2 − Wt1 . Además, para todo t con t1 6 t 6 t2 ,
I t (I [t1 ,t2 ] ◦ p 1 ) = Wt − Wt1 .

Propiedades de la integral estocástica de funciones de clase E T

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T < +∞, una fil-
tración de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener, en el espacio de
T
probabilidad (Ω, F , P ) dado, respecto a {Ft }t∈J T y a P (pág. 83).

Sean f , f 1 , f 2 : J T × Ω → R funciones de clase E T respecto a {Ft }t∈J T y a


P . Entonces,

(1) Si a y b son constantes, a f 1 + b f 2 es de clase E T respecto a {Ft }t∈J T y a


P , y I t (a f 1 + b f 2 ) = aI t ( f 1 ) + bI t ( f 2 ).

(2) Para todo u, t ∈ J T , con u 6 t , se tiene:


Zt Zu Zt
f (s, ω)dWs = f (s, ω)dWs + f (s, ω)dWs ,
0 0 u
Zt ZT
donde f (s, ω)dWs = f (s, ω)I [u,t] (s)dWs .
u 0
4.7. INTEGRALES ESTOCÁSTICAS 103

© ª
(3) I t ( f ) t∈J T es un proceso estocástico real medible, (pág. 21), adaptado
a la filtración {Ft }t∈J T , (pág. 25), y continuo, (pág. 3).
¡Rt ¢ Rs
(4) Para s 6 t , E 0 f (u, ω)dWu |Fs = 0 f (u, ω)dWu . I t ( f ) es cuadrado
integrable, t ∈ J T . Además, (ver (7)), {I t ( f )}t∈J T es martingala respec-
to a {Ft }t∈J T y a P .

(5) Se verifica:
µµZt ¶ µZ t ¶¶ µZ t ¶
E f 1 (u, ω)dWu f 2 (u, ω)dWu = E f 1 (u, ω) f 2 (u, ω)d u .
0 0 0

(6) Si f (s, ω) = 0 para todo s ∈ J T y ω ∈ A ∈ FT , entonces


µZ t ¶
f (s, ω)dWs (ω̄) = 0, t ∈ J T , ω̄ ∈ A.
0

(7) El proceso estocástico {I t ( f )}t∈J T , es progresivamente medible respec-


to a {Ft }t∈J T , (Definición 4.2.7., pág. 26), por (3) ya que T < +∞.
¡Rt ¢
(8) E 0 f (u, ω)dWu = 0 (se deduce de (4)).
© ª
(9) El proceso estocástico I t ( f ) t∈J T es continuo, (pág. 3).
³ ¯Rt ¯2 ´ ³R ´
T
(10) E supt∈J T ¯ 0 f (s, ω)dWs ¯ 6 4E 0 f 2 (s, ω)d s .

(11) Sea una sucesión { f n }n∈N+ de funciones de clase E T respecto a {Ft }t∈J T
y a P tal que
µZ T ¶
£ ¤2
lı́m E f (t , ω) − f n (t , ω) d t = 0.
n→+∞ 0

Entonces, Zt Zt
l .i .m.n f n (s, ω)dWs = f (s, ω)dWs ,
0 0
es decir,
ïZ Zt ¯2 !
¯ t ¯
lı́m E ¯¯ f n (s, ω)dWs − f (s, ω)dWs ¯¯ = 0.
t→+∞ 0 0
104 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(12) Si 0 = t0 < t1 < ... < tn = T es una partición Π de [0, T ], se tiene que
n−1
X

f = f (0, ω)I 0 (t ) + f (ti , ω)I (ti ,ti +1 ] (t )
i =0

es una función simple respecto a {Ft }t∈J T y a P . Además, se verifica:


½ µ h i2 ¶¾
RT Π
(12a) lı́mδ(Π)→0 E 0 f (t , ω) − e f (t , ω) = 0, donde designamos
por δ(Π) a mı́n{ti +1 − ti : i ∈ {0, ..., n − 1}}.
³ ´ R
T
(12b) l .i .m.δ(Π)→0 I T e Π
f
= 0 f (s, ω)dWs , lo cual equivale a
ZT n−1
X
f (s, ω)dWs = l .i .m.δ(Π)→0 f (ti , ω)(Wti +1 − Wti ).
0 i =0

La propiedad (12) anterior, sugiere la definición de otro tipo de integral


estocástica de funciones f de clase E T respecto a {Ft }t∈J T y a P :
Proposición 4.7.7. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T , (0 <
T < +∞), filtración de (Ω, F ), W f = {Wt }t∈J proceso de Wiener, en (Ω, F , P ),
T
respecto a {Ft }t∈J T y a P , y f : J T × Ω → R una función de clase E T respecto
a {Ft }t∈J T y a P . Para cada partición Π, 0 = t0 < t1 < ... < tn = T , de [0, T ] se
define
n−1
X1
SΠ f = ( f (ti +1 , ω) + f (ti , ω))(Wti +1 − Wti ).
i =0 2
Entonces S Π
f
converge en media de orden 2 a una variable aleatoria en el
RT
espacio (Ω, F , P ) que se designa por 0 f (t , ω) ◦ dWt y se le llama integral
de Fisk-Stratonovich de f .
Teorema 4.7.8. Con las notaciones anteriores, se tiene
ZT ZT
1
f (t , ω) ◦ dWt = f 〉T ,
f (t , ω)dWt + 〈 f , W
0 0 2
f 〉T = l .i .m.δ(Π)→0 ( f (ti +1 , ω)− f (ti , ω))(Wt −Wt ), ( covariación
donde 〈 f , W i +1 i
cuadrática de los procesos estocásticos f y W f = {Wt }t∈J ).
T

Corolario 4.7.9. La integral de Fisk-Stratonovich es lineal, tiene esperanza


matemática distinta de cero y determina un proceso estocástico continuo
que no es martingala.
4.7. INTEGRALES ESTOCÁSTICAS 105

Ejemplo 2. Sea Wf = {Wt }t∈J , (0 < T < +∞), un proceso de Wiener, en el es-
T
pacio de probabilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T (de (Ω, F ))
RT
y a P . Entonces, 0 Wt (ω)dWt = 12 WT2 − 12 T , (véase el Ejemplo 5 de la pá-
RT
gina 143), y 0 Wt (ω) ◦ dWt = 12 WT2 . Así, la integral estocástica de Itô y la
integral estocástica de Fisk-Stratonovich son distintas.

Luego a partir de (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T , 0 < T <


+∞, filtración del espacio medible (Ω, F ) y W f = {Wt }t∈J proceso de Wie-
T
ner, en el espacio de probabilidad (Ω, F , P ), respecto a {Ft }t∈J T y a P , (pág.
83), hemos construido las integrales estocásticas
Zt Zt
f (s, ω)dWs , t ∈ J T y f (s, ω) ◦ dWs , t ∈ J T
0 0

de Itô y de Fisk-Stratonovich, respectivamente, para cualquier función f


de clase E T respecto a {Ft }t∈J T y a P .

Vamos a construir la integral estocástica para funciones f de clase P T


respecto a {Ft }t∈J T y a P , 0 < T < +∞, (pág. 97).

Lema 4.7.10. Sea f una función de clase P T respecto a {Ft }t∈J T y a P , 0 <
T < +∞. Entonces, existe una sucesión { f n } de funciones de clase E T respecto
a {Ft }t∈J T y a P tal que
½ZT ¾
£ ¤2
(∗) lı́m f (t , ω) − f n (t , ω) d t = 0, en probabilidad.
n→+∞ 0

Además, existe una sucesión de funciones simples respecto a {Ft }t∈J T y a P


(pág. 97), f n (t , ω), tal que se cumple (∗) en probabilidad y en probabilidad
1 (V. 2, pág. 265).

Demostración. Ponemos
½ RT
T, si 0 f 2 (s, ω)d s < n
τn (ω) = © R t ª
ı́nf t 6 T : 0 f 2 (s, ω)d s > n , en caso contrario

y f n (s, ω) = f (s, ω)I {s 6τn (ω)} . El proceso


Zt
f 2 (s, ω)d s, t ∈ J T ,
0
106 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

es progresivamente medible respecto a {Ft }t∈J T , (pág. 26). Por tanto, las
variables aleatorias τn (ω) son tiempos de Markov respecto a {Ft }t∈J T (pág.
65). Así, { f n (s, ω)}n∈N+ es una
³R sucesión de
´ funciones de clase E T respec-
T 2
to a {Ft }t∈J T y a P pues E 0 f n (s, ω)d s 6 n < +∞, y se comprueba que
cumple las condiciones de la primera parte del lema.

Lema 4.7.11. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T <
+∞, una filtración del espacio medible (Ω, F ) y W f = {Wt }t∈J un proceso
T
de Wiener, en el espacio de probabilidad (Ω, F , P ), respecto a {Ft }t∈J T y a P ,
(pág. 83). Sean f una función de clase E T respecto a {Ft }t∈J T y a P y A ∈ FT .
Entonces para cada n ∈ N+ , M > 0,
( à ¯Zt ¯ !) ½ µZ ¶¾
\ ¯ ¯ n \ T 2
P A sup ¯¯ ¯
f (s, ω)dWs ¯ > M 6 2 +P A f (s, ω)d s > n
t∈J T 0 M 0

y en particular
( ¯Z t ¯ ) ½ZT ¾
¯ ¯ n 2
P sup ¯ ¯ ¯
f (s, ω)dWs ¯ > M 6 2 + P f (s, ω)d s > n .
06 t 6T 0 M 0

Veamos la construcción de I T ( f ), f de clase P T respecto a {Ft }t∈J T y


a P , 0 < T < +∞: Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una
filtración del espacio medible (Ω, F ) y f una función de clase P T respec-
to a {Ft }t∈J T y a P . Por el Lema 4.7.10. (pág. 105), tenemos una sucesión
{ f n }n∈N+ de funciones de clase E T respecto a {Ft }t∈J T y a P tal que
½ZT ¾
£ ¤2
lı́m f (t , ω) − f n (t , ω) d t = 0, en probabilidad.
n→+∞ 0

Tomamos W f = {Wt }t∈J proceso de Wiener en (Ω, F , P ) respecto a {Ft }t∈J


T T
y a P . Por la convergencia en probabilidad obtenemos que para todo ε > 0,
½ZT ¾
£ ¤2
lı́m P f (t , ω) − f n (t , ω) d t > ε = 0.
n→+∞ 0

Por tanto, para todo ε > 0, (V. 2, pág. 269),


½ZT ¾
£ ¤2
lı́m P f n (t , ω) − f m (t , ω) d t > ε = 0.
n→+∞
m→+∞ 0
4.7. INTEGRALES ESTOCÁSTICAS 107

Aplicando el lema anterior a ε > 0, δ > 0, y f n − f m , obtenemos que


½¯ZT ¯ ¾ ½ZT ¾
¯ ¯ ε ¡ ¢2
P ¯¯ ¯
( f n − f m )(s, ω)dWs ¯ > δ 6 2 + P f n − f m (s, ω)d s > ε ,
0 δ 0

de donde
½¯ZT ZT ¯ ¾
¯ ¯ ε
¯
lı́m P ¯ f n (s, ω)dWs − ¯
f m (s, ω)dWs ¯ > δ 6 2
n→+∞
m→+∞ 0 0 δ

y por consiguiente,
½¯ZT ZT ¯ ¾
¯ ¯
lı́m P ¯ ¯ f n (s, ω)dWs − ¯
f m (s, ω)dWs ¯ > δ = 0.
n→+∞
m→+∞ 0 0
RT
Luego 0 f n (s, ω)dWs , n ∈ N+ , es fundamental en probabilidad (V. 2, pág.
265) y por el Teorema 3.9.11, (V. 2, pág. 269) dicha sucesión converge en
probabilidad, es decir, la sucesión de variables aleatorias
ZT
f n (t , ω)dWt = I T ( f n )
0

converge RTen probabilidad a una variable aleatoria que designamos por


I T ( f ) o 0 f (t , ω)dWt . La construcción de
ZT
IT ( f ) = f (t , ω)dWt
0

no depende de la sucesión { f n }n∈N+ de funciones de clase E T respecto a


{Ft }t∈J T y a P escogida, (pág. 97).
Desde luego se tiene consistencia con la etapa anterior, ( f de clase E T res-
pecto a {Ft }t∈J T y a P ).
RT
Se define I t ( fR) = 0 f (s, ω)I [0,t] (s)dWs , t ∈ J T , y se adopta, de nuevo, la
t
notación I t ( f ) = 0 f (s, ω)dWs .

Al proceso estocástico {I t ( f )}t∈J T le llamaremos integral estocástica de


f , (de clase P T respecto a {Ft }t∈J T y a P ), respecto al proceso de Wiener W f.
Este proceso es continuo y progresivamente medible respecto a {Ft }t∈J T .
Por tanto, el proceso estocástico {I t ( f )}t∈J T , es medible (en (t , ω)) y adap-
tado a {Ft }t∈J T .
108 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Observación. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una fil-


tración del espacio medible (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener
T
en (Ω, F , P ) respecto a {Ft }t∈J T y a P .
Sea f una función de clase E T respecto a {Ft }t∈J T y a P , (pág. 97),(tenemos
Rt
0 f (s, ω)dW s , t ∈ J T ). Entonces, existe una sucesión { f n }n∈N+ de funciones
simples respecto a {Ft }t∈J T y a P , (pág. 97), con
µZT ¶
£ ¤2
lı́m E f (s, ω) − f n (s, ω) d s = 0
n→+∞ 0

y, por tanto, con probabilidad 1


( ¯Zt Zt ¯)
¯ ¯
lı́m sup ¯¯ f (s, ω)dWs − f n (s, ω)dWs ¯¯ = 0,
n→+∞ 06 t 6T 0 0

en otras palabras, uniformemente sobre t ∈ J T , con probabilidad 1


½Zt ¾ Zt
lı́m f n (s, ω)dWs = f (s, ω)dWs .
n→+∞ 0 0

Se tiene un resultado análogo para funciones f de clase P T respecto {Ft }t∈J T


y a P , y el lema anterior, es válido también para este tipo de funciones.

Propiedades de la integral estocástica de funciones de clase P T

Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración del espacio me-
f = {Wt }t∈J proceso de Wiener, en el espacio de probabili-
dible (Ω, F ), W T
dad (Ω, F , P ), respecto a {Ft }t∈J T y a P , y sean f , f 1 , f 2 : J T × Ω → R funcio-
nes de clase P T respecto a {Ft }t∈J T y a P . Entonces,

(a) Si { f n (t , ω)}n∈N+ , t ∈ J T , ω ∈ Ω, es una sucesión de funciones de clase


RT ¡ ¢2
E T respecto {Ft }t∈J T y a P tal que 0 f (t , ω) − f n (t , ω) d t conver-
RT
ge a 0 en probabilidad, se verifica que 0 f n (t , ω)dWt converge en
RT
probabilidad a 0 f (t , ω)dWt .

(b) Si a, b son números reales arbitrarios, entonces a f 1 + b f 2 es de clase


P T respecto {Ft }t∈J T y a P y

I t (a f 1 + b f 2 ) = aI t ( f 1 ) + bI t ( f 2 ), t ∈ J T .
4.7. INTEGRALES ESTOCÁSTICAS 109

(c) Para todo u, t ∈ J T , con u 6 t , se tiene:


Zt Zu Zt
f (s, ω)dWs = f (s, ω)dWs + f (s, ω)dWs ,
0 0 u
Zt ZT
donde f (s, ω)dWs = f (s, ω)I [u,t] (s)dWs .
u 0
© ª
(d) El proceso estocástico I t ( f ) t∈J T es continuo (pág. 3).

(e) El proceso estocástico {I t ( f )}t∈J T , es progresivamente medible respec-


to a la filtración {Ft }t∈J T , (Definición 4.2.7., pág. 26). En particu-
lar, {I t ( f )}t∈J T es medible y adaptado a {Ft }t∈J T , (Proposición 4.2.9.,
pág. 27).

(f ) Para todo n ∈ N+ y todo M > 0 se tiene


( ¯Zt ¯ ) ½ZT ¾
¯ ¯ 2 n
P sup ¯¯ f (s, ω)dWs ¯¯ > M 6 P f (s, ω)d s > n + 2 .
t∈J T 0 0 M

En particular,
½ZT ¾
©¯ ¯ ª n
P ¯I T ( f )¯ > M 6 P f 2 (t , ω)d t > n + 2 ,
0 M

(g) Se verifica que


"µZ ¶2 # µZ T ¶
T
2
E f (s, ω)dWs =E f (s, ω)d s .
0 0

© ª
(h) I t ( f ) t∈J T es una martingala local respecto a {Ft }t∈J T y a P , (Definición
4.5.14., pág. 73).
Teorema 4.7.12. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , (0 <
T < +∞), una filtración del espacio medible (Ω, F ), W f = {Wt }t∈J un pro-
T
ceso de Wiener, en el espacio de probabilidad (Ω, F , P ), respecto a {Ft }t∈J T
y a P . Sea f : J T × Ω → R una función de clase P T respecto a {Ft }t∈J T y a P , y
supongamos que el proceso estocástico f es continuo (pág. 3). Entonces,
Xn Zt
¡ ¢
lı́m f (ti , ω) Wti +1 (ω) − Wti = f (s, ω)dWs en probabilidad,
δ(Π)→0 i =0 0
110 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde Π = {t0 = 0, t1 , ..., tn = T } es una partición de J T y δ(Π) es el diámetro


de Π.
Integrales estocásticas de procesos con dominio del parámetro J ∞

Vamos a construir la integral estocástica de cierto tipo de procesos esto-


cásticos reales con dominio del parámetro J ∞ .
Definición 4.7.13. Sean (Ω, F , P ) un espacio de probabilidad y f : J ∞ ×Ω →
R una función no anticipativa respecto a una filtración {Ft }t∈J ∞ del espacio
medible (Ω, F ), (Definición 4.7.1., pág. 96).
(1). Se dice que f es de clase E ∞ respecto a {Ft }t∈J T y a P si
µZ ∞ ¶
2
E f (t , ω) d t < +∞.
0

(2). Se dice que f es de clase P ∞ respecto a {Ft }t∈J T y a P si


µ½ Z∞ ¾¶
2
P ω∈Ω: f (t , ω) d t < +∞ = 1.
0

Es claro que toda función de clase E ∞ respecto a {Ft }t∈J T y a P es de


clase P ∞ respecto a {Ft }t∈J T y a P .
Definición 4.7.14. Sean (Ω, F , P ) un espacio de probabilidad, e = e(t , ω),
t ∈ J ∞ , ω ∈ Ω, una función y {Ft }t∈J ∞ una filtración de (Ω, F ). Supongamos
que e es de clase E ∞ respecto a P . Se dice que e es simple respecto a {Ft }t∈J ∞
y a P si existe una sucesión estrictamente creciente y no acotada {tn }n∈N , con
t0 = 0, en J ∞ y existe una sucesión de variables aleatorias, {αn }n∈N , tal que
αn es Ftn -medible para todo n ∈ N, y
X
e(t , ω) = αi (ω)I [ti ,ti +1 ) (t ).
n∈N

Proposición 4.7.15. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞


una filtración de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P )

respecto a {Ft }t∈J ∞ y a P , y sea e : J ∞ × Ω → R una función simple respecto a
{Ft }t∈J ∞ y a P . Entonces, la serie
X ¡ ¢
αn Wtn+1 − Wtn
n∈N
4.7. INTEGRALES ESTOCÁSTICAS 111

converge en el espacio
R∞ de Hilbert L 2 (Ω, F , P ) a un elemento que se designa
por I ∞ (e) o por 0 e(t , ω)dWt .

Lema 4.7.16. Sean (Ω, F , P ) un espacio de probabilidad y f : J ∞ × Ω → R


una función de clase E ∞ respecto a una filtración {Ft }©t∈J ∞ª , de (Ω, F ), y a
P . Entonces, existe una sucesión de funciones simples f n n∈N+ respecto a
{Ft }t∈J ∞ y a P tal que
½ µZ∞ ¶¾
2
lı́m E [ f (t , ω) − f n (t , ω)] d t = 0. (∗)
n→+∞ 0

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración de


(Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto a {Ft }t∈J
∞ ∞
y a P.
Sea f (t , ω), t ∈ J ∞ , ω ∈ Ω, una función de clase E ∞ respecto a {Ft }t∈J ∞ y a P ,
(pág. 110).© Entonces,
ª por el lema anterior existe una sucesión de funciones
simples f n n∈N+ respecto a {Ft }t∈J ∞ y a P que ©cumpleª(∗). Se comprueba,
(véanse las páginas 100 y 101), que la sucesión I ∞ ( f n ) n∈N+ , (Proposición
4.7.15.), converge en media de orden 2 a un elemento del espacio de Hil-
bert L 2 (Ω, F , P ), (V. 2, pág. 271),Rque no depende de la sucesión elegida y

que se designa por I ∞ ( f ) (o por 0 f (s, ω)dWs ), es decir,
Z∞
¡ ¢
I ∞ ( f ) = = l .i .m n I ∞ ( f n ) = f (s, ω)dWs .
0

Finalmente, para todo s, t ∈ J ∞ con s 6 t de define


µZ t ¶ Z∞
f (u, ω)dWu = ( f I [s,t] )(u, ω)dWu .
s 0

Propiedades de las integrales estocásticas de funciones de clase E ∞

Sean (Ω, F , P ) un espacio de probabilidad y f , f 1, f 2 : J ∞ × Ω → R funcio-


nes de clase E ∞ respecto a una filtración {Ft }t∈J ∞ , del espacio medible
(Ω, F ), y a P . Sea Wf = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto

a {Ft }t∈J ∞ y a P . Entonces,

(1). Si a1 , a2 son constantes, a1 f 1 +b 2 f 2 es de clase E ∞ respecto a {Ft }t∈J ∞


y a P , y I ∞ (a1 f 1 + a2 f 2 ) = a1 I ∞ ( f 1 ) + a2 I ∞ ( f 2 ).
112 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

¡R∞ ¢
(2). E 0 f (s, ω)dWs = 0.
³£R ¤2 ´ R∞ ¡ ¢
∞ 2
(3). E 0 f (s, ω)dWs = 0 E f (t , ω) dt.
¡¡R∞ ¢ ¡R∞ ¢¢ R∞
(4). E 0 f 1 (s, ω)dWs 0 f 2 (s, ω)dWs = 0 E ( f 1 (t , ω) f 2 (t , ω))d t .
Ru Rt
(5). Para
Ru todo s, t , u ∈ J ∞ , con s 6 t 6 u, s f (s, ω)dWs = s f (s, ω)dWs +
t f (s, ω)dW s .
© ª
(5). El proceso estocástico real I t ( f ) t∈J ∞ es una martingala continua res-
pecto a {Ft }t∈J ∞ y a P .

(Obsérvese que las propiedades (1), (2), (3) y (4) son válidas sustituyendo
∞ por cualquier t de J ∞ ).
R∞
A continuación se construye la integral estocástica 0 f (s, ω)dWs para
funciones f de clase P ∞ .

Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J ∞ filtración de (Ω, F ),


f = {Wt }t∈J proceso estocástico de Wiener respecto a {Ft }t∈J y a P . Sea
W ∞ ∞
f (t , ω), t ∈ J ∞ , ω ∈ Ω una función de clase P ∞ respecto a {Ft }t∈J ∞ y a P .
Es claro que f es de clase P T respecto a {Ft }t∈J ∞ y a P para todo T con 0 <
T < +∞. Para cada n ∈ N+ se considera la aplicación τn : Ω → R definida
por
½ ZT ¾
2
τn (ω) = ı́nf T > 0 : f (t , ω) d t > n ,
0

(véase el Lema 4.7.10., pág. 105). Entonces, τn es tiempo de Markov res-


pecto a {Ft }t∈J ∞ y f · I {t 6τn } es una función de clase E ∞ respecto a {Ft }t∈J ∞
y a P . Así, se tiene la integral estocástica
µZ τ n ¶ Z∞
f (t , ω)dWt = ( f · I {t 6τn } )(t , ω)dWt .
0 0
©Rτ ª
Se prueba que 0 n f (t , ω)dWt n∈N+ es una sucesión fundamental en pro-
babilidad de variables aleatorias en (Ω, F , P ), (Definición 3.9.2., (V. 2, pág.
265), y por el Teorema 3.9.11, (V. 2, pág. 269), converge en probabilidad a
4.7. INTEGRALES ESTOCÁSTICAS 113

R∞
una variable aleatoria en (Ω, F , P ) que se designa por 0 f (t , ω) (o I ∞ ( f )),
es decir, con notación de V. 2
Z τn Z∞
P
f (t , ω) → f (s, ω)dWs .
0 0

Por último, para todo s, t ∈ J ∞ con s 6 t de define


µZ t ¶ Z∞
f (u, ω)dWu = ( f I [s,t] )(u, ω)dWu .
s 0

Propiedades de la integral estocástica de funciones de clase P ∞

Sean (Ω, F , P ) un espacio de probabilidad y f , f 1, f 2 : J ∞ × Ω → R funcio-


nes de clase P ∞ respecto a una filtración {Ft }t∈J ∞ , del espacio medible
(Ω, F ), y a P . Sea Wf = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto

a {Ft }t∈J ∞ y a P . Entonces,

(1). Si a1 , a2 son constantes, a1 f 1 +b 2 f 2 es de clase P ∞ respecto a {Ft }t∈J ∞


y a P , y I ∞ (a1 f 1 + a2 f 2 ) = a1 I ∞ ( f 1 ) + a2 I ∞ ( f 2 ).
Ru Rt
(2). Para
Ru todo s, t , u ∈ J ∞ , con s 6 t 6 u, s f (s, ω)dWs = s f (s, ω)dWs +
t f (s, ω)dW s .
© ª
(3). El proceso estocástico real I t ( f ) t∈J ∞ está adaptado a la filtración
{Ft }t∈J ∞ y es continuo. Por tanto, por la Proposición 4.2.12., (pág.
28) tiene una modificación progresivamente medible.
© ª
(4). El proceso estocástico real I t ( f ) t∈J ∞ es una martingala local respec-
to a la filtración {Ft }t∈J ∞ y a P , (Definición 4.5.14., pág. 73).

(5). Para todo t ∈ J ∞ con 0 < t , se verifica que


n
X Zt
¡ ¢
lı́m f (ti , ω) Wti +1 (ω) − Wti = f (s, ω)dWs en probabilidad,
δ(Π)→0 i =0 0

donde Π = {t0 = 0, t1 , ..., tn = t } es una partición de [0, t ] y δ(Π) es el


diámetro de Π.
114 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Para un tipo de funciones, f (t , ω) sobre J ∞ ×R, más general que las de clase
E ∞ y de clase P ∞ se pueden construir, a través de integrales estocásticas,
procesos
R∞ estocástico con dominio del parámetro J ∞ , sin que exista la inte-
gral 0 f (t , ω)dWt .
Definición 4.7.17. Sean (Ω, F , P ) un espacio de probabilidad y f : J ∞ ×Ω →
R una función no anticipativa respecto a una filtración {Ft }t∈J ∞ del espacio
medible (Ω, F ), (Definición 4.7.1., pág. 96).
(1) Se dice que f es de clase E J ∞ respecto a {Ft }t∈J ∞ y a P si para todo T ∈
(0, +∞) se verifica que
µZT ¶
2
E f (t , ω) d t < +∞,
0

es decir, f | J T ×Ω es de clase E T respecto a {Ft }t∈J T y a P , (Definición


4.7.3., pág. 97).

(2) Se dice que f es de clase P J ∞ respecto a {Ft }t∈J ∞ y a P si


µ½ ZT ¾¶
2
P ω∈Ω: f (t , ω) d t < +∞ = 1, para todo T ∈ (0, +∞).
0

Es claro que toda función de clase E J ∞ respecto a {Ft }t∈J ∞ y a P es de


clase P J ∞ respecto a {Ft }t∈J ∞ y a P , (pág. 97); toda función de clase E ∞
respecto a {Ft }t∈J ∞ y a P es de clase E J ∞ respecto a {Ft }t∈J ∞ y a P ; y toda
función de clase P ∞ respecto a P es de clase P J ∞ respecto a {Ft }t∈J ∞ y a P .

La integral estocástica de funciones de clase E J ∞ respecto a {Ft }t∈J ∞ y a P


se define mediante la técnica de localización que se detalla en la proposi-
ción que sigue.
Proposición 4.7.18. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞
una filtración del espacio medible (Ω, F ), W f = {Wt }t∈J ∞ un proceso de Wie-
ner en (Ω, F , P ) respecto a {Ft }t∈J ∞ y a P , y f : J ∞ × Ω → R una función de
clase E J ∞ respecto a {Ft }t∈J ∞ y a P . Entonces,
(a) Para todo T ∈ (0, +∞), como f | J T ×Ω es de clase E T respecto a E J ∞ y a P , se
tiene la integral estocástica {I t ( f | J T ×Ω )}t∈[0,T ] de esta función respecto
aWf, (páginas 101 y 102).
4.7. INTEGRALES ESTOCÁSTICAS 115

(b) Para todo T ∈ J ∞ , se verifica que


¡© ª¢
P ω ∈ Ω : I t ( f | J T ×Ω )(ω) = I t ( f | J T ×Ω )(ω), 0 6 t 6 S 6 T = 1,

(es claro que el resultado es cierto para funciones no anticipativas


simples y el caso general se obtiene observando que se puede consi-
derar la misma sucesión de funciones simples para definir ambas in-
tegrales).

(c) Se tiene el proceso estocástico real continuo y progresivamente medible


respecto a {Ft }t∈J ∞ , definido por (I t ( f ) =)I t ( f | J T ×Ω ), donde
Rt t 6 T , t ∈
J ∞ , T ∈ (0, +∞). Se adopta también la notación I t ( f ) = 0 f (s, ω)dWs .
Al proceso estocástico real construido, {I t ( f )}t∈J ∞ , se le llama integral
estocástica (de Itô) de f respecto al proceso de Wiener W f.

Propiedades de la integral estocástica de funciones de clase E J ∞

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración del es-
pacio medible (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P )

respecto a {Ft }t∈J ∞ y a P .
Sean f , f 1 , f 2 : J ∞ × Ω → R funciones de clase E J ∞ respecto a {Ft }t∈J ∞ y a P .
Entonces,

(1) Si a y b son constantes, a f 1 + b f 2 es de clase E J ∞ respecto a {Ft }t∈J ∞ y


a P , y I t (a f 1 + b f 2 ) = aI t ( f 1 ) + bI t ( f 2 ), t ∈ J ∞ .

(2) {I t ( f )}t∈J ∞ es una martingala en (Ω, F , P ) respecto a {Ft }t∈J ∞ y a P .

(3) Se verifica que


õZ ¶2 ! µZt ¶
t
2
E f (s, ω)dWs =E f (s, ω) d s , t ∈ J ∞ .
0 0

(4) Si τ : Ω → [0, +∞] es un tiempo de Markov respecto a {Ft }t∈J ∞ tal que
f 1 (t , ω) = f 2 (t , ω) para todo (t , ω) ∈ J ∞ × Ω con t 6 τ(ω), se verifica
µ½ Zt Zt ¾¶
P ω∈Ω: f 1 (s, ω)dWs = f 2 (s, ω)dWs , t 6 τ(ω) = 1.
0 0
116 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

La integral estocástica de una función de clase P J ∞ se construye por la de-


nominada técnica de la sucesión de localización.
Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración del es-
pacio medible (Ω, F ) y τ : Ω → [0, +∞] un tiempo de Markov respecto a
{Ft }t∈J ∞ . Se considera ([0, τ] =){(t , ω) ∈ J ∞ × Ω : t 6 τ(ω)} = {t 6 τ}. Enton-
ces, [0, τ] es un subconjunto de J ∞ × Ω que es (B(J ∞ ) ⊗ F )-medible y la
función I [0,τ] es no anticipativa respecto a {Ft }t∈J ∞ .
Es claro que si σ : Ω → [0, +∞] es otro tiempo de Markov respecto a {Ft }t∈J ∞
con τ 6 σ, se tiene que [0, τ] ∩ [0, σ] = [0, τ] y I [0,τ] · I [0,σ] = I [0,τ] .

Definición 4.7.19. Sean (Ω, F , P ) un espacio de probabilidad y f : J ∞ ×Ω →


R una función no anticipativa respecto a la filtración {Ft }t∈J ∞ del espacio
medible (Ω, F ). Para cada n ∈ N+ sea τn : Ω → [0, +∞] un tiempo de Markov
respecto a {Ft }t∈J ∞ tal que:

(1) τn 6 τm para todo m, n ∈ N+ con n 6 m.

(2) P ({ω ∈ Ω : lı́mn→+∞ {τn (ω)} = +∞}) = 1

(3) La función no anticipativa f · I [0,τn ] es de clase E J ∞ respecto a {Ft }t∈J ∞


y a P para todo n ∈ N+ .

A la sucesión {τn }n∈N+ se le llama sucesión de localización para f .

Obsérvese que si {τn }n∈N+ y {σn }n∈N+ son sucesiones de localización


para f , entonces {τn ∧ σn }n∈N+ también es una sucesión de localización
para f , (véase (d) de la página 68).

Lema 4.7.20. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una fil-
tración del espacio medible (Ω, F ) y f : J ∞ × Ω → R una función no antici-
pativa respecto a {Ft }t∈J ∞ . Las siguientes afirmaciones son equivalentes:

(a) f es una función de clase P J ∞ respecto a {Ft }t∈J ∞ y a P .

(b) Para todo T ∈ (0, +∞), se verifica


µ½ ZT ¾¶
2
P ω∈Ω: f (t , ω) d t < +∞ = 1.
0

(c) Existe una sucesión de localización {τn }n∈N+ para f .


4.7. INTEGRALES ESTOCÁSTICAS 117

(La equivalencia entre (a) y (b) es consecuencia del Teorema 3.1.11.,


(V. 2, pág. 12). Para probar que (b) implica (c) basta tomar
Zt
τn (ω) = ı́nf{t ∈ J ∞ : f (s, ω)2 d s > n}, n ∈ N+ ,
0

(véase el Lema 4.7.10., (pág. 105), y téngase en cuenta que ı́nf(;) = +∞).

Proposición 4.7.21. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞


una filtración del espacio medible (Ω, F ), W f = {Wt }t∈J ∞ un proceso de Wie-
ner en (Ω, F , P ) respecto a {Ft }t∈J ∞ y a P , y f : J ∞ × Ω → R una función de
clase P J ∞ respecto a {Ft }t∈J ∞ y a P . Entonces,

(1) Si τ̃ = {τn }n∈N+ es una sucesión de localización para f , se verifica que


para todo m, n ∈ N+
¡© ª¢
P ω : (I t ( f · I [0,τn ] ))(ω) = (I t ( f · I [0,τm ] ))(ω), t 6 τm (ω) ∧ τn (ω) = 1,

(La existencia de τ̃ sigue del Lema 4.7.20.). Por tanto, como τn ր +∞,
n → +∞, ((1) y (2) de la Definición 4.7.19.), existe un subconjunto Ωτ̃
de Ω tal que P (Ωτ̃ ) = 1, lı́mn→+∞ {τn (ω)} = +∞ y
µZ t ¶ µZ t ¶
f · I [0,τn ] (s, ω̄)dWs (ω) = f · I [0,τm ] (s, ω̄)dWs (ω),
0 0

para todo ω ∈ Ωτ̃ y todo m, n ∈ N+ con t 6 τm (ω) ∧ τn (ω).

(2) Para todo t ∈ J ∞ se define


½
I t ( f · I [0,τn ] ), ω ∈ Ωτ̃ , t 6 τn (ω)
I t ( f )(ω) =
0, ω∈6 Ωτ̃ .

Se verifica que el proceso estocástico real construido, {I t ( f )}t∈J ∞ es


continuo y progresivamente medible respecto a {Ft }t∈J ∞ , (por tanto,
es medible y adaptado a dicha filtración).

(3) El proceso estocástico real {I t ( f )}t∈J ∞ construido en (1) y (2) no depende


de la sucesión de localización para f que se elija y se le llama Integral
estocástica (de Itô) de f respecto al proceso de Wiener f
Rt W . La variable
aleatoria I t ( f ), t ∈ J ∞ , se designará también por 0 f (s, ω)dWs .
118 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Propiedades de la integral estocástica de funciones de clase P J ∞

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración del es-
pacio medible (Ω, F ) y W f = {Wt }t∈J ∞ un proceso de Wiener en (Ω, F , P )
respecto a {Ft }t∈J ∞ y a P . Sean f , f 1 , f 2 : J ∞ × Ω → R funciones de clase P J ∞
respecto a {Ft }t∈J ∞ y a P . Entonces,

(1) Si a1 y a2 son constantes, a1 f 1 +a2 f 2 es de clase P J ∞ respecto a {Ft }t∈J ∞


y a P , y I t (a1 f 1 + a2 f 2 ) = a1 I t ( f 1 ) + a2 I t ( f 2 ), t ∈ J ∞ .

(2) El proceso estocástico real {I t ( f )}t∈J ∞ es progresivamente medible res-


pecto a {Ft }t∈J ∞ , (en particular, es medible y adaptado a la filtración
{Ft }t∈J ∞ ), y es una martingala local, (Definición 4.5.14., pág. 73).

Integrales estocásticas y tiempos de Markov

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración del es-
pacio medible (Ω, F ) y W f = {Wt }t∈J T un proceso de Wiener en el espacio
(Ω, F , P ) respecto a {Ft }t∈J T y a P . Sean f : J ∞ × Ω → R una función de cla-
se P J ∞ respecto a {Ft }t∈J ∞ y a P y τ : Ω → R un tiempo de Markov respecto
a {Ft }t∈J T , (pág. 65), tal que P (τ < +∞) = 1, (τ es tiempo de parada).
Consideramos la integral estocástica {I t ( f )}t∈J ∞ de f respecto al proceso
de Wiener W f . Como {I t ( f )}t∈J ∞ es un proceso estocástico real progresiva-
mente medible respecto a {Ft }t∈J T , por (h) de la página 69, se tiene que
I τ ( f ) : Ω → R, definida por
½
I τ(ω) ( f )(ω), si τ(ω) < +∞
I τ ( f )(ω) =
0, si τ(ω) = +∞,

(véase la página 69), es una variable


Rτ aleatoria que es Fτ -medible, (pág. 67).
Se adopta la notación I τ ( f ) = 0 f s dWs .
Se tienen las siguientes propiedades:

(1) I t∧τ ( f ) = I t ( f · I [0,T ] ), t ∈ J ∞ .



(2) I τ (I [0,τ] ) = 0 I [0,τ] (s, ω)dWs = W fτ , (P -a.s.).

(3) E (I τ ( f )) = 0.
4.7. INTEGRALES ESTOCÁSTICAS 119

(4) E ((I τ ( f )2 ) = E (I τ ( f 2 )).

(5) Sea {σn }n∈N+ una sucesión no decreciente de tiempos de Markov res-
pecto a {Ft }t∈J ∞ tal que para cada n ∈ N+
µZσn ¶
2
P f (s, ω)d s < +∞ = 1.
0

Entonces para cada A ∈ Fσ , (σ = lı́mn→+∞ {σn }) y m > 0, M > 0 se


tiene
½ µ ¯Zσ ¯ ¶¾
\ ¯ n ¯
P A sup ¯¯ ¯
f (s, ω)dWs ¯ > M 6
n 0
½ µZ ¶¾
m \ σ 2
6 2 +P A f (s, ω)d s > m .
M 0
© Rσ ª
En particular, si A = ω : 0 f 2 (s, ω)d s < +∞ , entonces,
½ µ ¯Zσ ¯ ¶¾
\ ¯ n ¯
P A ¯
sup ¯ ¯
f (s, ω)dWs ¯ = +∞ = 0.
n 0

De las propiedades anteriores se deduce el siguiente:

Lema 4.7.22 (Wald). Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞


una filtración del espacio medible (Ω, F ) y W f = {Wt }t∈J ∞ un proceso de Wie-
ner en (Ω, F , P ) respecto a {Ft }t∈J ∞ y a P , (pág. 83). Sea τ = τ(ω) un tiempo
de Markov respecto a {Ft }t∈J ∞ (65) tal que E¡ (τ) ¢< +∞. Entonces, W fτ es Fτ -
f f 2
medible ((h) de la página 69), E (Wτ ) = 0, E Wτ = E (τ).

Ejercicios y problemas
7.1. Sean (Ω, F , P ) un espacio de probabilidad y f (t , ω), t ∈ J T , 0 < T < +∞,
ω ∈ Ω, una función de clase P T respecto a {Ft }t∈J T y a P que es un proceso
estocástico continuo, (pág. 3). Probar que
ZT n−1
X £ ¤
f (s, ω)dWs = lı́m f (tk , ·) Wtk+1 − Wtk ,
0 máxh ∆tk →0 h=0

donde 0 = t0 < t1 < ... < tn = T , ∆tk = tk+1 − tk , (Teorema 4.7.12., pág. 109).
120 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

7.2. Probar los resultados del Ejemplo 1 de la página 102.


Indicación: ( f =)I [t1 ,t2 ] ◦ p 1 es función de clase E T respecto a {Ft }t∈J T y a P
y ( f n =)I (t1 −1/n,t2 ] ◦ p 1 es simple.
µZ T ¶
¡ ¢2
lı́m E f (t , ω) − f n (t , ω) d t = 0, y por tanto,
n→+∞ 0
I T ( f ) = l .i .m n→+∞ I T ( f n ) = Wt2 − Wt1 , (I T ( f n ) = Wt2 − Wt1 − 1 y
n
© ¡¡ ¢ ¡ ¢ 2 ¢ª
lı́m E | Wt2 − Wt1 −1/n − Wt2 − Wt1 | =
n→+∞
½ ¾
© ¡ 2
¢ª 1
= lı́m E |Wt1 − Wt1 −1/n | = lı́m = 0).
n→+∞ n→+∞ n

7.3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración del
espacio medible (Ω, F ), W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P )
T
respecto a {Ft }t∈J t y a P , (pág. 83) y f una función de clase E T respecto a
{Ft }t∈J ∞ y a P . Se consideran s, t ∈ J T con 0 6 s 6 t 6 T . Probar que:
·µZt ¶ ¸
E f (u, ω)dWu |Fs = 0, y
s
"µZ ¶2 # Z
t t ¡ ¢
E f (u, ω)dWu |Fs = E f u2 |Fs d u.
s s

4.8. Procesos estocásticos de Itô


Procesos de Itô unidimensionales
Definición 4.8.1. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , (0 <
T < +∞), una filtración del espacio medible (Ω, F ) y W f = }Wt }t∈J un pro-
T
ceso de Wiener en (Ω, F , P ) respecto a {Ft }t∈J T y a P . Sea ξ̃ = {ξt }t∈J T un pro-
ceso estocástico adaptado a {Ft }t∈J T y continuo (pág. 3) (por tanto, podemos
suponer que ξ̃ es progresivamente medible, ya que existe un proceso estocás-
tico indistinguible del dado que es progresivamente medible, (Proposición
4.2.12., pág. 28)). Se dice que ξ̃ es un proceso de Itô respecto al proceso de
Wiener W f , si existen {a t }t∈J y {b t }t∈J funciones no anticipativas (pág. 96)
T T
respecto a {Ft }t∈J T tales que
½ZT ¾ ½ZT ¾
2
P |a t |d t < +∞ = 1, P b t d t < +∞ = 1
0 0
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 121

(por tanto, b(t , ω) es de clase P T respecto a {Ft }t∈J TRy a P (Definición 4.7.2.,
t
pág. 97) y se tiene definida la integral estocástica 0 b(s, ω)dWs respecto al
proceso de Wiener W f (páginas 105, 106 y 107)),y con probabilidad 1, para
todo t ∈ J T ,
Zt µZt ¶
ξt (ω̄) = ξ0 (ω̄) + a(s, ω̄)d s + b(s, ω)dWs (ω̄), ω̄ ∈ Ω.
0 0
(a(s, ω) = a s (ω) y b(s, ω) = b s (ω)). La igualdad anterior la escribiremos tam-
bién: Z Z
t t
ξt = ξ0 + as d s + b s dWs (∗).
0 0
o de forma más abreviada,
d ξt = a t d t + b t dWt , con condición inicial ξ0 , (∗∗).
Podemos resumir la definición anterior diciendo que ξ̃ = {ξt }t∈J T tiene
diferencial estocástica d ξt = a t d t + b t dWt , con condición inicial ξ0 .

Supongamos que estamos en las condiciones de la definición anterior,


es decir, ξ̃ = {ξt }t∈J T tiene diferencial estocástica d ξt = a t d t + b t dWt , con
condición inicial ξ0 . Sea f (t , ω), t ∈ J T , ω ∈ Ω, una función no anticipativa
respecto a {Ft }t∈J T . Se define la integral estocástica
Zt
f (s, ω)d ξs
0
de la siguiente forma:
Zt Zt Zt
f (s, ω)d ξs = f (s, ω)a(s, ω)d s + f (s, ω)b(s, ω)dWs , t ∈ J T ,
0 0 0
siempre que las dos últimas integrales existan, para lo cual es suficiente
que
½Z T ¾ ½ZT ¾
¯ ¯ 2 2
P ¯ ¯
f (s, ω)a(s, ω) d s < +∞ = 1, P f (s, ω)b (s, ω)d s < +∞ = 1,
0 0
(con lo cual f · b es de clase P T respecto a {Ft }t∈J T y a P , y existe la integral
estocástica de f · b respecto a W f ).

Observación 1. Sean (Ω, F , P ) un espacio de probabilidad y {Ft }t∈J T una


filtración del espacio medible (Ω, F ).
122 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) Sea ξ̃ = {ξt }t∈J T una martingala continua, (páginas 58 y 3), en (Ω, F , P )
respecto a {Ft }t∈J T y a P tal que existe {a t }t∈J T , proceso estocástico
RT
adaptado a {Ft }t∈J T cumpliendo que 0 |a s |d s < +∞, (P -a.s.), y (P -
Rt
a.s.) para todo t ∈ J T , ξt = 0 a s d s. Entonces (P -a.s.), para todo t ∈ J T ,
ξt = 0.

(b) Sea además W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto


T
a {Ft }t∈J T y a P . Entonces,

(b1). Sea ξ̃ = {ξt }t∈J T , un proceso de Itô con diferencial estocásti-


ca d ξt = a t d t + b t dWt , con condición inicial ξ0 . Por tanto, con
probabilidad 1, para todo t ∈ J T ,
Zt Zt
ξt = ξ0 + as d s + b s dWs .
0 0

Si hay otra descripción de d ξt mediante a s′ , b s′ (cumpliendo lo


mismo que a s y b s ), entonces a s = a s′ , ((λ×P )-a.s.), b s = b s′ , ((λ×
P )-a.s.).
(b2). Si ξ̃ = {ξt }t∈J T es una martingala continua, (páginas 58 y 3), en
(Ω, F , P ) respecto a {Ft }t∈J T y a P tal que ξ̃ tiene diferencial es-
tocástica d ξt = a t d t +b t dWt con condición inicial ξ0 , entonces
a s = 0, ((λ × P )-a.s.).

Procesos estocásticos de difusión

Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración de (Ω, F ), W f=


{Wt }t∈J T proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P , y ξ̃ =
{ξt }t∈J T un proceso estocástico adaptado a {Ft }t∈J T y continuo. Suponga-
mos que ξ̃ es un proceso de Itô respecto a W f con diferencial estocástica
d ξt = a t d t + b t dWt , con condición inicial ξ0 . Se dice que ξ̃ es un proceso
estocástico de difusión respecto a W f, si a(s, ω), b(s, ω) son Fsξ̃ -medibles pa-
ra
n casio todo s ∈ J T (es decir, (λ-a.s.) (λ medida de Lebesgue)), donde por
ξ̃
Ft designamos la filtración en (Ω, F ) generada por ξ̃, (pág. 23).
t∈J T
f es un proceso de difusión respecto a W
Obsérvese que W f, ya que W
f es un
proceso estocástico de Itô con a(t , ω) = 0 y b(t , ω) = 1.
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 123

Sean C T el espacio de las funciones x continuas de J T con valores en


R y BT la σ-álgebra, en C T , mínima tal que las funciones x 7→ x(t ), t ∈ J T ,
son medibles. De otra forma,¡ BT es la mínima ¢ σ-álgebra en C T que hace
medibles las proyecciones: σ C T : p t , t ∈ J T . Se observa que si T = 1, C 1 es
el conjunto que en la página 16 se ha designado por C y B1 es la σ-álgebra
que en la página 17 se ha designado por B(C ).
Para todo t ∈ J T , sea Bt la σ-álgebra, en C T , mínima tal que las funciones
x 7→ x(s), 0 6 s 6 t , son medibles. Es decir, Bt es la¡ mínima σ-álgebra ¢ en
C T que hace medibles las proyecciones p s , s 6 t : σ C T : p s , s ∈ [0, t ] .
Sea, por último, B J t la σ-álgebra, en J T , mínima que contiene a los con-
juntos de Borel de [0, t ]. Es decir, (V. 2, pág. 15),

B J t = σ J T (B([0, t ])) = σ J T {B ∈ B(R) : B ⊂ [0, t ]} =


= {B ∪ (J T r A) : B, A ∈ B(R), B ⊂ [0, t ], A ⊂ [0, t ]}.

Lema 4.8.2. Con las notaciones anteriores, sean (Ω, F , P ) un espacio de


probabilidad (completo) y ξ̃ = {ξt }t∈J T un proceso estocástico continuo (por
la Proposición 4.2.3., (pág. 22), ξ̃ tiene una modificación medible). Sea ζ̃ =
{ζ } T un proceso estocástico medible (pág. 21) y adaptado a la filtración
n t t∈Jo
ξ̃
Ft en (Ω, F ) generada por ξ̃, (pág. 23). Entonces, existe una aplica-
t∈J T
ción
ϕ : J T ×C T → R, (t , x) 7→ ϕ(t , x),
N
(B J T BT )|B(R)-medible (B J T = B(J T )) tal que ϕt , t ∈ J T , es Bt + -medible
T
(Bt + = s>t Bs . Por convenio BT + = BT ) y
n o
(λ × P ) (t , ω) : ζt (ω) 6= ϕ(t , X ξ̃ (ω)) = 0,

(pág. 4), donde λ es la medida de Lebesgue de J T y λ×P es el producto directo


de las medidas λ y P , (Teorema 3.4.32., (V. 2, pág. 194)).

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración del


espacio medible (Ω, F ), W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P )
T
respecto a {Ft }t∈J T y a P , y ξ̃ = {ξt }t∈J T un proceso de difusión respecto a
f (por tanto, ξ̃ es un proceso de Itô respecto a W
W f y tenemos la ecuación
diferencial estocástica d ξt = a t d t + b t dWt , con condición inicial ξ0 o bien
124 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

con probabilidad 1, para todo t ∈ J T


Zt Zt
ξt = ξ0 + as d s + b s dWs ).
0 0

Por el lema anterior, existen A(t , x), B(t , x) funciones de J T ×C T con valores
en R, (B J T ⊗ BT )|B(R)-medibles, tales que A(t , ·), B(t , ·), t ∈ J T , son Bt + -
medibles y

a(t , ω) = A(t , X ξ̃ (ω)), b(t , ω) = B(t , X ξ̃ (ω)), ((λ × P ) − a.s.)

o bien, para casi todo s, s ∈ J T ,

a(s, ω) = A(s, X ξ̃ (ω)), b(s, ω) = B(s, X ξ̃ (ω)), (P − a.s).

Luego para el proceso de difusión dado ξ̃ = {ξt }t∈J T , tenemos


Zt Zt
ξt = ξ0 + as d s + b s dWs , (P − a.s.), t ∈ J T , y
0 0
Zt µZ t ¶
ξt (ω) = ξ0 (ω)+ A(s, X ξ̃ (ω))d s+ B(s, X ξ̃ (ω̄))dWs (ω), (P −a.s.), t ∈ J T .
0 0

Procesos de Itô k-dimensionales

Se necesita manejar, también, los procesos de Itô respecto a procesos es-


tocásticos de Wiener k-dimensionales.

Definición 4.8.3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una


gi = ©W i ª
filtración de este espacio y W un proceso estocástico de Wiener
t t∈J T
respecto a {Ft }t∈J T y a P , i = 1, 2, ..., k (pág. 83). Supongamos que Wt1 ,...,Wtk
son independientes
¡ ¢ para todo t ∈ J T , (V. 2, pág. 159). Ponemos la notación
Wt = Wt1 , ...,Wtk , t ∈ J T , y W
f = {Wt }t∈J .
T
En estas condiciones se dice que W f es un proceso estocástico de Wiener k-
dimensional respecto a {Ft }t∈J T y a P .

Sean ξ̃ = {ξt }t∈J T un proceso estocástico real, adaptado a la filtración


{Ft }t∈J T y continuo (pág. 3) (por tanto, progresivamente medible, (pág. 120)),
a(t , ω) una función de J T × Ω en R y b(t , ω) = (b 1 (t , ω), ..., b k (t , ω)), donde
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 125

b i (t , ω) es una función de J T × Ω en R, i = 1, ..., k. Supongamos que a(t , ω),


b i (t , ω) son funciones no anticipativas respecto a {Ft }t∈J T , (i = 1, ..., k), y
µZT ¶ µZT ¶
2
P |a(t , ω)|d t < +∞ = 1, P b i (t , ω)d t < +∞ = 1, i = 1, ..., k,
0 0

(por tanto, b i es de clase P T respecto a {Ft }t∈J T y a P , y se tiene la integral


estocástica de b i respecto al proceso de Wiener W gi ), y con probabilidad 1,
para todo t ∈ J T
Zt k Zt
X
ξt = ξ0 + as d s + (b i )s dWsi (∗).
0 i =1 0

En estas condiciones se dice que ξ̃ es un proceso de Itô respecto al proceso de


Wiener k-dimensional W f.
La igualdad estocástica (∗), a veces, la escribiremos brevemente así:
k
X
d ξt = a t d t + (b i )t dWti con condición inicial ξ0 (∗∗)
i =1

o bien d ξt = a t d t + b t dWt∗ con condición inicial ξ0 , donde


 
dWt1
 . 
dWt∗ =  ..  .
dWtk

La definición anterior se resume diciendo: {ξt }t∈J T , tiene diferencial es-


tocástica (∗∗).

Observación 2. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una


filtración del espacio medible (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener
T
respecto a {Ft }t∈J T y a P , (pág. 83). Entonces
µZ t ¶
2
E Ws d s < +∞, t ∈ J T ,
0

© 2 ª esta afirmación basta aplicar el Teorema 4.2.4. (Fubini),


(para justificar
pág. 22, a Wt t∈J T y a S = [0, t ], entonces teniendo en cuenta la igualdad
¡ ¢
E Wt2 = t , se obtiene que:
126 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

µZ t ¶ Zt Zt
¡ ¢ t2
E Ws2 d s = E Ws2 d s = sd s = < +∞),
0 0 0 2
y en particular
µZ T ¶
E Ws2 d s < +∞
0

y Wt es de clase
Rt E T respecto a {Ft }t∈J T y a P (pág. 97), y tenemos la integral
estocástica 0 Ws dWs , t ∈ J T , que es una martingala respecto a {Ft }t∈J T y a
P (propiedades (4), (7) y (8) de la página 103).
Nos preguntamos si es cierta la fórmula
Zt
Wt2 = 2 Ws dWs ,
0
Rt
(como en el cálculo diferencial ordinario: f (0) = 0, f (t )2 =R2 0 f (x) f ′ (x)d x).
t
Supongamos que fuera cierta.
¡Rt En este¢ caso la martingala 0 Ws dWs , t ∈ J T ,
es nula en 0 y positiva (E 0 Ws dWs = 0). Luego la martingala es nula y
elRproceso de Wiener es nulo, lo cual es absurdo. Luego la igualdad Wt2 =
t
Rt s no es cierta. En el Ejemplo 5. de la página 143, se ha estableci-
2 0 Ws dW
do que 0 Ws dWs = 1/2(Wt2 − t ).

Procesos de Itô multidimensionales

Definición 4.8.4. Sean (Ω, F , P ) un espacio© de probabilidad,


¡ ¢ª{Ft }t∈J T una
filtración del espacio medible (Ω, F ) y W f = Wt = W 1 , ...,W k
t t t∈J T un pro-
ceso estocástico de Wiener k-dimensional respecto a {Ft }t∈J T y a P , (pág.
124; por tanto, W gi = ©W i ª
t t∈J T es un proceso©
estocástico de Wiener respec-
ª
to a {Ft }t∈J T y a P , i = 1, ..., k). Sea ξ̃ = ξt = (ξ1t , ..., ξm
t ) t∈J T , donde pa-
© ª
ra i = 1, ..., m, ξei = ξi es un proceso estocástico real adaptado a la
t t∈J T
filtración {Ft }t∈J T , y continuo (por tanto, progresivamente ¡ medible
¢ (pág.
120)). Sean a(t , ω) = (a1 (t , ω), ..., am (t , ω)) y b(t , ω) = b i j (t , ω) una matriz
m × k tales que ai (t , ω), b i j (t , ω) son funciones no anticipativas respecto a
{Ft }t∈J T , definidas en J T × Ω y con valores en R, y
µZ T ¶ µZ T ¶
P |ai (t , ω)| d t < +∞ = 1, P b i2j (t , ω)d t < +∞ = 1,
0 0
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 127

i = 1, ..., m, j = 1, ..., k, (por tanto, b i j es de clase P T respecto a {Ft }t∈J T y a


P , y está definida la integral estocástica de b i j respecto al proceso de Wiener
gj ), y con probabilidad 1, para todo t ∈ J ,
W T
Zt k Zt
X j
ξit = ξi0 + (ai )s d s + (b i j )s dWs , i = 1, ..., m (∗).
0 j =1 0

En estas condiciones se dice que ξ̃ es un proceso de Itô, m-dimensional, res-


pecto al proceso de Wiener k-dimensional W f.

La igualdad (∗) de la definición anterior, a veces, la escribiremos bre-


vemente así:
k
X j
d ξit = (ai )t d t + (b i j )t dWt , con condición inicial ξi0 , i = 1, ..., m, (∗∗),
j =1

(b i j )t (ω) = b i j (t , ω), (ai )t (ω) = ai (t , ω),

o bien, en forma matricial,


 
ξ10
 .. 
d ξ⋆ ⋆ ⋆
t = a t d t + b t dW t , con condición inicial  .  ,
ξm0

donde
     
d ξ1t (a1 )t dWt1
 ..  ⋆  ..   . 
d ξ⋆  y dWt =  ..  .

t = .  , at =  .
d ξm
t (am )t dWtk

Si queremos
© ¡ 1 resumir ¢ª la definición anterior diremos que:
m
ξ̃ = ξt = ξt , ..., ξt t∈J T tiene diferencial estocástica (∗∗).

A continuación se dan condiciones para que un proceso estocástico


del tipo f (t , ξt ), ξ̃ = {ξt }t∈J T , f (t , x), (t , x) ∈ J T × R, admita una diferencial
estocástica y se establece una fórmula que permite calcular la diferencial
estocástica de esa función compuesta. La fórmula fue obtenida por K. Itô
y se llama fórmula de Itô.
128 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Fórmula de Itô
Teorema 4.8.5. Sean (Ω, F , P ) un espacio de probabilidad, T ∈ R con 0 <
f = {Wt }t∈J un proceso de Wiener
T , {Ft }t∈J T una filtración de (Ω, F ) y W T
respecto a {Ft {t∈J T y a P , (pág. 83). Sea ξ̃ = {ξt }t∈J T un proceso estocástico
real, adaptado a {Ft }t∈J T y continuo (por tanto, progresivamente medible
(pág. 120)), que tiene diferencial estocástica

d ξt = a t d t + b t dWt , con condición inicial ξ0 ,


µZT ¶ µZT ¶
2
(P |a t |d t < +∞ = 1, P b (t , ω)d t < +∞ = 1).
0 0

Sea f (t , x) una función definida en J T × R y con valores en R. Supongamos


que f (t , x) es continua (de hecho se deduce de las demás condiciones) y tiene
′ ′ ′′
derivadas parciales
© ªf t (t , x), f x (t , x), f xx (t , x) continuas. Entonces el proceso
estocástico f (t , ξt ) t∈J T cumple que:
Con probabilidad 1, para todo s ∈ J T ,
Zs · ¸
′ ′ 1 ′′ 2
f (s, ξs ) = f (0, ξ0 ) + f t (t , ξt ) + f x (t , ξt )a t + f xx (t , ξt )b t d t +
0 2
Zs
+ f x′ (t , ξt )b t dWt ,
0
© ª
f.
y por consiguiente, f (t , ξt ) t∈J T es un proceso de Itô respecto a W
La igualdad establecida en el teorema anterior, conocida como fórmula de
Itô, se puede escribir también de la siguiente forma:
· ¸
′ ′ 1 ′′ 2
d f (t , ξt ) = f t (t , ξt ) + f x (t , ξt )a t + f xx (t , ξt )b t d t +
2

+ f x (t , ξt )b t dWt = ā t d t + b̄ t dWt , con condición inicial f (0, ξ0 ),
µZT ¶ µZT ¶
2
P |ā t |d t < +∞ = 1, P b̄ t d t < +∞ = 1.
0 0

Versión multidimensional de la fórmula de Itô


Teorema 4.8.6. Sean (Ω, F , P ) un espacio©de probabilidad,
¡ ¢ª t }t∈J T una fil-
{F
f = Wt = W 1 , ...,W k
tración del espacio medible (Ω, F ) y W t t t∈J T un proce-
so de Wiener k-dimensional, en (Ω, F , P ), respecto a la filtración {Ft }t∈J T y
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 129

gi = ©W i ª
a P , (pág. 124; por tanto, W t t∈J T , i = 1, 2, ..., k, es un proceso de Wie-
© ª © ª
ner respecto a {Ft }t∈J y a P ). Sea ξe = (ξ1 , ..., ξm )
T
, donde ξei = ξi
t t t∈J T t t∈J T
es un proceso estocástico real, adaptado a {Ft }t∈J T , y continuo, (por tanto,
progresivamente medible, (pág. 120)), i = 1, 2, ..., m. Supongamos que ξei tie-
ne diferencial estocástica

k
X j
d ξit = (ai )t d t + (b i j )t dWt , con condición inicial ξi0 , i = 1, ..., m.
j =1

Sea f (t , x1 , ..., xm ) una función definida en J T × Rm y con valores en R. Su-


pongamos que f (t , x1 , ..., xm ) es continua (de hecho se deduce de las demás
condiciones) y tiene derivadas parciales f t′ , f x′i , f x′′i x j continuas. Entonces el
© ª
proceso estocástico f (t , ξ1t , ..., ξm
t ) t∈J T cumple que:
Con probabilidad 1, para todo s ∈ J T ,
Zs
£
(*) f (s, ξ1s , ..., ξm
s )= f (0, ξ10 , ..., ξm
0 )+ f t′ (t , ξ1t , ..., ξm
t )+
0
#
m
X 1 Xm X k
′ 1 m ′′ 1 m
+ f xi (t , ξt , ..., ξt )(ai )t + f (t , ξt , ..., ξt ) (b i l )t (b j l )t d t +
i =1 2 i ,j =1 xi x j l =1
Xm X k Z s
j
+ f x′i (t , ξ1t , ..., ξm
t )(b i j )t dW t ,
i =1 j =1 0

(el último sumando de la fórmula anterior se puede escribir de la forma:

k Zs
m X
X j
f x′i (t , ξ1t , ..., ξm
t )(b i j )t dW t =
i =1 j =1 0
à !
k Zs X
X m
j
= f x′i (t , ξ1t , ..., ξm
t )(b i j )t dW t ).
j =1 0 i =1

© ª
Por consiguiente, f (t , ξ1t , ..., ξm
t ) t∈J T es un proceso de Itô respecto al proceso
de Wiener k-dimensional W f.

La igualdad (*) establecida más arriba, conocida como fórmula de Itô mul-
130 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

tidimensional, se puede escribir también de la siguiente forma:


"
m
X
d f (t , ξ1t , ..., ξm ′ 1 m
t ) = f t (t , ξt , ..., ξt ) + f x′i (t , ξ1t , ..., ξm
t )(a i )t +
i =1
#
1 m
X X k
′′ 1 m
+ f (t , ξt , ..., ξt ) (b i l )t (b j l )t d t +
2 i ,j =1 xi x j l =1
à !
Xk Xm
j
+ f x′i (t , ξ1t , ..., ξmt )(b i j )t dW t ,
j =1 i =1

con condición inicial f (0, ξ10 , ..., ξm


0 ).

Fórmula de Itô y tiempos de Markov

Sean (Ω, F , P ) un espacio de probabilidad y {Ft }t∈J ∞ (J ∞ = [0, +∞)) una


filtración de este espacio. Sea τ un tiempo de Markov respecto a {Ft }t∈J ∞
(Definición 4.5.7., pág. 65) que es tiempo de parada, es decir, tal que P (τ <
+∞) = 1. Sea f (t , ω), t ∈ J ∞ , ω ∈ Ω, una función de clase P J ∞ respecto a la
filtración {Ft }t∈J ∞ y a P , (pág. 114). Sea, por último, un proceso de Wiener
f = {Wt }t∈J , respecto a {Ft }t∈J y a P . Tenemos la integral
en (Ω, F , P ), W ∞ ∞
estocástica Z t
f s dWs , t ∈ J ∞ ,
0

y este proceso estocástico es progresivamente medible respecto a {Ft }t∈J ∞


y por tanto, medible y adaptado a {Ft }t∈J ∞ , (páginas 116-118). Además, el
proceso estocástico
Zt
It ( f ) = f s dWs , t ∈ J ∞ ,
0

cumple que I τ ( f ), definido por

I τ ( f )(ω) = I τ(ω) ( f )(ω), ω ∈ Ω,

es Fτ -medible. Para la variable aleatoria I τ ( f ), se ha introducido la nota-


ción, (pág. 118),

I τ( f ) = f t dWt .
0
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 131

Nos situamos en las hipótesis del Teorema 4.8.5. (pág. 128). Sea τ un tiem-
po de Markov respecto a {Ft }t >0 (Definición 4.5.7., pág. 65) que es tiempo
de parada, es decir, tal que P (τ < +∞) = 1. Supongamos que
µZτ ¶ µZ τ ¶
2
P |a(s, ω)|d s < +∞ = 1, P b (s, ω)d s < +∞ = 1.
0 0

Entonces, con probabilidad 1,


Zτ · ¸
1 ′′ 2
f (τ, ξτ ) = f (0, ξ0 ) + f t′ (t , ξt ) + f x′ (t , ξt )a t + f xx (t , ξt )b t d t +
0 2

+ f x′ (t , ξt )b t dWt .
0

Aplicaciones de la fórmula de Itô

A continuación se establecen importantes aplicaciones de la fórmula de


Itô que se utilizarán con frecuencia más adelante.

Lema 4.8.7. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-
ción de (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto
T
a {Ft }t∈J T y a P , (pág. 83). Sea f (t , ω) una función acotada (| f (t , ω)| 6 K ,
t ∈ J T , ω ∈ Ω) y no anticipativa respecto a {Ft }t∈J T , (pág. 96). Entonces,
µZt ¶2m
E f s dWs 6 K 2m t m (2m − 1)!!, m ∈ N.
0
Rt
Demostración. Ponemos ξt = 0 f s dWs y
½ © ¢
ı́nf t : sups 6 t |ξs | > n , si sups 6T |ξs | > n
τn =
T, si sups 6T |ξs | < n.

Consideramos la función g (t , x) = x 2m . Entonces, por la fórmula de Itô con


tiempo de Markov, obtenida anteriormente, aplicada a ξt y g y al tiempo
de Markov t ∧ τn , se tiene, (P -a.s.)
Zt∧τn Zt∧τn
1
ξ2m
t∧τn = 2m(2m − 1)ξ2m−2
s f s2 d s + 2mξ2m−1
s f s dWs .
0 2 0
132 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Se deduce que µZt∧τn ¶


E ξ2m−1
s f s dWs = 0.
0
Por tanto,
µZt∧τn ¶
¡ 2m ¢ 2m−2 2
E ξt∧τn = m(2m − 1)E ξs fs d s 6
0
µZt∧τn ¶ µZt ¶
2 2m−2 2 2m−2
6 K m(2m − 1) · E ξs d s 6 K m(2m − 1)E ξs d s.
0 0

De donde, por el lema de Fatou (V. 2, pág. 172),


µZt ¶
¡ ¢
E ξ2m
t 6 K 2 m(2m − 1)E ξ2m−2
s ds .
0

Se concluye la demostración por inducción.

Lema 4.8.8. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-
ción de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto a
T
{Ft }t∈J T y a P (pág. 83). Sea f (t , ω) una función no anticipativa respecto a
{Ft }t∈J T (pág. 96) tal que
ZT
¡ ¢
E f 2m (t , ω) d t < +∞.
0

Entonces,
µZt ¶2m Zt
m m−1
¡ ¢
E f s dWs 6 [m(2m − 1)] t E f s2m d s, m ∈ N.
0 0

Ejemplo 1. Sean (Ω, F , P© ) un espacio ¡ de ¢ª


probabilidad, {Ft }t∈J T una fil-
tración de (Ω, F ) y W f = Wt = W 1 , ...,W k
t t t∈J T un proceso de Wiener k-
dimensional, en (Ω, F , P ), respecto a {Ft }t∈J T y a P , (pág. 124; por tanto,
gi = ©W i ª
W t t∈J T , i = 1, 2, ..., k es¡ un proceso
¢
estocástico de Wiener respec-
¡ ¢
to a {Ft }t∈J T y a P ). Sean ξt = ξt , ..., ξt , t ∈ J T , ξ2t = ξ21
1 11 1n 2m
t , ..., ξt , t ∈ JT ,
donde
n o n o
ξf
1i = ξ1i , f
ξ 2j = ξ2j , i = 1, ..., n, j = 1, ..., m,
t t
t∈J T t∈J T
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 133

son procesos estocásticos reales adaptados a {Ft }t∈J T , medibles y conti-


nuos. Sean, para todo t ∈ J T ,
¡ ¢ ¡ ¢
a1,t = a11,t , ..., a1n,t , a2,t = a21,t , ..., a2m,t ,
³ ´ ³ ´
b 1,t = b i(1) j ,t
, n × k − mat r i z, b 2,t = b (2)
i j ,t
, m × k − mat r i z,

tales que a1i ,t , a2i ,t , b i(1)


j ,t
, b i(2)
j ,t
son funciones no anticipativas respecto a
{Ft }t∈J T , definidas en J T × Ω y con valores en R, y

µZT ¶ µZ T ¶
¯ ¯ ¯ ¯
P ¯a1i ,t ¯ d t < +∞ = 1, i = 1, ..., n, P ¯a2i ,t ¯ d t < +∞ = 1,
0 0
µZT ³ ´2 ¶
i = 1, ..., m, P b i(1)
j ,t
d t < +∞ = 1, i = 1, ..., n, j = 1, ..., k,
0
µZT ³ ´2 ¶
(2)
P b i j ,t d t < +∞ = 1, i = 1, ..., m, j = 1, ..., k
0

(por tanto, b i(1)


j ,t
es de clase P T respecto a {Ft }t∈J T y a P , y existe la integral
Rt (1) j
estocástica 0 b i j ,s dWs y b i(2)
j ,t
es de clase P T respecto a {Ft }t∈J T y a P , y
Rt (2) j
existe la integral estocástica 0 b i j ,s dWs ) y con probabilidad 1, para todo
t ∈ JT ,
Zt k Zt
X j
ξ1i
t = ξ1i
0 + a1i ,s d s + b i(1)
j ,s
dWs , i = 1, ..., n
0 j =1 0
Zt k Zt
X j
ξ2i
t = ξ2i
0 + a2i ,s d s + b i(2)
j ,s
dWs , i = 1, ..., m.
0 j =1 0

Hemos reflejado la Definición 4.8.4. para los procesos


© ª © ª
ξe1 = ξ1t t∈J T , ξe2 = ξ2t t∈J T .

Es decir, hemos expresado que ξe1 (respectivamente ξe2 )) es un proceso es-


tocástico de Itô n-dimensional (respectivamente, un proceso estocástico
de Itô m-dimensional) respecto al proceso de Wiener k-dimensional W f, o
134 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

de forma abreviada, hemos expresado que el proceso estocástico ξe1 (res-


pectivamente ξe2 )) tiene diferencial estocástica:
k
X j
d ξ1i
t = a1i ,t d t + b i(1)
j ,t
dWt , i = 1, ..., n
j =1
k
X j
(respectivamente: d ξ2i
t = a2i ,t d t + b i(2)
j ,t
dWt , i = 1, ..., m).
j =1

Consideramos la matriz n × m
 
ξ11
t
 . ¡ ¢
Y (t ) =  ..  ξ21 2m
t , ..., ξt .
1n
ξt

Aplicamos el Teorema 4.8.6. (pág. 128) a,


¡ 11 ¢ ¡ ¢
ξt , ..., ξ1n 21 2m
t , ξt , ..., ξt , a11,t , ..., a1n,t , a21,t , ..., a2m,t , t ∈ J T ,
 (1) (1)

b 11,t . . . b 1k,t
 . .. .. 
 .. . . 
 
 (1) 
 b n1,t . . . b (1) 
nk,t
la matriz(n + m) × k,   b (2) (2)
 , t ∈ JT ,

 11,t . . . b nk,t 
 . .. .. 
 . . 
 . . 
(2) (2)
b m1,t . . . b mk,t
y la función f i j (t , x1 , ..., xn , y 1 , ..., y m ) = xi y j , (i = 1, ..., n; j = 1, ..., m),

y se obtiene, con probabilidad 1, que para todo s ∈ J T


Zs h
2j 2j 2j
ξ1i
s · ξs = ξ1i
0 · ξ0 + ξt · a t1i + ξ1i t · a 2j ,t +
0
#
k
X Xk Zs ³ ´
(1) (2) 2j
b i l ,t · b j l ,t d t + ξt · b i(1)
l ,t
+ ξ1i
t · b (2)
j l ,t
dWtl .
l =1 l =1 0
n o
2j
Por consiguiente, ξ1i
t · ξ t , es un proceso estocástico de Itô respecto
t∈J T
f , (página 124), y la fórmula integral
al proceso de Wiener k-dimensional W
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 135

que representa dicho proceso estocástico se puede escribir:


" #
³ ´ k
X
2j 2j
d ξ1i
t · ξt = ξt · a1i ,t + ξ1i
t · a 2j ,t + b i(1)
l ,t
· b (2)
j l ,t
dt+
l =1
k ³
X ´
2j 2j
+ ξt · b i(1)
l ,t
+ ξ1i (2) l 1i
t · b j l ,t dW t , con condición inicial ξ0 · ξ0 .
l =1

Variando i , j , i = 1, ..., n, j = 1, ..., m, se obtiene la fórmula matricial


 
ξ11
t
 .  ¡ ¢
d Y (t ) =  ..  a21,t , .., a2m,t +
ξ1n
t
  
a11,t
 . ¡ ¢ ⋆ 
+  ..  ξ21 2m
t , .., ξt + b 1,t b 2,t ·dt+
a1n,t
   11 
dWt1 ξ
 ..  ¡ 21 ¢  t.  ³ ´
+ b 1t  .  ξt , ..., ξt +  ..  dWt1 , ..., dWtk b 2,t
2m ⋆
,
1n
dWtk ξt


donde b 2,t es la matriz traspuesta de b 2,t , (cálculo formal).
En particular, para n = m = k = 1
Zs h i
(1) (2)
ξ11 21
s · ξs = ξ11 21
0 · ξ0 + ξ21
t · a 11,t + ξ11
t · a 21,t + b 11,t · b 11,t d t +
0
Zs ³ ´
(1) (2)
+ ξ21
t · b 11,t + ξ11
t · b 1
11,t dW t ,
0

con probabilidad 1, para todo s ∈ J T , o bien

¡ ¢ h 21 (1) (2)
i
d ξ11 21 11
s · ξs = ξs · a 11,s + ξs · a 21,s + b 11,s · b 11,s d s+
³ ´
(1) (2)
+ ξs · b 11,s + ξs · b 11,s dWs1 , con condición inicial ξ11
21 11 21
0 ξ0 .

Observamos que (para n = m = k = 1) la última ecuación se puede escribir,


136 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

también, de la siguiente forma:


(1)
d (ξ11
t ) = a 11,t d t + b 11,t dW t
1

(2)
d (ξ21 1
t ) = a 21,t d t + b 11,t dW t , y
¡ ¢ ¡ 21 ¢ 21 ¡ 11 ¢ (1) (2)
d ξ11 21
s · ξs = ξ11
s d ξs + ξs d ξs + b 11,s · b 11,s d s.

Ejemplo 2. Sean (Ω, F ,©P ) un¡espacio de probabilidad,


¢ª {Ft }t∈J T una filtra-
f = Wt = W 1 , ...,W m
ción de (Ω, F ) y W un proceso de Wiener m-
t t t∈J T
dimensional en (Ω, F , P ), respecto a {Ft }t∈J T y a P , (pág. 124; por tan-
gi = ©W i ª
to, W , i = 1, 2, ..., m, es un proceso estocástico de Wiener, en
t t∈J T
(Ω, F , P ), respecto a {Ft }t∈J T y a P ).
Sea la función f (t , x1 , ..., xm ) = (x, B(t )x ∗ ), donde
 
x1
 . 
x = (x1 , ..., xm ), x ∗ =  ..  ,
xm

B(t ) es una matriz (no estocástica) m × m, de elementos diferenciables y


( , ) significa
  
b1
  . 
(a1 , ..., am ),  ..  = a1 b 1 + ... + am b m .
bm
©¡ ¢ª
Sea ξ1t , ..., ξm
t t∈J T un proceso estocástico m-dimensional que tiene di-
ferencial estocástica
m
X j
d ξit = ai ,t d t + b i j ,t dWt , con condición inicial ξi0 , i = 1, ..., m.
j =1

Para r = 1, ..., m, se consideran las funciones


¡ ¢
y r (t , x1 , ..., xm ) = αr 1 (t ) · x1 + ... + αr m (t ) · xm , donde B(t ) = αi j (t ) .

Aplicamos el Teorema 4.8.6. (pág. 128) a la función y r (t , x1 , ..., xm ) y


obtenemos:
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 137

Con probabilidad 1, para todo s ∈ J T ,


¡ ¢
y r s, ξ1s , ..., ξm 1 m
s = y r (0, ξ0 , ..., ξ0 )+
Zs
£ ′ ¤
+ αr 1 (t )ξ1t + ... + α′r m (t )ξm
t + αr 1 (t )a 1,t + ... + αr m (t )a m,t d t +
0
Xm Zs ¡ ¢ j
+ αr 1 (t )b 1j ,t + ... + αr m (t )b m j ,t dWt .
j =1 0
¡ ¢
Por tanto, y r s, ξ1s , ..., ξm
s , s ∈ J T , es un proceso de Itô respecto al proceso
de Wiener m-dimensional W f, y la fórmula integral que representa dicho
proceso se puede escribir:
¡ ¢
d y r t , ξ1t , ..., ξm
t =
£ ′ ¤
αr 1 (t )ξ1t + ... + α′r m (t )ξm
t + αr 1 (t )a 1,t + ... + αr m (t )a m,t d t +
m ¡
X ¢ j
+ αr 1 (t )b 1j ,t + ... + αr m (t )b m j ,t dWt ,
j =1

con condición inicialy r (0, ξ10 , ..., ξm


0 ).

Variando r , r = 1, ..., m, se obtiene la ecuación estocástica matricial:


 ¡ ¢ 
d y 1 t , ξ1t , ..., ξm
t h
 ..  ′
¡ 1 m ∗
¢ ¡ ¢∗ i
  = B (t ) ξ , ..., ξ + B(t ) a , ..., a dt+
¡ .1 t t 1,t m,t
m
¢
d y m t , ξt , ..., ξt
 
dWt1
 ..  ¡ ¢
+ B(t )b t  .  , donde b t = b i j ,t , matriz m × m.
dWim

(B ′ (t ) matriz derivada).
¡ ¢
Observamos que y r s, ξ1s , ..., ξm s , s ∈ J T , r = 1, ..., m es un proceso esto-
cástico de Itô, m-dimensional, respecto al proceso estocástico de Wiener
m-dimensional W f, (Definición 4.8.4., pág. 126) y por consiguiente, pode-
mos aplicar el Ejemplo 1 precedente a
¡ 1 ¢ ¡ 1 ¢
ξ1t , ..., ξm m m
t , t ∈ J T , y 1 s, ξs , ..., ξs , ..., y m s, ξs , ..., ξs , s ∈ J T ,
138 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

obteniéndose que con probabilidad 1, para todo s ∈ J T ,

¡ ¢ ¡ 1 ¢
ξis y j s, ξ1s , ..., ξm i
s = ξ0 y j 0, ξ0 , ..., ξ0 +
m
Zs h ³
¡ ¢
+ y j t , ξ1t , ..., ξm
t a i ,t + ξi ′ 1 ′ m
t α j 1 (t )ξt + ... + α j m (t )ξt + α j 1 (t )a 1,t + ...+
0
#
¢ X m ¡ ¢
α j m (t )am,t + b i l ,t α j 1 (t )b 1l ,t + ... + α j m (t )b ml ,t d t
l =1
m Zs h
X ¡ ¢ ¡ ¢i
+ y j t , ξ1t , ..., ξm
t · b i l ,t + ξi
t α j1 (t )b 1l ,t + ... + α jm (t )b l
ml ,t dW t .
l =1 0

© ¡ ¢ª
Por tanto, ξis y j s, ξ1s , ..., ξm
s s∈J T
, es un proceso de Itô respecto al proceso
f
de Wiener m-dimensional W = {Wt }t∈J , y la fórmula integral que repre-
T
senta dicho proceso estocástico se puede escribir:
³ ¡ ¢´
d ξis y j s, ξ1s , ..., ξms =
h ¡ ¢ ³
= y j s, ξ1s , .., ξm s a i ,s + ξi ′ 1 ′ m
s α j 1 (s)ξs + .. + α j m (s)ξs + α j 1 (s)a 1,s + ..+
#
¢ X m ¡ ¢
+α j m (s)am,s + b i l ,s α j 1 (s)b 1l ,s + ... + α j m (s)b ml ,s d s+
l =1
m h
X ¡ ¢ ¡ ¢i
+ y j s, ξ1s , ...ξm
s · b i l ,s + ξi
s α j1 (s)b 1l ,s + ... + α jm (s)b l
ml ,s dW s ,
l =1
¡ ¢
con condición inicial ξi0 y j 0, ξ10 , ..., ξm
0 .

Variando i , j , donde i = 1, ..., m, j = 1, ..., m, (seguimos con el estudio de


la aplicación del Ejemplo 1 precedente (pág. 132)), nos queda la fórmula
matricial:

¡ ¢ £ ¤
d ξ∗t ξt B(t )∗ = ξ∗t ξt B ′ (t )∗ + ξ∗t a t B(t )∗ + a t∗ ξt B(t )∗ + b t b t∗ B(t )∗ d t +
b t dWt∗ ξt B(t )∗ + ξ∗t dWt b t∗ B(t )∗ ,

donde
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢
ξt = ξ1t , ..., ξm 1
t , a t = a 1,t , ..., a m,t , b t = b i j ,t , dW t = dW t , ..., dW t
m
,
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 139

(cálculo formal). En particular, para m = 1,


Zs
£
ξ1s α11 (s)ξ1s = ξ10 α11 (0)ξ10 + α11 (t )ξ1t a1,t + ξ1t α′11 (t )ξ1t + α11 (t )a1,t +
0
Zs
¤ £ ¤
+b 11,t α11 (t )b 11,t d t + α11 (t )ξ1t b 11,t + ξ1t α11 (t )b 11,t dWt1 ,
0

con probabilidad 1, para todo s ∈ J T , y si α11 = 1, entonces


Zs Zs
¡ 1 ¢2 ¡ 1 ¢2 £ 1 2
¤
ξs = ξ0 + ξt a1,t + a1,t + b 11,t d t + 2ξ1t b 11,t dWt1 .
0 0

Por último aplicamos el Teorema 4.8.6. (pág. 128) a


© ¡ ¢ª
ξt = ξ1t , ..., ξm
t
1 m ∗
t∈J T , y f (s, ξs , ..., ξs ) = (x, B(t )x )

y obtenemos que: Con probabilidad 1, para todo s ∈ J T ,

f (s, ξ1s , ..., ξm


s )=
Zs
£¡ ¢ ¡ £ ¤ ¢
f (0, ξ10 , ..., ξm
0 )+ ξt , B ′ (t )ξ∗t + ξt , B(t ) + B(t )∗ a t∗ +
0
Zs
¡ ∗
¢¤ £ ¤
+Tr aza b t b t B(t ) d t + ξt B(t ) + B(t )∗ b t dWt∗ ,
0

donde el último sumando significa


Xm Zs £ ¤¡ ¢∗ j
ξt B(t ) + B(t )∗ b 1j ,t , ..., b m j ,t dWt .
j =1 0
© ª
Por tanto, f (s, ξ1s , ..., ξm
s ) t∈J T , es un proceso de Itô respecto al proceso de
Wiener m-dimensional W f = {Wt }t∈J y la fórmula integral que representa
T
dicho proceso se puede escribir también:
£¡ ¢ ¡ £ ¤ ∗¢
d f (s, ξ1s , ..., ξm ′ ∗ ∗
s ) = ξs , B (s)ξs + ξs , B(s) + B(s) a s +
¡ ¢¤ Xm £ ¤¡ ¢∗
∗ j
+Tr aza b s b s B(s) d s + ξs B(s) + B(s)∗ b 1j ,s , ..., b m j ,s dWs ,
j =1

con condición inicial f (0, ξ10 , ..., ξm


0 ).
140 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

i i
En particular, si ξt = Wt , es decir, ¡ ¢ξt = Wt , i = 1, ..., m, t ∈ J T , (en este
caso ai t = 0, i = 1, ..., m, t ∈ J T , y b i j ,t es la matriz unidad m ×m) y B(t ) es
simétrica, entonces
Zs

£ ¤
Ws B(s)Ws = Wt B ′ (t )Wt∗ + Tr aza(B(t )) d t +
0
Zs Zs
+ Wt 2B(t )(1, 0, ..., 0)∗ dWt1 + ... + Wt 2B(t )(0, 0, ..., 0, 1)∗ dWtm ,
0 0

con probabilidad 1, para todo s ∈ J T .


Naturalmente,
 
Zs Zs α1j
j  .  j
Wt 2B(t )(0, ..., 1( j , 0, ..., 0)∗ dWt = 2 Wt  ..  dWt .
0 0
αm j
En forma diferencial,
¡ ¢ £ ¤
d Ws B(s)Ws∗ = Ws B ′ (s)Ws∗ + Tr aza(B(s)) d s+
+ 2Ws B(s)(1, 0, ..., 0)∗ dWs1 + ... + 2Ws B(s)(0, 0, ..., 0, 1)∗ dWsm ,

con condición inicial 0.

Ejemplo 3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-


ción de (Ω, F ) y W f = {Wt }t∈J , un proceso de Wiener, en (Ω, F , P ), respecto
T
a {Ft }t∈J T y a P , (pág. 83). Sea a(t , ω) una función de clase P T respecto a
{Ft }t∈J T y a P , (pág. 97), y sea
½Zt Z ¾
1 t 2
κt = exp a s dWs − a d s , t ∈ JT .
0 2 0 s
Para todo t ∈ J T se considera
Zt Z
1 t 2
ξt = a s dWs − a ds (∗).
0 2 0 s
f y (∗)
Entonces, ξ̃ = {ξt }t∈J T es un proceso estocástico de Itô respecto a W
la podemos escribir
1
d ξt = a t dWt − a t2 d t , con condición inicial 0.
2
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 141

Rt
(Recordamos que 0 a s dWs , t ∈ J T , es un proceso estocástico medible, adap-
tado a {Ft }t∈J T y continuo, y
"µZ ¶2 # µZ ¶
T T
E a s dWs =E a s2 d s ).
0 0

Consideramos la función f (x, t ) = exp(x). Entonces, por el Teorema


4.8.5. (pág. 128),
Zs · µ ¶ ¸
1 2 1 2
κs = exp(ξs ) = exp(ξ0 ) + exp(ξt ) − a t + exp(ξt )a t d t +
0 2 2
Zs
+ exp(ξt )a t dWt ,
0

con probabilidad 1, para todo s ∈ J T , de donde


Zs
κs = 1 + exp(ξt )a t dWt (∗∗),
0
© ª
con probabilidad 1 para todo s ∈ J T . Por consiguiente, κt = exp(ξt ) t∈J T
f y la igualdad anterior, (∗∗), la podemos
es un proceso de Itô respecto a W
escribir así:

d κs = exp(ξs )a s dWs , con condición inicial 1,

o bien
d κs = κs a s dWs con condición inicial 1.
Sea g (t , x) = 1/ exp(x). Entonces,
© de nuevoªpor el Teorema 4.8.5. (pág.
128), el proceso estocástico 1/ exp(ξs ) = 1/κs s∈J T cumple que: con pro-
babilidad 1, para todo s ∈ J T
Zs · µ ¶ ¸
1 1 1 1 2 1 1 2
= + − − a + a dt+
κ s κ0 0 exp(ξt ) 2 t 2 exp(ξt ) t
Zs
1
+ a t dWt ,
0 exp(ξt )

o bien, con probabilidad 1, para todo s ∈ J T ,


Zs Zs
1 1 2 1
= 1+ · at d t − · a t dWt .
κs 0 κt 0 κt
142 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Por consiguiente, {1/κt }t∈J T , es un proceso de Itô respecto a W f y la igual-


dad anterior la podemos escribir también
µ ¶
1 1 1
d = · a s2 d s − · a s dWs , con condición inicial 1.
κs κs κs
¡ ¢
Observación. Se tiene que P ı́nft∈J T κt > 0 = 1, pues a(t , ω) es de clase P T
respecto a {Ft }t∈J T y a P .

Ejemplo 4. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración de


f = {Wt }t∈J , proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J
(Ω, F ) y W T T
y a P , (pág. 83). Sean a(t ), b(t ), t ∈ J T , funciones no estocásticas tales que
ZT ZT
|a(t )|d t < +∞, b 2 (t )d t < +∞.
0 0

Consideramos el proceso estocástico


µZ t ¶ µ Zt µ Zs ¶ ¶
κt = exp a(s)d s · ξ + exp − a(u)d u · b(s)dWs , t ∈ J T ,
0 0 0

donde ξ es una variable aleatoria F0 -medible. Ponemos


Zt µ Zs ¶
ξt = ξ + exp − a(u)d u b(s)dWs , t ∈ J T .
0 0

Entonces ξ̃ = {ξt }t∈J T , (ξ0 = ξ) es un proceso estocástico de Itô respecto a


f y la igualdad anterior la podemos escribir
W
µ Zt ¶
d ξt = exp − a(u)d u · b(t )dWt , con condición inicial ξ.
0
¡Rt ¢
Consideramos la función f (t , x) = exp 0 a(s)d
© s · x.ª Entonces, por el
Teorema 4.8.5. (pág. 128), el proceso estocástico f (t , ξt ) t∈J T , cumple que:
con probabilidad 1, para todo s ∈ J T ,
Zs · µZ t ¶¸
κs = f (s, ξs ) = ξ + ξt a(t ) · exp a(u)d u d t +
0 0
Zs µZ t ¶ µ Zt ¶
+ exp a(u)d u exp − a(u)d u b(t )dWt ,
0 0 0
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 143

o bien
µZ s ¶ Zs · µZ t ¶¸ Zs
exp a(u)d u · ξs = ξ + ξt a(t ) · exp a(u)d u d t + b(t )dWt ,
0 0 0 0

© ª
con probabilidad 1, para todo s ∈ J T . Por tanto, κs = f (s, ξs ) s∈J T , es un
f y la igualdad anterior la podemos escribir así:
proceso de Itô respecto a W
· µZ t ¶¸
d f (t , ξt ) = ξt a(t ) exp a(u)d u d t + b(t )dWt con condición inicial ξ,
0

o bien · µZ t ¶ ¸
d exp a(u)d u · ξt = d κt = a(t )κt d t + b(t )dWt ,
0

con condición inicial ξ.

Ejemplo 5. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-


ción de (Ω, F ) y W f = {Wt }t∈J , un proceso de Wiener, en (Ω, F ; P ), respecto
T
a {Ft }t∈J T y a P , (pág. 83). Consideramos ξt = Wt , t ∈ J T , (naturalmente es
un proceso de Itô respecto a W f con a t = 0, b t = 1) y f (t , x) = x 2 . Aplican-
do el Teorema 4.8.5. (pág. 128), tenemos: con probabilidad 1, para todo
s ∈ JT ,
Zs Zs
2
Ws = dt + 2Wt dWt , (∗),
0 0

de donde Zs
Ws2 − s = 2 Wt dWt .
0
© ª
Por tanto, Wt2 t∈J T , es un proceso de Itô respecto a W f y (∗) se puede es-
cribir
¡ ¢
d Ws2 = d s + 2Ws dWs , con condición inicial 0.
¡Rt ¢ Rt
Por otra parte, como E 0 Ws2 d s < +∞, el proceso estocástico
© 2 ª 0 Ws dWs ,
s ∈ J T , es una martingala respecto a {Ft }t∈J T y a P y Wt − t t∈J T es una
martingala respecto a {Ft }t∈J T y a P .
144 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

¡Rt ¢
Observación. Para probar que E 0 Ws2 d s < +∞, se puede recurrir al teo-
rema de Fubini (pág. 22). Efectivamente, al aplicar este teorema a Ws2 ,
s ∈ J T , se tiene que
Zt µZt ¶
t2 2
= sd s = E Ws d s .
2 0 0
¡Rt ¢
Por consiguiente, E 0 Ws2 d s < +∞ R y Ws (ω) es una función de clase E T
t
respecto a {Ft }t∈J T y a P , (pág. 97), y 0 Ws dWs , s ∈ J T , es una martingala
respecto a {Ft }t∈J T y a P , ((4) de la página 103).
Ejemplo 6. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-
ción de (Ω, F ) y W f = (Wt )t∈J un proceso de Wiener, en (Ω, F , P ), respecto
T © ª
a {Ft }t∈J T y a P , (pág. 83). Sean ξ̃ = {ξt }t∈J T , η̃ = η t t∈J T procesos de Itô
respecto a W f: Con probabilidad 1
Zt Zt
ξt = ξ0 + as d s + b s dWs
0 0
Zt Zt

η t = η0 + as d s + b s⋆ dWs
0 0
Entonces, por el Teorema 4.8.5. (pág. 128),
Zs
£ ¤
ξs · η s = ξ0 · η 0 + ξt · a t⋆ + η t · a t + b t · b t⋆ d t +
0
Zs
¡ ¢
+ ξt · b t⋆ + η t · b t dWt ,
0
© ª
con probabilidad 1, t ∈ J T . Por consiguiente, ξt · η t t∈J T es un proceso de
Itô respecto a W f y la igualdad anterior se puede escribir
£ ¤ £ ¤
d (ξt · η t ) = ξt · a t⋆ + η t · a t + b t · b t⋆ d t + ξt · b t⋆ + η t · b t dWt ,
con condición inicial ξ0 ·η 0 . Este ejemplo es el caso particular del Ejemplo
1 (pág. 132). A esta fórmula, se la llama fórmula de integración por partes y
será ampliamente utilizada.

Ejercicios y problemas
8.1. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración de
f = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto a {Ft }t∈J
(Ω, F ) y W T T
y a P , (pág. 83).
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 145

© ª
Sean {ξt }t∈J T , η t t∈J T procesos de Itô respecto a W f y a, b números reales.
© ª
Probar que aξt + bη t t∈J T es un proceso de Itô respecto a W f y que, para
todo t ∈ J T ,
d (aξt + bη t ) = ad (ξt ) + bd (η t ).

8.2. Probar el resultado de la observación de la página 142.

8.3. En las hipótesis del Ejemplo 5, (pág. 143), probar que para todo s, t ∈
J T , con s 6 t , se verifica que
Zt
1 1 1
Wu dWu = Wt2 − Ws2 − (t − s).
s 2 2 2

8.4. Supongamos que en el Ejemplo 5, (pág. 143), f (t , x) = g (x), donde


g : R → R tiene derivada segunda continua. Probar que con probabilidad
1, Zt Z
′ 1 t ′′
g (Ws )dWs = g (Wt ) − g (Ws )d s.
0 2 0

4.9. Ecuaciones diferenciales estocásticas. Solu-


ción fuerte
Versión unidimensional de solución fuerte

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , (recordamos que, de


acuerdo con la notación fijada al principio del capítulo, J 1 = [0, 1]), una fil-
tración de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J
1 1
y a P.
Sean C el conjunto de funciones continuas de [0, 1] en R, (por tanto, C ⊂
R[0,1] ), B1 la σ-álgebra en C definida por B1 = σ(C : t s , s ∈ J 1 ), (es decir,
B1 es la más pequeña σ-álgebra en C que hace medibles a las funciones
t s : C → R, 0 6 s 6 1, donde t s (x) = x s = x(s) para todo x ∈ C , y por tanto,
T
B1 = B(R[0,1] ) C = B(C ), (véanse las páginas 16, 17 y 18)), y la σ-álgebra
en C , Bt = σ(C : t s , s ∈ [0, t ]), 0 6 t 6 1, (es decir, Bt es la más pequeña
σ-álgebra en C que hace medible a las funciones t s : C → R, 0 6 s 6 t ).
146 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sean a, b : [0, 1] × C → R funciones no anticipativas respecto a la filtración


{Bt }t∈J 1 del espacio medible (C , B1 ), (Definición 4.7.1., pág. 96).

Sea ξ̃ = {ξt }t∈J 1 un proceso estocástico en (Ω, F , P ), real, medible, adap-


tado a {Ft }t∈J 1 y continuo, (con lo dicho hasta aquí, las funciones

a(·, ξ̃), b(·, ξ̃) : [0, 1] × Ω → R definidas por


(s, ω) 7→ a(s, X ξ̃ (ω)), (s, ω) 7→ b(s, X ξ̃ (ω)),

donde X ξ̃ : Ω → C está definida por X ξ̃ (ω)(t ) = ξt (ω), t ∈ J 1 , (pág. 4), son


funciones no anticipativas respecto a {Ft }t∈J 1 , es decir, son medibles y
adaptadas a {Ft }t∈J 1 ).

Sea por último, η una variable aleatoria en (Ω, F , P ), F0 -medible.


Supongamos que:

(1) ξ0 = η.
³n R1 o´
(2) P ω ∈ Ω : 0 |a(t , X ξ̃ (ω))|d t < +∞ = 1.
³n R1 2 o´
(3) P ω ∈ Ω : 0 b (t , X ξ̃ (ω))d t < +∞ = 1.

(4) Con probabilidad 1, para todo t ∈ J 1


Zt Zt
ξt = η + a(·, ξ̃)s d s + b(·, ξ̃)s dWs .
0 0

f , y la ecua-
Por tanto, ξ̃ es un proceso estocástico de Itô respecto a W
ción de (4) se puede escribir de la forma (Definición 4.8.1. (pág.
120)):

d ξt = a(·, ξ̃)t d t + b(·, ξ̃)t dWt con condición inicial η.

Definición 4.9.1. En esta situación, se dice que ξ̃ es solución fuerte (o sim-


plemente solución) de la ecuación diferencial estocástica

d ξt = a(·, ξ̃)t d t + b(·, ξ̃)t dWt con condición inicial η.


4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 147

n o
f f
Observamos que si Ft = FtW , W
t ∈ J 1 , donde Ft es la filtración en
t∈J 1
ξ̃
f , entonces F ⊂ F W , t ∈ J 1 . f
(Ω, F ) generada por W t t

Versión multidimensional de solución fuerte

En la definición que sigue, C n es el conjunto de aplicaciones continuas de


[0, 1] en Rn , (C 1 = C , pág. 145) y Bt(n) , t ∈ J 1 , es la más pequeña σ-álgebra
en C n que hace medibles a las funciones t s : C n → Rn , s 6 t , donde t s (x) =
x s ∈ Rn , para todo x ∈ C n , (Bt(1) = Bt , pág. 145).
Definición 4.9.2. Sean (Ω,©F , P )¡un espacio ¢ª
de probabilidad, {Ft }t∈J 1 , una
f 1 n
filtración de (Ω, F ) y W = Wt = Wt , ...,Wt t∈J 1 un proceso estocástico de
Wiener n-dimensional, en (Ω, F , P ), respecto a {Ft }t∈J 1 y a P , (pág. 124).
¡ ¢
Sean a(t , x) = (a1 (t , x), ..., an (t , x)), b(t , x) = b i j (t , x) matriz n × n tales
que
ai , b i j : [0, 1] ×C n → R
n o
(n)
son funciones no anticipativas respecto a la filtración Bt del espacio
t∈J 1
medible (C n , B1(n) )), (pág. 96).
©¡ ¢ª © ª
que ξei = ξit t∈J 1 es un proceso estocástico en
Sea ξ̃ = ξ1t , ..., ξnt t∈J 1 tal
(Ω, F , P ), real, medible, adaptado a {Ft }t∈J 1 y continuo, i = 1, ..., n.
¡ ¢
Sea por último, η = η 1 , ..., η n una variable aleatoria n-dimensional, en
(Ω, F , P ), F0 -medible.

Supongamos que
(1) ξ10 = η 1 ,...,ξn0 = η n .
³n R1 o´
(2) P ω ∈ Ω : 0 |ai (t , X ξ̃ (ω))|d t < +∞ = 1, i = 1, ..., n,

(ai (·, ξ̃)(s, ω) = ai (s, X ξ̃ (ω)), X ξ̃ (ω)(t ) = (ξ1t (ω), ..., ξnt (ω))).
³n R1 2 o´
(3) P ω ∈ Ω : 0 b i j (t , X ξ̃ (ω))d t < +∞ = 1, i , j = 1, ..., n,

(b i j (·, ξ̃)(s, ω) = b i j (s, X ξ̃ (ω)), X ξ̃ (ω)(t ) = (ξ1t (ω), ..., ξnt (ω))).
148 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(4) Con probabilidad 1, para todo t ∈ J 1


Zt n Zt
X
i j
ξt = η i + ai (·, ξ̃)s d s + b i j (·, ξ̃)s dWs , i = 1, ..., n.
0 j =1 0

Por tanto, ξ̃ es un proceso de Itô n-dimensional respecto al proceso de


Wiener n-dimensional W f = {Wt }t∈J , y las ecuaciones de (4) se pueden
1
escribir de la forma (Definición 4.8.3. (pág. 124)), para i = 1, ..., n:
n
X j
d ξit = ai (·, ξ̃)t d t + b i j (·, ξ̃)t dWt con condición inicial η i .
j =1

En estas condiciones diremos que ξ̃ es solución fuerte (o solución) de


n
X j
d ξit = ai (·, ξ̃)t d t + b i j (·, ξ̃)t dWt con condición inicial η i , i = 1, ..., n.
j =1

Versión de solución fuerte con valores vectoriales

Definición 4.9.3. Sean (Ω,©F , P ) ¡un espacio de¢ª probabilidad, {Ft }t∈J T , una
1
f = Wt = W , ...,W p
filtración de (Ω, F ) y W t t t∈J T un proceso de Wiener p-
dimensional, en (Ω, F , P ), respecto a {Ft }t∈J T y a P , (pág. 124).

Sean la aplicación ¡ b : J T¢×Rn → Rn , b(s, x) = (b 1 (s, x), ..., b n (s, x)), s ∈ J T ,


x ∈ R , y σ(s, x) = σi j (s, x) , matriz n × p, σi j : J T × Rn → R, s ∈ J T , x ∈ Rn ,
n

tales que b i , σi j son medibles.


¡ ¢
Sea η = η 1 , ..., η n variable aleatoria n-dimensional (con valores en Rn ),
en (Ω, F , P ), F0 -medible.
©¡ ¢ª
Sea, por último, ξ̃ = ξ1t , ..., ξnt t∈J T un proceso estocástico n-dimensional,
en (Ω, F , P ), medible, adaptado a {Ft }t∈J T y continuo. Supongamos que:

(1) ξ10 = η 1 ,...,ξn0 = η n .


³R ¯ ¡ ¢¯ ´
T
(2) P 0 ¯b i t , ξ1t , ..., ξnt ¯ d t < +∞ = 1, i = 1, ..., n.
³R ¡ ¢ ´
T
(3) P 0 σ2i j t , ξ1t , ..., ξnt d t < +∞ = 1, i = 1, ..., n, j = 1, ..., p.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 149

(4) Con probabilidad 1, para todo t ∈ J T y para i = 1, ..., n,


Zt p Zt
X
i i
¡ 1 n
¢ ¡ ¢ j
ξt = η i + b s, ξs , ..., ξs d s + σi j s, ξ1s , ..., ξns dWs .
0 j =1 0

Por tanto, con estos supuestos, ξ̃ es un proceso de Itô, n-dimensional respecto


al proceso de Wiener W f y la igualdad de (4) se puede escribir de la siguiente
forma:

¡ ¢ p
X ¡ ¢ j
d ξit = b i t , ξ1t , ..., ξnt d t + σi j t , ξ1t , ..., ξnt dWt
j =1

con condición inicial η i , i = 1, ..., n, t ∈ J T (∗).

En estas condiciones diremos que ξe es solución fuerte (o solución) de (∗).


Existencia y unicidad de la solución fuerte

Caso unidimensional
Teorema 4.9.4. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , (recor-
damos que según la notación fijada al principio del capítulo, J 1 = [0, 1]),
una filtración de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ),
1
respecto a {Ft }t∈J 1 y a P , y

a, b : [0, 1] ×C → R

funciones no anticipativas respecto a {Bt }t∈J 1 (pág. 96). (El espacio C y Bt ,


t ∈ J 1 , son los definidos en la página 145), y sea η una variable aleatoria, en
(Ω, F , P ), F0 -medible y tal que P (ω : |η(ω)| < +∞) = 1.

Supongamos que (condiciones de Lipschitz):


Zt
2 2
|a(t , x)− a(t , y)| +|b(t , x)−b(t , y)| 6 L 1 |x s − y s |2 d K (s)+L 2 |x t − y t |2 ,
0
Zt
2 2
a (t , x) + b (t , x) 6 L 1 (1 + x s2 )d K (s) + L 2 (1 + x t2 ),
0

donde L 1 y L 2 son constantes, K (s) es una función no decreciente, continua


por la derecha y 0 6 K (s) 6 1, x, y ∈ C y t ∈ J 1 . Entonces:
150 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(1) Existe ξ̃ = {ξt }t∈J 1 proceso estocástico, en (Ω, F , P ), real, medible, adap-
tado a {Ft }t∈J 1 y continuo, solución de

d ξt = a(·, ξ̃)t d t + b(·, ξ̃)t dWt con condición inicial η,

(es decir, cumple (1), (2), (3) y (4) de la página 146). © ª


Además esta solución es única en el siguiente sentido: Si ξe′ = ξ′t t∈J 1
es también solución, (es decir, se cumplen (1), (2), (3) y (4) de la página
146 (Definición 4.9.1.) para ξe′ , entonces
à !
¯ ¯
P sup ¯ξt − ξ′ ¯ > 0 = 0.
t
t∈J 1

¡ ¢
(2) Si E η2m < +∞, m > 1, entonces existe una constante Mm tal que
¡ ¢ ¡ ¡ ¢¢
E ξ2m
t 6 1 + E η2m · exp (Mm t ) − 1.

Corolario 4.9.5. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , una


filtración de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), res-
1
pecto a {Ft }t∈J 1 y a P , y
a, b : [0, 1] × R → R
funciones medibles y sea η una variable aleatoria, en (Ω, F , P ), F0 -medible
y tal que P (ω : |η(ω)| < +∞) = 1.
Supongamos que (condiciones de Lipschitz):

|a(t , y) − a(t , y ′ )|2 + |b(t , y) − b(t , y ′ )|2 6 L(y − y ′ )2 ,


a 2 (t , y) + b 2 (t , y) 6 L(1 + y 2 ),

donde L es una constante. Entonces, existe ξ̃ = {ξt }t∈J 1 proceso estocástico,


en (Ω, F , P ), real, medible, adaptado a {Ft }t∈J 1 y continuo, tal que:

(1) ξ0 = η.
³R ´
1
(2) P 0 |a(t , ξt )|d t < +∞ = 1.
³R ´
1 2
(3) P 0 b (t , ξt )d t < +∞ = 1.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 151

(4) Con probabilidad 1, para todo t ∈ J 1


Zt Zt
ξt = η + a(s, ξs )d s + b(s, ξs )dWs .
0 0

f y la igualdad de (4) se puede


(Por tanto, ξ̃ es un proceso de Itô respecto a W
escribir de la forma (Definición 4.8.1. (pág. 120)):
d ξt = a(t , ξt )d t + b(t , ξt )dWt con condición inicial η, t ∈ J 1 ).
Por consiguiente, ξ es solución de
d ξt = a(t , ξt )d t + b(t , ξt )dWt con condición inicial η, t ∈ J 1 .
Además la solución ξ es única, en el sentido del teorema anterior.
Caso multidimensional
Teorema 4.9.6. Sean (Ω, F , P ) un espacio © de
¡ probabilidad,
¢ª {Ft }t∈J 1 , (J 1 =
[0, 1]), una filtración de (Ω, F ), W f = Wt = W 1 , ...W n
t t t∈J 1 un proceso de
Wiener n-dimensional, en (Ω, F , P ), respecto a {Ft }t∈J 1 y a P ,
¡ ¢
a(t , x) = (a1 (t , x), ..., an (t , x)) , b(t , x) = b i j (t , x) ,
matriz n × n, tal que las funciones
ai , b i j : [0, 1] ×C n → R
n o
(n)
son no anticipativas respecto a Bt (es decir, ai (t , x), b i j (t , x) son me-
t∈J 1
dibles y adaptadas a esta filtración; el espacio C n es el conjunto de aplica-
ciones continuas de [0,¡ 1] en Rn¢ y Bt(n) , t ∈ J 1 , están definidas como en la
página 147), y sea η = η 1 , ..., η n una variable aleatoria n-dimensional, en
P
(Ω, F , P ), F0 -medible y tal que P (ω : ni=1 |η i (ω)| < +∞) = 1.
Supongamos que (condiciones de Lipschitz):
n
X
|ai (t , x) − ai (t , y)|2 + |b i j (t , x) − b i j (t , y)|2 6
j =1
Zt X
n n
X n
X
L1 |x si − y si |2 d K (s) + L 2 |x ti − y ti |2 , ai2 (t , x) + b i2j (t , x) 6
0 i =1 i =1 j =1
Zt à n ³ ´2
X
! Ã
n ³ ´2
X
!
i i
L1 1+ xs d K (s) + L 2 1 + xs ,
0 i =1 i =1
152 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde L 1 y L 2 son constantes, K (s) es una función no decreciente, continua


por la derecha y 0 6 K (s) 6 1, x, y ∈ C n , t ∈ J 1 , i = 1, ..., n. Entonces:

(1) Existe n o
© 1 ª e
ξ̃ = ξt , ..., ξt t∈J 1 tal que ξ = ξit
n i
t∈J 1

es un proceso estocástico, en (Ω, F , P ), real, medible, adaptado a la


filtración {Ft }t∈J 1 y continuo, i = 1..., n, y se cumplen (1), (2), (3) y (4)
de la Definición 4.9.2 (pág. 147), (por tanto, ξ̃ es un proceso de Itô, n-
dimensional respecto a W f, y la igualdad de (4) se puede escribir para
i = 1, ..., n,
n
X j
d ξit = ai (·, ξ̃)t d t + b i j (·, ξ̃)t dWt con condición inicial η i ).
j =1

Así ξ̃ es solución (solución fuerte) de esta última ecuación. Además es-


ta solución es única en el siguiente sentido: Si ξe′ es también solución,
(es decir, se cumplen (1), (2), (3) y (4) de las páginas 147 y 148 (Defini-
ción 4.9.2.) para ξ̃′ , entonces
à !
¯ ¯
¯ i ′ i¯
P sup ¯ξt − (ξ )t ¯ > 0 = 0, i = 1, ..., n.
t∈J 1

¡Pn 2m
¢
(2) Si E i =1 η i < +∞, m > 1, entonces existe una constante Mm tal que
à ! à à !!
n
X n
X
E (ξit )2m 6 1+E η2m
i · exp(Mm t ) − 1.
i =1 i =1

Caso vectorial

Sean (Ω, F , P ) un espacio de©probabilidad,


¡ 1 t }t∈J T , una filtración del es-
{F¢ª
f p
pacio medible (Ω, F ) y W = Wt = Wt , ...,Wt t∈J T un proceso estocásti-
co de Wiener p-dimensional, en (Ω, F , P ), respecto a {Ft }t∈J T y a P .

Sean

b : J T × Rn → Rn , b(s, x) = (b 1 (s, x), ..., b n (s, x)), s ∈ J T , x ∈ Rn ,


4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 153

¡ ¢
σ(s, x) = σi j (s, x) , matriz n × p, σi j : J T × Rn → R, s ∈ J T , x ∈ Rn , tales que
b i , σi j son medibles.
¡ ¢
Sea η = η 1 , ..., η n variable aleatoria n-dimensional (con valores en Rn),
en (Ω, F , P ), F0 -medible. Supongamos que se cumple lo siguiente:

(1) |b(t , x)−b(t , y)|+|σ(t , x)−σ(t , y)| 6 K |x − y|, donde la norma en Rn es


la euclídea y la norma en las matrices n × p es,
X
|σ|2 = σ2i j .
16i 6n
16 j 6 p

(2) |b(t , x)| + |σ(t , x)| 6 K (1 + |x|).


¡ ¢
(3) E |η|2 < +∞.
© ¡ ¢ª
Entonces existe ξ̃ = ξt = ξ1t , ..., ξnt t∈J T proceso estocástico n-dimensional,
en (Ω, F , P ), medible, adaptado a {Ft }t∈J T y continuo, cumpliendo (1), (2),
(3) y (4) de la Definición 4.9.3. (pág. 148), (por tanto, ξ̃ es un proceso de Itô,
n-dimensional, respecto a W f, y la igualdad de (4) se puede escribir

¡ ¢ p
X ¡ ¢ j
d ξit = b i t , ξ1t , ..., ξnt d t + σi j t , ξ1t , ..., ξnt dWt
j =1

con condición inicial η i , i = 1, ..., n, t ∈ J T (∗).

Así, ξ̃ es solución (solución fuerte) de (∗). Además ξ̃ es única.


Por último, ξ̃ cumple que
à !
E sup |ξt |2 < +∞.
t∈J T

Acotación de los momentos exponenciales

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , una filtración de (Ω, F ),


f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J y a P ,
W T T

a, b : J T × R → R
154 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

funciones medibles y η una variable aleatoria, en (Ω, F , P ), F0 -medible


cumpliendo P (|η| < +∞) = 1. Sea ξ̃ = {ξt }t∈J T un proceso estocástico, en
(Ω, F , P ), real, medible, adaptado a {Ft }t∈J T y continuo tal que se cumplen
(1), (2), (3) y (4) de la Definición 4.9.3 (pág. 148), (n = p = 1), (por tanto,
ξ̃ es un proceso de Itô respecto a Wf , y la igualdad de (4) se puede escribir
así:

d ξt = a(t , ξt )d t + b(t , ξt )dWt con condición inicial η, t ∈ J T (1)).

Por tanto, ξ̃ es solución de (1). Supongamos que existe ε > 0 tal que
¡ ¡ ¢¢
E exp εη2 < +∞

y que existe una constante K tal que

a(t , y)2 6 K 2 (1 + y 2 ), |b(t , y)| 6 K .

Entonces existe δ > 0 tal que


¡ ¡ ¢¢
sup E exp δξ2t < +∞.
t∈J T

Otros tipos de ecuaciones diferenciales estocásticas

Teorema 4.9.7. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , una


filtración de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J
1 1
y a P , y a, b : J 1 × C → R funciones no anticipativas respecto a {Bt }t∈J 1 (C y
Bt , t ∈ J 1 , como en la página 145), tales que se cumplen las condiciones de
Lipschitz como en el Teorema 4.9.4. (pág. 149).
© ª
Sean ϕt t∈J 1 un proceso estocástico medible, continuo y adaptado a
© ª © ª
{Ft }t∈J 1 y λ1t t∈J 1 , λ2t t∈J 1 procesos estocásticos medibles y adaptados a
{Ft }t∈J 1 tales que |λit | 6 1, i = 1, 2, t ∈ J 1 .

Entonces, existe ξ̃ = {ξt }t∈J 1 proceso estocástico, en (Ω, F , P ), real, medi-


ble, adaptado a {Ft }t∈J 1 y continuo tal que se cumplen:

(1) ξ0 = ϕ0 .
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 155

³n R1 ¯¯ 1 ¯
¯

(2) P ω ∈ Ω : 0 ¯λs (ω)a(s, X ξ̃ (ω))¯ d s < +∞ = 1.

((s, ω) 7→ λ1s (ω)a(s, X ξ̃ (ω)), X ξ̃ (ω)(t ) = ξt (ω)).


³n R1 2 o´
2
(3) P ω ∈ Ω : 0 λs (ω)b (s, X ξ̃ (ω))d s < +∞ = 1.

((s, ω) 7→ λ2s (ω)b(s, X ξ̃ (ω)), X ξ̃ (ω)(t ) = ξt (ω)).

(4) Con probabilidad 1, para todo t ∈ J 1 ,


Zt Zt
1
ξt = ϕt + λs a(·, ξ̃)s d s + λ2s b(·, ξ̃)s dWs .
0 0

y ξ̃ es único en el sentido del Teorema 4.9.4. (pág. 149).


Podemos resumir diciendo que
Zt Zt
1
ξt = ϕt + λs a(·, ξ̃)s d s + λ2s b(·, ξ̃)s dWs , t ∈ J 1 ,
0 0

(o bien
Zt Zt
η t = ϕt + λ1s a(·, η̃)s d s + λ2s b(·, η̃)s dWs , t ∈ J 1 ),
0 0

tiene solución (o solución fuerte) única.


Teorema 4.9.8. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , una
filtración de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J y
1 1
a P , a0 , a1 , b : J 1 ×C → R funciones no anticipativas respecto a Bt , t ∈ J 1 (C y
Bt , t ∈ J 1 , como en la página 145), tales que a0 (t , x), b(t , x) y a1 (t , x), b(t , x)
cumplen las condiciones de Lipschitz como en el Teorema 4.9.4. (pág. 149),
y |a1 (t , x)| 6 c < +∞.
¡ ¢
Sea η una variable aleatoria, en (Ω, F , P ), F0 -medible tal que E η2 <
+∞.
Entonces:
(I) existe ξ̃ = {ξt }t∈J 1 proceso estocástico, en (Ω, F , P ), real, medible, adap-
tado a {Ft }t∈J 1 y continuo (P -a.s.) tal que se cumplen:
156 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(1) ξ0 = η.
³n R1 ¯¯ ¯
¯

(2) P ω ∈ Ω : 0 ¯a0 (t , X ξ̃ (ω)) + a1 (t , X ξ̃ (ω))ξt (ω)¯ d t < +∞ = 1.
³n R1 o´
(3) P ω ∈ Ω : 0 b 2 (t , X ξ̃ (ω))d t < +∞ = 1.
(4) Con probabilidad 1, para todo t ∈ J 1 ,
Zt Zt
£ ¤
ξt = η + a0 (·, ξ̃)s + a1 (·, ξ̃)s ξs d s + b(·, ξ̃)s dWs .
0 0

f y la igualdad de
Por consiguiente, ξ̃ es un proceso de Itô respecto a W
(4) la podemos escribir
£ ¤
d ξt = a0 (·, ξ̃)t + a1 (·, ξ̃)t ξt d t + b(·, ξ̃)t dWt
con condición inicial η, t ∈ J 1 , (∗).

Por tanto, ξ̃ es solución fuerte (solución) de (∗), además es única en el


sentido del Teorema 4.9.4. (pág. 149).
(Luego existe una única solución fuerte de

d ξt = [a0 (·, ξ̃)t + a1 (·, ξ̃)t ξt ]d t + b(·, ξ̃)t dWt , ξ0 = η).


¡ ¢
(II) Si E η2m < +∞, m > 1, entonces existe una constante Mm > 0 tal que
¡ ¢ ¡ ¡ ¢¢
E ξ2m
t 6 1 + E η2m · exp(Mm t ) − 1.

Ejemplo 1. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , una filtra-


ción de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J y a
1 1
P , a(t , x) = 0 y b(t , x) = x, t ∈ J 1 , x ∈ R. Entonces, por el Corolario 4.9.5.
(pág. 150), se tiene que existe ξ̃ = {ξt }t∈J 1 proceso estocástico, en (Ω, F , P ),
real, medible, adaptado a {Ft }t∈J 1 y, continuo, tal que:

(1) ξ0 = η = 1.
³R ´
1
(2) P 0 |a(t , ξt )|d t < +∞ = 1, ya que a = 0.
³R ´
1 2
(3) P 0 ξt d t < +∞ = 1.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 157

(4) Con probabilidad 1, para todo t ∈ J 1


Zt
ξt = 1 + ξs dWs .
0

f y la igualdad de (4) se puede


(Por tanto, ξ̃ es un proceso de Itô respecto a W
escribir de la forma (Definición 4.8.1. (pág. 120)):

d ξt = ξt dWt con condición inicial 1, t ∈ J 1 .

Por consiguiente, ξ̃ es solución fuerte (solución) de

d ξt = ξt dWt con condición inicial 1, t ∈ J 1 ,

(o bien de
d η t = η t dWt , η 0 = 1).
Además la solución ξ̃ es única, en el sentido mencionado en el Teorema
4.9.4., (pág. 149).

Calculemos ξ̃: Sabemos que {Wt }t∈J 1 , es un proceso de Itô respecto a


R
f, Wt = t dWs , t ∈ J 1 (Ejemplo 5. (pág. 143)). Tomamos la función
W 0
µ ¶
1
f (t , x) = exp x − t , t ∈ J 1 , x ∈ R.
2
© Rt ª
Por el Teorema 4.8.5. (pág. 128), aplicado a Wt = 0 dWs t∈J 1 , con proba-
bilidad 1, para todo s ∈ J 1
µ ¶ Zs · µ ¶ µ ¶¸
1 1 1 1 1
exp Ws − s = 1 + − exp Wt − t + exp Wt − t d t +
2 0 2 2 2 2
Zs µ ¶ Zs µ ¶
1 1
+ exp Wt − t dWt = 1 + exp Wt − t dWt .
0 2 0 2
Por tanto, µ ¶
1
exp Ws − s , s ∈ J 1 ,
2
fy
es un proceso de Itô respecto a W
µ µ ¶¶ µ ¶
1 1
d exp Ws − s = exp Ws − s dWs , con condición inicial 1.
2 2
158 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Así, por la unicidad de la solución,


µ ¶
1
ξt = exp Wt − t , t ∈ J 1 .
2
¡ ¡ ¢¢
Además, se tiene que E exp ξ20 = e < +∞ y para todo δ > 0,
¡ ¡ ¢¢ ¡ ¡ ¢¢
sup E exp δξ2t = sup E exp δ exp (2Wt − t ) = +∞.
t∈J 1 t∈J 1

Luego en el resultado sobre acotación de los momentos exponenciales


(páginas 153 y 154), no se puede sustituir la condición

|b(t , y)| 6 K por |b(t , y)| 6 K (1 + |y|).

Ecuaciones diferenciales estocásticas lineales

Teorema 4.9.9. Sean (Ω, F© , P ) un


¡ espacio de¢ªprobabilidad, {Ft }t∈J 1 una fil-
f = Wt = W 1 , ...,W n
tración de (Ω, F ) y W t t t∈J 1 un proceso de Wiener n-
dimensional respecto a {Ft }t∈J 1 y a P , (pág. 124).
³ ´ ¡ ¢
Sean a0 (t ) = (a01 (t ), ..., a0n (t )), a1 (t ) = ai1j (t ) , matriz n ×n, b(t ) = b i j (t ) ,
matriz n × n, t ∈ J 1 , donde a0j (t ), ai1j (t ), b i j (t ), t ∈ J 1 , son funciones medi-
bles (no estocásticas) tales que
Z1 Z1 ¯ ¯ Z1
¯ ¯ ¯ 1 ¯
¯a0j (t )¯ d t < +∞, ¯ai j (t )¯ d t < +∞, b i2j (t )d t < +∞.
0 0 0

Entonces:
(1). La ecuación Zt
Φ(t ) = I + a1 (s)Φ(s)d s,
0

donde I es la matriz unidad n × n, t ∈ J 1 , tiene solución Φ(t ), t ∈ J 1 , siendo


Φ(t ) una matriz n × n cuyos elementos son continuos. Además Φ(t ), t ∈ J 1 ,
es (P -a.s.) diferenciable y

d |Φ(t )|
= Tr aza(a1 (t )) · |Φ(t )|, |Φ(0)| = 1, (P − a.s.), t ∈ J 1 ,
dt
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 159

donde |Φ(t )| es el determinante de Φ(t ). Por tanto,


µZ t ¶
|Φ(t )| = exp Tr aza(a1 (s))d s , t ∈ J 1 ,
0

y Φ(t ) es no singular y (P -a.s.), t ∈ J 1

d Φ(t )−1
= −Φ(t )−1 a1 (t ).
dt

Por último si Φ̃(t ), Φ̃(0) = I es otra solución de


Zt
Φ(t ) = I + a1 (s)Φ(s)d s,
0

entonces, (P -a.s.), t ∈ J 1 ,

d Φ(t )−1 Φ̃(t )


= 0 y Φ̃(t ) = Φ(t ) (P − a.s.), t ∈ J 1 .
dt
(2). Consideramos la expresión, t ∈ J 1 ,
· Zt Zt ¸
∗ ∗ −1 ∗ −1 ∗
ξt = Φ(t ) η + Φ(s) a0 (s) d s + Φ(s) b(s)dWs ,
0 0

donde η =¡ (η 1 , ..., η ) es una


¢ variable aleatoria n-dimensional F0 -medible
P ¯ ¯n ¡ ¢
tal que P ni=1 ¯η i ¯ < +∞ = 1 y ξt = (ξ1t , ..., x tn ) y si Φ(s)−1 b(s) = h i j (s) ,
entonces,   
dWs1
 ¡ 1 n
¢  . 
Ws = Ws , ...,Ws , dWs =  .. 

dWsn
Zt Zt X
n
¡ ¢ j
h i 1 (s)dWs1 + ... + h i n (s)dWsn = h i j (s)dWs , i = 1, ..., n.
0 0 j =1
© ª
Entonces, el proceso estocástico ξ∗t t∈J 1 , es solución fuerte, (única), de
 
y 1,t Zt Zt
∗  ..  ∗
£ ∗ ∗
¤
yt =  .  = η + a0 (s) + a1 (s)y s d s + b(s)dWs∗ , t ∈ J 1 ,
0 0
y n,t
160 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

  Rt Rt 
1 n
Zt b
0 1,1 dW s + ... + b
0 1,n dW s
 ∗  
 b(s)dWs =  ......................................................
R R =
0 t 1 t n
0 b n,1 dW s + ... + 0 b n,n dW s
 Pn Rt j 
j =1 0 b 1,j dWs
 
 ................................  .
Pn Rt j
j =1 0 b n,j dW s
Ejemplo 2. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 una filtra-
ción de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J y a
1 1
P , y sean a > 0, b > 0 constantes.
Entonces por el Teorema 4.9.9. (pág. 158), Φ(t ) = exp(at ) y
· Zt ¸
ξt = exp(at ) η + exp(−as)bWs , t ∈ J 1 ,
0
donde η es una variable aleatoria, en (Ω, F , P ), F0 -medible con P (|η| <
+∞) = 1, es la única solución de
Zt Zt
ξt = η + aξs d s + bdWs , t ∈ J 1 .
0 0

R+∞Se 2prueba, en general, queRtsi f (t ), t > 0, (no estocástica) es medible y


0 f (t )d
Rt t < +∞, entonces 0 f (s)dWs , t > 0, es Gaussiana de media 0 y
2
varianza 0 f (s)d s, de hecho, se tiene también que si
Zt
f 2 (s)d s < +∞,
0
Rt Rt
entonces 0 f (s)dWs es Gaussiana de media 0 y varianza 0 f 2 (s)d s. En
particular Zt
b exp(−as)dWs
0
Rt
es Gaussiana de media 0 y varianza 0 b 2 exp(−2as)d s.(Véase el párrafo
3.12 de V. 2).

Ejemplo 3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-


ción de (Ω, F ), Wf = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J
T T
y a P , y µ, σ, x0 6= 0 constantes reales. Entonces por el Corolario 4.9.5.
(pág. 150), existe ξ̃ = {ξt }t∈J T proceso estocástico, en (Ω, F , P ), real, medi-
ble, adaptado a {Ft }t∈J T y continuo tal que
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 161

(1) ξ0 = x0 .

³R ´
T
(2) P 0 |µξt |d t < +∞ = 1, ((t , x) 7→ µx, t ∈ J T , x ∈ R).

³R ´
T
(3) P 0 σ2 ξ2t d t < +∞ = 1, ((t , x) 7→ σ(x), t ∈ J T , x ∈ R.

(4) Con probabilidad 1, para todo t ∈ J T

Zt Zt
ξt = x 0 + µξs d s + σξs dWs .
0 0

f y la igualdad de (4) se puede


(Por tanto, ξ̃ es un proceso de Itô respecto a W
escribir de la forma (Definición 4.8.1. (pág. 120)):

d ξt = µξt d t + σξt dWt con condición inicial x0 , t ∈ J T ).

Por consiguiente, ξ̃ es solución de

d ξt = µξt d t + σξt dWt con condición inicial x0 , t ∈ J T .

Además la solución ξ̃ es única, en el sentido mencionado en el Teorema


4.9.4, (pág. 149).
Calculemos efectivamente
Rt ξ̃: Consideramos el proceso de Itô respecto a
f
W = {Wt }t∈J T , (Wt = 0 dWs ) (Ejemplo 5. (pág. 143), y la función

µµ ¶ ¶
σ2
f (t , x) = x0 exp µ − · t + σx .
2

Entonces, por el Teorema 4.8.5. (pág. 128), con probabilidad 1, para todo
162 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

s ∈ JT ,
·µ ¶ ¸
σ2
f (s,Ws ) = x0 exp µ − s + σWs =
2
Zs ·µ ¶ µµ ¶ ¶
σ2 σ2
= x0 + µ− x0 exp µ − t + σWt +
0 2 2
µµ ¶ ¶¸ Zs µµ ¶ ¶
1 2 σ2 σ2
σ x0 exp µ − t + σWt d t + σx0 exp µ − t + σWt dWt =
2 2 0 2
Zs ·µ ¶ ¸
σ2
= x0 + µx0 exp µ − t + σWt d t +
0 2
Zs ·µ ¶ ¸ Zs
σ2
+ σx0 exp µ − t + σWt dWt = x0 + µ f (t ,Wt )d t +
0 2 0
Zs
+ σ f (t ,Wt )dWt .
0
© ª
Por consiguiente, f (t ,Wt ) t∈J T es un proceso estocástico de Itô respecto
f y la igualdad anterior la podemos escribir, t ∈ J T
aW
d f (t ,Wt ) = µ f (t ,Wt )d t + σ f (t ,Wt )dWt , con condición inicial x0 (∗).
© ª
De esta forma f (t ,Wt ) t∈J T , es solución de (∗) anterior (Definición 4.9.1.
© ª
(pág. 146)), o bien, f (t ,Wt ) t∈J T , es solución de
d ξt = µξt d t + σξt dWt , ξ0 = x0 , t ∈ J T .
Luego hemos calculado una solución fuerte (solución) de
d ξt = µξt d t + σξt dWt , ξ0 = x0 ,
que sabemos que es única.

En el ejemplo anterior se ha probado el siguiente teorema:


Teorema 4.9.10 (Movimiento Browniano geométrico). Sean (Ω, F , P ) un
espacio de probabilidad, {Ft }t∈J T una filtración de (Ω, F ), W f = {Wt }t∈J
T
un proceso de Wiener respecto a la filtración {Ft }t∈J T y a P , y µ, σ, x0 6= 0
constantes reales. Entonces,
µµ ¶ ¶
σ2
ξt = x0 exp µ − · t + σWt , t ∈ J T ,
2
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 163

es solución (única) de

d ξt = µξt d t + σξt dWt , ξ0 = x0 , t ∈ J T ,


n h³ 2
´ io
por tanto, x0 exp µ − σ2 · t + σWt , es un proceso de Itô respecto a
t∈J T
f, (este proceso nos servirá de modelo para los precios de los activos finan-
W
cieros (las acciones), y se llama modelo de Black-Scholes-Merton).
h 2 i
Si µ = 0, entonces x0 exp − σ2 · t + σWt , t ∈ J T , es una martingala res-
pecto a {Ft }t∈J 1 y a P (véase el Problema 6.2 (pág. 96)).
Veamos una variante del Corolario 4.9.5. (pág. 150).
Proposición 4.9.11. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞
f = {Wt }t∈J un proceso de Wiener respecto a
una filtración de (Ω, F ), W ∞
{Ft }t∈J ∞ y a P ,
a, b : J ∞ × R → R
aplicaciones continuas y η una variable aleatoria F0 -medible.
Supongamos que existe K < +∞ tal que:
(1) |a(t , x) − a(t , y)| + |b(t , x) − b(t , y)| 6 K |x − y|, t ∈ J ∞ , x, y ∈ R.

(2) |a(t , x)| + |b(t , x)| 6 K (1 + |x|), t ∈ J ∞ , x ∈ R.


¡ ¢
(3) E η2 < +∞.
Entonces para todo T > 0, existe ξ̃ = {ξt }t∈J T proceso estocástico, en el espacio
de probabilidad (Ω, F , P ), real, medible, adaptado a {Ft }t∈J T y continuo tal
que:
(1) ξ0 = η.
³R ´
T
(2) P 0 |a(t , ξt )|d t < +∞ = 1.
³R ´
T
(3) P 0 b 2 (t , ξt )d t < +∞ = 1.

(4) Con probabilidad 1, para todo t ∈ J T


Zt Zt
ξt = η + a(s, ξs )d s + b(s, ξs )dWs .
0 0
164 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

f y la igualdad de (4) se puede


(Por tanto, ξ̃ es un proceso de Itô respecto a W
escribir de la forma (Definición 4.8.1. (pág. 120)):

d ξt = a(t , ξt )d t + b(t , ξt )dWt con condición inicial ξ0 = η, t ∈ J T .

Por consiguiente, ξ̃ es solución fuerte (solución) de

d ξt = a(t , ξt )d t + b(t , ξt )dWt con condición inicial ξ0 = η, t ∈ J T ).

Además esta solución, ξ̃, es única y cumple que


à !
2
E sup |ξs | < +∞.
s∈J T

© ª © ª
(La unicidad significa: si ξ̃′ = ξ′t t∈J T , ξ̃′′ = ξ′′t t∈J T son soluciones de

d ξt = a(t , ξt )d t + b(t , ξt )dWt con condición inicial ξ0 = η, t ∈ J T ,

entonces (P -a.s.) para todo t ∈ J T , ξ′t = ξ′′t .)

Indicación de la demostración: Sea


©
E = ξ̃ = (ξs )s∈J T : ξ̃ es un proceso estocástico real, medible, continuo y
à ! )
adoptado a{Ft }t∈J T tal queE sup |ξs |2 < +∞ .
s∈J T

Entonces E es un espacio vectorial real. Para cada ξ̃ ∈ E , ponemos


v à !
u
u
kξ̃k = tE sup |ξs | .
2
s∈J T

Entonces, (E , k · k) es un espacio vectorial real normado y completo. Se


construye la aplicación Φ : E → E de la siguiente forma: Para todo ξ̃ ∈ E ,
Zt Zt
Φ(ξ̃)t = η + a(s, ξs )d s + b(s, ξs )dWs , t ∈ J T .
0 0
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 165

Se prueba que Φ está bien definida, ya que si ξ̃, η̃ ∈ E , entonces


à ! à !
¯ ¯2 ¡ 2 2 ¢ ¯ ¯ 2
E sup ¯Φ(ξ̃)t − Φ(η̃)t ¯ 6 2 K T + 4K 2 T E sup ¯ξt − η t ¯ , (I )
t∈J T t∈J T

(y por tanto, Φ(ξ̃) − Φ(η̃) ∈ E ), y


à !
E sup |Φ(0)t |2 < +∞,
t∈J T

(y así Φ(0) ∈ E ). Además de la desigualdad (I),


q ¡ ¢
kΦ(ξ̃) − Φ(η̃)k 6 2 K 2 T 2 + 4K 2 T · kξ̃ − η̃k = k(T ) · kξ̃ − η̃k,
q ¡ ¢
donde k(T ) = 2 K 2 T 2 + 4K 2 T .
Si T es tal que k(T ) < 1, entonces Φ es aplicación contractiva de E en E y
por tanto, admite un único punto fijo en E , ξ̄. Por consiguiente,
Zt Zt
ξ̄t = η + a(s, ξ̄s )d s + b(s, ξ̄s )dWs , t ∈ J T ,
0 0

y ξ̄t , t ∈ J T , es solución de

d ξt = a(t , ξt )d t + b(t , ξt )dWt , ξ0 = η, t ∈ J T .

Se prueba, por último, que una solución de

d ξt = a(t , ξt )d t + b(t , ξt )dWt , ξ0 = η, t ∈ J T ,

debe pertenecer a E y ser un punto fijo de Φ.


Cuando T es arbitrario, se toma n suficientemente grande y se razona co-
mo antes, sucesivamente en los intervalos
· ¸ · ¸ · ¸
T T 2T (n − 1)T
0, , , , ..., ,T .
n n n n

Teorema 4.9.12 (Proceso estocástico continuo de Ornstein-Ulhenbeck).


Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración de (Ω, F ),
166 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J y a P ,


W ∞ ∞
a(t , x) = −cx, b(t , x) = σ, donde t ∈ J ∞ , x ∈ R y c, σ¡ son
¢ constantes reales, y
sea η una variable aleatoria F0 -medible tal que E η2 < +∞.
Entonces se cumplen (1), (2) y (3) de la proposición anterior, y por tanto,
para todo T > 0 existe ξ̃ = {ξt }t∈J T proceso estocástico, en (Ω, F , P ), real, me-
dible, adaptado a {Ft }t∈J T y continuo tal que ξ̃ es solución fuerte de

d ξt = −cξt d t + σdWt , ξ0 = η, t ∈ J T , (∗)

y dicha solución es única y se cumple que


à !
E sup |ξt |2 < +∞.
t∈J T

f), se le llama proceso


A esta solución ξ̃, ( que es un proceso de Itô respecto a W
de Ornstein-Ulhenbeck y a (∗) se le llama ecuación de Langevin.
Explicitemos esta solución ξ̃: Ponemos ζt = ξt exp(ct ) y aplicamos la fórmu-
la del Ejemplo 6 (pág. 144). Entonces, (P -a.s.), t ∈ J T ,
Zt Zt
£ ¤
ζt = ξt ·exp(ct ) = η+ ξs c exp(cs) + exp(cs)(−cξs ) d s + exp(cs)σdWs ,
0 0
Rt
(exp(ct ) = 1 + 0 c exp(cs)d s (o bien d (exp(ct )) = c exp(ct )d t )), de donde
Zt
ξt = η exp(−ct ) + σ exp(−ct ) exp(cs)dWs , (P − a.s.), t ∈ J T .
0

Calculemos la media y la varianza de ξt para el caso η constante:


µ Zt ¶
E (ξt ) = η exp(−ct ) + σ exp(−ct )E exp(cs)dWs = η exp(−ct ),
0

ya que µZt ¶
E exp(2cs)d s < +∞,
0
(por tanto, exp(ct ), t ∈ J T , es de clase E T respecto a {Ft }t∈J T y a P , (pág. 97)),
Rt
y así 0 exp(cs)dWs , t ∈ J T , es una martingala respecto a {Ft }t∈J T y a P que
¡Rt ¢
es nula en t = 0, de donde se deduce que E 0 exp(cs)dWs = 0.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 167

Análogamente:
"µZ ¶2 #
t
E (ξt − E (ξt ))2 = σ2 exp(−2ct )E exp(cs)dWs =
0
µ Zt ¶
2 σ2
σ exp(−2ct )E exp(2cs)d s = · (1 − exp(−2ct )),
0 2c

ya que, en general, cuando f 1 (t , ω), f 2 (t , ω) son de clase E T respecto a la


filtración {Ft }t∈J T y a P (pág. 97), entonces,
µ·Zt ¸ ·Zt ¸¶ µZt ¶
E f 1 (s, ω)dWs f 2 (s, ω)dWs =E f 1 (s, ω) f 2 (s, ω)d s .
0 0 0

Por último, teniendo en cuenta el Ejemplo 2. (pág. 160),


Zt
σ exp(−ct ) exp(cs)dWs
0

es Gaussiana de media 0 y varianza (σ2 /2c) · (1 − exp(−2ct )), de donde


Zt
ξt = η exp(−ct ) + σ exp(−ct ) exp(cs)dWs
0

es Gaussiana de media η exp(−ct ), (η sigue considerándose constante) y va-


rianza (σ2 /2c) · (1 − exp(−2ct )). Más aún, el proceso estocástico ξ̃, es Gaus-
siano, es decir, si λ1 ,...,λn son números reales y 0 6 t1 < ... < tn , entonces
λ1 ξt1 + ... + λn ξtn es Gaussiana.

Para probar que ξ̃, es efectivamente Gaussiana (como proceso) se procede


así:
ZT ZT
ξti = η exp(−cti ) + I {s 6 ti } σ exp(−cti ) exp(cs)dWs = m i + f i (s)dWs
0 0

n
X ZT Ã X
n
! ZT
λ1 ξt1 + ... + λn ξtn = λi m i + λi f i (s) dWs = m + f (s)dWs .
i =1 0 i =1 0
168 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

R+∞
Observamos que la función f (s) es determinista y 0 f 2 (s)d s < +∞. Por
tanto, ZT
f (s)dWs
0
R+∞
es Gaussiana de media 0 y varianza 0 f 2 (s)dRs. Así, λ1 ξt1 + ... + λn ξtn es
P
Gaussiana de media m = ni=1 λi m i y varianza 0 f 2 (s)d s.
+∞

Finalmente, ξ̃ = {ξt }t∈J T es un proceso de Markov respecto a {Ft }t∈J T y


a P , con probabilidad de transición
1
p(s, x; t , A) = P (ξt ∈ A|ξs = x) = p ·
2πσ2 (−2c)−1 (exp(−2c(t − s)) − 1)
Z µ ¶
−(y − x exp(−c(t − s)))2
· exp 2 d y, s, t ∈ J T , s < t , x ∈ R, A ∈ B(R).
A σ (−c)−1 (exp(−2c(t − s)) − 1)
Por tanto, ξ̃ es un proceso de Markov con densidad de transición, (véase la
Definición 4.4.13., pág. 48),
1
p(s, x|t , y) = p ·
2πσ2 (−2c)−1 (exp(−2c(t − s)) − 1)
µ ¶
−(y − x exp(−c(t − s)))2
· exp 2 ,
σ (−c)−1 (exp(−2c(t − s)) − 1)
y se comprueba que p(s, x|t , y) satisface las ecuaciones
2
∂p(s,x|t,y) ∂p(s,x|t,y) σ2 ∂ p(s,x|t,y)
∂t =c· ∂y + 2 ∂y 2
(∗∗)
∂p(s,x|t,y) ∂p(s,x|t,y) 2 ∂2 p(s,x|t,y)
∂s = −c · ∂x − σ2 ∂x 2
(∗ ∗ ∗).
La ecuación (∗∗) es la ecuación forward de Kolmogorov o ecuación Fokker-
Planck correspondiente a la ecuación de Langevin (∗), y la ecuación (∗ ∗
∗) es ecuación backward de Kolmogorov correspondiente a (∗). Se puede
demostrar que la ecuación de Fokker-Planck, (∗∗), determina la ecuación
de Langevin (∗).
Obsérvese que si c = 0 y σ = 1, (es decir, la ecuación de Langevin se reduce
a d ξt = dWt , ξ0 = η, t ∈ J T ), se obtienen las ecuaciones de la página 82. Por
otro lado, si σ = 0, la ecuación de Langevin se convierte en d ξt = −cξt d t ,
ξ0 = η, t ∈ J T , y la correspondiente ecuación de Fokker-Planck es, en este
∂p(s,x|t,y) ∂p(s,x|t,y)
caso, ∂t =c· ∂y .
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 169

Flujo estocástico y Procesos de Markov

Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración de (Ω, F )


yWf = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J y a P . Sean b, σ :
∞ ∞
J ∞ × R → R medibles y ζ una variable aleatoria F0 -medible.
Ya hemos dicho qué significa encontrar una solución de
Zt Zt
ξt = ζ + b(s, ξs )d s + σ(s, ξs )dWs , t > 0, (∗),
0 0

(o de
d ξt = b(t , ξt )d t + σ(t , ξt )dWt , ξ0 = ζ, t ∈ J ∞ ),

(Para todo T > 0, encontrar un proceso estocástico ξ̃ = {ξt }t∈J T , en el es-


pacio (Ω, F , P ), real, medible, continuo y adaptado a {Ft }t∈J T tal que las
integrales de (∗) tengan sentido para ξ̃ y ξ̃ satisfaga, (P -a.s.), a (∗)).

Lo que nos planteamos, ahora, es encontrar una solución de


Zt Zt
ξt = x + b(u, ξu )d u + σ(u, ξu )dWu , t > s, x ∈ R,
s s
© ª
solución que designaremos por ξs,x t t > s . Se prueba un resultado más ge-
neral:
Con las hipótesis de la Proposición 4.9.11. (pág. 163), (allí eran a, b, aquí
s,x
son b, σ), se prueba que existe un proceso estocástico ξ © t s,x, que
ª depende de
(s, x, t ), que es continuo en las tres variables (s, x, t ) y ξt t > s es solución
(única) de
Zt Zt
ξs,x
t =x+ b(u, ξus,x )d u + σ(u, ξus,x )dWu , t > s, x ∈ R.
s s

Además,
s,ξ0,x
ξ0,x
t = ξt
s
, (P − a.s.), s 6 t .

(Es un teorema análogo al teorema del flujo de las ecuaciones diferenciales


ordinarias).
170 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.9.13. Sean (Ω, F ; P ) un espacio de probabilidad, {Ft }t∈J ∞ una


f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), res-
filtración de (Ω, F ) y W ∞
pecto a {Ft }t∈J ∞ y a P . Sean b, σ : J ∞ × R → R medibles y ζ una variable
aleatoria F0 -medible. Sea ξ̃ = {ξt }t∈J ∞ una solución de
Zt Zt
ξt = ζ + b(s, ξs )d s + σ(s, ξs )dWs , t > 0.
0 0

Supongamos© s,xque
ª se cumplen las hipótesis de la Proposición 4.9.11. (pág.
163) y sea ξt t > s , la solución de
Zt Zt
ξs,x
t =x+ b(u, ξus,x )d u + σ(u, ξus,x )dWu , t > s, x ∈ R.
s s

Entonces para toda función medible y acotada f : R → R, se tiene:


¡ ¢ ¡ ¡ ¢¢
(P − a.s.), E f (ξt ) | Fs = Φ (ξs ) , donde Φ(x) = E f ξs,x
t , s 6 t,

o bien, con otra notación,


¡ ¢ ¡ ¡ ¢¢
(P − a.s.), E f (ξt ) | Fs = E f ξs,x
t | x=ξs , s 6 t ,

En particular, (por las propiedades de la esperanza condicionada, (V. 2, pág.


221)), E ( f (ξt )|Fs ) = E ( f (ξt )|ξs ), s < t , y ξ̃ es un proceso de Markov respecto
a {Ft }t∈J ∞ y a P .
Además, si τ es un tiempo de parada respecto a {Ft }t∈J ∞ , ¡(pág. 65), para ¢
toda
¡ función ¢medible y acotada f : R → R, se verifica que E f (ξτ+t ) |Fτ =
E f (ξτ+t ) |ξτ , (P -a.s.), t ∈ J ∞ , (es decir, ξ̃ cumple la propiedad de Markov
fuerte).

Teorema 4.9.14. Tomamos las mismas hipótesis del teorema anterior. Sea,
además, r (s, x) una función medible y positiva de R2 en R. Entonces se tiene:
Si t > s, (P -a.s.),
µ µ Zt ¶ ¶
E exp − r (u, ξu ) d u · f (ξt ) | Fs =
s
µ µ Zt ¶ ¶
¡ s,x
¢ ¡ s,x ¢
= E exp − r u, ξu d u · f ξt | x=ξs ,
s

para toda función f medible y acotada, f : R → R.


4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 171

Observación 1. Si b y σ, introducidas anteriormente, sólo dependen de


x ∈ R, entonces para toda función f medible y acotada se tiene que:
¡ ¡ ¢¢ ³ ³ ´´
E f ξs,x
s+t = E f ξ0,x
t , x ∈ R.

Si b y σ sólo dependen de x ∈ R y r es una función que sólo depende de


x ∈ R, entonces se tiene que:
µ µ Zs+t ¶ ¶ µ µ Zt ¶ ³ ´¶
¡ s,x ¢ ¡ s,x ¢ ¡ 0,x ¢ 0,x
E exp − r ξu d u · f ξs+t = E exp − r ξu d u · f ξt ,
s 0

para toda función f medible y acotada, y siguiendo en este caso se tiene


que, para toda función f medible y acotada
µ µ Zt ¶ ¶
E exp − r (ξu )d u · f (ξt ) | Fs =
s
µ µ Zt−s ¶ ³ ´¶
¡ 0,x ¢ 0,x
= E exp − r ξu d u · f ξt−s | x=ξs ,
0

Observación 2. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una


filtración de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) res-

pecto a {Ft }t∈J ∞ y a P . Entonces,
RT RT
(1) Se tiene la fórmula 0 Wt d t = 0 (T − t )dWt .
¡ ¢
(2) ξt = exp Wt − 12 t es solución (única) de d ξt = ξt dWt , ξ0 = 1.

(3) La ecuación diferencial estocástica


d X t = (AX t + a)d t + (B X t + b)dWt , X 0 = c,
tiene la siguiente solución (única):
µ Zt Zt ¶
−1 −1
X t = Φt c + Φs (a − Bb)d s + Φs bdWs ,
0 0

donde Zt Zt
Φt = 1 + AΦs d s + BΦs dWs ,
0 0
es decir, (Problema 9.4),
µµ ¶ ¶
B2
Φt = exp A− · t + BWt .
2
172 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Rt
(4) Wt2 = t + 2 0 Ws dWs , (por tanto, Wt2 − t es una martingala) (véase el
Problema 6.2. (pág. 96)).

Ejercicios y problemas
9.1. Estudiar la equivalencia entre
à ! à !
P sup | ξi ,t − ξ′i ,t | > 0 = 0 y P sup | ξt − ξ′t | > 0 = 0,
t∈J 1 t∈J 1

donde s
n
X
| ξt − ξ′t |= | ξi ,t − ξ′i ,t | 2 .
i =1

9.2. Probar las igualdades


¡ ¡ ¢¢ ¡ ¡ ¢¢
sup E exp δξ2t = sup E exp δ exp (2Wt − t ) = +∞.
t∈J 1 t∈J 1

del Ejemplo 1 (páginas 156, 157 y 158).

9.3. Pruébese la unicidad mencionada en el Ejemplo 3, (pág. 160), directa-


mente.
Indicación: Sea η t , t ∈ J T , otra solución de

d ξt = µξt d t + σξt dWt , ξ0 = x0 , t ∈ J T .

Se pone
η0
ζt = , µ′ = −µ + σ2 y σ′ = −σ.
f (t ,Wt )
Entonces, ·µ ¶ ¸
′σ′2 ′
ζt = exp µ − · t + σ Wt , t ∈ J T .
2
Finalmente,
© ª se aplica el resultado del Ejemplo 6 (pág. 144) para calcular
η t · ζt t∈J T .

9.4. Probar que ξt , del Teorema 4.9.12. (pág. 165), es efectivamente Gaus-
siana de media η exp(−ct ) y varianza (σ2 /2c)(1 − exp(−2ct )).
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 173

Rt̄
Indicación: Se pone γt̄ = 0 σ exp(−c t̄ ) exp(cs)dWs que sabemos que es
Gaussiana de media 0 y varianza (σ2 /2c) · (1 − exp(−2c t̄ ). A continuación
se calcula la característica de γt̄ y la característica de η exp(−c t̄ ) + γt̄ .

9.5. Sabemos, del Teorema 4.9.10. (pág. 162), que


µµ ¶ ¶
σ2
ξt = exp µ − · t + σWt , t ∈ J T ,
2
es solución (única) de
d ξt = µξt d t + σξt dWt , ξ0 = 1, t ∈ J T .
Hallar la ecuación diferencial estocástica de la cual ξ−1t es solución.
Indicación: Se tiene
µµ ¶ ¶ µµ ¶ ¶
−1 σ2 2 σ2
ξt = exp −µ + · t − σWt = exp −µ + σ − · t − σWt .
2 2
© ª
9.6. (En relación con el problema anterior). Sea η̃ = η t t∈J T la solución de
la ecuación diferencial estocástica
¡ ¢ ¡ ¢
d η t = µη t + µ′ d t + ση t + σ′ dWt , η 0 = 0.
Probar que Zt Zt
η t ξ−1
t = ξ−1 ′ ′
s (µ − σσ )d s + ξ−1 ′
s σ dW s .
0 0
Indicación: Aplicar el Ejemplo 6 (pág. 144).

9.7. (En relación con los dos problemas anteriores). Rt Hallar una expresión
de η t en la que no figuren integrales estocásticas ( 0 ·dWs ).
Indicación: Sabemos que
Zt Zt
−1 2 −1
ξt = 1 + (−µ + σ )ξs d s − σξ−1
s dW s .
0 0
Rt
9.8. Calcular 0 exp(cs)dWs . Rt Rt
Indicación: Se tiene que exp(ct ) = 1 + 0 c exp(cs)d s y Wt = 0 dWs , y por
tanto, Z Z
t t
exp(ct ) · Wt = c exp(cs) · Ws d s + exp(cs)dWs ,
0 0
por el Ejemplo 6 (pág. 144).
174 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

4.10. Ecuaciones diferenciales estocásticas. Solu-


ción débil
Versión unidimensional de solución débil

Recordamos las notaciones introducidas en la página 145: Sean C el con-


junto de funciones continuas de [0, 1] en R, (por tanto, C ⊂ R[0,1] ), B1 la
σ-álgebra en C definida por B1 = σ(x : t s , s 6 1), (es decir, B1 es la más
pequeña σ-álgebra en C que hace medibles a las funciones t s : C → R,
0 6 s 6 1, donde t s (x) = x s = x(s) para todo x ∈ C ), y la σ-álgebra en C ,
Bt = σ(x : t s , s 6 t ), 0 6 t 6 1, (es decir, Bt es la más pequeña σ-álgebra en
C que hace medible a las funciones t s : C → R, 0 6 s 6 t ).

Sean a, b : [0, 1] ×C → R funciones no anticipativas respecto a {Bt }t∈J 1 ,


(pág. 96). Sea F (x) una función de distribución en R (V. 2, pág. 78).

Si existen (Ω, F , P ) espacio de probabilidad, {Ft }t∈J 1 filtración de (Ω, F ),


f
W = {Wt }t∈J 1 proceso de Wiener respecto a {Ft }t∈J 1 y a P , ξ̃ = {ξt }t∈J 1 proce-
so estocástico en (Ω, F , P ), real, medible, adaptado a {Ft }t∈J 1 y continuo,
y una variable aleatoria η en (Ω, F , P ) tales que:

(1) ξ0 = η.
³n R1 o´
(2) P ω ∈ Ω : 0 |a(t , X ξ̃ (ω))|d t < +∞ = 1, (pág. 4).
³n R1 o´
(3) P ω ∈ Ω : 0 b 2 (t , X ξ̃ (ω))d t < +∞ = 1, (pág. 4).

(4) Con probabilidad 1, para todo t ∈ J 1


Zt Zt
ξt = η + a(·, ξ̃)s d s + b(·, ξ̃)s dWs .
0 0

(5) P {ω : ξ0 (ω) 6 x} = F (x),

entonces, decimos que ξ̃ es solución débil (o solución en sentido débil) de

d ξt = a(·, ξ̃)t d t + b(·, ξ̃)t dWt con condición inicial η y distribución F (x).
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 175

(Por tanto, el proceso estocástico ξ̃ es un proceso de Itô respecto al proceso


de Wiener W f , tomando las funciones no anticipativas respecto a {Ft }t∈J ,
1
a(·, ξ̃), b(·, ξ̃)) dadas por a(·, ξ̃)(t , ω) = a(t , X ξ̃ (ω)) y b(·, ξ̃)(t , ω) = b(t , X ξ̃ (ω)),
t ∈ J 1 , ω ∈ Ω.

Si ξ̃ es solución débil de la ecuación diferencial estocástica anterior


n o y
ξ̃ f es un proceso de Wiener respecto a F ξ̃
Ft = Ft , t ∈ J 1 , entonces W t t∈J 1
f ξ̃
y a P, y por tanto, FtW ⊂ Ft , t ∈ J1.

Ejercicios y problemas
10.1. Probar que toda solución fuerte de la ecuación diferencial estocástica
d ξt = a(·, ξ̃)t d t +b(·, ξ̃)t dWt con condición inicial η, (pág. 146), es solución
débil, y poner un ejemplo de una ecuación diferencial estocástica que ten-
ga solución débil y no tenga solución fuerte.

4.11. Representación de martingalas de cuadra-


do integrable
Sean (Ω, F , P ) un espacio de probabilidad completo y {Ft }t∈J ∞ una filtra-
ción completa respecto a P de (Ω, F ) continua por la derecha (es decir,
T
Ft = s>t Fs , t ∈ J ∞ ).©Recordamos
ª (definición) que una martingala cua-
drado integrable, µ̃ = µt t∈J T es una martingala respecto a {Ft }t∈J T y a P
¡ ¢
(pág. 58), continua por la derecha, tal que supt∈J T E µ2t < +∞. A la familia
de dichas martingalas cuadrado integrables la designaremos
© ª por MT . Si
T = +∞, ponemos M+∞ = M (Obsérvese que si µt t∈J T es un elemento
© ª
de MT , entonces µ2t t∈J T es submartingala respecto a {Ft }t∈J T y a P ).
© ª
Teorema 4.11.1. Sea µ̃ = µt t∈J T un elemento de MT . Entonces existe un
único (salvo equivalencia estocástica, (Definición 4.1.1.(1), pág
© 2), proceso
ª
estocástico creciente y predecible, que designaremos por < µ̃ >= < µ̃ >t t∈J T ,
tal que para todo t ∈ J T

µ2t = νt + < µ̃ >t , (P − a.s.) (∗)


176 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde ν̃ = {νt }t∈J T es una martingala respecto a {Ft }t∈J T y a P . Además, si


t > s, se tiene que
h¡ ¢2 i £ ¤
E µt − µs | Fs = E < µ̃ >t − < µ̃ >s | Fs , (P − a.s.).

Recordemos la definición de proceso estocástico creciente y predecible:


Un proceso estocástico α̃ = {αt }t∈J ∞ en el espacio de probabilidad (Ω, F , P )
se dice que es creciente respecto a la filtración {Ft }t∈J ∞ , del espacio medi-
ble (Ω, F ), si está adaptado a esa filtración, es continuo por la derecha,
α0 = 0 (P -a.s.), y αs 6 αt (P -a.s.), s 6 t , (véase la página 63).
Un proceso estocástico α̃ = {αt }t∈J ∞ medible y creciente respecto a la fil-
tración {Ft }t∈J ∞ , se dice que es integrable si E (α+∞ ) < +∞.
Sea α̃ = {αt }t∈J ∞ un proceso estocástico creciente respecto a la filtración
{Ft }t∈J ∞ . Supongamos que para toda martingala ς̃ = {ςt }t∈J ∞ respecto a
{Ft }t∈J ∞ y a P , acotada, positiva y continua por
¡R+∞ ¢ la derecha y con límite por
la izquierda, se verifica que E 0 (ςs − )d αs = E (ς+∞ α+∞ ). Con estas hi-
pótesis se dice que α̃ es un proceso estocástico creciente y predecible.

Lema 4.11.2. Sea α̃ = {αt }t∈J ∞ un proceso estocástico, en el espacio de pro-


babilidad (Ω, F , P ), medible, adaptado a la filtración {Ft }t∈J ∞ de (Ω, F ),
creciente e integrable. Entonces, α̃ es predecible si y sólo si para cualquier
martingala respecto a {Ft }t∈J ∞© y aª P , acotada, continua por la derecha y
con límite por la izquierda χ̃ = χt t∈J ∞ ,
µZT ¶ µZT ¶
E χs d α s = E (χs − )d αs , para todo T > 0.
0 0

Una supermartingala π̃ = {πt }t∈J ∞ respecto a {Ft }t∈J ∞ y a P , no negativa


con lı́mt→+∞ E (πt ) = 0, se llama un potencial.
© ª
Teorema 4.11.3 (Descomposición de Riesz). Sea χ̃ = χt t∈J ∞ una super-
martingala respecto a {Ft }t∈J ∞ y a P , continua por la derecha, y tal que
mayora a alguna submartingala ς̃ =©{ςtª}t∈J ∞ respecto a {Ft }t∈J ∞ y a P . En-
tonces, existen una martingala µ̃ = µt t∈J ∞ respecto {Ft }t∈J ∞ y a P , y un
potencial π̃ = {πt }t∈J ∞ respecto a {Ft }t∈J ∞ y a P , tales que para todo t ∈ J ∞ ,
χt = µt + πt (P-a.s.). Dicha descomposición es única salvo equivalencia es-
tocástica, (Definición 4.1.1.(1), pág 2).
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 177

Teorema 4.11.4 (Descomposición de Doob-Meyer). Sea π̃ = {πt }t∈J ∞ un


potencial respecto a {Ft }t∈J ∞ y a P , continuo por la derecha tal que {πτ : τ ∈
T}, donde T es el conjunto de los tiempos de Markov respecto a (Ft )t∈J ∞ , τ,
con P (τ < +∞) = 1, es uniformemente integrable,
µ Z ¶
lı́m sup |πτ |d P = 0 .
x→+∞ τ∈T {|πτ |>x}

Entonces, existe un proceso estocástico creciente e integrable α̃ = {αt }t∈J ∞


medible y adaptado a {Ft }t∈J ∞ tal que

πt = E (α+∞ | Ft ) − αt , (P − a.s.), t > 0 (∗)

Además,

(1) α̃ puede tomarse predecible.

(2) La descomposición (∗), con α̃, creciente y predecible, es única.


© ª
Corolario 4.11.5. Sea χ̃ = χt t∈J ∞ una supermartingala respecto a {Ft }t∈J ∞
© ª
y a P , continua por la derecha tal que χτ : τ ∈ T , (como en el teorema prece-
dente: T={τ : τ es tiempo de Markov respecto a {Ft }t∈J ∞ con P (τ < +∞) © = ª 1}),
es uniformemente integrable. Entonces existe una martingala µ̃ = µt t∈J ∞
respecto a {Ft }t∈J ∞ y a P , continua por la derecha y uniformemente integra-
ble, y existe α̃ = {αt }t∈J ∞ proceso estocástico creciente y predecible respecto a
{Ft }t∈J ∞ y a P , e integrable tal que

χt = µt − αt , (P − a.s.), t ∈ J ∞ .

Esta descomposición es única (salvo equivalencia estocástica).


© ª
Observación. El proceso estocástico χ2t t∈J T , donde el proceso estocásti-
© ª
co χt t∈J T es una martingala de MT , es una submartingala no negativa y
© ª
se prueba que el proceso −χ2t t∈J T pertenece a la clase DL, donde

DL = {{υt }t∈J T : {υt }t∈J T es supermartingala respecto a {Ft }t∈J T y a P


con trayectorias continuas por la derecha, tal que para todo a, a ∈ J T ,
la familia {υτ : τ ∈ Ta } , donde Ta es el conjunto de los tiempos de Markov
respecto a {Ft }t∈J T , τ, con P (τ 6 a) = 1, es uniformemente integrable}.
178 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

De hecho se tiene un resultado más completo:

(a) Cualquier martingala respecto a {Ft }t∈J T y a P continua por la derecha


pertenece a DL.

(b) Cualquier martingala respecto a {Ft }t∈J T y a P continua por la derecha


y uniformemente integrable pertenece a D, donde

D = {{υt }t∈J T : {υt }t∈J T es supermartingala respecto a {Ft }t∈J T y a


P, continua por la derecha y {υτ }τ∈T , donde T es el conjunto de
tiempos de Markov respecto a {Ft }t∈J T , τ , con P (τ < +∞) = 1,
es uniformemente integrable}.

(c) Cualquier supermartingala respecto a {Ft }t∈J T y a P negativa y conti-


nua por la derecha pertenece a DL.

Proposición 4.11.6. Sea {υt }t∈J ∞ una submartingala (o supermartingala),


en el espacio de probabilidad (Ω, F , P ), respecto a la filtación {Ft }t∈J ∞ , de
(Ω, F ), y a P , con trayectorias continuas por la derecha. Entonces, para todo
t > 0 (P -a.s.) existe límite por la izquierda lı́ms↑t υs (= υt − ).

Teorema 4.11.7. Sea (υt )t∈J ∞ una submartingala, en el espacio de probabi-


lidad (Ω, F , P ), respecto a la filtración {Ft }©t∈J¡∞ , de
¢ (Ω, F ),ª y a P , con trayec-
+
torias continuas por la derecha tal que sup E υt : t ∈ J ∞ < +∞. Entonces,
se tiene con probabilidad 1 que
¡ ¢
lı́m υt (= υ+∞ ) existe y E υ+ +∞ < +∞.
t→+∞

Respecto a la demostración del Teorema 4.11.1., se tiene que (∗) es con-


secuencia del teorema de descomposición
© 2ª de Doob-Meyer (el corolario
de dicho teorema aplicado a −υt t∈J ∞ , que es medible y está adaptado
a {Ft }t∈J ∞ ). La segunda parte del teorema se prueba teniendo en cuenta
(∗) y las fórmulas (Problema 5.6., pág. 77):
£¡ ¢ ¤ £ ¤ £ ¤
E µt − µs | Fs = 0, E υ2t − υ2s | Fs = E (υt − υs )2 | Fs , (P − a.s.).

Ejemplo 1. Sea Wf = {Wt }t∈J un proceso de Wiener en un espacio de pro-


T
babilidad (Ω, F , P ) respecto a una filtración {Ft }t∈J T de (Ω, F ) y a P , (pág.
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 179

© ª
83). Entonces, se tiene que Wf es un elemento de MT y W 2 − t
t t∈J T , es una
f >t = t , (P -
martingala respecto a la filtración {Ft }t∈J y a P , (pág. 96), y < W
T
a.s.), t ∈ J T .

Ejemplo 2. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-


ción de (Ω, F ), a(t , ω) una función de clase E T respecto a {Ft }t∈J T y a P ,
(pág. 97), Wf = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto a la
T
filtración dada y a P , (pág. 83), y υ̃ = {υt }t∈J T la martingala continua (pág.
103) Z t
υt = a(s, ω)dWs , t ∈ J T ,
0
(la continuidad es una de las propiedades de la integral estocástica). En-
tonces, por la fórmula de Itô, (Teorema 4.8.5., pág. 128), aplicada a υt y
f (t , x) = x 2 , se tiene
Zt Zt
υ2t = 2
a (s, ω)d s + 2 υs a(s, ω)dWs , (P − a.s.).
0 0

Además υ̃ es un elemento de MT , ya que


"µZ ¶2 # µZt ¶
t
2
E a(s, ω)dWs =E a (s, ω)d s .
0 0

Por último
Zt Zt
ςt = 2 υs a(s, ω)dWs = υ2t − a 2 (s, ω)d s, t ∈ J T
0 0

es una martingala
³R respecto a´la filtración {Ft }t∈J T y a P , (ya que se tiene la
T 2 2
condición E 0 υs a (s, ω)d s < +∞), y
Zt
a 2 (s, ω)d s, t ∈ J T ,
0

es un proceso estocástico creciente y predecible. Así,


Zt
a 2 (s, ω)d s =< υ̃ >t , t ∈ J T .
0
180 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.11.8. Sean υ̃ = {υt }t∈J T , ς̃ = {ςt }t∈J T elementos de MT . Entonces


existe un único (salvo equivalencia estocástica) proceso estocástico < υ̃, ς̃ >t ,
t ∈ J T , que es la diferencia entre dos procesos estocásticos crecientes y pre-
decibles,
© ª tal que para todo t , t ∈ J T , υt ςt = µt + < υ̃, ς̃ >t , (P -a.s.), donde
µ̃ = µt t∈J T es una martingala respecto a {Ft }t∈J T y a P . Además, para todo
t > s,

E [(υt − υs ) (ςt − ςs ) | Fs ] = E [< υ̃, ς̃ >t − < υ̃, ς̃ >s | Fs ] , (P − a.s.).

Indicación de la demostración: Se comprueba que (υ̃ − ς̃ =) {υt − ςt }t∈J T , y


(υ̃ + ς̃ =) {υt + ςt }t∈J T , son elementos de MT . Se aplica el Teorema 4.11.1.,
pág. 175, a estos elementos y tomamos

1
< υ̃, ς̃ >t = · [< υ̃ + ς̃ >t − < υ̃ − ς̃ >t ] , µt = υt ςt − < υ̃, ς̃ >t .
4

Entonces, < υ̃, ς̃ >t es la diferencia entre dos procesos estocásticos crecien-
tes y predecibles, y

E [υt ςt − υs ςs |Fs ] = E [< υ̃, ς̃ >t − < υ̃, ς̃ >s |Fs ]


© ª
y de esta última igualdad se deduce que µ̃ = µt t∈J T es martingala respec-
to a {Ft }t∈J T y a P . 

Observación. En general < υ̃ + ς̃ >t 6=< υ̃ >t + < ς̃ >t . Cuando < υ̃, ς̃ >t = 0,
t ∈ J T , entonces < υ̃ + ς̃ >t =< υ̃ >t + < ς̃ >t , (P -a.s.), t ∈ J T . Además, se
tiene que: < υ̃, ς̃ >t = 0, t ∈ J T , equivale a que {υt ςt }t∈J T es una martingala
respecto a {Ft }t∈J T y a P .

Ejemplo 3. Sea W f = {Wt }t∈J un proceso de Wiener, en el espacio de proba-


T
bilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T de (Ω, F ) y a P , y a(t , ω),
b(t , ω) funciones de clase de E T respecto a {Ft }t∈J T y a P , (pág. 97), y
Zt Zt
υt = a(s, ω)dWs , ςt = b(s, ω)dWs .
0 0

Entonces,
{υt }t∈J T , {ςt }t∈J T
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 181

son martingalas continuas que pertenecen a MT y por la fórmula de inte-


gración por partes, (pág. 144)
Zt Zt
υt ςt = a(s, ω)b(s, ω)d s + [υs b(s, ω) + ςs a(s, ω)] dWs , (P − a.s.).
0 0

Por último se tiene que


Zt
[υs b(s, ω) + ςs a(s, ω)] dWs , t ∈ J T ,
0

es una martingala respecto a {Ft }t∈J T y a P , y


Zt
a(s, ω)b(s, ω)d s, t ∈ J T ,
0

es la diferencia entre dos procesos estocásticos crecientes y predecibles.


Así, Zt
< υ̃, ς̃ >t = a(s, ω)b(s, ω)d s, t ∈ J T .
0
En particular, si b(s, ω) ≡ 1, entonces
Zt
f >t =
ςt = Wt y < υ̃, ς̃ >t =< υ̃, W a(s, ω)d s, (P − a.s.), t ∈ J T .
0

En el teorema que sigue, se establece una generalización de la última


fórmula,
Rt (υt será un elemento cualquiera de MT , no necesariamente υt =
0 a s dW s ).

Teorema 4.11.9. Sean W f = {Wt }t∈J un proceso de Wiener, en el espacio


T
de probabilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T de (Ω, F ) y a P ,
y υ̃ = {υt }t∈J T un elemento de MT , (pág. 175). Supongamos que {Ft }t∈J T
es continua por la derecha. Entonces existe un proceso estocástico medible
adaptado
³R a la filtración
´ {Ft }t∈J T , {a(t , ω)} t∈J T con:
T 2
E 0 a (s, ω)d s < +∞, (es decir, a(t , ω) es una función de clase E T respecto
a {Ft }t∈J T y a P ), tal que para todo t ∈ J T ,
Zt
f >t =
< υ̃, W a(s, ω)d s, (P − a.s.).
0
182 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema fundamental de representación de martingalas cuadrado inte-


grables

Teorema 4.11.10. Sean W f = {Wt }t∈J un proceso de Wiener en un espacio


T
de probabilidad (Ω, F , P ) respecto a una filtración continua por la derecha
{Ft }t∈J T , de (Ω, F ), y a P , y υ̃ = {υt }t∈J T un elemento de MT , (pág. 175).
Entonces, Z t
υt = a(s, ω)dWs + ςt , (P − a.s.), t ∈ J T ,
0
donde a(t , ω), t ∈ J T , ω ∈ Ω, es una función de clase E T respecto a {Ft }t∈J T y
a P , (pág. 97), tal que
Zt
f
< υ̃, W >t = a(s, ω)d s
0

y ς̃ = {ςt }t∈J T es un elemento de MT .


Además, si ponemos Z t
χt = a(s, ω)dWs ,
0
© ª
se tiene que χ̃ = χt t∈J T es un elemento de MT tal que < ς̃, χ̃ >t = 0, t ∈ J T .

Indicación de la demostración: Por el Teorema 4.11.9., (pág. 181), se ob-


tiene una función a(t , ω), t ∈ J T , ω ∈ Ω, como se requiere en el Teore-
ma 4.11.10.. A continuación se toma ςt = υt − χt , t ∈ J T , yRes claro que
t
ς̃ = {ςt }t∈J T es un elemento de MT . Se prueba que < υ̃, χ̃ >t = 0 a 2 (s, ω)d s,
de donde (Ejemplo 2, pág. 179)

< ς̃, χ̃ >t =< υ̃ − χ̃, χ̃ >t =< υ̃, χ̃ >t − < χ̃ >t = 0.


Observación. Se toman las hipótesis como en el Teoerema 4.11.10. Sea
a(t , ω) una función de clase E T respecto a {Ft }t∈J T y a P , (pág. 97), tal que
Zt
f >t =
< υ̃, W a s d s.
0
Rt
Entonces χt = 0 a s dWs es un elemento de MT y υt −χt (= ςt ), t ∈ J T , es un
elemento de MT . Además, < ς̃, χ̃ >t = 0, para todo t ∈ J T .
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 183

Ejemplo 4. Sean W f = {Wt }t∈J un proceso de Wiener en un espacio de


T
probabilidad (Ω, F , P ) respecto a una filtración {Ft }t∈J T de (Ω, F ) y a P ,
y υ̃ = {υt }t∈J T un elemento de MT , (pág. 175). Supongamos que
µZ t ¶
¡ 2¢ 2
E υt = E a (s, ω)d s ,
0

donde
Rt a(s, ω) viene dada por el teorema anterior, (por tanto, se tiene que
υt = 0 a(s, ω)dWs + ςt , (P -a.s.)). Entonces ςt = 0, (P -a.s.), t ∈ J T , y por tan-
to, Z t
υt = a(s, ω)dWs .
0
En efecto:
¡ ¢ ¡ ¢2 ¡ ¢ ¡ ¢ ¡ ¢
E υ2t = E χt + ςt = E χ2t + E ς2t + E 2χt ςt ,
Rt
donde
© ª χt = 0 a(s, ω)dWs . Pero < ς̃, χ̃ >t = 0, t ∈ J T , lo que equivale
¡ a que¢
χt ςt t∈J T es martingala respecto a {Ft }t∈J T y a P , (pág. 58). Así, E 2χt ςt =
0y ¡ ¢ ¡ ¢ ¡ ¢
E υ2t = E χ2t + E ς2t ,
¡ ¢
de donde E ς2t = 0 y ςt = 0, (P -a.s.), t ∈ J T , ya que por las propiedades de
las integrales estocásticas
µZ t ¶
¡ 2¢ ¡ ¢
E χt = E a (s, ω)d s = E υ2t .
2
0

Ejemplo 5. Sean W f = {Wt }t∈J un proceso de Wiener en un espacio de


T
probabilidad (Ω, F , P ) respecto a una filtración {Ft }t∈J T de (Ω, F ) y a P ,
y a(t , ω), t ∈ J T , ω ∈ Ω, una función de clase E T respecto a {Ft }t∈J T y a P ,
©Rt ª
(pág. 97). Entonces, el proceso estocástico 0 a(s, ω)dWs t∈J T es un ele-
mento de MT .

El teorema que sigue, que es una suerte de recíproco del ejemplo ante-
rior, se aplicará más adelante en los precios de los activos financieros.
f = {Wt }t∈J un proceso de Wiener en un espacio
Teorema 4.11.11. Sean W T n o
f
de probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), ge-
t∈J T
f (pág. 23), y a P , y sea υ̃ = {υt }t∈J una martingala cuadrado
nerada por W T
184 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

n o
f
W
integrable (es decir, υ̃ es una martingala respecto a Ft y a P , que es
¡ 2¢ t∈J T
continua por la derecha y supt∈J T E υt < +∞). Entonces existe un proceso
n o
f
estocástico {a(s, ω)}s∈J T medible y adaptado a FtW , con
t∈J T
µZT ¶
E a 2 (s, ω)d s < +∞,
0
n o
f
(a es una función de clase E T respecto a FtW y a P ), y tal que para
t∈J T
todo t ∈ J T , Zt
υ t = υ0 + a(s, ω)dWs , (P − a.s.).
0
Indicación de la demostración: Por el Teorema
³R 4.11.9,´(pág. 181), existe un
T 2
proceso estocástico {a(t , ω)}t∈J T con E 0 a (s, ω)d s < +∞ (es decir, es
n o
f
de clase E T respecto a FtW y a P ) tal que para todo t ∈ J T ,
t∈J T
Zt
f >t =
< υ̃, W a(s, ω)d s, (P − a.s.).
0
© ª
Ponemos υ∗t = υt − υ0 . Entonces υ∗t t∈J T es de nuevo una martingala cua-
drado integrable y
Zt
<υ f >t =
f∗ , W a(s, ω)d s, (P − a.s.),
0
n o
f
f >t = 0, por ser υ0Wt , t ∈ J T , martingala respecto a F W
(ya que < υ0 , W t t∈J T
y a P , (pág. 58)). Así, por el Teorema 4.11.10., (Observación),
Zt

υt = a(s, ω)dWs + ςt , (P − a.s.), t ∈ J T ,
0

donde ς̃ = {ςt }t∈J T es una martingala cuadrado integrable. Además, se tie-


Rt
ne
© que
ª < ς̃, χ̃ > t = 0, t ∈ J T , siendo χ t = 0 a(s, ω)dW s , lo que implica que
ςt χt t∈J T es martingala y por tanto,
µ Zt ¶
E ςt · a(s, ω)dWs = 0, t ∈ J T .
0

A partir de aquí se prueba que ςt = 0, (P -a.s.), t ∈ J T . 


4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 185

f = {Wt }t∈J un proceso de Wiener en un espacio de


Teorema 4.11.12. Sea W T n o
f
probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), genera-
t∈J T
da¡ por f
2
¢ W (pág. 23), y a P , y sea ξ(ω) una variable aleatoria FT -medible con
E ξ < +∞.n Entonces,
o existe un proceso estocástico {a(t , ω)} t∈J T medible y
f
adaptado a FtW , y cumpliendo
t∈J T
µZ T ¶
2
E a (t , ω)d t < +∞,
0

tal que
ZT
ξ = E (ξ) + a(t , ω)dWt , (P − a.s.).
0
f constituyen un sistema Gaussiano, (pág. 35), entonces
Si, además, ξ y W
existe una función medible y determinística f (t ), t ∈ J T , verificando
ZT ZT
2
f (t )d t < +∞, tal que ξ = E (ξ) + f (t )dWt .
0 0
Indicación de la demostración: Se toma
n oυt = E (ξ | Ft ), t ∈ J T , que sabemos
f
W
que es una martingala respecto a Ft y a P . De hecho se toma una
t∈J T
variante de esta martingala que sea continua por la derecha. Entonces, la
martingala {υt }t∈J T es una martingala cuadrado integrable. Así, por el Teo-
rema
³R 4.11.11. (pág.
´ 183), existe un proceso estocástico {a(t , ω)}t∈J T , con
T 2
E 0 a (t , ω)d t < +∞, y tal que para todo t , t ∈ J T ,
Zt
υ t = υ0 + a(s, ω)dWs , (P − a.s.).
0
En particular,
ZT
ξ = E (ξ) + a(s, ω)dWs , (P − a.s.),
0
(F0 = {;, Ω}), lo que prueba la primera parte del teorema. 
Teorema 4.11.13. Sea W f = {Wt }t∈J un proceso de Wiener en un espacio
T n o
f
de probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), ge-
t∈J T
nerada f
n poro W (pág. 23), y a P , y sea υ̃ = {υt }t∈J T una martingala respec-
f
to a FtW y a P con trayectorias continuas por la derecha y tal que
t∈J T
186 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

supt∈J T E (|υt |) < +∞. Entonces, existe un proceso estocástico {a(t , ω)} t∈J T
n o ³R ´
f T
medible y adaptado a FtW tal que P 0 a 2 (t , ω)d t < +∞ = 1, y para
t∈J T
todo t ∈ J T , Zt
υ t = υ0 + a(s, ω)dWs , (P − a.s.),
0
y esta representación
n o es única, (en este caso a(t , ω) es una función de clase
f
P T respecto a FtW y a P , (pág. 97)).
t∈J T

(Se prueba que υ̃ tiene trayectorias continuas)

f = {Wt }t∈J un proceso de Wiener en un espacio de


Teorema 4.11.14. Sea W T n o
f
probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), gene-
t∈J T
f (pág. 23), y a P , y sea ξ(ω) una variable aleatoria FT -medible
rada por W ³ ´
f
tal que E (|ξ|) < +∞ y sea E ξ|FtW , t ∈ J T una modificación continua por
la derecha de la esperanza condicionada. Entonces, se verifica
n que
o existe
f
un proceso estocástico {a(t , ω)}t∈J T medible y adaptado a FtW con
³R ´ n t∈J To
T f
P 0 a 2 (t , ω)d t < +∞ = 1, (a es función de clase P T respecto a FtW
t∈J T
y a P ), tal que para todo t ∈ J T ,
³ ´ Zt
f
E ξ | FtW = E (ξ) + a(s, ω)dWs , (P − a.s.).
0

En particular,
ZT
ξ = E (ξ) + a(s, ω)dWs , (P − a.s.).
0
³ ´
f
Indicación de la demostración: Se toma υt = E ξ|FtW , t ∈ J T , y se aplica el
teorema anterior. 

Teorema 4.11.15. Sea W f = {Wt }t∈J un proceso de Wiener en un espacio


T n o
f
de probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), ge-
t∈J T
nerada por W f (pág. 23), y a P , y sea ξ una variable aleatoria FT -medible
tal que P (ξ > 0) = 1 y E (ξ) < +∞.n Entonces,
o existe³ un proceso estocástico
´
Wf RT
{a(s, ω)}s∈J T medible y adaptado a Ft con P 0 a 2 (t , ω)d t < +∞ =
t∈J T
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 187

n o
Wf
1, (a es una función de clase P T respecto a Ft y a P ), tal que para
t∈J T
todo t ∈ J T , P -a.s.,
³ ´ ·Zt Zt ¸
f 1
E ξ | FtW = exp a s dWs − a s2 d s · E (ξ).
0 2 0

En particular,
·ZT ZT ¸
1
ξ = exp a s dWs − a s2 d s · E (ξ), (P − a.s.).
0 2 0
³ ´
f
Indicación de la demostración: Se toma υt = E ξ|FtW , t ∈ J T , una modi-
ficación continua por la derecha de la esperanza condicionada. Entonces,
por el Teorema 4.11.14.,
n o existe un proceso
³R estocástico { f ´(t , ω)}t∈J T medi-
f
W T 2
ble y adaptado a Ft tal que P 0 f (t , ω)d t < +∞ = 1 y
t∈J T

³ ´ Zt
Wf
υt = E ξ | Ft = E (ξ) + f s dWs , (P − a.s.), t ∈ J T .
0
¡ ¢
Se prueba que P ı́nft∈J T υt > 0 = 1 y se tiene la función a(t , ω) = f (t , ω)/υt .
Entonces,
µZ T ¶ Zt
2
P a (t , ω)d t < +∞ = 1 y υt = E (ξ) + a s x s dWs , (P − a.s.).
0 0

Sabemos que, (Ejemplo 3., pág. 140),


·Zt Z ¸
1 t 2
κt = E (ξ) · exp a s dWs − a d s , t ∈ JT ,
0 2 0 s

cumple que
Zs
κs = E (ξ) + k t · a t dWt , P − a.s. s ∈ J T (∗).
0

Por consiguiente, κ̃ = {κt }t∈J T , es un proceso de Itô respecto a W y la igual-


dad anterior la podemos escribir

d κs = κs a s dWs con condición inicial E (ξ).


188 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Así, κ̃ es solución de d κs = κs a s dWs con condición inicial E (ξ) y lo mismo


ocurre con υt , (en el sentido que κs , (lo mismo υs ) es un proceso estocásti-
co real, medible, continuo y adaptado que cumple (∗)).
Se tiene también la unicidad de la solución de (∗). En efecto: Si χt es otra
solución de (∗), teniendo en cuenta los resultados de las páginas 141 y 142,
se obtiene que χt · κ1 = 1, (P -a.s.), de donde χt = κt , (P -a.s.). Luego en de-
t
finitiva υt = κt , (P -a.s.), t ∈ J T . 

Ejercicios y problemas
11.1. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración
de (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto
T
a {Ft }t∈J T y a P . Sea a : J T × Ω → R una función de clase P T respecto a
{Ft }t∈J T y a P . Probar que
µ µ Zt ¶¶ s µ µ Zt ¶¶
1 1 2
E exp a s dWs 6 E exp as d s .
2 0 2 0

Indicación: Aplicar la desigualdad de Hölder, (V. 2, pág. 181), a la igualdad


de variables aleatorias
µ Zt ¶ µ Zt Z ¶ µ Zt ¶
1 1 1 t 2 1 2
exp a s dWs = exp a s dWs − a d s · exp a ds .
2 0 2 0 4 0 s 4 0 s
Aplicar la fórmula de Itô, (pág. 128), para probar que
µZ t Z ¶ Zt
1 t 2
(µt =) exp a s dWs − a = 1+ µs a s dWs ,
0 2 0 s 0
© ª
y por tanto, que µ̃ = µt t∈J T es una martingala local no negativa respecto
a {Ft }t∈J T y a P .

11.2. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una fil-
tración en (Ω, F ) completa respecto a P , (pág. 24), W f = {Wt }t∈J un pro-
T
ceso de Wiener respecto a {Ft }t∈J T y a P , y a : J T × Ω → R una función de
clase P T respecto a {Ft }t∈J T y a P . Se define
µZ t Z ¶
1 t 2
ξt = exp a s dWs − a d s , t ∈ JT .
0 2 0 s
4.12. TEOREMA DE GIRSANOV 189

(1). Utilizar la fórmula de Itô para demostrar que ξ̃ = {ξt }t∈J T es un proceso
de Itô con diferencial d ξt = ξt a t dWt y condición inicial ξ0 = 0, (véase el
Ejemplo 3 de la página 140).
(2). Probar que si ξt a t es una función de clase E T respecto a {Ft }t∈J T y a P ,
entonces ξ̃ es una martingala respecto a {Ft }t∈J T y³ a P ³. ´´
RT
(3). Utilizar el Problema 11.1 para probar que E exp 12 0 a s2 d s < +∞,
¡ ¡ Rt ¢¢
(condición de Novikov), implica que E exp 12 0 a s dWs < +∞ para todo
t ∈ J T , (condición de Kazamaki), y que esta última condición implica que
ξ̃ es martingala respecto a {Ft }t∈J T y a P .

4.12. Teorema de Girsanov


Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una filtra-
ción de (Ω, F ) completa respecto a P , (pág. 24), W f = {Wt }t∈J un proce-
T © ª
so de Wiener en (Ω, F , P ) respecto a esta filtración y a P , y γ̃ = γt t∈J T
un proceso
³R estocástico ´ medible y adaptado a la filtración {Ft }t∈J T para el
T 2
cual P 0 γs d s < +∞ = 1. Sea κ̃ = {κt }t∈J T un proceso medible adaptado
Rt
a {Ft }t∈J T no negativo y continuo, (pág. 3), tal que κt = 1+ 0 γs dWs , t ∈ J T ,
(¿Existen tales procesos estocásticos γ̃ y κ̃?).

Lema 4.12.1. Con las notaciones que se han introducido, el proceso esto-
cástico κ̃ es supermartingala respecto a {Ft }t∈J T y a P , es decir, E (|κt |) < +∞
y para s < t se tiene que E (κt | Fs ) 6 κs , (P -a.s.). En particular E (κt ) 6 1,
t ∈ JT .

Demostración. Por (h) de la página 109, κ̃ es una martingala local no ne-


gativa respecto a {Ft }t∈J T y a P . Así, por la Proposición 4.5.15., (pág. 73), κ̃
es una supermartingala respecto a {Ft }t∈J T y a P .

El ejemplo que sigue contesta a la pregunta formulada anteriormente.

Ejemplo 1. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T


una filtración de (Ω, F ) completa respecto a P , W f = {Wt }t∈J un proceso de
T
Wiener respecto a esta filtración y a P , y ξ̃ = {ξt }t∈J T un proceso estocástico
190 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

³R ´
T 2
medible y adaptado a {Ft }t∈J T con P 0 ξs d s < +∞ = 1. Tomamos
µZ t Z ¶
1 t 2
ϕt = exp ξs dWs − ξ d s , t ∈ JT .
0 2 0 s
© ª
Entonces, el proceso estocástico ϕ̃ = ϕt t∈J T es medible y adaptado a
{Ft }t∈J T y por la fórmula de Itô, (pág. 128),
Zt
ϕt = 1 + ϕs ξs dWs , (P − a.s.), t ∈ J T
0
³R ´
T
y además P 0 γ2s d s < +∞ = 1, donde γs = ϕs ξs . Luego, por el lema ante-
rior, ϕ̃ es supermartingala respecto a {Ft }t∈J T y a P no negativa y continua.
En efecto, el proceso estocástico
Zt Z
1 t 2
υt = ξs dWs − ξ d s, t ∈ J T ,
0 2 0 s
f y la igualdad anterior se puede escribir
es un proceso de Itô respecto a W
1
d υt = − ξ2t d t + ξt dWt con condición inicial 0.
2
Así, ϕt = exp(υt ) y la fórmula de Itô se aplica a υ̃ = {υt }t∈J T , y f (t , x) =
exp(x); con lo cual
Zt
f (t , υt ) = exp(υt ) = ϕt = 1 + ϕs ξs dWs ,
0
(véase el Ejemplo 3 de la página 140).
Teorema 4.12.2. Sean (Ω, F , P ) espacio de probabilidad completo, {Ft }t∈J T
una filtración completa respecto a P de (Ω, F ), W f = {Wt }t∈J un proceso
T
de Wiener respecto a {Ft }t∈J T y a P ,³ y ξ̃ = {ξt }t∈J T ´un proceso estocástico
RT
medible y adaptado a {Ft }t∈J T con P 0 ξ2s d s < +∞ = 1. Supongamos que
µ µ ZT ¶¶
1 2
E exp ξ d s < +∞, (condición de Novikov).
2 0 s
Entonces la supermartingala ϕ̃ del Ejemplo 1 anterior,
·Zt Z ¸
1 t 2
ϕt = exp ξs dWs − ξ ds ,
0 2 0 s
4.12. TEOREMA DE GIRSANOV 191

es una martingala (no negativa y continua) respecto


¡ ¢ a¡{Ft¢}t∈J T y a P , (véase
el Problema 11.2, pág. 188). En particular, E ϕt = E ϕ0 = 1, t ∈ J T .

(Si no se acota T , (T = +∞), el teorema anterior también es válido).

Si en el teorema precedente se cambia la condición de Novikov por


µ µ Zτ ¶¶
1 2
E exp ξ d s < +∞,
2 0 s

donde τ es un tiempo de Markov,


¡ (pág.
¢ 65), respecto a la filtración {Ft }t∈J T
con P (τ < +∞) = 1, entonces E ϕτ = 1.

Corolario 4.12.3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una


filtración del espacio medible (Ω, F ), W f = {Wt }t∈J un proceso de Wiener
T
respecto a esta filtración y a P , y τ un tiempo
¡ de Markov
¡ 1 ¢¢ respecto a {Ft }t∈J T
con P (τ < +∞) = 1. Supongamos que E exp 2 τ < +∞. Entonces, por el
teorema anterior (para ξs = 1, s > 0),
µ µ ¶¶
1
E exp Wτ − τ = 1.
2

f y ξ̃ como en el teorema anterior.


Ejemplo 2. Sean (Ω, F , P ), {Ft }t∈J T , W
Supongamos que |ξt | 6 K < +∞, (P -a.s.), t ∈ J T . Entonces,
µ µ ZT ¶¶ µ ¶
1 2 1 2
E exp ξ d s 6 exp T K < +∞,
2 0 s 2
© ª
y por tanto, ϕ̃ = ϕt t∈J T es una martingala respecto a {Ft }t∈J T y a P , y
¡ ¢
E ϕt = 1, t ∈ J T ,
µZt Zt ¶
1
(ϕt = exp ξs dWs − ξ2s d s , t ∈ J T ).
0 2 0

f y ξ̃, como en el teorema anterior. Se


Ejemplo 3. Sean (Ω, F , P ), {Ft }t∈J T , W
considera
½ Zt ¾ ZT
2
τn = ı́nf t 6 T : ξs d s = n y τn = T si ξ2s d s < n.
0 0
192 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Entonces, µ µ Zτn ¶¶ µ ¶
1 2 1
E exp ξs d s 6 exp n < +∞,
2 0 2
¡ ¢ ¡Rt Rt ¢
y por tanto, E ϕτn = 1, (ϕt = exp 0 ξs dWs − 21 0 ξ2s d s , t ∈ J T ).

Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una fil-


tración completa respecto a P de (Ω,© Fª), W f = {Wt }t∈J un proceso de Wie-
T
ner respecto a {Ft }t∈J T y a P , y γ̃ = γt t∈J T un proceso estocástico medi-
³R ´
T 2
ble y adaptado a {Ft }t∈J T tal que P 0 γt d t < +∞ = 1. Sea κ̃ = {κt }t∈J T un
proceso estocástico medible, adaptado a {Ft }t∈J T , no negativo y continuo
Rt
(P -a.s.) tal que κt = 1 + 0 γs dWs .
Por el Lema 4.12.1. (pág. 189), κ̃ es una supermartingala respecto a {Ft }t∈J T
no negativa y por tanto, E (κt ) 6 1. Sabemos, por la Proposición 4.5.1.
(pág. 60), que si E (κT ) = 1, κ̃ es una martingala respecto a {Ft }t∈J T y a P no
negativa. Por otro lado,
Z
e
P (A) = κT d P, A ∈ F ,
A
es una medida en (Ω, F ) que es absolutamente continua respecto a P ,
(Pe ≪ P , es decir, P (A) = 0, A ∈ F , implica que Pe(A) = 0; Definición 3.1.27.,
(V. 2, pág. 26)). Si E (κT ) = 1, Pe(Ω) = 1.
Teorema 4.12.4. Con las notaciones que preceden, supongamos que se tiene
E (κT ) = 1, (por tanto, κ̃ es martingala respecto a {Ft }t∈J T y a P , y Pe es una
probabilidad) y pongamos
Zt ½ −1
∗ + + κs , si κs > 0
Wt = Wt − κs γs d s, donde κs =
0 0 si κs = 0.
© ∗ª
Entonces, Wg∗ = W e
t t∈J T es un proceso de Wiener respecto a {Ft }t∈J T y a P ,
(pág. 83). Además
µ ¶
Pe ı́nf κt = 0 = 0 y κ+ −1 e
s = κs , (P − a.s.).
t∈J T

Teorema 4.12.5 (Girsanov). Sean (Ω, F , P ) un espacio de probabilidad com-


pleto, {Ft }t∈J T una filtración completa respecto a P de (Ω, F ), Wf = {Wt }t∈J
T
un proceso de Wiener respecto a {Ft }t∈J T y a P , y³ ξ̃ = {ξt }t∈J T un
´ proceso
RT
estocástico medible adaptado a {Ft }t∈J T tal que P 0 ξ2t d t < +∞ = 1.
4.12. TEOREMA DE GIRSANOV 193

Tomamos para todo t ∈ J T ,


µZ t Z ¶
¡ ¢ 1 t 2
ϕt (ξ̃) = ϕt = exp ξs dWs − ξ ds .
0 2 0 s
³R ´
T
Sabemos, por el Ejemplo 1 (pág. 189), que P 0 γ2s d s < +∞ = 1, donde
Rt © ª
γs = ϕs ξs , y ϕt = 1 + 0 ϕs ξs dWs , (P -a.s.), t ∈ J T , y ϕ̃ = ϕt t∈J T es super-
martingala respecto
¡ ¢ a {Ft }t∈J T y a P , no negativa y continua (P .a.s). Supon-
gamos que E ϕT = 1, (por tanto, ϕ̃ es una martingala respecto a {Ft }t∈J T y
a P , y Pe es una probabilidad). Entonces, por el teorema anterior,
Zt

Wt = Wt − ξs d s, t ∈ J T ,
0

es un proceso de Wiener respecto a {Ft }t∈J T y a Pe, donde


Z
e
P (A) = ϕT d P, A ∈ F ,
A

(lo que se indica también por d Pe = ϕT d P ). Además,


µ ¶
e
P ı́nf ϕt = 0 = 0.
t∈J T

Invariancia de la integral estocástica


Teorema 4.12.6 (Variante del teorema de Girsanov). Sean (Ω, F , P ) un es-
pacio de probabilidad completo, {Ft }t∈J T una filtración de (Ω, F ) completa
f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto a
respecto a P , W T
f
{Ft }t∈J T y a P , tal que Ft = FtW , t ∈ J T , y θ̃ = {θt }t∈J T un proceso estocásti-
RT
co medible y adaptado a {Ft }t∈J T ), con 0 θs2 d s < +∞, (P -a.s.), y tal que el
proceso estocástico
µ Zt Z ¶
1 t 2
ψt = exp − θs dWs − θ d s , t ∈ JT ,
0 2 0 s
es una martingala respecto a {Ft }t∈J T y respecto a P , (una
h condición
³ R sufi-
´i
© ª 1 T 2
ciente para que ψ̃ = ψt t∈J T sea martingala es que E exp 2 0 θt d t <
¡ ¢
+∞, R(véase el Problema 11.2. (3), pág. 189)). Entonces E ψT = 1 y Wt∗ =
t
Wt + 0 θs d s, t ∈ J T R
, es un proceso de Wiener respecto a {Ft }t∈J T y respecto a
∗ ∗
P , donde P (A) = A ψT d P , A ∈ F .
194 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

A veces utilizamos la notación P ψT en vez de P ∗ , (ψT > 0). Por otro lado,
es claro que P y P ∗ son probabilidades equivalentes. A la transformación
P → P ∗ se le llama transformación de probabilidades de Girsanov.

Con las hipótesis


© del
ª teorema anterior, se considera además un proceso
estocástico η̃ = η t t∈J T medible y adaptado a {Ft }t∈J T tal que
ZT
η2s d s < +∞, (P − a.s.),
0

y se toma el proceso estocástico


Zt Zt
ξt = η s dWs + η s θs d s,
0 0
RT
(la integral 0 η s dWs está bien definida en el marco (Ω, F , P ), {Ft }t∈J T ,
f, ya que f (t , ω) = η t (ω) es una función de clase P T respecto a {Ft }t∈J
W T
RT
y a P ). Como P ∗ y P son equivalentes, seRverifica que 0 η2s d s < +∞, (P ∗ -
t
a.s), y por tanto, se tiene© la integral χt = 0 η s dWs∗ en el marco dado por:
ª
(Ω, F , P ∗ ), {Ft }t∈J T , Wt∗ t∈J T .
Entonces se prueba que ξt = χt , t ∈ J T , (en este sentido decimos que la in-
tegral estocástica es invariante por el cambio de probabilidad de Girsanov
dado por θ̃).

Observación.
© ª (1) Nos situamos en las hipótesis del Teorema 4.12.6.. Sea
η t t∈J T un proceso estocástico medible y adaptado a {Ft }t∈J T tal
RT Rt
que 0 η2s d s < +∞, (P-a.s.). Entonces, Wt∗ = Wt + 0 θs d s, t ∈ J T , es
un proceso estocástico de Itô respecto a W f y se tiene la integral
Zt Zt
((I ) =) η s θs d s + η s dWs .
0 0
© ª
g∗ = W ∗
Por otra parte W t t∈J T es un proceso estocástico de Wiener
Rt
respecto a {Ft }t∈J T y respecto a P ∗ y se tiene la integral 0 η s dWs∗ ,
g∗ ), que coincide con (I).
(en el contexto de (Ω, F , P ∗ ), {Ft }t∈J T y W t

(2) El proceso de Wiener está definido (ligado) a un marco: (Ω, F , P ) es-


pacio de probabilidad y {Ft }t∈J T filtración de este espacio, (pág. 83).
4.12. TEOREMA DE GIRSANOV 195

(3) La integral estocástica está definida (y ligada) en un marco constituido


por: (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración de (Ω, F )
yWf = {Wt }t∈J proceso de Wiener respecto a {Ft }t∈J y a P . Se inte-
T T
gran los elementos de E T o P T , y en el caso de un elemento de E T
la integral es una martingala, cosa que no ocurre en general con los
elementos de P T .

(4) El cambio de Girsanov (pág. 193), parte de un marco:


f=
[(Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración de (Ω, F ) y W
{Wt }t∈J T proceso de Wiener respecto a la filtración {Ft }t∈J T y a P ], y
mediante el proceso estocástico θ̃ = {θt }t∈J T medible y adaptado a
{Ft }t∈J T , se llega al marco:

[(Ω,
© ∗F ª , P ) espacio de probabilidad, {Ft }t∈J T filtración de (Ω, F ∗) y
Wt t∈J T proceso de Wiener respecto a la filtración {Ft }t∈J T y a P ].

Ya se ha visto la invariancia de la integral estocástica al pasar de un


escenario a otro.

Nota curiosa. Después del teorema de Girsanov (pág. 193) hemos obtenido
la fórmula (que no se ha probado)
Zt Zt Zt
η s dWs + η s θs d s = η s dWs∗ ,
0 0 0
© ª
para un proceso estocástico η̃ = η t t∈J T medible y adaptado a {Ft }t∈J T
RT
con 0 η2s d s < +∞, (P -a.s.).
Un cálculo formal (incorrecto) sería: Partimos de
Zt

Wt = Wt + θs d s.
0

De esta fórmula obtenemos (formalmente un resultado final correcto con


demostración incorrecta), dWt∗ = dWt + θt d t y η t dWt∗ = η t dWt + η t θt d t ,
y Z Z Z
t t t
η s dWs∗ = η s dWs + η s θs d s.
0 0 0
196 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Versión multidimensional del teorema de Girsanov


Lema 4.12.7. Sean (Ω, F , P ) un espacio de probabilidad
© completo,
¡ {F¢ªt }t∈J T
f = Wt = W 1 , ...,W n
una filtración completa respecto a P de (Ω, F ), W t t
e © it∈J
ª T
un proceso de Wiener, n-dimensional, respecto a {F } i
y a P, y γ = γ
t t∈J T t t∈J T
un³ proceso estocástico
´ medible y adaptado a {Ft }t∈J T , i = 1, ..., n, tal que
RT i 2
P 0 (γt ) d t < +∞ = 1, i = 1, ..., n. Consideramos el proceso estocástico
n Zt
X
κt = 1 + γis dWsi .
i =1 0
© ª
Entonces existe un proceso de Wiener W g∗ = W ∗
t t∈J T respecto a {Ft }t∈J T y
a P tal que para todo t ∈ J T , (P -a.s.),
Zt s
n
X
κt = 1 + γ∗s dWs∗ donde γ∗s = (γis )2 .
0 i =1

Además, el proceso estocástico κ̃ = {κt }t∈J T es medible, está adaptado a la


filtración {Ft }t∈J T y cumple:
(1) Si κt > 0, (P -a.s.), t ∈ J T , entonces el proceso κ̃ es una supermartingala
respecto a {Ft }t∈J T y a P , E (κt | Fs ) 6 κs , (P -a.s.), t > s, y en particu-
lar E (κt ) 6 1.
¡ ¢
(2) Si P ı́nft∈J T κt > 0 = 1, entonces
à Z !
X n t 1X n Zt
i i i 2
κt = exp η s dWs − (η ) d s ,
i =1 0 2 i =1 0 s

donde ηit = κ−1 i


t γt .

Teorema 4.12.8. Sean (Ω, F , P ) espacio de probabilidad


© completo,
¡ {F¢ª
t }t∈J T
una filtración completa respecto a P de (Ω, F ), W f = Wt = W 1 , ...,W n
t t t∈J T
un proceso de Wiener, n-dimensional, respecto a la filtración {Ft }t∈J T y a P
© ª
y sea γei = γit t∈J T un proceso estocástico medible y adaptado a {Ft }t∈J T ,
³P R ´
T
i = 1, ..., n, con P ni=1 0 (γit )2 d t < +∞ = 1. Ponemos
n Zt
X
κt = 1 + γis dWsi .
i =1 0
4.12. TEOREMA DE GIRSANOV 197

Supongamos que E (κT ) = 1. Entonces,


³ ´ µZt Zt ¶
¡ ¢
(Wti )∗ , ..., (Wtn )∗ = Wt1 , ...,Wtn − κ+ 1
s γs d s, ..., κ+ n
s γs d s
0 0

es un proceso de Wiener n-dimensional respecto a {Ft }t∈J T y a Pe, donde


Z
Pe(A) = κT d P, A ∈ F , (d Pe = κT d P ).
A

Ejercicios y problemas
12.1. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una
filtración completa respecto a P de (Ω, F ), W f = {Wt }t∈J un proceso de
T
Wiener respecto a {Ft }t∈J T y a P , y sea g : [0, T ] → R una función conti-
nua. Se considera la función determinista a : [0, T ] × Ω → R definida por
a(t , ω) = g (t ). Probar que:
³ ³ R ´´
T
(1). E exp 12 0 a s2 d s < +∞, (condición de Novikov).
¡Rt Rt ¢
(2). El proceso estocástico ϕt = exp 0 a s dWs − 12 0 a s2 d s , t ∈ J T , es una
martingala respecto a {Ft }t∈J T y a P .
Rt
(3). El proceso estocástico Wt∗ = Wt − 0 g (s)d s, t ∈ J T , es un proceso de
Wiener respecto a {Ft }t∈J T y a Pe, donde d Pe = ϕT d P .

12.2. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una fil-
tración completa respecto a P de (Ω, F ), W f = {Wt }t∈J un proceso de Wie-
T
ner respecto a {Ft }t∈J T y a P .
Sea ξ̃ = {ξt }t∈J T un proceso estocástico de Itô en (Ω, F , P ) con diferencial
estocástica

d ξt = (z(t , ω)u(t , ω) + v (t , ω))d t + z(t , u)dWt y condición inicial ξ0 = 0.

Supongamos que el proceso estocástico


µZt Z ¶
1 t 2
µt = exp u(s, ω)dWs − u(s, ω) d s , t ∈ J T
0 2 0
198 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

es una martingala respecto


³ a ³{F (por el Teorema 4.12.2., (pág.
t }t∈J T y a P ,´´
RT
190), es suficiente que E exp 0 u(s, ω)2 d s < +∞). Probar que:
Rt
(a). Wt∗ = Wt − 0 u(s, ω)d s, t ∈ J T es un proceso de Wiener respecto a
{Ft }t∈J T y a P ∗ , donde d P ∗ = µT d P .

(b). d ξt = v (t , u)d t + z(t , u)dWt∗ .


(Este problema es otra versión del Teorema de Girsanov.)
BIBLIOGRAFÍA 199

Bibliografía

[1] D. Applebaum, Lévy Processes and Stochastic Calculus, (Second Edi-


tion). Cambridge University Press, Cambridge, 2009.
[2] L. Arnold, Stochastic Differential Equations: Theory and Applications.
Wiley&Sons, New York, 1973.
[3] R. B. Ash; M. F. Gardner, Topics in Stochastic Processes. Academic Press,
New York, 1975.
[4] A. J. Chorin; O. H. Hald, Stochastic Tools in Mathematics and Science,
(Third Edition). Springer-Verlag, New York, 2013.
[5] D. Dacunha-Castelle; M. Duffo, Probabilités et statistique, Tome 1.
Masson, París, 1982.
[6] C. Dellacherie, Un survol de la theorie de l’integrale stochastique. Stoch.
Process Appl. 10 (1980), 115-144.
[7] J. L. Doob, Stochastic Processes. Wiley, 1953.
[8] E. B. Dynkin, Theory of Markov Processes. Dover, New York, 2006.
[9] A. Einstein, Ann. Phys. 17 (1905), 549; 19 (1906), 289; 19 (1906), 371.
[10] A. Friedman, Stochastic Differential Equations and Applications, V. 1.
Academic Press, New York, 1975.
[11] I. M. Gel’fand; N. Ya. Vilenkin, Generalized Functions-V. 4: Applica-
tions of Harmonic Analysis. Academic Press, 1964.
[12] I. I. Gihman; A. V. Skorohod, Stochastic Differential Equations. Sprin-
ger, Berlin, 1972.
[13] I. V. Girsanov, Theory of Probability and its Applications, 5 (1962), 285-
301.
200 BIBLIOGRAFÍA

[14] D. Gusak; A. Kukush; A. Kulik; Y. Mishura; A. Pilipenko, Theory of


Stochastic Processes. Applications to Financial Mathematics and Risk
Theory. Springer-Verlag, New York, 2010.
[15] J. M. Harrison; D. M. Kreps, Martingales and Arbitrage in Multiperiod
Securities Markets. J. Econom. Theory 20 (1979), 381-408.
[16] J. M. Harrison; S. R. Pliska, Martingales and Stochastic Integrals in the
Theory of Continuum Trading. Stoch. Proc. Appl. 11 (1981), 215-260.
[17] P. Ibarrola; L. Pardo; V. Quesada, Teoría de la Probabilidad. Editorial
Síntesis, Madrid, 1997.
[18] K. Itô, Stochastic Integral, Imperial Academy, Tokio. Proceedings 20
(1944), 519-524.
[19] J. Jacod, Calcul stochastique et problèmes de martingales. Lecture No-
tes Math. 714, Springer-Verlag, New York, 1979.
[20] J. Jacod; A. N. Shiryaev, Limit Theorems for Stochastic Processes.
Springer-Verlag, Berlin, 1987.
[21] P. Jaillet; D. Lamberton; B. Lapeyre, Variational Inequalities and the
Pricing of American Options. Acta Applicandae Math. 21 (1990), 283-
289.
[22] A. H. Jazwinski, Stochastic Processes and Filtering Theory. Dover Pu-
blications, New York, 2007.
[23] A. N. Kolmogorov, Foundations of the Theory of Probability. Chelsea,
New York, 1956.
[24] V. S. Koroliuk, Manual de la teoría de probabilidades y estadística ma-
temática. Editorial Mir, Moscú, 1986.
[25] D. Lamberton; B. Lapeyre, Introduction to Stochastic Calculus Applied
to Finance, (second edition). Chapman-Hall, 2007.
[26] G. Letta, Un exemple de processus mesurable adapté non-progressif.
Séminaire de probabilités (Strasbourg), tome 22, p. 449-453, 1988.
[27] R. S. Liptser; A. N. Shiryaev, Statistics of Random Processes I. Springer-
Verlag, Berlin, 2001.
BIBLIOGRAFÍA 201

[28] J. Margalef-Roig; S. Miret-Artés, Cálculo estocástico aplicado a las fi-


nanzas: Precio de las opciones según el modelo Black-Scholes-Merton
y algunas generalizaciones, 281-313. En Contribuciones Matemáticas.
Homenaje al profesor Enrique Outerelo Domínguez, Editorial Complu-
tense, Madrid, 2004.
[29] J. Margalef; E. Padrón; E. Outerelo, Topología General. Sanz y Torres,
Madrid, 2000.
[30] J. Margalef; E. Outerelo, Probabilidad y Economía 1. Mercados Finan-
cieros Finitos. Sanz y Torres, Madrid, 2010.
[31] J. Margalef; E. Outerelo, Probabilidad y Economía 2. Espacios de Pro-
babilidad Generales. Sanz y Torres, Madrid, 2013.
[32] J. Margalef; E. Outerelo, Introducción a la topología. Editorial Com-
plutense, Madrid, 1993.
[33] P. A. Meyer, Un cours sur les integrales stochastiques. En Seminaire de
Probabilité, X, Lecture Notes in Mathematics 511, 245-400. Springer-
Verlag, New York, 1976.
[34] P. Mörters; Y. Peres, Brownian Motion. Cambridge Series in Statistical
and Probabilistic Mathematics, 2010.
[35] B. Øksendal, Stochastic Differential Equations. An Introduction with
Applications. Springer-Verlag, Berlin, 2010.
[36] V. Petrov; E. Mordecki, Teoría de Probabilidades con más de 200 ejerci-
cios. URSS, Moscú, 2003.
[37] P. Protter, Stochastic Integration and Differential Equations, (Second
Edition). Springer-Verlag, Berlín, 2004.
[38] L. Schwartz, Théorie des distributions, Vols. I y II. Hermann, Paris,
1950-1951.
[39] A. N. Shiryaev, Optimal Stopping Rules. Springer-Verlag, Berlin, 1978.
[40] A. N. Shiryaev, Probability. Springer, New York, 1996.
[41] A. N. Shiryaev, Essentials of Stochastic Finance. Adv. Ser. Statistical
Science and Appl. Probability, Vol. 3, World Scientific, 2001.
[42] A. V. Skorohod, Random Processes with Independent Increments. Klu-
wer, 1991.
202 BIBLIOGRAFÍA

[43] F. L. Spitzer, Principles of Random Walk. Springer-Verlag, Berlín, 2001.


[44] J. Swart; A. Winter, Markov Processes: Theory and Examples, winter@
mi.uni-erlangen.de, 2005.
[45] T. Seppäläinen, Basics of Stochastic Analysis. seppalai@math.wisc.
edu, 2010.
[46] R. Vélez Ibarrola, Procesos Estocásticos. UNED, Madrid, 1991.
[47] R. Vélez Ibarrola; T. Prieto Rumeau, Procesos Estocásticos. UNED, Ma-
drid, 2013.
[48] P. Zoroa Terol; N. Zoroa Alonso, Elementos de Probabilidades. Diego
Marín (Librero Editor), Murcia, 2008.
ÍNDICE ALFABÉTICO 203

Índice alfabético

Acotación de momentos exponencia- de Lipschitz, 149, 150, 151


les, 153 de Novikov, 189, 190, 191, 197
Álgebra(-σ) asociada a un tiempo de inicial de ecuación diferencial es-
Markov, 66 tocástica, 146, 148, 151, 152,
Amplitudes estocásticas, 32 156
Aplicaciones de la fórmula de Itô, 131 Consistencia, Propiedad de, 5, 7, 10
Apuesta de un jugador, 71 Construcción canónica, 8
Armónicos, 32, 33 Conteo, proceso de, 20
Criterio de
Bernoulli, 15 continuidad de Kolmogorov, 9
Bochner, 35 numeración de elementos de una
Browniano, movimiento, 78 parte de R, 10

Cadena de Markov, 14, 16, 37 Densidad


homogénea, 54 de transición de un proceso es-
Cadena estacionaria tocástico, 48
en sentido amplio, 31 espectral, 35
en sentido estricto, 30 Derivada
Chapman-Kolmogorov, 12, 40, 44, 45, de un proceso de Wiener, 88, 94
48, 51, 55 de un proceso estocástico gene-
Compatibilidad de las distribuciones ralizado, 93
finito-dimensionales de un de una función generalizada, 91
proceso estocástico, 5 Descomposición
Compensador de una submartinga- de Doob-Meyer, 177
la, 64 de Riesz, 176
Condición Desigualdad
de Kazamaki, 189 de Doob, 100
204 ÍNDICE ALFABÉTICO

Dirac, 88 generada por un proceso esto-


Diferencial estocástica, 121, 122, 123, cástico, 23
127, 129, 134 Fisk, 104
Distribución Flujo estocástico, 169, 170, 171
de probabilidad de un proceso Fórmula de Chapman-Kolmogorov,
estocástico, 5 40
finito-dimensional de un proce- Fórmula de integración por partes,
so estocástico, 5 144
inicial de proceso de Markov, 46 Fórmula de Itô, 128, 129
Dominio del parámetro, 2 aplicaciones, de la, 131
Donsker, 79 multidimensional, 128, 129
y tiempos de Markov, 130, 131
Ecuación Frecuencia, 32
de Chapman-Kolmogorov, 12, 40, Función
44, 45, 48, 51, 55 cadlag, 18
de Chapman-Kolmogorov de pro- de clase E T , 97
ceso de Markov homogéneo, de clase E T simple, 97
50 de clase E J ∞ , 114
de Fokker-Planck, 49, 81, 82, 168 de clase E ∞ , 110
de Kolmogorov backward, 50, 81, de clase P T , 97
82, 168 de clase P J ∞ , 114
de Kolmogorov forward, 49, 81, de clase P ∞ , 110
168 de correlación, 31
de Langevin, 166 de covarianza, 20, 31, 34
diferencial estocástica lineal, 158 de densidad de una función de
Ecuaciones de Kolmogorov, 48 transición, 48
Espacio de estados, 1, 16, 19 de Dirac, 90
Estrategia de un jugador, 71 de distribución espectral, 35
de distribución finito-dimensional
Filtración de un proceso estocástico, 5
compleción, de una, 24, 25 de Heaviside, 90
completa respecto a una proba- de transición, 45
bilidad, 24 de transición Markoviana, 45
continua por la derecha, 24 espectral, 32, 35
continua por la izquierda, 24 generalizada, 89
de un espacio medible, 23 localmente integrable de Lebes-
ÍNDICE ALFABÉTICO 205

gue, 89 Kronecker, delta de, 33


no anticipativa, 96
Lema de Wald, 119
no anticipativa simple, 97
Ley de probabilidad de un proceso
simple, de clase E T , 97
estocástico, 6
Gaussiano, proceso estocástico, 35 Luz blanca, 33
Gel’fand, 88, 89
Markov, 37
Girsanov, 189, 192, 193, 198
Martingala, 58
Heaviside, 90 cuadrado integrable, 175
Herglotz, 32 diferencia, 63
generalizada, 62
Igualdad de Wald, 119 local, 73
Integral estocástica, 96 regular, 72
de Fisk-Stratonovich, 104 transformada, 63
de función de clase E T , 101 uniformemente integrable, 72
de función de clase E J ∞ , 114, 115 y juegos de azar, 70
de función de clase E ∞ , 111 y tiempo de Markov, 72
de función de clase P T , 105, 106, Matriz
107 de transición, 16
de función de clase P J ∞ , 116, 117 estocástica, 53
de función de clase P ∞ , 112, 113 Medida espectral, 32, 35
de función simple, 98 Método de coordenadas, 8
y tiempos de Markov, 118 Métrica de Skorohod, 18
Intensidad, 32 Modelo de Black-Scholes-Merton, 163
Invariancia (por cambio de Girsanov) Modificación de un proceso estocás-
de la integral estocástica, 193, 194 tico, 2
Ionescu Tulcea, 14 Movimiento Browniano, 78
geométrico, 162
Juego estándar, 78
desfavorable, 71
Novikov, 189, 190, 191, 197
favorable, 71
Numeración de los elementos de un
justo, 71
subconjunto finito de R, 10
Kazamaki, 189
Ornstein-Ulhenbeck, proceso, 165
Khinchine, 35
Kolmogorov, 7, 9, 10, 12 Paseo aleatorio, 42
206 ÍNDICE ALFABÉTICO

Paso de un paseo aleatorio, 42 creciente e integrable, 176


Potencial, 176 creciente y predicible, 176
Principio de invariancia de Donsker, de conteo, 20
79 de difusión, 122
Probabilidad, de Itô, 120
de transición de paso 1, 51 de Itô k-dimensional, 124
de transición de un proceso es- de Itô multidimensional, 126
tocástico, 12, 42, 46 de Itô unidimensional, 120
de transición de una cadena de de Markov, 12, 37, 38
Markov, 51 de Markov homogéneo, 50
de transición Markoviana, 46 de Ornstein-Ulhenbeck, 165
finito-dimensional de proceso es- de tiempo discreto, 2
tocástico, 5 de Wiener, 83
inicial de cadena de Markov, 16, de Wiener k-dimensional, 124
52, 53 discreto, 2
inicial de proceso de Markov, 46 estacionario, 33
Proceso estocástico real, 2 estacionario en sentido amplio,
adaptado a una filtración, 25 34
Browniano, 78 estacionario en sentido estricto,
Browniano estándar, 78 33
con incrementos independien- estocásticamente continuo, 22
tes, 57 Gaussiano, 35
con incrementos independien- generalizado de Gel’fand-Vilenkin,
tes y estacionarios, 57 89, 91, 92
con tiempo continuo, 2 generalizado Gaussiano, 92
continuo, 3 medible, 21
continuo de Ornstein-Ulhenbeck, modificación de otro, 2
165 normal, 35
continuo en probabilidad, 22 progresivamente medible, 26
continuo por la derecha, 3 ruido blanco, 88, 95
continuo por la derecha con lí- sin memoria, 38
mite por la izquierda, 3 uniformemente integrable, 72
continuo por la izquierda, 3 Procesos estocásticos reales
continuo por la izquierda con lí- estocásticamente equivalentes, 2
mite por la derecha, 3 estocásticamente equivalentes en
creciente, 176 sentido amplio, 6
ÍNDICE ALFABÉTICO 207

estocásticamente equivalentes Relación entre martingalas y martingalas-


en sentido estricto, 2 diferencia, 63
indistinguibles, 2 Representación de martingalas, 175
Propiedad Ruido blanco
de compatibilidad, 5, 7, 12 proceso estocástico, 88, 95
de consistencia, 5, 7, 10 sucesión estocástica, 33
de Doob, 100
de Markov, 12, 38, 55 Schwartz, L., 89
de Markov fuerte, 170 σ-álgebra asociada a un tiempo de
de simetría, 5, 7 Markov, 66
Propiedades Simetría, Propiedad de, 5, 7
Sistema Gaussiano, 35
de la integral estocástica de fun-
Sistema normal, 35
ciones de clase E T , 102, 103
Skorohod, 18
de la integral estocástica de fun-
ciones de clase E J ∞ , 115 Sobolev, S., 89
Solución fuerte de ecuación diferen-
de la integral estocástica de fun-
ciones de clase E ∞ , 111, 112 cial estocástica, 145
de la integral estocástica de fun- existencia y unicidad, 149, 150,
ciones de clase P T , 108, 109 151, 152, 153
de la integral estocástica de fun- versión con valores vectoriales,
ciones de clase P J ∞ , 118 148
de la integral estocástica de fun- versión multidimensional, 147
ciones de clase P ∞ , 113 versión unidimensional, 145
Solución débil de ecuación diferen-
de la integral estocástica de fun-
ciones simples, 99, 100 cial estocástica, 174
Stratonovich, 104
de las trayectorias de los proce-
sos de Wiener, 84 Submartingala, 58
de los procesos Brownianos, 80, generalizada, 62
81 local, 73
de los procesos estocásticos Sucesión de localización, 116
Gaussianos, 36 Sucesión estocástica, 2
de los tiempos de Markov, 67, 68, compensadora de submartinga-
69 la, 64
creciente, 63
Realización de un proceso estocás- de variables aleatorias comple-
tico, 2 jas estacionarias en sentido
208 ÍNDICE ALFABÉTICO

amplio, 31 fundamental de representación


estacionaria en sentido amplio, de martingalas, 182
31 Tiempo de Markov, 64, 65, 66
estacionaria en sentido estricto, de primera visita, 69
30 Tiempo de parada, 65, 66
martingala local, 73 Transformación de probabilidades de
predecible, 63 Girsanov, 194
previsible, 63 Trayectoria de un proceso estocásti-
ruido blanco, 33 co, 2
transformada, 63
Variables aleatorias de Bernoulli in-
Supermartingala, 58
dependientes, 15
generalizada, 62
Vilenkin, 88, 89
local, 73
Wald, 119
Técnica de
Wiener, proceso estocástico de, 83
la sucesión de localización, 116
localización, 114
Teorema
de Bochner-Kinchine, 35
de Chung-Doob, 28
de Donsker, 79
de Doob, 64, 76
de Doob-Meyer, 177
de existencia de movimiento Brow-
niano, 78
de Fubini, 22
de Girsanov, 189, 192, 193, 196,
198
de Girsanov, versión multidimen-
sional, 196
de Herglotz, 32
de Ionescu-Tulcea, 14
de Kolmogorov, 7, 9, 10, 12
de Lévy, 83
de Meyer, 28
de Riesz, 176
ÍNDICE ALFABÉTICO 209

Símbolos

A r B = {a ∈ A : a 6∈ B}
D c = E r D, complementario de D subconjunto de E
BT , 123
B(R), σ-álgebra de Borel de R, (V. 2, pág. 32)
B(R), σ-álgebra de Borel de R, (V. 2, pág. 40)
B(Rn ), σ-álgebra de Borel de Rn , (V. 2, pág. 40)
B(R©S ), ª4
β̃ = βt t∈J T , proceso estocástico Browniano, 78
C, conjunto de los números complejos
(C), proceso estocástico continuo, 3
Cadlag, proceso estocástico (CDLI), 18
(CD), proceso estocástico continuo por la derecha, 3
(CDLI), proceso estocástico continuo por la derecha con límite por la iz-
quierda, 3
(CI), proceso estocástico continuo por la izquierda, 3
(CILD), proceso estocástico continuo por la izquierda con límite por la de-
recha, 3
C T , conjunto de aplicaciones continuas de [0, T ] en R, 123
C = C 1 , 16, 123
D, 178
DL, 177
E T , 97
E J ∞ , 114
E ∞ , 110
Fτ , σ-álgebra asociada a un tiempo de Markov, 66
ϕω , trayectoria del proceso estocástico ξ̃ en el punto ω, 2
ξ̃
210 ÍNDICE ALFABÉTICO

RT
f dWt , integral estocástica de Itô, 96
R0T t
0 f t ◦ dW t , integral estocástica de Fisk-Stratonovich, 104
J T = [0, T ] ⊂ R, 1
J ∞ = [0, +∞) ⊂ R, 1
λ, medida de Lebesgue en R, (V. 2, pág. 106)
λT = λ|B(J T ) , medida de Lebesgue en J T , 97
MT , conjunto de martingalas cuadrado integrables con dominio del pará-
metro J T , 175
M = M∞ , conjunto de martingalas cuadrado integrables con dominio del
parámetro J ∞ , 175
N, conjunto de los números naturales, 2
N+ = N r {0}
N = N ∪ {+∞}, 72
P T , 97
P J ∞ , 114
P ∞ , 110
P X ξ̃ , distribución de probabilidad del proceso estocástico ξ̃, 5
R, conjunto de los números reales
R = R ∪ {−∞, +∞}, recta real ampliada
Rn = R × ... × R, espacio euclídeo n-dimensional
RS = {x : x aplicación de S en R}
+
R∞ = RN
σΩ , generador de σ-álgebras, (V. 2, pág. 15)
f = {Wt }t∈J , proceso estocástico de Wiener, 83
W © ¡t ¢ª
f = Wt = W 1 , ...,W k
W t t t∈J t , proceso estocástico de Wiener k-dimensional,
124
X ξ̃ , 4
ξ̃τ , τ tiempo de Markov, 67
Z, conjunto de los números enteros
(Ω, F ), espacio medible, (V. 2, pág. 16)
(Ω, F , P ), espacio de probabilidad, (V. 2, pág. 22)

Вам также может понравиться