Академический Документы
Профессиональный Документы
Культура Документы
Procesos Estocásticos
*
II
III
Prefacio
LOS AUTORES
Índice general
Prefacio III
Índice general V
4. Procesos estocásticos 1
4.1. Procesos estocásticos. Teoremas de existencia . . . . . . . . . 1
4.2. Procesos estocásticos medibles . . . . . . . . . . . . . . . . . . 21
4.3. Procesos estocásticos estacionarios. Procesos Gaussianos . . 30
4.4. Procesos estocásticos reales de Markov . . . . . . . . . . . . . 37
4.5. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.6. Movimiento Browniano. Procesos estocásticos de Wiener. . . 78
4.7. Integrales estocásticas . . . . . . . . . . . . . . . . . . . . . . . 96
4.8. Procesos estocásticos de Itô . . . . . . . . . . . . . . . . . . . . 120
4.9. Ecuaciones diferenciales estocásticas. Solución fuerte . . . . 145
4.10.Ecuaciones diferenciales estocásticas. Solución débil . . . . . 174
4.11.Representación de martingalas de cuadrado integrable . . . 175
4.12.Teorema de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . 189
Bibliografía 199
Símbolos 209
V
VI ÍNDICE GENERAL
1
Capítulo 4
Procesos estocásticos
¡ S ¡ S ¢¢
que sabemos que es variable aleatoria en
¡ S¢ (Ω, F ) con valores en R , B R ,
−1
y sea P X ξ̃ (B) = P ((X ξ̃ ) (B)), B ∈ B R . Entonces, P X ξ̃ es una probabilidad
¡ ¡ ¢¢
en el espacio medible RS , B RS , que se llama distribución de probabili-
dad de X ξ̃ , (V. 2, pág. 151). Además, si (s 1 , ..., s n ) es una n-tupla ordenada
de elementos distintos dos a dos de S, entonces (ξs1 , ..., ξsn ) : Ω → Rn es
variable aleatoria en (Ω, F ) con valores en (Rn , B(Rn )) y
³ ¡ ¢ ´ ³¡ ¢−1 ¡ n ¢´ ¡ ¡ ¢¢
P (s1 ,...,sn ) B n = P ξs1 , ..., ξsn = P X ξ̃ J (s1 ,...,sn ) B n =
ξ̃
B
¡ ¢ ¡ ¢ ¡ ¢ © ª
= P ¡ξs ,...,ξs ¢ B n , B n ∈ B Rn , (J (s1 ,...,sn ) B n = x ∈ RS : (x s1 , ..., x sn ) ∈ B n ,
1 n
¡ ¢ ¡ ¢ ¡ ¡ ¢¢ ¡ ¢−1 ¡ n ¢
J (s1 ,...,sn ) B n ∈ B RS y X ξ̃−1 J (s1 ,...,sn ) B n = ξs1 , ..., ξsn B ),
(V. 2, páginas 130 y 158), es una probabilidad en el espacio (Rn , B(Rn )), lla-
mada probabilidad finito-dimensional de ξ̃, y por último obtenemos que
ξ̃ ¡ ¢
P (s ((−∞, x1 ] × · · · × (−∞, xn ]) = P ξs1 6 x1 , ..., ξsn 6 xn =
1 ,...,s n )
ξ̃
= F(ξs1 ,...,ξsn ) (x1 , ..., xn ) (= F(s (x1 , ..., xn )), x1 , ..., xn ∈ R,
1 ,...,s n )
ξ̃
y F(s ,...,s ) (x1 , ..., xn ) es función de distribución n-dimensional que se lla-
1 n
ma función de distribución finito-dimensional del proceso estocástico real
dado ξ̃ = {ξs }s∈S , (V. 2, pág.158).
Estas funciones de distribución finito-dimensionales cumplen la siguiente
propiedad muy importante (compatibilidad):
(1). Simetría. Si τ : {1, ..., n} → {1, ..., n} es una permutación (aplicación bi-
yectiva) y (s 1 , ..., s n ) es una n-tupla ordenada de elementos distintos dos a
dos de S, entonces
ξ̃ ξ̃
F(s1 ,...,sn ) (x1 , ..., xn ) = F(s (xτ(1) , ..., xτ(n) ),
τ(1) ,...,s τ(n) )
ξ̃
ya que se tiene: F(s (x1 , ..., xn ) = P X ξ̃ (J (s1 ,...,sn ) ((−∞, x1 ]×...×(−∞, xn ])) =
1 ,...,s n )
ξ̃
P X ξ̃ (J (sτ(1) ,...,sτ(n) ) ((−∞, xτ(1) ] × ... × (−∞, xτ(n) ])) = F(s ,...,s ) (xτ(1) , ..., xτ(n) ).
τ(1) τ(n)
(2). Consistencia. Para toda n-tupla ordenada (s 1 , ..., s n ) de elementos dis-
6 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
ξ̃ ξ̃
(F(s (x1 , ..., xn−1 , +∞) = F(s (x1 , ..., xn−1 )).
1 ,...,s n−1 ,s n ) 1 ,...,s n−1 )
para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos del
conjunto S y todo elemento (x1 , ..., xn ) de Rn , n ∈ N+ , que es equivalente a
¡© ª¢ ¡© ª¢
P 1 ω : ξs1 (ω) ∈ A 1 , ..., ξsn (ω) ∈ A n = P 2 ω : η s1 (ω) ∈ A 1 , ..., η sn (ω) ∈ A n ,
para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos de
S y todo A 1 ∈ B(R),..., A n ∈ B(R), n ∈ N+ (ver el Problema ¡ 1.2., pág. 19),¢ lo
−1
cual
¡ es equivalente, ¢a su vez, a que se cumpla que P 1 (ξs1 , ..., ξsn ) (B) =
−1
P 2 (η s1 , ..., η sn ) (B) , para toda n-tupla ordenada (s 1 , ..., s n ) de elementos
distintos dos a dos de S y todo B ∈ B(Rn ).
Se tiene que si dos procesos estocásticos reales son estocásticamente equi-
valentes, entonces son estocásticamente equivalentes en sentido amplio.
(1). Simetría. Si τ : {1, ..., n} → {1, ..., n} es una permutación (aplicación bi-
yectiva) y (s 1 , ..., s n ) es una n-tupla ordenada de elementos distintos dos a
dos de S, entonces F(s1 ,...,sn ) (x1 , ..., xn ) = F(sτ(1) ,...,sτ(n) ) (xτ(1) , ..., xτ(n) ).
lı́m F(s1 ,...,sn−1 ,sn ) (x1 , ..., xn−1 , xn ) = F(s1 ,...,sn−1 ) (x1 , ..., xn−1 ),
xn →+∞
(F(s1 ,...,sn−1 ,sn ) (x1 , ..., xn−1 , +∞) = F(s1 ,...,sn−1 ) (x1 , ..., xn−1 )),
es decir, para todo (x1 , ..., xn−1 ) ∈ Rn−1 y todo ε > 0 existe r > 0, que depende
de (x1 , ..., xn−1 ) y de ε, tal que para todo xn > r , |F(s1 ,...,sn ) (x1 , ..., xn−1 , xn ) −
F(s1 ,...,sn−1 ) (x1 , ..., xn−1 )| < ε.
ξ̃
F(s (x1 , ..., xn ) = F(ξs1 ,...,ξsn ) (x1 , ..., xn ) =
1 ,...,s n )
¡ ¢
= F(s1 ,...,sn ) (x1 , ..., xn ) = P ξs1 6 x1 , ..., ξsn 6 xn ,
3.2.25. (V. 2, pág. 110), existe en (Rn , B(Rn )) una única probabilidad P (s1,...,sn )
tal que para todo (x1 , ..., xn ) ∈ Rn ,
Así, por la Proposición 3.2.27., (V. 2, pág. 111), las dos probabilidades en
el espacio (Rn−1 , B(Rn−1 )), P (s1 ,...,sn ) (·×R) y P (s1 ,...,sn−1 ) , son iguales, es decir,
P (s1 ,...,sn ) (B ×R) = P (s1 ,...,sn−1 ) (B), para todo B ∈ B(Rn−1 ), y se tiene la propie-
dad de consistencia de la familia de probabilidades. Luego por el Teorema
3.2.38.,
¡ S (V.¡2, Spág.
¢¢ 132), existe una única probabilidad P en el espacio medi-
ble R , B R tal que para cada ¡© n-tupla¡ ordenada ¢(s 1 , ...,
ª¢s n ) de elemen-
tos distintos dos a dos de S, P ω ∈ RS : ωs1 , ..., ωsn ∈ B = P (s1 ,...,sn ) (B),
B ∈ B(Rn ), y tomando B = (−∞, ¡ Sx1 ] ס ...S×
¢ (−∞,
¢ xn ] se tiene el resultado
del enunciado con (Ω, F , P ) = R , B R , P y ξs (ω) = ωs = ω(s), s ∈ S,
ω ∈ RS .
ξ̃
F(s (x1 , ..., xn ) = P (ξs1 6 x1 , ..., ξsn 6 xn ) =
1 ,...,s n )
P ∗ (ξs1 6 x1 , ..., ξsn 6 xn ) = P ∗ ({ω ∈ Ω∗ : ξs1 (ω) 6 x1 , ..., ξsn (ω) 6 xn })+
+ P ∗ ({ω ∈ (Ω∗ )c : ξs1 (ω) 6 x1 , ..., ξsn (ω) 6 xn }) =
η̃
= P ∗ ({ω ∈ Ω∗ : η s1 (ω) 6 x1 , ..., η sn (ω) 6 xn }) = F(s (x1 , ..., xn ),
1 ,...,s n )
para toda n-tupla ordenada (s 1 , ..., s n ) de elementos distintos dos a dos del
conjunto S y todo (x1 , ..., xn ) ∈ Rn , n ∈ N+ .
lı́m F[s1 ,...,sn ] (x1 , ..., xk , ..., xn ) = F[s1 ,...,sbk ,...,sn ] (x1 , ..., x
ck , ..., xn ),
xk →+∞
Demostración. Tomamos el espacio medible (RS , B(RS )), (página 4). Sean
[s 1 , ..., s n ], un subconjunto finito de S, y F[s1 ,...,sn ] (x1 , ..., xn ) la correspon-
diente distribución. Por el Teorema 3.2.25., (V. 2, página 110), existe una
única probabilidad P [s1 ,...,sn ] en (Rn , B(Rn )) tal que para todo (x1 , ..., xn ) ∈
Rn ,
F[s1 ,...,sn ] (x1 , ..., xn ) = P [s1 ,...,sn ] ((−∞, x1 ] × ... × (−∞, xn ]) (∗).
Corolario 4.1.5. Sea p(s, x; t , B) una función no negativa definida para to-
do s, t ∈ J T con t > s, todo x ∈ R y todo B ∈ B(R), y que verifica las siguientes
condiciones:
Sea π(B) una probabilidad en (R, B(R)). Entonces existen un espacio de pro-
babilidad (Ω, F , P ) y un proceso estocástico ξ̃ = {ξs }s∈J T en (Ω, F ) tal que:
Zx 0 Zx 1 Zxn−1
π(d y 0 ) p(0, y 0 ; s 1 , d y 1 ) · · · p(s n−2 , y n−2 ; s n−1 , d y n−1 )·
−∞
Zxn −∞ −∞
¡ ¢
· p(s n−1 , y n−1 ; s n , d y n ) = P ξs0 6 x0 , ξs1 6 x1 , ..., ξsn 6 xn ,
−∞
0 = s 0 < s 1 < ... < s n , s 1 , ..., s n ∈ J T , x0 , ..., xn ∈ R.
Teorema 4.1.6 (Kolmogorov). Para cada n ∈ N+ sea F(1,...,n) (x1 , ..., xn ) una
función de distribución en Rn , (Definición 3.2.24., (V. 2, pág. 109)). Supon-
gamos que esta sucesión de funciones de distribución cumple la siguiente
propiedad de compatibilidad:
lı́m F(1,...,n) (x1 , ..., xn−1 , xn ) = F(1,...,n−1) (x1 , ..., xn−1 ), n ∈ N+ , n > 2.
xn →+∞
ξ̃
F(1,...,n) (x1 , ..., xn ) = F(ξ1 ,...,ξn ) (x1 , ..., xn ) =
= F(1,...,n) (x1 , ..., xn ) = P (ξ1 6 x1 , ..., ξn 6 xn ) , n ∈ N+ , (x1 , ..., xn ) ∈ Rn .
P n+1 (B n × R) = P n (B n ), n ∈ N+ , B n ∈ B(Rn ).
Entonces, por el Teorema 3.2.35., (V. 2, pág. 129), existe una única proba-
bilidad P en el espacio medible (R∞ , B(R∞ )) tal que P (J n (B)) = P n (B) para
todo B ∈ B(Rn ) y todo n ∈ N+ , donde (recordamos) J n (B) = {(x1 , x2 , ...) ∈
R∞ : (x1 , ..., xn ) ∈ B}.
Por último, tomamos ξn : R∞ → R, ξn (ω) = ωn , n ∈ N+ . Por la construcción
del espacio medible (R∞ , B(R∞ )), (V. 2, pág. 61), es claro que ξn , n ∈ N+ , es
una variable aleatoria.
Se verifica que
Así, F(ξ1 ,...,ξn ) (x1 , ..., xn ) = F(1,...,n) (x1 , ..., xn ) = P (ξ1 6 x1 , ..., ξn 6 xn ).
P (ξ0 6 x0 , ξ1 6 x1 , ..., ξn 6 xn ) =
Zx 0 Zx 1 Zxn−1 Zxn
π(d y 0 ) p 0 (y 0 ; d y 1 )... p n−2 (y n−2 ; d y n−1 ) p n−1 (y n−1 ; d y n ).
−∞ −∞ −∞ −∞
El proceso estocástico dado por este corolario es una cadena de Markov.
Estos procesos se estudiarán en las páginas 51-56.
Teorema 4.1.9 (Ionescu Tulcea). Sea (Ωn , Fn ), n ∈ N+ , espacios medibles
arbitrarios y Y O
Ω= Ωn , F = Fn ,
n∈N+ n∈N+
(V. 2, pág. 41). Supongamos que P 1 es una probabilidad en (Ω1 , F1 ) y que
para cada (ω1 , ..., ωn ) ∈ Ω1 × ... × Ωn , n ∈ N+ , se tiene una probabilidad en el
espacio (Ωn+1 , Fn+1 ), P (ω1 , ..., ωn ; ·). Supongamos que para cada B ∈ Fn+1 ,
la función en las variables (ω1, ..., ωn ), P (ω1 , ..., ωn ; B), es medible del espacio
N N
(Ω1 × ... × Ωn , F1 ... Fn ) en (R, B(R)). Sea, para todo n ∈ N+ ,
Z Z
P n (A 1 × · · · × A n ) = P 1 (d ω1 ) P (ω1 ; d ω2 )...
A1
Z Z A2
... P (ω1 , ..., ωn−2 ; d ωn−1 ) P (ω1 , ..., ωn−1 ; d ωn ), A i ∈ Fi , 1 6 i 6 n.
A n−1 An
4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 15
P ({ω ∈ Ω : ω1 ∈ A 1 , ..., ωn ∈ A n }) = P n (A 1 × · · · × A n ), n ∈ N+ ,
P (ξn ∈ B) = P n (B), B ∈ E n , n ∈ N+ .
© ª
Corolario 4.1.11. Sea E un conjunto numerable y p k (x, y) k∈N , p k (x, y) :
E × E → R, tal que p k (x, y) es función no negativa y
X
p k (x, y) = 1, x ∈ E , k ∈ N.
y∈E
P
Sea también π : E → R tal que π(x) > 0, x∈E π(x) = 1. Entonces, existen
(Ω, F , P ) espacio de probabilidad y ξ0 , ξ1 ,... variables aleatorias en (Ω, F )
tal que para n ∈ N+ ,
donde tk recorre todos los números racionales de [0, 1]. Por consiguien-
T
te, σC (Tρ ) ⊂ B(R[0,1] ) C , ya que en espacios topológicos polacos, la σ-
álgebra generada por las bolas cerradas es igual a la σ-álgebra generada
por las bolas abiertas.
T
La σ-álgebra B(R[0,1] ) C = σC (Tρ ) la designaremos por B(C ).
Los conjuntos A 1 = {x ∈ C ⊂ R[0,1] : supt x t < M} y A 2 = {x ∈ C ⊂ R[0,1] : x t =
0, para al menos un t ∈ [0, 1]}, no son elementos de la σ-álgebra B(R[0,1] ),
(V. 2, pág. 69), pero son elementos de B(C ), (A 1 ∈ Tρ = Tc , A c2 ∈ Tρ = Tc ).
(1) Sea ξ : Ω → C una variable aleatoria de (Ω, F ) con valores en (C , B(C )),
(V. 2, pág. 149). Ponemos ξt = p t ◦ ξ, t ∈ [0, 1], donde p t : C → R es la
proyección p t (x) = x t , x ∈ C . Entonces, ξt : Ω → R es variable aleato-
18 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
ϕω : [0, 1] → R
t 7→ ξt (ω)
ψξ̃ : Ω → C
ω 7→ ψξ̃ (ω),
donde ψξ̃ (ω)(t ) = ξt (ω), t ∈ [0, 1], es variable aleatoria de (Ω, F ) con
valores en (C , B(C )).
Para este apartado (2) basta tener en cuenta que j ◦ ψξ̃ : Ω → R[0,1] , donde
j : C ,→ R[0,1] es la aplicación inclusión, es variable aleatoria de (Ω, F ) con
valores en (R[0,1] , B(R[0,1] )), (( j ◦ψξ̃ )(ω)(t ) = ξt (ω), ω ∈ Ω, t ∈ [0, 1], (pág. 4)),
T
y que B(R[0,1] ) C = σC (Tρ ).
Sea ξ una variable aleatoria de (Ω, F ) en (D, B(D)), (V. 2, pág. 149). Enton-
ces ξt = p t ◦ ξ, donde p t : D → R es la proyección p t (x) = x t , t ∈ [0, 1], es
variable aleatoria para todo t , y ϕω : [0, 1] → R, ϕω (t ) = ξt (ω), es continua
por la derecha y tiene límite por la izquierda, para todo ω ∈ Ω.
Recíproco: Sea ξ̃ = {ξt : Ω → R}t∈[0,1] , un proceso estocástico real con tra-
yectorias pertenecientes a D, es decir, t 7→ ξt (ω) es continua por la derecha
y tiene límite por la izquierda para cada ω ∈ Ω. Entonces
ψξ̃ : Ω → D
ω 7→ ψξ̃ (ω),
donde ψξ̃ (ω)(t ) = ξt (ω), ω ∈ Ω, t ∈ [0, 1], es una variable aleatoria de (Ω, F )
con valores en (D, B(D)).
Ejercicios y problemas
1.1. Sea ξ̃ = {ξs }s∈S un proceso estocástico real, definido sobre el espa-
cio de probabilidad (Ω, F , P ), tal que existe un subconjunto numerable
de R, F = {x1 , x2 , ...}, con ξs (ω) ∈ F para todo s ∈ S y todo ω ∈ Ω (al espa-
cio medible (F, B(F )) se le llama espacio de estados de ξ̃, (pág. 1)). Pro-
k ...k
bar que todas las funciones de probabilidad P s11...snn = P (ξs1 = xk1 , ..., ξsn =
xkn ), n ∈ N+ , s 1 , ..., s n ∈ S, k 1 , ..., k n ∈ N+ , dan todas las distribuciones finito-
dimensionales del proceso estocástico dado ¡ ξ̃, P (ξs1 6 y 1 , ...,¢ ξsn 6 y n ), n ∈
+
N , s 1 , ..., s n ∈ S, y 1 , ..., y n ∈ R, o bien P ξs1 ∈ B 1 , ..., ξsn ∈ B n , s 1 , ..., s n ∈ S,
B 1 , ..., B n ∈ B(R).
© ª
1.2. Sean ξ̃ = {ξs }s∈S y η̃ = η s s∈S dos procesos estocásticos reales defini-
dos sobre los espacios de probabilidad (Ω1 , F1 , P 1 ) y (Ω2 , F2 , P 2 ), respec-
tivamente. Probar que estos procesos son estocásticamente equivalentes
en sentido amplio si y sólo si para toda n-tupla ordenada (s 1 , ..., s n ) de ele-
mentos distintos dos a dos de S, y todo A 1 ,..., A n ∈ B(R), se verifica
¡ ¢ ¡ ¢
P 1 ξs1 ∈ A 1 , ..., ξsn ∈ A n = P 2 η s1 ∈ A 1 , ..., η sn ∈ A n ,
lo cual es equivalente a
³¡ ¢−1 ´ ³¡ ¢−1 ´
P 1 ξs1 , ..., ξsn (B) = P 2 η s1 , ..., η sn (B) , B ∈ B(Rn ).
20 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
(2) Los procesos estocásticos ξ̃ = {ξs }s∈S con S numerable, (V. 2, (2) de la
página 2), son medibles. En efecto: En el caso de ser S infinito nume-
rable (S ≡ N) es evidente que para todo B ∈ B(R),
[¡ ¢
{(n, ω) : ξn (ω) ∈ B} = {n} × ξ−1
n (B) ∈ B(N) ⊗ F .
n∈N
para todo ω0 ∈ Ω, y por tanto, (ξ̃∗ (·, ω0 ))−1 (B) = {s : ξs (ω0 ) ∈ B} ∈ B(S).
Por la observación anterior y el resultado que se acaba de demostrar, se
tiene que si ξ̃ = {ξs }s∈S es un proceso estocástico con S subconjunto nu-
merable de R, entonces todas las trayectorias de ξ̃ son funciones de Borel.
Se observa que existen procesos estocásticos no medibles tales que todas
sus trayectorias son funciones de Borel.
Definición 4.2.2. Sea ξ̃ = {ξs }s∈S , S intervalo de R, un proceso estocástico en
el espacio de probabilidad (Ω, F , P ). Se dice que ξ̃ es un proceso estocásti-
camente continuo o continuo en probabilidad en s 0 ∈ S, si para todo ε > 0
¡© ª¢
lı́m P ω : |ξs (ω) − ξs0 (ω)| > ε = 0.
s→s 0
(b) Todas las trayectorias del proceso estocástico dado son medibles (Borel)
(J T ∋ t 7→ ξt (ω) ∈ R, ω ∈ Ω), (pág. 21).
4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 23
ξ̃ \© ª
Fs = E : E es σ − álgebra de Ω y hace medibles a ξt , t 6 s, t ∈ S ,
n o
ξ̃
(véase la página 40 de V. 2)). Es claro que Fs es una filtración de
s∈S
(Ω, F ). A dicha filtración se le llama filtración generada por ξ̃. (En el ca-
so particular de S = N, cabe otra descripción de
ξ̃
Fn = σ (Ω : ξt , t 6 n, t ∈ N) (= σ (ξ0 , ξ1 , ..., ξn ))
24 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
ξ̃ © ª
mediante la imagen inversa: Fn = (ξ0 , ..., ξn )−1 (B n+1 ) : B n+1 ∈ B(Rn+1 ) .
Para probar esta afirmación basta observar que:
© ª
(ξ0 , ..., ξn )−1 (B n+1 ) : B n+1 ∈ B(Rn+1 ) =
¡© ª¢
σΩ (ξ0 , ..., ξn )−1 (A 0 × ... × A n ) : A 0 , ..., A n ∈ B(R)
Sean (Ω, F ) un espacio medible y {Ft }t∈J ∞ una filtración de este espacio.
Para cada t ∈ J ∞ ponemos
µ ¶ Ã !
\ [ [
Ft+ = Fs , Ft− = σΩ Fs , F0− = F0 , F+∞ = σΩ Fs .
s>t s<t s >0
© ª © ª
Es claro que Ft+ t∈J ∞ y Ft− t∈J ∞ son filtraciones de (Ω, F ).
La filtración {Ft }t∈J ∞ se dice que es continua por la derecha si Ft = Ft+
para todo t ∈ J ∞ , y que es continua por la izquierda si Ft = Ft− para todo
t ∈ J∞. © ª
Observamos: Si partimos de una filtración {Ft }t∈J ∞ la filtración Ft+ t∈J ∞
© ª
es continua por la derecha y Ft− t∈J ∞ es continua por la izquierda, (Ft+ =
T + −
¡
Ω S −
¢
s>t Fs y Ft = σ s<t Fs ).
S n o
Para s ∈ S se define FsP Ω P
= σ (Fs N ), donde N = N ∈ F : P (N ) = 0 .
(Obsérvese que si existe N ∈ F con P (N ) = 0, no existe Z ∈ Fs con N ⊂ Z y
P (Z ) = 0, y M 6∈ Fs para todo M ⊂ N , M 6= ∅, se verifica que FsP no coincide
P|
con la σ-álgebra Fs Fs compleción de Fs con respecto a la probabilidad
P |Fs ). Entonces,
© ª
(1) FsP s∈S es una filtración completa con respecto a P en (Ω, F P ).
n¡ ¢+ o ¡ ¢+ T
(2) FsP , donde FsP = t>s FtP , s ∈ S es una filtración completa
s∈S
respecto a P y continua por la derecha en el espacio medible (Ω, F P ).
Procesos estocásticos adaptados a una filtración
Definición 4.2.7. Sean (Ω, F ) un espacio medible y {Fs }s∈J T una filtración
de (Ω, F ). Un proceso estocástico ξ̃ = {ξs }s∈J T , definido en (Ω, F ) se dice que
es progresivamente medible respecto a {Fs }s∈J T si, para todo t ∈ J T y todo
B ∈ B(R), {(s, ω) : 0 6 s 6 t , ω ∈ Ω, ξs (ω) ∈ B} ∈ B([0, t ]) ⊗ Ft .
El lema que sigue es un resultado auxiliar para demostrar que todo proce-
so estocástico progresivamente medible, respecto a una filtración, es me-
dible.
Lema 4.2.8. Sean (Ω, F ) un espacio medible y {Ft }t∈J ∞ una filtración de
este espacio. Para tn ∈ J ∞ se considera
Entonces,
(1). La aplicación inclusión i n : [0, tn ] × Ω ,→ J ∞ × Ω es una aplicación
(B([0, tn ]) ⊗ F )|(B(J ∞ ) ⊗ F )-medible.
(2). ξ̃ es medible.
Demostración. (1). Para todo t ∈ J T , la aplicación [0, t ] × Ω → R, (s, ω) 7→
ξs (ω), es (B([0, t ]) ⊗ Ft )|B(R)-medible, de donde, para todo B ∈ B(R)
(G t,B =){(s, ω) ∈ [0, t ] × Ω : ξs (ω) ∈ B} ∈ B([0, t ]) ⊗ Ft
y por la Proposición 3.1.47., (V. 2, pág. 43),
G t,B [t ] = {ω ∈ Ω : (t , ω) ∈ G t,B } = {ω ∈ Ω : ξt (ω) ∈ B} = ξ−1
t (B) ∈ Ft ,
n
2X −1 µ ¶
(k + 1)t
ξ∗n (s, ω) = ξ̃∗ (0, ω) · I {0} (s) + ∗
ξ̃ , ω · I (kt2−n ,(k+1)t2−n ] (s).
k=0 2n
Ejercicios y problemas
2.1. Probar que un proceso estocástico continuo con dominio del paráme-
tro S, intervalo de R, (pág. 3), es estocásticamente continuo en S, (pág. 22).
2.2. En el espacio de probabilidad ([0, 1], B([0, 1]), λ), donde λ es la medi-
da de Lebesgue en [0, 1], se considera el proceso estocástico ξ̃ = {ξt }t∈[0,1] ,
30 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Proposición 4.3.1. Sea ξ̃ = {ξn }n∈N+ una sucesión estocástica real. Las si-
guientes afirmaciones son equivalentes:
Se deduce del Corolario 3.4.29., (V. 2, pág.191), que: Si ξ̃ = {ξn }n∈¡ N+¢es
una sucesión estocástica real estacionaria en sentido estricto con E ξ2n <
+∞, n ∈ N+ , entonces E (ξn ) = E (ξ1 ), (es decir, E (ξn ) es independiente de
n) y E (ξn+m ξn ) = E (ξ1+m ξ1 ), n, m ∈ N+ .
Teniendo en cuenta la fórmula cov (ξ, η) = E (ξη)−E (ξ)E (η), (V. 2, pág. 249),
las dos condiciones anteriores son equivalentes a:
E (ξn ) = E (ξ1 ) y cov (ξn+m , ξn ) = cov (ξ1+m , ξ1 ), n, m ∈ N+ .
Este resultado motiva la siguiente definición:
Una sucesión
¡ 2 ¢ estocástica real ξ̃ = {ξn }n∈N+ es estacionaria en sentido am-
plio si: E ξn < +∞, E (ξn ) = E (ξ1 ) y cov (ξn+m , ξn ) = cov (ξ1+m , ξ1 ), n, m ∈
N+ . Por lo dicho
¡ 2 ¢ más arriba, estas condiciones son equivalentes a las si-
guientes: E ξn < +∞, E (ξn ) = E (ξ1 ) y E (ξn+m ξn ) = E (ξ1+m ξ1 ), n, m ∈ N+ .
Definición 4.3.2. Una sucesión ζ̃ = {ζn }n∈Z de variables aleatorias comple-
jas, (V. 2, pág. 273), definidas sobre el espacio de probabilidad (Ω, F , P ), es
estacionaria en sentido amplio si
¡ ¢
E |ζn |2 < +∞, E (ζn ) = E (ζ0 ) y cov (ζk+n , ζk ) = cov (ζn , ζ0 ) , n, k ∈ Z.
Por comodidad suponemos E (ζ0 ) = 0. No se pierde generalidad y se
obtiene poder identificar la covarianza con el producto escalar del espacio
de Hilbert H 2 (Ω, F , P ), (V. 2, pág. 274).
Teniendo en cuenta la fórmula cov (ξt , ξs ) = E (ξt ξs ) − E (ξt )E (ξs ), (V. 2, pág.
249), las dos afirmaciones (1). y (2). anteriores son equivalentes a las dos
siguientes:
(1∗ ). Para todo s, h ∈ R con s, s +h ∈ S, E (ξs ) = E (ξs+h ), es decir, E (ξs ) = m =
const ant e.
(2∗ ). Para todo t , s, h ∈ R con t , s, t +h, s +h ∈ S, cov (ξt , ξs ) = cov (ξt+h , ξs+h ).
(3) Sea ξ̃ = {ξu }u∈U un sistema Gaussiano. Sea L (ξ̃) la expansión lineal de
este sistema ξ̃ en el espacio vectorial de las variables aleatorias. Sea
½ ¾
[ L2
L (ξ̃) = L (ξ̃) η : ξn → η, ξn ∈ L (ξ̃) .
Ejercicios y problemas
3.1. Sean (Ω, F , P ) un espacio de probabilidad, S un subconjunto de R y
ξ̃ = {ξs }s∈S un proceso
¡ 2 ¢ estocástico estacionario en sentido estricto, en ese
espacio, tal que E ξs < +∞ para todo s ∈ S. Probar que ξ̃ es un proceso
estocástico estacionario en sentido amplio.
3.2. Sean (Ω, F , P ) un espacio de probabilidad, S un subconjunto de R y ξ,
η dos© variables ªaleatorias, en este espacio. Probar que el proceso estocás-
tico ζs = ξ + sη s∈S es Gaussiano en cada uno de los siguientes casos:
(1). (ξ, η) es un vector aleatorio Gaussiano.
(2). ξ y η son variables aleatorias Gaussianas de esperanza 0, varianza 1 e
incorreladas (cov (ξ, η) = 0).
3.3. Sean (Ω, F , P ) un espacio de probabilidad, S un subconjunto de R y
ξ, η dos variables aleatorias, en este espacio, de esperanza 0, varianza 1 e
incorreladas
© (cov (ξ, η) = 0). Probar
ª que el proceso estocástico definido por
ζs = ξsen(2πs) + ηcos(2πs) s∈S es estacionario en sentido amplio.
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 37
(1) Sea {Fs }s∈S una filtración de (Ω, F ). Se dice que ξ̃ = {ξs }s∈S es un proceso
de Markov respecto a {Fs }s∈S y a P si:
(2) Para todo s ∈ S y todo B ∈ σ(Ω : ξt , t ∈ S, t > s), se cumple que P (B|Fs ) =
P (B|ξs ), (P -a.s.).
d x(t )
= f (t , x(t ))
dt
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 39
³¡ ¢−1 ´
P ξt1 , ..., ξtn (B 1 × ... × B n ) = P ¡ξt ,...,ξtn ¢ (B 1 × ... × B n ) ,
1
¡ ¢−1
ξt1 , ..., ξtn (B 1 × ... × B n ) ∈ σ (Ω : ξu , 0 6 u 6 s).
¡ ¢−1
Al elemento ξt1 , ..., ξtn (B 1 × ... × B n ) de la σ-álgebra σ (Ω : ξu , 0 6 u 6 s)
lo designaremos por A st1 ...tn (B 1 × ... × B n ).
(b). En Mecánica estadística la difusión de una partícula en un medio den-
so se modela mediante un proceso de Markov como el descrito anterior-
mente (ver (5) de teorema anterior). De manera aleatoria ξu da la posición
de la partícula en el tiempo u, es decir, la probabilidad de que la partícula
esté en B ∈ B(R) en el tiempo u es P (ξu ∈ B). Suponemos que s es el pre-
sente. De forma aleatoria, ξu , u < s, es la trayectoria del pasado. ¿Cuál es la
probabilidad de que (la trayectoria del pasado) en t1 ∈ [0, s) haya entrado
en B 1 ∈ B(R),..., en tn ∈ [0, s) haya entrado en B n ∈ B(R)?:
¡© ª¢ ¡ ¢
P ω : ξt1 (ω) ∈ B 1 , ..., ξtn (ω) ∈ B n = P A st1 ...tn (B 1 × ... × B n ) ,
A st1 ...tn (B 1 × ... × B n ) ∈ σ (Ω : ξu , 0 6 u 6 s).
¡ £ ¤ ¢ ³ h i ´ ³ ³ ´ ´
ξ̃ ξ̃
E P A|ξs2 |ξs1 = E P A|Fs2 |ξs1 = E E I A |Fs2 |ξs1 =
¡ ¢ ¡ ¢ ¡ ¢
= E I A |ξs1 = P A|ξs1 = P ξs3 ∈ B|ξs1 , (P − a.s.).
ξ̃
P (ξn ∈ B|Fn−1 ) = P (ξn ∈ B|ξ0 , ..., ξn−1 ) =
³ ´
= E I ξ−1
n (B)
|ξ0 , ..., ξn−1 = P (ξn ∈ B) = P (ξn ∈ B|ξn−1 ), (P−a.s).
(I ξ−1
n (B)
y σ(ξn−1 ) son independientes; I ξ−1
n (B)
y σ(ξ0 , ..., ξn−1 ) son indepen-
dientes). Se itera el proceso para n − 2 en vez de n − 1, etc. y se concluye
que ξ̃ cumple la propiedad de Markov.
42 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
(2a). Para R
todo B ∈ B(R) y todo C ∈ Gη , se verifica que P (C ∩ {ξ ∈
B}) = C Q ξGη (ω, B)P (d ω), (véase la página 245 de V. 2).
(2b) Si g : R → R es una función
R de Borel tal que g (ξ) es integrable,
entonces E (g (ξ)|η)(ω) = R g (x)Q ξGη (ω, d x), (P -a.s), (En efecto:
Para g = I B , B ∈ B(R), la fórmula es cierta, ya que en este ca-
so se convierte en P (ξ ∈ B|η)(ω) = Q ξGη (ω, B), (P -a.s.) que se
cumple por (1c). Entonces, la fórmula es válida para funciones
simples y el caso general se obtiene aplicando la convergencia
monótona, (V. 2, pág. 171)).
Demostración. (1). Por (c) anterior, la Proposición 4.4.3., (pág. 40), y (2b)
de la página 43 con g (x) = p(s 2 , x; s 3 , B) y Q ξs2 Gξs , se tiene
1
¡ ¢ ¡ ¢ ¡ ¡ ¢ ¢
p s 1 , ξs1 ; s 3 , B = P ξs3 ∈ B|ξs1 = E p s 2 , ξs2 ; s 3 , B |ξs1 =
Z
= p (s 2 , x; s 3 , B) p(s 1 , ξs1 ; s 2 , d x), (P − a.s.).
R
(a) La función p(s, x, t , B) = P (ξt ∈ B|ξs = x) = ϕI ξ−1 (B) ξs (x) es una función
t
de transición que se llama probabilidad de transición de ξ̃.
Con las hipótesis generales del teorema que precede, suponemos que se
cumple (1). Entonces:
R Para s 0 = 0, s 1 > 0, B 1 ∈ B(R), B 0 = R, se tiene que
P (ξs1 ∈ B 1 ) = R p(0, x; s 1 , B 1 )P ξ0 (d x).
4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 47
(3). Para todo s 0 , s 1 , ..., s n ∈ S con 0 = s 0 < s 1 < ... < s n y todo (x1 , ..., xn ) ∈ Rn ,
Zx 0 Zx 1 Zxn−1
π(d y 0 ) p(s 0 , y 0 ; s 1 , d y 1 ) · · · p(s n−2 , y n−2 ; s n−1 , d y n−1 )·
−∞ −∞ −∞
Zxn
¡ ¢
· p(s n−1 , y n−1 ; s n , d y n ) = P ξs0 6 x0 , ξs1 6 x1 , ..., ξsn 6 xn .
−∞
¡ ¢
E (ξt +△t −ξt )2 |ξt =y
(2b). La función M2 (y, t , △t ) = △t
, y ∈ R, t , t + △t ∈ J T , △t 6=
2
0, está acotada y lı́m△t→0 M2 (y, t , △t ) = σ (y, t ).
¡ ¢
t +△tE (ξt −ξ )3 |ξ =y
t
(2c). La función M3 (y, t , △t ) = △t
, y ∈ R, t , t + △t ∈ J T , △t 6=
0, está acotada y lı́m△t→0 M3 (y, t , △t ) = 0.
∂p(s, x|t , y) ∂(m(y, t )p(s, x|t , y)) 1 ∂2 (σ2 (y, t )p(s, x|t , y))
=− + ,
∂t ∂y 2 ∂y 2
(i). De la Definición 4.4.1. (pág. 37) y el Teorema 4.4.2., (pág. 37), se tiene:
Sea ξ̃ = {ξn }n∈N una sucesión estocástica en un espacio de probabilidad
(Ω, F , P ). Entonces, ξ̃ es una cadena de Markov si y sólo si
(En la Proposición 4.4.7., (pág. 41), se probó que si ξ̃ = {ξn }n∈N es cadena
de Markov respecto a una filtración {Fn }n∈N , entonces ξ̃ es unan cadena
o de
ξ̃
Markov, es decir, es cadena de Markov respecto a la filtración Fn .)
n∈N
(ii). Sean ξ̃ = {ξn }n∈N una cadena de Markov en el espacio de probabilidad
(Ω, F , P ) y p(m, x; n, B), m, n ∈ N con m < n, x ∈ R, B ∈ B(R), su probabili-
dad de transición. Entonces, por (c) de la página 44, p(m, x; n, B) = P (ξn ∈
B|ξm = x) y p(m, ξm (ω); n, B) = P (ξn ∈ B|ξm ) (ω), m, n ∈ N con m < n, x ∈ R,
ω ∈ Ω, y por (2) de la Proposición 4.4.8., (pág. 44), se tiene la ecuación de
Chapman-Kolmogorov:
Z
(*) p(k, x; n, B) = p(m, y; n, B) · p(k, x; m, d y), (P ξk − a.s.),
R
R
sigue
R que p(m, R x; m + 3, B) = R p(m + 2, x 2 ; m + 3, B)p(m, x; m + 2, d x 2 ) =
R P m+2 (x 2 , B) R P m+1 (x 1 , d x 2 )P m (x, d x 1 ), m ∈ N, x ∈ R, B ∈ B(R); y reite-
rando el proceso se llega a la fórmula
Z Z
p(m, x; m + k, B) = P m−(k−1) (xk−1 , B) P m−(k−2) (xk−2 , d xk−1 )...
Z R R
Por otro lado, por el Teorema 4.4.11., (pág. 46), se tiene que
Zx 0 Zx1
P ξ0 (d y 0 ) P 0 (y 0 , d y 1 ) · · ·
−∞
Z−∞
xn−1 Zxn
··· P n−2 (y n−2 , d y n−1 ) · P n−1 (y n−1 , d y n ) =
−∞ −∞
= P (ξ0 6 x0 , ξ1 6 x1 , ..., ξn 6 xn ), n ∈ N, x0 , ..., xn ∈ R.
Para cada k ∈ N, P(k) = (p k (x, y))x,y∈E es una matriz estocástica, con lo que
P
se expresa que p k (x, y) > 0, x, y ∈ E , y y p k (x, y) = 1, x ∈ E .
Para todo x0 , x1 , ..., xn ∈ E se verifica que
P (ξ0 = x0 , ξ1 = x1 , ..., ξn = xn ) =
= P (ξ0 = x0 )P (ξ1 = x1 |ξ0 = x0 )P (ξ2 = x2 |ξ1 = x1 ) · · · P (ξn = xn |ξn−1 = xn−1 ) =
= π({x0 })p 0 (x0 , x1 )p 1 (x1 , x2 ) · · · p n−1 (xn−1 , xn ),
P n+1 (A) =
Z Z Z Z
= π(d x0 ) P (x0 , d x1 )... P (xn−2 , d xn−1 ) I A (x0 , ..., xn )P (xn−1 , d xn ).
R R R R
¡ n+1 ¢
Se prueba¡ directamente
¢ que P n+1 (A), A ∈ B R es σ-aditiva, P n+1 (A) >
0 y P n+1 Rn+1 = 1. Así, P n+1 es una probabilidad en (Rn+1 , B(Rn+1 )).
Se comprueba la propiedad de consistencia de esta familia de probabili-
dades P n+1 , es decir, P n+1 (B × R) = P n (B) para todo B ∈ B (Rn ).
Entonces, por el Teorema 3.2.35. (V. 2, pág. 129), se tiene que existe una
única probabilidad P en (R∞ , B(R∞ )) tal que para todo A ∈ B(Rn+1 ), n ∈ N,
Ejercicios y problemas
4.1. Sean ξ0 , ξ1 ,... variables aleatorias en (Ω, F , P ), espacio de probabili-
dad, con valores en un conjunto I finito o infinito numerable de R (es-
pacio de estados). Probar que dicha sucesión de variables aleatorias es ca-
dena de Markov si y sólo si para todo n ∈ N+ y cualquier sucesión de es-
tados i 0 ,...,i n+1 tales que P (ξ0 = i 0 , ..., ξn = i n ) > 0 se verifica que P (ξn+1 =
i n+1 |ξn = i n , ..., ξ0 = i 0 ) = P (ξn+1 = i n+1 |ξn = i n ), (propiedad de Markov).
4.5. Martingalas
Sean (Ω, F , P ) un espacio de probabilidad, S ⊂ R, y {Fs }s∈S una filtración
de (Ω, F ). El proceso estocástico ξ̃ = {ξs }s∈S , en (Ω, F ), medible y adapta-
do a la filtración {Fs }s∈S , (páginas 21 y 25; por (2) de la página 21, si S es
numerable la condición ξ̃ medible ya se tiene), se llama:
4.5. MARTINGALAS 59
Por otro lado, en el caso de sucesiones estocásticas (S = N), por las propie-
dades (2) y (8), de la página 221 de V. 2, de la esperanza condicionada, esas
mismas condiciones (m), (sbm) y (spm) son equivalentes a:
E (|ξn |) < +∞, n ∈ N, y E (ξn+1 | Fn ) = ξn , (P -a.s.), n ∈ N (m”)
E (|ξn |) < +∞, n ∈ N, y E (ξn+1 |Fn ) > ξn , (P -a.s.), n ∈ N (sbm”)
E (|ξn |) < +∞, n ∈ N, y E (ξn+1 |Fn ) 6 ξn , (P -a.s.), n ∈ N (spm”),
respectivamente.
Como en el caso de tiempo continuo, las condiciones (m”), (sbm”) y (spm”)
se pueden reformular equivalentemente en términos de integrales.
60 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
(ya que E (I A E (ξt | Fs )) < E (I A ξs ), por ser P (A) > 0; recordamos que las
condiciones ξ > 0 y E (ξ) = 0 implican que ξ = 0, (P -a.s.)), lo que es una
contradicción. Así, P (A) = 0 y ξ̃ es martingala respecto a {Ft }t∈J T y a P .
(a). Es claro
n oque η̃ es una sucesión estocástica medible y adaptada a la fil-
ξ̃
tración Fn de (Ω, F ).
n∈N
(b). E (η n ) = 0, n ∈ N.
(c). Las variables aleatorias ξn+1 , I {ω:ξ0 (ω)∈A 0 ,...,ξn (ω)∈A n } , A i ∈ B(R) son in-
dependientes, (Proposición 3.3.11., (V. 2, pág. 159)).
ξ̃
(d). Las variables aleatorias ξn+1 , I A (A ∈ Fn ) son³ independientes,
´ (luego
ξ̃ ξ̃
ξn+1 y σ(ξ0 , ..., ξn ) = Fn son independientes, y E ξn+1 |Fn = E (ξn+1 ) = 0,
(P -a.s.), (V. 2, (10) de la página 221).
(e). Por (d) y las propiedades de la esperanza condicionada, (V. 2, pág. 221),
se tiene: Para todo n ∈ N
³ ´ ³ ´
ξ̃ ξ̃
E η n+1 |Fn = E ξn+1 + η n |Fn =
³ ´ ³ ´
ξ̃ ξ̃
= E ξn+1 |Fn + E η n |Fn = E (ξn+1 ) + η n = η n , (P − a.s.).
y tomando σΩ se obtiene
³n o´
ξ̃ Ω ξ̃ ξ̃
Fn = σ A : A ∈ Fn ; ξn+1 , I A son independientes = Fn .
n o
ξ̃
Por último se prueba que A : A ∈ Fn ; ξn+1 , I A son independientes es σ-
álgebra, para lo cual sólo hay que ver que es álgebra, pues es claro que es
monotónica (Teorema 3.1.21., (V. 2, pág. 20)).
(c) Por (8) de la página 221 de V. 2, para todo s 1 , s 2 ∈ S con s 1 < s 2 , se tiene
E (η s2 |Fs1 ) = E (E (ξ|Fs2 )|Fs1 ) = E (ξ|Fs1 ) = η s1 .
Observamos que la condición E (|ξs |) <
¡ +∞, s ¢∈ S, (en la definición de mar-
tingala) garantiza
¡ ¢ la existencia de E ξs2 |Fs1 , s 1 < s 2 , s 1 , s 2 ∈ S. Sin em-
bargo, E ξs2 |Fs1 puede también existir sin suponer la condición E (|ξs |) <
+∞, s ∈ S (V. 2, pág. 219, Observaciones. (1)). Lo cual motiva la siguiente
definición de martingala generalizada.
Definición 4.5.2. Sean (Ω, F , P ) un espacio de probabilidad, {Fs }s∈S una
filtración del espacio medible (Ω, F ) y ξ̃ = {ξs }s∈S un proceso estocástico real
en (Ω, F ). Se dice que ξ̃ es una martingala generalizada (submartingala ge-
neralizada) en (Ω, F , P ) respecto a {Fs }s∈S ¡y a P , si ¢ξ̃ es un proceso estocásti-
co medible y adaptado a {Fs }s∈S tal que E ξs2 |Fs1 , s 1 < s 2 , s 1 , s 2 ∈ S, existe
y se cumple:
¡ ¢
E ξs2 |Fs1 = ξs1 (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S
¡ ¢ ¡ ¢
(E ξs2 |Fs1 , existe y E ξs2 |Fs1 > ξs1 (P − a.s.), s 1 < s 2 , s 1 , s 2 ∈ S).
Definición 4.5.7. Sean (Ω, F ) un espacio medible y {Ft }t∈J T una filtración
de (Ω, F ). Sea τ : Ω → R una variable aleatoria extendida tal que i m(τ) ⊂
[0, +∞], (Definición 3.3.1., (V. 2, pág. 149)). Entonces,
(a). Se dice que τ es un tiempo de Markov respecto a {Ft }t∈J T , si para cada
t ∈ J T , {ω : ω ∈ Ω, τ(ω) 6 t } ∈ Ft , (lo que equivale a {ω : ω ∈ Ω, τ(ω) >
t } ∈ Ft para todo t ∈ J T ).
(2) Sea τ un tiempo de Markov respecto a {Ft }t∈J ∞ con i m(τ) ⊂ N ∪ {+∞} ⊂
[0, +∞]. Entonces, queda inducida una filtración {Fn }n∈N y natural-
mente {τ 6 n}, {τ < n} y {τ = n} son elementos de Fn para todo n ∈ N.
S
Demostración. (1) Basta observar que {τ < t } = k∈N+ {τ 6 t − (1/k)}, y que
{τ = t } = {τ 6 t } r {τ < t }.
(2) Sigue de (1).
A la vista de (2) del lema que precede cabe la definición que sigue.
Definición 4.5.9. Sean (Ω, F ) un espacio medible y {Fn }n∈N una filtración
de (Ω, F ). Sea τ : Ω → R una variable aleatoria extendida tal que i m(τ) ⊂
N ∪ {+∞} ⊂ [0, +∞]. Entonces,
66 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
{τ 6 t } = {τ = n} ∪ {τ = n − 1} ∪ ... ∪ {τ = 0} ∈ Fn = Ft , n 6 t < n + 1, n ∈ N,
Sean (Ω, F ) un espacio medible y {Fn }n∈N una filtración de este espa-
cio. Sea τ : Ω → R con i m(τ) ⊂ N ∪ {+∞} un tiempo de Markov respecto a
{Fn }n∈N . Entonces,
Fτ = {A ∈ F : A ∩ {τ = n} ∈ Fn para todo n ∈ N}
A c ∩ {τ = n} = {τ = n} r {τ = n} ∩ A ∈ Fn ,
Sean (Ω, F ) un espacio medible, {Ft }t∈J T una filtración de este espacio, y
τ, τ1 , τ2 : Ω → [0, +∞] tiempos de Markov respecto a {Ft }t∈J T . Entonces,
68 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
© ª
(a) τ es un tiempo de Markov respecto a Ft+ t∈J ∞ , (pág. 24), es decir,{τ 6
t } ∈ Ft+ , t ∈ J ∞ .
(c) Sea σ : Ω → R una función F |B(R)-medible con ©i m(σ) ª ⊂ [0, +∞]. En-
+
tonces, σ es un tiempo de Markov respecto a Ft t∈J ∞ si y sólo si
para todo t ∈ J ∞ , {σ < t } ∈ Ft .
Como consecuencia, si {Ft }t∈J ∞ es continua por la derecha, (pág.
24), y {σ < t } ∈ Ft , t ∈ J ∞ , entonces σ es tiempo de Markov respecto
a {Ft }t∈J ∞ . © ª
En efecto: Si σ es tiempo de Markov respecto a Ft+ t∈J ∞ , enton-
ces para todo t ∈ J ∞ con t > 0 elegimos una sucesión {s n }n∈N+ es-
trictamente creciente de números reales positivos que converge a t ,
S
(s n < t ). Así, {σ < t } = n {σ 6 s n } ∈ Ft .
Reciprocamente, para todo t , s ∈ J ∞ con t < s, consideramos una
sucesión de números reales estrictamente decreciente {s n }n∈N+ que
T
converge a t y tal que t < s n < s. Entonces,{σ 6 t } = n {σ < s n } ∈ Fs
y así {σ 6 t } ∈ Ft+ .
(d) mı́n {τ1 , τ2 }(= τ1 ∧τ2 ), máx {τ1 , τ2 } (= τ1 ∨τ2 ) y τ1 +τ2 son también tiem-
pos de Markov respecto a {Ft }t∈J T . En particular, τ1 ∧ t es tiempo de
Markov para todo t ∈ J T . (ParaÃel caso τ1 +τ2 , téngase en cuenta ! que:
S [
{τ1 +τ2 6 t } = {τ1 = t , τ2 = 0} {τ1 6 q} ∩ {τ2 6 t − q} , t ∈ J T )
q∈Q∩[0,t]
(k) Sean (Ω, F ) un espacio medible y ξ̃ = {ξn }n∈N una sucesión estocásti-
ca en (Ω, F ) adaptada a una filtración {Fn }n∈N de ese espacio. Sea
τ : Ω → R con i m(τ) ⊂ N ∪ {+∞} ⊂ [0, +∞] un tiempo de Markov res-
pecto a {Fn }n∈N . Entonces,
P
(k1) ξ̃∗τ (ω) = n∈N ξn (ω) · I {τ=n} (ω), ω ∈ Ω, (ξ̃∗τ (ω) = 0 si ω ∈ {τ = +∞},
y ξ̃∗τ (ω) = ξ̃τ (ω) si ω 6∈ {τ = +∞}), y es variable aleatoria en (Ω, F ).
En efecto, para todo B ∈ B(R),
X \
{ω : ξ̃∗τ (ω) ∈ B} = {ω : ξn (ω) ∈ B} {ω : τ(ω) = n} ∈ F
n∈N
si 0 6∈ B, y si 0 ∈ B, {ξ̃∗τ ∈ B} =
à !
X \ [
= {ω : ξn (ω) ∈ B} {ω : τ(ω) = n} {ω : τ(ω) = +∞} ∈ F .
n∈N
Entonces,
n
X n
X
ξn = υi ∆ςi = υi (ςi − ςi −1 )
i =1 i =1
(1) Si p = q = 21 , entonces E (η n ) = 0, y {ςn }n∈N ,(ς0 = 0), y {ξn }n∈N son mar-
tingalas respecto a {Fn }n∈N y a P .
Para demostrar (2) y (3) recordamos: Sea ζ una variable aleatoria tal que
existe E (ζ). Supongamos que ζ es independiente de G . Entonces, se verifi-
ca que E (ζ|G ) = E (ζ), (P .a.s.), (V. 2, (10) de la página 221).
En nuestro caso (2), por lo dicho y (11) de la página 221 de V. 2:
¡ ¢
E (ξn+1 − ξn |Fn ) = E υn+1 η n+1 |Fn =
¡ ¢ ¡ ¢
= υn+1 E η n+1 |Fn = υn+1 E η n+1 = υn+1 (p − q) > 0,
4.5. MARTINGALAS 71
n
X
ξn (ω) = −(2n − 1) = υi (ω)η i (ω), si η 1 (ω) = −1, ..., η n (ω) = −1, y
i =1
ξn+1 (ω) = ξn (ω) + υn+1 (ω)η n+1 (ω) = −(2n − 1) + 2n = 1, si
η 1 (ω) = −1, ..., η n (ω) = −1, η n+1 (ω) = 1.
© ª
Sea τ = ı́nf n ∈ N+ : ξn = 1 . Entonces, si p = q = 21 , P (τ = n) = (1/2)n , P (τ <
+∞) = 1, y por tanto, por el ejemplo anterior, τ es tiempo ¡ ¢ de parada res-
pecto a la filtración {Fn }n∈N . Además, P (ξ̃τ = 1) = 1, y E ξ̃τ = 1, (obsérvese
que E (ξ̃τ ) 6= E (ξ0 ) = 0).
© ª © ª
Interpretamos el suceso η n = 1 como éxito y η n = −1 como no éxito
de un jugador en la jugada n. Sea υn la apuesta del jugador en la jugada
n. Entonces la ganancia total en la jugada n (de 0 a n) del jugador es ξn .
La sucesión estocástica {υn }n∈N previsible respecto a {Fn }n∈N se interpre-
ta como la estrategia del jugador (la condición previsible significa que la
apuesta υn depende de υ1 ,...,υn−1 y de η 1 ,...,η n−1 ).
Desde el punto de vista del jugador el juego es justo (o favorable o desfa-
vorable) si en cada etapa E (ξn+1 − ξn |Fn ) = 0 (o, > 0, o, 6 0).
Entonces, si p = q = 1/2, el juego es justo, si p > q, el juego es favorable, y
si p < q, el juego es desfavorable.
Es interesante destacar que en un juego justo la elección de las apuestas
no permite incrementar o disminuir la ganancia esperada (si p = q = 21 ,
por (1) de la página 70 se tiene que ξ̃ es una martingala respecto a {Fn }n∈N
y a P , y por tanto, E (ξn ) = E (ξ0 ) = 0, para todo n ∈ N).
Con la estrategia (*), (que expresa formalmente la estrategia del comienzo
del ejemplo), y p = q = 1/2 un jugador puede en un tiempo finito (P (τ <
72 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
ξn∧τ (ω) = ξ0 I (τ=0) (ω) + ξ1 I (τ=1) (ω) + ... + ξn−1 I (τ=n−1) (ω) + ξn I (τ>n) (ω),
lo que implica que ξn∧τ es Fn -medible. Luego {ξn∧τ }n∈N es una sucesión
estocástica adaptada a {Fn }n∈N . Además, ξn∧τ , n ∈ N, son integrables, es
decir, E (|ξn∧τ¡ |) < +∞, n ∈ N, y cumplen
¢ que ξ(n+1)∧τ − ξn∧τ = (ξn+1 − ξn ) ·
I (τ>n) . Así, E ξ(n+1)∧τ − ξn∧τ |Fn = I (τ>n) E (ξn+1 − ξn |Fn ),(P -a.s.).
Por tanto, como
(c) Existe υ̃ = {υn }n∈N sucesión estocástica predecible respecto a {Fn }n∈N ,
(pág. 63), con υ0 = 0 y existe ς̃ = {ςn }n∈N martingala con respecto a
{Fn }n∈N y a P con ς0 = 0 tales que ξ̃ = υ̃.ς̃, es decir, ξ̃ es la martingala
transformada de ς̃ mediante υ̃ (Proposición 4.5.3., pág. 63).
Demostración.
£ Veamos ¤ sólo (a)=⇒ (b). Para todo m ∈ N, por la hipótesis
(a), E |ξm∧τk | · I {τk >0} < +∞ y por consiguiente,
£ ¤ £ ¤
E |ξ(n+1)∧τk | · I {τk >n} = E |ξn+1 | · I {τk >n} < +∞ (1)
Es claro que I {τk >n} → 1 (P -a.s.), k → +∞. Por tanto, E (|ξn+1 ||Fn ) < +∞ (P -
a.s.). Bajo esta condición, E (ξn+1 |Fn ) existe. Veamos que se cumple que
E (ξn+1 |Fn ) = ξn (P -a.s.), n ∈ N, lo que terminará la prueba de (a)=⇒(b).
De E (|ξn ||Fn ) < +∞ (P -a.s.). deducimos que la medida en (Ω, Fn )
Z
Q(A) = |ξn+1 |d P, A ∈ Fn ,
A
© ª
y a P , |ξn∧τk | · I {τk >0} n∈N es una submartingala respecto a {Fn }n∈N y a P .
Entonces, ya que {τk > n} ∈ Fn , para todo B ∈ Fn
Z Z
|ξn |d P = |ξn∧τk | · I {τk >0} d P 6
B∩{τk >n} B∩{τk >n}
Z Z
6 |ξ(n+1)∧τk | · I {τk >0} d P = |ξn+1 |d P.
B∩{τk >n} B∩{τk >n}
es también σ-finita.
R
Sea B ∈ Fn tal que B |ξn+1 |d P < +∞. Entonces tenemos la ecuación
de la martingala (operando como antes en la submartingala)
Z Z
ξn d P = ξn+1 d P.
B∩{τk >n} B∩{τk >n}
que E (ξn ) = E (ξ0 ) (pág. 60), n ∈ N+ . Sin embargo, en el Ejemplo 4., (pági-
nas 70, 71 y 72), se han construido una martingala {ξn }n∈N y un tiempo de
Markov τ tales que E (ξ̃τ ) 6= E (ξ0 ), (ξ̃ = {ξn }n∈N ).
Ejercicios y problemas
5.1. Probar las relaciones entre martingalas y martingalas-diferencia esta-
blecidas en las páginas 63 y 64.
5.2. Sea (Ω, F , P ) un espacio de probabilidad y ξ̃ = {ξn }n∈N una sucesión
de variables aleatorias independientes tal que E (ξn ) > 0 (respectivamente,
ξ̃
E (ξn ) 6 0), n© ∈ N.
ª Sean η n = ξ0 +...+ξn y Fn = σ (ξ0 , ..., ξn ), n ∈ N, (pág. 23).
Probar que η n n∈N es una submartingala (respectivamente, supermartin-
gala) respecto a {Fn }n∈N y a P .
5.3. Sea ξ̃ = {ξn }n∈N una sucesión estocástica en el espacio de probabilidad
(Ω, F , P ) adaptada a la filtración {Fn }n∈N (del espacio medible (Ω, F )) y tal
que E (|ξn |) < +∞ para todo n ∈ N. Probar que el proceso estocástico ξ̃ es
una martingala respecto a {Fn }n∈N y a P si y sólo si E (ξn+m |Fn ) = ξn para
todo n ∈ N y todo m ∈ N+ .
5.4. Sea {ξs }s∈S, una martingala en el espacio de probabilidad (Ω, F , P ) res-
pecto a la filtración {Fs }s∈S de (Ω, F ) y a P . Probar que E (ξs ) = E (ξ0 ), s ∈ S.
5.5. Probar (a), (b) y (c) de la página 61.
5.6. Sea ξ̃ = {ξt )t∈J T una martingala respecto a¡ {F¢t }t∈J T y a P en el espacio
2
de probabilidad (Ω, ¡ F , P )(pág. ¢58), tal
¡ 2que2 E ξt¢ < +∞ para todo t ∈ J T .
2
Demostrar que E (ξt − ξs ) | Fs = E ξt − ξs | Fs , s 6 t .
Indicación: (ξt − ξs )2 = ξ2t − ξ2s + 2ξ2s − 2ξt ξs .
78 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
h¡ ¢2 i
β̃
(9) E βt − βs | Fs = t − s, (P-a.s.), s < t , s, t ∈ J T , (véase 5.6, pág. 77).
© ª
(10) β̃ = βt t∈J T es un proceso de Markov, (pág. 37), y su probabilidad de
transición Markoviana, ((b) de la página 46), está dada explícitamen-
te por la fórmula:
Z µ ¶
1 (x − y)2
p(s, x; t , A) = P (ξt ∈ A|ξs = x) = p exp − d y,
2π(t − s) A 2(t − s)
donde x ∈ R, A ∈ B(R), s < t , s, t ∈ J T .
Si T = +∞, como p(s + u, x; t + u, A) = p(s, x; t , A), s, t , u ∈ J ∞ , s <
t , se tiene que ξ̃ es un proceso de Markov
³ homogéneo,
´ (pág. 50), y
R (x−y)2
p(r, x, A) = p(0, x; r, A) = p 1 exp − 2r d y, r ∈ J ∞ , r > 0, x ∈ R,
2πr A
A ∈ B(R).
n o
β̃
(11) Sea τ = τ(ω) un tiempo de Markov respecto a Ft , (Definición
t∈J T
4.5.7., pág. 65). Supongamos que P (τ(ω) 6 T ) = 1. Entonces,
³ ´ ¡ ¢
β̃
E f (βs+τ )|Fτ = E f (βs+τ )|βτ , (P − a.s.),
³¡ ¢i ´
³¡ ¢i ´
página 78), se deduce que E βs+△s − βs |βs = x = E βs+△s − βs , i =
¡¡ ¢ ¢
³¡ Entonces, ¢por (3) de
1, 2, 3. ´ la página 78, se tiene: E βs+△s − βs |βs = x =
2
0, E βs+△s − βs |βs = x = △s, y por la propiedad (5) de la página 280
³¡ ¢3 ´
de V. 2, E βs+△s − βs |βs = x = 0. Así, con notación de páginas 48 y 49,
m(x, s) = 0, σ2 (x, s) = 1 y lı́m△s→0 M3 (x, s, △s) = 0, y por tanto, las ecuacio-
nes de Kolmogorov buscadas son las siguientes:
de donde µ 2¶
∂P (τa 6 t ) a a
= p · exp − ,
∂t t 3/2 2π 2t
expresión que denotamos por p τa (t ). Si a > 0, entonces E (τa ) = +∞.
Ponemos, ahora, τ = ı́nf{t > 0 : βt = a −bt }, a > 0, 0 6 b < +∞. En este caso
se tiene µ ¶
∂P (τ 6 t ) a (bt − a)2
= p · exp − (= p τ (t )).
∂t t 3/2 2π 2t
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 83
Procesos de Wiener
© ª
Sean (Ω, F , P ) un espacio de probabilidad y β̃ = βt t∈J T un proceso es-
tocástico Brownianonestándar
o en este espacio, (pág. 78). Consideramos la
β̃
filtración en (Ω, F ), Ft , generada por β̃, (pág. 23).
t∈J T
n (8)
Entonces, por o de la página 80 y (9) de la página 81, β̃ hes una martingala
¡ 2¢ ¡ ¢2 β̃ i
β̃
respecto a Ft y a P , tal que E βt < +∞, t ∈ J T , E βt − βs |Fs =
t∈J T
t − s, (P -a.s.), s < t , s, t ∈ J T , β0 = 0, (P -a.s.), y (P -a.s.) sus trayectorias son
continuas (pág. 2). Veremos a continuación que se tiene un cierto recípro-
co.
Definición 4.6.3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una
filtración del espacio medible (Ω, F ), (véase la Advertencia de la página 25),
yWf = {Wt }t∈J un proceso estocástico real en (Ω, F , P ), medible y adaptado
T
f es un proceso estocástico de Wiener respecto a
a {Ft }t∈J T . Se dice que W
{Ft }t∈J T y a P si:
f
(a) Las trayectorias (J T ∋ t 7→ Wt (ω) ∈ R) son continuas (P -a.s.), es decir, W
es un proceso estocástico continuo, (pág. 3).
f es una martingala respecto a {Ft }t∈J y a P , (E (|Wt |) < +∞, t ∈ J T ,
(b) W T ¡ ¢
E (Wt |Fs ) = Ws (P -a.s.) t > s), tal que E Wt2 < +∞, t ∈ J T , W0 = 0
(P -a.s.) y £ ¤
E (Wt − Ws )2 |Fs = t − s, t > s, (P − a.s.).
Demostración.
© ª aplicar el Teorema 4.5.12. (pág. 73) a las martingalas
Basta
{Wt }t∈J ∞ y Wt2 − t t∈J ∞ , en (Ω, F , P ), respecto a la filtración {Ft }t∈J ∞ y a P
(Problema 6.2, pág. 96).
Sean (Ω, F , P ) un espacio de probabilidad y {Ft }t∈J T una filtración del es-
pacio medible (Ω, F ), (véase la Advertencia de la página 25). Sea W f=
{Wt }t∈J T un proceso de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P .
Lema 4.6.6. Con los datos anteriores, consideramos un intervalo [0, t ] con-
tenido en J T y una sucesión de subdivisiones
n o
σ(n) = 0 = t0(n) < t1(n) < ... < tk(n)
(n)
= t , n ∈ N+ ,
del intervalo [0, t ] tal que k(n) < k(n + 1), σ(n) ⊂ σ(n+1) , n ∈ N+ , y
½ h i¾
(n) (n) (n)
lı́m δ = máx ti − ti −1 = 0.
n→+∞ 16i 6k(n)
Entonces,
(1). (P -a.s.), ( )
X¯
k(n)
¯
¯
¯
lı́m W (n) = ¯Wt (n) − Wt (n) ¯ = +∞,
n→+∞ i i −1
i =1
4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 85
es decir, n o
P ω : lı́m W (n) (ω) = +∞ = 1.
n→+∞
(2). En media cuadrática
( )
n
X³
k(n) ´2
l .i .m.n Q = Wt (n) − Wt (n) = t, (∗)
i i −1
i =1
es decir, ( ï ¯2 !)
¯k(n) h i2 ¯
¯X ¯
lı́m E ¯ Wt (n) − Wt (n) − t ¯ = 0.
n→+∞ ¯ i =1 i i −1 ¯
(3). Si
X
+∞
δ(n) < +∞,
n=1
se tiene que ( )
Xh
k(n) i2
lı́m Wt (n) − Wt (n) = t , (P − a.s).
n→+∞ i i −1
i =1
En particular se tiene (1), (2) y (3) para k(n) = n.
Por otro lado,(pág. 83), existen η, variable aleatoria con distribución nor-
mal estándar, y a número real no nulo tal que
¯ ¯ q
¯ ¯
Wt (n) − Wt (n) = aη, a 2 = ti(n) − ti(n)
−1
, ¯W t (n) − W (n) ¯ = |η|
t
ti(n) − ti(n)
−1
,
i i −1 i i −1
y por consiguiente,
³¯ ¯´ q
¯ ¯
E ¯Wt (n) − Wt (n) ¯ = E (|η|) ti(n) − ti(n)
−1
,
i i −1
X ³¯¯
¡ (n) ¢ k(n) ¯´
¯ X q (n)
k(n) t E (|η|)
E W = E ¯Wt (n) − Wt (n) ¯ = E (|η|) ti − ti(n)
−1
> p .
i =1 i i −1
i =1 δ(n)
© (n)
ª
Por tanto,
¡ (n) ¢ lı́m n→+∞ E (W ) = +∞, y, así, para n suficientemente
¡ (n)grande,
¢
E W > M, es decir, existe n 0 tal que para todo n > n 0 , P W > M.
Ahora aplicando la desigualdad de Chébyshev (V. 2, pág. 179),
¡ ¢ ¡¯ ¡ ¢¯ ¡ ¢ ¢
P W (n) 6 M 6 P ¯W (n) − E W (n) ¯ > E W (n) − M 6
³¯ ¡ ¢¯2 ´ ¡ ¢
E ¯W (n) − E W (n) ¯ V W (n) t
6 ¡ ¡ ¢ ¢2 =¡ ¡ ¢ ¢2 6 ¡ ¡ ¢ ¢2 ,
E W (n) − M E W (n) − M E W (n) − M
³ ´
(n)
las cuales son independientes, y cumplen E η i = 0 y
¡ ¢ ¡ n ¢2 ³ (n) (n)
´2 ¡ ¢2
V ηni = E η i = ti − ti −1 E (ν)2 − 1 ,
1 ³ ´
ν= q Wt (n) − Wt (n) .
ti(n) − ti(n)
i i −1
−1
à !2 à !2
X³
k(n) ´2 k(n)
X k(n)
X ³ ´2
E Wt (n) − Wt (n) −t =E η(n)
i
= E η(n)
i
=
i i −1
i =1 i =1 i =1
X³
k(n) ´2 ¡ ¢2 ¡ ¢2
= ti(n) − ti(n)
−1
E (ν)2 − 1 6 t δ(n) E (ν)2 − 1 ,
i =1
R+∞
Por otro lado, se tiene que −∞ R(t )d t = 1, y por tanto, la función de Dirac
no es una función en el sentido usual, sino que corresponde al concepto
de función generalizada que pasamos a describir brevemente.
R+∞
(c). Φ̇ϕ = −Φϕ̇ = − −∞ ϕ̇(t )Wt d t ,
(2). Sea ξ̃ = {ξt }t∈R un proceso estocástico con trayectorias continuas. Sea
Z+∞
Φξ̃ (ϕ) = ϕ(t )ξt d t , ϕ ∈ K ,
−∞
que sabemos que es un proceso estocástico generalizado. Se dice que Φξ̃ (ϕ),
ϕ ∈ K , es un proceso Gaussiano ruido blanco ( White noise) si Φξ̃ (ϕ), ϕ ∈
K , es Gaussiano y
³ ´ ³ ´ Z+∞
E Φξ̃ (ϕ) ≡ 0, E Φξ̃ (ϕ)Φξ̃ (ψ) = C ξ̃(ϕ, ψ) = ϕ(t )ψ(t )d t .
0
La relación entre las descripciones (1) y (2) es consecuencia que al ser pro-
cesos Gaussianos, y vistas sus respectivas definiciones, tienen la misma fun-
ción característica y por tanto, por el teorema de unicidad, la misma fun-
ción de distribución.
De (2), de la definición anterior, se deduce que para funciones arbitra-
rias ϕ1,...,ϕn de K , la variable aleatoria vectorial (Φξ̃(ϕ1 (t +h)), ..., Φξ̃ (ϕn (t +
h))) tiene la misma distribución para todo h, y por tanto, Φξ̃ (ϕ), ϕ ∈ K , es
un proceso estocástico generalizado y estacionario.
Ejercicios y problemas
f = {Wt }t∈J un proceso estocástico de Wiener, en el espacio de
6.1. Sea W T
probabilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T (del espacio medi-
ble (Ω, F )) y a P . Demostrar que los siguientes procesos estocásticos tam-
bién son de Wiener, en (Ω, F , P ), respecto a {Ft }t∈J T y a P :
(1) (−W̃ =) {−Wt }t∈J T .
©p ª
(2) aWt/a t∈J aT , donde a > 0.
© ª
(3) Wt+t0 − Wt0 t∈[t0 ,t0 +T ] , donde t0 > 0.
96 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
(1) E (Wt | Fs ) = Ws . Por tanto, {Wt }t∈J T es una martingala respecto a {Ft }t∈J T
y a P.
¡ ¢ © ª
(2) E Wt2 − t | Fs = Ws2 − s, s 6 t , s, t ∈ J T . Por tanto, Wt2 − t t∈J T es una
martingala respecto a {Ft }t∈J T y a P .
{(t , ω) : f (t , ω) ∈ B} ∈ B(J T ) ⊗ F ).
Definición 4.7.2. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T , (0 < T <
+∞), filtración de (Ω, F ) y f : J T × Ω → R una función. Se dice que f es una
función de clase P T respecto a {Ft }t∈J T y a P si: f es no anticipativa respecto
a {Ft }t∈J T y
µ½ ZT ¾¶
2
P ω∈Ω: f (t , ω)d t < +∞ = 1.
0
Definición 4.7.3. Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T , (0 < T <
+∞), filtración de (Ω, F ) y f : J T × Ω → R una función. Se dice que f es una
función de clase E T respecto a {Ft }t∈J T y a P si: f es no anticipativa respecto
a {Ft }t∈J T y
µZT ¶
2
E f (t , ω)d t < +∞.
0
Observamos que por el Teorema 3.4.36.(Fubini), (V. 2, pág. 202)),
Z µZT ¶ ZT
2 2
¡ ¢
f (t , ω)d (λT × P ) = E f (t , ω)d t = E f 2 (t , ω) d t .
J T ×Ω 0 0
(a) P (W0 = 0) = 1.
(5) Se verifica:
µµZt ¶µZt ¶¶ µZ t ¶
E e 1 (u, ω)dWu e 2 (u, ω)dWu = E e 1 (u, ω)e 2 (u, ω)d u .
0 0 0
100 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Lema 4.7.6. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T <
+∞, una filtración de (Ω, F ) y f (t , ω), t ∈ J T , ω ∈ Ω, una función no an-
ticipativa respecto a la filtración dada {Ft }t∈J T . Supongamos que f es de
clase E T respecto {Ft }t∈J T y a P , (pág. 97). Entonces, existe una sucesión de
funciones simples respecto a {Ft }t∈J T y a P , { f n }n∈N+ , tal que
½ µZT ¶¾
£ ¤2
lı́m E f (t , ω) − f n (t , ω) d t = 0. (∗)
n→+∞ 0
Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T < +∞, una fil-
tración del espacio medible (Ω, F ) y f (t , ω), t ∈ J T , ω ∈ Ω, una función no
anticipativa respecto a la filtración {Ft }t∈J T .
4.7. INTEGRALES ESTOCÁSTICAS 101
Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T < +∞, una fil-
tración de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener, en el espacio de
T
probabilidad (Ω, F , P ) dado, respecto a {Ft }t∈J T y a P (pág. 83).
© ª
(3) I t ( f ) t∈J T es un proceso estocástico real medible, (pág. 21), adaptado
a la filtración {Ft }t∈J T , (pág. 25), y continuo, (pág. 3).
¡Rt ¢ Rs
(4) Para s 6 t , E 0 f (u, ω)dWu |Fs = 0 f (u, ω)dWu . I t ( f ) es cuadrado
integrable, t ∈ J T . Además, (ver (7)), {I t ( f )}t∈J T es martingala respec-
to a {Ft }t∈J T y a P .
(5) Se verifica:
µµZt ¶ µZ t ¶¶ µZ t ¶
E f 1 (u, ω)dWu f 2 (u, ω)dWu = E f 1 (u, ω) f 2 (u, ω)d u .
0 0 0
(11) Sea una sucesión { f n }n∈N+ de funciones de clase E T respecto a {Ft }t∈J T
y a P tal que
µZ T ¶
£ ¤2
lı́m E f (t , ω) − f n (t , ω) d t = 0.
n→+∞ 0
Entonces, Zt Zt
l .i .m.n f n (s, ω)dWs = f (s, ω)dWs ,
0 0
es decir,
ïZ Zt ¯2 !
¯ t ¯
lı́m E ¯¯ f n (s, ω)dWs − f (s, ω)dWs ¯¯ = 0.
t→+∞ 0 0
104 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
(12) Si 0 = t0 < t1 < ... < tn = T es una partición Π de [0, T ], se tiene que
n−1
X
eΠ
f = f (0, ω)I 0 (t ) + f (ti , ω)I (ti ,ti +1 ] (t )
i =0
Ejemplo 2. Sea Wf = {Wt }t∈J , (0 < T < +∞), un proceso de Wiener, en el es-
T
pacio de probabilidad (Ω, F , P ), respecto a la filtración {Ft }t∈J T (de (Ω, F ))
RT
y a P . Entonces, 0 Wt (ω)dWt = 12 WT2 − 12 T , (véase el Ejemplo 5 de la pá-
RT
gina 143), y 0 Wt (ω) ◦ dWt = 12 WT2 . Así, la integral estocástica de Itô y la
integral estocástica de Fisk-Stratonovich son distintas.
Lema 4.7.10. Sea f una función de clase P T respecto a {Ft }t∈J T y a P , 0 <
T < +∞. Entonces, existe una sucesión { f n } de funciones de clase E T respecto
a {Ft }t∈J T y a P tal que
½ZT ¾
£ ¤2
(∗) lı́m f (t , ω) − f n (t , ω) d t = 0, en probabilidad.
n→+∞ 0
Demostración. Ponemos
½ RT
T, si 0 f 2 (s, ω)d s < n
τn (ω) = © R t ª
ı́nf t 6 T : 0 f 2 (s, ω)d s > n , en caso contrario
es progresivamente medible respecto a {Ft }t∈J T , (pág. 26). Por tanto, las
variables aleatorias τn (ω) son tiempos de Markov respecto a {Ft }t∈J T (pág.
65). Así, { f n (s, ω)}n∈N+ es una
³R sucesión de
´ funciones de clase E T respec-
T 2
to a {Ft }t∈J T y a P pues E 0 f n (s, ω)d s 6 n < +∞, y se comprueba que
cumple las condiciones de la primera parte del lema.
Lema 4.7.11. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , 0 < T <
+∞, una filtración del espacio medible (Ω, F ) y W f = {Wt }t∈J un proceso
T
de Wiener, en el espacio de probabilidad (Ω, F , P ), respecto a {Ft }t∈J T y a P ,
(pág. 83). Sean f una función de clase E T respecto a {Ft }t∈J T y a P y A ∈ FT .
Entonces para cada n ∈ N+ , M > 0,
( à ¯Zt ¯ !) ½ µZ ¶¾
\ ¯ ¯ n \ T 2
P A sup ¯¯ ¯
f (s, ω)dWs ¯ > M 6 2 +P A f (s, ω)d s > n
t∈J T 0 M 0
y en particular
( ¯Z t ¯ ) ½ZT ¾
¯ ¯ n 2
P sup ¯ ¯ ¯
f (s, ω)dWs ¯ > M 6 2 + P f (s, ω)d s > n .
06 t 6T 0 M 0
de donde
½¯ZT ZT ¯ ¾
¯ ¯ ε
¯
lı́m P ¯ f n (s, ω)dWs − ¯
f m (s, ω)dWs ¯ > δ 6 2
n→+∞
m→+∞ 0 0 δ
y por consiguiente,
½¯ZT ZT ¯ ¾
¯ ¯
lı́m P ¯ ¯ f n (s, ω)dWs − ¯
f m (s, ω)dWs ¯ > δ = 0.
n→+∞
m→+∞ 0 0
RT
Luego 0 f n (s, ω)dWs , n ∈ N+ , es fundamental en probabilidad (V. 2, pág.
265) y por el Teorema 3.9.11, (V. 2, pág. 269) dicha sucesión converge en
probabilidad, es decir, la sucesión de variables aleatorias
ZT
f n (t , ω)dWt = I T ( f n )
0
Sean (Ω, F , P ) espacio de probabilidad, {Ft }t∈J T filtración del espacio me-
f = {Wt }t∈J proceso de Wiener, en el espacio de probabili-
dible (Ω, F ), W T
dad (Ω, F , P ), respecto a {Ft }t∈J T y a P , y sean f , f 1 , f 2 : J T × Ω → R funcio-
nes de clase P T respecto a {Ft }t∈J T y a P . Entonces,
I t (a f 1 + b f 2 ) = aI t ( f 1 ) + bI t ( f 2 ), t ∈ J T .
4.7. INTEGRALES ESTOCÁSTICAS 109
En particular,
½ZT ¾
©¯ ¯ ª n
P ¯I T ( f )¯ > M 6 P f 2 (t , ω)d t > n + 2 ,
0 M
© ª
(h) I t ( f ) t∈J T es una martingala local respecto a {Ft }t∈J T y a P , (Definición
4.5.14., pág. 73).
Teorema 4.7.12. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T , (0 <
T < +∞), una filtración del espacio medible (Ω, F ), W f = {Wt }t∈J un pro-
T
ceso de Wiener, en el espacio de probabilidad (Ω, F , P ), respecto a {Ft }t∈J T
y a P . Sea f : J T × Ω → R una función de clase P T respecto a {Ft }t∈J T y a P , y
supongamos que el proceso estocástico f es continuo (pág. 3). Entonces,
Xn Zt
¡ ¢
lı́m f (ti , ω) Wti +1 (ω) − Wti = f (s, ω)dWs en probabilidad,
δ(Π)→0 i =0 0
110 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
converge en el espacio
R∞ de Hilbert L 2 (Ω, F , P ) a un elemento que se designa
por I ∞ (e) o por 0 e(t , ω)dWt .
¡R∞ ¢
(2). E 0 f (s, ω)dWs = 0.
³£R ¤2 ´ R∞ ¡ ¢
∞ 2
(3). E 0 f (s, ω)dWs = 0 E f (t , ω) dt.
¡¡R∞ ¢ ¡R∞ ¢¢ R∞
(4). E 0 f 1 (s, ω)dWs 0 f 2 (s, ω)dWs = 0 E ( f 1 (t , ω) f 2 (t , ω))d t .
Ru Rt
(5). Para
Ru todo s, t , u ∈ J ∞ , con s 6 t 6 u, s f (s, ω)dWs = s f (s, ω)dWs +
t f (s, ω)dW s .
© ª
(5). El proceso estocástico real I t ( f ) t∈J ∞ es una martingala continua res-
pecto a {Ft }t∈J ∞ y a P .
(Obsérvese que las propiedades (1), (2), (3) y (4) son válidas sustituyendo
∞ por cualquier t de J ∞ ).
R∞
A continuación se construye la integral estocástica 0 f (s, ω)dWs para
funciones f de clase P ∞ .
R∞
una variable aleatoria en (Ω, F , P ) que se designa por 0 f (t , ω) (o I ∞ ( f )),
es decir, con notación de V. 2
Z τn Z∞
P
f (t , ω) → f (s, ω)dWs .
0 0
Para un tipo de funciones, f (t , ω) sobre J ∞ ×R, más general que las de clase
E ∞ y de clase P ∞ se pueden construir, a través de integrales estocásticas,
procesos
R∞ estocástico con dominio del parámetro J ∞ , sin que exista la inte-
gral 0 f (t , ω)dWt .
Definición 4.7.17. Sean (Ω, F , P ) un espacio de probabilidad y f : J ∞ ×Ω →
R una función no anticipativa respecto a una filtración {Ft }t∈J ∞ del espacio
medible (Ω, F ), (Definición 4.7.1., pág. 96).
(1) Se dice que f es de clase E J ∞ respecto a {Ft }t∈J ∞ y a P si para todo T ∈
(0, +∞) se verifica que
µZT ¶
2
E f (t , ω) d t < +∞,
0
Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración del es-
pacio medible (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P )
∞
respecto a {Ft }t∈J ∞ y a P .
Sean f , f 1 , f 2 : J ∞ × Ω → R funciones de clase E J ∞ respecto a {Ft }t∈J ∞ y a P .
Entonces,
(4) Si τ : Ω → [0, +∞] es un tiempo de Markov respecto a {Ft }t∈J ∞ tal que
f 1 (t , ω) = f 2 (t , ω) para todo (t , ω) ∈ J ∞ × Ω con t 6 τ(ω), se verifica
µ½ Zt Zt ¾¶
P ω∈Ω: f 1 (s, ω)dWs = f 2 (s, ω)dWs , t 6 τ(ω) = 1.
0 0
116 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Lema 4.7.20. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una fil-
tración del espacio medible (Ω, F ) y f : J ∞ × Ω → R una función no antici-
pativa respecto a {Ft }t∈J ∞ . Las siguientes afirmaciones son equivalentes:
(véase el Lema 4.7.10., (pág. 105), y téngase en cuenta que ı́nf(;) = +∞).
(La existencia de τ̃ sigue del Lema 4.7.20.). Por tanto, como τn ր +∞,
n → +∞, ((1) y (2) de la Definición 4.7.19.), existe un subconjunto Ωτ̃
de Ω tal que P (Ωτ̃ ) = 1, lı́mn→+∞ {τn (ω)} = +∞ y
µZ t ¶ µZ t ¶
f · I [0,τn ] (s, ω̄)dWs (ω) = f · I [0,τm ] (s, ω̄)dWs (ω),
0 0
Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J ∞ una filtración del es-
pacio medible (Ω, F ) y W f = {Wt }t∈J ∞ un proceso de Wiener en (Ω, F , P )
respecto a {Ft }t∈J ∞ y a P . Sean f , f 1 , f 2 : J ∞ × Ω → R funciones de clase P J ∞
respecto a {Ft }t∈J ∞ y a P . Entonces,
Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración del es-
pacio medible (Ω, F ) y W f = {Wt }t∈J T un proceso de Wiener en el espacio
(Ω, F , P ) respecto a {Ft }t∈J T y a P . Sean f : J ∞ × Ω → R una función de cla-
se P J ∞ respecto a {Ft }t∈J ∞ y a P y τ : Ω → R un tiempo de Markov respecto
a {Ft }t∈J T , (pág. 65), tal que P (τ < +∞) = 1, (τ es tiempo de parada).
Consideramos la integral estocástica {I t ( f )}t∈J ∞ de f respecto al proceso
de Wiener W f . Como {I t ( f )}t∈J ∞ es un proceso estocástico real progresiva-
mente medible respecto a {Ft }t∈J T , por (h) de la página 69, se tiene que
I τ ( f ) : Ω → R, definida por
½
I τ(ω) ( f )(ω), si τ(ω) < +∞
I τ ( f )(ω) =
0, si τ(ω) = +∞,
(3) E (I τ ( f )) = 0.
4.7. INTEGRALES ESTOCÁSTICAS 119
(5) Sea {σn }n∈N+ una sucesión no decreciente de tiempos de Markov res-
pecto a {Ft }t∈J ∞ tal que para cada n ∈ N+
µZσn ¶
2
P f (s, ω)d s < +∞ = 1.
0
Ejercicios y problemas
7.1. Sean (Ω, F , P ) un espacio de probabilidad y f (t , ω), t ∈ J T , 0 < T < +∞,
ω ∈ Ω, una función de clase P T respecto a {Ft }t∈J T y a P que es un proceso
estocástico continuo, (pág. 3). Probar que
ZT n−1
X £ ¤
f (s, ω)dWs = lı́m f (tk , ·) Wtk+1 − Wtk ,
0 máxh ∆tk →0 h=0
donde 0 = t0 < t1 < ... < tn = T , ∆tk = tk+1 − tk , (Teorema 4.7.12., pág. 109).
120 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
7.3. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración del
espacio medible (Ω, F ), W f = {Wt }t∈J un proceso de Wiener en (Ω, F , P )
T
respecto a {Ft }t∈J t y a P , (pág. 83) y f una función de clase E T respecto a
{Ft }t∈J ∞ y a P . Se consideran s, t ∈ J T con 0 6 s 6 t 6 T . Probar que:
·µZt ¶ ¸
E f (u, ω)dWu |Fs = 0, y
s
"µZ ¶2 # Z
t t ¡ ¢
E f (u, ω)dWu |Fs = E f u2 |Fs d u.
s s
(por tanto, b(t , ω) es de clase P T respecto a {Ft }t∈J TRy a P (Definición 4.7.2.,
t
pág. 97) y se tiene definida la integral estocástica 0 b(s, ω)dWs respecto al
proceso de Wiener W f (páginas 105, 106 y 107)),y con probabilidad 1, para
todo t ∈ J T ,
Zt µZt ¶
ξt (ω̄) = ξ0 (ω̄) + a(s, ω̄)d s + b(s, ω)dWs (ω̄), ω̄ ∈ Ω.
0 0
(a(s, ω) = a s (ω) y b(s, ω) = b s (ω)). La igualdad anterior la escribiremos tam-
bién: Z Z
t t
ξt = ξ0 + as d s + b s dWs (∗).
0 0
o de forma más abreviada,
d ξt = a t d t + b t dWt , con condición inicial ξ0 , (∗∗).
Podemos resumir la definición anterior diciendo que ξ̃ = {ξt }t∈J T tiene
diferencial estocástica d ξt = a t d t + b t dWt , con condición inicial ξ0 .
(a) Sea ξ̃ = {ξt }t∈J T una martingala continua, (páginas 58 y 3), en (Ω, F , P )
respecto a {Ft }t∈J T y a P tal que existe {a t }t∈J T , proceso estocástico
RT
adaptado a {Ft }t∈J T cumpliendo que 0 |a s |d s < +∞, (P -a.s.), y (P -
Rt
a.s.) para todo t ∈ J T , ξt = 0 a s d s. Entonces (P -a.s.), para todo t ∈ J T ,
ξt = 0.
Por el lema anterior, existen A(t , x), B(t , x) funciones de J T ×C T con valores
en R, (B J T ⊗ BT )|B(R)-medibles, tales que A(t , ·), B(t , ·), t ∈ J T , son Bt + -
medibles y
µZ t ¶ Zt Zt
¡ ¢ t2
E Ws2 d s = E Ws2 d s = sd s = < +∞),
0 0 0 2
y en particular
µZ T ¶
E Ws2 d s < +∞
0
y Wt es de clase
Rt E T respecto a {Ft }t∈J T y a P (pág. 97), y tenemos la integral
estocástica 0 Ws dWs , t ∈ J T , que es una martingala respecto a {Ft }t∈J T y a
P (propiedades (4), (7) y (8) de la página 103).
Nos preguntamos si es cierta la fórmula
Zt
Wt2 = 2 Ws dWs ,
0
Rt
(como en el cálculo diferencial ordinario: f (0) = 0, f (t )2 =R2 0 f (x) f ′ (x)d x).
t
Supongamos que fuera cierta.
¡Rt En este¢ caso la martingala 0 Ws dWs , t ∈ J T ,
es nula en 0 y positiva (E 0 Ws dWs = 0). Luego la martingala es nula y
elRproceso de Wiener es nulo, lo cual es absurdo. Luego la igualdad Wt2 =
t
Rt s no es cierta. En el Ejemplo 5. de la página 143, se ha estableci-
2 0 Ws dW
do que 0 Ws dWs = 1/2(Wt2 − t ).
donde
d ξ1t (a1 )t dWt1
.. ⋆ .. .
d ξ⋆ y dWt = .. .
⋆
t = . , at = .
d ξm
t (am )t dWtk
Si queremos
© ¡ 1 resumir ¢ª la definición anterior diremos que:
m
ξ̃ = ξt = ξt , ..., ξt t∈J T tiene diferencial estocástica (∗∗).
Fórmula de Itô
Teorema 4.8.5. Sean (Ω, F , P ) un espacio de probabilidad, T ∈ R con 0 <
f = {Wt }t∈J un proceso de Wiener
T , {Ft }t∈J T una filtración de (Ω, F ) y W T
respecto a {Ft {t∈J T y a P , (pág. 83). Sea ξ̃ = {ξt }t∈J T un proceso estocástico
real, adaptado a {Ft }t∈J T y continuo (por tanto, progresivamente medible
(pág. 120)), que tiene diferencial estocástica
gi = ©W i ª
a P , (pág. 124; por tanto, W t t∈J T , i = 1, 2, ..., k, es un proceso de Wie-
© ª © ª
ner respecto a {Ft }t∈J y a P ). Sea ξe = (ξ1 , ..., ξm )
T
, donde ξei = ξi
t t t∈J T t t∈J T
es un proceso estocástico real, adaptado a {Ft }t∈J T , y continuo, (por tanto,
progresivamente medible, (pág. 120)), i = 1, 2, ..., m. Supongamos que ξei tie-
ne diferencial estocástica
k
X j
d ξit = (ai )t d t + (b i j )t dWt , con condición inicial ξi0 , i = 1, ..., m.
j =1
k Zs
m X
X j
f x′i (t , ξ1t , ..., ξm
t )(b i j )t dW t =
i =1 j =1 0
à !
k Zs X
X m
j
= f x′i (t , ξ1t , ..., ξm
t )(b i j )t dW t ).
j =1 0 i =1
© ª
Por consiguiente, f (t , ξ1t , ..., ξm
t ) t∈J T es un proceso de Itô respecto al proceso
de Wiener k-dimensional W f.
La igualdad (*) establecida más arriba, conocida como fórmula de Itô mul-
130 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Nos situamos en las hipótesis del Teorema 4.8.5. (pág. 128). Sea τ un tiem-
po de Markov respecto a {Ft }t >0 (Definición 4.5.7., pág. 65) que es tiempo
de parada, es decir, tal que P (τ < +∞) = 1. Supongamos que
µZτ ¶ µZ τ ¶
2
P |a(s, ω)|d s < +∞ = 1, P b (s, ω)d s < +∞ = 1.
0 0
Lema 4.8.7. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-
ción de (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto
T
a {Ft }t∈J T y a P , (pág. 83). Sea f (t , ω) una función acotada (| f (t , ω)| 6 K ,
t ∈ J T , ω ∈ Ω) y no anticipativa respecto a {Ft }t∈J T , (pág. 96). Entonces,
µZt ¶2m
E f s dWs 6 K 2m t m (2m − 1)!!, m ∈ N.
0
Rt
Demostración. Ponemos ξt = 0 f s dWs y
½ © ¢
ı́nf t : sups 6 t |ξs | > n , si sups 6T |ξs | > n
τn =
T, si sups 6T |ξs | < n.
Lema 4.8.8. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-
ción de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto a
T
{Ft }t∈J T y a P (pág. 83). Sea f (t , ω) una función no anticipativa respecto a
{Ft }t∈J T (pág. 96) tal que
ZT
¡ ¢
E f 2m (t , ω) d t < +∞.
0
Entonces,
µZt ¶2m Zt
m m−1
¡ ¢
E f s dWs 6 [m(2m − 1)] t E f s2m d s, m ∈ N.
0 0
µZT ¶ µZ T ¶
¯ ¯ ¯ ¯
P ¯a1i ,t ¯ d t < +∞ = 1, i = 1, ..., n, P ¯a2i ,t ¯ d t < +∞ = 1,
0 0
µZT ³ ´2 ¶
i = 1, ..., m, P b i(1)
j ,t
d t < +∞ = 1, i = 1, ..., n, j = 1, ..., k,
0
µZT ³ ´2 ¶
(2)
P b i j ,t d t < +∞ = 1, i = 1, ..., m, j = 1, ..., k
0
Consideramos la matriz n × m
ξ11
t
. ¡ ¢
Y (t ) = .. ξ21 2m
t , ..., ξt .
1n
ξt
⋆
donde b 2,t es la matriz traspuesta de b 2,t , (cálculo formal).
En particular, para n = m = k = 1
Zs h i
(1) (2)
ξ11 21
s · ξs = ξ11 21
0 · ξ0 + ξ21
t · a 11,t + ξ11
t · a 21,t + b 11,t · b 11,t d t +
0
Zs ³ ´
(1) (2)
+ ξ21
t · b 11,t + ξ11
t · b 1
11,t dW t ,
0
¡ ¢ h 21 (1) (2)
i
d ξ11 21 11
s · ξs = ξs · a 11,s + ξs · a 21,s + b 11,s · b 11,s d s+
³ ´
(1) (2)
+ ξs · b 11,s + ξs · b 11,s dWs1 , con condición inicial ξ11
21 11 21
0 ξ0 .
(2)
d (ξ21 1
t ) = a 21,t d t + b 11,t dW t , y
¡ ¢ ¡ 21 ¢ 21 ¡ 11 ¢ (1) (2)
d ξ11 21
s · ξs = ξ11
s d ξs + ξs d ξs + b 11,s · b 11,s d s.
(B ′ (t ) matriz derivada).
¡ ¢
Observamos que y r s, ξ1s , ..., ξm s , s ∈ J T , r = 1, ..., m es un proceso esto-
cástico de Itô, m-dimensional, respecto al proceso estocástico de Wiener
m-dimensional W f, (Definición 4.8.4., pág. 126) y por consiguiente, pode-
mos aplicar el Ejemplo 1 precedente a
¡ 1 ¢ ¡ 1 ¢
ξ1t , ..., ξm m m
t , t ∈ J T , y 1 s, ξs , ..., ξs , ..., y m s, ξs , ..., ξs , s ∈ J T ,
138 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
¡ ¢ ¡ 1 ¢
ξis y j s, ξ1s , ..., ξm i
s = ξ0 y j 0, ξ0 , ..., ξ0 +
m
Zs h ³
¡ ¢
+ y j t , ξ1t , ..., ξm
t a i ,t + ξi ′ 1 ′ m
t α j 1 (t )ξt + ... + α j m (t )ξt + α j 1 (t )a 1,t + ...+
0
#
¢ X m ¡ ¢
α j m (t )am,t + b i l ,t α j 1 (t )b 1l ,t + ... + α j m (t )b ml ,t d t
l =1
m Zs h
X ¡ ¢ ¡ ¢i
+ y j t , ξ1t , ..., ξm
t · b i l ,t + ξi
t α j1 (t )b 1l ,t + ... + α jm (t )b l
ml ,t dW t .
l =1 0
© ¡ ¢ª
Por tanto, ξis y j s, ξ1s , ..., ξm
s s∈J T
, es un proceso de Itô respecto al proceso
f
de Wiener m-dimensional W = {Wt }t∈J , y la fórmula integral que repre-
T
senta dicho proceso estocástico se puede escribir:
³ ¡ ¢´
d ξis y j s, ξ1s , ..., ξms =
h ¡ ¢ ³
= y j s, ξ1s , .., ξm s a i ,s + ξi ′ 1 ′ m
s α j 1 (s)ξs + .. + α j m (s)ξs + α j 1 (s)a 1,s + ..+
#
¢ X m ¡ ¢
+α j m (s)am,s + b i l ,s α j 1 (s)b 1l ,s + ... + α j m (s)b ml ,s d s+
l =1
m h
X ¡ ¢ ¡ ¢i
+ y j s, ξ1s , ...ξm
s · b i l ,s + ξi
s α j1 (s)b 1l ,s + ... + α jm (s)b l
ml ,s dW s ,
l =1
¡ ¢
con condición inicial ξi0 y j 0, ξ10 , ..., ξm
0 .
¡ ¢ £ ¤
d ξ∗t ξt B(t )∗ = ξ∗t ξt B ′ (t )∗ + ξ∗t a t B(t )∗ + a t∗ ξt B(t )∗ + b t b t∗ B(t )∗ d t +
b t dWt∗ ξt B(t )∗ + ξ∗t dWt b t∗ B(t )∗ ,
donde
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢
ξt = ξ1t , ..., ξm 1
t , a t = a 1,t , ..., a m,t , b t = b i j ,t , dW t = dW t , ..., dW t
m
,
4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 139
i i
En particular, si ξt = Wt , es decir, ¡ ¢ξt = Wt , i = 1, ..., m, t ∈ J T , (en este
caso ai t = 0, i = 1, ..., m, t ∈ J T , y b i j ,t es la matriz unidad m ×m) y B(t ) es
simétrica, entonces
Zs
∗
£ ¤
Ws B(s)Ws = Wt B ′ (t )Wt∗ + Tr aza(B(t )) d t +
0
Zs Zs
+ Wt 2B(t )(1, 0, ..., 0)∗ dWt1 + ... + Wt 2B(t )(0, 0, ..., 0, 1)∗ dWtm ,
0 0
Rt
(Recordamos que 0 a s dWs , t ∈ J T , es un proceso estocástico medible, adap-
tado a {Ft }t∈J T y continuo, y
"µZ ¶2 # µZ ¶
T T
E a s dWs =E a s2 d s ).
0 0
o bien
d κs = κs a s dWs con condición inicial 1.
Sea g (t , x) = 1/ exp(x). Entonces,
© de nuevoªpor el Teorema 4.8.5. (pág.
128), el proceso estocástico 1/ exp(ξs ) = 1/κs s∈J T cumple que: con pro-
babilidad 1, para todo s ∈ J T
Zs · µ ¶ ¸
1 1 1 1 2 1 1 2
= + − − a + a dt+
κ s κ0 0 exp(ξt ) 2 t 2 exp(ξt ) t
Zs
1
+ a t dWt ,
0 exp(ξt )
o bien
µZ s ¶ Zs · µZ t ¶¸ Zs
exp a(u)d u · ξs = ξ + ξt a(t ) · exp a(u)d u d t + b(t )dWt ,
0 0 0 0
© ª
con probabilidad 1, para todo s ∈ J T . Por tanto, κs = f (s, ξs ) s∈J T , es un
f y la igualdad anterior la podemos escribir así:
proceso de Itô respecto a W
· µZ t ¶¸
d f (t , ξt ) = ξt a(t ) exp a(u)d u d t + b(t )dWt con condición inicial ξ,
0
o bien · µZ t ¶ ¸
d exp a(u)d u · ξt = d κt = a(t )κt d t + b(t )dWt ,
0
de donde Zs
Ws2 − s = 2 Wt dWt .
0
© ª
Por tanto, Wt2 t∈J T , es un proceso de Itô respecto a W f y (∗) se puede es-
cribir
¡ ¢
d Ws2 = d s + 2Ws dWs , con condición inicial 0.
¡Rt ¢ Rt
Por otra parte, como E 0 Ws2 d s < +∞, el proceso estocástico
© 2 ª 0 Ws dWs ,
s ∈ J T , es una martingala respecto a {Ft }t∈J T y a P y Wt − t t∈J T es una
martingala respecto a {Ft }t∈J T y a P .
144 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
¡Rt ¢
Observación. Para probar que E 0 Ws2 d s < +∞, se puede recurrir al teo-
rema de Fubini (pág. 22). Efectivamente, al aplicar este teorema a Ws2 ,
s ∈ J T , se tiene que
Zt µZt ¶
t2 2
= sd s = E Ws d s .
2 0 0
¡Rt ¢
Por consiguiente, E 0 Ws2 d s < +∞ R y Ws (ω) es una función de clase E T
t
respecto a {Ft }t∈J T y a P , (pág. 97), y 0 Ws dWs , s ∈ J T , es una martingala
respecto a {Ft }t∈J T y a P , ((4) de la página 103).
Ejemplo 6. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtra-
ción de (Ω, F ) y W f = (Wt )t∈J un proceso de Wiener, en (Ω, F , P ), respecto
T © ª
a {Ft }t∈J T y a P , (pág. 83). Sean ξ̃ = {ξt }t∈J T , η̃ = η t t∈J T procesos de Itô
respecto a W f: Con probabilidad 1
Zt Zt
ξt = ξ0 + as d s + b s dWs
0 0
Zt Zt
⋆
η t = η0 + as d s + b s⋆ dWs
0 0
Entonces, por el Teorema 4.8.5. (pág. 128),
Zs
£ ¤
ξs · η s = ξ0 · η 0 + ξt · a t⋆ + η t · a t + b t · b t⋆ d t +
0
Zs
¡ ¢
+ ξt · b t⋆ + η t · b t dWt ,
0
© ª
con probabilidad 1, t ∈ J T . Por consiguiente, ξt · η t t∈J T es un proceso de
Itô respecto a W f y la igualdad anterior se puede escribir
£ ¤ £ ¤
d (ξt · η t ) = ξt · a t⋆ + η t · a t + b t · b t⋆ d t + ξt · b t⋆ + η t · b t dWt ,
con condición inicial ξ0 ·η 0 . Este ejemplo es el caso particular del Ejemplo
1 (pág. 132). A esta fórmula, se la llama fórmula de integración por partes y
será ampliamente utilizada.
Ejercicios y problemas
8.1. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración de
f = {Wt }t∈J un proceso de Wiener en (Ω, F , P ) respecto a {Ft }t∈J
(Ω, F ) y W T T
y a P , (pág. 83).
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 145
© ª
Sean {ξt }t∈J T , η t t∈J T procesos de Itô respecto a W f y a, b números reales.
© ª
Probar que aξt + bη t t∈J T es un proceso de Itô respecto a W f y que, para
todo t ∈ J T ,
d (aξt + bη t ) = ad (ξt ) + bd (η t ).
8.3. En las hipótesis del Ejemplo 5, (pág. 143), probar que para todo s, t ∈
J T , con s 6 t , se verifica que
Zt
1 1 1
Wu dWu = Wt2 − Ws2 − (t − s).
s 2 2 2
(1) ξ0 = η.
³n R1 o´
(2) P ω ∈ Ω : 0 |a(t , X ξ̃ (ω))|d t < +∞ = 1.
³n R1 2 o´
(3) P ω ∈ Ω : 0 b (t , X ξ̃ (ω))d t < +∞ = 1.
f , y la ecua-
Por tanto, ξ̃ es un proceso estocástico de Itô respecto a W
ción de (4) se puede escribir de la forma (Definición 4.8.1. (pág.
120)):
n o
f f
Observamos que si Ft = FtW , W
t ∈ J 1 , donde Ft es la filtración en
t∈J 1
ξ̃
f , entonces F ⊂ F W , t ∈ J 1 . f
(Ω, F ) generada por W t t
Supongamos que
(1) ξ10 = η 1 ,...,ξn0 = η n .
³n R1 o´
(2) P ω ∈ Ω : 0 |ai (t , X ξ̃ (ω))|d t < +∞ = 1, i = 1, ..., n,
(ai (·, ξ̃)(s, ω) = ai (s, X ξ̃ (ω)), X ξ̃ (ω)(t ) = (ξ1t (ω), ..., ξnt (ω))).
³n R1 2 o´
(3) P ω ∈ Ω : 0 b i j (t , X ξ̃ (ω))d t < +∞ = 1, i , j = 1, ..., n,
(b i j (·, ξ̃)(s, ω) = b i j (s, X ξ̃ (ω)), X ξ̃ (ω)(t ) = (ξ1t (ω), ..., ξnt (ω))).
148 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Definición 4.9.3. Sean (Ω,©F , P ) ¡un espacio de¢ª probabilidad, {Ft }t∈J T , una
1
f = Wt = W , ...,W p
filtración de (Ω, F ) y W t t t∈J T un proceso de Wiener p-
dimensional, en (Ω, F , P ), respecto a {Ft }t∈J T y a P , (pág. 124).
¡ ¢ p
X ¡ ¢ j
d ξit = b i t , ξ1t , ..., ξnt d t + σi j t , ξ1t , ..., ξnt dWt
j =1
Caso unidimensional
Teorema 4.9.4. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 , (recor-
damos que según la notación fijada al principio del capítulo, J 1 = [0, 1]),
una filtración de (Ω, F ), W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ),
1
respecto a {Ft }t∈J 1 y a P , y
a, b : [0, 1] ×C → R
(1) Existe ξ̃ = {ξt }t∈J 1 proceso estocástico, en (Ω, F , P ), real, medible, adap-
tado a {Ft }t∈J 1 y continuo, solución de
¡ ¢
(2) Si E η2m < +∞, m > 1, entonces existe una constante Mm tal que
¡ ¢ ¡ ¡ ¢¢
E ξ2m
t 6 1 + E η2m · exp (Mm t ) − 1.
(1) ξ0 = η.
³R ´
1
(2) P 0 |a(t , ξt )|d t < +∞ = 1.
³R ´
1 2
(3) P 0 b (t , ξt )d t < +∞ = 1.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 151
(1) Existe n o
© 1 ª e
ξ̃ = ξt , ..., ξt t∈J 1 tal que ξ = ξit
n i
t∈J 1
¡Pn 2m
¢
(2) Si E i =1 η i < +∞, m > 1, entonces existe una constante Mm tal que
à ! à à !!
n
X n
X
E (ξit )2m 6 1+E η2m
i · exp(Mm t ) − 1.
i =1 i =1
Caso vectorial
Sean
¡ ¢
σ(s, x) = σi j (s, x) , matriz n × p, σi j : J T × Rn → R, s ∈ J T , x ∈ Rn , tales que
b i , σi j son medibles.
¡ ¢
Sea η = η 1 , ..., η n variable aleatoria n-dimensional (con valores en Rn),
en (Ω, F , P ), F0 -medible. Supongamos que se cumple lo siguiente:
¡ ¢ p
X ¡ ¢ j
d ξit = b i t , ξ1t , ..., ξnt d t + σi j t , ξ1t , ..., ξnt dWt
j =1
a, b : J T × R → R
154 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Por tanto, ξ̃ es solución de (1). Supongamos que existe ε > 0 tal que
¡ ¡ ¢¢
E exp εη2 < +∞
(1) ξ0 = ϕ0 .
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 155
³n R1 ¯¯ 1 ¯
¯
o´
(2) P ω ∈ Ω : 0 ¯λs (ω)a(s, X ξ̃ (ω))¯ d s < +∞ = 1.
(o bien
Zt Zt
η t = ϕt + λ1s a(·, η̃)s d s + λ2s b(·, η̃)s dWs , t ∈ J 1 ),
0 0
(1) ξ0 = η.
³n R1 ¯¯ ¯
¯
o´
(2) P ω ∈ Ω : 0 ¯a0 (t , X ξ̃ (ω)) + a1 (t , X ξ̃ (ω))ξt (ω)¯ d t < +∞ = 1.
³n R1 o´
(3) P ω ∈ Ω : 0 b 2 (t , X ξ̃ (ω))d t < +∞ = 1.
(4) Con probabilidad 1, para todo t ∈ J 1 ,
Zt Zt
£ ¤
ξt = η + a0 (·, ξ̃)s + a1 (·, ξ̃)s ξs d s + b(·, ξ̃)s dWs .
0 0
f y la igualdad de
Por consiguiente, ξ̃ es un proceso de Itô respecto a W
(4) la podemos escribir
£ ¤
d ξt = a0 (·, ξ̃)t + a1 (·, ξ̃)t ξt d t + b(·, ξ̃)t dWt
con condición inicial η, t ∈ J 1 , (∗).
(1) ξ0 = η = 1.
³R ´
1
(2) P 0 |a(t , ξt )|d t < +∞ = 1, ya que a = 0.
³R ´
1 2
(3) P 0 ξt d t < +∞ = 1.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 157
(o bien de
d η t = η t dWt , η 0 = 1).
Además la solución ξ̃ es única, en el sentido mencionado en el Teorema
4.9.4., (pág. 149).
Entonces:
(1). La ecuación Zt
Φ(t ) = I + a1 (s)Φ(s)d s,
0
d |Φ(t )|
= Tr aza(a1 (t )) · |Φ(t )|, |Φ(0)| = 1, (P − a.s.), t ∈ J 1 ,
dt
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 159
d Φ(t )−1
= −Φ(t )−1 a1 (t ).
dt
entonces, (P -a.s.), t ∈ J 1 ,
dWsn
Zt Zt X
n
¡ ¢ j
h i 1 (s)dWs1 + ... + h i n (s)dWsn = h i j (s)dWs , i = 1, ..., n.
0 0 j =1
© ª
Entonces, el proceso estocástico ξ∗t t∈J 1 , es solución fuerte, (única), de
y 1,t Zt Zt
∗ .. ∗
£ ∗ ∗
¤
yt = . = η + a0 (s) + a1 (s)y s d s + b(s)dWs∗ , t ∈ J 1 ,
0 0
y n,t
160 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Rt Rt
1 n
Zt b
0 1,1 dW s + ... + b
0 1,n dW s
∗
b(s)dWs = ......................................................
R R =
0 t 1 t n
0 b n,1 dW s + ... + 0 b n,n dW s
Pn Rt j
j =1 0 b 1,j dWs
................................ .
Pn Rt j
j =1 0 b n,j dW s
Ejemplo 2. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J 1 una filtra-
ción de (Ω, F ) y Wf = {Wt }t∈J un proceso de Wiener respecto a {Ft }t∈J y a
1 1
P , y sean a > 0, b > 0 constantes.
Entonces por el Teorema 4.9.9. (pág. 158), Φ(t ) = exp(at ) y
· Zt ¸
ξt = exp(at ) η + exp(−as)bWs , t ∈ J 1 ,
0
donde η es una variable aleatoria, en (Ω, F , P ), F0 -medible con P (|η| <
+∞) = 1, es la única solución de
Zt Zt
ξt = η + aξs d s + bdWs , t ∈ J 1 .
0 0
(1) ξ0 = x0 .
³R ´
T
(2) P 0 |µξt |d t < +∞ = 1, ((t , x) 7→ µx, t ∈ J T , x ∈ R).
³R ´
T
(3) P 0 σ2 ξ2t d t < +∞ = 1, ((t , x) 7→ σ(x), t ∈ J T , x ∈ R.
Zt Zt
ξt = x 0 + µξs d s + σξs dWs .
0 0
µµ ¶ ¶
σ2
f (t , x) = x0 exp µ − · t + σx .
2
Entonces, por el Teorema 4.8.5. (pág. 128), con probabilidad 1, para todo
162 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
s ∈ JT ,
·µ ¶ ¸
σ2
f (s,Ws ) = x0 exp µ − s + σWs =
2
Zs ·µ ¶ µµ ¶ ¶
σ2 σ2
= x0 + µ− x0 exp µ − t + σWt +
0 2 2
µµ ¶ ¶¸ Zs µµ ¶ ¶
1 2 σ2 σ2
σ x0 exp µ − t + σWt d t + σx0 exp µ − t + σWt dWt =
2 2 0 2
Zs ·µ ¶ ¸
σ2
= x0 + µx0 exp µ − t + σWt d t +
0 2
Zs ·µ ¶ ¸ Zs
σ2
+ σx0 exp µ − t + σWt dWt = x0 + µ f (t ,Wt )d t +
0 2 0
Zs
+ σ f (t ,Wt )dWt .
0
© ª
Por consiguiente, f (t ,Wt ) t∈J T es un proceso estocástico de Itô respecto
f y la igualdad anterior la podemos escribir, t ∈ J T
aW
d f (t ,Wt ) = µ f (t ,Wt )d t + σ f (t ,Wt )dWt , con condición inicial x0 (∗).
© ª
De esta forma f (t ,Wt ) t∈J T , es solución de (∗) anterior (Definición 4.9.1.
© ª
(pág. 146)), o bien, f (t ,Wt ) t∈J T , es solución de
d ξt = µξt d t + σξt dWt , ξ0 = x0 , t ∈ J T .
Luego hemos calculado una solución fuerte (solución) de
d ξt = µξt d t + σξt dWt , ξ0 = x0 ,
que sabemos que es única.
es solución (única) de
© ª © ª
(La unicidad significa: si ξ̃′ = ξ′t t∈J T , ξ̃′′ = ξ′′t t∈J T son soluciones de
y ξ̄t , t ∈ J T , es solución de
ya que µZt ¶
E exp(2cs)d s < +∞,
0
(por tanto, exp(ct ), t ∈ J T , es de clase E T respecto a {Ft }t∈J T y a P , (pág. 97)),
Rt
y así 0 exp(cs)dWs , t ∈ J T , es una martingala respecto a {Ft }t∈J T y a P que
¡Rt ¢
es nula en t = 0, de donde se deduce que E 0 exp(cs)dWs = 0.
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 167
Análogamente:
"µZ ¶2 #
t
E (ξt − E (ξt ))2 = σ2 exp(−2ct )E exp(cs)dWs =
0
µ Zt ¶
2 σ2
σ exp(−2ct )E exp(2cs)d s = · (1 − exp(−2ct )),
0 2c
n
X ZT Ã X
n
! ZT
λ1 ξt1 + ... + λn ξtn = λi m i + λi f i (s) dWs = m + f (s)dWs .
i =1 0 i =1 0
168 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
R+∞
Observamos que la función f (s) es determinista y 0 f 2 (s)d s < +∞. Por
tanto, ZT
f (s)dWs
0
R+∞
es Gaussiana de media 0 y varianza 0 f 2 (s)dRs. Así, λ1 ξt1 + ... + λn ξtn es
P
Gaussiana de media m = ni=1 λi m i y varianza 0 f 2 (s)d s.
+∞
(o de
d ξt = b(t , ξt )d t + σ(t , ξt )dWt , ξ0 = ζ, t ∈ J ∞ ),
Además,
s,ξ0,x
ξ0,x
t = ξt
s
, (P − a.s.), s 6 t .
Supongamos© s,xque
ª se cumplen las hipótesis de la Proposición 4.9.11. (pág.
163) y sea ξt t > s , la solución de
Zt Zt
ξs,x
t =x+ b(u, ξus,x )d u + σ(u, ξus,x )dWu , t > s, x ∈ R.
s s
Teorema 4.9.14. Tomamos las mismas hipótesis del teorema anterior. Sea,
además, r (s, x) una función medible y positiva de R2 en R. Entonces se tiene:
Si t > s, (P -a.s.),
µ µ Zt ¶ ¶
E exp − r (u, ξu ) d u · f (ξt ) | Fs =
s
µ µ Zt ¶ ¶
¡ s,x
¢ ¡ s,x ¢
= E exp − r u, ξu d u · f ξt | x=ξs ,
s
donde Zt Zt
Φt = 1 + AΦs d s + BΦs dWs ,
0 0
es decir, (Problema 9.4),
µµ ¶ ¶
B2
Φt = exp A− · t + BWt .
2
172 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
Rt
(4) Wt2 = t + 2 0 Ws dWs , (por tanto, Wt2 − t es una martingala) (véase el
Problema 6.2. (pág. 96)).
Ejercicios y problemas
9.1. Estudiar la equivalencia entre
à ! à !
P sup | ξi ,t − ξ′i ,t | > 0 = 0 y P sup | ξt − ξ′t | > 0 = 0,
t∈J 1 t∈J 1
donde s
n
X
| ξt − ξ′t |= | ξi ,t − ξ′i ,t | 2 .
i =1
Se pone
η0
ζt = , µ′ = −µ + σ2 y σ′ = −σ.
f (t ,Wt )
Entonces, ·µ ¶ ¸
′σ′2 ′
ζt = exp µ − · t + σ Wt , t ∈ J T .
2
Finalmente,
© ª se aplica el resultado del Ejemplo 6 (pág. 144) para calcular
η t · ζt t∈J T .
9.4. Probar que ξt , del Teorema 4.9.12. (pág. 165), es efectivamente Gaus-
siana de media η exp(−ct ) y varianza (σ2 /2c)(1 − exp(−2ct )).
4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 173
Rt̄
Indicación: Se pone γt̄ = 0 σ exp(−c t̄ ) exp(cs)dWs que sabemos que es
Gaussiana de media 0 y varianza (σ2 /2c) · (1 − exp(−2c t̄ ). A continuación
se calcula la característica de γt̄ y la característica de η exp(−c t̄ ) + γt̄ .
9.7. (En relación con los dos problemas anteriores). Rt Hallar una expresión
de η t en la que no figuren integrales estocásticas ( 0 ·dWs ).
Indicación: Sabemos que
Zt Zt
−1 2 −1
ξt = 1 + (−µ + σ )ξs d s − σξ−1
s dW s .
0 0
Rt
9.8. Calcular 0 exp(cs)dWs . Rt Rt
Indicación: Se tiene que exp(ct ) = 1 + 0 c exp(cs)d s y Wt = 0 dWs , y por
tanto, Z Z
t t
exp(ct ) · Wt = c exp(cs) · Ws d s + exp(cs)dWs ,
0 0
por el Ejemplo 6 (pág. 144).
174 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
(1) ξ0 = η.
³n R1 o´
(2) P ω ∈ Ω : 0 |a(t , X ξ̃ (ω))|d t < +∞ = 1, (pág. 4).
³n R1 o´
(3) P ω ∈ Ω : 0 b 2 (t , X ξ̃ (ω))d t < +∞ = 1, (pág. 4).
d ξt = a(·, ξ̃)t d t + b(·, ξ̃)t dWt con condición inicial η y distribución F (x).
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 175
Ejercicios y problemas
10.1. Probar que toda solución fuerte de la ecuación diferencial estocástica
d ξt = a(·, ξ̃)t d t +b(·, ξ̃)t dWt con condición inicial η, (pág. 146), es solución
débil, y poner un ejemplo de una ecuación diferencial estocástica que ten-
ga solución débil y no tenga solución fuerte.
Además,
χt = µt − αt , (P − a.s.), t ∈ J ∞ .
© ª
83). Entonces, se tiene que Wf es un elemento de MT y W 2 − t
t t∈J T , es una
f >t = t , (P -
martingala respecto a la filtración {Ft }t∈J y a P , (pág. 96), y < W
T
a.s.), t ∈ J T .
Por último
Zt Zt
ςt = 2 υs a(s, ω)dWs = υ2t − a 2 (s, ω)d s, t ∈ J T
0 0
es una martingala
³R respecto a´la filtración {Ft }t∈J T y a P , (ya que se tiene la
T 2 2
condición E 0 υs a (s, ω)d s < +∞), y
Zt
a 2 (s, ω)d s, t ∈ J T ,
0
1
< υ̃, ς̃ >t = · [< υ̃ + ς̃ >t − < υ̃ − ς̃ >t ] , µt = υt ςt − < υ̃, ς̃ >t .
4
Entonces, < υ̃, ς̃ >t es la diferencia entre dos procesos estocásticos crecien-
tes y predecibles, y
Observación. En general < υ̃ + ς̃ >t 6=< υ̃ >t + < ς̃ >t . Cuando < υ̃, ς̃ >t = 0,
t ∈ J T , entonces < υ̃ + ς̃ >t =< υ̃ >t + < ς̃ >t , (P -a.s.), t ∈ J T . Además, se
tiene que: < υ̃, ς̃ >t = 0, t ∈ J T , equivale a que {υt ςt }t∈J T es una martingala
respecto a {Ft }t∈J T y a P .
Entonces,
{υt }t∈J T , {ςt }t∈J T
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 181
< ς̃, χ̃ >t =< υ̃ − χ̃, χ̃ >t =< υ̃, χ̃ >t − < χ̃ >t = 0.
Observación. Se toman las hipótesis como en el Teoerema 4.11.10. Sea
a(t , ω) una función de clase E T respecto a {Ft }t∈J T y a P , (pág. 97), tal que
Zt
f >t =
< υ̃, W a s d s.
0
Rt
Entonces χt = 0 a s dWs es un elemento de MT y υt −χt (= ςt ), t ∈ J T , es un
elemento de MT . Además, < ς̃, χ̃ >t = 0, para todo t ∈ J T .
4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 183
donde
Rt a(s, ω) viene dada por el teorema anterior, (por tanto, se tiene que
υt = 0 a(s, ω)dWs + ςt , (P -a.s.)). Entonces ςt = 0, (P -a.s.), t ∈ J T , y por tan-
to, Z t
υt = a(s, ω)dWs .
0
En efecto:
¡ ¢ ¡ ¢2 ¡ ¢ ¡ ¢ ¡ ¢
E υ2t = E χt + ςt = E χ2t + E ς2t + E 2χt ςt ,
Rt
donde
© ª χt = 0 a(s, ω)dWs . Pero < ς̃, χ̃ >t = 0, t ∈ J T , lo que equivale
¡ a que¢
χt ςt t∈J T es martingala respecto a {Ft }t∈J T y a P , (pág. 58). Así, E 2χt ςt =
0y ¡ ¢ ¡ ¢ ¡ ¢
E υ2t = E χ2t + E ς2t ,
¡ ¢
de donde E ς2t = 0 y ςt = 0, (P -a.s.), t ∈ J T , ya que por las propiedades de
las integrales estocásticas
µZ t ¶
¡ 2¢ ¡ ¢
E χt = E a (s, ω)d s = E υ2t .
2
0
El teorema que sigue, que es una suerte de recíproco del ejemplo ante-
rior, se aplicará más adelante en los precios de los activos financieros.
f = {Wt }t∈J un proceso de Wiener en un espacio
Teorema 4.11.11. Sean W T n o
f
de probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), ge-
t∈J T
f (pág. 23), y a P , y sea υ̃ = {υt }t∈J una martingala cuadrado
nerada por W T
184 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
n o
f
W
integrable (es decir, υ̃ es una martingala respecto a Ft y a P , que es
¡ 2¢ t∈J T
continua por la derecha y supt∈J T E υt < +∞). Entonces existe un proceso
n o
f
estocástico {a(s, ω)}s∈J T medible y adaptado a FtW , con
t∈J T
µZT ¶
E a 2 (s, ω)d s < +∞,
0
n o
f
(a es una función de clase E T respecto a FtW y a P ), y tal que para
t∈J T
todo t ∈ J T , Zt
υ t = υ0 + a(s, ω)dWs , (P − a.s.).
0
Indicación de la demostración: Por el Teorema
³R 4.11.9,´(pág. 181), existe un
T 2
proceso estocástico {a(t , ω)}t∈J T con E 0 a (s, ω)d s < +∞ (es decir, es
n o
f
de clase E T respecto a FtW y a P ) tal que para todo t ∈ J T ,
t∈J T
Zt
f >t =
< υ̃, W a(s, ω)d s, (P − a.s.).
0
© ª
Ponemos υ∗t = υt − υ0 . Entonces υ∗t t∈J T es de nuevo una martingala cua-
drado integrable y
Zt
<υ f >t =
f∗ , W a(s, ω)d s, (P − a.s.),
0
n o
f
f >t = 0, por ser υ0Wt , t ∈ J T , martingala respecto a F W
(ya que < υ0 , W t t∈J T
y a P , (pág. 58)). Así, por el Teorema 4.11.10., (Observación),
Zt
∗
υt = a(s, ω)dWs + ςt , (P − a.s.), t ∈ J T ,
0
tal que
ZT
ξ = E (ξ) + a(t , ω)dWt , (P − a.s.).
0
f constituyen un sistema Gaussiano, (pág. 35), entonces
Si, además, ξ y W
existe una función medible y determinística f (t ), t ∈ J T , verificando
ZT ZT
2
f (t )d t < +∞, tal que ξ = E (ξ) + f (t )dWt .
0 0
Indicación de la demostración: Se toma
n oυt = E (ξ | Ft ), t ∈ J T , que sabemos
f
W
que es una martingala respecto a Ft y a P . De hecho se toma una
t∈J T
variante de esta martingala que sea continua por la derecha. Entonces, la
martingala {υt }t∈J T es una martingala cuadrado integrable. Así, por el Teo-
rema
³R 4.11.11. (pág.
´ 183), existe un proceso estocástico {a(t , ω)}t∈J T , con
T 2
E 0 a (t , ω)d t < +∞, y tal que para todo t , t ∈ J T ,
Zt
υ t = υ0 + a(s, ω)dWs , (P − a.s.).
0
En particular,
ZT
ξ = E (ξ) + a(s, ω)dWs , (P − a.s.),
0
(F0 = {;, Ω}), lo que prueba la primera parte del teorema.
Teorema 4.11.13. Sea W f = {Wt }t∈J un proceso de Wiener en un espacio
T n o
f
de probabilidad (Ω, F , P ) respecto a la filtración FtW de (Ω, F ), ge-
t∈J T
nerada f
n poro W (pág. 23), y a P , y sea υ̃ = {υt }t∈J T una martingala respec-
f
to a FtW y a P con trayectorias continuas por la derecha y tal que
t∈J T
186 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS
supt∈J T E (|υt |) < +∞. Entonces, existe un proceso estocástico {a(t , ω)} t∈J T
n o ³R ´
f T
medible y adaptado a FtW tal que P 0 a 2 (t , ω)d t < +∞ = 1, y para
t∈J T
todo t ∈ J T , Zt
υ t = υ0 + a(s, ω)dWs , (P − a.s.),
0
y esta representación
n o es única, (en este caso a(t , ω) es una función de clase
f
P T respecto a FtW y a P , (pág. 97)).
t∈J T
En particular,
ZT
ξ = E (ξ) + a(s, ω)dWs , (P − a.s.).
0
³ ´
f
Indicación de la demostración: Se toma υt = E ξ|FtW , t ∈ J T , y se aplica el
teorema anterior.
n o
Wf
1, (a es una función de clase P T respecto a Ft y a P ), tal que para
t∈J T
todo t ∈ J T , P -a.s.,
³ ´ ·Zt Zt ¸
f 1
E ξ | FtW = exp a s dWs − a s2 d s · E (ξ).
0 2 0
En particular,
·ZT ZT ¸
1
ξ = exp a s dWs − a s2 d s · E (ξ), (P − a.s.).
0 2 0
³ ´
f
Indicación de la demostración: Se toma υt = E ξ|FtW , t ∈ J T , una modi-
ficación continua por la derecha de la esperanza condicionada. Entonces,
por el Teorema 4.11.14.,
n o existe un proceso
³R estocástico { f ´(t , ω)}t∈J T medi-
f
W T 2
ble y adaptado a Ft tal que P 0 f (t , ω)d t < +∞ = 1 y
t∈J T
³ ´ Zt
Wf
υt = E ξ | Ft = E (ξ) + f s dWs , (P − a.s.), t ∈ J T .
0
¡ ¢
Se prueba que P ı́nft∈J T υt > 0 = 1 y se tiene la función a(t , ω) = f (t , ω)/υt .
Entonces,
µZ T ¶ Zt
2
P a (t , ω)d t < +∞ = 1 y υt = E (ξ) + a s x s dWs , (P − a.s.).
0 0
cumple que
Zs
κs = E (ξ) + k t · a t dWt , P − a.s. s ∈ J T (∗).
0
Ejercicios y problemas
11.1. Sean (Ω, F , P ) un espacio de probabilidad, {Ft }t∈J T una filtración
de (Ω, F ) y W f = {Wt }t∈J un proceso de Wiener, en (Ω, F , P ), respecto
T
a {Ft }t∈J T y a P . Sea a : J T × Ω → R una función de clase P T respecto a
{Ft }t∈J T y a P . Probar que
µ µ Zt ¶¶ s µ µ Zt ¶¶
1 1 2
E exp a s dWs 6 E exp as d s .
2 0 2 0
11.2. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una fil-
tración en (Ω, F ) completa respecto a P , (pág. 24), W f = {Wt }t∈J un pro-
T
ceso de Wiener respecto a {Ft }t∈J T y a P , y a : J T × Ω → R una función de
clase P T respecto a {Ft }t∈J T y a P . Se define
µZ t Z ¶
1 t 2
ξt = exp a s dWs − a d s , t ∈ JT .
0 2 0 s
4.12. TEOREMA DE GIRSANOV 189
(1). Utilizar la fórmula de Itô para demostrar que ξ̃ = {ξt }t∈J T es un proceso
de Itô con diferencial d ξt = ξt a t dWt y condición inicial ξ0 = 0, (véase el
Ejemplo 3 de la página 140).
(2). Probar que si ξt a t es una función de clase E T respecto a {Ft }t∈J T y a P ,
entonces ξ̃ es una martingala respecto a {Ft }t∈J T y³ a P ³. ´´
RT
(3). Utilizar el Problema 11.1 para probar que E exp 12 0 a s2 d s < +∞,
¡ ¡ Rt ¢¢
(condición de Novikov), implica que E exp 12 0 a s dWs < +∞ para todo
t ∈ J T , (condición de Kazamaki), y que esta última condición implica que
ξ̃ es martingala respecto a {Ft }t∈J T y a P .
Lema 4.12.1. Con las notaciones que se han introducido, el proceso esto-
cástico κ̃ es supermartingala respecto a {Ft }t∈J T y a P , es decir, E (|κt |) < +∞
y para s < t se tiene que E (κt | Fs ) 6 κs , (P -a.s.). En particular E (κt ) 6 1,
t ∈ JT .
³R ´
T 2
medible y adaptado a {Ft }t∈J T con P 0 ξs d s < +∞ = 1. Tomamos
µZ t Z ¶
1 t 2
ϕt = exp ξs dWs − ξ d s , t ∈ JT .
0 2 0 s
© ª
Entonces, el proceso estocástico ϕ̃ = ϕt t∈J T es medible y adaptado a
{Ft }t∈J T y por la fórmula de Itô, (pág. 128),
Zt
ϕt = 1 + ϕs ξs dWs , (P − a.s.), t ∈ J T
0
³R ´
T
y además P 0 γ2s d s < +∞ = 1, donde γs = ϕs ξs . Luego, por el lema ante-
rior, ϕ̃ es supermartingala respecto a {Ft }t∈J T y a P no negativa y continua.
En efecto, el proceso estocástico
Zt Z
1 t 2
υt = ξs dWs − ξ d s, t ∈ J T ,
0 2 0 s
f y la igualdad anterior se puede escribir
es un proceso de Itô respecto a W
1
d υt = − ξ2t d t + ξt dWt con condición inicial 0.
2
Así, ϕt = exp(υt ) y la fórmula de Itô se aplica a υ̃ = {υt }t∈J T , y f (t , x) =
exp(x); con lo cual
Zt
f (t , υt ) = exp(υt ) = ϕt = 1 + ϕs ξs dWs ,
0
(véase el Ejemplo 3 de la página 140).
Teorema 4.12.2. Sean (Ω, F , P ) espacio de probabilidad completo, {Ft }t∈J T
una filtración completa respecto a P de (Ω, F ), W f = {Wt }t∈J un proceso
T
de Wiener respecto a {Ft }t∈J T y a P ,³ y ξ̃ = {ξt }t∈J T ´un proceso estocástico
RT
medible y adaptado a {Ft }t∈J T con P 0 ξ2s d s < +∞ = 1. Supongamos que
µ µ ZT ¶¶
1 2
E exp ξ d s < +∞, (condición de Novikov).
2 0 s
Entonces la supermartingala ϕ̃ del Ejemplo 1 anterior,
·Zt Z ¸
1 t 2
ϕt = exp ξs dWs − ξ ds ,
0 2 0 s
4.12. TEOREMA DE GIRSANOV 191
Entonces, µ µ Zτn ¶¶ µ ¶
1 2 1
E exp ξs d s 6 exp n < +∞,
2 0 2
¡ ¢ ¡Rt Rt ¢
y por tanto, E ϕτn = 1, (ϕt = exp 0 ξs dWs − 21 0 ξ2s d s , t ∈ J T ).
A veces utilizamos la notación P ψT en vez de P ∗ , (ψT > 0). Por otro lado,
es claro que P y P ∗ son probabilidades equivalentes. A la transformación
P → P ∗ se le llama transformación de probabilidades de Girsanov.
Observación.
© ª (1) Nos situamos en las hipótesis del Teorema 4.12.6.. Sea
η t t∈J T un proceso estocástico medible y adaptado a {Ft }t∈J T tal
RT Rt
que 0 η2s d s < +∞, (P-a.s.). Entonces, Wt∗ = Wt + 0 θs d s, t ∈ J T , es
un proceso estocástico de Itô respecto a W f y se tiene la integral
Zt Zt
((I ) =) η s θs d s + η s dWs .
0 0
© ª
g∗ = W ∗
Por otra parte W t t∈J T es un proceso estocástico de Wiener
Rt
respecto a {Ft }t∈J T y respecto a P ∗ y se tiene la integral 0 η s dWs∗ ,
g∗ ), que coincide con (I).
(en el contexto de (Ω, F , P ∗ ), {Ft }t∈J T y W t
Nota curiosa. Después del teorema de Girsanov (pág. 193) hemos obtenido
la fórmula (que no se ha probado)
Zt Zt Zt
η s dWs + η s θs d s = η s dWs∗ ,
0 0 0
© ª
para un proceso estocástico η̃ = η t t∈J T medible y adaptado a {Ft }t∈J T
RT
con 0 η2s d s < +∞, (P -a.s.).
Un cálculo formal (incorrecto) sería: Partimos de
Zt
∗
Wt = Wt + θs d s.
0
Ejercicios y problemas
12.1. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una
filtración completa respecto a P de (Ω, F ), W f = {Wt }t∈J un proceso de
T
Wiener respecto a {Ft }t∈J T y a P , y sea g : [0, T ] → R una función conti-
nua. Se considera la función determinista a : [0, T ] × Ω → R definida por
a(t , ω) = g (t ). Probar que:
³ ³ R ´´
T
(1). E exp 12 0 a s2 d s < +∞, (condición de Novikov).
¡Rt Rt ¢
(2). El proceso estocástico ϕt = exp 0 a s dWs − 12 0 a s2 d s , t ∈ J T , es una
martingala respecto a {Ft }t∈J T y a P .
Rt
(3). El proceso estocástico Wt∗ = Wt − 0 g (s)d s, t ∈ J T , es un proceso de
Wiener respecto a {Ft }t∈J T y a Pe, donde d Pe = ϕT d P .
12.2. Sean (Ω, F , P ) un espacio de probabilidad completo, {Ft }t∈J T una fil-
tración completa respecto a P de (Ω, F ), W f = {Wt }t∈J un proceso de Wie-
T
ner respecto a {Ft }t∈J T y a P .
Sea ξ̃ = {ξt }t∈J T un proceso estocástico de Itô en (Ω, F , P ) con diferencial
estocástica
Bibliografía
Índice alfabético
Símbolos
A r B = {a ∈ A : a 6∈ B}
D c = E r D, complementario de D subconjunto de E
BT , 123
B(R), σ-álgebra de Borel de R, (V. 2, pág. 32)
B(R), σ-álgebra de Borel de R, (V. 2, pág. 40)
B(Rn ), σ-álgebra de Borel de Rn , (V. 2, pág. 40)
B(R©S ), ª4
β̃ = βt t∈J T , proceso estocástico Browniano, 78
C, conjunto de los números complejos
(C), proceso estocástico continuo, 3
Cadlag, proceso estocástico (CDLI), 18
(CD), proceso estocástico continuo por la derecha, 3
(CDLI), proceso estocástico continuo por la derecha con límite por la iz-
quierda, 3
(CI), proceso estocástico continuo por la izquierda, 3
(CILD), proceso estocástico continuo por la izquierda con límite por la de-
recha, 3
C T , conjunto de aplicaciones continuas de [0, T ] en R, 123
C = C 1 , 16, 123
D, 178
DL, 177
E T , 97
E J ∞ , 114
E ∞ , 110
Fτ , σ-álgebra asociada a un tiempo de Markov, 66
ϕω , trayectoria del proceso estocástico ξ̃ en el punto ω, 2
ξ̃
210 ÍNDICE ALFABÉTICO
RT
f dWt , integral estocástica de Itô, 96
R0T t
0 f t ◦ dW t , integral estocástica de Fisk-Stratonovich, 104
J T = [0, T ] ⊂ R, 1
J ∞ = [0, +∞) ⊂ R, 1
λ, medida de Lebesgue en R, (V. 2, pág. 106)
λT = λ|B(J T ) , medida de Lebesgue en J T , 97
MT , conjunto de martingalas cuadrado integrables con dominio del pará-
metro J T , 175
M = M∞ , conjunto de martingalas cuadrado integrables con dominio del
parámetro J ∞ , 175
N, conjunto de los números naturales, 2
N+ = N r {0}
N = N ∪ {+∞}, 72
P T , 97
P J ∞ , 114
P ∞ , 110
P X ξ̃ , distribución de probabilidad del proceso estocástico ξ̃, 5
R, conjunto de los números reales
R = R ∪ {−∞, +∞}, recta real ampliada
Rn = R × ... × R, espacio euclídeo n-dimensional
RS = {x : x aplicación de S en R}
+
R∞ = RN
σΩ , generador de σ-álgebras, (V. 2, pág. 15)
f = {Wt }t∈J , proceso estocástico de Wiener, 83
W © ¡t ¢ª
f = Wt = W 1 , ...,W k
W t t t∈J t , proceso estocástico de Wiener k-dimensional,
124
X ξ̃ , 4
ξ̃τ , τ tiempo de Markov, 67
Z, conjunto de los números enteros
(Ω, F ), espacio medible, (V. 2, pág. 16)
(Ω, F , P ), espacio de probabilidad, (V. 2, pág. 22)