Академический Документы
Профессиональный Документы
Культура Документы
ij
= n=1
n f
ij
(n)
=1 si f
ij
(n)
=1
n=1 n=1
ij
satisface de manera nica, la ecuacin:
ij
=1+ p
ik
kj
k=j
que reconoce que la 1 transicin puede ser al estado j o a algn otro estado k.
Para el caso de
ii
(con j=i)es el n esperado de transiciones para que el proceso regrese al
estado i(tiempo esperado de recurrencia).stos se calculan de inmediato de la forma:
1
ii
=----- siendo t
i
las probabilidades de estado estable.
t
i
INDICE
Estados Absorbentes.
Un estado se llama absorbente si p
ik
=1, es decir, si una vez que el
estado llega a k, permanece ah para siempre. Si k es un estado absorbente y
el proceso comienza en i, la probabilidad de llegar a k se llama probabilidad
de absorcin de k (f
ik
). Si se tienen 2 o ms estados absorbentes, el proceso
ser absorbido por uno de stos. Para saber cual, hay que resolver el sistema
de ecuaciones:
M
f
ik
= p
ij
f
jk
para i=0,1,,M
j=0
Esto es importante en las caminatas aleatorias: cadenas de Markov en las que si el
sistema se encuentra en el estado i, entonces, en una sola transicin, o permanece en i, o se
mueve a uno de los 2 estados inmediatamente adyacentes a i.
INDICE
Cadenas de Markov en tiempo continuo
Se etiquetan los estados posibles del sistema 0,1,,M. Se comienza en 0, y t>0. Sea
la v.a.X(t) el estado del sistema en t. Tomar un valor en 0st<t
1
, despus tomar otro
valor en t
1
st<t
2
,
Es interesante conocer el estado del proceso en t=s+t(t unidades en el futuro). Ser
sencillo conocerlo si el proceso tiene la propiedad markoviana:
P{X(s+t)=j/X(s)=i y X(r)=x(r)}= P{X(s+t)=j/X(s)=i} i,j y r>0, s>r y t>0.
P{X(s+t)=j/X(s)=i} es una probabilidad de transicin. Si es independiente de s, se llamar
probabilidad de transicin estacionaria.
Un proceso estocstico de tiempo continuo {X(t); t>0} es una cadena de Markov de
tiempo continuo si tiene la propiedad markoviana.
INDICE
Algunas v. a. importantes:
*La distribucin de probabilidad del tiempo que falta para que el proceso haga una
transicin fuera de un estado dado es siempre la misma(independientemente del tiempo que
el proceso haya pasado en ese estado), es decir:no tiene memoria. La nica distribucin en
TC que cumple esto es la distribucin exponencial:
P{T
i
st}=1-e
-qt
para t>0 (parmetro q, media 1/q).
Por tanto, describiremos la cadena de Markov:
-La v.a. T
i
tiene una distribucin exponencial con media 1/q.
-Al salir de un estado i, se pasa a otro j, con probabilidad p
ij
que cumple que p
ij
=0
para toda i, y la suma de todas las p
ij
es 1.
-El siguiente estado que se visita tras i, es independiente del tiempo transcurrido
en i.
Las intensidades de transicin(probabilidades de transicin, pero en TC) :
d 1 p
ii
(t)
q
i
= p
ii
(0)=lim , para i=0,1,2,,M,
dt t0 t
y
d 1 p
ij
(t)
q
i
= p
ij
(0)=lim = q
i
p
ij
, para toda j=i
dt t0 t
donde p
ij
es la funcin de probabilidad de transicin de TC, q
i
y q
ij
son las tasas de
transicin(q
i
= q
ij
).
i=j
INDICE
Probabilidades de estado estable:
La funcin de probabilidad de transicin de TC satisface las ecuaciones de
Chapman-Kolmogorov, luego para cualequiera estados i,j y nmeros t y s(0ss<t):
M
p
ij
= p
ik
(s)p
kj
(t-s) para i=0,1,,M
k=1
Se dice que un par de estados i,j se comunican si existen tiempos t
1
, t
2
tales que
p
ij
(t
1
)>0 y p
ij
(t
2
)>0. Todos los estados que se comunican forman una clase. Si todos los
estados en una cadena forman una clase, entonces la cadena ser irreducible, por lo que:
p
ij
(t)>0, para todo t>0 y todos los estados i,j , y ms an:
lim p
ij
(t)=t
j
llamadas probabilidades de estado estable(o estacionarias).
t
Las probabilidades estacionarias satisfacen: M
t
j
q
j
= t
i
q
ij
para j=0,1,,M y t
j
=0
i=j j=0
(stas ecuaciones se suelen llamar de balance).