Академический Документы
Профессиональный Документы
Культура Документы
Toma de decisiones
Incertidumbre
Definiciones Bsicas
Proceso estocstico
Ejemplo
Existe una regin donde se da lo siguiente
P(llueva maana |llovi hoy) = a
P(llueva maana |no llovi hoy) = b
Estado 0 : Llover
Estado 1 : No llover
Cadenas de Markov
Las cadenas de Markov tienen la propiedad particular de
que las probabilidades que describen la forma en que el
proceso evolucionar en el futuro, dependen slo del
estado actual en que se encuentra el proceso, y por lo
tanto, son independientes de los eventos ocurridos en el
pasado.
X t 1 j
P X t 1 j
X 0 , X 1 ,..., X t
X t
Probabilidades de transicin
X t 1 j
, i, j S , t T
X t i
X t 1 j
q
ij
X t i
Matriz de transicin
q00
q10
Q
q20
...
q01 q02
q11 q12
q21 q22
... ...
...
...
q
ij
i , jS
...
...
Propiedades de la matriz de
transicin
i, j S , qij 0,1
i S ,
q
jS
ij
qij
0,9 0,1
Q
0,3 0,7
0,1
0,9
1
0,3
0,7
Ecuaciones de Chapman-Kolmogorov
X t n j
(n)
i, j S , P
qij
X t i
Por induccin:
P(n-1) = Pn-1
Para m = 1 y n = r-1,
P(r-1+1) = P(r) = P(r-1) P(1) =Pr -1 P = Pr
Observaciones:
Ejemplo
Ejemplo: