Академический Документы
Профессиональный Документы
Культура Документы
FACULTAD DE INGENIERIA
DEPARTAMENTO DE INGENIERIA INDUSTRIAL
INVESTIGACION DE
OPERACIONES II
Procesos Estocásticos
Número
de 4
compradores
en el 3
sistema
2
0
20 40 60 80 100
Tiempo (en minutos)
Cadenas de Markov
Entonces: i i j
pij p (1 p) j
j
Cadenas de Markov
i) Propiedad Markoviana:
IP ( X 0 1)
IP ( X 2)
f0 0
IP ( X 0 M )
Cadenas de Markov
IP ( X n j ) IP ( X n j / X n 1 i ) IP (X n 1 i )
i
pij IP ( X n 1 i )
i
Cadenas de Markov
IP ( X n 1) p11 p21 pM 1 IP ( X n 1 1)
IP ( X 2) p p22 pM 2 IP ( X n 1 2)
n 12
fn
IP ( X n M ) p1M p2 M pMM IP ( X n 1 M )
f n = PT f n-1 = (PT)n f 0
Cadenas de Markov
P ( k ) ( pij( k ) )
Chapman- Kolmogorov que implican: P(k) = Pk
Cadenas de Markov
Ejemplo a.-
IP (D = 0) = 1/4, IP (D = 1) = 1/2,
IP (D = 2) = 1/4, IP (D >= 3) = 0
IP ( x0 1) 0
f
0
IP ( x0 2) 1
pi , j IP ( X n 1 j / X n i ) ; i, j {1,2}
Cadenas de Markov
p11 IP ( D 0) 1 / 4
p12 IP ( D 1) 3 / 4
p21 IP ( D 1) 1 / 2
p22 IP ( D 0) IP ( D 2) 1 / 2
1 / 4 3 / 4
P
1 / 2 1 / 2
Cadenas de Markov
Ejemplo b.-
Suponga que en el sistema de las AFP existen solo 2; las AFP A y las AFP
B.
Se desea estudiar la movilidad de los clientes en cada AFP en cada mes del
horizonte de planificación.
Cadenas de Markov
Se tiene:
p ( n)
ij IP( X n j / X 0 i) 0
Cadenas de Markov
ii) Si tanto el estado i es accesible desde j como viceversa decimos que los
estados i y j se comunican.
iii) Dos estados que se comunican están en una misma clase de estados.
iv) Se dice que una cadena es irreducible si hay una sola clase de estados.
Cadenas de Markov
pii( n ) IP ( X n i / X 0 i ) 0
es decir :
Fk (i, j ) IP(T (i, j ) k )
como la probabilidad de que comenzando en i, ocurra la primera transición
al estado j al cabo de exactamente k etapas.
F1 (i, j ) pij
Fk (i, j ) pim Fk 1 (m, j ), k 1
m j
De modo que:
F (i, i ) Fk (i, i )
k 1
Cadenas de Markov
x) Sea IE(T(i,i)) k 1k Fk (i,i) , el valor esperado de el número de etapas
que le toma al proceso volver al estado i por primera vez, partiendo del
estado i.
Cadenas de Markov
F(i,i) 1 y IE(T(i,i))
Un estado se dice recurrente nul ssi :
F(i,i) 1 y IE(T(i,i))
Cadenas de Markov
Ejemplo
p 1 / 2 1 / 6 1 / 3
de estados y uno de
los estados es
1 / 5 3 / 5 1 / 5 transciente.
Cadenas de Markov
Es una cadena
irreducible, de
estados recurrentes
0 1 0 0 positivos y todos
1/ 2 0 1/ 2 0 sus estados son
p periódicos de
0 0 0 1 periodo d=2.
1 0 0 0
Cadenas de Markov
Proposición.
Sea {Xn}n=0,1,2 una cadena de Markov irreducible con estados recurrentes
positivos aperiódicos, entonces existe una distribución estacionaria ,
tal que >0 y que se obtiene como la solución única del sistema:
P T
j 1
j
j 0
Cadenas de Markov
1/2
1/2
1/ 2 1/ 2 0
p 0 1/ 3 2 / 3 1
1/3 2 1/3
1/ 3 1/ 3 1/ 3
1/3
2/3
3
1/3
P T
1 2 3 1
Cadenas de Markov
1 1
(1) 1 1 3
2 3
1 1 1
(2) 2 1 2 3
2 3 3
2 1
(3) 3 2 3
3 3
( 4 ) 1 2 3 1
Cadenas de Markov
2
de (1) 1 3
3
de (2) 2 3
2
así 3 3 3 1
3
1 3
Solución 1 2 3
4 8
Cadenas de Markov
Ejemplo:
Una compañía esta considerando emplear cadenas de markov para
analizar los cambios en las preferencias de los usuarios por tres marcas
distintas de un determinado producto. El estudio ha arrojado la
siguiente estimación de la matriz de probabilidades de cambiarse de una
marca a otra cada mes:
1 2 3
1 0.8 0.1 0.1
2 0.03 0.95 0.02
3 0.2 0.05 0.75
Cadenas de Markov
IP(X 0 1) 0.45 0 .8 0 .1 0 .1
f 0 IP(X 0 2) 0.25 P 0.03 0.95 0.02
IP(X 0 3) 0.30 0.2 0.05 0.75
IO2 Parte 2: Procesos Estocásticos
IP(X 1 1) 0.4275
f 1 P T f 0 IP(X 1 2) 0.2975
IP(X 1 3) 0.2750
IP(X 2 1) 0.4059
f 2 P T f 1 IP(X 2 2) 0.3391
IP(X 2 3) 0.2550
Propiedad Markoviana:
IP(X t s j / X u X(u), 0 u t, X t i)
IP(X t s j / X t i)
Propiedad Estacionaria
4
Xt
3
2
1
t
Cadenas de Markov
Se necesita explicitar:
i) Probabilidades de transición pij (asumiendo pii=0)
ii) Tasas vi de los tiempos exponenciales Ti de permanencia en el estado
i.
Cadenas de Markov
Distribución de Xt :
pij (t ) IP(X t j / X 0 i)
Estas probabilidades satisfacen:
d
pij (t ) pik (t )vkpkj v jpij (t )
dt k j
Si existe una distribución estacionaria:
j lim pij (t )
t
Cadenas de Markov
0 k vkpkj v j j ; j 1,2,... j 1
k j j
O equivalentemente el sistema:
v j j k vkpkj ; j 1,2,... j 1
k j j