Академический Документы
Профессиональный Документы
Культура Документы
ez
1. [Tomado de R. Dobrow] Una cadena de Markov {Xn } en el espacio de estados
S = {1, 2, 3} posee la ste matriz de transición
om
0.1 0.3 0.6
0 0.4 0.6
0.3 0.2 0.5
d ) P (X2 = 1, X1 = 2).
e) E[X2 ] y Var[X2 ].
donde k ≥ m.
1
, y sea Yn , n ≥ 1 dada por
Yn = Xn + Xn−1 (3)
4. [Tomado de Hoel-Port-Stone]
Un jugador comienza con un cierto capital inicial en dolares a hacer una serie
ez
de apuestasde 1$ contra el casino. El jugador posee probabilidades p y q = 1 − p
de ganar y perder en cada apuesta respectivamente. Ahora
om entra en ruina.
Si su capital alcanza digamos d$=6$ dolares, entonces el jugador se retirara
con esta suma.
1/3 2/3
P = (4)
3/4 1/4
Calcule:
6. Considere el grafo (1) el cuál representa una red de páginas web simplificada.
2
Figura 1: Una red conformada por 4 páginas web.
ez
7. [Tomado de Grimmet-Stirzaker] Sea Xn la cantidad de agua (en miles de litros)
en el dia n en una represa a las 12:00 AM. A partir de este momento y durante
un periodo de 24 horas una cantidad Yn de agua fluye o se vierte en la presa
y justo antes de las 12:00 AM cada dia una unidad de agua es extraida (si se
om
encuentra por lo menos una unidad en la presa en dicho momento). La capasidad
máxima de la presa es de K = 5 unidades.
los excesos de los flujos que se vierten en la presa se pierden por derramamiento.
Asuma que las Yn forman una secuencia i.i.d de v.a.s con distribución común
dada por la tabla (1)
Cuadro 1
CA
Suponga que todos los números en este ejercicio son enteros no negativos.
0 si i ≥ s = 3
S − i si i < s = 3.
3
esta se denomina una estrategia (s, S) = (3, 5). Los pedidos que realiza el alma-
cen son inmediatamente atendidos. Las demendas diarias forman una secuencia
{Yn , n ≥ 1} i.i.d de variables cuya distribución común es como en la tabla 2.
Cuadro 2
ez
a) Determine si Xn es una cadena de Markov.
b) Clasifique los estados.
om
que corresponde a una cadena {Xn } en S = {0, 1, 2, 3, 4}
P =
1 0 0 0 0
1 2 0 0 0
3 13
0 0
3 1 3 2
0 0
3
0 0 0 0 1
2
0
0
3
P =
1 0 0 0 0
1 1 1 0 0
6 21 31 1
0
6 21 31 01
0 0 6
0 0 0 0 1
2 3
(6)
G
1 2
1 0 0 0 0 0 0
3 3
0
1 2 0 0 0 1
0 23 0 0
3 13 2
1
3 2
0 3 01 3 02
P = 0 3 01 3
P = 0 (7)
CA
2
0 0 0 3 0 0 0
3 3 3
0 0 0 31 23 0 0 0 0 1
1 1
1 0 0 0 0 2
0 0 0 2
1 0 1
0 0 1 0 1 0 0
2 1 2
1 1
2 1 21 1
0 4
P = 0 0 4 21 43 01
P = (8)
2 4
0 0 1 3 1 0 0
8 4 8 8 4 8
0 0 0 0 1 0 0 0 0 1
1 2 2
0 0 13
3
03
0 0 0 3
1 0 2 0 0 1 0 2 0 0
3 1 3 2 3 1 3 2
0 3 01 3 02
P = 0 3 01 3 02
P = (9)
0 0 0 3 0 0 0 3
3 3
0 0 0 31 23 2
3
0 0 13 0
4
c) Determine si existe una distribución estacionaria.
ez
d ) lı́mn→∞ P (X0 = j|Xn = i).
11. a) Verifique que si una cadena de Markov Xn posee una distribución estacio-
naria π y la distribución µ(0) de X0 es π entonces la cadena deviene un
proceso estrictamente estacionario osea, siempre se cumple
Es decir las distribuciones bivariadas del proceso son invariantes por trans-
lación en el tiempo.
b) Que sucede con las distribuciones trivariadas, etc.
G
12. Una urna inicialmente contiene 2 bolas blancas y 2 bolas negras. El siguiente
experimento es repetido indefinidamente: Se saca una bola al azar de la urna y
con probabilidad p se cambia su color y es devuelta a la urna, con probabilidad
1 − p es devuelta a la urna sin cambio de color. Sea Xn el número de bolas
CA
14. Clasifique los estados de la cadena de Markov con matriz de transición con
p = 1/4.
5
a)
1 − 2p 2p 0
p 1 − 2p p
0 2p 1 − 2p
ez
d ) Para que valores de p en general existe una distribución estacionaria para
esta cadena.
e) Calcule los tiempos medios de recurrencia µi i = 1, 2, 3 de cada estado
om
15. Considere una cadena de Markov Xn con matriz de transición P . Suponga que
π es la distribución estacionaria de Xn , verifique que:
µ(i) = π.
b) Verifique que parta valores de n, m y k cuales quiera
G
P (Xn+k = i, Xm+k = j) = P (Xn = i, Xm = j). (11)
P (Xn = i, Xm = j, Xl = h)
pji X
qij = mı́n(pij , πj ), qii = 1 − qij . (12)
πi j6=i
6
b) Verifique que π es la distribución estacionaria de {Yn }.
ez
qπi−1 + pπi+1 = πi , para i ≥ 1. (13)