Академический Документы
Профессиональный Документы
Культура Документы
Álgebra Lineal
Cadenas de Markov
Las cadenas de Markov fueron creadas por el científico ruso llamado Andréi Markov en 1907,
Markov siempre fue reconocido por ser un matemático especializado en la teoría de la
probabilidad y de los números.
- Definición Matemática:
En matemática se define como un proceso estocástico discreto que cumple con la propiedad de
Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente
resume toda la información relevante para describir en probabilidad su estado futuro.
Una cadena de Márkov es una secuencia X1, X2, X3... de variables aleatorias. El dominio de estas
variables es llamado espacio estado; el valor de Xn es el estado del proceso en el tiempo n. Si la
distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí
sola, entonces:
Cadenas irreducibles:
Una cadena de Márkov se dice irreducible si se cumple cualquiera de las siguientes condiciones
(equivalentes entre sí):
4
C(x)=E para algún x ∈ E.
Cadenas positivo-recurrentes:
Una cadena de Márkov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si
la cadena es además irreducible es posible demostrar que existe un único vector de probabilidad
invariante y está dado por:
Cadenas regulares:
Una cadena de Márkov se dice regular (también primitiva o ergódica) si existe alguna potencia
positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
donde W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que
resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, este
vector invariante es único.
Cadenas absorbentes:
Una cadena de Márkov con espacio de estados finito se dice absorbente si se cumplen las dos
condiciones siguientes:
5
Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D,
tenemos los siguientes resultados:
Si en lugar de considerar una secuencia discreta X1, X2...,Xi,.. con i indexado en el conjunto {N}
de números naturales, se consideran las variables aleatorias Xt con t que varía en un intervalo
continuo del conjunto {R} de números reales, tendremos una cadena en tiempo continuo.
Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa de la siguiente
manera:
Para una cadena de Márkov continua con un número finito de estados puede definirse una matriz
estocástica dada por:
6
Para una cadena de Márkov en tiempo continuo homogénea y con un número finito de estados
puede definirse el llamado generador infinitesimal como:
1.- Meteorología:
Si consideramos el tiempo atmosférico de una región a través de distintos días, es plausible asumir
que el estado actual sólo depende del último estado y no de toda la historia en sí, de modo que se
pueden usar cadenas de Márkov para formular modelos climatológicos básicos. Por ejemplo, se
han desarrollado modelos de recurrencia de las lluvias basados en cadenas de Márkov.
3.- Internet:
El PageRank de una página web (usado por Google en sus motores de búsqueda) se define a través
de una cadena de Márkov, donde la posición que tendrá una página en el buscador será determinada
por su peso en la distribución estacionaria de la cadena.
4.- Simulación:
7
Las cadenas de Márkov son utilizadas para proveer una solución analítica a ciertos problemas de
simulación, por ejemplo, en teoría de colas el Modelo M/M/14 es de hecho un modelo de cadenas
de Márkov.
Las cadenas de Márkov se pueden utilizar en modelos simples de valuación de opciones para
determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa
de valores o para determinar la volatilidad de los precios. En los negocios, las cadenas de Márkov
se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las
necesidades de personal y para analizar el reemplazo de equipo.
0 ≤ 𝑡𝑖𝑗 ≤ 1 (1 ≤ 𝑖, 𝑗 ≤ 𝑛).
2.4.- Teoremas:
Teorema 1.-
Si T es la matriz de transición de un proceso de Márkov, el vector de estado X (K+1) en el
8
(k + 1)-ésimo periodo de observación, puede determinarse a partir del vector de estado X K en el
k-ésimo periodo de observación, como:
𝑿(𝑲+𝟏) = 𝑻𝒙(𝒌)
La ecuación indica que para obtener el vector de estado en el periodo (k+1) se multiplica la
matriz de transición por el vector de estado en el periodo k. De acuerdo con lo anterior:
𝑋 (1) = 𝑇𝑥 (0)
y, en general, que:
𝑋 (𝑛) = 𝑇 𝑛 𝑥 (0)
Esto es, la matriz de transición y el vector de estado inicial determinan por completo todos
los demás vectores de estado.
Teorema 2.-
𝑢1 𝑢1 … 𝑢1
𝑢2 𝑢2 … 𝑢2
𝐴=[ ⋮ ⋮ … ⋮ ]
𝑢𝑛 𝑢𝑛 … 𝑢𝑛
9
de A es un vector de probabilidad tal que todos sus componentes son positivos. Es
decir, 𝒖𝒊 > 0 (1 ≤ i ≤ n) y:
𝒖𝟏 + 𝒖𝟐 + ⋯ ⋯ + 𝒖𝒏 = 𝟏
Teorema 3.-
- (a) Para cualquier vector de probabilidad x, 𝑻𝒏 x→u conforme n→∞, de modo que u
es un vector de estado estacionario.
- (b) El vector de estado estacionario u es el único vector de probabilidad que satisface
la ecuación matricial Tu = u.
Demostración
a)
𝑥1
𝑥2
𝑥= [⋮]
𝑥𝑛
𝑇 𝑛 𝐱 → 𝐴𝐱
Ahora:
𝑢1 𝑢1 … 𝑢1 𝑥1 𝑢1 𝑥1 + 𝑢1 𝑥2 + … +𝑢1
𝑢2 𝑢 2 … 𝑢2 𝑥2 𝑢 𝑥 + 𝑢2 𝑥 2 + … +𝑢2
𝑨𝒙 = [ ⋮ ⋮ … ⋮ ] [ ⋮ ]= [ 2 ⋮1 … ⋮ ]
⋮
𝑢𝑛 𝑢 𝑛 … 𝑢𝑛 𝑥𝑛 𝑢𝑛 𝑥1 + 𝑢𝑛 𝑥2 + … +𝑢𝑛
pues
10
𝒙𝟏 + 𝒙𝟐 + ⋯ ⋯ + 𝒙𝒏 = 𝟏
Por lo tanto, 𝑻𝒏 x → u.
Demostración b)
Otra forma de calcular el vector de estado estacionario de una matriz de transición regular es el
siguiente. Según (b) del teorema 3, podemos escribir:
𝑇𝑢 = 𝑢
Como:
𝑇𝑢 = 𝑙𝑛 𝑢
O
(𝐼𝑛 − 𝑇)𝑢 = 0
Hemos demostrado que el sistema homogéneo (3) tiene una única solución u que es un vector de
probabilidad, de modo que:
𝒖𝟏 + 𝒖𝟐 + ⋯ ⋯ + 𝒖𝒏 = 𝟏
11
2.5.- Pasos de Solución
(𝑰𝒏 – 𝑻)𝒖 = 𝟎
0.55 0.33
c) [ ]
0.45 0.67
12
2.-¿ cuáles de los siguiente son vectores de probabilidad?
1 1
1 4 5
2 1 2
1 0 6 5
a) 3 b) [1] c) 1 d) 1
2 3 10
0 1 2
3
[ ] 4 10
[ ] [ ]
R.-El inciso a es un vector de probabilidad
En los ejercicios 3 y 4 determine un valor para cada entrada faltante, denotada por
De modo que la matriz sea la matriz de transición en una cadena de Markov. En algunos casos puede
haber más de una respuesta correcta.
− 0,4 0,3 0,2 0,1 0,3
3.- [0,3 − 0,5] 4.- [ 0,3 − 0,5 ]
− 0,2 − − − −
1
a) x (0) [ ], calcule x1 , x 2 , x 3 con tres cifras
0
b) Demuestre que T es regular encontrar el vector de estado estacionario.
R.-
𝑥 (0+1) = 𝑇. 𝑥 (0)
0,700 0,4 1 0,7
[ ] [ ]= [ ]
0,300 0,6 0 0,3
0,7
𝑥 (1) = [ ]
0,3
0,7 0,4 0,7
(2)
𝑥 = [ ]= [ ]
0,3 0,6 0,3
13
0,6
(2)
𝑥 = [ ]
0,4
0 0,2 0 0 0,2
(1) (0)
𝑥 = 𝑇𝑥 = (0 0,3 0,3) (1) = (0,3)
1 0,5 0,7 0 0,5
0 0,2 0 0,2 0,06
𝑥 (2) = 𝑇𝑥 (1) = (0 0,3 0,3) (0,3) = (0,24)
1 0,5 0,7 0,5 0,70
0 0,2 0 0,06 0,048
𝑥 (3) = 𝑇𝑥 (2) = (0 0,3 0,3) (0,24) = (0,282 )
1 0,5 0,7 0,70 0,670
b) Demuestre que T es regular y encuentre su vector de estado estacionario.
0 0,2 0 0 0,2 0 0 0,06 0,06
𝑇 2 = (0 0,3 0,3) (0 0,3 0,3) = (0,3 0,24 0,30)
1 0,5 0,7 1 0,5 0,7 0,7 0,70 0,64
∴ la matriz de representación es regular.
1 0 0 0 0,2 0 𝑢1 0
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(0 1 0) − (0 0,3 0,3)] (𝑢2 ) = (0)
0 0 1 1 0,5 0,7 𝑢3 0
14
1 −0,2 0 𝑢1 0
⇒ (0 0,7 𝑢
−0,3) ( 2 ) = (0)
−1 −0,5 0,3 𝑢3 0
1 −0,2 0 0 1 0 −0,0857 0 𝑢1 = 0,0857𝑟
(0 0,7 −0,3|0) rref⇒ (0 1 −0,4286|0) {𝑢2 = 0,4286𝑟 ∀ 𝑟𝜖ℝ
−1 −0,5 0,3 0 0 0 0 0 𝑢3 = 𝑟
b)
0,5 0 0
𝑇 = ( 0 1 0,5)
0,5 0 0,5
0,5 0 0 0,5 0 0 0,25 0 0
2
𝑇 = ( 0 1 0,5) ( 0 1 0,5) = (0,25 1 0,75)
0,5 0 0,5 0,5 0 0,5 0,5 0 0,25
∴ la matriz de representación es regular.
c)
1 0,3333 0
𝑇 = (0 0,3333 1)
0 0,3333 0
1 0,3333 0 1 0,3333 0 1 0,4444 0,3333
2
𝑇 = (0 0,3333 1) (0 0,3333 1 ) = (0 0,4444 0,3333)
0 0,3333 0 0 0,3333 0 0 0,1111 0,3333
15
0,25 0,6 0,5 0,25 0,6 0,5 0,4875 0,35 0,375
𝑇 2 = (0,50 0 0 ) (0,50 0 0 ) = (0,1250 0,30 0,250)
0,25 0,4 0,5 0,25 0,4 0,5 0,3875 0,35 0,375
∴ la matriz de representación es regular.
8. Demuestre que cada una de las siguientes matrices de transición
alcanza un estado de equilibrio.
a)
0,5 1
𝑇=( )
0,5 0
0,5 1 𝑢1
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(1 0) − ( 0
)] (𝑢 ) = ( )
0 1 0,5 0 2 0
0,5 −1 𝑢1 0
⇒ ( ) (𝑢 ) = ( )
−0,5 1 2 0
0,5 −1 0 1 −2 0 𝑢1 = 2𝑟
( | ) rref⇒ ( | ){ ∀ 𝑟𝜖ℝ
−0,5 1 0 0 0 0 𝑢2 = 𝑟
𝑢1 + 𝑢2 = 1 ⇒ (2 + 1)𝑟 = 1 ⇒ 𝑟 = 0,3333
0,6667
∴𝑢=( )
0,3333
b)
0,4 0,2
𝑇=( )
0,6 0,8
0,4 0,2 𝑢1
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(1 0) − ( 0
)] ( ) = ( )
0 1 0,6 0,8 𝑢2 0
0,6 −0,2 𝑢1 0
⇒ ( ) (𝑢 ) = ( )
−0,6 0,2 2 0
0,6 −0,2 0 1 −0,3333 0 𝑢1 = 0,3333𝑟
( | ) rref⇒ ( | ) { ∀ 𝑟𝜖ℝ
−0,6 0,2 0 0 0 0 𝑢2 = 𝑟
𝑢1 + 𝑢2 = 1 ⇒ (0,3333 + 1)𝑟 = 1 ⇒ 𝑟 = 0,75
0,25
∴𝑢=( )
0,75
c)
0,3333 1 0,5
𝑇 = (0,3333 0 0,25)
0,3333 0 0,25
1 0 0 0,3333 1 0,50 𝑢1 0
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(0 1 0) − (0,3333 0 0,25)] (𝑢2 ) = (0)
0 0 1 0,3333 0 0,25 𝑢3 0
16
0,6667 −1 −0,50 𝑢1 0
⇒ (−0,3333 1 −0,25) (𝑢2 ) = (0)
−0,3333 0 0,75 𝑢3 0
0,6667 −1 −0,50 0 1 0 −2,25 0 𝑢1 = 2,25𝑟
(−0,3333 1 −0,25|0) rref⇒ (0 1 −1 |0) { 𝑢2 = 𝑟 ∀ 𝑟𝜖ℝ
−0,3333 0 0,75 0 0 0 0 0 𝑢3 = 𝑟
17
0,4286
∴𝑢=( )
0,5714
b)
0,3 0,1
𝑇=( )
0,7 0,9
0,3 0,1 𝑢1
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(1 0) − ( 0
)] (𝑢 ) = ( )
0 1 0,7 0,9 2 0
0,7 −0,1 𝑢1 0
⇒ ( ) (𝑢 ) = ( )
−0,7 0,1 2 0
0,7 −0,1 0 1 −0,1429 0 𝑢1 = 0,1429𝑟
( | ) rref⇒ ( | ) { ∀ 𝑟𝜖ℝ
−0,7 0,1 0 0 0 0 𝑢2 = 𝑟
𝑢1 + 𝑢2 = 1 ⇒ (0,1429 + 1)𝑟 = 1 ⇒ 𝑟 = 0,8750
0,1250
∴𝑢=( )
0,8750
c)
0,25 0,5 0,3333
𝑇=( 0 0,5 0,6667)
0,75 0 0
1 0 0 0,25 0,5 0,3333 𝑢1 0
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(0 1 0) − ( 0 0,5 0,6667)] (𝑢2 ) = (0)
0 0 1 0,75 0 0 𝑢3 0
0,75 −0,5 −0,3333 𝑢1 0
⇒ ( 0 0,5 −0,6667) (𝑢2 ) = (0)
−0,75 0 1 𝑢3 0
0,75 −0,5 −0,3333 0 1 0 −1,3333 0 𝑢1 = 1,3333𝑟
( 0 0,5 −0,6667 |0) rref⇒ (0 1 −1,3333 |0) {𝑢2 = 1,3333𝑟 ∀ 𝑟𝜖ℝ
−0,75 0 1 0 0 0 0 0 𝑢3 = 𝑟
0,4 0 0,1
𝑇 = (0,2 0,5 0,3)
0,4 0,5 0,6
18
1 0 0 0,4 0 0,1 𝑢1 0
𝑢
(𝐼3 − 𝑇)𝑢 = 0 ⇒ [(0 1 0) − (0,2 0,5 0,3)] ( 2 ) = (0)
0 0 1 0,4 0,5 0,6 𝑢3 0
0,6 0 −0,1 𝑢1 0
⇒ (−0,2 0,5 −0,3) (𝑢2 ) = (0)
−0,4 −0,5 0,4 𝑢3 0
0,6 0 −0,1 0 1 0 −0,1667 0 𝑢1 = 0,1667𝑟
(−0,2 0,5 −0,3|0) rref⇒ (0 1 −0,6667 |0) {𝑢2 = 0,6667𝑟 ∀ 𝑟𝜖ℝ
−0,4 −0,5 0,4 0 0 0 0 0 𝑢3 = 𝑟
11.- (Psicología)
Un psicólogo del comportamiento coloca todos los días una rata en una jaula con dos puertas A y
B.
La rata puede pasar por la puerta A en cuyo caso recibirá un choque eléctrico por la puerta B , con
la cual obtiene un cierto alimento. Se registra la puerta por la que pasa la rata. Al inicio del
experimento un lunes la rata tiene la misma probabilidad de pasar por la puerta A que por la puerta
B. Después de pasar por la puerta A y recibir una descarga eléctrica, la probabilidad de poder pasar
por la misma puerta al día siguiente es 0,3.Despues de pasar por la puerta B y recibir el alimento,
la probabilidad de pasar por la misma puerta al día siguiente es 0,6.
(a) Escriba la matriz de transición para el proceso de Markov
(b) ¿Cuál es la probabilidad de que la rata vuelva a pasar por la puerta A el jueves( el tercer día
después del inicio del experimento)
(c) ¿cuál es el vector de estado estacionario?
A B
0,3 0,4
[ ]
0,7 0,6
1 0,3 0,4
(0)
X = [ ]×[ ]
0 0,7 0,6
19
0,3
X (1) = [ ]
0,7
0,3 0,4 0,3 0,37
(2)
X =[ ]×[ ]=[ ]
0,7 0,6 0,7 0,63
a) P= 0,6 0,4
0,25 0,75
b)
El porcentaje de las personas que reciben la carta actual se espera que pidan una suscripción es del
39%.
20
13.- (Sociología)
Un estudio ha determinado que la ocupación de un niño, cuando sea adulto, depende de la
ocupación de su padre y está dada por la siguiente matriz de transición, donde P=
profesional, F = agricultor y L = obrero.
y así sucesivamente.
Al igual que el abuelo y el padre hay una probabilidad del 80% de que el nieto sea profesional
14.- (Genética) Considere una planta que puede tener flores rojas (R) rosadas (P) o blancas (W)
según los genotipos RR,RW,WW. Al cruzar cada uno de estos genotipos RW, obtenemos la matriz
de transición.
Supongamos que cada generación posterior se produce cruzando solo con plantas de genotipos
RW. ¿En qué momento alcanza el equilibrio el proceso?¿qué porcentaje de las plantas será de
flores rojas, rosadas o blancas?
21
- Alcanzan el equilibrio en proceso cuando se tienen los mismos porcentajes en este caso las flores
rojas y blancas cuentan con el mismo porcentaje de 25%.
- Así a largo plazo se tendrá que: el 25%seran flores roja, el 50% serán rosadas y el 25% serán
flores blancas.
15.- (Transporte Colectivo) Un sistema de transporte colectivo entra en operación. Las autoridades
de transito han realizado estudios que predican el porcentaje de quienes utilizarán el sistema
colectivo (M) y el de las personas que seguirán manejando su auto (A). Se ha obtenido la siguiente
matriz de transición.
22
Supongamos que la población del área permanece constante y que al principio 30% de la gente se
traslada en el transporté colectivo y el 70% en automóvil.
(a) ¿Qué porcentaje utilizara el sistema de trasporte colectivo después de un año? ¿después de
2 años?
(b) ¿en el largo plazo ¿Qué porcentaje empleara el sistema de transporte
colectivo?
M A
0,7 0,2
[ ]
0,3 0,8
0,3
𝑋 (0) = [ ]
0,7
0,7 0,2 0,3 0,35
𝑋 (1) = [ ][ ] = [ ] = 35%
0,3 0,8 0,7 0,65
0,7 0,2 0,35 0,375
𝑋 (2) = [ ][ ]=[ ] = 37.5%
0,3 0,8 0,65 0,625
0,7 0,2 𝑂, 375 0,388
𝑋 (3) = [ ] ×[ ]=[ ]
0,3 0,8 0,625 0,613
0,7 0,2 0,388 0,394
𝑋 (4) =[ ]×[ ]=[ ]
0,3 0,8 0,613 0,613
0,7 0,2 0,394 0,398
𝑋 (5) = [ ]×[ ]=[ ]
0,3 0,8 0,613 0,609
0,7 0,2 0,398 𝑂, 4
𝑋 (6) = [ ]×[ ]=[ ]
0,3 0,8 0,609 0,6
0,7 0,2 𝑂, 4 0,4
𝑋 (7) = [ ]×[ ]=[ ]
0,3 0,8 0,606 0,6
b) En el largo plazo el transporte colectivo empleara un 40%.
23
4.- Conclusiones:
Después de haber investigado tanta información y de haber resuelto muchos ejercicios el grupo
concluye que las cadenas de Markov son un recurso muy útil para el cálculo de las probabilidades
que se pueden presentar en la vida cotidiana pero además el haber descubierto que tiene tantas
aplicaciones en distintas áreas de la matemática y en tantos servicios consumo masivo es increíble
y muy interesante.
Así mismo las limitaciones que pudimos encontrar en esta herramienta matemática vendrían a ser
que ciertos cálculos de probabilidad que encontramos cotidianamente depende muchas más
variables que las que el sistema nos brinda, de todas formas, las cadenas son muy útiles para obtener
probabilidades menos complejas.
5.- Bibliografía:
Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). «The Life and Work of A. A.
Markov». Álgebra Lineal y sus aplicaciones, página 386: 3-26
R. Gabriel & J. Neumann (2006): A Markov chain model for daily rainfall occurrence at Tel Aviv
Bernard Kolman / David R. Hill Álgebra Lineal fundamentos y aplicaciones 8va edición, página
149-158
Enlaces Web:
http://www.investigaciondeoperaciones.net/cadenas_de_markov.html
https://es.wikipedia.org/wiki/Cadena_de_M%C3%A1rkov
24