Вы находитесь на странице: 1из 53

INSTITUTO TECNOLÓGICO DEL VALLE DE ETLA

INGENIERIA INDUSTRIAL

ASIGNATURA:
INVESTIGACIÓN DE LAS OPERACIONES II

Título del trabajo:


 Introducción a las cadenas de Markov
 Probabilidad de transiciones estacionarias de n pasos
 Estado estable
 Casos especiales (cadenas absorbentes, cadenas cíclicas).
 Uso de software
Tipo del Trabajo:
Presentación en Power Point.

Fecha de Entrega:
Lunes 04/Noviembre/2019

Presenta:
Isael Marcos Matus

Asesor:
M.C.E.E. Wilbert Sánchez Martínez.

Semestre: 5º

La Venta Juchitán de Zaragoza Oaxaca. Noviembre 2019


INDICE

 Introducción a las cadenas de


Markov
 Probabilidad de transiciones
estacionarias de n pasos
 Estado estable
 Casos especiales ( cadenas
absorbentes, cadenas cíclicas).
 Uso de software
INTRODUCCIÓN

En la presente actividad realizare una


presentación en power point acerca de los
principales subtemas de Cadenas de Markov.
 Cadenas de Markov

El análisis de Markov es un método de analizar la


conducta actual de alguna variable en un esfuerzo
de predecir la conducta futura de esa misma
variable.

Este procedimiento fue desarrollado por el


matemático ruso, Andrei A. Markov a principios del
siglo anterior.
Primero se usó para describir y pronosticar el comportamiento
de partículas de gas en un recipiente cerrado.

Como una arma gerencial, el análisis de Markov ha sido


aplicado exitosamente a una amplia variedad de situaciones de
decisión. Quizá su uso más amplio está en examinar y
pronosticar la conducta de consumidores en términos de su
lealtad a la marca y su cambio de una marca a otra.
Las cadenas de Markov y los procesos de Markov
son un tipo especial de procesos estocásticos que
poseen la siguiente propiedad:

Propiedad de Markov: Conocido el estado del


proceso en un momento dado, su comportamiento
futuro no depende del pasado. Dicho de otro modo,
“dado el presente, el futuro es independiente del
pasado”

Rincón, L. (Enero de 2011). Fciencias. [Presentación de Power Point]Recuperado el 31 de Octubre de 2019, de


http://lya.fciencias.unam.mx/lars/libros/procesos.pdf
PROCESO ESTOCÁSTICO

Es un conjunto o sucesión de variables aleatorias: X(t)


definidas en un mismo espacio de probabilidad.
Normalmente el índice t representa un tiempo y X(t) el
estado del proceso estocástico en el instante t.
El proceso puede ser de tiempo discreto o continuo
Si el proceso es de tiempo discreto, usamos enteros
para representar el índice: {X1, X2, ...}
EJEMPLOS DE PROCESOS ESTOCÁSTICOS

1. Resultado mensual de ventas de un producto


2. Estado de una máquina al final de cada
semana (funciona/averiada)
3. Nº de clientes esperando en una cola cada 5 minutos
4. Marca del detergente que compra un consumidor cada
vez que hace la compra. sabiendo que existen 8
marcas diferentes
5. Nº de unidades en almacén al finalizar la semana

Rincón, L. (Enero de 2011). Fciencias. [Presentación de Power Point ]Recuperado el 31 de Octubre de 2019, de
http://lya.fciencias.unam.mx/lars/libros/procesos.pdf
ELEMENTOS DE UNA CADENA DE MARKOV

 Un conjunto finito de M estados, exhaustivos y


mutuamente excluyentes (ejemplo: estados de la
enfermedad)

 Ciclo de markov (“paso”) : periodo de tiempo que sirve


de base para examinar las transiciones entre
estados (ejemplo, un mes)

 Probabilidades de transición entre estados, en un ciclo


(matriz P)

 Distribución inicial del sistema entre los M estados


posibles
PROPIEDAD MARKOVIANA

Un proceso estocástico tiene la propiedad markoviana si las


probabilidades de transición en un paso sólo dependen del
estado del sistema en el período anterior (memoria
limitada).
PROPIEDAD MARKOVIANA

P(n) es la matriz de transición en n pasos, de orden (M+1)x(M+1)


MATRIZ DE TRANSICIÓN

Los qij se agrupan en la denominada matriz de transición de


la CM:

 q00 q 01 q 02 ... 

 q 

Q  
q 10 q 11 q 12 ... 
q 20 q q ...  i , jS

 ... ... ... ... 
PROPIEDADES DE LA MATRIZ DE TRANSICIÓN

Por ser los qij probabilidades,

i, j  S , q i j  0,1

Por ser 1 la probabilidad del suceso seguro,


cada fila ha de sumar 1, es decir,

i  S, q ij 1
jS

Una matriz que cumpla estas dos


propiedades se llama matriz estocástica
DIAGRAMA DE TRANSICIÓN DE ESTADOS

El diagrama de transición de estados (DTE) de una CM es


un grafo dirigido cuyos nodos son los estados de la CM y
cuyos arcos se etiquetan con la probabilidad de transición
entre los estados que unen. Si dicha probabilidad es nula,
no se pone arco.

qij j
i
EJEMPLO LÍNEA TELEFÓNICA

Sea una línea telefónica de estados ocupado = 1 y


desocupado = 0. si en el instante t esta desocupada, en
el instante t+1 estará ocupada con probabilidad 0.7 y
desocupada con probabilidad 0,3. Si en el instante t
está desocupada, en el t+1 estará ocupada con
probabilidad 0.1 y desocupada con probabilidad 0.9.
EJEMPLO LÍNEA TELEFÓNICA


Q
0.9 0.1 

0.3 0.7

0.1
0.9 0 1 0.7

0.3
Ejemplo
Se tiene la siguiente cadena de Markov.
0 1 2 3
1 1 1
0 0
2 4 4
𝑃=1 0 0 1 0
2 1 0 1 1
0
3 3 3 3
0 0 0 1
Esta cadena se ilustra en forma grafica. Allí se ve que los cuatro estados no constituyen
una cadena irreducible, porque desde el estado 3 no se puede llegar a los estados
0,1 y 2. el estado 3 en si forma un conjunto cerrado y en consecuencia es absorbente.
También se puede decir que el estado 3 forma una cadena irreducible.
𝟏 𝟏 𝟏
1
𝟒 𝟑 Ejemplo de cadena de Markov.
𝟏 𝟏
𝟒 2 3 𝟐
𝟐 0

𝟏 𝟏
𝟑 𝟑
Taha, H. (2011). Investigación de Operaciones. [Diapositivas de Power Point].Recuperado el 31 de Octubre de 2019, de
http://moodle.itve.mx/pluginfile.php/35080/mod_resource/content/1/Cadenas%20de%20Markov.pdf
 Probabilidad de transiciones
estacionarias de n pasos
Probabilidad de transiciones estacionarias de n pasos

Se define p (n) ij como la probabilidad de que la cadena esté en el


estado Ej después de n pasos, dado que la cadena empezó en el
estado Ei. Se tiene que

𝑷𝒊𝒋𝒏 = 𝑷 𝑿𝒏 = 𝒋 𝑿𝟎 = 𝒊 )

por la propiedad markoviana se tiene que


𝒎

𝑷𝒊𝒋𝒏 = ෍ 𝑷 (𝑿𝒏 = 𝒋, 𝑿𝒏−𝟏 = 𝒌 | 𝑿𝟎 = 𝒊)


𝒌=𝟏

para n ≥ 2, ya que la cadena debe haber pasado por uno de los


m posibles estados en la etapa n − 1
NOTA: Se tiene la siguiente igualdad, para tres posibles sucesos

A, B y C : P (A ∩ B | C) = P (A | B ∩ C) · P (B | C)

Si se sustituye Entonces

A → (Xn = j)
B → (Xn−1 = k)
C → (X0 = i)
Usando la propiedad markoviana nuevamente. La ecuación
anterior se denomina de Chapman-Kolmogorov.

Haciendo n igual a 2, 3,... se obtiene que las matrices con esos


elementos son

ya que p ik 𝑃 𝑖𝑘 2 son los elementos de 𝑇 2 y así sucesivamente.


Así, [𝑃 𝑖𝑗 (𝑛) ] = 𝑇 𝑛 .
Ejemplo.

En una cierta región el tiempo atmosférico sigue la siguiente secuencia: Un


día se denomina soleado (S) si el sol luce más de la mitad del día, y se
denomina nublado (N), si lo hace menos. Por experiencia, se sabe que si
hay un día nublado, es igual de probable que el día siguiente sea también
nublado. Si el día es soleado hay una probabilidad de 2/3 de que sea
también soleado.

1. Construye la matriz de transición T de este proceso.


2. Si hoy está nublado, ¿cuál es la probabilidad de que dentro de tres días
esté también nublado? ¿y de que esté soleado?

Aguilera, N. (Diciembre 2002). Cadenas de Markov. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://www.oma.org.ar/invydoc/docs/markov.pdf
3. Calcula T5 y T10. ¿Cuál es el comportamiento de T n cuando n → ∞?
¿Cómo se comporta p(n) cuando n → ∞? ¿Depende el límite de p(0)?

(1) Asumimos que el proceso es markoviamo y que el tiempo sólo


depende del día anterior. Se tiene una cadena de Markov con dos
estados: E1 ≡ Día nublado N, E2 ≡ Día soleado S. La matriz de
transición es:

Es decir,
N S
N 𝟏 𝟏 𝟏 𝟏
𝟐 𝟐 𝟐 𝟐
T= 𝟏 𝟐 .
𝟑 𝟑
S 𝟏 𝟐
𝟑 𝟑
(2) Empezando los pasos a partir del día actual, se tiene que

𝒑(𝟎) = (𝑷𝟏(𝟎) 𝑷𝟐(𝟎) ) = (1 0)

De este modo, si hoy está nublado, dentro de tres días, se tiene


que
3
1 1
𝑷𝟑 = 𝑷𝟎 𝑻𝟑 = (10) 2 2 =
1 2
3 3

𝟐𝟗 𝟒𝟑
𝟕𝟐 𝟕𝟐 𝟐𝟗 𝟒𝟑
= (10) 𝟒𝟑 𝟔𝟓 =( ) = (0,403 0,597)
𝟏𝟎𝟖 𝟏𝟎𝟖 𝟕𝟐 𝟕𝟐

Así, la probabilidad de que haya un día nublado en el tercer día es P1


29 43
𝑃1(3) = y que sea soleado es 𝑃2(3) = .
72 72
𝟏 𝟏 𝟓
𝑻𝟓 = 𝟐
𝟏
𝟐
𝟐
𝟎,𝟒𝟎𝟎𝟖
= 𝟎,𝟑𝟗𝟗𝟗𝟓 𝟎,𝟔𝟎𝟎𝟎𝟓
𝟎,𝟓𝟗𝟗𝟗𝟐
(3) 𝟑 𝟑
𝟏 𝟏 𝟏𝟎
𝑻𝟏𝟎 = 𝟐
𝟏
𝟐
𝟐
𝟎,𝟒
= 𝟎,𝟒𝟎𝟎𝟎𝟎
𝟎,𝟔𝟎𝟎𝟎𝟎
𝟎,𝟔
𝟑 𝟑
Cálculos así se facilitan bastante usando programas tipo MatLab, de modo que

𝟎,𝟒 𝟎,𝟔
𝑻𝒏 𝟎,𝟒 𝟎,𝟔
=𝑸

De este modo,

𝒏 𝟎 𝒏 𝟎 𝟎 𝟎,𝟒 𝟎,𝟔
𝑷 = 𝑷 𝑻 = (𝑷𝟏 + 𝑷𝟐 ) 𝟎,𝟒 𝟎,𝟔
=
𝟎 𝟎 𝟎 𝟎
= ( (𝑷𝟏 + 𝑷𝟐 ) 0,4 (𝑷𝟏 + 𝑷𝟐 ) 0,6 ) =

= (0,4 0,6).

𝟎 𝟎
Ya que 𝑷𝟏 + 𝑷𝟐 = 1.

Se observa que cuando n → ∞ p(n) no depende de donde se parte: p(0)


Estado estable
CONCEPTO

El termino probabilidad de estado estable significa


que la probabilidad de encontrar el proceso es cierto
estado después de un numero grande de transiciones
es independiente de la distribución de probabilidad inicial
definida para los estados. Es importante observar que la
probabilidad de estado estable no significa que el proceso se
establezca en un estado.

Aguilera, N. (Diciembre 2002). Cadenas de Markov. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://www.oma.org.ar/invydoc/docs/markov.pdf
ESTADO ESTABLE

Las cadenas de Markov poseen una propiedad notable en cuanto a que


tienden a aproximarse a lo que se llama estado estable.

El estado estable se determina resolviendo la ecuación 𝜋 𝑃 = 𝜋, añadiendo


la ecuación

෍ 𝝅𝑱 = 𝟏
𝑱=𝟎
Para n grande, 𝑃𝑛 tiende a una matriz con renglones idénticos. Esto significa
que después de un largo tiempo, la cadena de Markov se estabiliza, e
(independientemente del estado inicial i) hay una probabilidad 𝜋j de que se
esta en el estado j.

El vector 𝜋 = [𝜋1, 𝜋2…. 𝜋 n] se llama distribución estable o distribución de


equilibrio, para la cadena de Markov. Para una cadena determinada con
matriz de transición P, ¿Cómo se puede hallar la distribución de probabilidad
de estado estable? A partir del teorema 1, se observa que para n grande y
toda i,

Pij (n +1) ≅ Pij (n) ≅ 𝜋 𝑗

Puesto que Pij (n +1) = (región de i de 𝑃𝑛 )(columna j de p ), se podría escribir

Pij (n +1) = σ𝑲=𝒔


𝒌=𝟏 𝑷𝒊𝒋 𝒏 𝑷𝒌𝒋
Si n es grande, sustituyendo la ecuación se obtiene:

𝑲=𝒔

𝝅𝒋 = ෍ 𝝅𝒌 𝑷𝒌𝒋
𝒌=𝟏

En forma de matriz, se podría escribir como :

𝝅𝐩

Infortunadamente, el sistema de ecuaciones especificado en


tiene un número infinito de soluciones, debido a que el rango
de la matriz p siempre resulta ser ≤ s-1. Para obtener los
valores únicos de la probabilidad de estado estable, observe
que para cualquier y cualquier n y cualquier i,

𝒑𝒊𝟏 (𝐧) + 𝒑𝒊𝟐(𝒏)+⋯ + 𝑷 𝒊𝒔 𝒏 = 𝟏


PROBABILIDADES DE ESTADO ESTABLE
En una cadena ergódica, las probabilidades de estado estable se definen como

𝟕 𝑻𝒋 = 𝒍𝒊𝒎 a;𝒏 , ] =𝟎,𝟏,𝟐, …


𝒏→∞

Estas probabilidades, las cuales son independientes de {a)°I}, se pueden


determinar de las ecuaciones
w =wP σ𝒋 𝝅𝒋 = 𝟏

(Una de las ecuaciones en 𝝅 = 𝝅 P es redundante). Lo que 𝝅 = 𝝅 P dice es


que las probabilidades 𝝅 permanecen sin cambiar después de una
transición adicional, y por esta razón representan la distribución de estado
estable. Un subproducto directo de las probabilidades de estado estable es la
determinación del número esperado de transiciones antes de que el sistema
regrese a un estado j por primera vez. Esto se conoce como tiempo medio del
primer retorno o tiempo medio de recurrencia, y se calcula en una cadena de
Markov de n estados como
𝟏
𝝁 𝒊𝒋 = 𝝅
, j = 1,2,…, 𝒏
EJEMPLO
En la recepción de una empresa se emplean dos conmutadores que funcionan
continuamente, excepto cuando tienen daños. El tiempo requerido para reparar
un conmutador tiene una distribución exponencial como media de medio día.
Una vez se repara, el tiempo que transcurre hasta el siguiente daño tiene
distribución exponencial con media de un (1) día. Estas distribuciones son
independientes. Defina la variable aleatoria X(t’) como X(t’) = número de
conmutadores dañados en el tiempo t’; tasa de transición total hacia afuera de
cada estado.
𝒒𝟎 = 𝒒𝟎𝟏 = 𝟐
𝒒𝟏 = 𝒒𝟏𝟎 + 𝒒𝟏𝟐 = 𝟑
𝒒𝟐 = 𝒒𝟐𝟏 = 𝟐

Sustituyendo todas las tasas en las ecuaciones de estado estable dadas se obtiene:

Ecuación de balance para el estado 𝟎: 𝟐𝝅𝟎 = 𝟐𝝅𝟏


Ecuación de balance para el estado 1: 𝟑𝝅𝟎 = 𝟐𝝅𝟎 + 𝟐𝝅𝟐
Ecuación de balance para el estado 2: 𝟐𝝅𝟐 = 𝝅𝟏
Las probabilidades suman 1: 𝝅𝟎 + 𝝅𝟏 + 𝝅𝟐 = 𝟏
Cualquiera de las ecuaciones de balance se puede eliminar como
redundante y la solución simultánea de las ecuaciones restantes da la
distribución del estado estable como:

𝟐 𝟐 𝟏
𝝅𝟎 , 𝝅 𝟏 , 𝝅𝟐 = ቀ , , ቁ
𝟓 𝟓 𝟓

Se concluye entonces que los dos conmutadores estarán dañados


simultáneamente 20% del tiempo y estará dañado un conmutador otro
40%.

Carro, R. (2009).Investigación de Operaciones en Administración. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://nulan.mdp.edu.ar/1851/1/01464.pdf
 Casos especiales ( cadenas
absorbentes, cadenas cíclicas).
cadenas absorbentes

Es un estado a partir de la cual existe cero probabilidad de hacer


una transición fuera de ese estado, que contiene al menos un
estado que es posible llegar a un número de etapas
comenzando en cualquier estado no absorbente.

En una cadena de Markov un conjunto C de estados se


denomina absorbentes si el sistema, pertenece indefinidamente.
Un ejemplo especial de un conjunto cerrado es un estado
particular 𝐸𝑗 que tenga una probabilidad de transición 𝑃𝑖𝑗 = 1 .
En este caso 𝐸𝑗 se denomina estado absorbente.

Carro, R. (2009).Investigación de Operaciones en Administración. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://nulan.mdp.edu.ar/1851/1/01464.pdf
Todos los estado de una cadena irreducible deben
formar un conjunto cerrado y ningún otro subconjunto
puede ser cerrado.

Los estados absorbentes tendrás sumas de


probabilidades que con el correr del tiempo llegarán a
ser cero, todo esto debido a que hay estados que tiene
probabilidad 1 y por ende los demás estados tenderán
a llegar a esta clase de estados.
CONCEPTO DE CADENA ABSORBENTE

Una cadena de Markov es absorbente cuando alguno


de sus estados son Absorbentes y el resto son
transitorios.

Si Q es finita y absorbente, los elementos que la


componen pueden ser reordenados de la siguiente
manera:

Q = Estados Transistorios (S-m) x (s-m)


Q´ R R = Transiciones de estados transitorios a
Q= ( O I ) estados absorbentes.
O = Matriz Nula
I = Matriz Identidad de m x m
RESULTADOS SOBRE CADENAS

Proposición: El numero medio de etapas que se


estar en el estado transitorio jϵS antes de la
absorción, suponiendo que empezamos en el estado
transitorio iϵS, viene dado por el elemento (i,j) de
-1
(I-Q´)

Nota: La- 1etapa inicial también se cuenta, es decir, en la diagonal de


(I - Q´) todos los elementos son siempre mayores o iguales que 1
RESULTADOS SOBRE CADENAS

Proposición: La probabilidad de ser absorbido por


un estado absorbente jϵS, suponiendo que
empezamos en el estado transitorio iϵS, viene dado
por el elemento (i,j) de
-1
(I - Q´) R

que se denomina matriz fundamental de la cadena


de Markov.
EJEMPLO

CADENA DE MARKOV ABSORBENTE

En un juego participan dos jugadores, A y B. En cada turno, se


lanza una moneda al aire. Si sale cara, A le da 1 € a B. Si sale
cruz, B le da 1 € a A. Al principio, A tiene 3 € y B tiene 2 €. El
juego continúa hasta que alguno de los dos se arruine.
Calcular:

 La probabilidad de que A termine arruinándose.


 La probabilidad de que B termine arruinándose.
 El número medio de tiradas que tarda en acabar el juego.

Rincón, L. (Enero de 2011). Fciencias. [Presentación de Power Point]Recuperado el 31 de Octubre de 2019, de


http://lya.fciencias.unam.mx/lars/libros/procesos.pdf
 Probabilidad de que A termine arruinándose.

La ruina de A está representada por el estado 0, que es el 2º estado


absorbente. Como empezamos en el 3er estado transitorio (A empieza
con 3 €), debemos consultar la 3ª fila, 2ª columna de (I–Q’)–1R, que
nos da una probabilidad de 0,4 de que A empiece con 3 € y termine
en la ruina.

 Probabilidad de que B termine arruinándose

Como es el suceso contrario del apartado a), su probabilidad será 1–


0,4=0,6. También podríamos haber consultado la 3ª fila, 1ª columna
de (I–Q’)–1R.
 Número medio de tiradas que tarda en acabar el juego

Sumamos los números medios de etapas que se estará en


cualquier estado transitorio antes de la absorción, suponiendo
que empezamos en el 3er estado transitorio. Dichos números
medios son los que forman la 3ª fila de la matriz (I–Q’)–1. El
promedio es: 0,8+1,6+2,4+1,2=6 tiradas.

 Nota:
Si observamos la 1ª columna de (I–Q’)–1R, vemos que los valores van
creciendo. Esto se debe a que, cuanto más dinero tenga al principio
A, más probabilidad tiene de ganar el juego.
CADENAS CÍCLICAS

 un ciclo es un camino cerrado entre estados recurrentes

 para que una cadena sea cíclica debe cumplirse que

 tenga por lo menos un ciclo

 sea posible entrar en el ciclo


0.5
S1

0.2 0.3

S2 S3

Carro, R. (2009).Investigación de Operaciones en Administración. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://nulan.mdp.edu.ar/1851/1/01464.pdf
𝑺𝟏 𝑺𝟐 𝑺𝟑
𝑺𝟏 . 𝟓 .𝟐 .𝟑 NO ES ERGODICA:
𝑺𝟐 𝟎 𝟎 𝟏 ES REDUCIBLE EN (S2, S3) Y EN (S1)
𝑺𝟑 𝟎 𝟏 𝟎

Número de intentos promedio que se realizan para alcanzar el ciclo:


• Se supone al ciclo como un estado absorbente:

𝑺𝟐 − 𝑺𝟑 𝐒𝟏
𝑺𝟐 − 𝑺𝟑 𝟏 𝟎
𝑺𝟏 .𝟓 .𝟓

I - N =[ 1] – [.5] = [.5]
( I − N )−𝟏 = [2]
( I − N )−𝟏 . 1 = 2
A largo plazo (régimen permanente):

 el sistema es cíclico

 el porcentaje del tiempo que pasa en cada estado se calcula


con el procedimiento visto para régimen permanente.Escriba
aquí la ecuación.

.𝟓 .𝟐 .𝟑
[𝒑(𝟏) 𝒑(𝟐) 𝒑(𝟑)] 𝟎 𝟎 𝟏 = 𝒑(𝟏) 𝒑(𝟐) 𝒑(𝟑)
𝟎 𝟏 𝟎

𝒑 𝟏 . 𝟎. 𝟓 = 𝒑 𝟏 𝒑(𝟏) = 𝟎
𝟐. 𝒑 𝟐 + 𝒑 𝟑 = 𝒑 𝟑 𝒑(𝟐) = 𝟎. 𝟓
𝒑 𝟏 + 𝒑 𝟐 + 𝒑 𝟑 = 𝟏 𝒑(𝟑) = 𝟎. 𝟓
 Uso de software
Para la realización de ejercicios de la cadena de Markov podemos hacer
Uso del programa Excel el cual nos brinda una plantilla en donde podemos
Realizar los ejercicios con mayor rapidez y mayor facilidad. Como por
ejemplo en el siguiente ejemplo que dejare a continuación:
Ejemplo.

Para determinar la distribución de probabilidad de estado estable del problema


del jardinero con fertilizante, tenemos

.𝟑 .𝟔 .𝟏
𝝅𝟏 𝝅𝟐 𝝅𝟑 = 𝝅𝟏 𝝅𝟐 𝝅𝟑 .𝟏 .𝟔 .𝟑
. 𝟎𝟓 . 𝟒 . 𝟓𝟓

𝝅𝟏 = .3𝝅𝟏 +. 𝟏𝝅𝟐 +. 𝟎𝟓𝝅𝟑


𝝅𝟐 = .6𝝅𝟏 +. 𝟔𝝅𝟐 +. 𝟒𝝅𝟑
𝝅𝟑 = .1𝝅𝟏 +. 𝟑𝝅𝟐 +. 𝟓𝟓𝝅𝟑
𝝅𝟏 + 𝝅𝟐 + 𝝅𝟑 = 𝟏

Taha, H. (2011). Investigación de Operaciones. [Diapositivas de Power Point].


Recuperado el 31 de Octubre de 2019, de
http://moodle.itve.mx/pluginfile.php/35080/mod_resource/content/1/Cadenas%20de%20Markov.pdf
La Siguiente figura representa el ejemplo anterior del jardinero.

La cual calcula las probabilidades absolutas y de estado constante de n pasos de cualquier cadena de
Markov. Los pasos son auto explicativos. En el paso 2a, puede invalidar los códigos de estado
preestablecidos (1,2,3,...) por un código de su elección, y luego hacer clic en el botón ubicado en la
celda L2. Los nuevos códigos se transferirán automáticamente a través de la hoja de cálculo cuando
ejecute el paso 4.

Hoja de cálculo Excel para realizar los cálculos de cadena de Markov (archivo excelMarkovChanins.xls )

Taha, H. (2011). Investigación de Operaciones. [Diapositivas de Power Point].


Recuperado el 31 de Octubre de 2019, de
http://moodle.itve.mx/pluginfile.php/35080/mod_resource/content/1/Cadenas%20de%20Markov.pdf
CONCLUSIÓN

Para concluir puedo decir que las cadenas de Markov son una
herramienta que nos permite hacer análisis sobre el estudio de
los comportamientos de ciertos sistemas en ciertos periodos
que pueden ser cortos o largos. Además se tiene una relación
con las probabilidades absolutas. Pero sin embargo lo más
importante es el estudio del comportamiento sistemas a largo
plazo, cuando el número de transiciones tiene al infinito.
BIBLIOGRAFIA

Aguilera, N. (Diciembre 2002). Cadenas de Markov. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://www.oma.org.ar/invydoc/docs/markov.pdf

Rincón, L. (Enero de 2011). Fciencias. [Presentación de Power Point]Recuperado el 31 de Octubre de 2019, de


http://lya.fciencias.unam.mx/lars/libros/procesos.pdf

Carro, R. (2009).Investigación de Operaciones en Administración. [Presentación de Power Point].


Recuperado el 31 de Octubre de 2019, de http://nulan.mdp.edu.ar/1851/1/01464.pdf

Taha, H. (2011). Investigación de Operaciones. [Diapositivas de Power Point].


Recuperado el 31 de Octubre de 2019, de
http://moodle.itve.mx/pluginfile.php/35080/mod_resource/content/1/Cadenas%20de%20Markov.pdf

Вам также может понравиться