Академический Документы
Профессиональный Документы
Культура Документы
Ensayo
Cadena De Markov
..
Investigacin Operativa
Docente:
Curso:
Estudiante:
largo del tiempo. Cuando se investigan caractersticas tales como el centro y la variacin, es
importante saber si se trata de una poblacin estable o de una que est cambiando con el paso
del tiempo.
Actualmente hay una fuerte tendencia a tratar de mejorar la calidad de los bienes y
servicios, a la vez que un nmero creciente de empresas estn utilizando los mtodos
calidad se encuentra en la publicidad, as como en el gran nmero de libros y artculos que cada
vez destacan ms el tema. En muchos casos, quienes solicitan empleo (usted?) poseen una
ventaja definitiva cuando son capaces de decir a los empleadores que estudiaron estadstica y
Sea una variable aleatoria que caracteriza el estado del sistema en puntos discretos en
mala, regular o buena. Para el mes t, el proceso estocstico en esta situacin se representa como
0,
sigue: = {1, } , = 1,2,
2,
La variable aleatoria es finita porque representa tres estados: malo (0), regular (1) y
bueno (2).
Proceso de Markov. Un proceso estocstico es un proceso de Markov si un estado
futuro depende slo del estado inmediatamente anterior. Esto significa que dados los tiempos
proceso de Markov si
{ = 1 = 1 , 0 = 0 } = { = 1 = 1 }
= 1, = 1,2, . ,
0, (, ) = 1,2, ,
11 12 13 1
= { 21 22 23 2 }
1 2 3
La matriz P define una cadena de Markov. Tiene la propiedad de que todas sus
Aunque una cadena de Markov puede incluir un nmero infinito de estados, la presentacin en
este captulo se limita a slo cadenas finitas, ya que es el nico que se necesita en el texto.
(Taha, 2012)
Ejemplo (Problema del jardinero)
una prueba qumica para verificar la condicin de la tierra. Segn el resultado de la prueba, la
productividad en la nueva temporada puede ser uno de tres estados: (1) buena, (2) regular y (3)
mala. A lo largo de los aos, el jardinero ha observado que la condicin de la tierra del ao
deteriorarse o permanecer como est pero nunca mejorar. Por ejemplo, si la condicin de la
tierra es buena en este ao (estado 1) hay 20% de que no cambie el ao siguiente, 50% de
probabilidad de que sea regular (estado 2), y 30% de probabilidad de que se deteriorar a una
condicin mala (estado 3). El jardinero modifica las probabilidades de transicin P utilizando
1 . 30 . 60 . 10
1 = 2 (. 10 . 60 . 30)
3 . 05 . 40 . 55
(0) ()
iniciales (0) = , = 1,2, , , las probabilidades absolutas = { , = 1,2, , }
() = (0)
= 1
= , 0 < <
fertilizante
1 . 30 . 60 . 10
1 = 2 (. 10 . 60 . 30)
3 . 05 . 40 . 55
La condicin inicial de la tierra es buena, es decir (0) = (1,0,0). Determine las probabilidades
absolutas de los tres estados del sistema despus de 1,8 y 16 temporadas de siembra.
. 30 . 60 . 10
(1)
(1
= 0 0) (. 10 . 60 . 30) = (. 30 .60.1)
. 05 . 40 . 55
. 101753 . 525514 . 372733
(8) = (1 0 0) (. 101702 . 525435 . 372863) = ((.101753 .525514 .372733)
. 101669 . 525384 . 372863
ms evidente para .
Ello demuestra que, a medida que la cantidad de transiciones aumenta, las probabilidades
transicin de P.
transicin; es decir, = 1.
las i.
Con base en las definiciones dadas, una cadena de Markov finita no puede constar de
todos los estados transitorios porque, por definicin, la propiedad transitoria requiere
entrar a otro estado de atrapamiento y nunca volver a visitar el estado transitorio. El
considere la cadena
0 1 0 0
0 0 1 0
=( )
0 0 .3 .7
0 0 .4 .6
Los estados 1 y 2 son transitorios porque no se puede volver a entrar a ellos una vez que
los estados 3 y 4, que en cierta forma desempean el papel de un estado absorbente. Por
significa que es posible ir de cualquier estado a cualquier otro estado del conjunto en
Se dice que una cadena de Markov es ergdica si todos los estados son recurrentes y
(Quesada, 2007)
Bibliografa
Quesada, V. &. (2007). Analisis Cuantitativo con WINQSB. Cartagena: Universidad De Cartagena.
Taha, A. H. (2012). investigacion operativa. Mexico: PEARSON.
Triola, M. F. (2004). Estadisitica Novena edicion . Mexico: Pearson Educacion.