Вы находитесь на странице: 1из 1

Nombre: Denisse Mojarrango Nazareno

Curso: 5 B

Fecha: 31/01/17

CADENA DE MRKOV

Una cadena de Markov es una sucesin de ensayos similares u observaciones en la cual


cada ensayo tiene el mismo nmero finito de resultados posibles y en donde la probabilidad
de cada resultado para un ensayo dado depende slo del resultado del ensayo
inmediatamente precedente y no de cualquier resultado previo.

Ejemplo

Al trabajar con cadenas de Markov, a menudo es til pensar la sucesin de ensayos como
experimentos efectuados en cierto sistema fsico, cada resultado dejando a este sistema en
cierto estado. Por ejemplo, consideremos una sucesin de elecciones polticas en cierto
pas: el sistema podra tomarse como el pas mismo y cada eleccin lo dejara en cierto
estado, es decir en el control del partido ganador. Si slo hay dos partidos polticos fuertes,
llamados A y B, los que por lo regular controlan el gobierno, entonces podemos decir que
el pas se encuentra en el estado A o B si el partido A o B ganara la eleccin. Cada ensayo
(o sea cada eleccin), coloca al pas en uno de los dos estados A o B. Una sucesin de 10
elecciones podra producir resultados tales como los siguientes: A, B, A, A, B, B, B, A, B,
B La primera eleccin en la sucesin deja en el poder al partido A, la segunda fue ganada
por el partido B, y as sucesivamente, hasta que la dcima eleccin la gane el partido B.
Supongamos que las probabilidades de que el partido A o B ganen la prxima eleccin son
determinadas por completo por el partido que est en el poder ahora. Por ejemplo
podramos tener las probabilidades siguientes: Si el partido A est en el poder, existe una
probabilidad de que el partido A ganar la prxima eleccin y una probabilidad de de
que el partido B gane la eleccin siguiente. Si el partido B est en el poder, hay una
probabilidad de 1/3 de que el partido A gane la eleccin siguiente y una probabilidad de 2/3
que el partido B permanezca en el poder.

Вам также может понравиться