Академический Документы
Профессиональный Документы
Культура Документы
Cadenas de
Markov
Profesor: Integrantes:
Guerrero Jairo Daniel Rojas C.I 23.500.863
Anderson Contreras C.I. 24.707.936
Slin Orta C.I. 25.393.322
, con .
t es el parmetro que se asocia al tiempo y X(t) representa el estado del proceso
en el instante t.
Ejemplo:
parada, entonces y .
Si X(t) es el nmero de llamadas a un nmero de telfono hasta el instante
de tiempo t, entonces y .
Definicin
Si T es un conjunto numerable, entonces el proceso estocstico se dice que es
en tiempo discreto.
Si T es un intervalo, entonces el proceso estocstico se dice que es en tiempo
continuo.
Definicin
Se llama camino muestral a una muestra de la variable aleatoria X(t) para cada
valor de t.
Definicin
Un proceso estocstico en tiempo continuo se dice que es de incrementos
independientes (i.i.) o de renovacin, si para valores
se tiene que
Definicin
Note que las son los elementos de la matriz P(2) , pero tambin debe de
Estado ergdico
Un estado bastante importante es aquel que es recurrente, no nulo y aperidico.
Recibe el nombre de ergdico. Los estados ergdicos son importantes en la
clasificacin de cadenas y para probar la existencia de distribuciones de
probabilidad lmite.
Clasificacin de cadenas
En esta seccin se definen propiedades de las cadenas que, en realidad, son
propiedades comunes de los estados de la cadena.
Cadenas irreducibles
Una cadena irreducible es aquella en la que todos los estados son alcanzables
desde cualquier otro estado de la cadena en un nmero finito de pasos. Eso
implica que se puede llegar a cualquier estado Ej desde otro estado Ei esto es p
(n) ij > 0, para algn nmero entero n. Una matriz A = [aij ] se dice que es
positiva si a(n) ij > 0 para todos los i, j. Una matriz de transicin T se dice que es
regular si existe un nmero entero N tal que T N es positivo. Una cadena regular
obviamente es irreducible, sin embargo, lo contrario no tiene por qu ser
necesariamente cierto.
Conjuntos cerrados
Una cadena de Markov puede contener algunos estados que sean recurrentes,
otros que sean transitorios y otros que sean absorbentes. Los estados
recurrentes pueden ser parte de subcadenas cerradas. Un conjunto de estados C
en una cadena de Markov se dice que es cerrado si cualquier estado dentro de C
puede alcanzarse desde cualquier otro estado de C y ningn otro estado fuera de
C puede ser alcanzado desde cualquier estado dentro de C. As una condicin
necesaria para que esto ocurra es que pij = 0 Ei C, Ej / C Los estados
absorbentes son cerrados con slo un elemento. Se puede ver que un
subconjunto cerrado es l mismo una subcadena irreducible de una cadena de
Markov completa.
Cadenas ergdicas
Se tena que todos los estados en una cadena irreducible pertenecen a la misma
clase. Si todos los estados son ergdicos, esto es, recurrentes, no nulos y
aperidicos entonces se define la cadena como ergdica.
Tiempo medio de primera pasada.
Con frecuencia es conveniente poder hacer afirmaciones en trminos de probabilidades sobre el nmero
de transiciones que hace el proceso al ir de un estado i a un estado j por primera vez. Este lapso se llama
tiempos de primera pasada al ir del estado i al estado j. cuando J=i, esta tiempo de primer paso es justo el
nmero de transiciones hasta que el proceso regresa al estado inicial i. En este caso, el tiempo de primer
paso se llama tiempo de recurrencia para el estado i.
Cadenas absorbentes
Se dice que un estado es absorbente si es cero la probabilidad de hacer una transicin fuera de ese
estado. Por tanto, una vez que el sistema hace una transicin hacia un estado absorbente, permanece en
el siempre
La matriz fundamental es muy til para el anlisis y solucin de situaciones en las cuales aparecen
estados absorbentes.
3. De lo que ha quedado de la matriz de transicin en el paso anterior, dividirlo en dos partes: N que ser
la parte no absorbente y A que contendr los estados absorbentes
U=I-N
X=U-1
Donde X representa la inversa de U, la cual se obtiene por algunos mtodos como el Gauss- Jordan.
EJEMPLO
American Airlines Christmas Tree Farm posee una parcela de tierra con 5000 rboles de hoja perenne.
Cada ao American Airlines permite a los minoristas de rboles de Navidad que seleccionen y corten
rboles para su venta a clientes individuales. American Airlines protege a los rboles pequeos (por lo
general, menos de 1.20 de alto) de modo que puedan estar disponibles para su venta en aos futuros. En
la actualidad 1500 rboles estn clasificados como rboles protegidos, mientras los restantes 3500 estn
disponibles para ser cortados. Sin embargo, aunque un rbol est disponible para cortarse en un ao
dado, puede no ser seleccionado para cortarse hasta aos futuros. La mayora de los rboles no cortados
en un ao dado viven hasta el ao siguiente, pero algunos rboles enfermos se pierden cada ao.
Al ver la operacin de rboles de Navidad de American Airlines como un Proceso de Markov con periodos
anuales, definimos los siguientes cuatro estados:
Alternativas de solucin.
Una vez analizado el proceso actual, conociendo el flujo de informacin, es importante plantear una serie
de alernativas que nos permitan llegar a la solucin optima del problema.
Cadenas errticas
Una cadena de Mrkov se dice irreducible si se cumple cualquiera de las
siguientes condiciones (equivalentes entre s):
Desde cualquier estado de E se puede acceder a cualquier otro.
Todos los estados se comunican entre s.
C(x)=E para algn xE.
C(x)=E para todo xE.
El nico conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son
ejemplos de cadenas de Mrkov irreducibles.
Cadenas positivo-recurrentes
Una cadena de Mrkov se dice positivo-recurrente si todos sus estados son
positivo-recurrentes. Si la cadena es adems irreducible es posible demostrar
que existe un nico vector de probabilidad invariante y est dado por:
Cadenas regulares
Una cadena de Mrkov se dice regular (tambin primitiva o ergdica) si existe
alguna potencia positiva de la matriz de transicin cuyas entradas sean todas
estrictamente mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transicin de la
cadena se tiene que:
donde W es una matriz con todos sus renglones iguales a un mismo vector de
probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena.
En el caso de cadenas regulares, ste vector invariante es nico.
Cadenas absorbentes
Una cadena de Mrkov con espacio de estados finito se dice absorbente si se
cumplen las dos condiciones siguientes:
La cadena tiene al menos un estado absorbente.
De cualquier estado no absorbente se accede a algn estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:
Su matriz de transicin siempre se puede llevar a una de la forma
donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz
identidad, 0 es la matriz nula y R alguna submatriz.
Para una cadena de Mrkov continua con un nmero finito de estados puede
definirse una matriz estocstica dada por: