Академический Документы
Профессиональный Документы
Культура Документы
INTRODUCCIN
Un proceso o sucesin de eventos que se desarrolla en el tiempo en el
cual el resultado
en cualquier etapa contiene algn elemento que depende del azar
se denomina proceso aleatorio o proceso estocstico. Por ejemplo, la
sucesin podra ser las condiciones del tiempo en Paran en una
serie de das consecutivos: el tiempo cambia da a da de una
manera que en apariencia es algo aleatoria. O bien, la sucesin
podra consistir en los precios de las acciones que cotizan en la bolsa
en donde otra vez interviene cierto grado
de aleatoriedad.
Un ejemplo simple de un proceso estocstico es una sucesin de
ensayos de Bernoulli, por ejemplo, una sucesin de lanzamientos de
una moneda. En este caso, el resultado en cualquier etapa es
independiente de todos los resultados previos (esta condicin de
independencia es parte de la definicin de los ensayos de Bernoulli).
Sin embargo, en la mayora de los procesos estocsticos, cada
resultado depende de lo que sucedi en etapas anteriores del
proceso. Por ejemplo, el tiempo en un da determinado no es
aleatorio por completo sino que es afectado en cierto grado por
el tiempo de das previos. El precio de una accin al cierre de
cualquier da depende en cierta medida del comportamiento de la
bolsa en das previos.
El caso ms simple de un proceso estocstico en que los resultados
dependen de otros, ocurre cuando el resultado en cada etapa slo
depende del resultado de la etapa anterior
y no de cualquiera de los resultados previos. Tal proceso se
denomina proceso de Markov o cadena de Markov (una cadena de
eventos, cada evento ligado al precedente) Estas cadenas reciben
su nombre del matemtico ruso Andrei Andreevitch Markov
(1856-1922). Como mencionamos antes, estas cadenas tiene
memoria,
recuerdan
el ltimo evento y eso condiciona las
posibilidades de los eventos futuros. Esto justamente
las distingue de una serie de eventos independientes como el hecho
de tirar una moneda.
Este tipo de proceso presenta una forma de dependencia
simple, pero muy til en muchos modelos, entre las variables
aleatorias que forman un proceso estocstico. Se utilizan, por
ejemplo, para analizar patrones de compra de deudores
morosos, para planear necesidades de personal, para analizar el
reemplazo de un equipo, entre otros.
PROCESOS ESTOCSTICOS
En el estudio de las variables aleatorias realizado hasta ahora se han
explorado las caractersticas aleatorias del fenmeno pero se ha
mantenido una premisa por defecto, que esas caractersticas aleatorias
permanecen constantes a travs del tiempo. Al incluir en el estudio la
presencia de la variable determinstica tiempo se est considerando
que, de alguna forma, la variable aleatoria depende del tiempo. En
otras
palabras,
la
variable
aleatoria depender del fenmeno
probabilstico y del tiempo. En consecuencia, cualquier funcin que se
establezca en trminos de la variable aleatoria, como lo son la funcin
de distribucin o la funcin de densidad, sern tambin dependientes del
tiempo.
Uno de los objetivos de este captulo es construir un modelo que nos
permita explicar la estructura y prever la evolucin, al menos a corto
plazo, de una variable que observamos a lo largo del tiempo. La variable
observada puede ser econmica (I.P.C., demanda de un producto,
existencias en un determinado almacn, etc...), fsica (temperatura de un
proceso, velocidad del viento en una central elica, concentracin en la
atmsfera de un contaminante, etc..) o social (nmero de nacimientos,
votos de un determinado partido, etc..). Supondremos a lo largo del tema
que los datos se obtienen en intervalos regulares de tiempo (horas, das,
aos,..)
y el objetivo es utilizar la posible inercia en el
comportamiento de la serie con el fin prever su evolucin futura. As, una
serie temporal ser una sucesin de valores de una variable obtenidos de
manera secuencial durante el tiempo.
CADENAS DE MARKOV
Definicin
Una cadena de Markov es una sucesin de ensayos similares u
observaciones en la cual
cada ensayo tiene el mismo nmero finito de resultados
posibles y en donde la probabilidad de cada resultado para un
ensayo
dado
depende
slo
del
resultado
del ensayo
inmediatamente precedente y no de cualquier resultado previo.
Propiedad de Markov: Dada una secuencia de
variables aleatorias
tales que el
valor de
X1 , X 2 , X 3
,...... ,
P(X n 1 x n 1 /X n x n , X n 1 xn 1 ,....X 2 x 2 , X 1 x1 )
P(X n 1 x n 1 /X n x n )
Donde
xi es el estado del proceso en el instante i.
Esta identidad es la denominada propiedad de Markov: El estado en t
+ 1 slo depende
del estado en t y no de la evolucin anterior del sistema
Matriz de transicin
Al trabajar con cadenas de Markov, a menudo es til pensar la
sucesin de ensayos
como experimentos efectuados en cierto sistema fsico, cada
resultado dejando a este sistema en cierto estado.
Por ejemplo, consideremos una sucesin de elecciones polticas en
cierto pas: el sistema podra tomarse como el pas mismo y cada
eleccin lo dejara en cierto estado,
es decir en el control del partido ganador. Si slo hay dos
partidos polticos fuertes, llamados A y B, los que por lo regular
controlan el gobierno, entonces podemos decir que el pas se
encuentra en el estado A o B si el partido A o B ganara la eleccin.
Cada ensayo (o sea cada eleccin), coloca al pas en uno de los
dos estados A o B. Una sucesin de 10 elecciones podra producir
resultados tales como los siguientes:
A, B, A, A, B, B, B, A, B,
B
La primera eleccin en la sucesin deja en el poder al partido A, la
segunda fue ganada por el partido B, y as sucesivamente, hasta que
la dcima eleccin la gane el partido B. Supongamos que las
probabilidades de que el partido A o B ganen la prxima eleccin son
determinadas por completo por el partido que est en el poder
ahora. Por ejemplo podramos tener las probabilidades siguientes:
Si el partido A est en el poder, existe una probabilidad de
1/4
A
2/
3
3/
4
1/
3
Definicin:
Consideremos un proceso de Markov en que el sistema posee n estados
posibles, dados por los nmeros 1, 2, 3, ., n. Denotemos pij a la probabilidad de que
el sistema pase al estado j despus de cualquier ensayo en donde su estado era i antes
del ensayo. Los nmeros pij se denominan probabilidades de transicin y la matriz nxn
P pij se conoce como matriz de transicin del sistema
Observaciones:
1) La suma pi1 pi 2 ..... pin 1 . Esta suma representa la probabilidad de que el
sistema pase a uno de los estados 1, 2, ., n dado que empieza en el estado i. Ya que
el sistema ha de estar en uno de estos n estados, la suma de probabilidades debe ser
igual a 1. Esto significa que los elementos en cualquier rengln de la matriz
de transicin deben sumar 1.
2) Cada elemento pij 0
Ejemplo: una cadena de Markov como modelo para el ADN.
Es improbable que una secuencia aleatoria de A,C,G y T sea un buen modelo para el
patrn de nucletidos en una secuencia gnica.
Una cadena de Markov con {A, T, G y C} podra ser una mejor aproximacin a la
realidad: las probabilidades para el nucletido en la posicin j+1 dependen del
nucletido en la posicin j. (Sin embargo, en la realidad las dependencias son ms
complejas)
La matriz de transicin P es de 4 x 4:
Aqu
ESTADO
HUMECTACIN
FABRICACIN
DESMOLDEO
APT
SCRAP
FABRICACIN
DESMOLDEO
APT
SCRAP
El proceso se define como una cadena de Markov debido a que cumple la propiedad
Markoviana de la siguiente forma:
La cantidad de materia prima que llega a un estado, depende solo de lo que sea
capas de pasar como producto bueno el estado anterior. El proceso se mira
como un proveedor que le entrega a su prximo cliente sin importar que tanto le
entrega el proveedor del nivel anterior al proveedor actual. En otras palabras lo
que llega a APT(almacn de producto terminado)solo depende de lo que le
entregue DESMOLDEO y no depende de lo que entregue HUMECTACIN.
producidas
perdidas
recibidas
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
178
180
175
178
179
176
176
180
175
179
178
178
178
179
176
176
179
177
177
177
178
179
179
180
179
178
176
176
175
179
0.25
0.13
0.16
0.25
0.25
0.26
0.16
0.25
0.25
0.22
0.24
0.18
0.25
0.22
0.17
0.23
0.14
0.18
0.25
0.22
0.27
0.2
0.17
0.19
0.17
0.24
0.23
0.2
0.22
0.15
177.75
179.87
174.84
177.75
178.75
175.74
175.84
179.75
174.75
178.78
177.76
177.82
177.75
178.78
175.83
175.77
178.86
176.82
176.75
176.78
177.73
178.8
178.83
179.81
178.83
177.76
175.77
175.8
174.78
178.85
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5330
5323.68
6.32
Da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5323.6785
5312.77
10.9
desmoldeadas
perdidas
entregadas
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
177.37
179.62
174.65
177.49
178.48
175.25
175.64
179.24
174.35
178.49
177.24
177.37
177.33
178.48
175.6
175.28
178.59
176.36
176.34
176.27
177.34
178.62
178.55
179.59
178.6
177.3
175.24
175.34
174.3
178.45
2.4
2.1
2.15
2.04
2.67
2.46
2.39
2.63
2.84
2.84
2.61
2.13
2.42
2.33
2.42
2.13
2.23
2.36
2.71
2.84
2.73
2.28
2.1
2.03
2.43
2.3
2
2.8
2.14
2
174.96
177.52
172.5
175.45
175.81
172.79
173.25
176.61
171.5
175.65
174.63
175.24
174.92
176.15
173.18
173.14
176.37
174.01
173.64
173.44
174.61
176.35
176.45
177.55
176.17
175
173.24
172.54
172.16
176.45
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5312.77
5241.27
71.51
Da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Produccin Total=
Produccin Entregada=
Produccin Perdida=
5305.1591
5289.79
15.37
toneladas
entregadas
176.52
178.78
173.81
176.61
177.7
174.55
174.73
178.47
173.57
177.73
176.48
176.69
176.54
177.67
174.94
174.44
177.73
175.64
175.56
175.34
176.62
177.91
177.79
179
177.84
176.47
174.64
174.66
173.63
177.72
Humectacin
Fabricacin
Desmoldeo Apt
Scrap
5. CALCULO DE PROBABILIDADES
Proporciones
Proporciones de Humectacin
Produccin Total=
5330
Produccin Entregada=
Produccin Perdida=
5323.68
0.999
6.32
0.001
Proporciones de Fabricacin
Produccin Total=
5323.678548
Produccin Entregada=
Produccin Perdida=
5312.77
0.998
10.90
0.002
Proporciones de Desmoldeo
Produccin Total=
5312.774
Produccin Entregada=
Produccin Perdida=
5241.267
0.987
71.50624043
0.013
5305.159114
Produccin Entregada=
Produccin Perdida=
5289.79
0.997
15.37
0.003
Proporciones de Scrap
Produccin Entregada=
Produccin Perdida=
0.010
0.990
6. MATRIZ DE TRANSICIN
Fab
APT
0.000
0.999
0.000
0.000
0.001
Fab
0.000
0.000
0.980
0.000
0.020
0.000
0.000
0.000
0.987
0.013
APT
0.000
0.000
0.000
0.997
0.003
0.010
0.000
0.000
0.000
0.990
Fab
APT
0.000
0.999
0.000
0.000
0.001
Fab
0.000
0.000
0.980
0.000
0.020
0.000
0.000
0.000
0.987
0.013
APT
0.000
0.000
0.000
0.997
0.003
0.010
0.000
0.000
0.000
0.990
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
Existe un n=3072 donde los valores de p ijn >0. esto indica que todos los estados j son
accesibles.
PT
0.000
0.000
0.000
0.000
0.010
0.999
0.000
0.000
0.000
0.000
0.000
0.980
0.000
0.000
0.000
0.000
0.000
0.987
0.997
0.000
0.001
0.020
0.013
0.003
0.990
R2
R3
R4
R5
R1=
0.000
0.000
0.000
0.000
0.010
R2=
0.999
0.000
0.000
0.000
0.000
R3=
0.000
0.980
0.000
0.000
0.000
R4=
0.000
0.000
0.987
0.997
0.000
R5=
0.001
0.020
0.013
0.003
0.990
1=
R1=
R1
R2
R3
R4
R5
0.000
0.000
0.000
0.000
0.010
R2=
0.999
0.000
0.000
0.000
0.000
R3=
0.000
0.980
0.000
0.000
0.000
R4=
0.000
0.000
0.987
0.997
0.000
1=
1R4
1R5
0.010 R5
R2=
0.999 R1
R3=
0.980 R2
R4=
0.987 R3
0.997 R4
1=
1R1
1R2
1R3
0.002
R2=
0.002
R3=
0.002
R4=
0.758
R5=
0.235
Meses
U11
425.1
U22
425.5
U33
434.2
U44
1.3
U55
4.3
Los estados Recurrentes positivos presentan u ii < inf lo cual cumple para los estados
de esta cadena de Markov.
10. Mostrar que los estados son aperidicos.
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
Matriz n=3072
P3072=
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
Se puede observar en las matrices que los valores de las probabilidades en todas las
filas permanecen iguales entre las matrices pares e impares, a dems el sistema a la
larga se estabilizo, lo que demuestra que la matriz es aperidica.
11. Polinomio caracteristico y valores propios.
H
Fab
APT
0.000
0.999
0.000
0.000
0.001
Fab
0.000
0.000
0.980
0.000
0.020
0.000
0.000
0.000
0.987
0.013
APT
0.000
0.000
0.000
0.997
0.003
0.010
0.000
0.000
0.000
0.990
Calculamos el determinante de [P - ]
0
Y()
=
0.999 0.000
0.000
0.001
0.000
0.020
0.987
0.013
0.003
0.980
0.010
0.999
0.001
0.980 0.000
0.020
0.987
0.013
0.003
=
veamos el desarrollo del segundo cofactor principal:
0.999
0.980 0.000
0.020
0.987
0.013
0.003
0.010
0.987
0.013
0.003
0.010
segundo determinante:
0.999 0.020
0.987
0.010
0.980
0.000
0.010
0.001
0.987
0.010
0.987
0.010
0.001
0.987
Tambien se calculo el polinomio caracterstico con el software MadLab para lograr una
mejor precisin:
1
0.9873
0.0221+0.0418i
0.0221-0.0418i
-0.0444
Lim
ninfinito
inicial X(0). Por lo tanto la matriz del estado estacionario L, debe tener todas las
columnas iguales a Xc.
la distribucin estacionaria tambin se puede interpretar como la proporcin de tiempo
a largo plazo que el sistema pasa en cada estado.
En nuestro caso T es la PT. Desarrollemos la operacin TX c = Xc. Recordemos que, si
hay una matriz P, el nmero real o complejo se llama valor caracterstico de P si hay
un vector v distinto de cero En Cn tal que:
Pv=v
PT
Xc
0.000
0.000
0.000
0.000
0.010
0.999
0.000
0.000
0.000
0.000
0.000
0.980
0.000
0.000
0.000
0.000
0.000
0.987
0.997
0.000
0.001
0.020
0.013
0.003
0.990
0.002
0.002
0.002
0.758
0.235
Xc
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
ninfinito
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
0.002
0.002
0.002
0.758
0.235
Pijn existe y j (j
P00
P01
P10
P11
P20
P21
P02
P12
P22
.
.
.
P0i
.
.
.
P1i
.
.
.
P2i
.
.
.
.
.
.
i
.
.
.
i
.
.
.
.
.
.
.
.
.
.
.
.
0.002
0.002
0.002
0.758
0.235
0.002
0.758
0.235
Meses
U11
425.1
U22
425.5
U33
434.2
U44
1.3
U55
4.3
Matriz original:
0.000
0.999
0.000
0.000
0.001
0.000
0.000
0.980
0.000
0.020
0.000
0.000
0.000
0.987
0.013
0.000
0.000
0.000
0.997
0.003
0.010
0.000
0.000
0.000
0.990
CONCLUSIONES
1.
Esta primera conclusin es para decir que no se concluir sobre los resultados
numricos del proceso, pues en el desarrollo del mismo se explica claramente las
respuestas obtenidas. Mi deseo es expresar conclusiones alrededor del proceso de
construccin del conocimiento y crear una inquietud a las personas que lean el
documento.
2.
se requiere de ms tiempo para poder elaborar un buen documento que sirva como
apoyo a otras personas que quieran profundizar en el modelado y explicacin de una
cadena de Markov.
3.
4.
En este problema en particular se tuvo que modelar el proceso productivo con los
datos disponibles en la empresa. No hay otros ms. Lo que nos ensea que hay que
hacer uvas de manzanas.
5.
por
los
datos
totales
de
produccin
en
cada
uno
de
los
El problema se abordo desde una perspectiva acadmica, pero siempre con el norte
de responderle a un empresario de forma tcnica y cientfica todas las inquietudes
que se generan alrededor de una cadena de Markov.
7.
las cadenas de Markov no deben abordase de una forma simple, ellas tienen una
sustentacin matemtica fuerte y unos requisitos que se deben probar.
8.
Y las cadenas que no son ninguna de las dos anteriores que implicacin tienen?
Todas estas dudas me llevan a concluir que no es solamente construir una matriz y
calcularle probabilidades de estado estable y tiempos de ocurrencia y recurrencia, las
cadenas de Markov son mucho ms.
RECOMENDACIONES
1.
2.
3.
BIBLIOGRAFA
FINITE MARKOV CHAINS, Kemeny and Snell, Edit. D.Van Nostrand Company
Inc.
Cadenas de Markov
2.
3.
4.
Anlisis de Markov
ANEXOS
Copia de los appendices: FINITE MARKOV CHAINS, Kemeny and Snell, Edit.
D.Van Nostrand Company Inc.
Copia
de
numerales
2.1,
2.2:
APLICATION
OF
PETRI
NETS
Cadenas de Markov
2.
3.
4.
Anlisis de Markov
IN