Академический Документы
Профессиональный Документы
Культура Документы
MODULO GESTIN
DE ACTIVOS
FSICOS,
INSPECCIONES Y
REEMPLAZO DE
EQUIPOS
INEGAS
Unidad 04
Introduccin a los Modelos de
Markov
Modelos de Markov
Tpicos
1. Procesos de Markov
2. Modelos de Markov
3. Simbolos en el Modelo
4. Edificacin del Modelo
5. Resolviendo los Modelos de Markov
6. Ejemplos
Tcnicas Cuantitativas de Anlisis
de Sistemas
Diagramas de Bloques de Confiabilidad (RBD)
Diagramas de rbol de Fallas (FTD)
Modelos de Markov (MM)
A B
Suministro
Controlador
De Energa
A B
Suministro
Controlador
De Energa
Los modelos de Markov son uno de los mtodos ms populares usados para el clculo
mtrico de confiabilidad. Otros mtodos populares incluyen el rbol de fallas y los
diagramas de bloques de confiabilidad. Los mtodos son diferentes y proveen diferentes
habilidades.
Tcnicas Cuantitativas de Anlisis
de Sistemas
RBD - Mejor anlisis de Confiabilidad /
Disponibilidad. Probabilidad de combinacin de
mtodos. Confuso cuando es usado en modelos de
modos de fallas mltiples.
FTD Excelente para problemas de modos de
fallas mltiples pero cada diagrama es usado para
un modo de falla. Probabilidad de combinacin de
mtodos.
MM Excelente para modos de fallas mltiples y
sistemas reparables redundantes. El mtodo puede
manejar situaciones de reparacin complicadas.
Cada mtodo tiene ventajas y desventajas dependiendo del problema a ser resuelto. Los
modelos de Markov tienen muchas ventajas que la hacen especialmente apropiadas para
sistemas redundantes y las funciones instrumentadas de seguridad ms complicadas. En el
pasado las tcnicas de Markov fueron primariamente usadas por acadmicos y profesionales
de confiabilidad renombrados porque las tcnicas de solucin fueron complicadas. Esto ha
cambiado con el uso de computadoras.
Modelos de Markov
Cuenta para Modos de Fallas
Mltiples en un dibujo.
Modeliza diferentes tasas de
reparacin para diferentes
situaciones de falla.
Cualitativamente muestra la
operacin de un sistema
tolerante a falla.
La tcnica de Markov tiene ventajas significativas que se revelan cuando las funciones
instrumentadas de seguridad van ms all de configuraciones simples no redundantes. Los
estados de fallas mltiples son mostradas en un solo dibujo. Las interrelaciones entre fallas y
reparaciones son claramente mostradas.
Suposiciones del Modelo de
Markov
Proceso de Markov Un proceso
que tiene la propiedad que el
comportamiento futuro depende slo
del estado presente y no los de los
acontecimientos pasados que lo
condujeron hasta el presente estado.
Principales suposiciones:
Sistema sin memoria
Resultado: La probabilidad de
moverse a un nuevo estado depende
solo del estado presente.
0.02
1
0.015
0.05
0
Un crculo representa un
estado, una combinacin 3
de componentes fallados y 0.005
exitosos.
0.02
1
0.015
0.05
0
Una flecha muestra la
3
probabilidad de moverse
de un estado a otro en un 0.005
incremento de tiempo
definido (modelos de
tiempo discreto).
Estado Absorbente
Un estado con flechas ingresando y saliendo es llamado Estado en Trnsito. Un estado con
solo flechas ingresando es llamado un Estado Absorbente. Un estado absorbente es usado
para modelar una falla no-reparable una vez que el modelo llega a ese estado, se queda ah.
Tipos de Modelos de Markov
Modelo Regular No
tienen estados absorbentes
Modelo Absorbente
Uno o ms estados
absorbentes
La construccin del
Modelo de Markov
frecuentemente empieza
Ok
con un estado donde todos
los equipos trabajan
t = 1 hora adecuadamente.
Un modelo de Markov frecuentemente empieza con un estado donde todos los componentes
es el sistema trabajan. Frecuentemente este estado es marcado Ok.
Se elige un incremento de tiempo para el modelo de tiempo discreto. Esta seleccin se
realiza basados en la resolucin de tiempo necesaria en los clculos de intervalo de tiempo o
periodos de los parmetros. Por ejemplo si el tiempo ms bajo de reparacin es de 4 horas, se
elige un incremento de tiempo de menos de 2 horas. Tpicamente para sistemas
instrumentados, se elige un incremento de tiempo de una hora.
Empezando
Un componente
sencillo con un modo
de falla:
t
Ok Falla
t = 0.0001
Ok Falla
Por ejemplo, una tasa de falla est dada como 0.0001 fallas por hora. Si se ha elegido un
incremento de tiempo t de una hora, la probabilidad de falla en esa hora es igual a 0.0001.
Si se da una tasa de falla de 0.876 fallas por ao, la probabilidad para una hora no es 0.876.
La tasa de falla TIENE que ser escalado a una hora.
Nota: 0.876 fallas por ao /8760 horas por ao = 0.0001 fallas por hora.
Modelos de Markov
Sistemas reparables simples
t Un modo de Falla
Ok Falla
t Ok Falla
Todas las probabilidades de transicin son aadidas tales como probabilidades de reparacin.
Por convencin, la letra griega en minscula lambda se usa para tasas de fallas, y la letra
griega en minscula mu se usa para tasas de reparacin.
Otra convencin usada en los dibujos del modelo es la eliminacin del smbolo Delta t.
Movimientos del Modelo de Markov
Permanece en un estado o
va a algn lado ms luego 0.01
de cada incremento de
tiempo Ok Falla
0.5
Por ello,
P (estar en su estado actual) =
1 P (dejar el estado actual) 0.5
0.01
0.99
Ok Falla
0.5
Un modelo de Markov de tiempo discreto representa una situacin donde el sistema est en
un estado u otro cada incremento de tiempo. Al final de cada incremento de tiempo, el
sistema puede quedar en el estado en que est o se mueve a un estado diferente. La
probabilidad de permanecer en el estado actual es siempre igual a uno menos la probabilidad
de dejar el estado.
Movimientos del Modelo de Markov
Permanece en un estado o
va a algn lado ms luego 0.02
de cada incremento de
tiempo Ok Falla
0.2
Cules son las probabilidades de
permanecer en el mismo estado
en este modelo? ?
0.02
?
Ok Falla
0.2
Por ejemplo, cules son las probabilidades de permanecer en el mismo estado en este
modelo?
Resolver el problema
Movimientos del Modelo de Markov
Permanece en un estado o
va a algn lado ms luego 0.02
de cada incremento de
tiempo Ok Falla
0.2
0.02 0.8
0.98
Ok Falla
0.2
d
Sistema Fallo
Peligroso
1
2
Los modelos de Markov pueden mostrar modos de fallas mltiples en un dibujo. Pueden
asignarse diferentes tasas de reparacin a cada modo de falla. Se hubiesen requerido dos
diagramas de rboles de fallas o dos diagramas de bloques de confiabilidad para mostrar este
mismo ejemplo.
Resolviendo un Modelo de Markov
Un modelo de Markov
puede ser resuelto para s
obtener la probabilidad de Sistema Fallo
estar en cualquier estado
Seguro
como una funcin de Ok
intervalos de tiempo de
operacin. Un modelo de 1
0 2
Markov regular puede ser
resuelto por probabilidad de
estar en algn estado. d
Puede obtenerse el nmero
Sistema Fallo
promedio de incrementos Peligroso
de tiempo para ir a otro 1
estado (MTTF) 2
Los modelos de Markov pueden ser resueltos para obtener diferentes parmetros. El modelo
puede ser resuelto para obtener la probabilidad de estar en cualquier estado como funcin del
intervalo de tiempo de operacin. Un modelo regular puede ser resuelto para obtener la
probabilidad promedio para cada estado (PFDavg para el caso de estados de fallas
peligrosas). Puede obtenerse tambin el Tiempo Promedio a cualquier falla particular
(MTTF).
Resolviendo un Modelo de Markov
0.002
2
0.002
0.02
1 0.015
0 0.05
0.005 3
0.99
Ok Falla
0.5
Al Estado 0 Al Estado 1
P=
0.5 0.5 Del Estado 1
Las probabilidades en un modelo de Markov pueden ser capturadas en una matriz. Una
matriz llamada matriz de probabilidades de transicin Estocstica captura la informacin.
Muchos la llaman la Matriz P.
Matriz de Transicin - P
0.02 0.8
0.98
Ok Falla
0.2
Al Estado 0 Al Estado 1
? ? Del Estado 0
P=
? ? Del Estado 1
Por ejemplo, cuales son los valores en la Matriz P para este modelo de Markov?
Matriz de Transicin - P
0.02 0.8
0.98
Ok Falla
0.2
Al Estado 0 Al Estado 1
P=
0.2 0.8 Del Estado 1
0.99
Ok Falla
0.5
Asumamos que
el modelo
empieza en el 0.99 0.01
punto 0 P=
0.5 0.5
Las probabilidades del estado para un nmero de pasos de tiempo dados puede ser resuelto
creando un grfico de los posibles caminos. Puede verse que la probabilidad de quedarse en
el estado 0 luego de un paso de tiempo es igual a la probabilidad de estar en el estado 0 por
la probabilidad de quedarse en el estado 0. En este caso, P0(0) = 1*0.99 = 0.99.
La probabilidad de estar en el estado 1 luego de un incremento de tiempo es 0.01
Probabilidad de Estado Paso 2
0.01 0.5
0.99
Ok Falla
0.5
0.99 0.01
P=
0.5 0.5
Este proceso continua por el segundo incremento de tiempo. Las probabilidades para cada
camino se obtienen multiplicando conforme se camina y tomando el paso 1 Y paso 2. Luego
del segundo paso de tiempo, la probabilidad total de estar en el estado 0 es la suma de los
caminos al estado 0 P0(1) = (0.9801 + 0.005) = 0.9851
Probabilidad de Estado Paso 3
0.01 0.5
0.99
Ok Falla
0.5
0.99 0.01
P=
0.5 0.5
0.99
Ok Falla
0.5
0.99 0.01
P=
0.5 0.5
El proceso continua para el cuarto incremento de tiempo. En este momento, las matemticas
se van haciendo ms complicadas y van consumiendo tiempo.
Multiplicacin de Matrices
0.01 0.5
0.99 0.01
0.99
Ok Falla P=
0.5 0.5
0.5
Estado 0 Estado 1
S= 1 0
S= 1 0
S0 x P = S1
S1 x P = S2
Se aconseja usar una hoja de clculo como Excel
Se puede realizar esto muy rpidamente usando una hoja de clculo. Excel de Microsoft
tiene una funcin de multiplicacin de matrices que puede ser usado efectivamente. Otros
programas pueden ofrecer las mismas bondades.
Soluciones en Hoja de Clculo
0.01 0.5
0.99 0.01
0.99
Ok Falla P=
0.5 0.5
0.5
0.995 0.016
0.99 0.012
0.985 0.008
0.98 0.004
0.975 0
0 1 2 3 4 5 6 0 1 2 3 4 5 6
Los resultados de la hoja de clculo pueden ser graficados rpidamente, usando las
herramientas del programa empleado.
Matriz de Estado Estacionario
0.01 0.5
0.99 0.01
0.99
Ok Falla P=
0.5 0.5
0.5
Matriz Lmite
0.99 0.01
SL = S18 = S17 * P = [0.98039 0.01961] =[0.98039 0.01961]
0.5 0.5
Clculo Directo:
0.99 0.01
[SL1 SL2] = [SL1 SL2]
0.5 0.5
En algn punto de la multiplicacin de matrices, la matriz fila resultante ser la misma que
la anterior. Cuando esto ocurre, se ha obtenido el valor de estado estacionario. Este valor
puede ser calculado directamente.
Solucin a la Matriz de Estado Estacionario
0.01 0.5
0.99 0.01
0.99
Ok Falla P=
0.5 0.5
0.5
Clculo Directo:
0.99 0.01
[SL1 SL2] = [SL1 SL2]
0.5 0.5
SL1 = 0.99 SL1 + 0.5 SL2 y
SL2 = 0.01 SL1 + 0.5 SL2 tambin
SL1 + S L2 = 1
Multiplicando las matrices se obtienen dos ecuaciones. Es tambin cierto que la suma de las
probabilidades de los estados siempre debe ser igual a uno. Con esto se obtiene la tercera
ecuacin. La solucin para las dos variables se obtiene usando dos de ellas y resolviendo.
Solucin a la Matriz de Estado Estacionario
0.01 0.5
0.99 0.01
0.99
Ok Falla P=
0.5 0.5
0.5
A SL 1 + S L 2 = 1
1. SL2 = 0.01SL1 + 0.5 SL2, Sumando da:
2. 0.5 SL2 = 0.01SL1, despejando SL2 se obtiene
3. SL2 = 0.01/0.5 SL1 = 0.02 SL1, sustituyendo en A
4. SL1 + 0.02 SL1 = 1, Resolviendo
5. SL1 = 0.98039 y SL2 = 0.01961
Los pasos para crear un modelo de Markov empieza con los mismos pasos
requeridos para hacer cualquier tipo de modelo de confiabilidad y/o seguridad:
definir qu es una falla y listar todos los modos de fallas relevantes para los
componentes del sistema.
Luego se empieza con el estado (dibujando un crculo) que representa la condicin
donde todos los componentes estn exitosamente operando.
Desde ese estado, mostrar todas las fallas de los componentes con flechas que salen
desde ese crculo (puertas de salida). Crear un check list para asegurarse que
todas las tasas de fallas han sido incluidas.
En arquitecturas tolerantes a fallas, algunos nuevos estados representarn estados
exitosos (el sistema sigue operando pero degradado). Para cada nuevo estado
donde el sistema contina siendo exitoso, listar todos los componentes que estn
operativos y los modos de fallas. Mostrar todas las fallas como flechas dejando ese
estado. Continuar realizando esto para todos los estados de xito del sistema.
Eventualmente puede el sistema fallar, parar de adicionar estados. Mirar los estados
y aadir flechas de reparacin donde esta actividad pueda ser desarrollada.
Creacin de Modelos de Markov - Ejemplo
Ejemplo Un componente sencillo con un solo modo
de falla Una bombilla elctrica
1. Falla - Cuando no fluye corriente y no se emite luz
2. Modos de Falla Quemado, un modo
3. Dibujar un crculo indicando que el bulbo est exitoso Ok
0
4. Dibujar en una salida con tasa de falla para el nico modo
de falla
Ok Falla
0 1
Para este modelo, se desea un diseo de las probabilidades de estados como funcin del
intervalo de tiempo de operacin. Esto se resuelve usando multiplicacin de matrices. Se
crea la matriz de inicio, S. Esta representa la condicin inicial del sistema. Se asume en
principio que el sistema empieza con todo trabajando, dado que se inicia normalmente en el
estado 0.
Multiplicar S x P repetidas veces. Cada multiplicacin representa un incremento de tiempo.
Para periodos largos, toma muchas operaciones (8760 para un ao si el periodo es de una
hora)
Solucin al Ejemplo de Modelo de Markov
Ejemplo de la bombilla elctrica
1. 1 falla cada ao
Entonces la tasa de falla = 1/8760 = 0.000114 fallas/hora
2. Matriz P
1-
P=
0 1
S0 = [1 0]
Para el ejemplo de la bombilla elctrica, se muestra la Matriz P.
La Matriz S es [ 1 0]
Si la bombilla falla a una tasa de una vez por ao, la tasa de falla es de 0.000114 fallas/hora.
Solucin al Ejemplo de Modelo de Markov
Ejemplo de la bombilla elctrica:
Ok Falla
0.999886 0.000114
P= 0 1
0 1
La primera hora, S0 x P = S1
[1 0 ] x 0.999886 0.000114
= [ 0.999886 0.000114 ]
0 1
Las primeras dos multiplicaciones para este ejemplo proveen las probabilidades de estado
para las primeras dos horas. Pero se necesitan intervalos de tiempo de operacin ms largos.
Solucin al Ejemplo de Modelo de Markov
Periodo de probabilidades probabilidades
Tiempo (hs) Estado 0 Estado 1
S0 1 0 Probabilidades al Estado Incial
S1 0.999886 0.000114 Probabilidades al Estado t = 1 hora
S2 0.999772 0.000228 Probabilidades al Estado t = 2 horas
S4 0.999544 0.000456
S5 0.999430 0.000570
S6 0.999316 0.000684
S7 0.999202 0.000798
S8 0.999088 0.000912
S9 0.998974 0.001026
Nota: Para matrices en Excel, se debe definir el espacio de la salida y usar Ctl+Shft+Enter
1 Probabilidad Estado 1
0.9 = Falta de fiabilidad
0.8
0.7
0.6 Solucin Analtica = 1 - e-t
0.5
0.4
0.3
0.2
0.1
0
Modelos de Markov
Sumario
Procesos de Markov
Modelos de Markov
Simbolos en el Modelo
Edificacin del Modelo
Resolviendo los Modelos de Markov
Ejemplos