Академический Документы
Профессиональный Документы
Культура Документы
1. DEFINIO
Para um dado sistema fsico, obedecendo a certas leis de probabilidades
podemos enunciar o seguinte princpio: a probabilidade de que um sistema fsico
estar num determinado estado no momento t2 pode ser deduzido a partir do
conhecimento do seu estado num qualquer momento anterior t1, e no depende
da histria do sistema antes do momento t1. Um Processo Estocstico que
represente observaes dum sistema fsico que satisfaa esta condio um
Processo de Markov.
Um caso especial de Processo de Markov uma Cadeia de Markov, que pode ser
definida como um Processo Estocstico cujo desenvolvimento pode ser tratado
como uma srie de transies entre certos valores (chamados "estados" do
processo), com a propriedade da lei de probabilidade do desenvolvimento futuro
do processo, dado que est num estado, depende apenas do estado e no de como
o processo chegou a esse estado. O nmero de estados possvel pode ser finito
ou infinito numervel
(1)
O caso que nos vai interessar ser o das Cadeias de Markov de parmetro
discreto.
Neste caso, as variveis aleatrias X0, X1,..., Xn,... so discretas, o conjunto T
discreto (T = {0,1,...,n,...}), o nmero de estados finito ou infinito numervel e
podemos substituir a equao (1) por:
P(Xm= xm | X0= x0Xm-1 = xm-1) = P(Xm= xm | Xm-1 = xm-1)
(2)
Alm disto, a funo de probabilidade de transio pode ser descrita da forma:
pj,k(m,n) = P( Xn = k | Xm = j )
(3)
isto , a probabilidade do sistema estar no estado k no momento n dado que no
momento m esteve no estado j.
O caso que vamos estudar ainda mais especial: a partir de agora vamos
considerar que a Cadeia de Markov homognea.
Diz-se que a Cadeia de Markov homognea ou estacionria se p j,k(m,n) depende
apenas da diferena n-m. Chamamos ento funo de probabilidade de transio
em n passos da Cadeia de Markov homognea a:
pj,k(n) = P( Xn+t = k | Xt = j ) = P( Xn = k | X0 = j ) , para todo o inteiro t 0
(4)
(5)
(6)
(8)
para todo j, k
(9)
(10)
3 - EQUAES DE CHAPMAN-KOLMOGOROV
Uma relao fundamental satisfeita pela funo de probabilidade de transio de uma
Cadeia de Markov homognea a chamada equao de Chapman-Kolmogorov.
(11)
Note-se que este somatrio percorre todos os estados da Cadeia de Markov (E
significa Espao dos Estados). Estas equaes mostram apenas que quando o sistema
passa dum estado j para um estado k em n passos, o sistema passar por um estado i
em u (menos de n) passos.
Vejamos agora esta equao em termos matriciais:
Podemos escrever as Equaes de Chapman-Kolmogorov matricialmente, segundo as
notaes j descritas anteriormente, da forma:
P(n) = P(u) P(n-u) , para todo o momento 0 u n
(12)
Vamos ver em termos matriciais o que acontece. Visto que a equao (12) se
verifica para todo o u, consideremos em particular u = 1. Temos ento, visto que
P(1) = P:
P(n) = P.P(n-1)
(13)
Aplicando novamente a equao (12) a P(n-1) com u = 1, temos:
P(n) = P. P. P(n-2) = P2.P(n-2)
(14)
(15)
10
(17)
(19)
(20)
11
P(2) = P2 =
Algumas concluses que podemos tirar: ao fim de dois dias a probabilidade da
mquina passar do estado "em perfeitas condies" para o de "avaria total" (p 0,3(2))
j de 0,0595, as probabilidades da mquina se manter no estado 0 e 1 ao fim de
dois dias (p0,0(2) e p1,1(2)) diminuem e as restantes aumentam. Apenas o estado 2 se
mantm, o que faz sentido, visto que se a mquina entra em avaria total no altera o
seu estado a no ser que haja uma influncia externa no sistema (p 2,2(2) = 1).
Analogamente podemos obter P(3) e P(4):
P(3) = P2.P =
12
P(4) = P2.P2 =
p(0) =
Queremos saber quais as probabilidades do sistema estar em cada um dos estados
possveis ao fim de dois dias, isto :
p(2) = p(0).P2 =
13
Vemos ento que ao fim de dois dias a mquina continuar em "perfeitas condies"
com probabilidade 0,81, estar a trabalhar com "defeito" com probabilidade 0,1305
ou estar no estado de "avaria total" com probabilidade 0,0595.
Suponhamos agora que no certo que a mquina esteja inicialmente a funcionar
em "perfeitas condies". Vamos considerar ento uma outra distribuio inicial das
probabilidades dos estados e suponhamos que queremos saber como ser a
distribuio das probabilidades ao fim de 4 dias. Seja ento:
p(0) =
Temos ento:
p(4) = p(0).P4 =
Neste caso, considerando que no incio do processo a mquina estava no estado 0
com probabilidade 0,6 ou no estado 1 com probabilidade 0,4, ao fim de 4 dias a
mquina manter-se- no estado 0 com probabilidade 0,3937, estar no estado 1 com
probabilidade 0,1237 ou estar no estado 2 com probabilidade 0,4826. Vemos
assim, que como o estado 0 e 1 do acesso num passo ao estado 2, com esta
distribuio de probabilidades inicial, a probabilidade do sistema estar no estado 2
ao fim de alguns dias aumenta substancialmente.
14
15
18
Vamos ento agora ver como calcular o nmero esperado de momentos que o
sistema passa pelo estado j, dado que X0 = j. Para isso vamos definir:
(23)
Logo,
(24)
representa o nmero de momentos que o processo est no estado j dado que X 0 = j.
Assim, o nmero esperado dado por:
(25)
Conclumos assim que:
j recorrente
j transiente
19
p11 = 0,55
20
21
(31)
(32)
22
P(90) = P90 =
(33)
24
P(20) = P20 =
(34)
Isto leva-nos a pensar que a probabilidade do sistema estar num dado estado ao fim
de 20 passos, neste caso, independente do estado inicial, ou seja, existe uma
probabilidade limite de ao fim de um grande nmero de passagens o sistema estar
num estado j, independentemente do estado inicial. Isto leva-nos s distribuies
limite e estacionria de uma Cadeia de Markov, ou seja, ao estudo do
comportamento assinttico das respectivas probabilidades de transio.
Diz-se que uma Cadeia de Markov com espao de estados E tem distribuio limite
se existir uma distribuio de probabilidades {k, kE}, com a propriedade de,
para todo o j e k pertencentes a E:
(35)
Esta distribuio no depende da distribuio inicial dos estados e logo, facilmente
se prova que a probabilidade no condicional p k(n) tambm tende para k quando n
tende para .
25
Diz-se que uma Cadeia de Markov com espao de estados E tem distribuio
estacionria se existir uma distribuio de probabilidades { k, k E}, com a
propriedade de, para todo k pertencente a E:
(36)
O nome de "distribuio estacionria" deve-se ao fato que se se verificar a
equao (36) ento , para todo o inteiro n:
(37)
Mas ento em que condies podemos afirmar que existem estas distribuies
e que so uma s?
Existem vrios teoremas que nos do condies para a existncia de uma e de
outra, mas vamos apenas considerar o seguinte:
Para uma Cadeia de Markov irredutvel e ergdica tem-se que
existe e independente de j. Alm disso,
26
para k
Os pks chamam-se probabilidades estacionrias da Cadeia de Markov e relacionamse com o tempo mdio de retorno da forma:
, para k E
(39)
Observaes:
1 - A existncia de distribuio estacionria no significa que o sistema fique sempre
num mesmo estado. Continuam a existir transies entre os estados e existem
probabilidades de transio, o que revela que existem probabilidades diferentes de o
sistema estar num ou noutro estado.
27
2 - Note-se que vamos ter mais uma equao do que o nmero de variveis, no
sistema (38), mas visto que a soluo nica, uma das equaes ser redundante e
desaparecer. Obviamente que no pode ser a ltima, visto que a soluo k = 0,
para k E, verifica as restantes equaes mas no uma distribuio de
probabilidades.
Vejamos o exemplo 3:
0 = 0 p00 + 1 p10 =
1 = 0 p01 + 1 p11 =
0+1=1
Obtm-se:
28
(40)
(41)
Este ltimo resultado mostra o que acontece com o nosso exemplo da mquina da
Pepsi, que embora no seja uma cadeia irredutvel e ergdica tem distribuio
limite e estacionria, no entanto, esta distribuio corresponde ao sistema se
encontrar sempre no estado 2 independentemente do estado inicial
CUSTO MDIO ESPERADO POR UNIDADE DE TEMPO
Consideramos at aqui apenas as Cadeias de Markov irredutveis e ergdicas. O
que acontece se no considerarmos que os estados so todos aperidicos?
Neste caso o limite
pode no existir. Se considerarmos o exemplo 2,
em que vimos que os dois estados tinham periodicidade dois, o que acontece
que, se o processo comear no estado 0:
29
(42)
Logo,
, no existe.
Usando o resultado (43) temos que o custo mdio esperado por unidade de
tempo (limite) dado por:
Uma medida alternativa o custo mdio real por unidade de tempo (limite) que
dado por:
31
(48)
33