Академический Документы
Профессиональный Документы
Культура Документы
R0 03/2018 - Material baseado em Melchers e Beck (2017), Missouri University of Science and Technology
(http://web.mst.edu/~dux/repository/me360/), Beck (2014) e Hart (1982).
Emprestando as palavras de Hart (1982), em seu livro Uncertainty analysis, loads and safety in
structural engineering, o método de Monte Carlo é uma ferramenta de engenharia poderosa,
particularmente útil em problemas com as VA relacionadas por equações não lineares. É interessante
pensar no método de Monte Carlo como um experimento que é realizado pelo computador, ou invés de no
laboratório de engenharia. Ou seja, diferente de um experimento físico, real, a simulação de Monte Carlo
executa amostras aleatórias e conduz um grande número de experimentos no computador – ato impossível
no mundo físico.
Com vários experimentos feitos dessa maneira, a variável de saída Y agora pode ser analisada de
maneira estatística, de forma a estimar as suas propriedades estatísticas. Uma das propriedades que
podemos estimar é quantas vezes a EEL foi violada, em outras palavras, probabilidade de falha da estrutura
descrita pela EEL.
Os autores Melchers e Beck (2017) deram uma definição curta e elegante; MC é um jogo de
probabilidade construído a partir de propriedades probabilísticas para resolver o problema várias vezes, e
disso deduzir a pf.
Cumpre comentar que o passo fundamental numa análise por Monte Carlo é o desenvolvimento
de um conjunto de números aleatórios. Este número devem ser aleatórios e uniformemente distribuídos,
de tal sorte que para uma faixa de valores (e.g. entre 0 e 1), o número aleatório gerado tem probabilidade
igual de assumir qualquer valor. Esta é a garantia de que os resultados dos experimentos realizados pelo
computador imitam o mundo real, que verdadeiramente aleatório. Caso esses valores gerados não sejam
aleatórios, o resultado do experimento será tendencioso.
Grosso modo há três passos na aplicação do método de MC para avaliar a probabilidade de falha em um
problema:
1) Amostragem aleatória das variáveis de entrada
2) Avaliação do resultado do modelo Y=g(X), ou experimentação numérica
3) Análise estatística do resultado do modelo
É importante que os número gerados sejam aleatórios para não enviesar os resultados obtidos. A
geração desses números é o primeiro passo e pode ser feita por diferentes técnicas, sendo a mais comum a
utilização de um algoritmo.
O segundo passo é transformar esses números em números equivalentes de uma distribuição
estatística qualquer. Isso pode ser feito pelo método da Transformação Inversa.
Alguns comentários são importante nesse assunto. Estes algoritmos de geração aleatória são
chamados de ‘pseudo random number generator’ (PRNG). São chamados de ‘pseudo’ pois é usada uma
fórmula para gerar a sequência de números. Ela acaba se repetindo, mas apenas num ciclo muito longo,
que geralmente é imperceptível na nossa escala de uso. Existem testes de aleatoriedade dos números, mas
eles servem apenas para 1 dimensão da sequência e podem não garantir a aleatoriedade em mais
dimensões.
Experimentação numérica
Suponha que N amostras de cada VA foram geradas pelo processo acima, então todas as amostras
da VA constituem um conjunto N de entradas para o modelo Y=g(X). Logo, xi = (xi1, xi2, …, xin) onde 1=1,2,…
N. Resolvendo o problema (ou avaliando EEL) N vezes deterministicamente gera N amostras de resultados
para Y.
Concluímos então que o resultado da avaliação da EEL para a amostra de dados de entrada gera
uma amostra de resultados dessa EEL, que é o que chamamos de Y. Vale ressaltar novamente que o
conjunto de resultados da EEL, ou Y, tem propriedades estatísticas e é uma VA também.
Após N amostras de resultado/saída serem obtidas, a análise estatística pode ser feita para estimar
as características da variável resultado Y, tal como média, variância, confiabilidade, probabilidade de falha,
PDF e CDF.
Média
Variância
Probabilidade de falha
Talvez a melhor imagem que represente essa relação entre o conjunto de resultados, ou realizações do
experimento, e um comportamento estatístico seja a figura abaixo. Os pontos são as N realizações da EEL,
usando as amostras das VA. Note que existe uma curva de probabilidade acumulada, CDF, que se encaixa
nesses pontos. Note também que a variável que se está demostrando é G(x), ou seja, é a EEL.
Ou seja, existe um limite (linha tracejada) em que a G(x) é menor ou igual a zero, e a esse ponto há uma
probabilidade acumulada associada – esta é a probabilidade de falha do problema em questão.
Como visto acima, uma das informações que podem ser retiradas do conjunto de resultados é uma
estimativa da probabilidade de falha.
Usando a nomenclatura de Melchers e Beck (2017), esta é chamada de “J”, um estimador da
variável aleatória resultado (note que a equação abaixo é igual à última equação, apenas descrita
diferente).
Este estimador também tem uma variância, veja abaixo, que se reduz quanto maior for N. A variância é
importante porque ela informa sobre a convergência da pf. Quanto menor a variância, mais “confiável” será
-1/2
o resultado da pf. Em outras palavras o desvio-padrão do resultado se reduz na proporção de N
amostras.
Esta é uma convergência muito lenta já que precisa de muitos elementos. É preciso, portanto, achar formas
de reduzir a variância da estimativa de probabilidade de falha J, sendo estas chamadas de técnicas de
redução da variância. Além de aumentar o número de amostras, a redução da variância pode ser obtida
apenas usando informação adicional sobre o problema a ser solucionado.
Observando a figura abaixo é evidente que usar amostras apenas na região de sobreposição entre fR() e fS()
é mais interessante do que amostrar as variáveis em outros locais. Esta conclusão é o que forma a base da
“amostragem por importância”, uma sofisticação do método de Monte Carlo Bruto, que vimos até agora.
Exemplo 3.3 – Monte Carlo Bruto (Melchers e Beck, 2017)
MC exige que existam amostras de cada variável e que a EEL seja verificada para tais amostras.
Para ficar mais fácil de demonstrar o cálculo serão usadas apenas 10 amostras aleatórias da VA Resistência
e mais 10 amostras da VA Solicitação. Obviamente, uma amostra maior seria necessária para atingir uma
estimativa de pf adequada (ver final da resolução).
O primeiro passo para aplicar MC Bruto é gerar números aleatórios, a seguir eles devem ser relacionados
com as respectivas VA que serão usadas. Por fim, para cada realização das VA (“r” e “s”) a EEL será avaliada.
Geralmente é utilizado um algoritmo para esta geração de números. Aqui serão utilizados os
números prontos do Apêndice E do livro de Melchers e Beck (2017).
A marcha de cálculo para a relação do número aleatório com seu equivalente da VA está no Excel
em anexo.
O método utilizado é o Método da Transformada Inversa (ver item 3.3.3). Grosso modo este
método prevê que um número aleatório (entre 0 e 1) pode ser tratado como equivalente à
probabilidade acumulada de uma VA com certa distribuição de probabilidade ser igual ou menor
que um determinado “x”. Fazendo a inversa da distribuição de probabilidade que caracteriza a VA,
achamos o “x” que leva àquela probabilidade acumulada.
Para o primeiro número do Apêndice E, chamamos de “u barra 1”, pois é uma estimativa, e ele
equivalerá ao “x barra 1”, porque também é uma estimativa.
̂ ̂
̂
Também sabemos por definição que:
( )
Alterando a nomenclatura da VA de “X” para “R” de Resistência:
( )
Como ̂ , temos:
De posse das realizações das duas VAs, e na certeza que elas são aleatórias mesmo, podemos
avaliar a EEL e ver em quantos casos ocorre a falha. Para isso usamos uma função indicadora que
assume o valor “1” quando ocorre a falha e “0” quando da sobrevivência.
A comparação é feita por pares de valores, primeiro valor aleatório da resistência com o primeiro
valor aleatório da solicitação. Ou seja, para cada par de valores a Equação de Estado Limite é
testada.
Realização Realização Equação de Função
aleatória da VA - aleatória da VA - Estado Limite - indicadora -
Resistência Solicitação G(x)= R-S I[]
15.226 10.524 4.702 0
13.858 9.281 4.577 0
12.859 12.618 0.241 0
14.207 8.719 5.488 0
14.364 7.771 6.593 0
12.217 9.005 3.211 0
12.616 9.941 2.675 0
10.620 10.800 -0.180 1
11.426 10.876 0.550 0
11.757 11.393 0.363 0
Observe que apenas para um par de valores a EEL tem resultado negativo e a função indicadora
resulta igual a “1”. Veja que pela equação (3.7) de Melchers e Beck (2017), que estima a
probabilidade de falha com base na avaliação da EEL, temos:
Amostras no espaço
25
20
Solicitação
15
10 10 Amostras
0
0 5 10 15 20 25
Resistência
Como essa probabilidade de falha é aproximada, isso significa que é possível melhorar essa
estimativa. Isso é feito adotando mais números aleatórios. Ao adotar 20 números aleatórios para
cada VA (ver excel anexo a este Word), a nova probabilidade de falha fica:
A visualização no espaço mostra os novos pontos e fica clara a proporção existente entre os teste
de “falha” e “sobrevivência”.
Amostras no espaço
25
20
Solicitação
15
10 20 Amostras
0
0 5 10 15 20 25
Resistência
Usando a sugestão de Broding et al (1964) para o tamanho da amostra, com uma confiabilidade de
95% e a pf analítica calculada acima:
Logo, seria preciso, no mínimo, 48 amostras para atingir uma confiabilidade de 95% na estimativa
da pf. Abaixo estão os resultados para 50 amostras, onde foram registradas 3 falhas, gerando uma
pf de 3/50 = 0.06.
Amostras no espaço
25
20
Solicitação
15
10
0
0 5 10 15 20 25
Resistência
Como ambas as VA são normalmente distribuídas podemos chegar num resultado exato, analítico:
[ ] [ ]
Concluindo, quanto maior a amostra das VAs, mais precisa será a pf calculada pelo método. Isso
mostras que as 50 amostras apresentaram uma aproximação sensata para a pf do problema.
Exemplo 9.2 – Material Missouri University
A viga em balanço mostrada abaixo tem como um dos modos de falha o deslocamento máximo da ponta
exceder o valor permitido D0. A EEL é a diferença entre o D0 e o deslocamento da ponta, e é dada logo a
seguir.
Como dados do problema considere o deslocamento máximo D 0 = 3”, módulo de elasticidade do material E
6
= 30x10 psi, comprimento L = 100”, w e t são largura e altura da seção transversal com w = 2” e t = 4”. Px e
Py são forças externas que seguem distribuições normais, onde Px ~ N(500;100) lb e Py ~N(1000;100) lb.
As duas tabelas abaixo mostram o processo dos números aleatórios e sua identificação com a
distribuição das VA, a avaliação da EEL e a avaliação da função indicadora, ou se houve falha ou não.
Para estes números usados não houve nenhuma falha e a pf é igual a zero, ou seja todos os pontos
caíram na zona de sobrevivência. Obviamente esse resultado não é confiável dado o tamanho da amostra.
500 100
0.1934 -0.865 413.456 448.364 1188.966 0.759 0
0.3028 -0.516 448.364 396.742 1111.200 0.982 0
0.1509 -1.033 396.742 469.031 863.569 0.849 0
605.244 965.869 0.285 0
0.3784 -0.310 469.031
0.8537 1.052 605.244
0.6538 0.396 1039.563 3000 Amostras no espaço
0.7491 0.672 1067.176
0.5832 0.210 1021.005
2500
0.7400 0.643 1064.345
0.2348 -0.723 927.696
Py
1500
0.8669 1.112 1111.200
0.0862 -1.364 863.569
1000
0.3664 -0.341 965.869
500
0
0 200 400 600 800 1000
Px
A seguir estão apresentados os resultados gráficos com 30 amostras geradas pelo algoritmo
randômico do Matlab. A probabilidade de falha ainda é zero, logo a amostra precisa aumentar.
2500
2000
Py
1500
1000
500
0
0 200 400 600 800 1000
Px
O processo continua para maior número de amostras. Por questão de comodidade não foi copiada
a tabela de números aleatórios, apenas o gráfico da localização das amostras. Para 80 amostras identifica-se
uma falha, levando a pf a 1/80 = 0.0125.
2500
2000
Py
1500
1000
500
0
0 200 400 600 800 1000
Px
Para 150 amostras identificam-se duas falhas, logo a pf = 2/150 = 0.0133, veja abaixo.
2500
2000
Py
1500
1000
500
0
0 200 400 600 800 1000
Px
Os autores indicam que com 100.000 simulações a estimativa da probabilidade de falha fica em 0.04143.
Eles resolveram este exemplo por SORM também e obtiveram 0.04098 para a pf.
Fazendo um paralelo com Broding et al (1964) para o tamanho da amostra, com uma
confiabilidade de 95% e a pf analítica calculada acima:
Nota-se que esta estimava do tamanho da amostra não é totalmente confiável. A visualização do método
com o resultado convergido está demostrada abaixo:
Para uma ideia geral, seguem abaixo algumas análises estatísticas dos resultados. O conjunto de 80
resultados da avaliação da EEL acaba sendo uma VA também, provavelmente com distribuição Normal e
propriedades estatísticas. Veja:
Primeiro um ajuste dos resultados para a distribuição Normal pelo “papel de probabilidade”, observa-se um
bom ajuste dos resultados da avaliação da EEL (unnamed data) e a linha que representa a distribuição
Normal.
Em seguida a PDF e CDF, novamente observa-se comportamento condizente com uma distribuição Normal
e a CDF está dentro dos limites de uma curva Normal.
Monte Carlo e o Indice de Confiabilidade
Compre notar que o método de Monte Carlo fornece diversas informações para a VA resultados. Um destes
é a estimativa da probabilidade de falha. Entretanto, Normas internacionais avaliam a aceitabilidade de
elementos estruturais com base no seu Indice de Confiabilidade β, logo, é preciso determinar esse valor a
partir da pf estimada. Isso é feito com a seguinte relação:
E.g. para vigas o ACI 318/14 indica um indice de confiabilidade de 3.5 para vigas no ELU, já o JCSS (2000)
apresenta a seguinte tabela relativos a um ano de período de referência e estados limites de serviço
irreversíveis:
Aplicando a equação acima temos um β de 1.73 para o exemplo 9.2 (100.000 simulações e pf estimada de
0.04143), dentro do recomendado para o ELS num custo relativo “normal” e pf em torno de 0.05. Já o
exemplo 3.3 se refere a ELU e resultou em β de 1.55 (com 50 simulações e pf de 0.06) – claramente abaixo
do que exige o ACI 318.
Monte Carlo – uma utilidade secundária
Existe uma outra forma de usar o método de Monte Carlo se valendo do fato de que podemos estudar
estatisticamente as propriedades do resultado da EEL. Como exemplo considere a viga abaixo.
Como a relação entre diâmetro de deslocamento não é linear, assim não é claro qual seria a PDF mais
apropriada para descrever o deslocamento. Monte Carlo se torna interessante para estes casos pois
conseguimos extrair o histograma de deslocamentos e a partir disso (1) fazer afirmações probabilísticas
diretamente desse histograma ou (2) ajustar uma PDF comum ao histograma e então usar essa PDF para
fazer afirmações probabilísticas.
Vamos assumir que 4 números aleatórios foram gerados para o diâmetro da seção transversal, a partir
deles as inércias respectivas são calculadas, bem como o deslocamento correspondente:
4 4
Realização aleatória da variável diâmetro [in] Inércia da seção transversal [in ] Deslocamentos [ql /E]
5.0 30.68 0.000424
5.8 55.55 0.000234
4.7 23.95 0.000544
5.2 35.89 0.000363
̅ ⁄
Já a variância é:
∑
⁄
E finalmente o desvio-padrão:
Segundo Beck (2014) as técnicas de amostragem por importância são um caminho para reduzir a
variância da probabilidade de falha de forma inteligente. Como foi observado nos exemplos anteriores,
dependendo da situação (e.g. tipo da EEL, característica das VA) pode ser preciso muitas amostras para
atingir uma pf aceitável. Isso rende ao método de MC bruto a característica de ser pouco eficiente. Assim, é
preciso alguma técnica para reduzir o custo computacional do método.
A amostragem por importância, ou amostragem inteligente, desloca os pontos de amostragem para regiões
importantes do domínio de falha. Elas reduzem o número de simulações porque evitam a simulação em
regiões longe do domínio de falha.
A equação abaixo representa a probabilidade de falha com a amostragem por importância, identificada pela
função hv(x) – chamada de função de densidade de probabilidade da amostragem por importância.
Então se tem dois problemas a resolver: (i) saber PARA QUAL ponto a amostragem deve ser deslocada e,
além disso, (ii) escolher uma pdf hv(x) que ajude a reduzir a variância dos resultados. Segundo Melchers e
Beck (2017) temos:
(i) Em geral essa região de interesse não é facilmente identificada, já que não há um critério claro
para se usar. Uma forma de resolver o problema é deslocar a amostragem para o local do
ponto de projeto y*, que seria uma forma substituta de solução.
(ii) Identificado o ponto de projeto, só é preciso deslocar a função conjunta de probabilidade fx(x)
de tal forma que sua média coincida com esse ponto. Entretanto, uma distribuição mais
apropriada seria a Normal, como na figura abaixo.
É possível identificar na figura a pdf conjunta das variáveis aleatórias fx(x) (note que ela não é Normal e
possui correlação entre as VA), a EEL relativamente não linear separando os domínios de falha e
sobrevivência, e a pdf da amostragem por importância hv(x) que é Normal e está centrada no tal ponto de
projeto.
Mais, a não ser que a G(x)=0 seja muito não linear, existe aproximadamente uma chance igual de um ponto
da amostra cair na região de falha ou de sobrevivência (a distribuição é normal, logo, simétrica). Ou seja,
essa função não “enviesa” os resultados de amostras que falham ou sobrevivem.
Exemplo 3.5 – Monte Carlo com amostragem por importância
Agora o exemplo 3.3 apresentado anteriormente será resolvido com o método de Monte Carlo por
importância.
Lembrando que as propriedades estatísticas da Solicitação são N(10; 1.25), e a Resistência é N(13; 1.5). É
preciso agora definir qual será a função da amostragem por importância; como foi discutido anteriormente
uma sugestão coerente é uma distribuição Normal com parâmetros estatísticos N(11.5; 1.3). A expressão
que descreve Monte Carlo com amostragem por importância segue reproduzida:
Para a solução o termo I[G(X) ≤ 0]*fX (X)/hV(X) será adotada uma substituição por . Para isso será
preciso achar realizações das variáveis aleatórias “v”, criada para fazer a amostragem por importância, além
de “r” ou resistência e “s” ou solicitação.
O procedimento para o primeiro número aleatório do apêndice E de Melchers e Beck (2017) segue abaixo.
Na sequência, a tabela para 10 amostras seguindo os mesmos passos.
2) Inversa da distribuição
Normal padrão ̂
0.9311
𝐹
1.48
8) Cálculo da densidade de ̂
probabilidade de S
Notar que se está utilizando pois a VA
Solicitação é Normal. Diferentemente do
cálculo de ̂ , pois naquele caso a
realização ̂ era diretamente uma “distância”
em desvios-padrão.
9) Cálculo da probabilidade
Finalmente segue o cálculo da probabilidade
de amostra combinada
̂ ̂ da Resistência, Solicitação e Amostragem
para Resistência, 0.03405
̂ ̂ ̂
solicitação e amostragem
̂
1 2 3 4 5 6 7 8 9
0.9311 1.49 13.44 0.1315 0.291 0.6146 2.7496 0.0073 0.03405
0.7163 0.58 12.25 0.3372 -0.497 0.3095 1.8032 0.0628 0.05764
0.4626 -0.10 11.37 0.3970 -1.087 0.1386 1.096 0.1750 0.06112
0.7895 0.81 12.55 0.2874 -0.298 0.3829 2.0424 0.0396 0.05282
0.8184 0.91 12.68 0.2637 -0.211 0.4163 2.1464 0.0319 0.05034
0.3008 -0.53 10.81 0.3467 -1.459 0.0722 0.6488 0.2586 0.05388
0.3989 -0.26 11.16 0.3857 -1.225 0.1102 0.9296 0.2072 0.05921
0.0563 -1.59 9.43 0.1127 -2.378 0.0087 -0.4536 0.2880 0.02224
0.147 -1.05 10.14 0.2299 -1.910 0.0281 0.108 0.3173 0.03874
0.2036 -0.83 10.42 0.2827 -1.719 0.0428 0.3368 0.3016 0.04563
Finalmente, a soma dos 10 termos na tabela resulta na probabilidade de falha da estrutura:
Note que na resolução por Monte Carlo bruto foram necessárias 50 amostras para se aproximar da solução
exata de 6,17%, enquanto que por amostragem por importância 10 amostras já forneceram um resultado
coerente.