Академический Документы
Профессиональный Документы
Культура Документы
Introducción
En un estudio de simulación, se está interesado en determinar θ que es un
parámetro relacionado con algún modelo estocástico. Pare estimar θ, el dato
de salida X tal que θ = E[X]. Se realizan varias ejecuciones de simulación,en
las que la i-ésima simulación produce la variable de salida Xi . Luego, el
Pestudio
n
concluye con n ejecuciones y la estimación de θ esta dada por X̄ = i=1 Xni .
Como esto produce una estimación insesgada de θ, implica que su error cudrático
medio es igual a su varianza. Es decir ,
h 2 i
ECM = E X̄ − θ = V ar(X̄) = V ar(X) n .
V ar( X1 +X
2
2
)= 1
4 [V ar(X1 ) + V ar(X2 ) + 2Cov(X1 , X2 )].
1
X1 = h (U1 , U2 , . . . , Um )
X2 = h (1 − U 1 , 1 − U2 , . . . , 1 − Um )
tiene la misma distribución que X1 . Además, como claramente 1 − U está
correlacionada de manera negativa con U, esperariamos que X2 , estuviese cor-
relacionada de manera negativa con X1 ; de hecho, este resultado se puede de-
mostrar en el caso particular de que h sea una función monótona (creciente o
decreciente) de cada una de sus coordenadas. [Este resultado es consecuencia
de un resultado mas general, el cual establece que dos funciones crecientes (o
decrecientes) de un conjunto de variables aleatorias independientes están cor-
relacionadas en forma positiva.]. Por lo tanto, en este caso, después de generar
U1 , U2 , . . . , Um para calcular X1 , en vez de generar un nuevo conjunto
independiente de m números aleatorios, podemos hacerlo utilizando solamente
el conjunto 1 − U 1 , 1 − U2 , . . . , 1 − Um para calcular a X2 . Además,
debemos observar que conseguimos un beneficio doble; no sólo obtenemos un
estimador con menor varianza (al menos cuando h es una función monótona),
sino que ahorramos el tiempo necesario para generar otro conjunto de números
aleatorios.
Ejemplo 8.b Simulación de la función de fiabilidad. Consideramos un sistema
de n componentes, cada uno de los cuales está funcionando o descompuesto. Si
1 si el componente i f unciona
si =
0 en caso contrario
decimos que s = (s1 , ..., sn ) es el vector de estado. Suponga además que existe
una función no decreciente φ(s1 , ..., sn ) tal que
1 si el sistema f unciona bajo el vector de estados s1 , ..., sn
φ(s1 , ..., sn ) =
0 en caso contrario
φ(s1 , s2 , s3 , s4 , s5 ) = M ax(s1 s3 s5 , s2 s3 s4 , s1 s4 , s2 s5 )
tiene una estructura de puente. Este sistema se puede representar como en la
figura 1. La idea del diagrama es que el sistema funciona si una señal puede
ir de izquierda a derecha de éste. La señal puede pasar por cualquier nodo i,
siempre que el componente i esté funcionando.
Sea
r(p1 , ..., pn ) = p(φ(S1 , ..., Sn ) = 1) = E[φ(S1 , ..., Sn )]
La función r(p1 , p2 , ..., pn ) es la función de fiabilidad. Representa la probabilidad
que el sistema funcione cuando los componentes son independientes, donde el
componente i funciona con probabilidad pi , i = 1, ..., n.
Para un sistema en serie, r(p1 , ..., pn ) = p(Si = 1para todoi = 1, ..., n)
Q n
= Qi=1 P (Si = 1)
n
= i=1 pi
y para un sistema en paralelo,
n
Y n
Y
r(p1 , ..., pn ) = p(Si = 1 para al menosı = 1, ..., n) = 1− P (Si = 0) = 1− (1−pi )
i=1 i=1
Cov(h(U ), h(1 − U )) ≤ 0
y entonces,
V ar(N ) = 3e − e2 ≈ 0.7658
Por lo tanto, e se puede estimar al genrar numeros aleatorios y detenerse la
primera vez que uno es mayor que su predecesor inmediato.
Si empleamos variables antitéticas, entonces también podriamos hacer
Como uno de los valores N y M será igual a 2 y el otro será mayor que
2, parecerı́a, aunque no son funciones monótonas de las Un , que el estimador
(N + M )/2 tendrı́a una mejor varianza que el promedio de las dos variables
aleatorias independientes distribuidad de acuerdo con N . Antes de determi-
nar V ar(N + M ), es+util considerar primero la variable aleatoria Na , cuya
distribución es igual a la distribución condicional de la cantidad de números
aleatorios adicionales que deben observarse hasta que uno de los números ob-
servados sea mayor que su predecesor, dado que U2 ≤ U1 . Por lo tanto, podemos
escribir
N = 2, con probabilidad 1/2
N = 2 + N, con probabilidad 1/2
Por lo tanto,
1
E[N ] = 2 + E[Na ]
2
1 1 1
E[N 2 ] =4 + E[(2 + Na )2 ] = 4 + 2E[Na ] + E[Na2 ]
2 2 2
Con los resultados obtenidos para E[N ] y V ar(N ) obtenemos, después de
un poco de algebra,
Por lo tanto,
V ar(N1 + N2 ) 1.5316
≈ ≈ 3.065
V ar(N + M ) 0.4997
Ası́, el uso de variables antitéticas reduce la varianza del estimador por un factor
ligeramente mayor que 3.
En el caso deuna variable aleatoria normal con media µ y varianza σ 2 , pode-
mos servirnos del método de las variables antitéticas: generamos primero tal
variable aleatoria Y y luego consideramos como variable antitética 2µ − Y , la
cual también es normal con media µ y varianza σ 2 y que está correlacionado
claramente en forma negativa con Y . Si utilizamos la simulación para calcular
E[h(Y1 , ..., Yn )], donde las Yi son variables aleatorias normales independientes y
h es una función monótona de sus cordenadas, entonces el método antitético con-
sistente en generar primero las n normales Y1 , ...,Y n para calcular h(Y1 , ..., Yn ) y
luego utilizar las variables antitéticas 2µi − Yi , i = 1, ..., n, para calcular el sigu-
iente valor simulado de h conducirı́a a una reducción de varianza en comparación
con la genración de un segundo conjunto de n variables aleatorias normales.