Вы находитесь на странице: 1из 7

Capı́tulo 8.

Técnicas de Reducción de Varianza


Bryan Pichucho , Bryan Padilla
January 31, 2019

Introducción
En un estudio de simulación, se está interesado en determinar θ que es un
parámetro relacionado con algún modelo estocástico. Pare estimar θ, el dato
de salida X tal que θ = E[X]. Se realizan varias ejecuciones de simulación,en
las que la i-ésima simulación produce la variable de salida Xi . Luego, el
Pestudio
n
concluye con n ejecuciones y la estimación de θ esta dada por X̄ = i=1 Xni .
Como esto produce una estimación insesgada de θ, implica que su error cudrático
medio es igual a su varianza. Es decir ,
h 2 i
ECM = E X̄ − θ = V ar(X̄) = V ar(X) n .

Por lo tanto si podemos obtener otra estimación insesgada de θ con menor


varianza que X̄, podrı́amos obtener un mejor estimador.
En este capı́tulo presentamos varios métodos que pueden servir para reducir
la varianza del estimador de simulación (llamado estimador en bruto) X̄.
Sin embargo, antes de presentar estas técnicas de reducción de varianza,
ilustraremos los problemas potenciales, aún en modelos muy sencillos, al utilizar
el estimador de simulación en bruto.

8.1 El uso de variables antitéticas


Suponga que estamos interesados en utilizar la simulación para estimar θ =
E[X] y suponga que hemos generado X1 y X2 , variables aleatorias idénticamente
distribuidas con media θ. Entonces,

V ar( X1 +X
2
2
)= 1
4 [V ar(X1 ) + V ar(X2 ) + 2Cov(X1 , X2 )].

Por lo tanto, serı́a bueno(en el sentido de que la varianza se reduce) que X1


y X2 estuvieran correlacionadas en forma negativa en vez de ser independientes.
Para lograra que X1 y X2 estén correlacionadas en forma negativa, suponga
que X1 es una función de m números aleatorios; es decir, suponga que

1
X1 = h (U1 , U2 , . . . , Um )

donde (U1 , U2 , . . . , Um ) son m números aleatorios arbitrarios. Ahora


si U es un número aleatorio, es decir, U está uniformemente distribuido en (0,1),
entonces también lo está 1-U. Por lo tanto, la variable aleatoria

X2 = h (1 − U 1 , 1 − U2 , . . . , 1 − Um )
tiene la misma distribución que X1 . Además, como claramente 1 − U está
correlacionada de manera negativa con U, esperariamos que X2 , estuviese cor-
relacionada de manera negativa con X1 ; de hecho, este resultado se puede de-
mostrar en el caso particular de que h sea una función monótona (creciente o
decreciente) de cada una de sus coordenadas. [Este resultado es consecuencia
de un resultado mas general, el cual establece que dos funciones crecientes (o
decrecientes) de un conjunto de variables aleatorias independientes están cor-
relacionadas en forma positiva.]. Por lo tanto, en este caso, después de generar
U1 , U2 , . . . , Um para calcular X1 , en vez de generar un nuevo conjunto
independiente de m números aleatorios, podemos hacerlo utilizando solamente
el conjunto 1 − U 1 , 1 − U2 , . . . , 1 − Um para calcular a X2 . Además,
debemos observar que conseguimos un beneficio doble; no sólo obtenemos un
estimador con menor varianza (al menos cuando h es una función monótona),
sino que ahorramos el tiempo necesario para generar otro conjunto de números
aleatorios.
Ejemplo 8.b Simulación de la función de fiabilidad. Consideramos un sistema
de n componentes, cada uno de los cuales está funcionando o descompuesto. Si

 1 si el componente i f unciona
si =
0 en caso contrario

decimos que s = (s1 , ..., sn ) es el vector de estado. Suponga además que existe
una función no decreciente φ(s1 , ..., sn ) tal que

 1 si el sistema f unciona bajo el vector de estados s1 , ..., sn
φ(s1 , ..., sn ) =
0 en caso contrario

La función φ(s1 , ..., sn ) es la función de estructura.


Algunas funciones de estructura comunes son las siguientes:
(a) La estructura en serie. Para la estructura en serie
φ(s1 , ..., sn ) = M in si
El sistema en serie sólo funciona si todos sus componentes funcionan.
(b) La estructura en paralelo. Para la estructura en paralelo,
φ(s1 , ..., sn ) = M ax si
Por lo tanto, el sistema en paralelo funciona si al menos uno de sus componentes
funciona.
(c) El sistema k de n. La función de estructura
 Pn
 1 si i=1 si > k
φ(s1 , ..., sn ) =
0 en caso contrario

Pn
es una función de estructura k de n. Como i=1 si representa la cantidad de
componentes funcionando, un sistema k de n funciona si al menos k de los n
componentes están funcionando. Hay que observar que un sistema en serie es
un sistema n de n, mientras que un sistema en paralelo es un sistema 1 de n.
(d) La estructura de puente. Un sistema de cinco componentes para el cual

φ(s1 , s2 , s3 , s4 , s5 ) = M ax(s1 s3 s5 , s2 s3 s4 , s1 s4 , s2 s5 )
tiene una estructura de puente. Este sistema se puede representar como en la
figura 1. La idea del diagrama es que el sistema funciona si una señal puede
ir de izquierda a derecha de éste. La señal puede pasar por cualquier nodo i,
siempre que el componente i esté funcionando.

Ahora suponga que los estados de los componentes (denotados Si ) i =


1, 2, ...n, son variables aleatorias independientes tales que

P (Si = 1) = pi = 1 − P (Si = 0) i = 1, ...n

Sea
r(p1 , ..., pn ) = p(φ(S1 , ..., Sn ) = 1) = E[φ(S1 , ..., Sn )]
La función r(p1 , p2 , ..., pn ) es la función de fiabilidad. Representa la probabilidad
que el sistema funcione cuando los componentes son independientes, donde el
componente i funciona con probabilidad pi , i = 1, ..., n.
Para un sistema en serie, r(p1 , ..., pn ) = p(Si = 1para todoi = 1, ..., n)
Q n
= Qi=1 P (Si = 1)
n
= i=1 pi
y para un sistema en paralelo,
n
Y n
Y
r(p1 , ..., pn ) = p(Si = 1 para al menosı = 1, ..., n) = 1− P (Si = 0) = 1− (1−pi )
i=1 i=1

Sin embargo, para la mayor parte de los sistemas es un enorme problema


el cálculo de la función de fiabilidad (incluso para sistemas pequeños como
el sistema cinco de 10 o el sistema de puente podrı́a ser tedioso su cálculo).
Ası́, suponga que para una función de estructura φ dada, no decreciente, y
probabilidades dadas p1 , ..., pn nos interesa utilizar la simulación para estimar

r(p1 , ..., pn ) = E[φ(Si , ..., Sn )]

Para estimar los Si generamos números aleatorios uniformes U1 , .., Un y hace-


mos 
 1 si Ui < pi
Si =
0 en caso contrario

Por lo tanto, vemos que

φ(S1 , ..., Sm ) = h(U1 , ...Un )

donde h es una función decreciente de U1 , ..., Un . Por lo tanto,

Cov(h(U ), h(1 − U )) ≤ 0

y ası́, el método de las variables antitéticas consiste en utilizar U1 , .., Un ,


para generar h(U1 , .., Un ) y h(1 − U1 , .., 1 − Un ) produce una menor varianza que
en el caso en el que empleamos un conjunto independiente de numeros aleatorios
para generar el segundo valor de h.
Con frecuencia, la salida importante de una simulación es una función de
las variables aleatorias de entrada Y1 , ..., Ym ; es decir, la salida importante es
X = h(Y1 , ..., Ym ). Suponga que las Yi tienen distribución Fi , i = 1, ..., m.
Si estos valores de entrada se generan mediante la técnica de la transformada
inversa, podemos escribir

X = h(F1−1 (U1 ), ..., Fm


−1
(Um ))

donde U1 , ..., Um son numeros aleatorios independientes. Como una función


de distribución es creciente, su inversa también es creciente, de modo que si
h(y! , ..., ym ) fuese una función monótona de sus cordenadas, se tendrı́a que
h(F1−1 (U1 ), ..., Fm
−1
(Um )) serı́a una función monótona de las Ui . Por lo tanto,
el método de las variables antitéticas, el cual generarı́a primero U1 , ..., Um para
calcularX1 y luego tomarı́a 1 − U1 , ..., 1 − Um para calcular X2 , dará como resul-
tado un estimador con una menor varianza que el obtenido si se usa un nuevo
conjunto de numeros aleatorios para x2 .
Ejemplo 8c Simulación de un sistema de lı́nea de espera. Consideremos
un sistema de lı́nea de espera dado, y sea Di el retraso, tiempo que permanece
esoerando en la cola, del i − esimo cliente, y suponga que estamos interesados
en simular el sistema para estimar θ = E[X], donde
X = D1 + ... + Dn
es la suma de los retrasos en la cola de las n primeras llegadas. Sean l1 , ..., ln
los primeros n tiempos entre las llegadas (es decir, lj es el tiempo entre las
llegadas de los clientes j − 1 y j) y sean S1 , ..., Sn los n primeros tiempos de
servicio de este sistema; suponga que todas estas variables aleatorias son inde-
pendientes. En muchos sistemas, X es una función de las 2n variables aleatorias
l1 , ..., ln , S1 , ...S n , digamos,
X = h(l1 , ..., ln , S1 , ..., Sn )
Además, como por lo general el retraso de un cliente dado en la cola aumenta
(por supuesto, segun los datos especı́fico del modelo) cuando los tiempos de
servicio de otros clientes aumenta y por lo general decrece cuando los tiempos
entre las llegdas aumentan, esto implica que, para muchos modelos, h es una
función monótona de sus cordenadas. Por lo tanto, si se aplica el método de
la transformada inversa para generar las variables aleatorias l1 , ..., ln , S1 , ...S n ,
entonces el método de las variables antitéticas produce una menor varianza.
es decir, si inicalmente tomamos los 2n numeros aleatorios Ui , i = 1, ..., 2n,
para generar los tiempos entre llegadas y los tiempos de servicio haciendo li =
Fi−1 (Ui ), Si = G−1
i (Un+1 ), donde Fi y Gi son respectivamente las funciones
de distribución de li y Si , entonces la segunda ejecución de simulación debe
realizarse de las misma manera, pero con los números aleatorios 1 − Ui , i =
1, ..., 2n. Esto produce una menor varianza que si se genera un nuevo conunto
de 2n numeros aleatorios para la segunda ejecución.
El siguiente ejemplo ilustra la mejora que se logra en ciertas ocasiones con
el uso de las variables antitéticas.
Ejemplo 8d Suponga que estamos interesados en realizar una simulación
para estimar Z 1
θ = E[eU ] = ex dx
0
(por supuesto como sabemos que θ = e − 1; sin embargo, el punto de este
ejemplo es ver la mejora posible al utilizar las variables antitéticas). Como es
claro que la función h(u) = eu es una función monótona, el método de las vari-
ables antitéticas conduce a una reducción de varianza, cuyo valor determnamos
a continuación. Para comenzar, observemos que
Cov(eU , e1−U ) = E[eU e1−U ] − E[eU ]E[e1−U ] = e − (e − 1)2 = −0.2342
Además, como
1
e2 − 1
Z
V ar(eU ) = E[e2U ]−(E[eU ])2 = e2x dx−(e−1)2 = −(e−1)2 = 0.2024
0 2
vemos que el uso de numeros aleatorios independientes produce una varianza
de
eU1 + eU2 V ar(eU )
V ar( )= = 0.1210
2 2
mientras que el uso de las variables antitéticas U y 1 − U produce una
varianza de
eU + e1−U V ar(E U ) Cov(eU , e1−U )
V ar( )= + = 0.0039
2 2 2
con una reducción de varianza de 96.7 por ciento.
Ejemplo 8e Estimación de e. Consideramos una sucesión de numeros
aleatorios y sea N el primero que es mayor que su predecesor inmediato. Es
decir,
N = mı́n(n : n ≥ 2, Un > Un−1 )
Ahora,
1
P (N > n) = P (U1 ≥ U2 ≥ ... ≥ Un ) =
n!
donde la última igualdad se cumple pues todos los posibles ordenamientos de
U1 , ...Un son igualmente probables. Por lo tanto,
1 1 n−1
P (N = n) = P (N > n − 1) − P (N > n) = − =
(n − 1)! n! n!
y entonces

X 1
E[N ] = =e
n=2
(n − 2)!
Además,
∞ ∞ ∞ ∞
2
X n X 2 X n−2 X 1
E[N ] = = + = 2e + = 3e
n=2
(n − 2)! n=2
(n − 2)! n=2
(n − 2)! n=3
(n − 3)!

y entonces,
V ar(N ) = 3e − e2 ≈ 0.7658
Por lo tanto, e se puede estimar al genrar numeros aleatorios y detenerse la
primera vez que uno es mayor que su predecesor inmediato.
Si empleamos variables antitéticas, entonces también podriamos hacer

M = min(n : n ≥ 2, 1 − Un > 1 − Un−1 ) = mı́n(n : n ≥ 2, Un < Un−1 )

Como uno de los valores N y M será igual a 2 y el otro será mayor que
2, parecerı́a, aunque no son funciones monótonas de las Un , que el estimador
(N + M )/2 tendrı́a una mejor varianza que el promedio de las dos variables
aleatorias independientes distribuidad de acuerdo con N . Antes de determi-
nar V ar(N + M ), es+util considerar primero la variable aleatoria Na , cuya
distribución es igual a la distribución condicional de la cantidad de números
aleatorios adicionales que deben observarse hasta que uno de los números ob-
servados sea mayor que su predecesor, dado que U2 ≤ U1 . Por lo tanto, podemos
escribir
N = 2, con probabilidad 1/2
N = 2 + N, con probabilidad 1/2
Por lo tanto,
1
E[N ] = 2 + E[Na ]
2
1 1 1
E[N 2 ] =4 + E[(2 + Na )2 ] = 4 + 2E[Na ] + E[Na2 ]
2 2 2
Con los resultados obtenidos para E[N ] y V ar(N ) obtenemos, después de
un poco de algebra,

V ar(Na ) = 14e − 4e2 − 8 ≈ 0.4997

lo cual implica que


Ahora consideremos las variables aleatorias N y M . Es fácil ver que después
de observar los dos primeros números aleatorios, una de las variables N y M
será igual a 2 y la otra será igual a 2 más una variable aleatoria que tiene la
misma distribución que Na . Por lo tanto,

V ar(N + M ) = V ar(4 + Na ) = V ar(Na )

Por lo tanto,
V ar(N1 + N2 ) 1.5316
≈ ≈ 3.065
V ar(N + M ) 0.4997
Ası́, el uso de variables antitéticas reduce la varianza del estimador por un factor
ligeramente mayor que 3.
En el caso deuna variable aleatoria normal con media µ y varianza σ 2 , pode-
mos servirnos del método de las variables antitéticas: generamos primero tal
variable aleatoria Y y luego consideramos como variable antitética 2µ − Y , la
cual también es normal con media µ y varianza σ 2 y que está correlacionado
claramente en forma negativa con Y . Si utilizamos la simulación para calcular
E[h(Y1 , ..., Yn )], donde las Yi son variables aleatorias normales independientes y
h es una función monótona de sus cordenadas, entonces el método antitético con-
sistente en generar primero las n normales Y1 , ...,Y n para calcular h(Y1 , ..., Yn ) y
luego utilizar las variables antitéticas 2µi − Yi , i = 1, ..., n, para calcular el sigu-
iente valor simulado de h conducirı́a a una reducción de varianza en comparación
con la genración de un segundo conjunto de n variables aleatorias normales.

Вам также может понравиться