Вы находитесь на странице: 1из 9

Modelización y Tratamiento de la Incertidumbre

Víctor Chaparro Parra

Caso práctico III: Inferencia Estadística Bayesiana

TAREA III. Estimando proporciones y predicción de futuras muestras* .


Se ha realizado un estudio sobre los efectos de la exposición a niveles moderados de plomo (encontra-
do en determinados alimentos) en el desarrollo cognitivo a largo plazo de los niños. Los investigadores
analizaron el contenido en plomo en los dientes de leche de los niños, una vez que se les habían caído.
De los 29 niños estudiados que tenían un contenido en plomo superior a 22.22 ppm (partes por millón),
22 terminaron la Educación Secundaria y otros 7 no la terminaron. Suponemos una distribución a priori
p ∼ Be(1, 1) para la proporción de alumnos que terminan la Educación Secundaria.

1. Escribe la función de verosimilitud, L(p) = P (X = x|p), y la distribución a posteriori, f (p|x)


(salvo constantes multiplicativas).
La función de verosimilitud para el caso de modelo binomial (para x éxitos obtenidos en n expe-
rimentos idénticos de Bernoulli), viene dada por:
( )
n x
L(p) = P (X = x|p) = p (1 − p)n−x , x = 0, · · · , n.
x

En este caso concreto, n = 29 y x = 22, por tanto:


( )
29 22
L(p) = p (1 − p)7 .
22

En general, la distribución a posteriori satisface la siguiente relación:

Aposteriori ∝ Apriori × V erosimilitud.

En base a esto, teniendo en cuenta que p ∼ Be(α, β) se tiene, salvo constantes multiplicativas,
que la distribución a posteriori viene dada por:

f (p|x) ∝ f (p)P (x|p) ∝ pα−1 (1 − p)β−1 px (1 − p)n−x ,

con p ∈ (0, 1) y f (p|x) = 0 para p ∈


/ (0, 1).
Por tanto, p|x ∼ Be(α′ = x+α, β ′ = n−x+β). Con los valores concretos del problema en estudio,
la distribución a posteriori estará dada por

p|x ∼ Be(23, 8) .
*
En el anexo A pueden consultarse los cálculos realizados con R.

1
2. Obtén una muestra aleatoria de tamaño 1000 de la distribución a posteriori de p, y representa su
densidad empírica, comprándola en la misma gráfica con la densidad a priori y a posteriori de p.
En la gráfica que se muestra en la figura 1 se han representado, en rojo la densidad empírica,
obtenida a partir de la muestra aleatoria de tamaño 1000; en verde, la densidad a priori (Be(1, 1))
y en azul, la densidad a posteriori (Be(23, 8)).

Figura 1

Se observa como la densidad empírica a posteriori es muy parecida a la densidad a posteriori.

3. Calcular la media a posteriori y la desviación típica a posteriori.


La media a posteriori es
α′
E(p|x) = = 0.742,
α′ + β ′
y la desviacion típica a posteriori es
[ ]1/2
√ α′ β ′
σ = V (p|x) = = 0.077.
(α′ + β ′ )2 (α′ + β ′ + 1)

4. Calcula un intervalo de probabilidad al 90 % para p.


Al conocer explícitamente la distribución a posteriori, podemos obtener el intervalo de probabi-
lidad al 90 % directamente de los cuantiles correspondientes, que en este caso, coinciden con el
decil 1 para el extremo inferior y el decil 9 para el superior. Por tanto, con una probabilidad del
90 %, se tiene:
p ∈ [0.639, 0.838] .

5. Contrastar la hipótesis H0 : p ≤ 0.4, frente a H1 : p > 0.4.

2
Para contrastar la hipótesis nula H0 frente a la alternativa H1 hay que calcular las probabili-
dades correspondientes P r(H0 |p) y P r(H1 |p). Como conocemos explícitamente la distribución a
posteriori, se tiene que
∫ 0.4
P r(H0 |p) = FP (p ≤ 4) = fP (p|α′ , β ′ )dp = 4.93 × 10−5 ,
0

y
P r(H1 |p) = 1 − P r(H0 |p) = 0.999,

descartándose la hipótesis nula frente a la alternativa por ser P r(H1 |p) > P r(H0 |p).
Este resultado se puede intuir si nos fijamos en la gráfica de la densidad a posteriori en p = 0.4
(figura 1) , viendo que el área a la izquierda de ese punto bajo la función es prácticamente
despreciable comparándola con el área a la derecha.

6. En una siguiente fase del estudio, se reciben datos de otros 10 niños que han presentado un
contenido en plomo de más de 22.22 ppm. Calcular la probabilidad predictiva de que al menos 9
de ellos terminen la Educación Secundaria.
La probabilidad de que haya k éxitos en los m siguientes ensayos, sabiendo que hubo x éxitos en
los n primeros ensayos, está dada por
∫ 1( )
m k
P r(k éxitos en m|x) = p (1 − p)m−k f (p|x)dp =
0 k
( )
m Γ(n + α + β) Γ(α + x + k)Γ(β + n − x + m − k)
= .
k Γ(α + x)Γ(n − x + β) Γ(α + β + m + n)

Como nos piden la probabilidad de que al menos 9 de cada 10 niños terminen la Educación
Secundaria, calculamos la probabilidad pedida como sigue, utilizando la anterior expresión con
los valores de α, β, n, x, m y k que ya conocemos:

P r(p ≥ 9|x) = P r(9 éxitos en 10|22) + P r(10 éxitos en 10|22) = 0.190 + 0.0761 = 0.266 .

TAREA IV. Estimando una media normal con una a priori discreta **

Suponemos que estamos interesados en estimar el total anual de precipitaciones en forma de nieve (en
cm), µ, en un pueblo del norte de la Península. Suponemos que los totales anuales recogidos y1 , . . . , yn ,
provienen de una población que sigue una distribución normal de media µ y varianza conocida σ 2 = 102
cm2 .

1. Antes de recoger los datos, suponemos que tenemos las siguientes creencias a priori acerca de la
probabilidad de que la media de las precipitaciones totales anuales µ, tome los siguientes valores:

µ 20 30 40 50 60 70
g(µ) 0.1 0.15 0.25 0.25 0.15 0.1

La distribución a priori aparece representada en la gráfica de la figura 2.


**
Los cálculos realizados con R pueden consultarse en el anexo B.

3
Figura 2

2. Se tiene registro de las precipitaciones de nieve en cm, y, de los últimos 12 años:

y (cm) 38.6 42.4 57.5 40.5 51.7 67.1 33.4 60.9 64.12 40.1 40.7 6.4

La función de verosimilitud es para el modelo normal-normal:


( )n ∏n
[ ( ) ]
1 1 yi − µ 2
L(µ) = √ exp − .
2πσ 2 σ
i=1

Calcula el valor de la verosimilitud para todos los posibles valores de µ reflejados en la distribución
a priori.
Utilizando esta expresión para la función de verosimilitud, su valor calculado con R para cada µ
se muestra en la tabla 1.

µ 20 30 40 50 60 70
L(µ) 8.91 × 10−41 3.32 × 10−30 7.58 × 10−25 1.06 × 10−24 9.19 × 10−30 4.88 × 10−40

Tabla 1

En la figura 3 aparece la gráfica de L frente a µ.

4
Figura 3

Como puede verse, el mayor valor de la verosimilitud se da para µ = 50, disminuyendo ésta hacia
los extremos. Por tanto, se puede decir que de los valores de la probabilidad que conocemos a
priori, el más verosímil es el de µ = 50.

3. Calcular la distribución a posteriori para µ.


En el caso discreto, la distribución a posteriori se calcula de igual forma que en el caso continuo,
esto es,
f (µ|y) = L(y|µ) · f (µ).

En la tabla 2 aparecen los resultados obtenidos mediante R, obtenidos con la función ‘discre-
te.bayes.2’ de R, que permite calcular la distribución a posteriori para un modelo de dos paráme-
tros, como es la normal, y una distribución a priori discreta.

µ 20 30 40 50 60 70
f (µ|y) 1.95 × 10−17 1.09 × 10−6 4.16 × 10−1 5.84 × 10−1 3.03 × 10−6 1.07 × 10−16

Tabla 2

En la gráfica de la figura 4 se muestra la distribución a posteriori.

5
Figura 4

4. Calcular un intervalo de probabilidad al 80 % para µ.


El intervalo obtenido con R es
µ ∈ [40, 50] .

5. Repetir los apartados 3-4 cuando la distribución a priori se toma como µ ∼ N (µ0 = 60, σ02 = 52 ).
La distribución a posteriori en este caso tiene la forma:
 )]2 
 1( 1 )[ ( µ0
+ nȳ 
n σ02 σ2
f (µ|y) ∝ f (µ)f (y|µ) ∝ exp − + µ − ,
 2 σ02 σ 2 1
+ n 
σ2 0
σ2

esto es, la distribución a priori de µ|x sigue una distribución normal N (a, b), donde

µ0 nȳ
σ02
+ σ2 1
a= 1 n ; b2 = 1 n .
σ02
+ σ2 σ02
+ σ2

Calculándolo con R obtenemos una media de a = 49.00 y una varianza de b2 = 2.452 . Por tanto,
la distribución a posteriori obtenida es

N (49.00, 2.45) .

En la siguiente figura se pueden ver la forma de la distribución a priori (N (60, 52 )) y la distribución


a posteriori:

6
Figura 5

Como se puede observar, los valores de medidas centrales como la media para la distribución a
posteriori son mucho más parecidos a los de la muestra, con ȳ = 45.28 y M e = 41.55, que los de
la distribución a priori.
El intervalo de probabilidad al 80 % para µ, conociendo explícitamente la distribución a posteriori,
se puede calcular mediante los cuantiles 20 y 80 para el extremo inferior y superior respectiva-
mente, obteniéndose que con dicha probabilidad

µ ∈ [46.93, 51.06] .

7
Anexos
A. TAREA III: Script R

# distribución a priori de p: Be(1,1)


# distribución a posterior de p: Be(22,8)

## generamos muestra aleatoria de tamaño n = 1000 y se la asignamos a 'x'


x <- rbeta(1000, 23, 8)

# representamos su densidad empírica


plot(density(x), type = "l", col = 2)

# comparamos con las densidades a priori y a posteriori en la misma gráfica


curve(dbeta(x, 1, 1), add = TRUE, col = 3)
curve(dbeta(x, 23, 8), add = TRUE, col = 4)

# uso de la funcion binogcp para cálculo y representación de d. posteriori


results <- binogcp(22, 29, density = "beta", params = c(1, 1), n.pi = 1e4)

# cálculo de la media y desviación típica a posteriori


post.mean = mean(results)
post.var = var(results)
post.sd = sd(results)

# cálculo intervalo de probabilidad al 90% para p


# como conocemos la distribución a posteriori, obtenemos el intervalo través de los cuantiles
qL <- qbeta(0.1, 23, 8)
qU <- qbeta(0.9, 23, 8)

# contraste de hipótesis, H0: p <= 0.4 frente a H1 > 0.4


# conociendo la distribución, basta con calcular la probabilidad acumulada hasta 0.4
P0 <- pbeta(0.4, 23, 8)
P1 <- 1 - P0

B. TAREA IV: Script R

# Representación de la distribución a priori

y <- c(38.6, 42.4, 57.5, 40.5, 51.7, 67,1, 33.4, 60.9, 64.1, 40.1, 40.7, 6.4)
mu <- c(20, 30, 40, 50, 60, 70)
g_mu <- c(0.1, 0.15, 0.25, 0.25, 0.15, 0.1)
plot(mu, g_mu, xlab = "total precipitaciones anuales (cm)", ylab = "probabilidad")

# Cálculo de verosimilitud para cada mu

vero <- c(0,0,0,0,0,0)


k = 1
for(mu_j in mu){
vero[k] = 1
for (y_i in y) vero[k] = vero[k] * dnorm(y_i, mu_j, 10)
k = k + 1
}

#representación de L (verosimilitud) vs mu

8
plot(mu, vero.esc, xlab = "precipitaciones anuales (cm)", ylab = "verosimilitud")

# cálculo de distribución a posteriori para mu


# usamos la función discrete.bayes.2 de la libreria LearnBayes

matriz = matrix(g_mu,nrow=6, ncol = 1)


dimnames(matriz)[[1]] = mu
dimnames(matriz)[[2]] = 10
posterior <- discrete.bayes.2(dnorm,matriz,y)

# Formamos el vector post.vec con los valores obtenidos en posterior$prob


post.vec = c(1.954479e-17,1.091063e-06,4.158078e-01,5.841881e-01,3.025731e-06,1.069871e-16)

# representación de la distribución a posteriori

plot(mu, post.vec, xlab = "precipitaciones anuales (cm)", ylab = "probabilidad")

# cálculo del intervalo de probabilidad al 80% para mu


# creamos la matriz con dos columnas, una para los valores de mu y otra para
# los valores de la probabilidad calculados en el paso anterior

dist = cbind(mu, post.vec)


pcontent = 0.8
intervalo <- discint(dist, pcontent)$set

# Repetir los cálculos para distribución a priori N(60,5^2)


# distritución a posteriori

sigma.y = 10
sigma0 = 5
mu0 = 60
n.mu = 1e4
results <- normgcp(y, sigma.y, density = "normal", params = c(mu0, sigma0), n.mu )

# media y desviación típica a posteriori.

mean.post <- mean(results)


var.post <- var(results)
sd.post <- sqrt(var.post)

# cálculo de intervalo al 80% para mu

qL <- qnorm(0.20, mean.post, sd.post)


qU <- qnorm(0.80, mean.post, sd.post)

Вам также может понравиться