Вы находитесь на странице: 1из 36

Página www

Modelos: Clase 4
Página de Abertura
Juan Carlos Correa
Contenido 25 de septiembre de 2019

JJ II

J I

Página 1 de 36

Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura
Elicitación de Probabilidades Sub-
Contenido
jetivas
Para poder usar estadı́stica bayesiana, puede no ser necesario
JJ II
que una persona determine una distribución apriori comple-
J I ta y detallada, sino que debe ser capaz de especificar alguna
información de la cual una distribución apriori pueda ser cons-
Página 2 de 36 truida. Sin embargo, especificar aún una cantidad limitada de
información acerca de una apriori puede ser difı́cil para mucha
Regresar
gentea .
a
Full Screen
Corless, J. C. (1972) Assessing Prior Distributions for Applying Bayesian Sta-
tistics in Auditing. The Accounting Review, Vol. 47, No. 3, pp. 556-566

Cerrar

Abandonar
Él realizó un estudio para responder las siguientes preguntas:
Página www

Están los auditores dispuestos a especificar información de


Página de Abertura
la cual podamos construir las distribuciones apriori?
Contenido Asumiendo que los auditores especifiquen esta información,
a qué se parecen las distribuciones apriori resultantes?
JJ II
Qué tan bien reflejan estas distribuciones apriori las creen-
J I cias del auditor acerca de las poblaciones a auditar?

Página 3 de 36
Cómo son afectadas estas distribuciones apriori por las di-
ferencias en la fortaleza del control interno y por las dife-
Regresar rencias en los factors como la experiencia de los auditores?

Full Screen
Si se usan estas distribuciones, cómo se compara la evalu-
ción bayesiana de la evidencia de auditorı́a con las evalua-
Cerrar ciones intuitivas por parte del auditor de esa misma evi-
dencia?
Abandonar
Página www

Página de Abertura

El experimento conducido por él consistió en presentarles dos


Contenido
casos, llamados A y B, a 88 contadors certificados. El caso A
JJ II consistió en la descripción de una instititución con un fuerte
control interno y el otro con un débil control. Para el experi-
J I mento al conjunto de auditores se les describió el caso A y luego
se les entregó el cuestionario. El primer conjunto de preguntas
Página 4 de 36
permitı́an establecer una distribución apriori y con el segundo
se revisaban las probabilidades de ésta. Lo mismo se hizo con
Regresar
el caso B.
Full Screen

Cerrar

Abandonar
Cuestionario utilizado para obtener información acerca de las
distribuciones apriori:
1. Suponga que ud. estuviera haciendo auditorı́a a varios clientes similares al hospital descrito en el
Caso A, cuántos tendrı́an el mismo conjunto de circunstancias como este caso? Es claro que cada
Página www
uno de estos clientes pueden tener diferentes tasas de error en la nómina pero ud, probablemente
tiene alguna idea cuáles pueden ser estas tasas de error.

Página de Abertura a) Especifique una mediana de la tasa de error tal que ud. esperarı́a que la mitad de estos
clientes tienen tasas de error mayores que esta mediana de la tasa de error y la otra mitad
tendrı́an tasas de error menores que esta mediana de la tasa de error.——- %
Contenido
b) Especifique una tasa de error tal que ud. esperarı́a que tres cuartas partes de estos clientes
tengan tasas de error reales mayores que este tasa de error estimada y que un cuarto de ellos
tendrán tasas de error reales menores que ella. ——– %
JJ II (Esta respuesta debe dar un valor menor que el obtenido en la parte a)
c) Especifique una tasa de error tal que ud. esperarı́a que una cuarta parte de estos clientes
tengan tasas de error reales mayores que este tasa de error estimada y que tres cuartos de
J I ellos tendrán tasas de error reales menores que ella. ——– %
(Esta respuesta debe dar un valor mayor que el obtenido en la parte a)
Página 5 de 36
2. Si ud.estuviera auditando 100 hospitales similares al descrito en Caso A, los cuales tienen las mismas
circunstancias, cuántos de ellos esperarı́a ud. tendrı́an tasas de error reales en la nómina estuvieran
en cada uno de los siguientes intervalos de tasas de error:
Regresar
3. Menos del 1 % ———

Full Screen 4. Entre el 1 % y el 2 % ———

5. Entre el 2 % y el 5 % ———
Cerrar 6. Entre el 5 % y el 10 % ———

7. Mayores que el 10 % ———


Abandonar

(Sus respuestas deben sumar 100)


Página www

Página de Abertura
Especificación de los parámetros de una apriori
Contenido
normal para un parámetro de localización de una
población normal
JJ II
Preguntar con respecto a la localización es fácil: se puede
J I conseguir información sobre la media o la mediana, o ambos
con el fin de validar estos valores.
Página 6 de 36
El problema es dar información sobre la precisión.
Regresar
Se puede realizar preguntas directamente, pero el experto
Full Screen
a veces confunde esto con valores poblacionales.

Cerrar

Abandonar
Página www Una forma es realizar una elicitación de los parámetros pobla-
cionales, la media (que es fácil) y sobre la dispersión poblacio-
Página de Abertura
nal.
Contenido Determine el valor de la media, digamos µ0 .
JJ II Determine el máximo valor permisible para la población,
esto puede hallarse asumiendo el percentil 99 %, denotemos
J I este valor por p0,99 .
Página 7 de 36 Haga lo mismo con el mı́nimo, puede asumir el percentil
1 %, denotado por p01 .
Regresar
Bajo el supuesto que la población es normal, rechequee los
Full Screen valores hallados en los dos pasos anteriores, ya que ellos
exigen que µ0 − p01 = p99 − µ0 . De aquı́ calculamos la
Cerrar varianza.

Abandonar
Página www

Página de Abertura

Contenido
A veces es conveniente generar “datos” de esta distribu-
JJ II ción poblacional y observar si estos valores corresponden
a valores aceptables en la población que conocemos. Si,
J I por ejemplo, aparecen valores mucho más extremos de lo
estamos dispuestos a aceptar, debemos revisar los valores
Página 8 de 36
elicitados; lo mismo en caso que los valores poblacionales
simulados estén demasiado concentrados.
Regresar

Full Screen

Cerrar

Abandonar
Página www Una vez determinados los valores anteriores debemos de-
terminar la calidad de la información apriori que poseemos.
Página de Abertura
Esto lo podemos hacer pensando en el tamaño muestral al
Contenido
que nuestro conocimiento equivale. Si estamos muy seguros
del valor de la media que dimos, o sea µ0 , escogemos un
JJ II n0 grande, diga n0 = 1000. En cambio si no estamos segu-
ros seleccionamos valores pequeños. Nuestra apriori tendrá
J I
media µ0 y precisión igual a n0 /varianza.
Página 9 de 36 n0 Información apriori
0-10 Poca información apriori
Regresar
11-20 Más bien poca
Full Screen
21-50 Buena información
50-100 Muy buen conocimiento
Cerrar Más de 100 Excelente conocimiento.

Abandonar
Ejemplo: Suponga que queremos elicitar la estatura media de
los hombres medellinenses.
Página www Cuál es el valor más probable de la media? Respondo 170

Página de Abertura
Cuál valor cree divide la población en dos grupos tal que
el 50 % de los hombres están por debajo de esa estatura y
Contenido el 50 % por encima? Después de pensarlo un rato dirı́a que
170 me parece bien.
JJ II
Observe que los dos valores son iguales, esto serı́a bueno si
J I el proceso de elicitación fuera mejor controlado.

Página 10 de 36
Cuál serı́a la estatura tal que el 99 % de los hombres están
por debajo de ella? Pienso que si tengo una muestra de
Regresar hombres de Medellı́n el 99 % estarı́an por debajo de 187.

Full Screen
Cuál serı́a el valor tal que el 99 % estarı́a por encima de ese
valor? Creo que en una muestra de 100 hombres aceptarı́a
Cerrar hallar un hombre a lo sumo por debajo de 155.

Abandonar
Ahora 170 − 155 = 15 6= 187 − 170 = 17. Creo mucho en
mi 187, ası́ que ajusto 155 y acepto 153.
Página www

Página de Abertura

Contenido
Resuelvo
JJ II
187 − 170 187 − 170
 
P Z≤ = 0,99 =⇒ = 2,326348
J I σ σ

Página 11 de 36

=⇒ σ = 7,307592
Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura

> rnorm(100,mean=170,sd=7.307592)
[1] 165.3871 170.9683 175.2544 159.7169 168.9604 171.1746 163.1852 160.9923
Contenido
[9] 164.8052 170.5211 174.1388 175.5357 160.2580 171.3479 165.5514 182.5004
[17] 167.6677 179.1613 171.9553 170.7919 173.4433 175.4361 172.3769 158.5181
[25] 162.2242 170.1544 186.7726 179.4626 168.4576 164.2865 179.1538 162.6390
JJ II [33] 161.0554 163.7591 185.0760 156.5279 164.9664 158.3166 180.1684 182.0304
[41] 177.0167 168.1824 154.5557 173.5845 175.8703 168.4057 167.4683 165.2777
[49] 170.6575 173.0667 183.3667 178.6420 180.2212 171.3187 161.3572 162.8603
J I [57] 162.4542 165.9976 159.5780 181.0073 174.4705 166.9788 170.5995 170.8796
[65] 161.1294 158.3064 169.6141 164.3548 182.4365 171.4914 176.7289 183.6713
[73] 172.8406 165.0126 166.5650 189.7027 176.5538 162.3649 171.1391 143.0176
[81] 168.9070 163.3017 168.4809 179.0165 175.6147 166.0073 187.6570 174.3891
Página 12 de 36
[89] 163.6555 178.9189 165.2763 155.4336 165.8832 160.1372 160.4194 168.1912
[97] 164.2973 167.8023 164.6064 169.1432
>
Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura

Contenido

JJ II
Si mi información apriori puede compararla con un tamaño de
J I 20, entonces la apriori de µ será una normal con media 170 y
precisión 20/7,3075922
Página 13 de 36

Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura

Contenido

JJ II y<-dnorm(x,mean=170,sd=7.307592)
y2<-dnorm(x,mean=170,sd=7.307592/sqrt(20))
plot(x,y,type=’l’,ylab=’Densidad’,xlab=’Estatuta (en cm)’,
J I ylim=c(0,0.3))
points(x,y2,type=’l’,col=’red’)
Página 14 de 36 title(main=’Distribución Apriori’)

Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura

Contenido

JJ II

J I

Página 15 de 36

Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura
Elicitación de Distribuciones Apriori a Partir de
Intervalos de Confianza
Contenido
El intervalo que aparece en muchas revistas especializadas acer-
JJ II
ca de la media es del tipo (LIµ ; LSµ ) junto con información
acerca del nivel de confianza (1 − α)100 % y el tamaño mues-
J I tral n utilizado.
s
Página 16 de 36 S2
LSµ = X̄ + t1−α/2;n−1
n
Regresar

donde tγ;ν es el γ -ésimo percentil de una distribución t con ν


Full Screen
grados de libertad.
Cerrar

Abandonar
Algoritmo para calcular la apriori
Página www
Con el nivel de confianza y el tamaño muestral determine
Página de Abertura el valor del percentil t usado.

Contenido
Calcule el promedio como

JJ II
LIµ + LSµ
X̄ =
2
J I
Calcule la varianza muestral como
Página 17 de 36
√ 2
S2 =

n LSµ − X̄ /t1−α/2;n−1
Regresar

La apriori para la media de la población normal es


Full Screen

S2
 
Cerrar
ξ (µ) = N ormal X̄,
n
Abandonar
Para la precisión τ
Página www
• Construya el intervalo de confianza para σ 2
Página de Abertura
(LIσ2 ; LSσ2 )
Contenido
donde
(n−1)S 2
JJ II LIσ2 =χ21−α/2;n−1
2
J I LSσ2 = (n−1)S
χ2α/2;n−1

Página 18 de 36
• El cálculo del intervalo para la precisión será
1 1
 
Regresar LIτ = ; LSτ =
LSσ2 LIσ2
Full Screen
• Determine el α0 y β0 de la distribución Gamma tal que
Cerrar P(τ ≤ LIτ |α0 , β0 ) = α2
P (τ ≤ SIτ |α0, β0 ) = 1 − α2
Abandonar
En R
Página www
Construye.Apriori.Normal.IC<-function(LI,LS,n,nivel){
media<-(LI+LS)/2
alfa<-1-nivel
Página de Abertura alfa.2<-alfa/2
gl<-n-1
Contenido t.teo<-qt(1-alfa.2,gl)
S2<-(LS-media)^2*n/t.teo^2
precision<-n/S2
JJ II
LI.var<-gl*S2/qchisq(1-alfa.2,gl)
LS.var<-gl*S2/qchisq(alfa.2,gl)
J I LI.preci<-1/LS.var
LS.preci<-1/LI.var
Página 19 de 36
a.mini<-function(parame,LI=LI,LS=LS,nivel=nivel){
a0<-parame[1]
Regresar
b0<-parame[2]
alfa<-1-nivel
Full Screen alfa.2<-alfa/2
res<-(LI-qgamma(alfa.2,a0,rate=b0))^2+(LS-qgamma(1-
Cerrar alfa.2,a0,rate=b0))^2
return(res)
}
Abandonar
res<-optim(c(1,1),a.mini,method ="L-BFGS-B",
Página www lower=c(0.0001,0.0001),upper=c(Inf,Inf),LI=LI,LS=LS,nivel=nivel)

Página de Abertura alfa0<-res$par[1]


beta0<-res$par[2]
list(media=media,precision=precision,alfa0=alfa0,beta0=beta0)
Contenido
}

JJ II Construye.Apriori.Normal.IC(10,20,20,0.95)

J I $media
[1] 15
Página 20 de 36
$precision
[1] 0.17523
Regresar

$alfa0
Full Screen [1] 32.47044

$beta0
Cerrar
[1] 2.227698

Abandonar
Página www

Página de Abertura

Distribuciones No Informativas
Contenido

El uso de distribuciones apriori no informativas buscan que


JJ II
ellas tengan un impacto mı́nimo sobre la distribución posterior
del parámetro de interés y que sea relativamente plana con
J I
relación a la verosimilitud. Esto busca que sean los datos los
Página 21 de 36
que tengan un claro dominio en la distribución posterior, y,
por lo tanto, en todas las inferencias que de ellas se obtengan.
Regresar También se conocen como vagas, difusas, planas o de referencia.
Estas distribuciones no informativas se reunen en dos grupos:
Full Screen

Cerrar

Abandonar
Página www

Página de Abertura Propias: Cuando la distribución de probabilidad integra a una


constante finita, se dice que es propia. Por ejemplo, para
Contenido
el caso de la distribución binomial, su parámetro π , que
denota el porcentaje de éxitos en la población, podemos
JJ II
asumir como apriori la U (0, 1), lo cual refleja nuestra igno-
J I
rancia total, al asumir que cualquier valor en este intervalo
es igualmente posible como valor.
Página 22 de 36
Impropias: Una distribución apriori ξ(θ) es impropia si
Regresar Z
ξ(θ) dθ = ∞
Full Screen Θ

Cerrar

Abandonar
Página www
Winkler (1967a) dice
Página de Abertura “Los términos difuso y no-difuso son relativos en
este contexto, no términos absolutos. Cuando decimos
Contenido
que nuestra información es difusa realmente queremos
decir que es difusa relativa a la información muestral.
JJ II
También queremos decir que es localmente difusa (i.e.,
J I difusa solo dentro dentro de un cierto rango). Ası́, ‘di-
fuso’ puede depender no solo de la precisión de la infor-
Página 23 de 36 mación muestral sino también de los valores especı́ficos
de la información muestral. En muchos casos el uso de
Regresar
distribuciones apriori difusas por parte del bayesiano
puede ser sicológicamente iluminador, bien sea para
Full Screen
otros o para él mismo, aún si su distribución apriori
Cerrar
no es difusa. ”

Abandonar
Página www

Página de Abertura

Contenido
Notas:
JJ II 1. Una distribución apriori impropia puede terminar en una
aposteriori impropia y por lo tanto no se podrán hacer
J I
inferencias.
Página 24 de 36
2. Una distribución apriori impropia puede llevar a una apos-
teriori propia.
Regresar

Full Screen

Cerrar

Abandonar
Página www
Ejemplo:
Página de Abertura
Asumamos que y1 , · · · , yn |θ son variables distribuidas normal
e independientemente con media θ y con varianza conocida σ 2 .
Contenido Asumamos que ξ(θ) ∝ 1 es la distribución apriori uniforme
(impropia) sobre los números reales. La verosimilitud es
JJ II !
2
n (ȳ − θ)
J I L (θ|y) ∝ exp −
2 σ2
Página 25 de 36
y la distribución posterior es
σ2
Regresar
 
θ|y ∼ N ȳ,
Full Screen
n
la cual es una distribución propia.
Cerrar

Abandonar
Yang y Berger (1998) presentan varias razones por las cuales es
importante considerar las distribuciones no informativas. Tene-
Página www
mos entre ellas

Página de Abertura
Con frecuencia la elicitación de las distribuciones apriori es
imposible, por múltiples razones, por ejemplo, limitaciones
Contenido de costo o tiempo, o resistencia o falta de entrenamiento
de los clientes.
JJ II
El análisis estadı́stico debe aparecer como “objetivo”.
J I
La elicitación subjetiva puede producir malas distribucio-
Página 26 de 36
nes subjetivas, por ejemplo si la elicitación es sesgada.
En problemas de alta dimensión, lo más que se puede espe-
Regresar
rar es obtener buenas distribuciones subjetivas para algu-
Full Screen
nos pocos parámetros, y a los parámetros de perturbación
se les asignan distribuciones no informativas.
Cerrar
El análisis bayesiano con distribuciones no informativas
Abandonar
puede utilizarse para obtener procedimientos clásicos bue-
nos.
Página www

Página de Abertura

Contenido

Aún cuando un investigador tenga creencias apriori fuertes,


JJ II puede ser más convincente analizar los datos utilizando una
apriori de referencia dominada por la verosimilitud. Además
J I
podemos automatizar el proceso de hallar aprioris. Yang y Ber-
Página 27 de 36
ger (1998) proporcionan un amplio catálogo de distribuciones
no informativas que es útil en el trabajo aplicado.
Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura
El Principio de la Razón Insuficien-
Contenido
te de Laplace
JJ II
Si el espacio parametral es finito se puede utilizar una distri-
bución apriori uniforme para reflejar ignorancia total.
J I

Página 28 de 36
ξ(θ) ∝ 1

Regresar
Si el espacio parametral es no acotado se puede utilizar una
distribución apriori uniforme impropia para reflejar ignorancia
Full Screen total.

Cerrar

Abandonar
Apriori de Jeffreys
Página www
La distribución apriori de Jeffreys satisface la propiedad local
Página de Abertura
de uniformidad para distribuciones apriori no informativas. Es-
ta apriori está basada en la matriz de información de Fisher.
Contenido Jeffreys la propuso como una “regla general” para determinar
la distribución apriori (Kass y Wasserman, 1994).
JJ II
Definición: Sea f (x|θ) la densidad de x dado θ. La informa-
ción de Fisher es definida como
J I
 2
∂ log (f (x|θ))

Página 29 de 36
I(θ) = −E
∂θ2
Regresar
Si θ es un vector de p componentes, entonces
 2
∂ log (f (x|θ))

Full Screen
I(θ) = −E
Cerrar
∂θi ∂θj p×p

Abandonar
y entonces I(θ) será una matriz de dimensión p × p.
Página www

Página de Abertura

Contenido

JJ II
Definición: La distribución apriori de Jeffreys se define como
J I
1/2
ξ(θ) ∝ |I(θ)|
Página 30 de 36

Regresar

Full Screen

Cerrar

Abandonar
Página www

Página de Abertura

Contenido

La distribución apriori de Jeffreys es localmente uniforme y


JJ II por lo tanto no informativa. Esta propiedad es importante ya
que nos proporciona un esquema automatizado para hallar dis-
J I
tribuciones apriori no informativas para cualquier modelo pa-
Página 31 de 36
ramétrico (Ibrahim, 2002). Esta distribución es impropia para
muchos modelos, sin embargo, es propia para algunos.
Regresar

Full Screen

Cerrar

Abandonar
Asumamos que y1 , · · · , yn son variables distribuidas indepen-
Página www
dientemente Bernoulli(π ). Encontremos la distribución apriori
Página de Abertura
de Jeffreys para π .
La densidad para una variable Bernoulli(π ) es
Contenido
p(y|π) = π y (1 − π)1−y
JJ II
Entonces tenemos
J I log (p(y|π)) = y log(π) + (1 − y) log(1 − π)
∂ y 1−y
log (p(y|π)) = −
Página 32 de 36 ∂π π 1−π
∂ 2 y 1−y
2
log (p(y|π)) = − 2 −
Regresar ∂π π (1 − π)2
 2 

I(π) = −E log (p(y|π))
Full Screen ∂π 2
E(y) 1 − E(y) 1 1−π
= 2
+ 2
= +
Cerrar π (1 − π) π (1 − π)2
1 1 1
= + = .
Abandonar
π 1−π π(1 − π)
Página www

Página de Abertura Por lo tanto la distribución apriori de Jeffreys es

Contenido

ξ(π) ∝ I(π)1/2
JJ II 1/2
1

=
J I π(1 − π)
= π −1/2(1 − π)−1/2
Página 33 de 36
= π 1/2−1(1 − π)1/2−1
Regresar
Ası́ π ∼ Beta 12 , 21 . Por lo que vemos en este caso la distri-


Full Screen bución apriori de Jeffreys es propia.

Cerrar

Abandonar
Resultado 6: Distribución Apriori de Jeffreys para
Página www la Normal
Página de Abertura
Asumamos que la población es normal con media µ y con pre-
cisión τ desconocidas. calculemos la distribución apriori de Jef-
freys para (µ, τ )
Contenido

τ 1/2 τ
 
JJ II
f (x|µ, τ ) = √ exp − (x − µ)2
2π 2
1 1 τ
log (f (x|µ, τ )) = − log(2π) + log(τ ) − (x − µ)2
J I 2 2 2
∂ log (f (x|µ, τ ))
= τ (x − µ)
Página 34 de 36
∂µ
∂ 2 log (f (x|µ, τ ))
= −τ
Regresar
∂µ2
∂ log (f (x|µ, τ )) 1 1
= + (x − µ)2
∂τ 2τ 2
Full Screen
∂ 2 log (f (x|µ, τ )) 1
= − 2
∂τ 2 2τ
Cerrar 2
∂ log (f (x|µ, τ ))
= (x − µ)
∂µ∂τ
Abandonar
Página www
Tomando la esperanza obtenemos
Página de Abertura    
µ −τ 0
I =
Contenido
τ 0 − 2τ1 2

JJ II
Ası́ la distribución apriori será
  1/2
J I
µ
ξ(µ, τ ) ∝ I
τ
Página 35 de 36
1/2
1

= τ×
Regresar 2τ 2
∝ τ −1/2
Full Screen

Esta distribución apriori de Jeffreys es impropia.


Cerrar

Abandonar
Propiedad de Invarianza

Página www
La distribución apriori de Jeffreys tiene la propiedad de inva-
rianza, ya que para cualquier otra transformación uno a uno
Página de Abertura sigue siendo no informativa. Esto surge de la relación
2
dψ(θ)

Contenido
I(θ) = I(ψ(θ))

JJ II
donde ψ(θ) es una transformación uno a uno de θ. Ası́
J I
1/2 1/2 dψ(θ)
(I(θ)) = (I(ψ(θ)))
Página 36 de 36


Regresar dψ(θ)
Note que dθ es el valor absoluto del jacobiano de la trans-
Full Screen formación de θ a ψ(θ). Ası́
1/2 1/2
Cerrar (I(θ)) dθ = (I(ψ)) dψ
Abandonar La apriori de Jeffreys preserva la escala en parametrizaciones.

Вам также может понравиться