Академический Документы
Профессиональный Документы
Культура Документы
1 Si
ndice general
1. Introduccin
.
.
.
.
.
.
.
.
.
.
.
3
3
4
4
4
5
5
5
5
5
6
6
3. Estadstica Bayesiana
3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. El teorema de Bayes para probabilidades puntuales . . . . . .
3.3. El teorema de Bayes aplicado a distribuciones de probabilidad
3.4. Distribucin predictiva . . . . . . . . . . . . . . . . . . . . . .
3.5. Familias conjugadas . . . . . . . . . . . . . . . . . . . . . . . .
3.6. La distribucin a priori . . . . . . . . . . . . . . . . . . . . . .
3.6.1. Principio de invariancia de Jeffreys . . . . . . . . . . .
3.6.2. Algunas distribuciones a priori tiles . . . . . . . . . .
3.6.2.1. La distribucin Dirichlet . . . . . . . . . . . .
3.6.2.2. La distribucin gamma inversa . . . . . . . .
3.6.2.3. Distribucin Wishart y Wishart Inversa . . .
3.7. Crticas a la estadstica Bayesiana . . . . . . . . . . . . . . . .
8
8
8
9
10
11
11
11
12
12
13
13
13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
NDICE GENERAL
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Modelos uniparamtricos
5.1. Distribucin binomial . . . . . . . . . . . . . . . . . . . . . .
5.2. Distribucin normal . . . . . . . . . . . . . . . . . . . . . . .
5.2.1. Estimacin de la media con varianza conocida . . . .
5.2.2. Distribucin normal con media conocida y varianza desconocida . . . . . . . . . . . . . . . . . . . . . . . .
5.3. El modelo de Poisson . . . . . . . . . . . . . . . . . . . . . .
5.4. Modelo exponencial . . . . . . . . . . . . . . . . . . . . . . .
5.5. Distribuciones a priori no informativas . . . . . . . . . . . .
5.6. Mixtura de distribuciones a priori . . . . . . . . . . . . . . .
6. Modelos multiparamtricos
6.1. Distribucin normal con media y varianza desconocidas
6.2. Distribucin marginal posterior de la media . . . . . .
6.3. Distribucin marginal posterior de la varianza . . . . .
6.4. Distribucin condicional de la media dada la varianza .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
14
15
16
16
17
19
20
20
22
22
23
28
. 28
. 35
. 35
.
.
.
.
.
38
39
41
42
46
.
.
.
.
48
48
49
50
50
Captulo 1
Introduccin
La estadstica Bayesiana le debe su nombre al trabajo pionero del reverendo Thomas Bayes titulado An Essay towards solving a Problem in the
Doctrine of Chances publicado pstumamente en 1764 en la Philosophical
Transactions of the Royal Society of London. El artculo fue enviado a la
Real Sociedad de Londres por Richard Price, amigo de Bayes, en 1763, quin
escribi:
Yo ahora le mando un ensayo que he encontrado entre los
papeles de nuestro fallecido amigo Thomas Bayes, y el cual, en
mi opinin, tiene un gran mrito, y bien merece ser preservado
... En una introduccin que l ha escrito para este ensayo, l
dice, que su objetivo en un principio fue, descubrir un mtodo
por el cual se pueda juzgar la probabilidad de que un evento
tenga que ocurrir bajo circunstancias dadas, y bajo la suposicin
de que nada es conocido sobre dicho evento, salvo que, bajo las
mismas circunstancias, ste ha ocurrido un cierto nmero de veces
y fallado otro tanto ... Cualquier persona juiciosa ver que el
problema aqu mencionado no es de ninguna manera una simple
especulacin producto de la curiosidad, sino un problema que
se necesita resolver para contar con un fundamento seguro para
todos nuestros razonamientos concernientes a hechos pasados y a
lo que probablemente ocurra de ah en adelante ... El propsito
a m me parece es, mostrar qu razones nosotros tenemos para
creer que en la constitucin de las cosas existen leyes fijas de
acuerdo con las cuales las cosas pasan, y que, por lo tanto, el
1
CAPTULO 1. INTRODUCCIN
Captulo 2
Teora de la probabilidad y
Estadstica Clsica
2.1.
Reglas de probabilidad
Pr(E) = 1
(2.1.1)
ES
(2.1.2)
(2.1.3)
(2.1.4)
2.2.
Pr(A B)
Pr(B)
(2.1.5)
2.2.1.
Distribucin binomial
n x
f (x|n, p) =
p (1 p)nx
x
(2.2.1)
2.2.2.
La distribucin multinomial
Pk
i=1
xi = n y
Pk
i=1
pi = 1.
n!
px1 1 pxkk
x1 !, , xk !
(2.2.2)
2.2.3.
La distribucin de Poisson
2.2.4.
La distribucin normal
2.2.5.
(2.2.4)
2.2.6.
(2.2.5)
La distribucin t de student
2.3.
+1
2
1+
2 ! +1
2
(2.2.6)
2.3.1.
f (xi |)
(2.3.1)
i=1
2.3.2.
Captulo 3
Estadstica Bayesiana
3.1.
Introduccin
3.2.
Pr (A|B) Pr (B)
Pr (A)
(3.2.1)
En el denominador Pr (A) es la probabilidad marginal del evento A, tambien llamada probabilidad total. Si el espacio muestral es discreto:
Pr (A) =
Pr (A|Bi ) Pr (Bi )
Bi SB
3.3.
10
f (data) = f (data|) f () d
El valor anterior actua como una constante normalizadora que hace posible que la distribucin posterior sea propia, es decir:
Posterior Verosimilitud Priori
Ejemplo 3.3.1 Se toma una muestra aleatoria de tamao n desde la distribucin E (). Suponga que la distribucin a priori para es GI (, ).
Hallar la distribucin posterior para .
Ejemplo 3.3.2 Se toma una muestra aleatoria de tamao n desde la distribucin P (). Suponga que la distribucin a priori para es G (, ). Demostrar que la media posterior siempre se encuentra entre la media a priori
y el estimador de mxima verosimilitud para .
3.4.
Distribucin predictiva
3.5.
11
Familias conjugadas
Una gran parte de la literatura Bayesiana esta dedicada a encontrar distribuciones a priori conjugadas ya que permiten encontrar la distribucin
posterior sin mayores complicaciones.
Definicin 3.5.1 Si F es una familia de distribuciones de muestreo para
f (data|) y P es una familia de distribuciones a priori para , entonces la
famila P es conjugada para F si f (|data) P para todo f (data|) F y
f () P.
Ejemplo 3.5.1 La familia de distribuciones gamma es conjugada con la distribucin de muestreo de Poisson.
3.6.
La distribucin a priori
3.6.1.
Una aproximacin usada para definir distribuciones a priori no informativas fue desarrollada por Jeffreys a partir de una transformacin uno a uno
del parmetro. El principio general de Jeffreys es que cualquier procedimiento para determinar la densidad a priori f () debe conducir a un resultado
equivalente si se aplica al parmetro transformado = h ().
12
J ()
d2
J () = E
log f (X|)
d2
J ()
2
E
log f (X|)
i j
3.6.2.
3.6.2.1.
La distribucin Dirichlet
As como la distribucin multinomial es la generalizacin de la distribucin binomial, la distribucin Dirichlet es la extensin de la distribucin beta.
Si X D (1 , 2 , , k ) entonces:
f (X) =
(1 + 2 + + k ) 1 1
x
xk k 1
(1 ) (2 ) (k ) 1
13
(+1)
x
exp
f (x) =
()
x
(
para x > 0.
3.6.2.3.
(d1)/2
1
exp tr S1 X
2
(+d+1)/2
3.7.
1
exp tr SX1
2
La principal objecin a la inferencia bayesiana, es que las conclusiones dependen de la seleccin especfica de la distribucin a priori. Aunque para otros
esto es lo interesante de la aproximacin Bayesiana, este es un debate an
no cerrado. Sin embargo, antes de dejar esta caracterstica, se debe sealar
que inclusive en inferencia clsica, y adems en investigacin cientfica en
general, estos conocimientos a priori son utilizados implcitamente. As por
ejemplo, el conocimiento a priori es utilizado para formular un modelo de
verosimilitud apropiado. En pruebas de hiptesis, las creencias a priori acerca de la plausibilidad de una hiptesis son frecuentemente utilizadas para
ajustar el nivel de significancia de la prueba. As, si se cree que los datos
pueden conducir al rechazo de la hiptesis, esto se puede ajustar escogiendo
un nivel de significancia bastante alto. En este sentido entonces, la inferencia
bayesiana formaliza la incorporacin de la informacin a priori, la cual es
incorporada frecuentemente debajo de la mesa en el anlisis clsico.
Captulo 4
Modelos basados en la
distribucin normal
4.1.
4.1.1.
exp
L (|x) =
2 2
2 2
i=1
n
Y
212
(
14
Pn
i=1
(xi )2
2 2
=
2
n12 + 2
n12 + 2
f (y|x) =
f (y|) f (|x) d
)
(
)
(
(y )2
( 2 )2
d
exp
exp
2 2
222
Claramente la expresin dentro del integral corresponde a una distribucin normal bivariada para y y , y por lo tanto se puede demostrar que
la distribucin predictiva posterior de y tiene una media igual a la media
posterior de y dos componentes de variancia: la variancia predictiva 2 del
modelo y la variancia 22 debida a la incertidumbre posterior sobre .
4.1.2.
El modelo normal con media conocida y variancia desconocida es un importante ejemplo, no necesariamente por su aplicacin directa, sino como
parte de modelos tiles ms complicados, quiz el ms inmediato, el modelo normal con ambos parmetros desconocidos que se ver en la siguiente
seccin. Adems, la distribucin normal con media conocida y variancia desconocida provee un ejemplo introductorio de la estimacin de un parmetro
de escala.
Sea X| 2 N (, 2 ) con conocido. La funcin de verosimilitud para x
es:
)
(
n
n/2
1 X
2
2
2
(xi )
L |x
exp 2
2 i=1
La distribucin a priori conjugada es GI (, ) se tiene:
f |x
2 n/2
)
(
)
n
(+1)
1 X
2
2
exp 2
exp 2
(xi )
2 i=1
2 (+n/2+1)
1
exp 2
n
1X
(xi )2 +
2 i=1
!)
4.2.
f , 2 |x f x|, 2 f , 2
4.2.1.
Una primera metodologa considera una distribucin a priori no informativa sobre y 2 asumiendo independencia, es decir la distribucin a priori
conjunta es f (, 2 ) 2 .
Bajo esta distribucin a priori impropia, la distribucin posterior conjunta
es proporcional a:
f , |x
n2
1
2
exp 2 (n 1) s + n (x )
2
f , 2 |x = f | 2 , x f 2 |x
n1
(n 1) s2
y |x GI =
, =
2
2
s2
x,
n
y|x N x, 2 (1 + 1/n)
4.2.2.
f |a, b
2 (a+1)
b
exp 2
exp
f , |x 2
i=1 2 2
2 2
(4.2.1)
lo cual resulta en | 2 , x N x, n .
Para hallar la distribucin posterior para 2 hay que notar que:
f | , x
( 2 ) 2 +1
exp
(xi )2
2 2
f , 2 |x = f | 2 , x f 2 |x
donde el ltimo trmino es la disribucin posterior marginal para 2 . Tcnicamente puede obtenerse una expresin
exacta integrando la distribucin
4.3.
4.4.
4.5.
Teorema de Bayes
En su forma bsica, el teorema de Bayes es un simple resultado de probabilidades condicionales. Sean A y B dos eventos con Pr (A) > 0, entonces:
Pr (B/A) =
Pr (A/B) Pr (B)
Pr (A)
El uso principal de este teorema, en aplicaciones de probabilidad, es revertir el condicionamiento de los eventos, es decir, mostrar como la probabilidad
de B/A est relacionada con la de A/B. Este teorema puede extenderse a k
eventos B1 , , Bk , los cuales constituyen una particin del espacio muestral
. As se tiene:
Pr (Bi /A) =
Pr (A/Bi ) Pr (Bi )
Pr (A/Bi ) Pr (Bi )
= Pk
Pr (A)
j=1 Pr (A/Bj ) Pr (Bj )
3
4
y Pr (B2 ) =
7
7
7/8 3/7
25
Pr (A/B1 ) Pr (B1 )
=
=
Pr (A)
7/8 3/7 + 1/8 4/7
56
Desde el punto de vista Bayesiano, el objetivo es relacionar probabilsticamente a un parmetro con los datos por lo que el teorema de Bayes
puede presentarse en trminos de densidades:
f (/x) =
f (x/) f ()
f (, x)
=
f (x)
f (x)
(4.5.1)
f (x/) f ()
f (x/) f () d
si es discreto
si es continuo
En la expresin anterior:
f () representa lo que es conocido de antes de recolectar los datos y
es llamada la distribucin a priori de .
f (/x) representa lo que se conoce de despus de recolectar los datos
y es llamada la distribucin posterior de dado x.
f (x/) es la distribucin fundamental que incorpora al modelo la informacin proporcionada por los datos. Dado que x es conocido y no,
f (x/) puede ser reconocido como una funcin de en vez de x, a la
cual se le denomina la funcin de verosimilitud de dado x y a la que
se le denota usualmente por l (/x).
Una forma equivalente de presentar f (x/) omite el factor f (x) ya que no
depende de y, al ser x fijo, puede ser considerado como una constante:
f (/x) f (x/) f ()
(4.5.2)
4.6.
Prediccin
f (x) =
f (x/) f () d
f (y/x) =
f (y, /x) d
=
f (y/, x) f (/x) d
=
f (y/) f (/x) d
4.7.
f (1 )
f (2 )
f (1 /x)
f (2 /x)
4.8.
La expresin f (/x) f (/x) f () proporciona un mecanismo que combina el conocimiento previo con conocimiento nuevo y adems permite continuar actualizando la informacin acerca del parmetro conforme se tienen
ms observaciones.
Suponga que se tiene una muestra inicial x1 , entonces aplicando el teorema de Bayes:
f (/x1 ) l (/x1 ) f ()
Ahora, suponga que se tiene una segunda muestra x2 , independiente de
la primera, entonces:
f (/x1 , x2 ) f () l (/x1 ) l (/x2 )
f (/x1 ) l (/x2 )
El proceso anterior puede ser repetido muchas veces. En particular, si
se tienen n observaciones independientes la distribucin posterior puede ser
recalculada despus de cada nueva observacin tal que en la m-sima etapa la verosimilitud asociada con la m-sima observacin se combina con la
distribucin posterior de despus de m 1 observaciones lo cual permite
obtener:
f (/x1 , , xm ) f (/x1 , , xm1 ) l (/xm )
para m = 2, , n. Luego, el teorema de Bayes describe en forma clara el
proceso de aprendizaje de la experiencia y demuestra como el conocimiento
acerca de se modifica continuamente conforme estan disponibles nuevos
datos.
Pr ( = 1/z) =
Ejemplo 4.8.2 Se tienen dos ratones de dos colores: negro y marrn. Los
ratones negros son de dos tipos genticos: homocigotes (BB) y heterozigotes
(Bb) mientras que los ratones marrones son de un tipo (bb). Resultados
genticos indican que las probabilidades asociadas son:
Tabla 4.1: Probabilidades de carcter gentico
BB (Negro)
Ratones
BB con bb
0
Bb con bb
0
Bb con Bb
1/4
Bb (Negro) bb (Marrn)
1
0
1/2
1/2
1/2
1/4
=0
1/2 = 1
Captulo 5
Modelos uniparamtricos
5.1.
Distribucin binomial
n x
f (x/) =
(1 )nx
x
Para efectuar una inferencia bayesiana en el modelo binomial, se debe
especificar una distribucin a priori para . Por simplicidad, en este punto,
se asumir que la distribucin a priori para tiene distribucin uniforme en
el intervalo [0,1]. La aplicacin del teorema de Bayes a este modelo da la
28
29
1
x (1 )nx
B (x + 1, n x + 1)
Prediccin
En el ejemplo binomial con distribucin a priori uniforme, la distribucin
predictiva a priori puede ser evaluada explcitamente.
1 !
1
n x
, x = 0, 1, , n
f (x) =
(1 )nx d =
n+1
x
0
Bajo este modelo, todos los posibles valores de x son igualmente probables a priori. Para la prediccin posterior a partir de este modelo, el inters
principal estar en el resultado de un nuevo ensayo, en vez de en otro grupo
de n nuevos ensayos. Usando y para denotar el resultado de un nuevo ensayo,
intercambiable con los primeros n:
Pr (y = 1/x) =
Pr (y = 1/, x) f (/x) d
0
f (/x) d =
0
x+1
n+2
30
31
En el ejemplo binomial con distribucin a priori uniforme, la media a priori es 1/2 y la variancia a priori es 1/12. La media posterior, (x + 1) / (n + 2),
es un resultado entre la media a priori y la proporcin muestral x/n, donde
claramente, la media a priori tiene un efecto menor conforme el tamao de
la muestra aumenta.
Inferencia posterior
La distribucin posterior contiene toda la informacin actual sobre el
parmetro e idealmente, uno podra reportar la distribucin posterior f (/x).
En muchos casos, sin embargo, se requiere conocer los valores de algunas medidas de posicin como la media, mediana y moda; medidas de dispersin
como la desviacin estndar, el rango intercuartlico y otros cuantiles.
Adicionalmente a las estimaciones puntuales, es importante reportar la incertidumbre posterior. El mtodo usual para esto consiste en presentar cuantiles de la distribucin posterior o intervalos centrales de probabilidad posterior, los cuales corresponden, en el caso de un intervalo del 100 (1 ) %,
al rango de valores abajo y arriba de los cuales cae exactamente 100 (/2) %
de la probabilidad posterior. Tales intervalos son conocidos como intervalos
posteriores. En modelos simples, tales como el binomial y el normal, los intervalos posteriores pueden ser calculados directamente desde las funcin de
distribucin acumulada, y en general, pueden ser calculados usando el proceso de simulacin a partir de la distribucin posterior. Un mtodo alternativo
para resumir la incertidumbre posterior consiste en calcular el intervalo de
mxima densidad posterior, esto es, la regin de valores que contienen el
100 (1 ) % de la probabilidad posterior pero que adems, tienen la caracterstica de que la densidad dentro de la regin nunca es menor a la de
cualquier punto fuera de la misma. Obviamente, tal regin es idntica a la
de un intervalo central posterior si la distribucin posterior es unimodal y
simtrica. En general, los intervalos centrales posteriores son preferibles a los
intervalos de mxima densidad posterior debido a que:
Estos tienen una interpretacin directa como los cuantiles posteriores
/2 y 1 /2.
Son invariantes a las trasformaciones uno a uno de las cantidades estimadas.
Son usualmente ms fciles de calcular.
32
33
+x
++n
34
E [/x] (1 E [/x])
( + x) ( + n x)
=
2
++n+1
( + + n) ( + + n + 1)
x
n
Var (/x) =
1x
x
1
nn
n
Var (/x)
N (0, 1)
35
5.2.
5.2.1.
Distribucin normal
Estimacin de la media con varianza conocida
f () = exp a2 + b + c
36
esto es, N (0 , 02 ).
La densidad a priori conjugada implica que la distribucin posterior para
es el exponencial de una forma cuadrtica y por lo tanto normal. En la
densidad posterior, todas las variables excepto son consideradas como constantes, lo cual da la siguiente densidad condicional:
1 (x )2 ( 0 )2
f (/x) exp
+
2
2
02
(
"
#)
donde
1 =
1
+ 12 x
02 0
1
+ 12
02
1
1
1
= 2+ 2
2
1
0
f (y/x) =
f (y/) f (/x) d
(
)
1
1
2
2
exp 2 (y ) exp 2 ( 1 ) d
2
21
37
Claramente la expresin dentro del integral corresponde a una distribucin normal bivariada para y y , y por lo tanto, por las propiedades de
la distribucin normal bivariada, la distribucin posterior marginal de y es
tambin normal.
Para determinar la media y la variancia de la distribucin predictiva
posterior, se puede hacer uso de las siguientes propiedades sabiendo que,
por la definicin del modelo, E [Y /] = y Var (Y /) = 2 .
E [Y /x] = E [E [Y /] /x]
= E [/x]
= 1
Luego
Var (Y /x) = E [Var (Y /) /x] + Var (E [Y /] /x)
h
= E 2 /x + Var (/x)
= 2 + 12
As, la distribucin predictiva posterior de Y tiene una media igual a la
media posterior de y dos componentes de variancia: la variancia predictiva
2 del modelo y la variancia 12 debida a la incertidumbre posterior sobre .
n
Y
f (xi /)
i=1
n
Y
1
1
2
2
exp 2 (xi )
exp 2 ( 0 )
20
2
i=1
)
n
1 1
1 X
2
exp
(
)
+
(xi )2
0
2 02
2 i=1
"
#)
38
Una simplificacin algebraica de esta expresin muestra que la distribucin posterior depende de x solo a travs de la media muestral, esto es x,
es una estadstica suficiente para este modelo. De hecho, dado que X
N (, 2 /n), los resultados obtenidos para una simple observacin pueden
aplicarse aqu inmediatamente para obtener f (/x) = f (/x) donde:
n =
1
+ n2 x
02 0
1
+ n2
02
1
n
1
= 2+ 2
2
n
0
Tenga en cuenta que el mismo resultado sera obtenido si, en vez de incorporar la informacin de las n observaciones en un solo paso, se incorporara la
informacin de los puntos x1 , , xn , de uno en uno, usando la distribucin
posterior obtenida en cada paso como la distribucin a priori para el paso
siguiente.
5.2.2.
El modelo normal con media conocida y variancia desconocida es un importante ejemplo, no necesariamente por su aplicacin directa, sino como
parte de modelos tiles ms complicados, quiz el ms inmediato, el modelo normal con ambos parmetros desconocidos que se ver en el siguiente
captulo. Adems, la distribucin normal con media conocida y variancia desconocida provee un ejemplo introductorio de la estimacin de un parmetro
de escala.
Para f (x/, 2 ) = N (x/, 2 ), con conocida y 2 desconocida, la
verosimilitud para un vector x de n observaciones independientes e identicamente distribuidas es:
f x/
n
1 X
(xi )2
exp 2
2 i=1
n/2
n
exp 2 u
2
2
n
1X
(xi )2
n i=1
39
2 (+1)
exp 2
f 2 /x
f 2 f x/ 2
!
(
)
02
0 02 2 n/2
n u
exp 2
exp 2
2
2
2
((n+0 )/2+1)
1
2
2
exp 2 0 0 + nu
2
y as:
0 02 + nu
2 /x 2 inversa 0 + n,
0 + n
5.3.
El modelo de Poisson
x exp {}
,
x!
x = 0, 1,
40
f (x/) =
i=1
t(x)
xi !
exp {n}
f (x) =
la cual se reduce a:
+x1
f (x) =
x
+1
1
+1
!x
41
Pn
x
i=1 i
exp
n
X
zi
i=1
n
X
xi , +
i=1
5.4.
n
X
zi
i=1
Modelo exponencial
x>0
42
(, ) = (1, ). En este caso sin embargo, esta distribucin est siendo usada como una distribucin de muestreo para el resultado x, y no como una
distribucin a priori para el parmetro , como en el ejemplo de Poisson.
La distribucin exponencial tiene la propiedad de prdida de memoria,
lo cual la convierte en un modelo natural para informacin de supervivencia
o tiempos de vida. La probabilidad de que un objeto sobreviva un tiempo adicional t es independiente del tiempo transcurrido hasta ese punto:
Pr (X > t + s/X > s, ) = Pr (X > t/) para cualquier valor positivo s y t.
La distribucin a priori conjugada para el parmetro exponencial , as como
para la media Poisson, es la G (/, ) con la correspondiente distribucin
posterior G (/ + 1, + x). La distribucin muestral de n observaciones exponenciales independientes, x = (x1 , , xn ), con tasa constante es:
f (x/) = n exp {nx} ,
x0
5.5.
43
f 2 /x 2 -Inversa 2 /n,
44
d
()
d
d ln f (x/)
J () = E
d
d2 ln f (x/)
= E
d2
d 2
= J ()
d
d
()1/2 d
, tal y
!#
As, J ()1/2 = J
como es requerido.
El principio de Jeffreys puede ser extendido a modelos multiparamtricos,
pero los resultados son ms controvertidos. Aproximaciones simples basadas
al asumir distribuciones a priori no informativas para los componentes de un
vector de parmetros pueden dar diferentes resultados que los obtenidos
con el principio de Jeffreys.
45
Cantidades pivotales
Para el modelo binomial y otros modelos uniparamtricos, principios
diferentes dan distribuciones a priori ligeramente diferentes. Pero para dos
casos, parmetros de posicin y de escala, todos los principios parecen concordar.
1. Si la densidad de x es tal que f (x /) es una funcin que no depende
ni de ni de x, digamos f (u) donde u = x , entonces u es una cantidad pivotal, y es llamado un parmetro de posicin puro. En tales
casos, es razonable que una distribucin a priori no informativa para
genere para la distribucin posterior f (x /x) . Esto es, bajo la distribucin posterior, y debe seguir siendo una cantidad pivotal, cuya
distribucin no depende ni de x ni de . Bajo esta condicin, usando
la regla de Bayes, f (x /x) f () f (x /), y esto implica que la
densidad a priori no informativa es uniforme en , esto es, f () cte.
sobre el rango (, ).
y similarmente:
x
f (u/x)
2
Al igualar ambas distribuciones, f (u/) y f (u/x) a g (u), se obtiene la
siguiente identidad:
x
f (/x) = f (x/)
46
d2 ln f (x/)
J () = E
d2
n
(1 )
5.6.
47
k
X
wi fi ()
i=1
k
X
i=1
k
X
wi fi () f (x/)
wi fi (/x)
i=1
Captulo 6
Modelos multiparamtricos
6.1.
exp 2 exp
2
2
2
2
La densidad anterior pertenece a una familia exponencial de dos parmetros. Suponga que se tiene un conjunto de observaciones x = (x1 , , xn ),
entonces la funcin de verosimilitud es:
l , 2 /x
n
Y
f xi /, 2
i=1
n/2
n
1 X
(xi )2
exp 2
2 i=1
n
1 X
exp 2
(xi x)2 + n (x )2
2 i=1
n/2
1
2
2
exp 2 S + n (x )
2
2 n/2
!)
donde S = (xi x)2 , es decir s2 = S/ (n 1). Adems el vector bidimensional (x, S), equivalente a (x, s2 ), es suficiente para (, 2 ) dado x.
P
48
49
f , 2
1
2
f , 2 /x
n/21
exp
1
2
)
S
+
n
(x
2 2
Si se definen = n 1 y 2 = se tiene:
1
exp
S + n (x )2
2
(
f (, /x)
(+1)/21
6.2.
f (/x) =
f (, /x) d
1
S + n (x )2 d
exp
2
(
(+1)/21
S + n (x )2
(+1)/2
s/ n
50
donde s2 = S/ (n 1) = S/. Como el jacobiano |d/dt| de la transformacin desde hacia t es constante, la distribucin posterior de t est dada
por:
f (t/x)
s2 + (st)2
1 + t2 /
o(+1)/2
o(+1)/2
6.3.
f (/x) =
f (, /x) d
1
S + n (x )2 d
=
exp
2
)
(
)
(
S
1
2
1/2
/21
exp
(2/n)
exp n (x ) d
2
2
(
)
S
/21 exp
2
(+1)/21
6.4.
51
(+1)/21
1/2