Вы находитесь на странице: 1из 95

Introducción a las técnicas

bayesianas para la
investigación en salud

Luis Carlos Silva Ayçaguer


Vicerrectoría de Investigaciones
ISCM de La Habana
Valoración crítica de las
pruebas de significación

Una polémica
escamoteada
Feinstein (1985)
Si la demanda crítica hubiera sido que la investigación
produjese ambos tipos de significación (la que concierne
al área estocástica y la que se vincula con los atributos
cualitativos) entonces la alienación intelectual de hoy no
hubiera ocurrido. Desafortunadamente, sin embargo, la
palabra "significación" fue reservada solo en su con-
notación estocástica, y la palabra "estadística" le fue
adjuntada para crear la "significación estadística" como
paradigma de calidad e importancia en la investigación
médica... Usando *, **, y *** como símbolos para repre-
sentar que P<0.05, P<0.01 y P<0.001 respectivamente, el
investigador puede presentar tablas celestiales en las
cuales los datos han sido reemplazados por estrellas.
Yates (1951)
El énfasis en las pruebas de hipó-
tesis y la consideración de los
resultados de cada experimento sepa-
radamente han tenido la desafor-
tunada consecuencia de que los tra-
bajadores científicos han conside-
rado con frecuencia la ejecución de
una prueba de significación o un ex-
perimento como el objetivo último;
actúan sobre la base de que los re-
sultados o son o no son signifi-
cativos y de que éste es el fin de
todo.
Neyman y Pearson(1933)
Ninguna prueba basada en la teoría de probabilidad puede por sí misma
generar índices válidos sobre la verdad o la falsedad de una hipóte-
sis. Las pruebas de hipótesis deben ser miradas desde otra perspecti-
va. Siguiendo la regla de aceptar o rechazar una hipótesis no estamos
diciendo nada definitivo sobre si la hipótesis es o no verdadera... Lo
que se puede demostrar es que si somos consecuentes con esa regla, a
la larga, la rechazaremos cuando sea cierta no más, digamos, que una
de cada 100 veces; adicionalmente, la rechazaremos con alta frecuencia
cuando sea falsa.
Savage (1957)
Con mucha frecuencia se sabe de antemano que las hipótesis de nulidad
son falsas antes incluso de recoger los datos; en ese caso el rechazo

o la aceptación, simplemente es un reflejo del tamaño de la muestra y


no hace, por tanto, contribución alguna a la ciencia.
Bakan (1966)
Es un hecho objetivo que casi nunca hay buenas razones para esperar que la
hipótesis nula sea verdadera. Por qué razón la media de los resultados de
cierta prueba habría de ser exactamente igual al este que al oeste del río
Mississipi? Por qué deberíamos esperar que un coeficiente de correlación
poblacional sea igual a 0.00? Por qué esperar que la razón mujeres/hombres
sea exactamente 50:50 en una comunidad dada? o por qué dos drogas habrán de
producir exactamente el mismo efecto? Una mirada a cualquier conjunto de
estadísticas que incluyan totales poblacionales confirmará de inmediato que
la nulidad se presenta muy raramente en la naturaleza
Rozeboom (1960)
A pesar de la preeminencia que ha alcanzado este método en las
revistas experimentales y los textos de estadística aplicada, su
empleo se basa en una incomprensión clave de la naturaleza de la
inferencia racional; por ello las pruebas de significación casi
nunca constituyen un medio apropiado para la investigación cientí-
fica, si es que lo son en algún caso. Una hipótesis no es algo como
un pedazo de tarta que uno puede aceptar o rechazar a través de una
decisión voluntaria. Si hay algo que señala la irrelevancia
práctica de las pruebas de hipótesis convencionales, es su in-
capacidad para proveer de genuinos recursos al investigador para su
conducta inferencial. Quién alguna vez ha renunciado a una
hipótesis solo porque un experimento produjo un resultado no
significativo? El lector muy bien puede permanecer impasible ante
los cargos que se imputan a las pruebas precisamente porque, quizás
sin comprenderlo, nunca ha tomado el método muy en serio.
Sacket (1979)

Las muestras demasiado pequeñas


pueden servir para no probar nada; las
muestras demasiado grandes pueden
servir para no probar nada.
Lanes y Poule (1984)
Aunque existe un precedente histórico de larga data en el empleo de pruebas
de significación como recurso básico para interpretar datos epidemiológicos,
en realidad no existe ninguna razón sólida para ello. El pronóstico matutino
del tiempo puede sernos útil para decidir si llevaremos o no el paraguas. El
metereólogo puede ofrecer una complicada exposición y una declaración
probabilística para vaticinar la inclemencia del tiempo. La decisión final
sobre acarrear o no el paraguas, sin embargo, queda en manos del receptor de
mensaje; ella puede depender del lapso durante el cual él se hallará al aire
libre, de su proclividad a llevar un paraguas en el metro o de que su
sobretodo esté disponible. El meteorólogo no nos aconseja acerca de cómo
actuar sino que solo nos comunica aquel subconjunto de información sobre el
tema que él domina.
Lykken (1968)
Una prueba de hipótesis nunca es condición suficiente para
concluir que una teoría se ha corroborado, que un hecho
empírico útil se ha establecido con confianza razonable, o que
el informe sobre un experimento debe ser publicado. El valor
de cualquier investigación puede ser determinado, no a partir
de resultados estadísticos, sino solo mediante una evaluación
incisiva, aunque necesariamente subjetiva, de la coherencia y
la racionalidad de una teoría, del grado de control empleado,
de la calidad de las técnicas de medición y de la importancia
práctica o científica del fenómeno estudiado
Bibliografía recomendada

Statistics:
A Bayesian Perspective
D. Berry, 1996, Duxbury Press.
Referencias más avanzadas

Bayesian Biostatistics
D. Berry & D. Stangl, 1996,
Marcel Dekker Pub.
Bayesian Data Analysis
A. Gelman, J. Carlin, H. Stern,
D. Rubin, 1995, Chapman & Hall.
Las tareas de la estadística

Diseño: ¿qué datos elegir ?


Descripción de datos: ¿cómo resumir?
Inferencia: ¿Qué significan los datos?
ENFOQUES
• Frecuentista
• Bayesiano
Dos interpretaciones de la
probabilidad
 Frecuencia con que ocurre un evento a
lo largo de una larga serie de
experiencias
 La probabilidad basada en el grado de
convicción es una afirmación subjetiva
Probabilidad condicional y regla de
Bayes
P(A ∩B)
P(A|B) =
P(B)

A B

A∩B

Equivalentemente P(A ∩B) = P(B)P(A|B)


Ley de la probabilidad total
Regla de multiplicación P(A∩B) = P(A|B)P(B)
P(A∩B) = P(B|A)P(A)
Ley de la probabilidad total
P(B) = P(A∩B) + P(~A∩B)
= P(B|A)P(A) + P(B|~A)P(~A)

A ~A∩B
A∩B B
20 pacientes con cáncer de mama
localmente avanzado; unas eran
receptoras de estrógenos y las
otras receptoras de progesterona
Progesterona
+ -
Estr+ 8/20 4/20
Estr- 1/20 7/20
A es el evento de tener un tumor
receptor de estrógeno
B es el evento de tener un tumor
receptor de progesterona

 Probabilidad de A?
 Probabilidad de B?
 Probabilidad de A y B?
 Son A y B independientes?
Ley de probabilidad total
 P(B|A)

 P(B|no A)

 Recordando que P(A)=12/20 , calcular


P(B) directamente y a través de la ley
de probabilidad total
Regla de Bayes

Regla de la probabilidad inversa:


P(A B) P(B | A)P(A)
P(A | B) = =

 P(B) P(B)
P(B | A)P(A)
=
P(B | A)P(A) + P(B |~ A)P(~ A)
Notar que La expansión de P(B) en el
denominador es la ley de la probabilidad total
Versiones alternativas de la regla
de Bayes
1
P(A | B) =
P(B |~ A) P(~ A)
1+
P(B | A) P(A)

P(~ A | B) P(B |~ A) P(~ A)


=
P(A | B) P(B | A) P(A)

Donde B es “datos” y A es una “hipótesis”:


odds a posteriori = razón de veros.x odds a priori
Probabilidad condicional y
árboles. ¿Cuántas niñas?
Primer
First Segundo
Second Número
Number
 Familia con dos hijos hijo
child hijo
child degirls
of niñas Prob.

 D: Ambas niñas G2 2 1/4

 C: Al menos una lo es G1
3/4
B2 1 1/4
G2 1 1/4

B1
P(CD)
P(D | C) = B2 0 1/4

 P(C)
P(G1G2) 1 / 4 1
= = =
 P(C) 3/4 3
Condicionado a G2:
¿Cuántas niñas?
Primer
First Segundo
Second Número
Number
hijo hijo degirls
niñas
 Familia con 2 hijos child child of Prob.

G2 2 1/4
 D: Ambas niñas
 G2: La segunda es niña G1 1/2

B2 1 1/4
G2 1 1/4

B1

P(G2 D) B2 0 1/4

P(D | G2) =

 P(G2)
P(G1 G2) 1 / 4 1
= = =
 P(G2)
 1/ 2 2
Un problema de urnas

Hay 2 urnas: 90 R’s 95 R’s


10 G’s 5 G’s

 Datos: De 5 selecciones sin reemplazo,


1 es Roja, 4 son verdes
 Suponer P(urna 1) = P(urna 2) = 1/2
 P(urna 1 | Datos) = ?
P(urna 1 | datos) =
40/41=97.5%
 P(1 | Datos) ∝ P(Datos |1) P(1)
 P(Datos | 1) = 2.51E–4
 P(Datos | 2) = 6.31E–6
 Odds a posteriori:
P(1 | Data) P(Data | 1) P(1)
=
P(2 | Data) P(Data | 2) P(2)
0.000251 1 / 2
= = 40
0.00000631 1 / 2
¿Cuántos verdes?
Asuma:
 Bandejas tienen 5 discos.
 0, 1, 2, 3, 4, o 5 son verdes.
 Probabilidades a priori son iguales

5R 4R 3R 2R 1R 0R
0G 1G 2G 3G 4G 5G

1/ 6 1/ 6 1/ 6 1/ 6 1/ 6 1/ 6
Probabilidades actualizadas de
elegir un disco verde
 Se observa G, un disco verde
 Verosimilitudes:
P(G|0) P(G|1) P(G|2) P(G|3) P(G|4) P(G|5)
0 1/5 2/5 3/5 4/5 1
 Probabilidades a posteriori:
P(0|G) P(1|G) P(2|G) P(3|G) P(4|G) P(5|G)
0 1/15 2/15 3/15 4/15 5/15

5R 4R 3R 2R 1R 0R
0G 1G 2G 3G 4G 5G
Probabilidad de que el próximo
disco sea verde (sin reemplazo)

G: 0 1 2 3 4 5
P(G|G1) 0 1/15 2/15 3/15 4/15 5/15
P(G2|G) 0 0/4 1/4 2/4 3/4 4/4
Producto 0 0/60 2/60 6/60 12/60 20/60

P(G2|G1) = suma de productos = 2/3


Ud. y otros dos sujetos, Carmen y Luis, han sido
detenidos en un país lejano. Las autoridades han
decidido ejecutar a dos de ustedes mañana, pero Ud.
no sabe a quiénes. Ud. decide que tiene 2/3 de
probabilidad de morir, pero la duda lo corroe. Ud. le
pide al guardia información. El acepta ayudarlo. Le
dice que irá a mirar los nombres en un pizarrón que
está en la jefatura; cuando regrese le dirá un nombre,
pero éste no será el suyo (aunque fuera uno de los
dos escritos en la pizarra). Cuando regresa, el
guardián le comunica que Carmen será ejecutada. Ud
se alegra pues cree que ahora la probabilidad de
morir para Ud. ha descendido a 1/2.
ESTO ES INCORRECTO. ¿Por qué?
Calcule la probabilidad correcta de que Ud. sea
uno de los que va a morir luego de saber la
información del guardia.

Suponga que Luis ha oído toda la conversación.


¿Cuál era la probabilidad de él antes de que el
guardia volviera? ¿Cuál es su nueva probabilidad
luego de conocer la información que éste le ha
dado a Ud?

(Suponga que el guardia se comporta siempre de manera


equilibrada: si tiene una decisión que adoptar, lo hace con
una moneda)
Gemelos ¿idénticos o
fraternales?

Se sabe que aproximadamente el 30% de los gemelos


son idénticos (I) y el 70% fraternales (F). Si son
idénticos, tienen que tener igual sexo (la mitad son
parejas de niñas y la otra mitad parejas de varones);
si son fraternales, la mitad son mixtos, un cuarto son
2 niñas y otro cuarto son 2 niños.
Ud. Va a ser padre de gemelos. Sabe que son niñas.
¿A cuánto asciende la probabilidad de que sean I?
Se sabe además que los 2 tienen el mismo grupo
sanguíneo. Tal cosa ocurre con probabilidad 6/10
entre gemelos I, pero solo con probabilidad 1/10 con
gememos F.

¿Cuánto es ahora la probabilidad? (es decir,


teniendo en cuenta las dos informaciones).
INFERENCIAS SOBRE
PROPORCIONES
 La Población es de 2 tipos: cara-cruz,
muere-sobrevive, verde-no verde, niño-
niña, éxito-fracaso
 Lo que interesa es p = proporción de
“éxitos” en la población
 p es desconocida .
 Problema estadístico: inferencias sobre
la proporción p.
Pasos para las inferencias con
proporciones
§ Especificar un conjunto de modelos
§ Asignar probabilidades a priori a cada uno
§ Recoger datos
§ Calcular verosimilitudes de cada modelo:
P(datos|modelo)
§ Usar Bayes para calcular probabilidades a
posteriori: P(modelo|datos)
§ Sacar inferencias (predicción en particular)
¿Quien gana el próximo juego?
A y B son dos velocistas. Tenemos una
información general sobre ellos Yo creo que A
es un poco mejor que B. Ellos van a sostener
un duelo en los próximos días y yo quisiera
estimar la probabilidad de que gane A. Podría
esforzarme y dar una cifra a partir de mi
visión subjetiva del asunto. Pero
procederemos de otro modo por razones que
veremos luego. Imaginemos varios modelos de
urnas que contienen bolas A y bolas B. En cada
uno, la proporción de A’s sería la probabilidad
de victoria de A. No sabemos cuál de esos
modelos es el verdadero.
¿Quien gana el próximo juego?
Imaginemos 11 urnas con 0A, 1A, ..., 10A

10B 9B 8B 7B 6B 5B 4B 3B 2B 1B 0B
0A 1A 2A 3A 4A 5A 6A 7A 8A 9A 10A

Probabilidad de A en los modelos


0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Probabilidad a priori atribuidas a los modelos
0 0.02 0.03 0.05 0.10 0.15 0.20 0.25 0.15 0.05 0
Con probabilidades a priori
Modelos
M0 M1 M2 M3 M4 M5 M6 M7 M8 M9 M10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0 0.02 0.03 0.05 0.10 0.15 0.20 0.25 0.15 0.05 0

Prob B mejor que A = 0.20


Prob A mejor que B = 0.65

Prob B igual que A = 0.15

P(A)=Σ P(A gana |Mi) P(Mi) = 0.598 ≈ 0.6


Actualizando la probabilidad con
nuevos datos empíricos
A y B juegan un match a 4 partidos. Los tres primeros terminaron
con victoria para A en el primero y para B en los otros 2.

D={ABB}
¿Cuál es la probabilidad de gane A teniendo en cuenta estos
datos? ¿Cuánto menos que 0.6?
P(D | M6) P(M6)
P(M6 |D) =
P(D)

P(M6) es probabilidad a priori=0.2


P(D | M6) es versomilitud
P(D)=Σ P(D | Mi) P(Mi)
Probabilidad a posteriori para M6
P(D | M6) P(M6)
P(M6 |D) =
P(D)

P(M6) =0.2
P(D | M6)= P(ABB|M6)=P(A|M6) P(B|M6) (B|M6) =(0.6)(0.4)(0.4)=0.096

P(D)=Σ P(D | Mi) P(Mi)=0.08616

(0.096) (0.2)
P(M6 |D) = = 0.01920
08616
Con probabilidades a posteriori
Modelos
M0 M1 M2 M3 M4 M5 M6 M7 M8 M9 M10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0 0.02 0.04 0.09 0.17 0.22 0.22 0.28 0.06 0.01 0

Prob B mejor que A = 0.15


Prob A mejor que B = 0.47

Prob B igual que A = 0.22

P(A)=Σ P(A gana |Mi) P(Mi) = 0.52


Pasos para el análisis
 Establecer priors
 Calcular verosimilitudes
 Obtener probabilidades a posteriori

Multiplicar priors por versomilitudes

Sumar estos productos

Dividir cada producto por la suma
Tratamiento para la leucemia
M=mejor P=peor n=21s=18 f=3
11 urnas con 0M, 1M, ..., 10M

10P 9P 8P 7P 6P 5P 4P 3P 2P 1P 0B
0M 1M 2M 3M 4M 5M 6M 7M 8M 9M 10M

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

Pero ahora hay tres evaluadores: DR. X (abierto o poco


invormado), Dr. Y (informado y optimista), Dr. Z
totalmente esceptico (tratamiento=placebo)
Probabilidad a priori atribuidos a
los modelos por X, Y y por Z

10P 9P 8P 7P 6P 5P 4P 3P 2P 1P 0B
0M 1M 2M 3M 4M 5M 6M 7M 8M 9M 10M

X 1/11 1/11 1/11 1/11 1/11 1/11 1/11 1/11 1/11 1/11 1/11

Y 1/55 2/55 3/55 4/55 5/55 6/55 7/55 8/55 9/55 10/55 11/55

Z .001 .001 .001 .001 .001 0.99 .001 .001 .001 .001 .001

PX(M)=0.5 PY(M)=0.7 PZ(M)=0.5


Datos empíricos tras estudiar n=21 pares
de pacientes:
MPMMM PMMMM MMMPM MMMMM M:
s=18 f=3

Versomilitud de los datos : p18 (1-p)3


Para el modelo p=0.8, por ejemplo, se tendría:
(0.8)18 (0.2)3=0.000144=1.44 ·10-4
Probabilidades a posteriori son:

10P 9P 8P 7P 6P 5P 4P 3P 2P 1P 0B
0M 1M 2M 3M 4M 5M 6M 7M 8M 9M 10M

X 0 0 0 0 0 0.001 0.019 0.127 0.418 0.435 0

Y0 0 0 0 0 0.001 0.008 0.076 0.324 0.425 0

Z0 0 0 0 0 0.578 0.008 0.054 0.176 0.084 0

PX(M|D)=0.826 PY(M|D)=0.834 PZ(M|D)=0.639


Infinitos modelos
Aquí la suma de barras en todo un
intervalo es un área bajo la curva
Beta(a,b) para a, b = 1, 2, 3, 4:
Construcción de densidad Beta
Beta (4.5, 3) se calcula p3.5(1-p)2 para valores de
p entre 0 y 1 (por ejemplo 0, 0.05, 0.10, ....,0.95,1)
a
Probabilidad predictiva = Media de la distribución =
a+b
Actualización de densidades beta

Se tiene densidad a priori Beta (a,b) : pa-1(1-p)b-1

Se observan f fallos y s éxitos: la verosimilitud si


la probabilidad es p es igual a: ps (1-p)f

(Prior) X (verosimiltiud) = posterior

Entonces la densidad a posteriori es:


Beta (a+s,b+f) : pa+s-1(1-p)b+f-1
Probabilidades predictivas
para densidades beta
 Asuma Beta(a,b) como densidad a
priori para la propensión p
 La probabilidad de éxito en la próxima
observación es la media de p: a/(a+b)
 La probabilidad de 2 éxitos en las
próximas 2 observaciones, por ejemplo,
es a a +1
a + ba + b+1
Probabilidades predictivas para
para una uniforme, Beta(1,1):
Para n observaciones, la probabilidad
predictiva de
k éxitos es 1/(n+1).
Para n = 10: Cada probability
Each probabilidadises 1/11
1/11

0 1 2 3 4 5 6 7 8 9 10
k
probabilidades predictivas
para una observación
Beta(5,2)

Beta(4,2) 4/6
Exito
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p

Fallo Beta(4,3)
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p
2/6

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p
Tasa de graduados expuestos a
plomo
Para prior uniforme,
Para prior beta(9,1),
a posteriori es Beta(23,8):
a posteriori es Beta(31,8):

p30 (1-p)7
p22 (1-p)7

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1 0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p p

Media = 0.74 Media = 0.79


Predicción para los próximos 10
 Asuma prior uniforme (posterior es
Beta(23,8)). ¿Cuál es la
probabilidad (predictiva) de que al
menos 9 de cada 10 se gradúen
de la EM?
23 24 25 26 32
P(10) = ... = 0.076
31 32 33 34 40
8 23 24 25 31
P(9) = 10 ... = 0.190
31 32 33 34 40

 P(9 o 10) = 0.190 + 0.076 ≈ 27%


Ejemplo con una
observación—de Beta(4,2):
Beta(5,2)

Beta(4,2)
Exito.

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p

Beta(4,3)
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p Fallo

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p
Problema de la leucemia
Dr. X Beta (19,4)
0.5 19/23=0.826 (antes 0.826)

Dr. Y Beta (20,4)


0.7 20/24=0.833 (antes 0.834)))

Dr. Z Beta (34,19)


0.5
34/53=0.641 (antes 0.639)
Un recurso para fijar la densidad Beta
adecuada
Establecer probabilidad de éxito: r

r = a/ (a+b)
y probabilidad de un segundo éxito dado
que se produjo el primero: r+

r+ = (a+1)/ (a+b+1)

a=r(1-r+)/(r+-r)
b=(1-r )(1-r+)/(r+-r)
Ejemplo

Probabilidad de éxito:
r=0.70
Probabilidad de un segundo éxito dado
que se produjo el primero:
r+=0.75

a=(0.70)(1-0.75)/(0.75-0.70)=3.5
b=(1-0.70)(1-0.75)/(0.75-0.70)=1.5
Areas aproximadas e intervalos de
probabilidad
r = a/ (a+b)
r+ = (a+1)/ (a+b+1)
t= {r (r+-r)}1/2
Z correspondiente a cierto valor ϕ
entre 0 y 1 es igual a z=(ϕ - r) / t
r = 0.70 r+ = 0.72 t= 0.118
Para ϕ=0.9 entonces z=(0.9 - 0.7) / 0.118=1.69
0.9

Areas bajo curvas beta


aproximadas a través de la 1.69
distribución normal
Inferencia frecuentista
Intervalos de confianza

 Intervalo de probabilidad Bayesianismo


se calcula mediante el área bajo la
densidad a posteriori.

 El intervalo de confianza frecuentista es


el intervalo de probabilidad a posteriori
del enfoque Bayesiano asumiendo un
prior no informativo.
Intervalo de confianza para
22 éxitos y 7 fallos

22 7
p (1-p)

95%

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1
p

Intervalo de confianza al 95%: 0.58 a 0.88


En cierta situación se han producido
s éxtios y f fracasos
Prior Posterior
Beta (a,b) Beta(a+s,b+f)
llamando A=a+s y B=b+f:
r = A / (A+B) r+=(A+1)/(A+B+1)
t={r(1-r+)}1/2

Intervalo de probabilidad al 1-α %:


r - z 1-α /2 t ; r + z 1-α /2 t
A 301 individuos se les ha informado que
son serpositivos VIH y 91 han pensado
en el suicidio (30.2%)
Prior Posterior
Beta (1,1) Beta(92,302)
r = A / (A+B) =92/303=.90363
r+=(A+1)/(A+B+1)=93/304=0.30592
t=r(1-r+)=0.0264

Intervalo de probabilidad al 95 %
(z 1-α /2=1.96):
0.2519 ; 0.3554
Intervalos de probabilidad para
los doctores X, Y y Z

r r+ t E Intervalo

X 0.826 0.833 0.07737 0.1516 67.4 - 97.7


Y 0.833 0.840 0.07454 0.1461 68.7 - 97.9
Z 0.642 0.648 0.06559 0.1279 51.4 - 76.9

P = 18/21 = 0.857 C.I.A: (63.6 - 96.9)


Comparación de proporciones
¿Previene la ciclemia contra la malaria?
Se inyectan con malaria 15 ciclémicos y 15 no ciclémicos
sólo 2 de los primeros la contraen; 14 de los segundos
enferman

Verosimilitudes
P(Datos p) = p s (1-p) f

P(Datos pC) = pC 2 (1-pC)13 P(Datos pN) = pN14 (1-pN)


CICLÉMICOS NO CICLÉMICOS
Verosimilitudes para ciclémicos y no ciclémicos
para 11 modelos (p=O, 0.1, 0.2, ... , 0.9, 1)
p P(Dclp) P(Dn IP)
Ciclémicos No ciclémicos
o OE+OO OE+OO
0,1 2,54E-03 OE+OO
0,2 2,20E-03 OE+OO
0,3 8, 72E-04 OE+OO
0,4 2,09E-04 OE+OO
0,5 3,05E-05 3,05E-05
0,6 2,42E-06 3, 14E-04
0,7 OE+OO 2,04E-03
0,8 OE+OO 8,80E-03
0,9 OE+OO 2,29E-02
1 OE+OO OE+OO
/

/
,,j

I I I I I j /
o 0,2 0,4 0,6 0,8 1

~
/~1~-1~_
1~1~_1~_
1 ~'~~~-J/
o 0,2 0,4 0,6 0,8 1
Comparación de proporciones
con 2 muestras
15 portadores de sickle-cell (hetero-zigóticos) y 15 no
portadores; todos fueron inyectados con parásitos de
malaria. 2 de los 15 portadores y 14 de los 15 no
portadores contrajeron malaria. Las verosimilitudes son:
pC2(1–pC)13 y pN14(1–pN). Al considerar 11 modelos para
cada caso; hay 121 modelos conjuntos (121 pares).

La verosimilitud de uno de ellos sale (asumiendo


independencia) de multiplicar las verosimilitudes
respectivas:

pC2(1–pC)13pN14(1–pN)
pN

pC
Probab de un no
ciclémico es menor que
de un ciclémico

pN
Probab de un ciclémico
es mayor que de un no
ciclémico

pC
Verosimilitudes (multiplicadas por 10 elevado a la 7)

0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1

0 0 0 0 0 0 0 0 0 0 0 0

.1 0 582 503 200 48 7 1 0 0 0 0

.2 0 224 193 77 18 3 0 0 0 0 0

.3 0 52 45 18 4 1 0 0 0 0 0

.4 0 8 7 3 1 0 0 0 0 0 0

.5 0 1 1 0 0 0 0 0 0 0 0

.6 0 0 0 0 0 0 0 0 0 0 0

.7 0 0 0 0 0 0 0 0 0 0 0

.8 0 0 0 0 0 0 0 0 0 0 0

.9 0 0 0 0 0 0 0 0 0 0 0

1 0 0 0 0 0 0 0 0 0 0 0
Probabilidades a priori
distribuidas uniformemente entre
las 121 posibilidades

pN
pC
Probabilidades a posteriori para los
PC 121 modelos según Dr. Abierto
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1 Pr

1 0 0 0 0 0 0 0 0 0 0 0 0

.9 0 .292 .252 .100 .024 .004 0 0 0 0 0 .672

.8 0 .112 .097 .039 .009 .001 0 0 0 0 0 .258

.7 0 .026 .022 .009 .001 0 0 0 0 0 0 .060

.6 0 .004 .004 .001 0 0 0 0 0 0 0 .009

PN .5 0 0 1 0 0 0 0 0 0 0 0 0

.4 0 0 0 0 0 0 0 0 0 0 0 0

.3 0 0 0 0 0 0 0 0 0 0 0 0

.2 0 0 0 0 0 0 0 0 0 0 0 0

.1 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

Pr 0 .434 .376 .149 .036 .005 0 0 0 0 0 1


Prob( PC=0.3)=.149 Prob( PN=0.9)=..672
El producto de estos dos números (0.01)

es la probabilidad de la celda correspondiente al par PC=0.3 y PN=0.9

Probabilidad de que un portador inyectado desarrolle


malaria es igual a: Σ P(Malaria |Mi) P(Mi) =
(0x0)+(.431x.1)+.......=0.1810

Probabilidad de que un no portador inyectado desarrolle


malaria es igual a: Σ P(Malaria |Mi) P(Mi) =
(0x1)+(.672x.9)+.......=0.8390
Probabilidades a priori para los 121
modelos según Dr. Informado PC
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1 Prob

1 .040 .040 .040 .030 .021 .010 .008 .006 .004 .001 .040 .240

.9 .040 .034 .034 .032 .016 .010 .008 .006 .004 .030 .001 .215

.8 .040 .034 .034 .032 .020 .010 .008 .006 .024 .001 .001 .210

.7 .010 .020 .020 .012 .005 .005 .005 .020 .001 .001 .001 .100

.6 .004 .006 .006 .003 .002 .005 .020 .001 .001 .001 .001 .050

.5 .002 .002 .002 .002 .002 .020 .001 .001 .001 .001 .001 .035

PN .4 0.01 0.01 0.01 0.01 .020 .001 .001 .001 .001 .001 .001 .030

.3 .001 .001 .001 .020 .001 .001 .001 .001 .001 .001 .001 .030

.2 .001 .001 .020 .001 .001 .001 .001 .001 .001 .001 .001 .030

.1 .001 .020 .001 .001 .001 .001 .001 .001 .001 .001 .001 .030

0 .020 .001 .001 .001 .001 .001 .001 .001 .001 .001 .001 .030

Pr .160 .160 .160 .135 .090 .065 .065 .045 .040 .040 .050 1
Ahora se constriuiría la tabla con las
verosimilitudes de manera parecida a como
se hizo en el caso anterior y de inmediato se
multiplican ambas tablas para obtener las
probabilidades a posteriori de todos los
pares de modelos según el Dr. Informado.
Probabilidades a posteriori para los
PC
121 modelos según Dr. Informado
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1 Prob

0 0 0 0 0 0 0 0 0 0 0 0 .0

.9 0 .312 .270 .101 .012 .001 0 0 0 0 0 .696

.8 0 .120 .104 .039 .006 0 0 0 0 0 0 .269

.7 0 .016 .014 .003 0 0 0 0 0 0 0 .034

.6 0 .001 .001 0 0 0 0 0 0 0 0 .002

PN .5 0 0 .0 0 0 0 0 0 0 0 0 0

.4 0 0 0 0 0 0 0 0 0 0 0 0

.3 0 0 0 0 0 0 0 0 0 0 0 0

.2 0 0 0 0 0 0 0 0 0 0 0 0

.1 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

Pr 0 .449 .388 .143 .018 .02 0 0 0 0 0 1


Tal y como hicimos antes con el Dr. Abierto,
haremos ahora con el Dr. Informado:

Probabilidad de que un portador inyectado desarrolle


malaria es igual a: Σ P(Malaria |Mi) P(Mi) =
(0x0)+(.449x.1)+(.388x.2).......=0.174

Probabilidad de que un no portador inyectado desarrolle


malaria es igual a: Σ P(Malaria |Mi) P(Mi) =
(0x1)+(.696x.9)+(.269x.8).......=0.866
En resumen: Dr.Abierto Dr. Inform

ciclémicos
Probabilidad 0.180 0.174
predictiva para
unos y otros no
ciclémicos 0.859 0.866

Está claro que la probabilidad de ciclémicos es mayor; la pregunta


relevante es: ¿cuán protectiva es la condición de ciclémicos?

¿Cuál es la probabilidad de que


d= pN – pC sea al menos x?
La probabilidad de que
d= pN – pC sea al menos x se denota
mediante la expresión PdALx
0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1 Pr

1 0 0 0 0 0 0 0 0 0 0 0 0
Para el caso del Dr. .9 0 .292 .252 .100 .024 .004 0 0 0 0 0 .672
Abierto y x=0.6, PdAL.6 .8 0 .112 .097 .039 .009 .001 0 0 0 0 0 .258
es la suma del área .7 0 .026 .022 .009 .001 0 0 0 0 0 0 .060
marcada en la tabla : .6 0 .004 .004 .001 0 0 0 0 0 0 0 .009

.292+.232+.100+....+.001 .5 0 0 1 0 0 0 0 0 0 0 0 0

=.879 .4 0 0 0 0 0 0 0 0 0 0 0 0

.3 0 0 0 0 0 0 0 0 0 0 0 0

.2 0 0 0 0 0 0 0 0 0 0 0 0

.1 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0

Pr 0 .434 .376 .149 .036 .005 0 0 0 0 0 1


PdALx para ambos evaluadores y
diferentes valores de x

X 0 .5 .6 .7 .8 .9
Abierto 1 .968 .879 .656 .292 0
Informado 1 .988 .922 .702 .312 0
P(pN – pC > 0.6 | datos)
Densidad beta (15,2)

Densidad beta (3,14)


Producto de verosimilitudes
PN14(1-pN)

PN14(1-pN) PC2(1-pC)13

PC2(1-pC)13
PdALx = P(pN – pC > x)
(exacta, usando Minitab o soft
equivalente)
x PdALx x PdALx
0 1.00 0.5 0.96
0.1 1.00 0.6 0.82
0.2 1.00 0.7 0.52
0.3 1.00 0.8 0.21
0.4 0.99 0.9 0.05
PdALx (Probabilidad de que la
diferencia sea al menos x) en
forma gráfica:
1
PdALx
.8 0.816 = PdAL.6

.6

.4

.2

0
0 .2 .4 .6 .8 1
x
Intervalos de probabilidad para
diferencias de proporciones
pT es beta (aT,bT) pC es beta (aC,bC)

rT = aT/ (aT+bT) rC = aC/ (aC+bC)


r+T= (aT+1)/ (aT+bT+1) r+C= (aC+1)/ (aC+bC+1)
tT= {rT (rT+-rT)}1/2 tC= {rC (rC+-rC)}1/2

d − ( rT − rC )
Z =
t −t
2
T
2
C
Intervalo de probabilidad para d
= p T - pC

( rT − rC )  Z α t +t
2
T
2
C
1−
2

Evaluación de hipótesis nula (H: d=0)


equivale a examinar si o está o no
dentro del intervalo
Prostitutas en Zaire: condones y seropositividad a HIV
No usan Usan
Sero + 100 0
Sero - 267 6
Total 367 6

pL beta (101,268) PH beta (1,7)


rL = 101/369 rH = 1/8
tL= .0231793 tH= .1102396

(rL − rH )  Z α t +t
2
L
2
H = .149  .221
1−
2

Intervalo al 95%: - 0.72 ; 0.37


Frecuentismo vs. Bayesianismo
Seis comparaciones
 1. Probabilidades de datos vs.
Probabilidades de parámetros (y
también datos).

 2. Evidencia usada:
• Frecuentismo mide la específica de
un experimento.
• La distribución depende de toda la
información disponible.
 3. Depende de las probabilidades
de resultados que podrían o no
ocurrir:
• Mediciones frecuentistas (e.g., valores
p,intervalos de confianza) incorporan
probabilidades de datos que podrían no
haber ocurrido.
• Probabilidades a posteriori dependen
solo de los datos a través de la
verosimilitud, que se calcula a partir de
datos observados.
 4. Flexibilidad:
• Las mediciones del frecuentismo
dependen del diseño, el cual debe
cumplirse como se previó.
• Bayesianismo: continúa la actualización
siempre que haya nuevos datos. El
tamaño muestral no ha de establecerse
antes. Un experimento puede detenerse
en cualquier momento y por cualquier
razón .
 5. Probabilidades predictivas
• Frecuentismo: asume valores
particulares de parámetros o hipótesis.
• Bayesianismo: promedia sobre los
parámetros.

 6. Toma de decisiones
• Frecuentismo: históricamente las evita
• Bayesianismo: se pronuncia sobre
pérdidas y ganancias de cada decisión
de modo explícito.
Los controles son esenciales
E.E. Peacock, Medical World News, Sept 1, 1972:
Un día, cuando yo era aún estudiante de medicina, un
importante cirujano de Boston visitó nuestra escuela y
ofreció una conferencia sobre un estudio basado en un
gran número de pacientes que habían sido objeto de
operación vascular reconstructiva. Al fin de la charla, un
joven estudiante que estaba atrás preguntó
tímidamente: ¿Tenía Ud.. controles? El gran cirujano
sonrió y dijo ”Quiere Ud.. decir si yo dejé de operar a la
mitad de los pacientes?" La audiencia estaba en vilo.
La voz de atrás respondió quedamente: ”Sí, en eso
estaba pensando?”. El puño del visitante sonó como un
trueno. “Desde luego, no. Ello hubiera matado a la mitad
de ellos”. En medio del silencio se pudo escuchar la
pregunta casi inaudible del estudiante: “¿Cuál mitad?”

Вам также может понравиться