Академический Документы
Профессиональный Документы
Культура Документы
CUANTITATIVAS
EDUARDO VERGARA WEKSELMAN
MEDICO EPIDEMIOLOGO
RNE 20215
CAMPANA DE GAUSS
1. Al describir una variable, no es suficiente
con dar una medida de tendencia central.
2. Informar de la dispersin de estos datos, de
si estn todos muy agrupados o no alrededor
de la media.
stas son las medidas de dispersin, entre las
que destacan la desviacin estndar y la
amplitud o
rango.
El rango es la diferencia entre el valor mximo
y
mnimo en la muestra.
La desviacin estndar informa de la
variabilidad de la variable.
3. Una variable que sigue una distribucin
simtrica (distribucin normal, la famosa
campana de Gauss), el 95% de los valores se
encuentra entre la media ms y menos 1,96
desviaciones estndar (figura
1). En lugar de 1,96 se suele redondear a 2.
CONTRASTE DE HIPTESIS
La estadstica inferencial, adems de la estimacin de parmetros, se encarga del
contraste de hiptesis.
Si se plantean preguntas del tipo: Es ms alto el porcentaje de cesreas en los
hospitales pblicos que en los privados? La vigilancia electrnica del feto durante el
trabajo de parto, tiene efectos positivos en el resultado del embarazo? La lactancia
materna disminuye el nmero de infecciones en los lactantes?
El contraste de hiptesis consiste en comprobar si una hiptesis puede ser aceptada o
rechazada con cierta probabilidad de acertar. La hiptesis que va a ser contrastada es la
hiptesis nula, la hiptesis de la igualdad, de la ausencia de diferencia.
Se formula con la intencin expresa de ser rechazada. Si se rechaza, puede entonces
aceptarse la hiptesis alternativa, que es la hiptesis de investigacin del
experimentador.
Por ejemplo, el objetivo de nuestro estudio es ver si el peso de los recin nacidos es
menor entre las madres fumadoras respecto a las no fumadoras.
La hiptesis nula es que no hay diferencias entre el peso de los recin nacidos segn la
madre sea fumadora o no.
La hiptesis alternativa es que el peso de los recin nacidos de madres fumadoras es
menor que el peso de los recin nacidos de madres no fumadoras.
Siempre existe una posibilidad de error.
Si se rechaza la hiptesis nula siendo cierta, el error se denomina alfa, o error tipo I, y si
no se rechaza la hiptesis nula siendo falsa, el error se denomina beta o error tipo II.
PRUEBAS ESTADISTICAS MS
UTILIZADAS SEGN TIPO DE VARIABLES
INTERPRETACION
CONCLUSION
p > 0.05
No rechazar Ho
No hay evidencia suficiente para
rechazar
Rechazar Ho a favor de Ha
hay evidencia suficiente para
rechazar
Rechazar Ho a favor de Ha
hay evidencia suficiente para
rechazar
p 0.001
Rechazar Ho a favor de Ha
hay evidencia suficiente para
rechazar
ANALISIS PARAMETRICO Y NO
PARAMTRICO
Un parmetro es un dato que es tomado como necesario para analizar o valorar una
situacin.
A partir del parmetro, una determinada circunstancia puede entenderse o situarse en
perspectiva.
Para las matemticas, un parmetro es una variable que permite identificar, en una
familia de elementos, a cada uno de ellos mediante su valor numrico.
Un parmetro estadstico es una funcin definida sobre los valores numricos de una
poblacin. Se trata, por lo tanto de un valor representativo que permite modelizar la
realidad.
La utilidad de los parmetros estadsticos se encuentra ante la dificultad para manejar
una gran cantidad de datos individuales de una misma poblacin. Este tipo de parmetros
permite obtener un panorama general de la poblacin y realizar comparaciones y
predicciones.
En las ciencias de la computacin, un parmetro es una variable que puede ser recibida
por una rutina o una subrutina (que utilizan los valores asignados a un parmetro para
modificar su comportamiento en el tiempo de ejecucin).
La parametrizacin de una base de datos, por otra parte, es la organizacin y
PRUEBAS PARAMTRICAS
Su clculo implica una estimacin de los parmetros de la poblacin con base
en muestras estadsticas.
Mientras ms grande sea la muestra ms exacta ser la estimacin, mientras
ms pequea, ms distorsionada ser la media de las muestras por los valores
raros extremos.
Son valores numricos dados.
Los anlisis paramtricos parten de los siguientes supuestos:
1.La distribucin poblacional de la variable dependiente es normal: el universo
tiene distribucin normal.
2.El nivel de medicin de las variables es por intervalos de razn.
3.Cuando dos o ms poblaciones son estudiadas, tienen una varianza
homognea: las poblaciones en cuestin poseen una dispersin similar en sus
distribuciones.
Como estos criterios son muy rigurosos, algunos investigadores slo basan sus
EL COEFICIENTE DE
CORRELACIN DE PEARSON (R)
Es una prueba estadstica para analizar la relacin entre dos variables medidas en un
nivel por intervalos o de razn.
Prueba Hi del tipo de A mayor X, mayor Y; A mayor X, menor Y; etc.
La prueba en si no considera a una como independiente y la otra como dependiente,
porque no evala la causalidad, solo la relacin mutua (correlacin).
El coeficiente se calcula a partir de las puntuaciones obtenidas en una muestra de dos
variables. Se relacionan las puntuaciones obtenidas de una variable con las puntuaciones
obtenidas de otra variable, en los mismos sujetos.
Mide niveles de variables de intervalo o de razn.
Puede variar de -1,00 a +1,00
REGRESIN LINEAL
Es modelo matemtico para estimar el efecto de una variable sobre otra. Est
asociado con el coeficiente r de Perason.
Sirve para resolver Hi correlacionales y causales.
Mide variables de Intervalos y de razn.
La regresin lineal se determina con base al diagrama de dispersin.
Este consiste en una grfica donde se relacionan las puntuaciones de una muestra
en dos variables, como la de estatura y peso del ejemplo anterior.
PRUEBA T (PARAMTRICA)
Una prueba t de Student o Test-T es cualquier prueba en la que el estadstico utilizado tiene una
distribucin t de Student si la hiptesis nula es cierta.
Se aplica cuando la poblacin se asume ser normal pero el tamao muestral es demasiado pequeo como
para que el estadstico en el que est basada la inferencia est normalmente distribuido, utilizndose una
estimacin de la desviacin tpica en lugar del valor real.
En probabilidad y estadstica, la distribucin t (de Student) es una distribucin de probabilidad que surge
del problema de estimar la media de una poblacin normalmente distribuida cuando el tamao de la
muestra es pequeo.
Aparece de manera natural al realizar la prueba t de Student para la determinacin de las diferencias entre
dos medias muestrales y para la construccin del intervalo de confianza para la diferencia entre las medias
de dos poblaciones cuando se desconoce la desviacin tpica de una poblacin y sta debe ser estimada a
partir de los datos de una muestra.
Es una prueba estadstica para evaluar si dos grupos difieren estadsticamente entre s, de manera
significativa respecto a sus medias
Es una prueba apropiada para comparar los promedios de dos grupos, y especialmente apropiado como
anlisis para el diseo experimental de solo postest de dos grupos al azar.
Mide variables de intervalo o de razn.
COEFICIENTE RHO DE
SPEARMAN
Es un coeficiente para medir el grado de asociacin entre dos variables ordinales
cuyos valores indican rangos en cada una de ellas.
Rho toma el valor +1 cuando existe igualdad de rangos de los casos en las dos
variables y -1 cuando tienen rangos exactamente opuestos.
Los valores intermedios pueden ser interpretados segn sus magnitudes relativas. Su
frmula de clculo es:
En la cual:
D = diferencia de rangos en las dos variables, o, diferencia entre los correspondientes estadsticos de orden dex-y.
N = nmero de parejas.
Se tiene que considerar la existencia de datos idnticos a la hora de ordenarlos, aunque si stos son pocos, se puede ignorar tal circunstancia
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximacin a ladistribucin t de Student.
ANLISIS NO PARAMETRICOS
Aquellas que no presuponen una distribucin de probabilidad para los datos, por ello se conocen tambin como
de distribucin libre (distribution free).
En la mayor parte de ellas los resultados estadsticos se derivan nicamente a partir de procedimientos de
ordenacin y recuento, por lo que su base lgica es de fcil comprensin.
Cuando trabajamos con muestras pequeas (n < 10) en las que se desconoce si es vlido suponer la normalidad
de los datos, conviene utilizar pruebas no paramtricas, al menos para corroborar los resultados obtenidos a
partir de la utilizacin de la teora basada en la normal.
Es una rama de la estadstica que estudia las pruebas y modelos estadsticos cuya distribucin subyacente no se
ajusta a los llamados criterios paramtricos. Su distribucin no puede ser definida a priori, pues son los datos
observados los que la determinan. La utilizacin de estos mtodos se hace recomendable cuando no se puede
asumir que los datos se ajusten a una distribucin conocida, cuando el nivel de medida empleado no sea, como
mnimo, de intervalo.
Aunque el trmino no paramtrico sugiere que la prueba no est basada en un parmetro, hay algunas pruebas
no paramtricas que dependen de un parmetro tal como la media.
Las pruebas no paramtricas, sin embargo, no requieren una distribucin particular, de manera que algunas
veces son referidas como pruebas de libre distribucin.
Aunque libre distribucin es una descripcin ms exacta, el trmino no paramtrico es ms comnmente usado.
Las siguientes son las mayores ventajas y desventajas de los mtodos no paramtricos
En
particular,
los
mtodos
no
paramtricos
no
requieren
LA JI CUADRADA O X
2
Es una prueba estadstica para evaluar hiptesis acerca de la relacin entre dos
variables categricas.
Sirve para probar Hi correlacionales.
Mide variables nominales u ordinales (o intervalos o razn reducidas a
ordinales)
Ej: Presentacin o en su defecto, no presentacin, de un aviso publicitario y
compra o no compra de un producto.
Ej: Un corredor de propiedades quiere saber qu tipo de vivienda prefieren los
profesionales. Se le pregunta a un grupo de profesionales sobre sus
preferencias de vivienda (casa o departamento) y si prefiere vivir en Chiclayo
en Villarrica - JLO.
CHI CUADRADO
Variables cualitativas
Dos o ms categoras
excluyentes
2000
Tablas de contingencia
Peso del nio al nacer. Estudio de seguimiento de 2000
gestantes.
Gestante
No
Total
Fumadora
43(a)
207(b)
250 (a+b)
No fumadora
105(c)
1645(d)
1750 (c+d)
Total
148 (a+c)
1852 (b+d)
2000
CHI CUADRADO
E = (a+b) x (b+d)
2000
2000
Gestante
No
Total
Fumadora
18.5(a)
231.5(b)
250
No fumadora
129.5(c)
1620.5(d)
1750
Total
148
1852
2000
231.5
129.5
1620.5
231.5
129.5
1620.5
231.5
129.5
1620.5
Para una seguridad del 95% ( =0.05) el valor terico de una distribucin jicuadrado con un grado de libertad es 3,84.
Para =0.01 es de 6,63 y para =0.005 es de 7,88. Como quiera que en el
clculo del 2 en el ejemplo obtuvimos un valor de 40,04, que supera al valor
para =0.005.
Concluimos que las dos variables no son independientes, sino que estn
asociadas (p<0.005).
Por lo tanto, a la vista de los resultados, rechazamos la hiptesis nula (H 0) y
aceptamos la hiptesis alternativa (Ha) como probablemente cierta.
1 grupo
Si
n > = 30
No
Distribucin
normal
No
Si
Si
n > = 30
Si
Si Varianzas
iguales
No Distribucin
g de libertad
2 grupos
No
Independientes
Si
No
Si
Distribucin
normal
Si
Si
Independientes
No
Distribucin
Normal c/varianzas
semejantes
Distribucin
Normal c/varianzas
semejantes
n > = 30
No
3 grupos
Prueba T
No Con ajustes de
normal
Nmero
de grupos
Prueba T
para de medias
Si
Muestra grande
nP y n (1-P) > 5
No
Si
Si
Nmero
de grupos
Frecuencias
Esperadas
pequeas
No
2 grupos
Independientes
Prueba de McNemar
Comparacin de proporciones
No
3 grupos
Si
Independientes
No
Frecuencias
Esperadas
pequeas
Si
No
Escala de
Medicin
para
ambas
variables
Ordinal y/ nmerica
Coeficiente de correlacin por rangos de Spearman
Nominal
Cada variable
Tiene dos
Categoras
(tabla de 2x2)