Вы находитесь на странице: 1из 4

RELACIÓN ENTRE LA T DE STUDENT Y LA HIPÓTESIS NULA Y ALTERNA

Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado para
comparar dos grupos independientes de observaciones con respecto a una variable numérica.
La aplicación de un contraste paramétrico requiere la normalidad de las observaciones para cada
uno de los grupos. La comprobación de esta hipótesis puede realizarse tanto por métodos gráficos
(por medio de histogramas, diagramas de cajas o gráficos de normalidad) como mediante tests
estadísticos. Un número suficiente de observaciones (mayor de 30) justifica la utilización del mismo
test.

HIPÓTESIS NULA
Para todo tipo de investigación en la que tenemos dos o más grupos, se establecerá una hipótesis
nula.
La hipótesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.
Una hipótesis nula es importante por varias razones:
Es una hipótesis que se acepta o se rechaza según el resultado de la investigación. El hecho de
contar con una hipótesis nula ayuda a determinar si existe una diferencia entre los grupos, si esta
diferencia es significativa, y si no se debió al azar.
No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula es
aquella por la cual indicamos que la información a obtener es contraria a la hipótesis de trabajo.
Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia que la
causa determinada como origen del problema fluctúa, por tanto, debe rechazarse como tal.
HIPÓTESIS ALTERNATIVA
Al responder a un problema, es muy conveniente proponer otras hipótesis en que aparezcan
variables independientes distintas de las primeras que formulamos. Por tanto, para no perder tiempo
en búsquedas inútiles, es necesario hallar diferentes hipótesis alternativas como respuesta a un
mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su comprobación.
Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté realizando.
En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser simplemente el de
obtener los mínimos conocimientos que permitan formular una hipótesis. También es aceptable que,
en este caso, resulten poco precisas, como cuando afirmamos que "existe algún tipo de problema
social en tal grupo", o que los planetas poseen algún tipo de atmósfera, sin especificar de qué
elementos está compuesto.
PARA QUÉ SIRVE LA HIPÓTESIS
Una hipótesis es la pregunta que el investigador se formula para diseñar un experimento. En otras
palabras: la hipótesis es aquello que se puede demostrar o rechazar pero, ¿para qué sirve una
hipótesis?
Si estamos interesados en un tema y queremos averiguar por qué sucede de esa manera lo primero
que nos hacemos es una pregunta que delimita nuestro objeto de estudio. Una hipótesis es una
posible respuesta a esa pregunta que nos hacemos al principio, ya que es lo que ponemos a prueba
cuando diseñamos un experimento. En otras palabras: la hipótesis es una afirmación que se puede
demostrar o rechazar.
Para el desarrollo de una hipótesis es fundamental la información previa que logremos reunir sobre
el tema. La hipótesis es fundamental en el proceso de investigación, ya que luego de formular un
problema el investigador enuncia la hipótesis, que orientará el proceso y permitirá llegar a
conclusiones concretas.

Errores de tipo I y de tipo II


Ir a la navegaciónIr a la búsqueda
En un estudio de investigación, el error de tipo I también denominado error de tipo alfa (α)1
o falso positivo, es el error que se comete cuando el investigador rechaza la hipótesis nula (

) siendo esta verdadera en la población. Es equivalente a encontrar un resultado falso


positivo, porque el investigador llega a la conclusión de que existe una diferencia entre las
hipótesis cuando en realidad no existe. Se relaciona con el nivel de significancia estadística.

La hipótesis de la que se parte aquí es el supuesto de que la situación experimental


presentaría un «estado normal». Si no se advierte este «estado normal», aunque en realidad
existe, se trata de un error estadístico tipo I. Algunos ejemplos para el error tipo I serían:

 Se considera que el paciente está enfermo, a pesar de que en realidad está sano;
hipótesis nula: El paciente está sano.
 Se declara culpable al acusado, a pesar de que en realidad es inocente; hipótesis nula: El
acusado es inocente.
 No se permite el ingreso de una persona, a pesar de que tiene derecho a ingresar;
hipótesis nula: La persona tiene derecho a ingresar.
En un estudio de investigación, el error de tipo II, también llamado error de tipo beta (β) (β
es la probabilidad de que exista este error) o falso negativo, se comete cuando el
investigador no rechaza la hipótesis nula siendo esta falsa en la población. Es equivalente a la
probabilidad de un resultado falso negativo, ya que el investigador llega a la conclusión de que
ha sido incapaz de encontrar una diferencia que existe en la realidad.
Se acepta en un estudio que el valor del error beta esté entre el 5 y el 20%.
Contrariamente al error tipo I, en la mayoría de los casos no es posible calcular la probabilidad
del error tipo II. La razón de esto se encuentra en la manera en que se formulan las hipótesis
en una prueba estadística. Mientras que la hipótesis nula representa siempre una afirmación

enérgica (como por ejemplo «Promedio μ = 0») la hipótesis alternativa, debido a que
engloba todas las otras posibilidades, es generalmente de naturaleza global (por

ejemplo «Promedio μ ≠ 0» ). El gráfico de la derecha ilustra la probabilidad del error tipo


II (rojo) en dependencia del promedio μ desconocido.
El poder o potencia del estudio representa la probabilidad de observar en la muestra una
determinada diferencia o efecto, si existe en la población. Es el complementario del error de
tipo II (1-β).

Errores en el contraste
Una vez realizado el contraste de hipótesis, se habrá optado por una de las dos hipótesis,

la hipótesis nula o base o la hipótesis alternativa , y la decisión escogida


coincidirá o no con la que en realidad es cierta. Se pueden dar los cuatro casos que se
exponen en el siguiente cuadro:

es cierta es cierta

No hay error (verdadero negativo) Error de tipo II (β o falso negativo)


Se escogió

Error de tipo I (α o falso positivo) No hay error (verdadero positivo)


Se escogió

Si la probabilidad de cometer un error de tipo I está unívocamente determinada, su valor se


suele denotar por la letra griega α, y en las mismas condiciones, se denota por β la
probabilidad de cometer el error de tipo II, esto es:

En este caso, se denomina Potencia del contraste al valor 1-β, esto es, a la probabilidad de

escoger cuando esta es cierta

.
Cuando es necesario diseñar un contraste de hipótesis, sería deseable hacerlo de tal manera
que las probabilidades de ambos tipos de error fueran tan pequeñas como fuera posible. Sin
embargo, con una muestra de tamaño prefijado, disminuir la probabilidad del error de tipo I, α,
conduce a incrementar la probabilidad del error de tipo II, β.
Usualmente, se diseñan los contrastes de tal manera que la probabilidad α sea el 5% (0,05),
aunque a veces se usan el 10% (0,1) o 1% (0,01) para adoptar condiciones más relajadas o
más estrictas. El recurso para aumentar la potencia del contraste, esto es, disminuir β,
probabilidad de error de tipo II, es aumentar el tamaño muestral, lo que en la práctica conlleva
un incremento de los costes del estudio que se quiere realizar.

Bibliografía[editar]

 Betz, M.A. & Gabriel, K.R., "Type IV Errors and Analysis of Simple Effects", Journal of
Educational Statistics, Vol.3, No.2, (Summer 1978), pp. 121–144.
 David, F.N., "A Power Function for Tests of Randomness in a Sequence of
Alternatives", Biometrika, Vol.34, Nos.3/4, (December 1947), pp. 335–339.
 Fisher, R.A., The Design of Experiments, Oliver & Boyd (Edinburgh), 1935.
 Gambrill, W., "False Positives on Newborns' Disease Tests Worry Parents", Health Day, (5
June 2006). 34471.html
 Kaiser, H.F., "Directional Statistical Decisions", Psychological Review, Vol.67, No.3, (May
1960), pp. 160–167.
 Kimball, A.W., "Errors of the Third Kind in Statistical Consulting", Journal of the American
Statistical Association, Vol.52, No.278, (June 1957), pp. 133–142.
 Lubin, A., "The Interpretation of Significant Interaction", Educational and Psychological
Measurement, Vol.21, No.4, (Winter 1961), pp. 807–817.
 Marascuilo, L.A. & Levin, J.R., "Appropriate Post Hoc Comparisons for Interaction and
nested Hypotheses in Analysis of Variance Designs: The Elimination of Type-IV
Errors", American Educational Research Journal, Vol.7., No.3, (May 1970), pp. 397–421.
 Mitroff, I.I. & Featheringham, T.R., "On Systemic Problem Solving and the Error of the
Third Kind", Behavioral Science, Vol.19, No.6, (November 1974), pp. 383–393.
 Mosteller, F., "A k-Sample Slippage Test for an Extreme Population", The Annals of
Mathematical Statistics, Vol.19, No.1, (March 1948), pp. 58–65.
 Moulton, R.T., “Network Security”, Datamation, Vol.29, No.7, (July 1983), pp. 121–127.
 Raiffa, H., Decision Analysis: Introductory Lectures on Choices Under Uncertainty,
Addison–Wesley, (Reading), 1968.

Вам также может понравиться