Métodos de Pruebas de hipótesis: Las pruebas de hipótesis comprenden
hacer inferencias acerca de dos propuestas contrastantes (hipótesis) relacionadas con el valor de un parámetro poblacional, una de las cuales se supone que es cierta en ausencia de datos contradictorios. La comprobación de hipótesis comprende los siguientes pasos: 1. Formular la hipótesis por comprobar. 2. Seleccionar un nivel de significación que defina el riesgo de llegar a una conclusión incorrecta acerca de la hipótesis que se supone es verdadera. 3. Determinar una regla de decisión sobre la cual basar una conclusión. 4. Recopilar los datos y calcular un valor de prueba. 5. Aplicar la regla de decisión al valor de prueba y llegar a una conclusión. La hipótesis probada es H0: tiempo de respuesta medio ≤ 4 H1: tiempo de respuesta medio > 4 La variable de prueba apropiada es La regla de decisión es rechazar H0si t > tn-1, α. Calculamos el valor de la variable de prueba como
Estudios enumerativos y analíticos
Una población estática, como los empleados de una empresa o su base de clientes, se pueden analizar para estimar los parámetros poblacionales como media, varianza o proporción. Se pueden aplicar los intervalos de confianza y las pruebas de hipótesis, Sin embargo, el propósito del muestreo de un proceso casi siempre es predecir el futuro. Las características de la población quizá cambien con el tiempo, como lo demuestra un diagrama de las medias o varianzas muestrales. En estos casos, los intervalos de confianza y las pruebas de hipótesis no son apropiados a menos que se muestre que la serie de tiempo es estacionaria; es decir, tiene una media y una varianza constantes a través del tiempo. El análisis de una gráfica de tendencia de los datos en el tiempo casi siempre ofrece más parámetros estacionarios. Deming llamó al análisis de una población estática estudio enumerativo, y al análisis de una serie de tiempo dinámica lo llamó estudio analítico. No es apropiado aplicar las inferencias estadísticas clásicas en un estudio analítico, porque no proporcionan bases para la predicción. Por tanto, es importante entender cómo se aplican las herramientas estadísticas en forma adecuada. Diseño de experimentos El diseño de experimentos (DOE, por sus siglas en inglés), desarrollado por R. A. Fisher en Inglaterra, data de la década de 1920. Un experimento diseñado es una prueba o serie de pruebas que permite al experimentador comparar dos o más métodos para determinar cuál es mejor, o determinar los niveles de factores controlables para optimizar la producción de un proceso o minimizar la variabilidad de una variable de respuesta. El DOE difiere de los estudios estadísticos por observación, en que los factores de interés son controlados por quien dirige el experimento, más que la simple observación a través de la selección de variables aleatorias. Como herramienta práctica para mejorar la calidad, los métodos de diseño de experimentos han logrado un éxito considerable en muchos sectores industriales.
Análisis de la varianza (ANOVA)
Debido a Six Sigma, los profesionales han “redescubierto” técnicas como el análisis de la varianza, o ANOVA (por sus siglas en inglés), que desde hace mucho es una herramienta importante en el análisis estadístico. El ANOVA es una metodología para llegar a conclusiones acerca de la igualdad de las medias de múltiples poblaciones. En su forma más sencilla, el ANOVA unidireccional, interesa comparar las medias de las respuestas observadas en diversos niveles de un solo factor. El ANOVA comprueba la hipótesis de que las medias de todas las poblaciones son iguales, en contra de la hipótesis alternativa de que, por lo menos, una media difiere de las otras. Para realizar un ANOVA necesitamos 1. Definir con detenimiento el propósito y las suposiciones del experimento. 2. Recopilar datos relacionados con los niveles del factor de interés. 3. Calcular los parámetros del ANOVA. 4. Interpretar el significado de los datos. 5. Emprender una acción. El objetivo del ANOVA es probar estadísticamente las diferencias entre las medias de los grupos (el tiempo en que se descargan las distintas marcas de baterías) a fin de determinar si son iguales o al menos una media es diferente. Si la variación total entre los grupos es relativamente pequeña en comparación con aquella dentro de los grupos, se sugiere que las poblaciones son iguales. Sin embargo, una variación relativamente alta entre los grupos sugiere que existen diferencias en las medias poblacionales desconocidas. La variación en los datos se calcula como una suma de desviaciones cuadráticas (SS, squared deviations) de la media poblacional apropiada y se mide en una escala como una medida de la varianza, o “media cuadrática” (MS, mean square). Al dividir la media cuadrática entre los grupos entre la media cuadrática dentro de los grupos se calcula un valor F. Si este valor es más alto que el valor crítico, Fcrít, los datos sugieren que existe una diferencia en las medias.