Вы находитесь на странице: 1из 114

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/313141518

CONCEPTOS BÁSICOS DE ESTADÍSTICA

Book · January 2005

CITATIONS READS

5 3,937

2 authors, including:

Andrés Carrión García


Universitat Politècnica de València
128 PUBLICATIONS   360 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Efectos de las Relaciones Universidad Empresa View project

EXCELCON. Excellence in Research and Innovation for the project-construction process in civil engineering View project

All content following this page was uploaded by Andrés Carrión García on 31 January 2017.

The user has requested enhancement of the downloaded file.


CURSO DE ESPECIALISTA EN GESTIÓN Y
CONTROL DE LA CALIDAD

DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA

Universidad Politécnica de Valencia

CONCEPTOS BÁSICOS
DE ESTADÍSTICA

Andrés Carrión García


Mª Teresa Carot Sánchez
TABLA DE CONTENIDOS

CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA................................ 7


1.1.- DEFINICIÓN DE ESTADÍSTICA ................................................................................ 7
1.2.- VARIABILIDAD ........................................................................................................... 8

CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA ........................................... 11


2.1.- CONCEPTOS BÁSICOS .......................................................................................... 11
2.2.- TABULACIONES ...................................................................................................... 12
2.3.- HISTOGRAMAS DE FRECUENCIAS ...................................................................... 15
2.4.- DIAGRAMA DE BARRAS......................................................................................... 20
2.5.- DIAGRAMA DE PARETO......................................................................................... 20
2.6.- HISTOGRAMAS TRIDIMENSIONALES .................................................................. 25
2.7.- DIAGRAMA DE DISPERSIÓN ................................................................................. 26
2.8.- PARÁMETROS DE MEDIDA ................................................................................... 27
2.8.1.- Parámetros de posición..................................................................................... 28
2.8.2.- Parámetros de dispersión ................................................................................. 29
2.9.- EJERCICIOS ............................................................................................................ 30

CAPÍTULO 3: PROBABILIDAD ................................................................. 33


3.1.- INTRODUCCIÓN ...................................................................................................... 33
3.2.- DEFINICIÓN DE PROBABILIDAD ........................................................................... 34
3.3.- PROBABILIDAD CONDICIONAL ............................................................................. 35
3.3.1.- Independencia de sucesos ............................................................................... 36
3.3.2.- Teorema de la Intersección ............................................................................... 37
3.3.3.- Teorema de la Partición o de la probabilidad total............................................ 38
3.3.4.- Teorema de Bayes ........................................................................................... 38
3.4.- COMBINATORIA ..................................................................................................... 39
3.5.- EJERCICIOS ............................................................................................................ 41

CAPÍTULO 4: VARIABLES ALEATORIAS ............................................... 43


4.1.- DEFINICIÓN ............................................................................................................. 43
4.2.- VARIABLE ALEATORIA DISCRETA ....................................................................... 45
4.2.1.- Función de Probabilidad ................................................................................... 45
4.3.- VARIABLE ALEATORIA CONTINUA ...................................................................... 46
4.2.1.- Función de densidad......................................................................................... 47
4.4.- FUNCIÓN DE DISTRIBUCIÓN ................................................................................ 49
4.5.- MEDIA Y VARIANZA ............................................................................................... 51
4.6.- EJERCICIOS ............................................................................................................ 53

CAPÍTULO 5: PRINCIPALES DISTRIBUCIONES DISCRETAS.............. 55


5.1.- DISTRIBUCIÓN BINOMIAL ..................................................................................... 55
5.2.- DISTRIBUCIÓN DE POISSON................................................................................ 57
5.3.- DISTRIBUCIÓN HIPERGEOMÉTRICA................................................................... 58
5.4.- APROXIMACIÓN ENTRE DISTRIBUCIONES DISCRETAS.................................. 60
5.5.- EJERCICIOS ............................................................................................................ 61

CAPÍTULO 6: PRINCIPALES DISTRIBUCIONES CONTINUAS ............. 63


6.1.- DISTRIBUCIÓN EXPONENCIAL ............................................................................ 63
6.2.- DISTRIBUCIÓN NORMAL ....................................................................................... 64
6.3.- TEOREMA CENTRAL DEL LÍMITE......................................................................... 68
6.4.- DISTRIBUCIONES DERIVADAS DE LA NORMAL ................................................ 68
6.4.1.- Distribución Chi-cuadrado ................................................................................ 69
6.4.2.- Distribución t de Student ................................................................................... 70
6.4.3.- Distribución F de Snedecor .............................................................................. 71
6.5.- APROXIMACIONES ENTRE DISTRIBUCIONES ................................................... 71
6.6.- EJERCICIOS ............................................................................................................ 72

CAPÍTULO 7: DISTRIBUCIONES EN EL MUESTREO ............................ 75


7.1.- INTRODUCCIÓN ...................................................................................................... 75
7.2.- DISTRIBUCIÓN DE LA MEDIA MUESTRAL ........................................................... 77
7.3.- DISTRIBUCIÓN DE LA VARIANZA MUESTRAL .................................................... 78
7.4.- DISTRIBUCIÓN DE LA DESVIACIÓN TÍPICA MUESTRAL ................................... 81
7.5.- DISTRIBUCIÓN DEL RANGO ................................................................................. 82
7.6.- DISTRIBUCIÓN DE LA DIFERENCIA DE MEDIAS MUESTRALES ...................... 82
7.7.- DISTRIBUCIÓN DEL COCIENTE DE VARIANZAS MUESTRALES ...................... 83
7.8.- DISTRIBUCIÓN DE LA PROPORCIÓN MUESTRAL ............................................. 83

CAPÍTULO 8: INFERENCIA ESTADÍSTICA ............................................. 85


8.1.- INTRODUCCIÓN ...................................................................................................... 85
8.2.- ESTIMACIÓN............................................................................................................ 85
8.2.1.- Estimación puntual ............................................................................................ 85
8.2.2.- Estimación por intervalos de confianza............................................................. 92
8.3.- TEST DE HIPÓTESIS .............................................................................................. 94
8.3.1.- Principales test de hipótesis .............................................................................. 95
8.3.2.- Potencia del test y Curva Característica ........................................................... 98
8.3.3.- Tamaño de muestra ........................................................................................ 101
8.4.- EJERCICIOS .......................................................................................................... 101

ANEXOS............................................................................................... 103
CONCEPTOS BÁSICOS DE ESTADÍSTICA 7

CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA

1.1.- DEFINICIÓN DE ESTADÍSTICA

Podríamos decir que “la Estadística es la ciencia que se encarga del estudio
de los fenómenos aleatorios”. Así pues, la Estadística no es una simple descripción
numérica como podría ser una encuesta previa a las elecciones, sino que puede te-
ner un campo ilimitado de aplicaciones que va desde la ciencia y la ingeniería hasta
las leyes y la medicina.

Debemos precisar lo que entendemos por fenómeno aleatorio: los fenómenos


aleatorios son aquellos fenómenos reales que se caracterizan por la impredecibilidad
de resultados y por la llamada regularidad estadística.

La Impredecibilidad de resultados se refiere a que sobre un fenómeno aleato-


rio influyen numerosos factores que no podemos, no sabemos o no queremos contro-
lar. Por lo tanto, al realizar una única experiencia del fenómeno somos incapaces de
decidir qué resultado es el que se va a obtener.

En un caso tan sencillo como el lanzamiento de una moneda pueden influir


factores como la altura desde la que se lanza, la forma de lanzarlo, la superficie so-
bre la que se lanza, etc. y, probablemente, otros muchos factores que, como ante-
riormente decíamos, no podemos, no sabemos o no queremos controlar.

Sin embargo, también hemos dicho que se caracterizan por la llamada regula-
ridad estadística: si llamamos n al número de repeticiones, ν a la frecuencia absoluta
(número de veces que ocurre un determinado suceso A), la frecuencia relativa con la
8 Especialista en Gestión y Control de la Calidad

que se repite un determinado suceso es


fr=ν/n
así pues, si la frecuencia relativa de cada uno de los posibles resultados de un fenó-
meno aleatorio “tiende” a estabilizarse alrededor de un cierto valor, cuando el número
de repeticiones crece indefinidamente, se dice que el fenómeno en cuestión posee
regularidad estadística.

Dicho de otra forma, a pesar de que con una sola realización de una experien-
cia no podemos predecir el resultado del fenómeno, sabemos que éste tiene un cier-
to comportamiento, que es precisamente su regularidad, lo cual nos permite reducir,
hasta cierto punto, su incertidumbre.

Por ejemplo, es evidente que cuando lanzamos un dado no somos capaces de


predecir cuál va a ser el resultado de dicha experiencia, pero debido a que existe una
regularidad estadística sabemos que la probabilidad de que al lanzar el dado nos
salga un 1 ó un 2 ó un 6 es 1/6. Esto no quiere decir que si lanzamos un dado seis
veces nos vaya a salir cada una de las caras en cada lanzamiento, sencillamente
significa que cuanto mayor es el número de veces que lanzamos el dado el resultado
se aproximará cada vez más a ese valor ideal que es 1/6.

1.2.- VARIABILIDAD

Como ya hemos introducido en el apartado anterior, al hablar de impredecibili-


dad en un entorno aleatorio, las características de cualquier pareja de individuos del
mismo tipo nunca son idénticas, debido precisamente a esos factores que influyen
sobre los fenómenos aleatorios: Seres vivos, Piezas mecanizadas, Materias primas,
Pinturas, Equipos eléctricos. De hecho, aún cuando un proceso funcione correcta-
mente, no existen dos productos (o características de estos procesos) que sean
CONCEPTOS BÁSICOS DE ESTADÍSTICA 9

exactamente iguales.

La aceptación de la variabilidad de las características implica el reconocimien-


to de la existencia de causas de variación. Éstas podríamos dividirlas en: causas de
variación aceptable y causas de variación no aceptable. Las primeras se refieren a
aquellas causas de variación que son difícilmente eliminables por ser debidas a fac-
tores que no controlamos, bien porque no sabemos cuáles son, bien porque senci-
llamente es difícil hacerlo. Las segundas son aquellas que, por lo general, son fácil-
mente eliminables porque sabemos qué factores han influido y además podemos
controlarlos.

Puesto que la variabilidad es inevitable, un objetivo de las Técnicas Estadísti-


cas de Control es mantener esa variabilidad en el menor nivel posible. Dicho de otra
forma, mantener las causas de variación aceptable que al fin y al cabo son la “varia-
bilidad natural” de la característica y eliminar las causas de variación no aceptable.
10 Especialista en Gestión y Control de la Calidad
CONCEPTOS BÁSICOS DE ESTADÍSTICA 11

CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA

2.1.- CONCEPTOS BÁSICOS

Es evidente que cuando queremos realizar un estudio de un grupo de datos es


necesario utilizar métodos que los organicen y que los resuman. Precisamente, a
estos métodos se les denomina Estadística Descriptiva.

La Estadística Descriptiva puede dividirse en dos grandes áreas: métodos


numéricos y métodos gráficos. En este capítulo estudiaremos aquellos que tienen
más interés para el análisis de datos recogidos de un proceso de producción.

Veamos algunos conceptos necesarios para la representación de los datos:

• Frecuencia absoluta: es el número de veces que se repite el mismo resultado en


una experiencia.
• Frecuencia relativa: es el cociente entre la frecuencia absoluta y el número total
de repeticiones de la experiencia.
• Frecuencia absoluta o relativa acumulada: determinado un criterio de ordenación
de los posibles resultados de una experiencia, nos da la frecuencia con la que se
repiten los resultados menores o iguales que el actual.

Dependiendo del tipo de datos con el que estamos trabajando el método de


representación suele ser diferente. Así pues, los datos se dividen en:

• Datos cuantitativos: los posibles resultados de la experiencia son numéricos.


12 Especialista en Gestión y Control de la Calidad

− Discretos: toman solo ciertos valores de la recta real. (Número de piezas


defectuosas o de defectos en distintos lotes)
− Continuos: pueden tomar cualquier valor de la recta real o de una parte de
ella. (El alto, el ancho, el diámetro o el peso de cualquier pieza)
• Datos cualitativos: los posibles resultados son cualidades. (Color de los ojos, tipo
de coche.)

2.2.- TABULACIONES

Es una forma relativamente sencilla de representación: en una sola tabla te-


nemos reflejada información numérica de los datos recogidos, a través de las fre-
cuencias:

Valores Frec. Frec. Frec. frec. relativ.


variable absoluta relativa acumulada acumulada
x1 n1 f1 N1 F1
x2 n2 f2 N2 F2
· · · · ·
· · · · ·
xk nk fk Nk Fk

Donde los valores de la tabla se calculan mediante:


ni
• Frecuencia relativa: f i =
n
• Frecuencia absoluta acumulada: Ni = Ni −1 + ni
N
• Frecuencia relativa acumulada: Fi = i
n

La forma de realizar la representación de los datos en una tabla de


frecuencias dependerá del tipo de datos con el que estemos trabajando. Por ejemplo,
si los datos son cuantitativos continuos, no tenemos más remedio que dividir en
CONCEPTOS BÁSICOS DE ESTADÍSTICA 13

intervalos los valores de la variable:

Valores Frec. Frec. Frec. Frec.


Variable Absoluta Relativa Acumulada Rel-Acum
14.727-15.091 2 0.0200 2 0.0200
15.091-15.455 2 0.0200 4 0.0400
15.455-15.818 6 0.0600 10 0.1000
15.818-16.182 25 0.2500 35 0.3500
16.182-16.545 38 0.3800 73 0.7300
16.545-16.909 18 0.1800 91 0.9100
16.909-17.273 9 0.0900 100 1.0000

Si los datos son cuantitativos discretos dependerá del número de posibles va-
lores que puede tomar la variable: si tiene muchos posibles valores los dividiremos
en intervalos; si, por el contrario, son pocos, entonces estudiaremos las frecuencias
para cada uno de ellos.

Por último, si son datos cualitativos tendremos que estudiar las frecuencias de
cada uno de los posibles valores puesto que, en este caso, no hay posibilidad de
agrupamiento. Por ejemplo:

Valor Frec. Frec. Frec. Frec.


Variable Absoluta Relativa Acumulada Rel-Acum
Desplazado 6 0.17 6 0.17
Ausente 9 0.25 15 0.42
Torcido 12 0.33 27 0.75
Roto 3 0.80 30 0.83
Erróneo 6 0.17 36 1

A través de las tablas de frecuencias también podemos representar más de


una variable. Así pues, si queremos estudiar la relación entre dos variables, la tabu-
lación podría ser:

MAQ 1 MAQ 2 MAQ 3 Total


14 Especialista en Gestión y Control de la Calidad

Desplazado 3 1 2 6
Ausente 2 5 2 9
Torcido 4 3 5 12
Roto 0 2 1 3
Erróneo 1 3 2 6
Total 10 14 12 36

en el que se ha representado las frecuencias para cada tipo de defecto y para cada
máquina. A partir de aquí podemos determinar las frecuencias relativas con respecto
a cualquier fila o columna.

Por ejemplo, si trabajamos en la máquina 1, la frecuencia relativa de defectos


que ésta produce debidos al “desplazamiento” es 3/10. También sabemos que se
han producido un total de 36 defectos, de los cuales 14 son debidos a la máquina 2,
por lo tanto, la frecuencia relativa con la que se dan defectos en la máquina 2 es
14/36. Igualmente podemos ver que de los 36 defectos, 12 son causados por el de
“Torcido”, por lo tanto, la frecuencia relativa con la que se da el defecto “Torcido” es
12/36.

Si tenemos que representar los datos para tres variables distintas una opción
podría ser:

MAQ 1 MAQ 2 MAQ 3


T1 T2 T1 T2 T1 T2
Desplazado 1 2 0 1 0 2
Ausente 1 1 3 2 1 1
Torcido 3 1 2 1 1 4
Roto 0 0 1 1 0 1
Erróneo 0 1 1 2 1 1

en el que se ha representado la frecuencia con la que se repiten determinados tipos


de defectos para diferentes máquinas y, a su vez, para distintos instantes de tiempo.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 15

El método de representación de frecuencias anterior no es un método del todo


malo, pero, evidentemente, no deja de ser una mera lista de números. Por ello, a ve-
ces es necesaria una ayuda complementaria, de tal forma que a través de un gráfico,
más o menos sencillo, podamos ver de un solo vistazo aquellas cosas más represen-
tativas del grupo de datos que estamos analizando.

Precisamente, en los apartados siguientes vamos a estudiar algunos de éstos


métodos gráficos utilizados es Estadística Descriptiva para la interpretación de los
resultados.

2.3.- HISTOGRAMAS DE FRECUENCIAS

El histograma de frecuencias no es otra cosa que una representación gráfica de


los valores que vimos tabulados en el apartado anterior. Este tipo de herramienta
solo la podemos utilizar para el caso de datos cuantitativos. Un ejemplo de histogra-
ma es el de la figura 2.1.

24
20
F 16
r
12
e
c. 8
4
0
3,9 3,92 3,94 3,96 3,98 4 4,02 4,04 4,06 4,08 4,1

Figura 2.1.
Aunque no es el caso de la Estadística Descriptiva, muchas veces el histo-
grama se utiliza para realizar comprobaciones de cómo es una determinada pobla-
ción a partir de un grupo pequeño de datos de ésta. Por ello debemos utilizar una
16 Especialista en Gestión y Control de la Calidad

serie de normas para poder dibujarlo, puesto que si no el resultado podría no ser re-
presentativo de la realidad de dicha población. El método que utilizaremos para reali-
zar el histograma será:

1. Un histograma debemos realizarlo siempre con al menos 50 datos


2. El número de intervalos (k) en los que debemos dividir los datos no puede ser
cualquiera. Una posible opción es

nº de datos (n) nº de intervalos (k)


50-100 6-10
100-200 10-15
>200 15-20

que de forma general podríamos ajustarlo a que el número de intervalos sea


aproximadamente la raíz cuadrada del número de datos de los que disponemos:
k≈ n

3. Calculamos el Rango a través del valor más pequeño y el más grande del grupo
de datos:
R=xmáx-xmín.

4. Determinamos la amplitud de los intervalos mediante


R
e=
k

5. Puesto que el valor de escala e puede ser un número difícil de manejar, la


redondeamos a e’ y recalculamos el número nuevo de intervalos, k’, con el fin de
comprobar que al cambiar la escala no nos ha cambiado demasiado k
R
k' =
e'
CONCEPTOS BÁSICOS DE ESTADÍSTICA 17

6. A partir de aquí decidimos cuál va a ser el límite inferior del histograma (que sea
“fácilmente sumable” con la escala e’) y dibujamos el histograma tendiendo en
cuenta que los valores que coincidan con los límites del intervalo deben ir siem-
pre en el intervalo superior. Podemos representar las frecuencias absolutas, las
relativas o las acumuladas según nos interese.

Por ejemplo, supongamos que de un proceso de producción hemos tomado


100 piezas y que de cada una de ellas hemos medido su diámetro obteniendo las
siguientes medidas:

32.194 32.224 32.223 32.207 32.207 32.225 32.239 32.185 32.205 32.179
32.203 32.218 32.216 32.191 32.207 32.219 32.196 32.181 32.216 32.197
32.196 32.208 32.174 32.191 32.193 32.221 32.197 32.205 32.197 32.188
32.182 32.210 32.203 32.193 32.216 32.208 32.196 32.205 32.205 32.211
32.191 32.203 32.196 32.179 32.204 32.216 32.202 32.177 32.183 32.203
32.209 32.216 32.191 32.180 32.189 32.214 32.230 32.187 32.220 32.207
32.205 32.167 32.195 32.189 32.181 32.203 32.206 32.213 32.193 32.188
32.206 32.199 32.169 32.202 32.219 32.224 32.195 32.196 32.225 32.224
32.187 32.227 32.201 32.208 32.195 32.204 32.196 32.199 32.197 32.190
32.186 32.197 32.207 32.199 32.225 32.219 32.169 32.184 32.215 32.195

1. Determinamos es número de intervalos que serán alrededor de 10:


k ≈ 100 =10
2. Buscamos el valor más grande y el más pequeño y calculamos el rango:
R=32’239-32’167=0’072
3. Calculamos la amplitud de los intervalos:
0'072
e= = 0'0072
10
4. Redondeamos a un valor sencillo de manejar y recalculamos el nuevo número de
intervalos comprobando que al cambiar la escala no se ha ido demasiado:
18 Especialista en Gestión y Control de la Calidad

0'072
e’=0’01 k' = = 7'2 ≈ 8
0'01
5. Decidimos que el límite inferior del histograma debe ser 32’16 porque así los
límites de separación entre intervalos tendrá valores sencillos. Realizamos el
histograma de la figura 2.2:

30

25
20

15
10

0
32,16 32,17 32,18 32,19 32,20 32,21 32,22 32,23 32,24

Figura 2.2.

en el que hemos representado las frecuencias absolutas.

El histograma, además de servir para representar nuestro grupo de datos,


según la forma que tenga sugiere algunas peculiaridades de la población o muestra
errores que se han cometido durante la toma de datos, como mostramos en la figura
2.3.

El histograma tipo a) es el que normalmente obtendremos, puesto que ésta es


la distribución de frecuencias que tienen la mayoría de las características. El tipo b)
también es un histograma correcto, la única diferencia con respecto al anterior es
que tiene una distribución de frecuencias distinta, lo cual puede suponer un problema
puesto que muchas de las herramientas que se utilizan en el Control Estadístico de la
Calidad se basan en que las variables tienen la forma del histograma a).
CONCEPTOS BÁSICOS DE ESTADÍSTICA 19

a) Tipo general b) Tipo sesgo positivo

c) Tipo peineta d) Tipo precipicio

e) Tipo planicie f) Tipo doble pico

g) Tipo pico aislado

Figura 2.3.

El tipo c) es un histograma que aparece en los casos en los que se ha realiza-


do un redondeo indebido de los datos, por lo que se han colocado en un intervalo
que no correspondía dando lugar a un histograma incorrecto. El histograma d) es
debido a que se han eliminado las piezas de uno de los lados o de los dos, segura-
20 Especialista en Gestión y Control de la Calidad

mente debido a que eran piezas defectuosas. Y por último, los histogramas e), f) y g)
son debidos a que en los datos hay mezcla de poblaciones.

2.4.- DIAGRAMA DE BARRAS

Al igual que el histograma era la representación gráfica de las tablas de


frecuencias para el caso de datos cuantitativos, el diagrama de barras es la
representación gráfica de dichas tablas para el caso de datos cualitativos.

Un ejemplo es el de la figura 2.4.

Despl. Ausen. Torcido Roto Erróneo

Figura 2.4.

2.5.- DIAGRAMA DE PARETO

El Diagrama de Pareto sirve para representar las frecuencias de datos cua-


litativos pero ordenados de más importancia a menos importancia. Una de las uti-
CONCEPTOS BÁSICOS DE ESTADÍSTICA 21

lidades más importantes de este tipo de Diagrama es que nos ayuda a identificar
los pocos defectos vitales, que podemos encontrar en un proceso, en los que cen-
trar esfuerzos, diferenciándolos de otros muchos defectos triviales, por lo tanto, es
una herramienta muy útil para el Control del Proceso. Un ejemplo de Diagrama de
Pareto es el de la figura 2.5.

160 96,69 99,34 100,0


89,40 93,38
84,11
120 72,19

Frec. 80 42,38

40

0
S. I. G.S. C Ag Am CC C. F. C. S

Figura 2.5.

Como podemos comprobar es un método de representación similar a un


diagrama de barras. La diferencia con respecto a este método es que, además de
ordenar las cualidades de mayor a menor frecuencia, dándonos así una imagen
clara de cual es la más importante, nos proporciona todas las variedades de fre-
cuencia: absoluta, relativa y acumulada que puede servirnos para comprobar qué
cantidad de defectos eliminamos.

De la figura 2.5 deducimos que debemos centrar esfuerzos en la elimina-


ción del defecto S.I puesto que si conseguimos arreglar la causa que lo produce
estaremos eliminando el 42’38% de los defectos. De igual manera, si eliminamos
las causas que producen los defectos S.I. y G.S., habremos eliminado el 72’19%
de los defectos que producimos.

El método que se utiliza para realizar un Diagrama de Pareto es el siguien-


te:
22 Especialista en Gestión y Control de la Calidad

1. Definimos el tipo de problema que se va a investigar.


2. Definiremos de qué forma y en que periodo de tiempo realizaremos la recolección
de los datos objeto del análisis.
3. Tomaremos los datos y construiremos una tabla de conteo.
4. Con la información anterior elaboraremos una tabla para realizar el Diagrama de
Pareto, ordenando de mayor a menor la frecuencia de los defectos
5. Elaboramos el Diagrama de Pareto

Por ejemplo, en un proceso de pintado de tableros se ha tomado un grupo de


datos de los que se ha obtenido la siguiente tabla de conteo de defectos:

Tipo de TABLA DE CONTEO


Total
defecto
Rajadura  4
···
Rayado 42

Burbuja ··· 20
Tensión  104
Fractura  10

Mancha 6
Otros 14

Elaboramos la tabla de frecuencias para el Diagrama de Pareto ya ordenado por fre-


cuencias:

Tipo de Número Total Composición Porcentaje


defecto de defectos acumulado porcentual acumulado
Tensión 104 104 52 52
Rayado 42 146 21 73
Burbuja 20 166 10 83
Fractura 10 176 5 88
Mancha 6 182 3 91
Rajadura 4 186 2 93
CONCEPTOS BÁSICOS DE ESTADÍSTICA 23

Otros 14 200 7 100


Total 200 - 100 -

Y construimos el Diagrama de Pareto de la figura 2.6.

200 97,85 100,00


94,62
89,25
160 78,49

120 55,91
Frec.
80

40

0
Tensión Rayado Burbuja Fractura Mancha Rajadura

Figura 2.6.

Nótese que hemos realizamos el Diagrama de Pareto representando única-


mente la frecuencia. Pero ocurre que muchas veces el defecto más importante no es
el más frecuente sino que es, por ejemplo, el que más dinero supone o el que menos
tiempo cuesta aplicarle una solución definitiva. Por ello, lo que nosotros representa-
remos en el diagrama no será únicamente la frecuencia sino lo que se llama el IPP,
Índice de Prioridad de Pareto, que no es más que una valoración de la gravedad de
cada defecto.

En el IPP podemos tener en cuenta todas aquellos factores de ponderación


que creamos necesarias. Nosotros hemos dado, a título de ejemplo, una serie de
ellas que podrían ser útiles para decidir qué defecto es el que mayor prioridad tiene a
la hora de ser eliminado:
cnc p
IPP = f ⋅ ⋅
cs ts
donde:

• Hemos llamado cnc al coste de no calidad por unidad, es decir, a todas aquellas
24 Especialista en Gestión y Control de la Calidad

pérdidas que tiene la empresa por el hecho de producir un defecto.

• Suponiendo que existe alguna herramienta que puede evitar que se produzca el
defecto, incluimos otro factor que es el cs (coste de la solución por unidad). Evi-
dentemente, cuanto mayor sea el coste de la solución menor prioridad queremos
que tenga el defecto.

• Otro posible factor es ts (tiempo de la solución), es decir, cuánto tiempo tardar-


íamos en solucionar un determinado defecto. Cuanto más tiempo se tarde en so-
lucionarlo menor prioridad queremos que tenga.

• Otro factor a considerar podría ser p (probabilidad de éxito) que no es más que
una probabilidad subjetiva que se basa en la esperanza que tenemos de que el
defecto se elimine.

Así pues, teniendo en cuenta todos los factores anteriores, el defecto sobre el
que centraremos esfuerzos será aquel que mejor se acople a todas las condiciones a
la vez: el más frecuente, el que mayor coste de no calidad tenga, el que tenga menor
coste y tiempo de solución y el que tenga mayor probabilidad de éxito.

Siguiendo con el ejemplo anterior, supongamos que los valores de los factores
que hemos considerado en el IPP son:

Defecto f cnc cs p ts
Fractura 10 50 500 0.7 35
Rayado 42 50 2000 0.9 20
Mancha 6 90 10 1 3
Rajadura 4 120 1500 0.2 103
Tensión 104 50 30 0.1 2
Burbuja 20 130 1200 0.8 40

que representándolo queda la figura 2.7.


CONCEPTOS BÁSICOS DE ESTADÍSTICA 25

30 99,58 99,76 99,92 100,00 100,00


25
20 67,22
Frec. 15
10
5
0
Mancha Tensión Rayado Burbuja Fractura Rajadura

Figura 2.7.

Es evidente que la prioridad de eliminación de defectos ha cambiado.

2.6.- HISTOGRAMAS TRIDIMENSIONALES

En un apartado anterior ya vimos que un histograma no era más que la repre-


sentación gráfica de la correspondiente tabulación de frecuencias para una única va-
riable. También vimos que mediante tabulaciones podíamos representar las frecuen-
cias de dos o más variables. Pues bien, un histograma tridimensional no es más que
la representación gráfica de una tabulación de frecuencias para el caso de dos varia-
bles cuantitativas.

El histograma tridimensional es un método de representación que nos puede


ayudar, de forma más o menos sencilla, a comprobar la relación que existe entre las
dos variables que representa.

El método de representación es idéntico que el del unidimensional: dividimos


las dos variables en intervalos con la misma norma y cruzamos las frecuencias. El
resultado será como el de la figura 2.8.
26 Especialista en Gestión y Control de la Calidad

12

f 9
r
e
c
u
6
e
n
c
i
a 3 103

83

0
63
160
170
180
190 43

Figura 2.8.

2.7.- DIAGRAMA DE DISPERSIÓN

El diagrama de dispersión es otro método de análisis bivariante. Esta


herramienta sirve para poner de manifiesto la existencia de una relación entre dos
variables cuantitativas, lo cual no implica que exista una relación causa-efecto.

El diagrama de dispersión puede evitar la aplicación innecesaria de determi-


nadas herramientas que sirven para el control del proceso: si sabemos que existe
una determinada relación entre dos características de un mismo producto, podríamos
realizar un gráfico de control para una única característica en lugar de tener que
hacerlo para cada una ellas.

Además de detectar la relación entre dos características, también es capaz de


mostrar la existencia de los llamados “outliers” que no son más que valores anómalos
CONCEPTOS BÁSICOS DE ESTADÍSTICA 27

a la población que deben ser eliminados antes del análisis.

La figura 2.9 muestra el diagrama de dispersión de un grupo de automóviles


que relaciona la potencia en caballos y el consumo medio en millas por galón. Cada
punto representa a un automóvil.

outliers
180

150

120
W
90

60

30

0
15 25 35 45 55
mpg

Figura 2.9

En este diagrama es evidente la existencia de dos valores anómalos que, co-


mo comentábamos anteriormente, deben ser eliminados antes de realizar el estudio.

2.8.- PARÁMETROS DE MEDIDA

De la misma forma que las representaciones gráficas pueden ayudar a la in-


terpretación de los datos, las descripciones numéricas también tienen gran utilidad.
En este apartado estudiaremos varias medidas numéricas para describir las carac-
terísticas de los datos; dependiendo de lo que éstas traten de describir las hemos
dividido en dos grupos: parámetros que miden la posición de los datos y parámetros
que miden la dispersión (variabilidad) de los mismos.

De aquí en adelante consideraremos que los datos son x1, x2, ···, xn donde ca-
28 Especialista en Gestión y Control de la Calidad

da xi es un valor del grupo de los n datos objeto de estudio.

2.8.1.- Parámetros de posición

• Media. También llamada promedio aritmético o media muestral. Es una medida


poco robusta puesto que ante valores anómalos se modifica mucho su valor
aunque, teniendo en cuenta y evitando lo anterior, es el que más se utiliza.
x1 + x 2 + L + x n n x i
x= =∑
n i =1 n

• Mediana. Es el punto donde la muestra se divide en dos partes iguales. Es una


medida más robusta que la anterior puesto que ante valores anómalos se modifica
poco. Si ordenados los datos, de menor a mayor, la mediana será el valor que deja
la mitad de los datos por debajo y la mitad por arriba. Si el número de datos es
impar, será el valor central, si el número de datos es par, será el punto medio entre
los dos valores centrales:

~  n +1   n + 1
x = xi +  − i  ⋅( xi +1 − xi ) donde i = INT 
 2   2 

• Moda. Es el valor que se presenta con mayor frecuencia en el grupo de datos.

• Percentiles y cuartiles. Cuando un conjunto de datos ordenado se divide en cien


partes iguales (la mediana los divide en dos partes iguales) los puntos de división se
llaman percentiles y los representamos mediante pk que equivale al k-ésimo
percentil. Por lo tanto, el pK es un valor tal que el 100k% de las observaciones están
por debajo de él. Llamamos cuartiles a:
− q1: 1er cuartil, deja el 25% de los datos por abajo. Equivale a p0’25.
− q2: 2º cuartil, deja 50% de los datos por abajo (Mediana). Equivale a p0’5.
− q3: 3er cuartil, deja el 75% de los datos por abajo. Equivale a p0’75.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 29

2.8.2.- Parámetros de dispersión

• Varianza. Se llama también varianza muestral. Es la medida de las desviaciones de


los datos respecto a su media al cuadrado.
n

∑ (x − x)
i
2

s2 = i =1

n
En Inferencia Estadística, por motivos que justificaremos en el capítulo
correspondiente, normalmente se utiliza la varianza calculada como:
n

∑ (x − x)
i
2

s2 = i =1

n −1
que en Estadística Descriptiva se le suele llamar cuasivarianza. Una forma de
diferenciarlas es indicando mediante un subíndice el valor del denominador. Así,
sn será la varianza y sn-1 es la cuasivarianza.

• Desviación típica. Explica exactamente lo mismo que la varianza, la única


diferencia es que tiene las mismas unidades que los datos, cosa que es
ventajosa a la hora de la interpretación de resultados.

s = + s2

• Coeficiente de variación. En ocasiones es deseable expresar la variabilidad del


grupo de datos en fracciones de media y por ello se utiliza el coeficiente de
variación. Es un parámetro adimensional y se calcula como:
s
CV =
x

• Rango. Es otra forma de medir la dispersión teniendo en cuenta la distancia que


existe entre la medida más pequeña y la más grande del conjunto de datos. El
30 Especialista en Gestión y Control de la Calidad

problema que tiene es que es una medida muy poco robusta ante valores
anómalos.

R=Xmax-Xmin

• Recorrido intercuartílico: Es más robusta que la anterior puesto que utiliza los
cuartiles:
R.I.= q3-q1

2.9.- EJERCICIOS

1.- En la tabla siguiente se recoge las medidas del diámetro de 100 ejes fabricados
consecutivamente cuyas especificaciones son 32’21±0’05 mm.

32’20 32’23 32’20 32’22 32’18 32’23 32’17 32’19 32’21 32’19
32’23 32’21 32’21 32’24 32’21 32’23 32’20 32’21 32’19 32’20
32’22 32’25 32’20 32’24 32’19 32’18 32’21 32’17 32’22 32’23
32’18 32’21 32’22 32’24 32’23 32’20 32’19 32’18 32’17 32’20
32’22 32’22 32’22 32’20 32’17 32’20 32’22 32’23 32’18 32’25
32’21 32’22 32’20 32’25 32’17 32’21 32’22 32’20 32’19 32’19
32’18 32’25 32’22 32’21 32’24 32’22 32’19 32’25 32’23 32’20
32’25 32’18 32’23 32’21 32’21 32’24 32’22 32’16 32’22 32’21
32’19 32’19 32’20 32’19 32’20 32’22 32’23 32’24 32’19 32’20
32’21 32’20 32’21 32’23 32’21 32’19 32’26 32’23 32’21 32’21

Determinar el número de intervalos, el ancho de cada uno, los límites del histograma
de frecuencias y representarlo analizando el resultado.

2.- Un proveedor nos ha presentado en recepción un lote de 163 circuitos. Se ha rea-


lizado una inspección del 100% obteniéndose los resultados de la tabla siguiente:
CONCEPTOS BÁSICOS DE ESTADÍSTICA 31

12’7 12’6 12’9 12’8 12’3 12’7 12’6 12’4 12’6 12’3 12’5 12’4 12’2 12’2 12’1
12’8 12’5 12’6 12’6 12’3 12’4 12’1 12’2 12’7 12’6 12’6 12’5 12’3 12’8 12’2
12’9 12’4 12’8 12’8 12’9 12’2 12’5 12’8 12’8 12’7 12’5 12’1 12’1 12’6 12’7
12’7 12’3 12’6 12’5 12’5 12’7 12’3 12’6 12’1 12’4 12’6 12’4 12’8 12’6 12’8
12’5 12’3 12’1 12’3 12’4 12’9 12’2 12’1 12’4 12’8 12’3 12’9 12’6 12’5 12’5
12’4 12’7 12’9 12’4 12’7 12’3 12’5 12’8 12’6 12’4 12’6 12’9 12’2 12’2 12’8
12’6 12’6 12’4 12’3 12’5 12’3 12’4 12’4 12’5 12’9 12’4 12’4 12’4 12’1 12’3
12’2 12’7 12’2 12’4 12’9 12’5 12’1 12’3 12’2 12’5 12’5 12’2 12’6 12’5 12’1
12’8 12’4 12’5 12’8 12’3 12’2 12’3 12’7 12’7 12’7 12’6 12’8 12’2 12’7 12’3
12’9 12’8 12’9 12’4 12’2 12’5 12’7 12’3 12’7 12’3 12’5 12’1 12’2 12’1 12’4
12’7 12’7 12’4 12’5 12’5 12’7 12’5 12’6 12’3 12’4 12’5 12’6 12’6

Representar el histograma de frecuencias y analizar los resultados comparándolos


con los del ejercicio anterior.

3.- El ingeniero de calidad de una empresa, revisando los registros de calidad de


hace dos años, encuentra un documento en el cual aparece el siguiente Diagrama de
Pareto.

68500 100
1 00 .0
94 .9

80

62.8 60

40
40 .9

20

0
0
D e f.3 D e f.4 D e f.1 D e f.2 O tro s

En el pie del documento aparece la siguiente tabla correspondiente al defecto 1 y al


2.
32 Especialista en Gestión y Control de la Calidad

Def. Frecuencia Coste de Tiempo de Coste de Probabilidad


Aparición No-Calidad reparación reparación de éxito
1 1500 104120 10 min 950 $ 0.85
2 100 44525 1000 $ 0.90

A partir de estos datos, ¿cuánto representaba el tiempo de reparación del defecto 2?


CONCEPTOS BÁSICOS DE ESTADÍSTICA 33

CAPÍTULO 3: PROBABILIDAD

3.1.- INTRODUCCIÓN

En el capítulo 1 estudiamos que los fenómenos aleatorios se caracterizaban


por la impredecibilidad de resultados, pero también sabemos que ésta incertidumbre
no es total puesto que tienen lo que se llama regularidad estadística. El Cálculo de
Probabilidades consiste, precisamente, en medir el grado de incertidumbre de algu-
nos sucesos, de tal forma, que a un suceso totalmente cierto le asignaremos una
probabilidad igual a 1 y a un suceso imposible le asignaremos una probabilidad 0.
Para el caso de grados de incertidumbre intermedios asignaremos probabilidades
intermedias.

Teniendo en cuenta el concepto de regularidad estadística, podemos decir que


la probabilidad de un suceso A, P(A), es el número en torno al cual tiende a estabi-
lizarse la frecuencia relativa con la que se presenta un cierto resultado A, de una ex-
periencia aleatoria, cuando el número de repeticiones crece indefinidamente.

Antes de continuar debemos dejar claros una serie de conceptos necesarios


para la comprensión del cálculo de probabilidades:

Llamamos Espacio muestral (E) al conjunto de todos los posibles resultados


que se pueden obtener al realizar una experiencia aleatoria. Existen distintos tipos de
espacios muestrales dependiendo de cómo sean estos resultados:

• Espacio muestral finito o discreto finito: el conjunto de todos los posibles resulta-
34 Especialista en Gestión y Control de la Calidad

dos es un conjunto discreto y finito. Por ejemplo, el espacio muestral del lanza-
miento de un dado es E={1,2,3,4,5,6}.

• Espacio muestral infinito numerable o discreto infinito. Por ejemplo, el número de


defectos que nos puede aparecer cuando un proveedor suministra un lote
E={0,1,2,….}, o bien, el número de veces que hay que lanzar una moneda hasta
que nos salga una cara E={1,2,3,….}

• Espacio muestral infinito no numerable o continuo: cuando los posibles resulta-


dos pueden ser cualquier valor de la recta real o de un tramo de ésta. Por ejem-
plo, las alturas de los hombres españoles. En este caso no podemos representar
de forma extensiva el espacio muestral puesto que está compuesto por infinitos
valores.

Llamamos suceso a un subconjunto del espacio muestral (E). Los sucesos


pueden ser de distintos tipos:

• Suceso elemental: cuando el suceso está formado por un único elemento de E.


• Suceso compuesto: cuando el suceso está formado por más de un elemento de
E
• Suceso imposible (∅): aquel que nunca ocurre. Es el conjunto vacío.
• Suceso seguro (E): aquel que siempre ocurre. Es todo el espacio muestral E.
• Suceso contrario o complementario (⊕): es el suceso compuesto por todos aque-
llos elementos que no contiene A
• Sucesos mutuamente excluyentes: cuando no pueden ocurrir a la vez.

3.2.- DEFINICIÓN DE PROBABILIDAD


CONCEPTOS BÁSICOS DE ESTADÍSTICA 35

Como ya hemos dicho, a todo suceso se le puede asociar un número com-


prendido entre 0 y 1 que se denomina probabilidad. Desde un punto de vista intuitivo,
la probabilidad de un suceso no es más que la proporción de individuos en los que se
verifica dicho suceso.

Toda probabilidad debe satisfacer los siguientes axiomas:

1. Todo suceso tiene una probabilidad no negativa. P(A)≥0


2. La probabilidad del suceso seguro es 1. P(E)=1
3. La probabilidad de la unión de cualquier grupo de sucesos disjuntos es la suma
de las probabilidad de cada uno de esos sucesos.
P(∪Ai)=∑P(Ai) con Ai∩Aj=∅

De los axiomas anteriores se desprenden las siguientes propiedades:

a) La probabilidad del suceso imposible es 0: P(∅)=0


b) Una probabilidad nunca puede ser menor que 0 ni mayor que 1: 0≤P(A)≤1
c) Si un suceso A incluye a un suceso B, la probabilidad de A siempre es mayor o
igual que la de B: Si B⊂A ⇒ P(B)≤P(A)

d) La probabilidad del suceso complementario es: P( A )=1-P(A)


e) La probabilidad de la unión de dos sucesos es: P(A∪B)=P(A)+P(B)-P(A∩B)
Y en general podemos decir que:
   
P  U A I  = ∑ P( A i ) + ∑∑ P( A i ∩ A j ) + ⋅⋅⋅ + ( −1) n −1 P  I A i  i=1,2,...,n
 i  i i j  i 

3.3.- PROBABILIDAD CONDICIONAL


36 Especialista en Gestión y Control de la Calidad

Con la probabilidad condicional se pretende valorar el efecto que tiene sobre la


probabilidad de un suceso el hecho de disponer de informaciones parciales sobre el
mismo. Por lo tanto, la probabilidad de que ocurra un suceso B se puede ver modifi-
cada cuando tenemos información “a priori” sobre el espacio muestral al que perte-
nece.

Por ejemplo, la probabilidad de que al lanzar un dado salga un 6 es 1/6 pero si


disponemos de la información a priori “ha salido un número par” la probabilidad de
que ahora salga un 6 es 1/3. Es decir, cuando disponemos de cierta información, el
espacio muestral E de los posibles resultados pasa de ser E={1,2,3,4,5,6} a ser
A={2,4,6} y con éste último es con el que trabajaremos. Podríamos escribir que
PE(6)=1/6 y que PA(6)=1/3.

Se define “la probabilidad del suceso B condicionada a que ha ocurrido un su-


ceso A” como:
P( A ∩ B)
PA (B) = P(B / A ) =
P( A )

3.3.1.- Independencia de sucesos

Dos o más sucesos son independientes entre sí si el conocimiento de que ha


ocurrido uno o varios de ellos no modifica la probabilidad de que ocurran los otros.
Por definición se dice que dos sucesos son independientes si se cumple que
P(B/A)=P(B) P(A/B)=A.

Por lo tanto también se cumple que:


P( A ∩ B)
P(B / A ) = P(B) = ⇒ P(A∩B)=P(A)·P(B)
P( A )
CONCEPTOS BÁSICOS DE ESTADÍSTICA 37

Y en general, si n sucesos son independientes, podemos decir que:


P(A1∩A2∩···∩An)=P(A1)·P(A2)·…·P(An)
donde también se cumple la independencia entre los mismos sucesos tomados de
dos en dos, de tres en tres, etc.

Por otra parte, si dos sucesos A y B son independientes entonces:


a) Los sucesos A y B también son independientes
b) Los sucesos A y B también son independientes
c) Los sucesos A y B también son independientes.

Y en general, si tenemos n sucesos independientes cualquier combinación de


sucesos negados y no negados también serán independientes.

3.3.2.- Teorema de la Intersección

Sabemos que
P( A ∩ B) P( A ∩ B)
P(B / A ) = P( A / B) =
P( A ) P(B)
por lo tanto, si despejamos las intersecciones de cada una de las ecuaciones ten-
dremos que:
P(A∩B)=P(A/B)·P(B)=P(B/A)·P(A)
que es el llamado Teorema de la Intersección para dos sucesos.

Para el caso de tres sucesos, podemos poner la probabilidad condicional co-


mo:
P(C∩B / A ) P( A ∩B∩C)
P(C /B / A ) = = = P(C /( A ∩B))
P(B / A ) P( A ∩B)
luego, la intersección entre tres sucesos es:
P(A∩B∩C)= P(B)·P(A/B)·P(C/A∩B)
38 Especialista en Gestión y Control de la Calidad

Y por último, para el caso de cuatro sucesos:


P(A∩B∩C∩D)= P(B)·P(A/B)·P(C/A∩B)·P(D/A∩B∩C)

3.3.3.- Teorema de la Partición o de la probabilidad total.

Supongamos que tenemos una partición de un espacio muestral, es decir, n


sucesos que cumplen que ∪Ai=E y Ai∩Aj=∅ ∀ i≠j, como muestra la figura 3.1.

E
A3
A2
A4
B A1

A5

Figura 3.1
Donde el suceso B es la unión de:
B=U(Ai∩B) con (Ai∩B)∩(Aj∩B)=∅ ∀ i≠j

Por lo tanto, según el tercer axioma de la probabilidad, podemos hallar la pro-


babilidad de que ocurra el suceso B como:
n n
P(B) = ∑ P(B ∩ A i ) = ∑ P(B / A i ) ⋅P( A i )
i =1 i =1

que es el Teorema de la Partición.

3.3.4.- Teorema de Bayes

Si los Ai son una partición del espacio muestral y el suceso B es de probabili-


dad no nula, se cumple que
CONCEPTOS BÁSICOS DE ESTADÍSTICA 39

P( A i ∩ B)
P( A i / B) =
P(B)
Aplicando el Teorema de la Intersección en el numerador y el Teorema de la
Partición en el denominador, obtenemos que:
P( A i ) ⋅P(B / A i )
P( A i / B) = n

∑ P( A )⋅P(B / A )
i =1
i i

A los sucesos Ai se les suele llamar causa y al suceso B efecto. Por lo tanto, el
Teorema de Bayes determina la probabilidad de que haya sido la causa de Ai la que
ha provocado el efecto B.

3.4.- COMBINATORIA

El uso directo de la combinatoria para el caso de probabilidades es solo válido


en el caso concreto de espacios muestrales finitos simétricos, es decir, todos los su-
cesos elementales tienen la misma probabilidad de ocurrir. En este tipo de espacios
muestrales las probabilidades son relativamente fáciles de calcular mediante el Teo-
rema de Laplace:
casos favorables
P( A ) =
casos posibles

Por lo tanto, la combinatoria no es más que una forma relativamente sencilla


de determinar el número de casos posibles y de casos favorables cuando el espacio
muestral es muy amplio. En función de las características que tenga el problema que
queremos resolver, las expresiones a aplicar son de distinto tipo. Veamos algunos de
ellos:
40 Especialista en Gestión y Control de la Calidad

Para el caso en que sí que importa el orden con el que salgan los resultados
utilizaremos:

• Sin repetición:
− Variaciones: grupos de m elementos tomados de un grupo mayor constituido
por n elementos
m!
Vmn =
(m − n)!
− Permutaciones: ordenaciones de n elementos
Pn=n!

• Con repetición:
− Variaciones con repetición: m elementos en grupos de n
VRnm = mn
− Permutaciones con repetición: ordenaciones con elementos repetidos
n!
PRnn1 ,...,n k =
n1!⋅...⋅ nk !

Por ejemplo, si tenemos n libros y los queremos colocar en una estantería, ten-

dremos:

a) si caben todos Pn
b) si no caben más de n libros, habría Vmn formas diferentes de colocarlos.
Si no importa el orden con el que salen:

• Sin repetición:
− Combinaciones: grupos de n elementos formado a partir de un efectivo de m
unidades (m>n)
CONCEPTOS BÁSICOS DE ESTADÍSTICA 41

m!
Cnm =
(m − n)!⋅n!
• Con repetición:
− Combinaciones con repetición: id.
(m + n −1)!
CRnm =
n!⋅(m −1)!

Es el caso de la lotería primitiva en el que es indiferente que salga 39, 40, 3,


10, 22, 49, que que salga 40, 10, 39, 3, 22, 49. Además es sin repetición puesto que
no puede salir dos veces el mismo número. La combinación premiada básica (6
aciertos) tiene C649 posibilidades diferentes.

3.5.- EJERCICIOS

1.- Una caja contiene 100 chips, de los cuales 75 funcionan correctamente y 25 son
defectuosos. Se seleccionan aleatoriamente 12 chips. Calcular la probabilidad de que
al menos un chip seleccionado sea defectuoso.

2.- Un sistema recibe energía eléctrica el 30% de tiempo, energía hidráulica el 60% y
energía mecánica el 10% restante. Cuando funciona eléctricamente, la probabilidad
de avería es 0’002, cuando lo hace hidráulicamente es 0’001 y cuando lo hace
mecánicamente es 0’05. Hallar la probabilidad de avería.
3.- Dos cajas contienen cerrojos grandes y cerrojos pequeños. Supongamos que una
caja tiene 60 grandes y 40 pequeños y que la otra contiene 10 grandes y 20 peque-
ños. Seleccionamos una caja al azar y extraemos un cerrojo de la misma. Calcular la
probabilidad de que sea grande.

4.- Un lote de circuitos contiene un 2% de defectuosos. Cada circuito es comprobado


42 Especialista en Gestión y Control de la Calidad

antes de su uso mediante un téster. El téster no es totalmente fiable ya que la proba-


bilidad de que éste indique que un circuito es correcto cuando realmente lo es, es
0.95, y la probabilidad de que el téster indique que es defectuoso cuando realmente
lo es, es 0’94. Si el téster ha indicado que el circuito es defectuoso, ¿Cuál es la pro-
babilidad de que realmente lo sea?

5.- Supongamos dos líneas de fabricación del mismo producto. La primera línea fa-
brica 20 piezas/hora, de las cuales el 90% son apropiadas para una segunda opera-
ción. La segunda produce 90 piezas/hora, de las cuales sólo el 20% son apropiadas
para esa segunda operación. Todas las unidades van a un almacén común. Si al ex-
traer una pieza al azar, ha resultado ser apropiada, ¿Cuál es la probabilidad de que
provenga de la primera línea?
CONCEPTOS BÁSICOS DE ESTADÍSTICA 43

CAPÍTULO 4: VARIABLES ALEATORIAS

4.1.- DEFINICIÓN

En los ejemplos que hemos visto en el capítulo anterior el espacio muestral


estaba expresado como una descripción de los posibles resultados. En algunos ca-
sos la descripción de los resultados es suficiente, pero en otros necesitamos asociar
un número a cada valor de ese espacio muestral. Así pues, la variable que asocia un
número con el resultado de un experimento aleatorio se conoce como variable alea-
toria. Por lo tanto, una variable aleatoria no es más que una variable real cuyo resul-
tado no se puede predecir y que, por lo tanto, está influida por el azar.

Las variables aleatorias se denotan con una letra mayúscula, tal como X, y
con una letra minúscula x, a un valor posible de X. Por ejemplo, podemos llamar X al
peso de los hombres españoles y un valor de ésta variable aleatoria podría ser x=70
kg.

Al igual que los fenómenos aleatorios, las variables aleatorias se caracterizan


por el hecho de seguir unas determinadas pautas en su “comportamiento”, como se
muestra en la figura 4.1.

Supongamos que estamos en un proceso en el que se están fabricando pie-


zas circulares. El diámetro podría ser una característica de la pieza a estudiar. To-
mamos de dicho proceso piezas que medimos y que situamos, según su valor, en el
eje X de la figura 4.1. A medida que tomamos mayor número de piezas se va intu-
yendo una cierta “forma“ en la estructura de frecuencias. Pues bien, si pudiésemos
44 Especialista en Gestión y Control de la Calidad

tomar infinitas piezas veríamos que la variable aleatoria tiene una cierta distribución.
Ésta distribución es, precisamente, la que nos permite hallar las probabilidades de
que ocurran determinados sucesos: por ejemplo, podríamos hallar la proporción de
piezas que miden como máximo 3 cm., o lo que es lo mismo, la probabilidad de que
X sea menor o igual que 3, que denotaríamos como P(X≤3).

x x x x

f(x)

x x x

Figura 4.1.

Otros parámetros de interés a estudiar de una variable aleatoria son los que
describen la posición de ésta y su dispersión. En la figura 4.2. se ha representado
una interpretación de éstos parámetros.

DISTRIBUCIÓN POSICIÓN DISPERSIÓN

Figura 4.2.
Las variables aleatorias pueden ser de dos tipos: continuas, que en Control
CONCEPTOS BÁSICOS DE ESTADÍSTICA 45

Estadístico del Proceso (CEP) se denominan sencillamente variables y que toman


valores en un conjunto continuo y discretas, que en CEP se denominan atributos,
que toman valores de un conjunto discreto.

Ejemplos de variables aleatorias continuas son: las alturas y los pesos de los
españoles, la longitud de una pieza, la resistencia a la rotura de una pieza, el nivel de
ácido úrico y de colesterol en la sangre, etc.

Ejemplos de variables aleatorias discretas son: el número de piezas defectuo-


sas que se puede encontrar en un lote, el número de defectos, el número de veces
que tengo que lanzar una moneda hasta que me salga una cara, etc.

Veamos cada uno de éstos tipos de variable con un poco más de detalle:

4.2.- VARIABLE ALEATORIA DISCRETA

Como estudiábamos en apartado anterior, las variables aleatorias discretas


toman valores de un conjunto discreto, de tal forma que cada posible valor x tiene
asignada una probabilidad. Es por ello por lo que su distribución viene definida por
una función discreta que llamamos Función de Probabilidad y que denotamos por
PX(x).

4.2.1.- Función de Probabilidad

La Función de Probabilidad nos proporciona directamente la probabilidad de


que ocurra un determinado valor de la variable, es decir,
PX(x)=P(X=x)
46 Especialista en Gestión y Control de la Calidad

Precisamente por lo anterior, debe cumplirse que

∑ P ( x ) =1
i
X i

Ésta función puede tener diferentes formas dependiendo de la variable aleato-


ria discreta con la que estemos trabajando, un ejemplo es el de la figura 4.3.

PX(x)
PX(3)=P(X=3)

0 1 2 3 4 5 6 7 8 9 10

Figura 4.3.

Otra cuestión importante es cómo determinar la probabilidad de que la variable


tome cualquier valor entre un intervalo de valores. En este caso la solución es relati-
vamente sencilla, por ejemplo:

P(2≤X≤4)=PX(2)+PX(3)+PX(4)

4.3.- VARIABLE ALEATORIA CONTINUA

Las variables aleatorias continuas pueden tomar cualquier valor de la recta re-
al. Es por ello por lo que su distribución viene definida por una función continua que
llamamos función de densidad y que denotamos por fX(x).
CONCEPTOS BÁSICOS DE ESTADÍSTICA 47

4.2.1.- Función de densidad

La función de densidad es una función no negativa que puede tener diferentes


formas dependiendo de cómo sea la variable aleatoria continua de la que estemos
hablando. Por ejemplo, si la variable con la que trabajamos es la longitud, el peso, la
resistencia de una pieza o cualquier característica que tenga dos especificaciones de
diseño T1 y T2 y un valor nominal T centrado entre éstas, la distribución suele tener la
forma de la figura 4.4.(a).

fX(x) fX(x) fX(x)


λ

T1 T T2 X X a b X

(a) (b) (c)

Figura 4.4.

Si la variable aleatoria es la vida útil de un producto, es decir, el tiempo que vi-


ve hasta que falla accidentalmente, la función de densidad suele tener la forma de la
figura 4.4.(b). Y si la variable es, por ejemplo, el tiempo que hay que esperar en la
parada de un autobús hasta que llega, la función de densidad podría ser la de la figu-
ra 4.4.(c). En definitiva, según con qué tipo de variable estemos trabajando la forma
de la función de densidad nos dirá cuál es su “comportamiento”.

Una interpretación intuitiva, aunque no exacta, de lo que refleja la forma de la


función de densidad podría ser la frecuencia con la que se dan los valores en la po-
blación. Según esta interpretación, la función de densidad de la figura 4.4.(a) nos es-
taría diciendo que los valores que con mayor frecuencia se dan en esta población
48 Especialista en Gestión y Control de la Calidad

son los que miden alrededor del valor T y que a medida que nos acercamos a los
extremos, la frecuencia con la que se dan estos valores es menor. La función de
densidad de la figura 4.4.(c) nos estaría indicando que la frecuencia con la que espe-
raremos “a” minutos a que venga el autobús es la misma con la que esperaremos “b”
minutos.

La interpretación anterior puede ser válida hasta cierto punto. Realmente la


función de densidad fX(x) nos proporciona lo que se llama “densidad de probabilidad”,
de tal forma que el área que queda por debajo de dicha función entre dos valores de
la variable [x1,x2] es la probabilidad de que ésta tome cualquier valor entre ellos. Así
se muestra en la figura 4.5.

fX(x)

P(x1≤X≤x2)

x1 x2 X

Figura 4.5.

Entonces, la probabilidad de que la variable X tome cualquier valor entre x1 y x2 se


calculará como:
x2
P(x1≤X≤x2)= ∫ fX ( x ) ⋅ dx
x1

Por lo tanto, si el área que hay por debajo de la función de densidad sirve para
determinar la probabilidad en un intervalo de valores, deberá cumplirse que el área
total por debajo de ella debe ser 1, es decir
CONCEPTOS BÁSICOS DE ESTADÍSTICA 49

+∞
∫−∞
f ( x ) ⋅ dx = 1

Por otra parte, y como consecuencia de que X sea continua, es que para cual-
quier valor x de la variable su probabilidad es nula, es decir, P(X=x)=0. Este resultado
se desprende de que
x
P(X=x)= ∫ fX ( x ) ⋅ dx =0
x

4.4.- FUNCIÓN DE DISTRIBUCIÓN

Un método alternativo a utilizar para la descripción de la distribución de una


variable aleatoria es lo que se llama Función de Distribución FX(x) que no es más que
FX(x)=P(X≤x)

Para el caso de una variable aleatoria continua, la forma de determinar la


Función de Distribución es mediante:
x
FX ( x ) = P( X ≤ x ) = ∫ fX ( x ) ⋅ dx
−∞

que es fácilmente interpretable según la figura 4.6.

Nótese que la definición de FX(x) puede cambiarse por P(X<x) puesto que la
probabilidad en un punto vale 0.
50 Especialista en Gestión y Control de la Calidad

f X(x)

P(X≤a)

FX(x)

P(X≤a)

Figura 4.6

De la ecuación anterior se desprende que


dFX ( x )
fX ( x ) =
dx

Si conocemos la Función de Distribución es mucho más sencillo determinar


ciertos valores de probabilidad puesto que:

P(X>a)=P(X≥a)=1-P(X≤a)=1-FX(a) y P(a≤X≤b)=FX(b)-FX(a)

Para el caso de variables aleatorias discretas la Función de Distribución se


determina mediante:

FX ( x ) = P( X ≤ x ) = ∑ PX ( xi )
xi ≤ x

de donde se obtiene que la FX(x) es una función escalonada como se muestra en la


figura 4.7.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 51

Figura 4.7.

En este caso tendremos que tener en cuenta que la probabilidad en un punto


no es 0 por lo que el cálculo de las probabilidades a partir de la FX(x) será:

P(X>a)=1-P(X≤a)=1-FX(a) y P(X≥a)=1-P(X<a)=1-P(X≤a-1)=1-FX(a-1)
P(a≤X≤b)=FX(b)-FX(a-1)

4.5.- MEDIA Y VARIANZA

Como comentábamos en el apartado 4.1, además de la distribución de la va-


riable aleatoria, podemos estudiar tres parámetros más de gran interés que descri-
ben la posición de la variable aleatoria y su dispersión. Éstos son: la media, la va-
rianza y la desviación típica.

La media, valor medio, o esperanza matemática nos va a servir como indica-


52 Especialista en Gestión y Control de la Calidad

dor de la posición de la variable, es decir, nos dirá el orden de magnitud que tienen
los valores de ésta. En la analogía mecánica, la media se considera como el centro
de gravedad de la distribución.

La media, para el caso de variable aleatoria continua se determina a través de:

µ g( x ) = E[g( x )]= ∫
∞ ∞
µ X = E( X) = ∫ x ⋅ fX ( x ) ⋅ dx g( x ) ⋅ fX ( x ) ⋅ dx
−∞ −∞

y para el caso de variable discreta:

µ X = E( X) = ∑ xi ⋅PX ( xi ) µg( x ) = E [g( x )]= ∑ g( xi )⋅PX ( xi )


i i

Tiene las siguientes propiedades:

1. E(X+Y)=E(X)+E(Y) y E(X-Y)=E(X)-E(Y)
2. Si k es una constante, E(k·X)=k·E(X)
3. Si X e Y son independientes, entonces, E(X·Y)=E(X)·E(Y)

La varianza es la que nos va a servir para determinar la dispersión de los va-


lores de la variable o, como decíamos en capítulos anteriores, para medir la variabili-
dad de ésta. Así, si los valores de la variable están alejados de su valor medio, la
varianza será grande y si están muy próximos a ella, la varianza será pequeña. En la
analogía mecánica podemos considerarla como el momento de inercia de la distribu-
ción.

Para el caso de variable continua, la varianza la calcularemos como:



σ2x = D2 ( X) = ∫ ( x − µ x )2 ⋅ fX ( x ) ⋅ dx
−∞

y para el caso de variable discreta:

σ2x = D2 ( X) = ∑ ( xi − µ x )2 ⋅PX ( xi )
i
CONCEPTOS BÁSICOS DE ESTADÍSTICA 53

Algunas de sus propiedades son:

1. Si k es una constante, D2(k)=0


2. Si k es una constante, D2(k·X)=k2·D2(X)
3. Si X e Y son independientes, D2(X+Y)=D2(X)+D2(Y) y D2(X-Y)=D2(X)+D2(Y)

La desviación típica es también otro parámetro que mide la dispersión de la


variable. Al igual que en estadística descriptiva, la única diferencia con la varianza es
que las unidades de la desviación típica son las mismas que las de la variable y su
interpretación intuitiva puede ser más sencilla, mientras que las de la varianza son
las unidades al cuadrado.

σ X = + σ2X

4.6.- EJERCICIOS

1.- La longitud de una cierta pieza se distribuye con la siguiente función de densidad:
k 1≤ x < 2
f X ( x ) = k − ( x − 2) 2
2 ≤ x ≤ 2.5
0 otros valores

y se consideran correctas las piezas de longitud comprendida entre 1’5 y 2’1. Hallar
el valor de la constante k y de la proporción de piezas correctas

2.- Un fabricante utiliza dos métodos diferentes en el montaje de la transmisión del


automóvil. Todas las componentes, incluyendo el revestimiento, engranaje, el eje, el
sello y los cojinetes se adquieren mediante subcontratas. Si X es el tiempo que tarda
en montarse una unidad con el primer método e Y es el tiempo que tarda con el se-
gundo, se verifica que:
54 Especialista en Gestión y Control de la Calidad

x −1 1≤ x < 2 4y − 6 1.5 ≤ x < 2


fX ( x ) = 3 − x 2≤ x ≤3 fY ( y ) = 10 − 4 y 2 ≤ x ≤ 2.5
0 otros valores 0 otros valores

Calcular los tiempos medios y las desviaciones típicas de los dos métodos y compa-
rarlos.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 55

CAPÍTULO 5: PRINCIPALES DISTRIBUCIONES DISCRETAS

Algunas variables aleatorias presentan comportamientos característicos que


son estándares de uso frecuente. En este capítulo y en el siguiente nos dedicaremos
a estudiar las distribuciones discretas y continuas que más comúnmente podemos
encontrar en un proceso de producción.

5.1.- DISTRIBUCIÓN BINOMIAL

Sea A un suceso que tiene una probabilidad “p” de ocurrir. Repitamos n veces
la realización de la experiencia de la que se trate con el fin de observar si en cada
repetición ha ocurrido el suceso A o su complementario A . Supongamos, además,
que las repeticiones son independientes, es decir, que después de cada repetición la
probabilidad “p” de que ocurra el suceso A no se ha modificado.

Pues bien, si designamos por X a la variable aleatoria “número de veces que


ocurre el suceso A, de probabilidad p, cuando efectuamos n repeticiones indepen-
dientes de la experiencia”, entonces X es una variable binomial de parámetros n y p y
la representaremos por:
X≡B(n,p)

Un ejemplo aplicado a un proceso de producción, que se acopla a la definición


anterior sería el siguiente: supongamos que la probabilidad de encontrar una pieza
defectuosas en una línea de producción es “p”; de dicha línea tomamos n piezas ex-
traídas al azar, y contamos el número de piezas defectuosas. En este caso X es el
56 Especialista en Gestión y Control de la Calidad

“número de piezas defectuosas que podemos encontrar en un grupo de n piezas to-


madas de una línea de producción, donde hay una proporción de p de piezas defec-
tuosas”

En el ejemplo podemos considerar que las repeticiones de la experiencia


(comprobar si la pieza es defectuosa o no) son independientes puesto que la pobla-
ción (línea de producción), de la que hemos tomado las n piezas, es lo suficiente-
mente grande (prácticamente infinita) como para que la probabilidad “p” no se modi-
fique. Otro caso diferente sería que las n piezas las hubiésemos tomado de un lote
de tamaño finito en el que las repeticiones no serían independientes.

En el caso de una variable aleatoria binomial la Función de Probabilidad viene


definida por la ecuación:
n
PX ( x ) =   ⋅ p x ⋅ (1− p)n − x con x=0,1, 2,...,n
x

Algunos valores de la Función de Probabilidad y de la Función de Distribución se en-


cuentran tabulados en el Anexo 1 para distintos valores de n y p.

Un ejemplo de la Función de Probabilidad es el de la figura 5.1 en el que


hemos representado una Binomial B(10,0’2).

La media y la varianza de una variable binomial se determinan mediante:


E( X) = n ⋅p D2 ( X) = n ⋅p ⋅(1− p)

En el caso de que X sea la del ejemplo anterior, la media se puede interpretar


como el número medio de piezas defectuosas que encontraremos en las n piezas,
siempre que éstas hayan sido tomadas de una línea que tenga una proporción p de
piezas defectuosas.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 57

PX(x) 0,4

0,3

0,2

0,1

0
0 1 2 3 4 5 6 7 8 9 10
X

Figura 5.1.

Otra cuestión de interés a estudiar es el caso de la adición de distribuciones:


la suma de dos variables binomiales independientes con idéntico parámetro p es otra
Binomial:
B(n1,p)+B(n2,p)=B(n1+n2,p)

5.2.- DISTRIBUCIÓN DE POISSON

Sea X una variable Binomial de parámetros n y p. Cuando n tiende hacia infini-


to y p tiende hacia 0, manteniéndose constante el valor medio λ=n·p, diremos que X
tiene una distribución de Poisson y la representaremos por:
X≡Ps(λ)

Un ejemplo de esta distribución aplicada a un proceso de producción es: X es


el número de defectos encontrados en un grupo de n piezas extraídas de la línea de
producción. En este caso, el número de repeticiones que tenemos que hacer para
encontrar todos los defectos podría llegar a ser infinito, puesto que una pieza puede
tener más de un defecto. La probabilidad de encontrar un defecto concreto sería
prácticamente 0. Igualmente podríamos haber dicho que X es el número de defectos
encontrado en 1 m2 de tela o que es el número de fallos que ha tenido una máquina
58 Especialista en Gestión y Control de la Calidad

a lo largo de una semana.

Para la distribución de Poisson la Función de Probabilidad es:


e − λ ⋅ λx
PX ( x ) = con x=0, 1, 2, ...
x!

Y la media y la varianza son:


E(X)=λ D2(X)=λ

En el anexo 2 hay una tabla con los valores de la Función de Probabilidad y la


Función de Distribución para distintos casos de λ. Así mismo, existe una gráfica lla-
mada ábaco de Poisson que nos proporciona también los valores de la Función de
Distribución en función de λ.

La adición para el caso de la distribución de Poisson es sencilla: la suma de


dos variables de Poisson independientes es otra variable de Poisson cuyo parámetro
es la suma de parámetros de las variables sumadas:
Ps(λ1)+Ps(λ2)=Ps(λ1+λ2)

5.3.- DISTRIBUCIÓN HIPERGEOMÉTRICA

Supongamos una población formada por N individuos (finita) de la que ex-


traemos al azar n de ellos. Comprobamos cuántas veces ocurre un determinado su-
ceso A que tiene una probabilidad p de ocurrir. Si llamamos X al nº de individuos de
entre los n que hemos tomado al azar que tienen esa característica A entonces X es
una variable Hipergeométrica y lo denotaremos por X=H(N,n,p).

Nótese que el caso de la distribución Hipergeométrica es el mismo que el de la


Binomial. La única diferencia es que en el caso de la Binomial las repeticiones debían
CONCEPTOS BÁSICOS DE ESTADÍSTICA 59

ser independientes y en este caso deben ser dependientes.

Un ejemplo sencillo sería: X es número de piezas defectuosas encontradas en


n piezas tomadas de un lote de tamaño N en el que hay una proporción p de piezas
defectuosas.

Como ya hemos comentado anteriormente, la diferencia entre la distribución


Binomial y la Hipergeométrica es que en el primer caso la población de la que toma-
mos las n piezas es infinita, lo que indica que las repeticiones son independientes y
la del segundo es finita, lo cual implica que las repeticiones son dependientes.

Esto último es fácil de demostrar a través de un ejemplo: supongamos que te-


nemos un lote con 20 piezas de las cuales 3 son defectuosas. Si extraemos una pie-
za, al azar, la probabilidad de que ésta sea defectuosa es 3/20. Supongamos ahora
que la extraemos y que realmente es defectuosa, la probabilidad de que la segunda
pieza que extraigamos sea defectuosa cuando ya hemos sacado una que lo era es
2/19. Es evidente, que el hecho de que ocurra un suceso determinado hace que las
probabilidades de los siguientes sucesos se modifiquen, luego las repeticiones son
dependientes. En el caso de una población infinita, la probabilidad de que una pieza
sea defectuosa cuando ya ha salido una que lo era sigue siendo la misma, luego po-
demos considerar las repeticiones independientes.

La Función de Probabilidad de una distribución Hipergeométrica es:


 N⋅p   N⋅(1− p) 
  ⋅ 
 x   n − x 
PX ( x ) = con x=0,1,2,...,n
 N
 
n
Y la media y la varianza son:
N−n
E( X) = n ⋅p D2 ( X) = n ⋅p ⋅(1− p) ⋅
N −1
60 Especialista en Gestión y Control de la Calidad

5.4.- APROXIMACIÓN ENTRE DISTRIBUCIONES DISCRETAS

Durante el estudio que hemos hecho de las principales distribuciones discre-


tas, hemos visto que éstas sólo se diferencian en pequeños matices. Por ejemplo, la
distribución de Poisson es la misma que la Binomial pero cuando n es grande y p
pequeña; la distribución Hipergeométrica también es la misma que la Binomial pero
en el primer caso el tamaño de la población es finito y en el segundo es infinito.

Así pues, es evidente que éstas distribuciones pueden cierto parecido en el


caso de que los parámetros tomen valores límites. En la figura 5.2. se han represen-
tado los valores que deben tener dichos parámetros para poder realizar una buena
aproximación.

Los valores que se dan en esta figura no son valores estándares aunque sí
que son suficientes para hacer una buena aproximación. Dependiendo de la publica-
ción éstos valores cambian: AENOR recomienda que el paso de Binomial a Poisson
debe ser λ≥15, sin embargo, en otras publicaciones se recomienda que sea λ≥18.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 61

HIPERGEOMÉTRICA

H(N,n,p)

N/n≥10

BINOMIAL

B(n,p)

n≥50
p≤0’1
n·p≥5

POISSON

Ps(n·p)=Ps(λ)

Figura 5.2.

5.5.- EJERCICIOS

1.- Una nave de fabricación está integrada por un número considerable de máquinas
idénticas. Se sabe por experiencia que por término medio, las que se averían, tienen
5 fallos semanales. Calcular la probabilidad de que haya más de 3 averiadas en la
misma semana. ¿Cuál es el número de reserva que se precisa en una semana para
tener una probabilidad de al menos de 0’99 de que al averiarse cualquier máquina
podrá sustituirse?

2.-Se seleccionan por separado tres muestras aleatorias de una línea de producción
que produce un 5% de piezas defectuosas. Las dos primeras muestras tienen un ta-
62 Especialista en Gestión y Control de la Calidad

maño igual a 20 y la tercera tamaño 10. ¿Cuál es la probabilidad de que el número


de piezas defectuosas encontradas entre las tres sea mayor o igual que 1 y menor o
igual que 4?

3.- Una partida de bujías con un 20% inservibles sale al mercado en paquetes de 4
unidades y en cajas de 10 paquetes. Calcular la probabilidad de que elegida un pa-
quete al azar contenga 2 o más bujías inservibles. Calcular la probabilidad de que
elegida una caja al azar contenga 3 paquetes sin bujías inservibles.

4.- Una industria recibe lotes en gran número de unidades. Se desea preparar un
plan de control de calidad de tal forma que tomando al azar n unidades del lote, si se
observa alguna defectuosa se rechaza el lote. Determinar n para que si el lote tiene
un 5% de piezas defectuosas, la probabilidad de aceptarlo sea menor de 0’01.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 63

CAPÍTULO 6: PRINCIPALES DISTRIBUCIONES CONTINUAS

6.1.- DISTRIBUCIÓN EXPONENCIAL

Una variable aleatoria continua y no negativa sigue una distribución exponen-


cial cuando su función de densidad tiene la expresión:
fX(x) = λ e-λx x≥0
donde λ una constante no negativa.

Diremos en tal caso que X≡Exp(λ). Esta variable aleatoria suele representar la
vida o duración de las unidades de producto estudiadas.

La Función de Distribución de este tipo de variable es muy fácil de calcular y


es:
FX(X) = 1 - e-λx
Y su media y varianza son:
E(X)=θ=1/λ D2(X)=1/λ2

Por existir una expresión explícita y sencilla para la Función de Distribución,


esta variable no requiere el manejo de ningún tipo de tabla, pues el cálculo del valor
de la función de distribución y, a partir de él, el de la probabilidad de cualquier inter-
valo, es sencillo. El aspecto que presenta su función de densidad es el que se puede
ver en la figura 6.1.

Otras peculiaridades de la distribución exponencial son las siguientes: La pro-


babilidad de que la variable supere su valor medio es del 36.79%, ya que es una dis-
64 Especialista en Gestión y Control de la Calidad

tribución claramente asimétrica. Además es una distribución sin memoria, es decir,


que la probabilidad de que la variable tome valores en un cierto intervalo, sabiendo
que es mayor o igual que el límite inferior de dicho intervalo, sólo depende de su lon-
gitud y no del punto inicial del mismo:

P (X∈[x1, x1 + T ]/ X ≥ x1 ) = P (X∈[x 2 , x 2 + T ]/ X ≥ x 2 ) ∀ x1, x2.

f X(x)

0 X

Figura 6.1.

6.2.- DISTRIBUCIÓN NORMAL

La distribución Normal, también conocida como variable de Gauss, es, sin du-
da, la más importante de las variables aleatorias continuas, pues se usa eficazmente
en el estudio de numerosos fenómenos reales. Para nosotros será la más útil de la
distribuciones continuas puesto que es prácticamente la base del Control Estadístico
del Proceso.

Si una variable X tiene una distribución Normal lo representaremos mediante


X=N(µ,σ)
donde µ es la media y σ es la desviación típica.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 65

Su función de densidad es
( x −µ )2
1 −
fX ( x ) = ⋅e 2σ 2
con -∞<x<+∞
σ 2π
como se muestra en la figura 6.2

µ X

Figura 6.2.
Su media y su varianza son:
E(X)= µ D2(X)=σ2
Que coinciden con el eje de simetría de la distribución y con la distancia desde el eje
al punto de inflexión, respectivamente.

Una distribución Normal se caracteriza por que es una distribución simétrica


en la que el porcentaje de población que hay entre los valores de la variable µ+σ y µ-
σ es el 68’26%, entre µ+2σ y µ-2σ es el 95’44% y entre µ+3σ y µ-3σ es el 99’73%.
Podemos decir que prácticamente toda la población se encuentra entre estos dos
últimos límites. En la figura 6.3 está representada la distribución de proporciones de
una distribución Normal.
66 Especialista en Gestión y Control de la Calidad

34’13% 34’13%

2’14% 13’59% 13’59% 2’14%


0’13% 0’13%

µ-3σ µ-2σ µ-1σ µ µ+1σ µ+2σ µ+3σ

68’26%

95’44%
99’73%

Figura 6.3.

El problema que tiene la distribución Normal es que para poder calcular pro-
babilidades necesitamos, como en cualquier variable continua, integrar la función de
densidad, pero en este caso no existe su integral exacta. Sería, por lo tanto, necesa-
rio recurrir a métodos de aproximación relativamente complicados. Para evitarlo, se
han tabulado los valores de la Función de Distribución, como se muestra en el anexo
3, pero sólo para un caso particular que es de una Normal con media 0 y desviación
típica 1 que llamamos Normal Tipificada.

Z=N(0,1)

Esta decisión es justificable puesto que no podemos obtener todos los valores
de Función de Distribución para cualquier distribución Normal porque ésta depende
de los valores de media y desviación típica y existen infinitos posibles valores de ca-
da uno de ellos.

Entonces, la función de densidad para el caso de Normal Tipificada nos queda


como:
CONCEPTOS BÁSICOS DE ESTADÍSTICA 67

x2
1 −
fZ ( z ) = ⋅e 2
con -∞<x<+∞

El problema a resolver ahora es cómo transformar una distribución Normal


N(µ,σ) en una Normal Tipificada N(0,1) para poder realizar el cálculo de probabilida-
des. El método es sencillo: a cada valor de la variable le restamos la media y dividi-
mos por la desviación típica:
x −µ
z=
σ
por lo tanto, cualquier probabilidad la podemos calcular a partir de:
 X−µ x −µ   x −µ   x −µ 
FX ( x ) = P( X ≤ x ) = P  ≤  =P  Z ≤  = φ 
 σ σ   σ   σ 

donde φ(z) es la nomenclatura que se ha dado a la Función de Distribución de una


Normal Tipicada, es decir,
FZ(z)=P(Z≤z)=φ(z)

Si queremos calcular cualquier otra probabilidad no habrá más que aplicar las
propiedades correspondientes:
P(X>x)=1-P(X≤x)
P(x1≤X≤x2)=P(X≤x2)-P(X≤x1)

Otro parámetro de interés, que utilizaremos en capítulos posteriores, es lo que


llamamos valor crítico zp, que no es más que el valor de la variable que deja a su de-
recha un área p o, lo que es lo mismo, a su izquierda (Función de Distribución) un
valor 1-p como se muestra en la figura 6.4.

Nos falta por ver la adición de distribuciones normales: Si tenemos dos varia-
bles normales independientes con medias µ1 y µ2 y desviaciones típicas σ1 y σ2, su
suma es otra distribución normal donde:
68 Especialista en Gestión y Control de la Calidad

(
N(µ1, σ1 ) + N(µ 2 , σ2 ) = N µ1 + µ 2 , σ12 + σ22 )
y su diferencia es

(
N(µ1, σ1 ) − N(µ 2 , σ2 ) = N µ1 − µ 2 , σ12 + σ22 )

P(Z>zp)=1-φ(zp)=p
φ(zp)=1-p σ

p
µ zp

Figura 6.4

6.3.- TEOREMA CENTRAL DEL LÍMITE

El Teorema Central del Límite engloba una serie de teoremas cuyo objetivo fi-
nal es determinar las condiciones bajo las cuales una sucesión de variables aleato-
rias convergen a una distribución Normal.

Uno de los teoremas más importantes que lo componen es el llamado Teore-


ma de Lindenberg-Levy que dice: si X1, X2, …, Xn son variables aleatorias indepen-
dientes que tienen la misma distribución, su suma tipificada es, a su vez, una suce-
sión de variables aleatorias que converge en distribución a una variable Norma tipifi-
cada cuando n tiende a infinito.

6.4.- DISTRIBUCIONES DERIVADAS DE LA NORMAL


CONCEPTOS BÁSICOS DE ESTADÍSTICA 69

6.4.1.- Distribución Chi-cuadrado

Las distribuciones que veremos a continuación son de uso frecuente y de gran


importancia en Inferencia Estadística. Son distribuciones que podríamos llamar “auxi-
liares” y que derivan de la distribución Normal.

La variable Chi-cuadrado de n grados de libertad χn2 , es la suma de n varia-


bles Normales Tipificadas, N(0,1), independientes entre si y elevadas al cuadrado:
χn2 = Z12 + Z 22 + ⋅⋅⋅ + Zn2 con χn2 ≥ 0

Su función de densidad es asimétrica como se muestra en la figura 6.5 y sólo


existe para valores de X positivos.

fX(x)

n=6

n=10

n=20

Figura 6.5.

La media, la varianza y el valor crítico de una distribución Chi-cuadrado son:


E(χn2 ) = n D2 (χn2 ) = 2 ⋅n χn2 ( p )
70 Especialista en Gestión y Control de la Calidad

En el anexo 4 están tabulados los valores de la variable para distintos valores


de p.

6.4.2.- Distribución t de Student

Es el cociente entre una Normal Tipificada N(0,1) y la raíz cuadrada de una χn2
dividida por sus grados de libertad:
z
tn = con -∞≤ tn≤+∞
χ n2
n

Se caracteriza porque es una distribución simétrica entorno al origen como


muestra la figura 6.6.

t4

t1

Figura 6.6.

Su media, su varianza y su valor crítico son:


n
E(tn)=0 D2 ( t n ) = t (np )
n−2

En el anexo 5 están tabulados los valores de la variable para distintos valores


de p.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 71

6.4.3.- Distribución F de Snedecor

Es el cociente entre dos Chi cuadrado divididas por sus grados de libertad
χn21 /n1
Fn1 ,n 2 = con Fn1 ,n 2 ≥ 0
χn22 / n2

Como se muestra en la figura 6.7, la F de Snedecor es una distribución asimé-


trica y sólo existe para valores no negativos de la variable.

0 2 4 6

Figura 6.7

Su valor crítico es:


Fn(1p,)n 2

En el anexo 6 están tabulados los valores de la variable para distintos valores


de p.
6.5.- APROXIMACIONES ENTRE DISTRIBUCIONES

Al igual que en caso de las variables aleatorias discretas, entre las continuas
72 Especialista en Gestión y Control de la Calidad

también existen aproximaciones. No sólo eso, sino que entre las discretas y las con-
tinuas también se pueden realizar aproximaciones obteniéndose resultados bastante
aceptables. En la figura 6.8 se muestra el esquema de las aproximaciones.

Los criterios que se utilizan no son estándares, de hecho, un criterio más exi-
gente es λ>15 o n·p>15 (Norma UNE).

HIPERGEOMÉTRICA

H(N,n,p)

N/n≥10

BINOMIAL

B(n,p) χn2 tn Fn1,n2

n1≥30
n≥50 n·p≥5 n≥30 n≥30
n2≥30
p≤0’1

POISSON NORMAL
λ≥5
Ps(n·p)=Ps(λ) N(µ,σ)

Figura 6.8

6.6.- EJERCICIOS

1.- La distribución exponencial se utiliza a menudo para modelizar la duración de un


sistema. En este caso, la variable X indica el tiempo que funciona el sistema antes de
CONCEPTOS BÁSICOS DE ESTADÍSTICA 73

fallar. Si la duración de un sistema, en años, sigue una distribución exponencial de


media 6 meses, determinar la función de densidad de la variable X. Hallar la probabi-
lidad de que el sistema funcione por lo menos durante un año.

2.- Si Z es una variable aleatoria N(0,1), hallar:


P(Z≤1’85), P(Z≤-1’85), P(1<X≤2), P(-1’85≤X≤-1), P(X>2); P(X≥3)

3.- Sea X una variable aleatoria N(5,2). Calcular:


P(X≤1), P(1<X≤8), P(X≤5), P(X≥7)

4.- Los límites medios de tolerancia de un interruptor son 40±0’5 amperios por lo que
si un interruptor se dispara a una intensidad menor de 39’5 o mayor de 40’5 se con-
sidera defectuoso. Si los puntos de ruptura de un interruptor se distribuye normal-
mente con media 39’5 y desviación típica 0’2 ¿Cuál es el porcentaje de interruptores
defectuosos de la partida?

5.- En la producción de piezas para un motor de combustión interna, los pesos pre-
sentan bastante dispersión. Una dispersión muy grande provoca un mal funciona-
miento. Supongamos que un fabricante concreto desea rechazar el 3% de los cojine-
tes de menor peso y el 3% de los de mayor peso. Si el peso tiene una distribución
normal con un peso medio de 4’72 Kg y la desviación típica de 0’006 Kg, determinar
el peso máximo y el mínimo que tendrán las piezas para ser aceptadas.

6.- El contenido efectivo de un paquete es una variable aleatoria N(20,2) Kg. y el del
envase es una variable aleatoria N(1,0’2) Kg. Colocamos 13 de estos paquetes sobre
un soporte de madera que pesa 50 Kg. ¿Cuál es la probabilidad de que al ponerlos
en un montacargas, cuya carga límite es 300Kg, no arranque?

7.- Los diámetros de los tornillos de una caja, medidos en centímetros, siguen una
74 Especialista en Gestión y Control de la Calidad

distribución N(2,0’03) y los diámetros interiores de las tuercas de otra caja siguen
una distribución N(2’02,0’04). Un tornillo y una tuerca ajustarán si el diámetro interior
de la tuerca es mayor que el diámetro del tornillo y si la diferencia entre ellos no es
mayor que 0’05 cm. Calcular la probabilidad de que cogidos un tornillo y una tuerca al
azar éstos se ajusten.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 75

CAPÍTULO 7: DISTRIBUCIONES EN EL MUESTREO

7.1.- INTRODUCCIÓN

En general, los parámetros de cualquier población no son conocidos ni cons-


tantes en el tiempo pero para poder estudiarla necesitamos conocerlos: en un proce-
so de producción, medir la calidad real del producto implica conocer los parámetros
de nuestro proceso (distribución, media, desviación típica, etc.) con el fin de compro-
bar que la producción es correcta. De hecho, las causas que modifican la calidad de
un producto también modifican los parámetros del proceso y a través de esos cam-
bios detectamos la existencia de causas indeseables.

Pues bien, la estimación de parámetros poblacionales, que en Control de Cali-


dad nos permiten conocer los parámetros del proceso y que, en general, nos permite
conocer los parámetros de cualquier población, es parte de la Inferencia Estadística.

Antes de continuar debemos de dejar claros una serie de conceptos que utili-
zaremos a lo largo de estos dos últimos capítulos:

Llamamos población (N) al espacio muestral o conjunto de los posibles valores


que puede tomar la variable aleatoria de interés del colectivo objeto del estudio. Di-
cho de otro modo, es el conjunto de individuos que queremos someter a estudio. No
siempre podemos utilizar todos los individuos de una población por ser ésta excesi-
vamente grande, por ello debemos tomar una muestra (n) que es cualquier subcon-
junto de la población.
76 Especialista en Gestión y Control de la Calidad

Llamamos muestreo a la forma de obtener la muestra. Existen muchas formas


de hacer un muestreo, el más común es el muestreo aleatorio simple (m.a.s.):

Cuando cogemos una muestra aleatoria de tamaño n, lo hacemos bajo la su-


posición de que cada observación tomada es independiente de la anterior y de que
se ha realizado bajo las mismas condiciones. Cada una de estas observaciones es, a
su vez, una variable aleatoria (puesto que no sabemos su valor de antemano) que
llamaremos Xi, donde i representa la i-ésima observación. Así pues, una muestra
aleatoria de tamaño n estará compuesta por n variables aleatorias X1, X2, …, Xn que
toman los valores x1, x2, …, xn.

Entonces, si X es la característica que estamos estudiando y tiene una distri-


bución de probabilidad ϕ(x) ( fX(x) o PX(x), dependiendo se si en continua o discreta),
cada observación Xi tendrá también la misma distribución, esto es, las distribuciones
de probabilidad de X1, X2, …, Xn, serán ϕ(x1), ϕ(x2), …, ϕ(xn). Esto es debido a que, al
haber tomado cada observación de forma independiente y bajo las mismas condicio-
nes, los posibles valores de cada Xi son los mismos que los de X y, por lo tanto, su
distribución también es la misma.

Pues bien, una m.a.s. de tamaño n está formada por n variables aleatorias
independientes (X1, X2, …, Xn) que tienen la misma distribución de probabilidad ϕ(xi).

El fin principal de la toma de una muestra, independientemente del tipo de


muestreo que se utilice, es obtener información sobre los parámetros no conocidos
de la población. Esta información se podrá obtener de forma más o menos aproxi-
mada a partir de las observaciones de la muestra y, más concretamente, a través de
lo que llamamos estadísticos. Así, un estadístico es cualquier función de los valores
muestrales.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 77

Ejemplos de estadísticos son: la media muestral que se calcula mediante:


X1 + X2 + L + Xn n Xi
x= =∑
n i =1 n

la varianza muestral o la desviación típica muestral, calculamos a través de


n
( Xi − x )2
sn2−1 = ∑ sn −1 = + sn2−1
i =1 n −1
n
( Xi − x )2
sn2 = ∑ sn = + sn2
i =1 n
el rango o recorrido, determinado de la forma:

R= máx(X1, X2, …,Xn) - mín(X1, X2, …,Xn)

la proporción muestral:
X1 + X2 + L + Xn X
p̂ = =
n n
en este último caso cada Xi sólo puede tomar los valores 0 ó 1 dependiendo de si ha
ocurrido o no ha ocurrido el suceso A. Por lo tanto, X es el número de veces que ha
ocurrido el suceso A.

Nótese que entonces, los estadísticos también son variables aleatorias puesto
que dependen de (X1, X2, …, Xn) y por ello tienen su propia distribución. A estas dis-
tribuciones se les llama Distribuciones en el Muestreo y son precisamente las que
veremos a lo largo de este capítulo.

A partir de aquí, supondremos que si la variable aleatoria que queremos estu-


diar es continua ésta tendrá una distribución Normal de media µ y desviación típica σ:
X≡N(µ,σ)
7.2.- DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Obtengamos la distribución de la media muestral: la media muestral se calcula


78 Especialista en Gestión y Control de la Calidad

mediante:
n
Xi
x=∑
i =1 n
Calculamos, la media de la media muestral es:
 n X  n E( Xi ) n ⋅ µ
E( x ) = E  ∑ i  = ∑ = =µ
 i =1 n  i =1 n n
es decir, la media poblacional de la media muestral coincide con la media poblacional
de X.

La varianza de la media muestral es:


 n X  n D 2 ( Xi ) n ⋅ σ 2 σ 2
D2 ( x ) = D2  ∑ i  = ∑ 2
= 2 =
 i =1 n  i =1 n n n

En consecuencia, si X es una distribución Normal de media µ y desviación


típica σ, entonces la media muestral tiene una distribución Normal (puesto que es la
suma de n distribuciones normales independientes) con media µ y desviación típica
σ/√n:
 σ 
x ≡ N  µ, 
 n

Aunque X no fuera una distribución Normal, si n es lo suficientemente grande,


según el Teorema de Lindenberg-Levy, la media muestral seguiría teniendo una dis-
tribución normal.

7.3.- DISTRIBUCIÓN DE LA VARIANZA MUESTRAL

La varianza muestral se determina mediante:


CONCEPTOS BÁSICOS DE ESTADÍSTICA 79

n
( Xi − x )2 n
( Xi − x )2
sn2−1 = ∑ ó sn2 = ∑
i =1 n −1 i =1 n

Obtengamos ahora la distribución de la varianza muestral: si multiplicamos a ambos


lados de la igualdad por la constante del denominador, tenemos:
n n
(n −1) ⋅ sn2−1 = ∑ ( Xi − x )2 ó n ⋅ sn2 = ∑ ( Xi − x )2
i =1 i =1

y dividimos por σ2, tenemos:


(n −1) ⋅ sn2−1 n ( Xi − x )2 n ⋅ sn2 n ( Xi − x )2
=∑ ó =∑
σ2 i =1 σ2 σ2 i =1 σ2

Si el segundo término de la igualdad, en lugar de tener x tuviese una µ, tendr-


íamos la suma de n distribuciones Normales Tipificadas elevadas al cuadrado, es
decir, una Chi-cuadrado de n grados de libertad, χn2 .Haciendo operaciones, con el fin
de obtener algo similar, llegamos a:
n n n n

∑i =1
( X i − x )2 = ∑[( X − µ) + (µ − x)] = ∑( X − µ)
i =1
i
2

i =1
i
2
+ (µ − x )2 + 2 ⋅ ( X i − µ ) ⋅ ( µ − x ) = ∑( X − µ) − n⋅(x − µ)
i =1
i
2 2

Sustituyendo en las igualdades anteriores:

(n −1) ⋅ sn2−1 n ( Xi − µ )2 ( x − µ )2 n ⋅ sn2 n ( Xi − µ )2 ( x − µ )2


=∑ − 2 ó =∑ − 2
σ2 i =1 σ2 σ /n σ2 i =1 σ2 σ /n

(n −1) ⋅ sn2−1 n n ⋅ sn2 n


= ∑ N(0,1)2 − N(0,1)2 ó = ∑ N(0,1)2 − N(0,1)2
σ2 i =1 σ2 i =1

Así pues, tenemos la suma de n-1 Normales Tipificadas elevadas al cuadrado, luego
se cumple que:
(n −1) ⋅ sn2−1 2 n ⋅ sn2
≡ χn −1 ó ≡ χn2−1
σ2 σ 2

que es el llamado Teorema de Fisher.


80 Especialista en Gestión y Control de la Calidad

La media poblacional de la varianza muestral será entonces:


 s2   s2 
σ 
( )
E (n −1) ⋅ n −21  = E χn2−1 ó ( )
E n ⋅ n2  = E χn2−1
  σ 
(n −1)
σ2
[ ]
⋅E sn2−1 = n −1 ó
n
σ2
[ ]
⋅E sn2 = n −1

[ ]
E sn2−1 = σ2 ó [ ]
E sn2 =
n −1 2
n
⋅σ

Luego, la media poblacional de la varianza muestral sn2−1 coincide con la varianza

poblacional de la variable X, al contrario de lo que ocurre con sn2 .

La varianza de la varianza muestral es:


 s2   s2 
( )
D2 (n −1) ⋅ n −21  = D2 χn2−1
σ 
( )
ó D2 n ⋅ n2  = D2 χn2−1
  σ 
(n −1)2 2 2
σ4
[ ]
⋅D sn −1 = 2 ⋅(n −1) ó
n2 2 2
σ4
[ ]
⋅D sn = 2 ⋅(n −1)

2
 σ2 
2
D s [ ]
2
n −1 =
2 ⋅ σ4
n −1
ó 2
[ ]
D s = 2 ⋅(n −1) ⋅  
2
n
 n 

A través del teorema de Fisher también podemos determinar la distribución de


la media muestral cuando la desviación típica es desconocida: sabemos que:
x −µ
= N(0,1) = Z
σ/ n
y que según el teorema anterior
(n −1) ⋅ sn2−1
σ2 =
χn2−1
sustituyendo en la primera ecuación, obtenemos que
CONCEPTOS BÁSICOS DE ESTADÍSTICA 81

x −µ Z
=
sn −1 / n χn2−1
n −1
que es equivalente a:
x −µ
= t n −1
s/ n

7.4.- DISTRIBUCIÓN DE LA DESVIACIÓN TÍPICA MUESTRAL

Por el Teorema de Fisher sabemos que la desviación típica muestral se distri-


buye como:

(n −1) ⋅ sn2−1 n ⋅ sn2


= χn2−1 ó = χn2−1
σ 2
σ 2

sn −1 χ2 sn χ2
= n −1 ≡Un-1 o = n −1 ≡Un
σ n −1 σ n

La distribución U solo la hemos encontrado en uno de los libros de bibliografía


consultada (“Control Estadístico de la Calidad”. Vicente Carot. SPUPV-98.4007), por
lo que, cómo indica el anterior autor, tanto su nombre como su definición puede ser
denominada de forma diferente por algún otro autor al que no se ha tenido acceso.
Ésta distribución no la vamos a desarrollar de forma detallada. En cualquier caso en
el anexo 7 se han tabulado algunos valores de la variable.

La media y la varianza de la desviación típica muestral son:


E(sn-1)=σ·c4,n o E(sn)=σ·c4,n+1
D2 (sn −1 ) = σ2 ⋅ c 52,n o D2 (sn ) = σ2 ⋅ c 52,n +1

donde c 5 = 1− c 24 . Los valores de c4,n y c5,n están tabulados en el anexo 8.


82 Especialista en Gestión y Control de la Calidad

7.5.- DISTRIBUCIÓN DEL RANGO

El Rango o recorrido se determina mediante:


R= máx(X1, X2, …, Xn)-mín(X1, X2, …, Xn)

Al igual que en los casos anteriores es un estadístico, del cual debemos de-
terminar su distribución, su media y su varianza. La distribución del Rango es:
R=σ·Vn
donde Vn es otro tipo de distribución que no hemos desarrollado pero que se encuen-
tra tabulada en el anexo 9.

La media y la varianza del Rango son:


E(R)=σ·d2,n D2 (R) = σ2 ⋅ d32,n

donde d2,n y d3,n están tabuladas en el anexo 8

7.6.- DISTRIBUCIÓN DE LA DIFERENCIA DE MEDIAS MUESTRA-


LES

Supongamos dos variables aleatorias independientes cuyas distribuciones son


X1=N(µ1,σ1) y X2=N(µ2,σ2). Si extraemos una m.a.s., de cada una de las poblaciones,
de tamaños n1 y n2, y calculamos la media muestral de cada una de ellas, la distribu-
ción de la diferencia es:

x1 − x 2 = N µ1 + µ 2 , + n 22 
σ 12 σ2
n1
 
CONCEPTOS BÁSICOS DE ESTADÍSTICA 83

En el caso de que las varianzas sean desconocidas pero iguales la distribución


de las diferencias de medias muestrales es:

( x1 − x 2 ) − (µ1 − µ 2 ) (n1 −1) ⋅ s12 + (n2 − 1) ⋅ s22


= t n1 + n 2 − 2 donde s* =
s*⋅ 1
n1
+ n12 n1 + n2 − 2

7.7.- DISTRIBUCIÓN DEL COCIENTE DE VARIANZAS MUESTRA-


LES

Si tenemos dos variables aleatorias independientes con distribuciones norma-


les X1=N(µ1,σ1) y X2=N(µ2,σ2) y extraemos una m.a.s. de cada población calculando
sus varianzas muestrales, entonces, teniendo en cuenta que:
s12 s22
(n1 −1) ⋅ = χ 2
n1 −1 y (n 2 − 1) ⋅ = χn22 −1
σ12 σ22
la distribución del cociente entre ellas es:
s12 / σ12
= Fn1 −1,n 2 −1
s22 / σ 22

7.8.- DISTRIBUCIÓN DE LA PROPORCIÓN MUESTRAL

Hasta aquí no hemos tenido ningún tipo de problema para determinar las dis-
tribuciones de los estadísticos, puesto que trabajábamos con variables continuas y
habíamos supuesto que tenían una distribución Normal. Sin embargo, para calcular
la distribución de una proporción muestral debemos tener en cuenta cuál es la distri-
bución discreta con la que estamos trabajando. Recordemos que el número de pie-
zas defectuosas no tenía la misma distribución que la del número de defectos:
84 Especialista en Gestión y Control de la Calidad

En cualquiera de los casos anteriores, la proporción se determina mediante:


X
p̂ =
n
Si X=B(n,p), la media y la varianza de la proporción muestral son
p ⋅(1− p)
E(p̂) = p D2 (p̂) =
n
Si X=Ps(λ) la media y la varianza de la proporción muestral son
p
E(p̂) = p D2 (p̂) =
n
CONCEPTOS BÁSICOS DE ESTADÍSTICA 85

CAPÍTULO 8: INFERENCIA ESTADÍSTICA

8.1.- INTRODUCCIÓN

Como ya hemos comentado en el capítulo anterior para controlar la calidad de


un proceso de producción necesitamos conocer los parámetros poblacionales de las
variables de dicho proceso. Precisamente, el objetivo de la Inferencia Estadística es
extraer conclusiones a partir de los datos muestrales para poder inferir sobre la po-
blación.

La Inferencia Estadística se divide en dos partes: estimación, que consta de la


estimación puntual y de la estimación por intervalos de confianza y test de hipótesis
que consta de los test paramétricos, que se realizan sobre parámetros del proceso, y
test no paramétricos, que se realizan sobre la distribución. Veamos cada una de
ellas:

8.2.- ESTIMACIÓN

La estimación pretende obtener el valor de los parámetros poblacionales, de


forma más o menos aproximada, a través de dos métodos que tienen objetivos distin-
tos.

8.2.1.- Estimación puntual

El objetivo de la estimación puntual es dar como resultado final un número que


represente al valor estimado del parámetro poblacional objeto del estudio.
86 Especialista en Gestión y Control de la Calidad

La estimación puntual de los parámetros poblacionales se realizará a través de


los valores de los estadísticos obtenidos mediante la toma de muestras. Como ya
hemos visto, pueden haber distintos estadísticos que midan un mismo parámetro,
con lo que ahora, nuestro problema principal es determinar cuál es el mejor estima-
dor:

Las características deseables de un estimador son: que sea Insesgado, es de-


cir, que su valor medio coincida con el valor del parámetro poblacional que quiere
estimar. Por ejemplo, la media muestral es un estimador insesgado de la media po-
blacional, sin embargo, la varianza muestral sn2 no es un estimador insesgado, por lo
que no se suele utilizar para estimar a la varianza poblacional. La otra característica
deseable es que sea un estimador Uniformemente de Mínima Varianza (UMV) que
explicado de forma sencilla significa que, de todos los estimadores, el mejor es el que
tiene siempre menor varianza.

Por lo tanto, podemos considerar que si un estimador es insesgado y además


es UMV, entonces es un estimador óptimo, es decir, es el que tiene menor probabili-
dad de cometer un error ε determinado.

Como ya debe ser evidente, a través de este método de estimación podemos


determinar los parámetros de una característica de calidad de un producto, con el fin
de comprobar si ésta tiene, por ejemplo, las dimensiones correctas. Para realizar es-
ta comprobación, en Control Estadístico del Proceso se utiliza una herramienta, que
se verá con más detalle a lo largo del curso, que se llama Gráfico de Control y del
que tenemos un ejemplo en la figura 8.1.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 87

M
E
D
I
A

D
I
S
P
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
x1 0.25 0.24 0.23 · · · · · · · · · 0.23 0.23
x2 0.22 0.23 0.21 0.23 0.23
x3 · · · · ·
x4 · · · · ·
x5 0.23 0.25 0.22 · · · · · · · · · 0.23 0.23

x 0.24 0.23 0.22 · · · 0.23 0.23


R 0.02 0.02 0.02 · · · 0.03 0.03

Figura 8.1

Sin pretender profundizar demasiado, el funcionamiento básico de este tipo de


gráfico es muy sencillo: tomamos una muestra de entre 2 y 5 piezas, hallamos la
media muestral y, por ejemplo, el rango, y los llevamos a los gráficos correspondien-
tes, de tal forma que si los valores caen dentro de los límites decidimos que la media
y la desviación típica poblacional son las correctas, en caso contrario, decidimos que
alguna de ellas ha cambiado. Al cabo de cierto tiempo tomamos otra muestra y así
sucesivamente.

Fijémonos que en este caso no disponemos de una única muestra de tamaño


n sino que tenemos de m muestras de tamaño n, es decir, un total de tamaño de m·n
datos. Pues bien, aprovecharemos esta información para hacer la estimación de la
media y de la desviación típica poblacional:

La media poblacional la estimaremos mediante la media de las medias mues-


trales:
88 Especialista en Gestión y Control de la Calidad

m
xi m n xi
µˆ = x = ∑ = ∑∑
i =1 m i =1 j =1 m ⋅ n

Para estimar la varianza poblacional podríamos seguir utilizando la sm2 ⋅n −1 si


tomamos los m·n datos del gráfico, calculada como:
m n ( xi, j − x )2
s2
mn −1 = ∑∑
i =1 j =1 m ⋅n −1
seguramente es un buen estimador pero tiene el problema de que el cálculo puede
ser un proceso tedioso.

Otra forma más sencilla sería utilizar, en el caso del ejemplo, los rangos ya
calculados en el gráfico de control: puesto que E(R)=σ·d2,n podemos obtener una es-
timación de la desviación típica mediante la media muestral de los rangos:
R
σˆ =
d2,n

que se convierte en peor estimador a medida que n aumenta.

Si en lugar de utilizar los rangos para controlar la dispersión hubiésemos


hallado para cada muestra sn-1, la estimación de la desviación típica habría sido:
sn −1
σˆ =
c 4,n

que es mejor estimador que el anterior.

A pesar de que la estimación de la desviación típica poblacional a través de R


es peor estimación que la que hacemos a través de sn-1, la primera es la más utiliza-
da. Esto es debido a que, en la mayoría de procesos, los gráficos se siguen haciendo
a mano y por el operario, con lo cual el cálculo del rango para cada muestra es mu-
cho más sencillo que el de la desviación típica muestral.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 89

Con la estimación de la proporción poblacional ocurre algo similar que para


estimación de la media y de la desviación típica: debemos utilizar los datos de los
que disponemos en el gráfico de control para hacer la estimación.

El gráfico de control que se utiliza para controlar los atributos es parecido al de


variables. Consta de m muestras de tamaño ni (en este caso los tamaños de muestra
no tienen porqué ser iguales) donde se determina para cada una de ellas: el número
de piezas defectuosas (npi) o de defectos (ci) encontrados en esa muestra i y la pro-
porción de piezas defectuosas (pi) o de defectos (ui) según la característica que es-
temos controlando.

Con los datos anteriores podemos hacer la estimación de la proporción de dos


formas: para el caso de que la característica que estamos controlando sean las pie-
zas defectuosas (distribución binomial), los estimadores son
m

m
p ∑ np i
p̂1 = ∑ i o p̂2 = i =1
m
i =1 m
∑n
i =1
i

Para el caso de defectos (distribución de Poisson) son:


m

m
u ∑c i
p̂1 = ∑ i o p̂2 = i =1
m
i =1 m
∑n
i =1
i

Los dos estimadores son insesgados, pero el primero tiene mayor varianza que el
segundo, luego normalmente utilizaremos p̂2 para hacer la estimación de la propor-
ción.

8.2.1.1.- Tamaño de muestra


90 Especialista en Gestión y Control de la Calidad

Otra cuestión importante es determinar el tamaño de muestra que debemos


utilizar para hacer una buena estimación. Dependiendo de qué parámetro poblacional
queramos estimar y qué estadístico utilicemos para hacer la estimación, el tamaño
de muestra necesario será distinto.

Es evidente, que cuando realizamos una estimación tenemos un cierto riesgo


de cometer un determinado error. Esto quiere decir que, una vez que hemos calcula-
do la estimación no sabemos si hemos cometido un error o si, por el contrario, el re-
sultado que se ha obtenido es el valor exacto del parámetro poblacional, pero sí que
sabemos que tenemos una cierta probabilidad de no acertar.

Así pues, para poder determinar el tamaño de muestra, debemos fijar el valor
del error ε que nos podemos permitir cometer y la probabilidad α de cometer un error
superior a ε, es decir, plantear la siguiente ecuación:
P (X > ε ) ≤ α
donde X es la diferencia entre el parámetro poblacional y el estimador y α es lo que
se llama nivel de significación. A (1-α) se le llama nivel de confianza. Si sabemos la
distribución de X, podremos despejar el tamaño de la muestra.

Para el caso de la estimación de la media poblacional a través de la media


muestral el procedimiento es sencillo:
P ( x − µ > ε )≤ α

como la distribución de la media muestral es conocida, tipificando la expresión ante-


rior queda:
 ε  ε
P Z > ≤α / 2 ⇒ zα / 2 ≤
 σ/ n  σ/ n
entonces:
CONCEPTOS BÁSICOS DE ESTADÍSTICA 91

2
 σ ⋅ zα / 2 
n≥ 
 ε 
En el caso de que partiéramos de un gráfico de control no habría más que sustituir n
por m·n y con lo que podríamos determinar cuántas muestras y de qué tamaño
hacen falta para hacer nuestra estimación.

Para calcular el tamaño de muestra de la estimación de la varianza poblacio-


nal, debemos plantear la ecuación:
 σˆ 2 − σ2 
P  > δ  ≤ α
 σ
2

donde ahora debemos tener en cuenta el error relativo δ. Dependiendo de qué esti-
mador utilicemos el tamaño de muestra será diferente. No podemos dar una fórmula
concreta de tamaño de muestra puesto que ésta no existe pero podemos acudir a
gráficas para averiguarlo. Éstas gráficas no las mostramos por salirse fuera de nues-
tros objetivos.

El cálculo del tamaño de muestra necesario para hacer la estimación de la


proporción poblacional, también es relativamente fácil de calcular: la ecuación a re-
solver es:
(
P p̂ −p > ε ≤ α)
Para el caso de que X sea una distribución binomial, el tamaño de muestra necesario
sería
2
 pq ⋅ z α / 2 
n≥ 
 ε 
 
Y para el caso de que X sea una distribución de Poisson:
2
 p ⋅ zα / 2 
n≥ 
 ε 
 
92 Especialista en Gestión y Control de la Calidad

Es curioso que para poder hallar el tamaño de muestra a utilizar en la estima-


ción de p necesitamos, precisamente, conocer p. Para evitar este círculo, podemos
darle a p el valor más crítico que es p=0’5, aunque el tamaño de muestra saldrá más
grande de lo deseado.

En el caso de que dispongamos de una estimación de p la utilizaremos. En un


gráfico de control, podemos utilizar los datos para realizar una estimación previa
aunque ésta no esté determinada con el tamaño de muestra que correspondería (el
gráfico de control suele tener más datos de los realmente necesarios).

Hasta ahora hemos considerado que las poblaciones son de tamaño infinito. Si
las poblaciones son finitas, el tamaño de muestra para la estimación de la media
poblacional es:
z α2 / 2 ⋅ σ2
n=
(N − 1) ⋅ ε 2 z α2 / 2 ⋅ σ 2
+
N N

El tamaño de muestra para la estimación de proporciones de una población


finita es:

z α2 / 2 ⋅ (p ⋅ q)
Si X es Binomial: n =
( N − 1) ⋅ ε 2 z α2 / 2 ⋅ (p ⋅ q)
+
N N
z 2α / 2 ⋅ λ
Si X es Poisson: n =
(N −1) ⋅ ε 2 z 2α / 2 ⋅ λ
+
N N
8.2.2.- Estimación por intervalos de confianza

El objetivo de la estimación por intervalos de confianza en buscar un intervalo


que contenga con una probabilidad dada al valor verdadero del parámetro poblacio-
CONCEPTOS BÁSICOS DE ESTADÍSTICA 93

nal:
r r
P[L1( x ) ≤ θ ≤ L 2 ( x )]=1− α
donde 1-α es el Nivel de Confianza y α es el nivel de significación.

Los intervalos de confianza más utilizados son:

• Para la media:
σ
− Si σ es conocida: x ± z α / 2 ⋅
n
s
− Si σ es desconocida: x ± t (nα−/12 ) ⋅
n
• Para la varianza:
 (n −1) ⋅ s2 (n −1) ⋅ s2 
 2( α / 2 ) , 2(1− α / 2 ) 
 χ n −1 χn −1 

• Para las proporciones (Binomial):


− Se lee en tablas o en gráficos
− P(L1≤p≤L2)=1-2·α

• Para la diferencia de medias

σ12 σ22
− Si σ1 y σ2 son conocidas: ( x1 − x 2 ) ± z α / 2 ⋅ +
n1 n2

1 1
− Si σ1=σ2=σ son desconocidas: ( x1 − x 2 ) ± t nα1/ +2n 2 −1 ⋅ s * ⋅ +
n1 n2

(n1 − 1) ⋅ s12 + (n2 −1) ⋅ s22


con s * 2 =
n1 + n2 − 2
94 Especialista en Gestión y Control de la Calidad

• Para la razón de varianzas


 s12 / s22 s12 / s22 
 α/2 , 1− α / 2 
 Fn1 −1,n 2 −1 Fn1 −1,n 2 −1 

8.3.- TEST DE HIPÓTESIS

Mediante esta herramienta estadística pretendemos comprobar si se verifican


determinadas hipótesis establecidas sobre el valor de algún parámetro o de una dis-
tribución, de tal forma que, aceptamos o rechazamos el cumplimiento de dichas hipó-
tesis.

Veamos cuáles son las etapas para la realización de un test de hipótesis: en


primer lugar definimos lo que se llama la hipótesis nula H0, que es precisamente la
premisa que queremos comprobar. En segundo lugar definimos la hipótesis alternati-
va H1 que es la que se aceptará como válida cuando la primera no sea cierta. A partir
de aquí, tomamos una muestra de tamaño n y aplicamos una regla de decisión, que
dependerá de cuáles hayan sido las hipótesis H0 y H1 planteadas.

Al igual que en una estimación, y puesto que tomamos decisiones a través de


las observaciones de una muestra, tenemos cierto riesgo de cometer un error por el
carácter aleatorio de la información empleada.

Pues bien, en los test de hipótesis, podemos cometer dos tipos de error: error
de primera especie o tipo I que es tomar la decisión de que la hipótesis nula es falsa
cuando en la realidad es cierta y error de segunda especie o tipo II que es decidir
que es cierta la hipótesis nula cuando realmente no lo es. En la figura 8.2 se han re-
presentado estos dos tipos de error.
CONCEPTOS BÁSICOS DE ESTADÍSTICA 95

Aceptar Correcto
Verdadera
Rechazar Error 1ª Especie α
H0
Aceptar Error 2ª Especie β
Falsa
Rechazar Correcto

Figura 8.2

Cuando ya hemos tomado una decisión, no sabemos si hemos acertado o no,


lo único que sabemos es que tenemos un cierto riesgo de equivocarnos. Así pues, a
la probabilidad de cometer un error de primera especie se le llama α y a la probabili-
dad de cometer un error de segunda especie se le llama β.

Un gráfico de control no es más que la combinación de dos test de hipótesis


que comprueban si la media y si la desviación típica del proceso y son las que deben
ser.

8.3.1.- Principales test de hipótesis

Veamos la zona de aceptación de la hipótesis nula para los test más utiliza-
dos:

• H0(µ=µ0) vs H1(µ≠µ0)
r σ σ   r x − µ 0 
− Si σ es conocida: A = x / µ 0 − z α /2 ⋅ ≤ x ≤ µ 0 + z α /2 ⋅  o A = x / ≤ z α/2 
 n n  σ / n 

r s s   r x − µ 0 
− Si σ es desconocida: A = x / µ 0 − t nα−/21 ⋅ ≤ x ≤ µ 0 + t nα−/21 ⋅  o A = x / ≤ t nα−/ 21 
 n n  s / n 
96 Especialista en Gestión y Control de la Calidad

• H0(µ=µ0) vs H1(µ>µ0)
r σ  r x − µ0 
− Si σ es conocida: A = x / x ≤ µ0 + z α ⋅  o A = x / Z = ≤ zα 
 n  σ/ n 

r s  r x − µ0 α 
− Si σ es desconocida: A = x / x ≤ µ 0 + t nα−1 ⋅  o A =  x / t n −1 = ≤ t n −1 
 n  s/ n 

• H0(µ1=µ2) vs H1(µ1≠µ2)

 r σ2 σ2 σ2 σ2 
− Si σ1, σ2 son conocidas: A = x / − zα / 2 ⋅ 1 + 2 ≤ x1 − x 2 ≤ z α / 2 ⋅ 1 + 2 
 n1 n2 n1 n2 

− {r r
Si σ1=σ2=σ son desconocidas: A = x1,x 2 / − t nα /+2n −2 ⋅s *
1 2
1
n1 + n1 ≤ x1 − x 2 ≤ t nα /+2n −2 ⋅ s *
2 1 2
1
n1 + n1
2
}
(n1 −1) ⋅ s12 + (n2 − 1) ⋅ s22
con s * 2 =
n1 + n2 − 2

En el caso de los test utilizados para comprobar la varianza poblacional, la


zona de aceptación dependerá, como siempre, del estadístico que utilicemos. Si utili-
zamos la varianza muestral los test de hipótesis serán:

r χ 2(1− α / 2 ) 2 χ 2( α / 2 ) 
• H0(σ=σ0) vs H1(σ≠σ0) : A = x / σ02 ⋅ n −1 ≤ sn −1 ≤ σ02 ⋅ n −1 
 n −1 n −1 

r χ 2( α )   r s2 ⋅(n −1) 2( α ) 
• H0(σ=σ0) vs H1(σ>σ0): A = x / sn2−1 ≤ σ02 ⋅ n −1  o A = x / n −1 2 ≤ χn −1 
 n −1   σ0 

 r r 1 s12 
• H0(σ1=σ2) vs H1(σ1≠σ2): A = x1,x 2 / ( α / 2 ) ≤ 2 ≤ Fn(1α−/12,n) 2 −1 
 Fn1 −1,n 2 −1 s2 

 r r s2 
• H0(σ1=σ2) vs H1(σ1>σ2): A = x1, x 2 / 12 ≤ Fn(1α−)1,n 2 −1 
 s2 
CONCEPTOS BÁSICOS DE ESTADÍSTICA 97

Si utilizamos el Rango, los test de hipótesis serán:


r
{
H0(σ=σ0) vs H1(σ≠σ0) : A = x / σ0 ⋅ v (n1− α / 2 ) ≤ R ≤ σ02 ⋅ v (nα / 2 ) }

r
{
H0(σ=σ0) vs H1(σ>σ0): A = x / R ≤ σ02 ⋅ v (nα ) }

Para el caso de la comprobación de las proporciones poblacionales, tendre-


mos que diferenciar el tipo de distribución discreta con la que estamos trabajando:

• H0(p=p0) vs H1(p≠p0) (Binomial)

{
A = np0 − z α / 2 np0q0 ≤ x ≤ np0 + z α / 2 np0q0 }
• H0(p=p0) vs H1(p>p0) (Binomial)
{
A = x ≤ np0 + z α np0q0 }
• H0(p1=p2) vs H1(p1≠p2) (Binomial)
 
 p̂ − p̂  n p̂ − n p̂
A =  1 2 ≤ z α / 2  con p̂ = 1 1 2 2
 p̂ ⋅ n1 + n 2
1 1
 n1 + n2

• H0(p=p0) vs H1(p≠p0) (Poisson)


{
A = np0 − z α / 2 np0 ≤ x ≤ np0 + z α / 2 np0 }
• H0(p=p0) vs H1(p>p0) (Poisson)
{
A = x ≤ np0 + z α np0 }

Así pues, el gráfico de control para la media comprueba las hipótesis H0(µ=µ0)
vs H1(µ≠µ0) para cada una de las m muestras. El gráfico de control para la desviación
típica comprueba las hipótesis H0(σ=σ0) vs H1(σ≠σo) que resuelve mediante el rango
o la desviación típica muestral según sea el caso.
98 Especialista en Gestión y Control de la Calidad

8.3.2.- Potencia del test y Curva Característica

Como ya hemos estudiado, el test de hipótesis no es un método exacto que


determina si la media, la varianza o la proporción ha cambiado o no: sabemos que
tenemos cierto riesgo de cometer determinados tipos de error. Estos riesgos pueden
aumentar o disminuir dependiendo, por ejemplo, del tamaño de muestra que tome-
mos, del descentrado que pretendamos detectar mediante en test, etc.

Precisamente, la Potencia del test y la Curva Característica (OC) hacen refe-


rencia a su eficacia, es decir, a la capacidad de detectar las situaciones en las que no
se cumple H0. La diferencia entre ambas es que una es el “suceso” contrario de la
otra: mientras que la OC representa la probabilidad de aceptar la hipótesis nula fren-
te al valor del parámetro poblacional, la Potencia del test representa la probabilidad
de rechazarla.

La Potencia y la OC dependen del test de hipótesis que estemos contrastan-


do. Así, si realizamos el test unilateral H0(µ=µ0) vs H1(µ>µ0) la OC tendrá la forma de
la figura 8.3.

Pa
1-α
n=4

n=6

µ0 µ

Figura 8.3

Si es el test bilateral H0(µ=µ0) vs H1(µ≠µ0) la OC es la de la figura 8.4.


CONCEPTOS BÁSICOS DE ESTADÍSTICA 99

Pa
1-α
n=6

n=4

µ0 µ

Figura 8.4.

En el caso del ejemplo, lo ideal sería que cuando la media fuese µ0 la probabi-
lidad de aceptar la hipótesis nula, Pa, fuese 1 y que cuando la media no sea µ0 la
probabilidad de aceptar H0 fuese 0, cosa que conseguiríamos si tomásemos toda la
población para tomar la decisión.

Puesto que tomamos muestras, en lugar de toda la población, la OC se va


despegando de los ejes a medida que disminuimos el tamaño de muestra (disminuye
su pendiente), y por lo tanto, la OC representa la probabilidad de aceptar la H0 cuan-
do la media es µ0, que equivale a 1-α, y la probabilidad de aceptar H0 para el resto
de valores de µ, que es la β.
Dicho de otra forma, valores del parámetro, que llamaremos en general θ, que
estén relativamente próximos a θ0 serán confundidos con bastante frecuencia con
éste, haciéndonos tomar la decisión de que son, precisamente, θ0 cuando realmente
no lo son. La Curva Característica nos dice entonces con qué frecuencia confundire-
mos cualquier valor de θ con θ0.

Por ejemplo, supongamos que estamos fabricando piezas que deben tener
una longitud media de 20 cm. El contraste de hipótesis a plantear para comprobar
que la media es 20 cm. es:
H0(µ=20) vs H1(µ≠20)
100 Especialista en Gestión y Control de la Calidad

Supongamos ahora que el proceso se ha estropeado y que se está fabricando con


una media de 20’5 cm., cosa que nosotros no sabremos hasta que tomemos una
muestra y realicemos el test de hipótesis. El problema es que 20’5 es un valor relati-
vamente próximo a 20 con lo que el test puede equivocarse y decirnos que la media
es 20 cuando en realidad es 20’5. Es decir, puede que no sea capaz de detectar un
descentrado de la media de 0’5 cm. Pues bien, la OC nos dirá la probabilidad de
aceptar que la media es 20 cuando realmente es 20’5. Si ésta es alta es que no es
capaz de detectarlo, si es baja (se suelen aceptar valores de β entre el 5% ó el 10%)
es que sí que lo es.

Como hemos comentado anteriormente, cada test de hipótesis tiene su propia


Curva Característica. Veamos solo algunas de ellas:

En el caso del contraste H0(µ=µ0) vs H1(µ≠µ0) la probabilidad de aceptar la


hipótesis nula para cualquier valor de media es:
 σ σ 
Pa = P  µ0 − z α / 2 ⋅ ≤ x ≤ µ0 + zα / 2 ⋅ µ = µ1 
 n n 
sabemos la distribución de la media muestra, luego tipificando:
 µ − z ⋅ σ / n − µ1 µ + z ⋅ σ / n − µ1   µ 0 − µ1 µ −µ 
Pa(µ1 ) = P 0 α / 2 ≤ Z ≤ 0 α/2 = P − z α / 2 ≤ Z ≤ 0 1 + z α / 2 
 σ/ n σ/ n 
   σ/ n σ/ n 

µ0 − µ1
llamamos descentrado relativo a d = , entonces
σ

( ) ( ) (
Pa(µ1 ) = P d⋅ n − z α / 2 ≤ Z ≤ d⋅ n + z α / 2 = φ d ⋅ n + z α / 2 − φ d ⋅ n − zα / 2 )
el primer término será prácticamente 1 puesto que α suele ser muy pequeño, enton-
ces
( ) (
Pa(µ1 ) ≈1− φ d⋅ n − z α / 2 = φ z α / 2 − d ⋅ n )
CONCEPTOS BÁSICOS DE ESTADÍSTICA 101

En el caso de que contrastemos H0(σ=σ0) vs H1(σ≠σ0) mediante el Rango, la


Curva Característica será:
 v ( α / 2)   v (1− α / 2 ) 
Pa(σ1 ) = FV  n  − FV  n 
 rd   rd 
σ1
donde rd = .
σ0

8.3.3.- Tamaño de muestra

Los tamaños de muestra los podemos obtener despejando n de la ecuación de


la Curva Característica.

El más importante de ellos es para el contraste de hipótesis es H0(µ=µ0) vs


H1(µ≠µ0). Entonces el tamaño de muestra se calcula mediante:
2
 z +z 
n ≥  α / 2 β 
 d 
8.4.- EJERCICIOS

1.- Determinar el tamaño de muestra a tomar en el estudio de la fabricación de cier-


tas piezas para que la media muestral de una cierta dimensión difiera de la media
poblacional en menos de 1 cm. con una probabilidad del 95% si σ=3.

2.- Una muestra de 16 transistores ha presentado una vida media de 734 horas. Si
suponemos que la vida tiene una distribución normal ¿Puede aceptarse que la media
poblacional es de 740 horas si σ=12?¿Y si σ es desconocida y sabemos que sn-1 es
12?. Tomar α=0’05

3.- Sea X una variable aleatoria con distribución N(m,1). Con el fin de contrastar las
102 Especialista en Gestión y Control de la Calidad

hipótesis H0(m=2) vs H1(m≠2) se toma una muestra siendo ésta:


{2’1, 2’2, 2’5, 1’9, 1’2}

Si α=0’05, ¿Podemos aceptar la hipótesis nula?

4.- En un proceso de fabricación de tornillos se desea que la proporción máxima de


tornillos defectuosos debe ser de un 0’5%. En un control de fabricación tomamos una
muestra de 100 tornillos y encontramos 1 defectuoso. Si tomamos α=0’05 ¿podemos
afirmar que el proceso está fuera de control?.

5.- Para contrastar las hipótesis H0(λ=1) vs H1(λ=2) se dispone de una única obser-
vación x que proviene de una distribución de Poisson, Ps(λ). Si se toma como región
de rechazo x≥4, calcular las probabilidades de los errores de tipo I y tipo II.
ANEXO 1

DISTRIBUCIÓN BINOMIAL B(n,p) (P(X=x))

n c p = 0,01 p = 0,02 p = 0,03 p = 0,04 p = 0,05 p = 0,06 p = 0,07 p = 0,08 p = 0,09 p = 0,10
n=3 0 0,9700 0,9410 0,9130 0,8850 0,8570 0,8310 0,8040 0,7790 0,7540 0,7290
1 0,0290 0,0580 0,0850 0,1110 0,1350 0,1590 0,1820 0,2030 0,2240 0,2430
2 0,0000 0,0010 0,0030 0,0050 0,0070 0,0100 0,0140 0,0180 0,0220 0,0270
3 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0010 0,0010 0,0010
n=4 0 0,9610 0,9220 0,8850 0,8490 0,8150 0,7810 0,7480 0,7160 0,6860 0,6560
1 0,0390 0,0750 0,1100 0,1420 0,1710 0,1990 0,2250 0,2490 0,2710 0,2920
2 0,0010 0,0020 0,0050 0,0090 0,0140 0,0190 0,0250 0,0330 0,0400 0,0490
3 0,0000 0,0000 0,0000 0,0000 0,0000 0,0010 0,0010 0,0020 0,0030 0,0040
4 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
n=5 0 0,9510 0,9040 0,8590 0,8150 0,7740 0,7340 0,6960 0,6590 0,6240 0,5900
1 0,0480 0,0920 0,1330 0,1700 0,2040 0,2340 0,2620 0,2870 0,3090 0,3280
2 0,0010 0,0040 0,0080 0,0140 0,0210 0,0300 0,0390 0,0500 0,0610 0,0730
3 0,0000 0,0000 0,0000 0,0010 0,0010 0,0020 0,0030 0,0040 0,0060 0,0080
4 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
5 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
n=6 0 0,9410 0,8860 0,8330 0,7830 0,7350 0,6900 0,6470 0,6060 0,5680 0,5310
1 0,0570 0,1080 0,1550 0,1960 0,2320 0,2640 0,2920 0,3160 0,3370 0,3540
2 0,0010 0,0060 0,0120 0,0200 0,0310 0,0420 0,0550 0,0690 0,0830 0,0980
3 0,0000 0,0000 0,0000 0,0010 0,0020 0,0040 0,0060 0,0080 0,0110 0,0150
4 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0010 0,0010 0,0010
5 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
6 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
n=7 0 0,9320 0,8680 0,8080 0,7510 0,6980 0,6480 0,6020 0,5580 0,5170 0,4780
1 0,0660 0,1240 0,1750 0,2190 0,2570 0,2900 0,3170 0,3400 0,3580 0,3720
2 0,0020 0,0080 0,0160 0,0270 0,0410 0,0550 0,0720 0,0890 0,1060 0,1240
3 0,0000 0,0000 0,0010 0,0020 0,0040 0,0060 0,0090 0,0130 0,0170 0,0230
4 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0010 0,0010 0,0020 0,0030
5 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
6 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
7 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
n=8 0 0,9230 0,8510 0,7840 0,7210 0,6630 0,6100 0,5600 0,5130 0,4700 0,4300
1 0,0750 0,1390 0,1940 0,2400 0,2790 0,3110 0,3370 0,3570 0,3720 0,3830
2 0,0030 0,0100 0,0210 0,0350 0,0510 0,0700 0,0890 0,1090 0,1290 0,1490
3 0,0000 0,0000 0,0010 0,0030 0,0050 0,0090 0,0130 0,0190 0,0250 0,0330
4 0,0000 0,0000 0,0000 0,0000 0,0000 0,0010 0,0010 0,0020 0,0030 0,0050
5 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
6 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
7 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
8 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000

José Jabaloyes Vivas


Vicente Chirivella González
ANEXO 2

DISTRIBUCIÓN DE POISSON Ps(λ) (P(X≤x))


ANEXO 3

DISTRIBUCIÓN NORMAL TIPIFICADA

z
α


t2
1 -
φ( z) = P( Z ≤ z) = ⋅e 2
dt

−∞

z 0 1 2 3 4 5 6 7 8 9

-3 0,0013 0,0010 0,0007 0,0005 0,0003 0,0002 0,0002 0,0001 0,0001 0,0000
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036

-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143

-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455

-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1057 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170

-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
-0,7 0,2420 0,2389 0,2358 0,2327 0,2297 0,2266 0,2236 0,2207 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451

-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
-0.0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
José Jabaloyes - Vicente Chirivella
DISTRIBUCIÓN NORMAL TIPIFICADA


t2
1 -
φ( z) = P( Z ≤ z) = ⋅e 2
dt

−∞

z 0 1 2 3 4 5 6 7 8 9

0.0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879

0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389

1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319

1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767

2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936

2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3 0,9987 0,9990 0,9993 0,9995 0,9997 0,9998 0,9998 0,9999 0,9999 1,0000
José Jabaloyes - Vicente Chirivella
ANEXO 4

DISTRIBUCIÓN CHI-CUADRADO DE PEARSON ( χ n(p ) )

n 0.9995 0.999 0.995 0.99 0.975 0.95 0.90 0.50 0.10 0.050 0.025 0.01 0.005 0.001 0.0005

1 0.000 0.000 0.000 0.000 0.001 0.004 0.016 0.455 2.706 3.842 5.024 6.635 7.879 10.827 12.115
2 0.001 0.002 0.010 0.020 0.051 0.103 0.211 1.386 4.605 5.992 7.378 9.210 10.597 13.815 15.201
3 0.015 0.024 0.072 0.115 0.216 0.352 0.584 2.366 6.251 7.815 9.348 11.345 12.838 16.266 17.731
4 0.064 0.091 0.207 0.297 0.484 0.711 1.064 3.357 7.779 9.488 11.143 13.277 14.860 18.466 19.998
5 0.158 0.210 0.412 0.554 0.831 1.146 1.610 4.352 9.236 11.071 12.833 15.086 16.750 20.515 22.106

6 0.299 0.381 0.676 0.872 1.237 1.635 2.204 5.348 10.645 12.592 14.449 16.812 18.548 22.457 24.102
7 0.485 0.599 0.989 1.239 1.690 2.167 2.833 6.346 12.017 14.067 16.013 18.475 20.278 24.321 26.018
8 0.710 0.857 1.344 1.647 2.180 2.733 3.490 7.344 13.362 15.507 17.535 20.090 21.955 26.124 27.867
9 0.972 1.152 1.735 2.088 2.700 3.325 4.168 8.343 14.684 16.919 19.023 21.666 23.589 27.877 29.667
10 1.265 1.479 2.156 2.558 3.247 3.940 4.865 9.342 15.987 18.307 20.483 23.209 25.188 29.588 31.419

11 1.587 1.834 2.603 3.054 3.816 4.575 5.578 10.341 17.275 19.675 21.920 24.725 26.757 31.264 33.138
12 1.935 2.214 3.074 3.571 4.404 5.226 6.304 11.340 18.549 21.026 23.337 26.217 28.300 32.909 34.821
13 2.305 2.617 3.565 4.107 5.009 5.892 7.042 12.340 19.812 22.362 24.736 27.688 29.819 34.527 36.477
14 2.697 3.041 4.075 4.660 5.629 6.571 7.790 13.339 21.064 23.685 26.119 29.141 31.319 36.124 38.109
15 3.107 3.483 4.601 5.229 6.262 7.261 8.547 14.339 22.307 24.996 27.488 30.578 32.802 37.698 39.717

16 3.536 3.942 5.142 5.812 6.908 7.962 9.312 15.339 23.542 26.296 28.845 32.000 34.267 39.252 41.308
17 3.980 4.416 5.697 6.408 7.564 8.672 10.085 16.338 24.769 27.587 30.191 33.409 35.718 40.791 42.881
18 4.439 4.905 6.265 7.015 8.231 9.390 10.865 17.338 25.989 28.869 31.526 34.805 37.156 42.312 44.434
19 4.913 5.407 6.844 7.633 8.907 10.117 11.651 18.338 27.204 30.144 32.852 36.191 38.582 43.819 45.974
20 5.398 5.921 7.434 8.260 9.591 10.851 12.443 19.337 28.412 31.410 34.170 37.566 39.997 45.314 47.498

21 5.895 6.447 8.034 8.897 10.283 11.591 13.240 20.337 29.615 32.671 35.479 38.932 41.401 46.796 49.010
22 6.404 6.983 8.643 9.543 10.982 12.338 14.042 21.337 30.813 33.925 36.781 40.289 42.796 48.268 50.510
23 6.924 7.529 9.260 10.196 11.689 13.091 14.848 22.337 32.007 35.173 38.076 41.638 44.181 49.728 51.999
24 7.453 8.085 9.886 10.856 12.401 13.848 15.659 23.337 33.196 36.415 39.364 42.980 45.558 51.179 53.478
25 7.991 8.649 10.520 11.524 13.120 14.611 16.473 24.337 34.382 37.653 40.647 44.314 46.928 52.619 54.948

26 8.537 9.222 11.160 12.198 13.844 15.379 17.292 25.337 35.563 38.885 41.923 45.642 48.290 54.051 56.407
27 9.093 9.803 11.808 12.879 14.573 16.151 18.114 26.336 36.741 40.113 43.195 46.963 49.645 55.475 57.856
28 9.656 10.391 12.461 13.565 15.308 16.928 18.939 27.336 37.916 41.337 44.461 48.278 50.994 56.892 59.299
29 10.227 10.986 13.121 14.256 16.047 17.708 19.768 28.336 39.088 42.557 45.722 49.588 52.336 58.301 60.734
30 10.804 11.588 13.787 14.954 16.791 18.493 20.599 29.336 40.256 43.773 46.979 50.892 53.672 59.702 62.160

40 16.906 17.917 20.707 22.164 24.433 26.509 29.051 39.335 51.805 55.759 59.342 63.691 66.766 73.403 76.096
50 23.461 24.674 27.991 29.707 32.357 34.764 37.689 49.335 63.167 67.505 71.420 76.154 79.490 86.660 89.560
60 30.339 31.738 35.534 37.485 40.482 43.188 46.459 59.335 74.397 79.082 83.298 88.379 91.952 99.608 102.69
70 37.467 39.036 43.275 45.442 48.758 51.739 55.329 69.335 85.527 90.531 95.023 100.43 104.22 112.32 115.58
80 44.792 46.520 51.172 53.540 57.153 60.392 64.278 79.334 96.578 101.88 106.62 112.32 116.32 124.84 128.26
90 52.277 54.156 59.196 61.754 65.647 69.126 73.291 89.334 107.56 113.15 118.14 124.11 128.29 137.20 140.78
100 59.895 61.918 67.328 70.065 74.222 77.929 82.358 99.334 118.49 124.34 129.56 135.81 140.17 149.45 153.16

José Jabaloyes Vivas


Vicente Chirivella González
ANEXO 5

DISTRIBUCIÓN t de Student ( t n(p ) )

Probabilidad de una cola


n 0.0005 0.001 0.005 0.01 0.025 0.05 0.1 0.2 0.25 0.3 0.4 0.45 0.475
1 636.578 318.289 63.656 31.821 12.706 6.314 3.078 1.376 1.000 0.727 0.325 0.158 0.079
2 31.600 22.328 9.925 6.965 4.303 2.920 1.886 1.061 0.816 0.617 0.289 0.142 0.071
3 12.924 10.214 5.841 4.541 3.182 2.353 1.638 0.978 0.765 0.584 0.277 0.137 0.068
4 8.610 7.173 4.604 3.747 2.776 2.132 1.533 0.941 0.741 0.569 0.271 0.134 0.067
5 6.869 5.894 4.032 3.365 2.571 2.015 1.476 0.920 0.727 0.559 0.267 0.132 0.066
6 5.959 5.208 3.707 3.143 2.447 1.943 1.440 0.906 0.718 0.553 0.265 0.131 0.065
7 5.408 4.785 3.499 2.998 2.365 1.895 1.415 0.896 0.711 0.549 0.263 0.130 0.065
8 5.041 4.501 3.355 2.896 2.306 1.860 1.397 0.889 0.706 0.546 0.262 0.130 0.065
9 4.781 4.297 3.250 2.821 2.262 1.833 1.383 0.883 0.703 0.543 0.261 0.129 0.064
10 4.587 4.144 3.169 2.764 2.228 1.812 1.372 0.879 0.700 0.542 0.260 0.129 0.064
11 4.437 4.025 3.106 2.718 2.201 1.796 1.363 0.876 0.697 0.540 0.260 0.129 0.064
12 4.318 3.930 3.055 2.681 2.179 1.782 1.356 0.873 0.695 0.539 0.259 0.128 0.064
13 4.221 3.852 3.012 2.650 2.160 1.771 1.350 0.870 0.694 0.538 0.259 0.128 0.064
14 4.140 3.787 2.977 2.624 2.145 1.761 1.345 0.868 0.692 0.537 0.258 0.128 0.064
15 4.073 3.733 2.947 2.602 2.131 1.753 1.341 0.866 0.691 0.536 0.258 0.128 0.064
16 4.015 3.686 2.921 2.583 2.120 1.746 1.337 0.865 0.690 0.535 0.258 0.128 0.064
17 3.965 3.646 2.898 2.567 2.110 1.740 1.333 0.863 0.689 0.534 0.257 0.128 0.064
18 3.922 3.610 2.878 2.552 2.101 1.734 1.330 0.862 0.688 0.534 0.257 0.127 0.064
19 3.883 3.579 2.861 2.539 2.093 1.729 1.328 0.861 0.688 0.533 0.257 0.127 0.064
20 3.850 3.552 2.845 2.528 2.086 1.725 1.325 0.860 0.687 0.533 0.257 0.127 0.063
21 3.819 3.527 2.831 2.518 2.080 1.721 1.323 0.859 0.686 0.532 0.257 0.127 0.063
22 3.792 3.505 2.819 2.508 2.074 1.717 1.321 0.858 0.686 0.532 0.256 0.127 0.063
23 3.768 3.485 2.807 2.500 2.069 1.714 1.319 0.858 0.685 0.532 0.256 0.127 0.063
24 3.745 3.467 2.797 2.492 2.064 1.711 1.318 0.857 0.685 0.531 0.256 0.127 0.063
25 3.725 3.450 2.787 2.485 2.060 1.708 1.316 0.856 0.684 0.531 0.256 0.127 0.063
26 3.707 3.435 2.779 2.479 2.056 1.706 1.315 0.856 0.684 0.531 0.256 0.127 0.063
27 3.689 3.421 2.771 2.473 2.052 1.703 1.314 0.855 0.684 0.531 0.256 0.127 0.063
28 3.674 3.408 2.763 2.467 2.048 1.701 1.313 0.855 0.683 0.530 0.256 0.127 0.063
29 3.660 3.396 2.756 2.462 2.045 1.699 1.311 0.854 0.683 0.530 0.256 0.127 0.063
30 3.646 3.385 2.750 2.457 2.042 1.697 1.310 0.854 0.683 0.530 0.256 0.127 0.063
40 3.551 3.307 2.704 2.423 2.021 1.684 1.303 0.851 0.681 0.529 0.255 0.126 0.063
60 3.460 3.232 2.660 2.390 2.000 1.671 1.296 0.848 0.679 0.527 0.254 0.126 0.063
120 3.373 3.160 2.617 2.358 1.980 1.658 1.289 0.845 0.677 0.526 0.254 0.126 0.063
∞ 3.290 3.090 2.576 2.326 1.960 1.645 1.282 0.842 0.674 0.524 0.253 0.126 0.063

n 0.001 0.002 0.01 0.02 0.05 0.1 0.2 0.4 0.5 0.6 0.8 0.9 0.95
Probabilidad de dos colas

José Jabaloyes Vivas


Vicente Chirivella González
ANEXO 6

DISTRIBUCIÓN F de Snedecor ( Fn(1p,)n2 )

Grados de libertad de la varianza mayor


1 2 3 4 5 6 7 8
p→ 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01

1 161.45 4052.2 199.50 4999.3 215.71 5403.5 224.58 5624.3 230.16 5763.9 233.99 5858.9 236.77 5928.3 238.88 5980.9
2 18.51 98.50 19.00 99.00 19.16 99.16 19.25 99.25 19.30 99.30 19.33 99.33 19.35 99.36 19.37 99.38
3 10.13 34.12 9.55 30.82 9.28 29.46 9.12 28.71 9.01 28.24 8.94 27.91 8.89 27.67 8.85 27.49
4 7.71 21.20 6.94 18.00 6.59 16.69 6.39 15.98 6.26 15.52 6.16 15.21 6.09 14.98 6.04 14.80
5 6.61 16.26 5.79 13.27 5.41 12.06 5.19 11.39 5.05 10.97 4.95 10.67 4.88 10.46 4.82 10.29
6 5.99 13.75 5.14 10.92 4.76 9.78 4.53 9.15 4.39 8.75 4.28 8.47 4.21 8.26 4.15 8.10
7 5.59 12.25 4.74 9.55 4.35 8.45 4.12 7.85 3.97 7.46 3.87 7.19 3.79 6.99 3.73 6.84
8 5.32 11.26 4.46 8.65 4.07 7.59 3.84 7.01 3.69 6.63 3.58 6.37 3.50 6.18 3.44 6.03
9 5.12 10.56 4.26 8.02 3.86 6.99 3.63 6.42 3.48 6.06 3.37 5.80 3.29 5.61 3.23 5.47

10 4.96 10.04 4.10 7.56 3.71 6.55 3.48 5.99 3.33 5.64 3.22 5.39 3.14 5.20 3.07 5.06
11 4.84 9.65 3.98 7.21 3.59 6.22 3.36 5.67 3.20 5.32 3.09 5.07 3.01 4.89 2.95 4.74
12 4.75 9.33 3.89 6.93 3.49 5.95 3.26 5.41 3.11 5.06 3.00 4.82 2.91 4.64 2.85 4.50
13 4.67 9.07 3.81 6.70 3.41 5.74 3.18 5.21 3.03 4.86 2.92 4.62 2.83 4.44 2.77 4.30
14 4.60 8.86 3.74 6.51 3.34 5.56 3.11 5.04 2.96 4.69 2.85 4.46 2.76 4.28 2.70 4.14
15 4.54 8.68 3.68 6.36 3.29 5.42 3.06 4.89 2.90 4.56 2.79 4.32 2.71 4.14 2.64 4.00
16 4.49 8.53 3.63 6.23 3.24 5.29 3.01 4.77 2.85 4.44 2.74 4.20 2.66 4.03 2.59 3.89
17 4.45 8.40 3.59 6.11 3.20 5.19 2.96 4.67 2.81 4.34 2.70 4.10 2.61 3.93 2.55 3.79
18 4.41 8.29 3.55 6.01 3.16 5.09 2.93 4.58 2.77 4.25 2.66 4.01 2.58 3.84 2.51 3.71
19 4.38 8.18 3.52 5.93 3.13 5.01 2.90 4.50 2.74 4.17 2.63 3.94 2.54 3.77 2.48 3.63

20 4.35 8.10 3.49 5.85 3.10 4.94 2.87 4.43 2.71 4.10 2.60 3.87 2.51 3.70 2.45 3.56
21 4.32 8.02 3.47 5.78 3.07 4.87 2.84 4.37 2.68 4.04 2.57 3.81 2.49 3.64 2.42 3.51
22 4.30 7.95 3.44 5.72 3.05 4.82 2.82 4.31 2.66 3.99 2.55 3.76 2.46 3.59 2.40 3.45
23 4.28 7.88 3.42 5.66 3.03 4.76 2.80 4.26 2.64 3.94 2.53 3.71 2.44 3.54 2.37 3.41
24 4.26 7.82 3.40 5.61 3.01 4.72 2.78 4.22 2.62 3.90 2.51 3.67 2.42 3.50 2.36 3.36
25 4.24 7.77 3.39 5.57 2.99 4.68 2.76 4.18 2.60 3.85 2.49 3.63 2.40 3.46 2.34 3.32
26 4.23 7.72 3.37 5.53 2.98 4.64 2.74 4.14 2.59 3.82 2.47 3.59 2.39 3.42 2.32 3.29
27 4.21 7.68 3.35 5.49 2.96 4.60 2.73 4.11 2.57 3.78 2.46 3.56 2.37 3.39 2.31 3.26
28 4.20 7.64 3.34 5.45 2.95 4.57 2.71 4.07 2.56 3.75 2.45 3.53 2.36 3.36 2.29 3.23
29 4.18 7.60 3.33 5.42 2.93 4.54 2.70 4.04 2.55 3.73 2.43 3.50 2.35 3.33 2.28 3.20

30 4.17 7.56 3.32 5.39 2.92 4.51 2.69 4.02 2.53 3.70 2.42 3.47 2.33 3.30 2.27 3.17
31 4.16 7.53 3.30 5.36 2.91 4.48 2.68 3.99 2.52 3.67 2.41 3.45 2.32 3.28 2.25 3.15
32 4.15 7.50 3.29 5.34 2.90 4.46 2.67 3.97 2.51 3.65 2.40 3.43 2.31 3.26 2.24 3.13
33 4.14 7.47 3.28 5.31 2.89 4.44 2.66 3.95 2.50 3.63 2.39 3.41 2.30 3.24 2.23 3.11
34 4.13 7.44 3.28 5.29 2.88 4.42 2.65 3.93 2.49 3.61 2.38 3.39 2.29 3.22 2.23 3.09
38 4.10 7.35 3.24 5.21 2.85 4.34 2.62 3.86 2.46 3.54 2.35 3.32 2.26 3.15 2.19 3.02
42 4.07 7.28 3.22 5.15 2.83 4.29 2.59 3.80 2.44 3.49 2.32 3.27 2.24 3.10 2.17 2.97
46 4.05 7.22 3.20 5.10 2.81 4.24 2.57 3.76 2.42 3.44 2.30 3.22 2.22 3.06 2.15 2.93
50 4.03 7.17 3.18 5.06 2.79 4.20 2.56 3.72 2.40 3.41 2.29 3.19 2.20 3.02 2.13 2.89
60 4.00 7.08 3.15 4.98 2.76 4.13 2.53 3.65 2.37 3.34 2.25 3.12 2.17 2.95 2.10 2.82

80 3.96 6.96 3.11 4.88 2.72 4.04 2.49 3.56 2.33 3.26 2.21 3.04 2.13 2.87 2.06 2.74
100 3.94 6.90 3.09 4.82 2.70 3.98 2.46 3.51 2.31 3.21 2.19 2.99 2.10 2.82 2.03 2.69
200 3.89 6.76 3.04 4.71 2.65 3.88 2.42 3.41 2.26 3.11 2.14 2.89 2.06 2.73 1.98 2.60
1000 3.85 6.66 3.00 4.63 2.61 3.80 2.38 3.34 2.22 3.04 2.11 2.82 2.02 2.66 1.95 2.53
∞ 3.84 6.63 3.00 4.61 2.60 3.78 2.37 3.32 2.21 3.02 2.10 2.80 2.01 2.64 1.94 2.51
DISTRIBUCIÓN F de Snedecor ( Fn(1p,)n2 )
(Continuación)

Grados de libertad de la varianza mayor


10 12 16 20 30 50 100 ∞
p→ 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01 0.05 0.01

1 241.88 6055.9 243.90 6106.7 246.47 6170.0 248.02 6208.7 250.10 6260.4 251.77 6302.3 253.04 6333.9 254.31 6365.6
2 19.40 99.40 19.41 99.42 19.43 99.44 19.45 99.45 19.46 99.47 19.48 99.48 19.49 99.49 19.50 99.50
3 8.79 27.23 8.74 27.05 8.69 26.83 8.66 26.69 8.62 26.50 8.58 26.35 8.55 26.24 8.53 26.13
4 5.96 14.55 5.91 14.37 5.84 14.15 5.80 14.02 5.75 13.84 5.70 13.69 5.66 13.58 5.63 13.46
5 4.74 10.05 4.68 9.89 4.60 9.68 4.56 9.55 4.50 9.38 4.44 9.24 4.41 9.13 4.37 9.02
6 4.06 7.87 4.00 7.72 3.92 7.52 3.87 7.40 3.81 7.23 3.75 7.09 3.71 6.99 3.67 6.88
7 3.64 6.62 3.57 6.47 3.49 6.28 3.44 6.16 3.38 5.99 3.32 5.86 3.27 5.75 3.23 5.65
8 3.35 5.81 3.28 5.67 3.20 5.48 3.15 5.36 3.08 5.20 3.02 5.07 2.97 4.96 2.93 4.86
9 3.14 5.26 3.07 5.11 2.99 4.92 2.94 4.81 2.86 4.65 2.80 4.52 2.76 4.41 2.71 4.31

10 2.98 4.85 2.91 4.71 2.83 4.52 2.77 4.41 2.70 4.25 2.64 4.12 2.59 4.01 2.54 3.91
11 2.85 4.54 2.79 4.40 2.70 4.21 2.65 4.10 2.57 3.94 2.51 3.81 2.46 3.71 2.40 3.60
12 2.75 4.30 2.69 4.16 2.60 3.97 2.54 3.86 2.47 3.70 2.40 3.57 2.35 3.47 2.30 3.36
13 2.67 4.10 2.60 3.96 2.51 3.78 2.46 3.66 2.38 3.51 2.31 3.38 2.26 3.27 2.21 3.17
14 2.60 3.94 2.53 3.80 2.44 3.62 2.39 3.51 2.31 3.35 2.24 3.22 2.19 3.11 2.13 3.00
15 2.54 3.80 2.48 3.67 2.38 3.49 2.33 3.37 2.25 3.21 2.18 3.08 2.12 2.98 2.07 2.87
16 2.49 3.69 2.42 3.55 2.33 3.37 2.28 3.26 2.19 3.10 2.12 2.97 2.07 2.86 2.01 2.75
17 2.45 3.59 2.38 3.46 2.29 3.27 2.23 3.16 2.15 3.00 2.08 2.87 2.02 2.76 1.96 2.65
18 2.41 3.51 2.34 3.37 2.25 3.19 2.19 3.08 2.11 2.92 2.04 2.78 1.98 2.68 1.92 2.57
19 2.38 3.43 2.31 3.30 2.21 3.12 2.16 3.00 2.07 2.84 2.00 2.71 1.94 2.60 1.88 2.49

20 2.35 3.37 2.28 3.23 2.18 3.05 2.12 2.94 2.04 2.78 1.97 2.64 1.91 2.54 1.84 2.42
21 2.32 3.31 2.25 3.17 2.16 2.99 2.10 2.88 2.01 2.72 1.94 2.58 1.88 2.48 1.81 2.36
22 2.30 3.26 2.23 3.12 2.13 2.94 2.07 2.83 1.98 2.67 1.91 2.53 1.85 2.42 1.78 2.31
23 2.27 3.21 2.20 3.07 2.11 2.89 2.05 2.78 1.96 2.62 1.88 2.48 1.82 2.37 1.76 2.26
24 2.25 3.17 2.18 3.03 2.09 2.85 2.03 2.74 1.94 2.58 1.86 2.44 1.80 2.33 1.73 2.21
25 2.24 3.13 2.16 2.99 2.07 2.81 2.01 2.70 1.92 2.54 1.84 2.40 1.78 2.29 1.71 2.17
26 2.22 3.09 2.15 2.96 2.05 2.78 1.99 2.66 1.90 2.50 1.82 2.36 1.76 2.25 1.69 2.13
27 2.20 3.06 2.13 2.93 2.04 2.75 1.97 2.63 1.88 2.47 1.81 2.33 1.74 2.22 1.67 2.10
28 2.19 3.03 2.12 2.90 2.02 2.72 1.96 2.60 1.87 2.44 1.79 2.30 1.73 2.19 1.65 2.06
29 2.18 3.00 2.10 2.87 2.01 2.69 1.94 2.57 1.85 2.41 1.77 2.27 1.71 2.16 1.64 2.03

30 2.16 2.98 2.09 2.84 1.99 2.66 1.93 2.55 1.84 2.39 1.76 2.25 1.70 2.13 1.62 2.01
31 2.15 2.96 2.08 2.82 1.98 2.64 1.92 2.52 1.83 2.36 1.75 2.22 1.68 2.11 1.61 1.98
32 2.14 2.93 2.07 2.80 1.97 2.62 1.91 2.50 1.82 2.34 1.74 2.20 1.67 2.08 1.59 1.96
33 2.13 2.91 2.06 2.78 1.96 2.60 1.90 2.48 1.81 2.32 1.72 2.18 1.66 2.06 1.58 1.93
34 2.12 2.89 2.05 2.76 1.95 2.58 1.89 2.46 1.80 2.30 1.71 2.16 1.65 2.04 1.57 1.91
38 2.09 2.83 2.02 2.69 1.92 2.51 1.85 2.40 1.76 2.23 1.68 2.09 1.61 1.97 1.53 1.84
42 2.06 2.78 1.99 2.64 1.89 2.46 1.83 2.34 1.73 2.18 1.65 2.03 1.57 1.91 1.49 1.78
46 2.04 2.73 1.97 2.60 1.87 2.42 1.80 2.30 1.71 2.13 1.62 1.99 1.55 1.86 1.46 1.73
50 2.03 2.70 1.95 2.56 1.85 2.38 1.78 2.27 1.69 2.10 1.60 1.95 1.52 1.82 1.44 1.68

60 1.99 2.63 1.92 2.50 1.82 2.31 1.75 2.20 1.65 2.03 1.56 1.88 1.48 1.75 1.39 1.60
80 1.95 2.55 1.88 2.42 1.77 2.23 1.70 2.12 1.60 1.94 1.51 1.79 1.43 1.65 1.32 1.49
100 1.93 2.50 1.85 2.37 1.75 2.19 1.68 2.07 1.57 1.89 1.48 1.74 1.39 1.60 1.28 1.43
200 1.88 2.41 1.80 2.27 1.69 2.09 1.62 1.97 1.52 1.79 1.41 1.63 1.32 1.48 1.19 1.28
1000 1.84 2.34 1.76 2.20 1.65 2.02 1.58 1.90 1.47 1.72 1.36 1.54 1.26 1.38 1.08 1.11
∞ 1.83 2.32 1.75 2.18 1.64 2.00 1.57 1.88 1.46 1.70 1.35 1.52 1.24 1.36 1.01 1.01

José Jabaloyes Vivas


Vicente Chirivella González
ANEXO 7

DISTRIBUCIÓN Un ( Un(p ) )

p (una cola) p (dos colas)


n 0’05 0’01 0’001 0’9995 0’995 0’975 0’025 0’005 0’0005
1 1.9600 2.5758 3.2905 0.0006 0.0062 0.0313 2.2414 2.8070 3.4803
2 1.7308 2.1460 2.6283 0.0224 0.0708 0.1591 1.9206 2.3018 2.7567
3 1.6140 1.9446 2.3285 0.0714 0.1546 0.2682 1.7653 2.0687 2.4308
4 1.5401 1.8219 2.1487 0.1264 0.2275 0.3480 1.6691 1.9274 2.2357
5 1.4880 1.7370 2.0256 0.1779 0.2870 0.4077 1.6220 1.8303 2.1025
6 1.4487 1.6739 1.9347 0.2234 0.3356 0.5441 1.5518 1.7582 2.0041
7 1.4176 1.6246 1.8640 0.2632 0.3759 0.4913 1.5125 1.7020 1.9277
8 1.3923 1.5847 1.8071 0.2980 0.4099 0.5220 1.4805 1.6566 1.8663
9 1.3711 1.5519 1.7600 0.3286 0.4391 0.5478 1.4538 1.6190 1.8154
10 1.3530 1.5235 1.7201 0.3557 0.4643 0.5698 1.4312 1.5871 1.7725
ANEXO 8

FACTORES PARA EL CÁLCULO DE LOS LÍMITES


DE CONTROL DE LOS GRÁFICOS DE CONTROL
POR VARIABLES
(CRITERIO 3σ)

Media Desviacion típica Rango


n A A1 A2 A3 c2 c4 B1 B2 B3 B4 d2 d3 D1 D2 D3 D4
2 2,121 3,760 1,880 2.659 0,564 0,797 0,000 1,843 0,000 3,627 1,128 0,853 0,000 3,686 0,000 3,267
3 1,732 2,394 1,023 1.954 0,723 0,886 0,000 1,858 0,000 2,568 1,693 0,888 0,000 4,358 0,000 2,575
4 1,500 1,880 0,729 1.628 0,797 0,921 0,000 1,808 0,000 2,266 2,059 0,880 0,000 4,698 0,000 2,282
5 1,342 1,596 0,577 1.427 0,840 0,940 0,000 1,756 0,000 2,089 2,326 0,864 0,000 4,918 0,000 2,115
6 1,225 1,410 0,483 1.287 0,868 0,951 0,026 1,711 0,030 1,970 2,534 0,848 0,000 5,078 0,000 2,004
7 1,134 1,277 0,419 1.182 0,888 0,959 0,105 1,672 0,118 1,882 2,704 0,833 0,205 5,203 0,076 1,924
8 1,061 1,175 0,373 1.099 0,902 0,965 0,167 1,638 0,185 1,815 2,847 0,820 0,387 5,307 0,136 1,864
9 1,000 1,094 0,337 1.032 0,913 0,969 0,219 1,609 0,239 1,761 2,970 0,808 0,546 5,394 0,184 1,816
10 0,949 1,028 0,308 0.975 0,922 0,972 0,262 1,584 0,284 1,716 3,078 0,797 0,687 5,469 0,223 1,777
11 0,905 0,973 0,285 0.927 0,930 0,975 0,299 1,561 0,321 1,679 3,173 0,787 0,812 5,534 0,256 1,744
12 0,866 0,925 0,266 0.886 0,935 0,977 0,331 1,541 0,354 1,646 3,258 0,778 0,924 5,592 0,284 1,716
13 0,832 0,884 0,249 0.850 0,941 0,979 0,359 1,523 0,382 1,618 3,336 0,770 1,026 5,646 0,308 1,692
14 0,802 0,848 0,235 0.817 0,945 0,981 0,384 1,507 0,406 1,594 3,407 0,762 1,121 5,693 0,329 1,671
15 0,775 0,816 0,223 0.789 0,949 0,982 0,406 1,492 0,428 1,572 3,472 0,755 1,207 5,737 0,348 1,652
16 0,750 0,788 0,212 0.763 0,952 0,983 0,427 1,478 0,448 1,552 3,532 0,749 1,285 5,779 0,364 1,636
17 0,728 0,762 0,203 0.739 0,955 0,984 0,445 1,465 0,466 1,534 3,588 0,743 1,359 5,817 0,379 1,621
18 0,707 0,738 0,194 0.718 0,957 0,985 0,461 1,454 0,482 1,518 3,640 0,738 1,426 5,854 0,392 1,608
19 0,688 0,717 0,187 0.698 0,959 0,986 0,477 1,443 0,497 1,503 3,689 0,733 1,490 5,888 0,404 1,596
20 0,671 0,697 0,180 0.680 0,961 0,986 0,491 1,433 0,510 1,490 3,735 0,729 1,548 5,922 0,144 1,586
21 0,655 0,679 0,173 0.663 0,963 0,987 0,504 1,424 0,523 1,477 3,778 0,724 1,606 5,950 0,425 1,575
22 0,640 0,662 0,167 0.647 0,965 0,988 0,516 1,415 0,534 1,466 3,819 0,720 1,659 5,579 0,434 1,566
23 0,626 0,647 0,162 0.633 0,967 0,988 0,527 1,407 0,545 1,455 3,858 0,716 1,710 6,006 0,443 1,557
24 0,612 0,632 0,157 0.619 0,968 0,989 0,538 1,399 0,555 1,445 3,895 0,712 1,759 6,031 0,452 1,548
25 0,600 0,619 0,153 0.606 0,969 0,989 0,548 1,392 0,656 1,435 3,931 0,709 1,804 6,058 0,459 1,541

Vicente Carot Alonso


ANEXO 9

DISTRIBUCIÓN Vn ( Vn(p) )

p
n 0.10 0.05 0.01 0.001 0.90 0.95 0.99 0.9995 0.995 0.975 0.025 0.005 0.0005
2 2.326 2.771 3.641 4.630 0.178 0.089 0.018 0.0009 0.0089 0.044 3.170 3.969 4.915
3 2.902 3.314 4.123 5.059 0.619 0.432 0.190 0.042 0.136 0.303 3.682 4.418 5.283
4 3.240 3.633 4.404 5.305 0.980 0.760 0.434 0.155 0.342 0.595 3.984 4.690 5.549
5 3.478 3.858 4.603 5.483 1.261 1.030 0.664 0.301 0.554 0.850 4.197 4.888 5.721
6 3.661 4.029 4.757 5.593 1.488 1.253 0.868 0.468 0.749 1.065 4.360 5.032 5.840
7 3.808 4.170 4.885 5.729 1.676 1.440 1.048 0.603 0.924 1.251 4.494 5.155 5.958
8 3.931 4.286 4.987 5.837 1.836 1.600 1.205 0.751 1.072 1.410 4.605 5.254 6.047
9 4.037 4.386 5.078 5.888 1.973 1.740 1.343 0.881 1.212 1.550 4.700 5.341 6.107
10 4.129 4.473 5.157 5.972 2.095 1.863 1.466 0.995 1.335 1.674 4.783 5.419 6.191

Vicente Carot Alonso

View publication stats

Вам также может понравиться