Вы находитесь на странице: 1из 186

Estadı́stica

(Apuntes)

Zenaida Hernández Martı́n

2018-2019
2
Índice general

1. Descripción de los objetivos de la asignatura 7

2. ¿Cómo realizar un análisis estadı́stico? 9

I Estadı́stica Descriptiva 11

1. Estadı́stica Descriptiva unidimensional 13


1.1. Resumen de los datos: tablas de frecuencia . . . . . . . . . . . . . . . . . . 14
1.2. Gráficos unidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1. Gráficos para distribuciones no agrupadas en intervalos . . . . . . . 20
1.2.2. Gráficos para distribuciones agrupadas . . . . . . . . . . . . . . . . 23
1.3. Medidas de una variable cuantitativa . . . . . . . . . . . . . . . . . . . . . 24
1.4. Medidas de posición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.1. La media aritmética . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.2. La moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.3. La mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.4. La media armónica y la media geométrica . . . . . . . . . . . . . . 29
1.4.5. Medidas de posición no central . . . . . . . . . . . . . . . . . . . . 30
1.5. Medidas de dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.5.1. Medidas de dispersión absoluta . . . . . . . . . . . . . . . . . . . . 31
1.5.2. Medidas de dispersión relativa . . . . . . . . . . . . . . . . . . . . . 34
1.6. Medidas de forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.6.1. Medidas de simetrı́a y asimetrı́a . . . . . . . . . . . . . . . . . . . . 37

3
4 ÍNDICE GENERAL

1.6.2. Medidas de curtosis o apuntamiento . . . . . . . . . . . . . . . . . . 38


1.6.3. El gráfico de cajas . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.7. Medidas de concentración . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.7.1. La curva de Lorenz . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.7.2. Índice de concentración de Gini . . . . . . . . . . . . . . . . . . . . 42
1.8. Ejemplo resuelto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

II Introducción a la Probabilidad y variables aleatorias. 51

1. Sucesos y Probabilidad 53
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.2. Operaciones con sucesos . . . . . . . . . . . . . . . . . . . . . . . . 56
1.2.3. El espacio de sucesos es un Álgebra de Boole . . . . . . . . . . . . . 59
1.3. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
1.4. Probabilidad condicionada e independencia de sucesos . . . . . . . . . . . . 64
1.4.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . 64
1.4.2. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . 65
1.5. Teorema de la Probabilidad Total y Teorema de Bayes . . . . . . . . . . . 67

2. Variables aleatorias 71
2.1. Variables aleatorias unidimensionales . . . . . . . . . . . . . . . . . . . . . 71
2.2. Esperanza matemática y otras medidas . . . . . . . . . . . . . . . . . . . . 78
2.3. La desigualdad de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.4. Variables aleatorias bidimensionales . . . . . . . . . . . . . . . . . . . . . . 87
2.5. Correlación e incorrelación. Dependencia e independencia . . . . . . . . . . 88

3. Modelos de variables aleatorias unidimensionales 95


3.1. La distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.2. La distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
ÍNDICE GENERAL 5

3.3. La distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103


3.3.1. ¿Cómo se utiliza la tabla? . . . . . . . . . . . . . . . . . . . . . . . 109
3.4. Distribución Ji cuadrado de Pearson: χ2 . . . . . . . . . . . . . . . . . . . 117
3.5. Distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.6. Teroema Central del Lı́mite . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3.6.1. Corrección por continuidad . . . . . . . . . . . . . . . . . . . . . . . 123
3.7. Tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

III Inferencia Estadı́stica 129

1. Muestreo y estimación 131


1.1. Concepto de muestra aleatoria y estadı́stico . . . . . . . . . . . . . . . . . 131
1.2. Los estimadores muestrales más habituales . . . . . . . . . . . . . . . . . . 135
1.2.1. La suma muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
1.2.2. La media muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
1.2.3. La varianza muestral . . . . . . . . . . . . . . . . . . . . . . . . . . 136
1.2.4. La cuasivarianza muestral . . . . . . . . . . . . . . . . . . . . . . . 137
1.3. Distribuciones en el muestreo . . . . . . . . . . . . . . . . . . . . . . . . . 137
1.3.1. Distribución de la media muestral . . . . . . . . . . . . . . . . . . . 138
1.3.2. Distribución de la proporción muestral . . . . . . . . . . . . . . . . 139
(n − 1)S 2
1.3.3. Distribución para poblaciones Normales . . . . . . . . . 139
σ2
1.4. Concepto de estimador y de estimación por intervalos . . . . . . . . . . . . 139
1.4.1. Intervalo de confianza para la media (µ) . . . . . . . . . . . . . . . 141
1.4.2. Intervalo de confianza para una proporción . . . . . . . . . . . . . . 144
1.4.3. Intervalo de confianza para la variaza (σ 2 ) . . . . . . . . . . . . . . 146
1.5. Tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
1.5.1. Para la estimación de una media . . . . . . . . . . . . . . . . . . . 148
1.5.2. Para la estimación de una proporción . . . . . . . . . . . . . . . . . 150
1.5.3. Para la estimación de una diferencia de medias . . . . . . . . . . . . 151
1.5.4. Para la estimación de una diferencia de proporciones . . . . . . . . 152
6 ÍNDICE GENERAL

2. Contrastes de hipótesis paramétricos 153


2.1. Contraste de hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
2.2. Contraste de hipótesis para la media . . . . . . . . . . . . . . . . . . . . . 155
2.3. Contraste de hipótesis para la varianza . . . . . . . . . . . . . . . . . . . . 158
2.4. Contraste de hipótesis para una proporción . . . . . . . . . . . . . . . . . . 159
2.5. Otros contrastes paramétricos . . . . . . . . . . . . . . . . . . . . . . . . . 161
2.5.1. Contraste de igualdad (o diferencia) de medias . . . . . . . . . . . . 161
2.5.2. Contraste de igualdad (o diferencia) de proporciones . . . . . . . . 162

3. Contrastes de hipótesis no paramétricos 165


3.1. Contraste de aleatoriedad: Test de rachas. . . . . . . . . . . . . . . . . . . 165
3.2. Contrastes de la bondad de ajuste . . . . . . . . . . . . . . . . . . . . . . . 167
3.2.1. Test de Shapiro-Wilk . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3.2.2. Contraste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . 168
3.2.3. Test de la χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
3.2.4. Comparación entre los test de la χ2 y K-S . . . . . . . . . . . . . . 174
3.3. Contrastes de localización . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3.3.1. Prueba de los signos . . . . . . . . . . . . . . . . . . . . . . . . . . 175
3.3.2. Test de los rangos con signo de Wilcoxon . . . . . . . . . . . . . . . 176
3.4. Tablas para contrastes no paramétricos . . . . . . . . . . . . . . . . . . . . 180
3.4.1. Test de Rachas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
3.4.2. Test de Rachas (continuación) . . . . . . . . . . . . . . . . . . . . . 181
3.4.3. Coeficientes ai del contraste de Shapiro-Wilks . . . . . . . . . . . . 182
3.4.4. Valores crı́ticos del contraste de Shapiro-Wilks . . . . . . . . . . . . 183
3.4.5. Test de Kolmogorov-Smirnov de bondad de ajuste . . . . . . . . . . 184
3.4.6. Test de Kolmogorov-Smirnov-Lilliefors . . . . . . . . . . . . . . . . 185
3.4.7. Test de los rangos con signo de Wilcoxon . . . . . . . . . . . . . . . 186
Introducción 1

Descripción de los objetivos de la


asignatura

La Estadı́stica es algo cotidiano, algo que todos manejamos todos los dı́as, pero en
muchas ocasiones de forma incorrecta. Esto nos lleva a tomar malas decisiones o a hacer
malas interpretaciones de la realidad que tenemos delante.
Con esta asignatura se pretende dar una visión general de la Estadı́stica Básica y
proporcionar a los futuros graduados en Matemáticas y en Ingenierı́a Informática herra-
mientas para llevar a cabo correctamente la realización de análisis estadı́sticos, ası́ como
la adecuada interpretación de los resultados.
La asignatura se imparte en el primer semestre del segundo curso y su objetivo es
preparar a los estudiantes para el manejo de herramientas básicas de Probabilidad y
Estadı́stica.
Por otra parte, los futuros graduados en Matemáticas necesitan estos conocimientos
para cursar las asignaturas: Probabilidad y Estadı́stica, que se imparte en el segundo
semestre y Modelos de Regresión en tercero.
Según la descripción que aparece en la memoria del Grado se desarrollarán, en mayor
o menor grado, las siguientes competencias:

Comprender el lenguaje matemático, enunciados y demostraciones, identificando


razonamientos incorrectos, y utilizarlo en diversos problemas y aplicaciones.

Saber abstraer las propiedades estructurales de objetos de la realidad observada y


de otros ámbitos, distinguiéndolas de aquellas puramente ocasionales, comprobando
la aplicabilidad de las Matemáticas.

Utilizar aplicaciones informáticas de análisis estadı́stico, cálculo numérico y simbóli-


co, visualización gráfica, optimización, u otras, para experimentar en Matemáticas
y resolver problemas.

Proponer, analizar, validar e interpretar modelos de situaciones reales sencillas, uti-


lizando las herramientas matemáticas más adecuadas a los fines que se persigan.

7
8 INTRODUCCIÓN 1. DESCRIPCIÓN DE LOS OBJETIVOS DE LA ASIGNATURA

Al terminar de cursar esta asignatura se pretende haber alcanzado los siguientes re-
sultados de aprendizaje:

Conocer las técnicas básicas de la estadı́stica descriptiva unidimensional.

Conocer los conceptos fundamentales de la teorı́a de la probabilidad.

Conocer las distribuciones de probabilidad más importantes.

Conocer las técnicas más importantes de la inferencia estadı́stica.

Conocer el manejo básico de un paquete estadı́stico.

Para alcanzar este objetivo se desarrollará el siguiente temario:

Tema D.- Estadı́stica Descriptiva

Tema P1.- Probabilidad

Tema P2.- Variables aleatorias

Tema P3.- Variables aleatorias más destacadas

Tema I1.- Muestreo y estimación

Tema I2.- Contrastes de hipótesis paramétricos

Tema I3.- Contrastes de hipótesis no paramétricos

La organización de la docencia de esta asignatura se realizará dividiendo el contenido


en 3 grandes bloques del siguiente modo:

Estadı́stica descriptiva: Análisis descriptivo univariante (descripción de una variable


estadı́stica). Los contenidos se impartirán en su totalidad en las clases de grupo
informático a la vez que se introduce el software que se va a utilizar a lo largo del
curso (Tiempo dedicado estimado: 10 horas).

Probabilidad Introducción al concepto de Probabilidad y definición de variable aleato-


ria. Se describirán y manejarán las distribuciones de probabilidad más conocidas (se
estima una dedicación de 21 horas de teorı́a más 4 de ordenador).

Inferencia Se estudiará cómo llevar a cabo un análisis inferencial. Se realizarán los con-
trastes de hipótesis paramétricos más habituales y algunos no paramétricos (el tiem-
po empleado estimado es de 16 horas de teorı́a que se complementan con 4 horas de
ordenador).

Para completar las explicaciones y notas de la asignatura se proponen, a continuación,


algunos libros de contenidos básicos.
Introducción 2

¿Cómo realizar un análisis


estadı́stico?

Para poder trabajar en Estadı́stica es conveniente tener claros los conceptos y utilizar
un lenguaje común, que no dé lugar a confusión, por lo que vamos a proceder a dar algunas
definiciones básicas.
Para realizar cualquier análisis estadı́stico debemos disponer de unos datos. Y estos
datos corresponden a los valores obtenidos al estudiar determinadas caracterı́sticas en los
elementos de un conjunto de entes.
Vamos a fijar el lenguaje que utilizaremos, estableciendo los siguientes términos:

Población es el conjunto de entes (personas, animales o cosas) sobre los que se va a


llevar a cabo la investigación estadı́stica.

Elemento es cada uno de los componentes de la población (pueden ser simples o com-
puestos).

Tamaño de la población es el número de elementos que la componen.

Caracteres son las cualidades o rasgos comunes a toda la población que vamos a estudiar.
Pueden ser cuantitativos (variables) o cualitativos (atributos).

Aunque existe el análisis estadı́stico de los caracteres cualitativos, cuando se habla de


análisis estadı́stico, generalmente nos referimos al análisis de las caracterı́sticas cuantita-
tivas observadas en los elementos de una población.
Por lo tanto, generalmente trabajaremos con variables estadı́sticas que, atendiendo a
los valores que pueden tomar, pueden ser discretas o continuas; y esta diferencia hace
que en muchas ocasiones tengan un tratamiento diferente.

Diremos que una variable estadı́stica es discreta si dados dos valores distintos de
la variable, entre ellos no puede haber más que un número finito de valores de la
variable, por muy alejados que estén entre sı́. Por ejemplo: número de hijos.

9
10 INTRODUCCIÓN 2. ¿CÓMO REALIZAR UN ANÁLISIS ESTADÍSTICO?

Diremos que una variable estadı́stica es continua si, dados dos valores distintos de
la variable, entre ellos hay infinitos posibles valores de la variable, por muy próximos
que estén entre sı́. Por ejemplo: peso, tiempo...

Por otra parte, dentro de los atributos (también llamados variables cualitativas), cabe
distinguir dos categorı́as: los atributos que son simples nombres y/o categorı́as (atributos
categóricos) y los atributos ordinales que además permiten algún tipo de ordenación.
Por ejemplo, el estado civil es un atributo categórico, mientras que el grado de satis-
facción o el nivel de estudios son atributos ordinales.
Es muy importante, en el caso de los atributos, no confundir los números que se pueden
utilizar para codificar las distintas categorı́as con valores resultantes de una medición. NO
podremos realizar operaciones aritméticas con estos números.
Otra cuestión muy importante, que se debe tener en cuenta antes de realizar un análisis
estadı́stico es qué es lo que queremos o podemos hacer, en función del tamaño de la
población objeto de estudio.
Si la población es pequeña y podemos obtener datos de todos los elementos de la
misma, lo que haremos será un análisis descriptivo (Estadı́stica Descriptiva).
Pero, si la población es muy grande (infinita o tan grande que no podemos abordarla en
su totalidad), no nos queda más remedio que tomar una ((muestra representativa)), analizar
dicha muestra y luego estudiar bajo qué condiciones podemos extender los resultados
obtenidos con la muestra a toda la población o si podemos inferir algún resultado para la
población. En esto consiste la Inferencia Estadı́stica.

Una vez que tenemos claros estos conceptos, para realizar un análisis estadı́stico, ge-
neralmente seguiremos los siguientes pasos:

Paso 1: Establecemos la población que queremos estudiar.

Paso 2: Determinamos las caracterı́sticas que nos interesa analizar de dicha pobla-
ción.

Paso 3: Recogemos los datos.

Paso 4: Realizamos el análisis de datos.

Paso 5: Exponemos nuestras conclusiones.


Parte I

Estadı́stica Descriptiva

11
Tema D 1

Estadı́stica Descriptiva
unidimensional

Este tema se va a desarrollar en las clases prácticas con ordenador, por lo que aquı́
sólo se presenta la parte teórica para que el contenido del curso esté completo en
los Apuntes.
En cualquier caso, se recomienda su lectura al inicio del curso, ya que algunos
de los conceptos que se desarrollarán para variables aleatorias son análogos a los
que se ven en este tema para las variables estadı́sticas.

En este tema veremos cómo realizar el análisis descriptivo completo de una variable
unidimensional.
Primero nos haremos una idea de su comportamiento con el resumen de los datos
y algunos gráficos elementales y, a continuación, veremos cómo calcular las principales
medidas que nos permitirán describir con precisión el comportamiento de dicha variable.
Esta descripción la haremos interpretando correctamente todos los resultados obtenidos.
Los epı́grafes del tema son los siguientes:

Resumen de los datos: tablas de frecuencia.

Gráficos unidimensionales.

Medidas de tendencia central y de posición: media aritmética, mediana, moda, media


geométrica, media armónica y percentiles.

Medidas de dispersión absolutas y relativas: Recorrido, varianza, desviación tı́pica,


cuasivarianza, cuasidesviación tı́pica, recorrido relativo y coeficiente de variación.

Medidas de forma: asimetrı́a y curtosis.

Gráfico de cajas

Medidas de concentración.

13
14 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Para describir el comportamiento de una caracterı́stica, a partir de la masa de datos


que nos proporciona la observación de la misma en la población, llevaremos a cabo una
serie de operaciones como son:

La reducción de la masa de datos, mediante la construcción de tablas de frecuencias


y la realización del algunos gráficos.

Por otra parte, en el caso de las variables cuantitativas, también podemos tomar
algunas medidas que nos permitan caracterizar el comportamiento de la variable.
Para ello debemos calcular algunos estadı́sticos como son las medidas de posición,
de dispersión y de forma.

Con todo ello, podemos describir perfectamente el comportamiento de nuestra variable.

1.1. Resumen de los datos: tablas de frecuencia

Una vez que hemos determinado cuál es la población que queremos estudiar y qué
caracterı́sticas queremos analizar, el siguiente paso es la recogida de datos.
Para cada individuo, obtendremos tantos valores como caracterı́sticas estemos anali-
zando. Ası́, si en una población solo nos interesa la edad, para cada individuo tendremos
un único valor: su edad; pero si nos interesa la edad, antigüedad en la empresa, estado
civil y salario, para cada individuo tendremos 4 valores.
En el primer caso diremos que obtenemos una variable unidimensional (E=edad) y en
el segundo caso, tenemos una variable de dimensión 4 (E, A, C, S).
En realidad, la variable de dimensión 4, está formada por 4 variables unidimensionales,
con la particularidad de que los valores de cada 4-tupla, corresponden al mismo individuo
o elemento de la población. En este curso, solo nos vamos a ocupar de los análisis de
variables unidimensionales y bidimensionales.
Para comenzar nos vamos a referir al estudio de un único carácter poblacional y por
lo tanto a una variable unidimensional (por ahora no vamos a distinguir entre variables
cualitativas y cuantitativas).
Las variables, en general, se suelen nombrar con una letra mayúscula (E, A, X, Y, . . . ).
Cuando observamos una variable en una población, obtenemos una serie de valores dis-
tintos para esa variable: 18, 19, 20,..., o soltero, casado, viudo,... Los distintos valores
observados de la variable se suelen nombrar con la misma letra que la variable pero en
minúscula.
Al observar una caracterı́stica, X, de la población podemos obtener unos valores (dis-
tintos entre sı́): x1 , x2 , ..., xk . Además, cada uno de los valores distintos observados de la
variable, puede aparecer una o más veces.
Definimos:
1.1. RESUMEN DE LOS DATOS: TABLAS DE FRECUENCIA 15

Frecuencia absoluta de un determinado valor, xi , de la variable (y la represen-


taremos por ni ): es el número de veces que se presenta ese determinado valor xi .

Frecuencia relativa de un determinado valor, xi , de la variable (y la representa-


remos por fi ): es la proporción de veces que aparece ese valor en el conjunto de
observaciones y se calcula como el cociente de su frecuencia absoluta (ni ) y el núme-
ro total de datos.

Frecuencia absoluta acumulada de un determinado valor, xi , de la variable (y


la representaremos por Ni ): es la suma de las frecuencias absolutas de todos los va-
lores de la variable menores o iguales que dicho valor xi .

Ni = ij=1 nj = n1 + · · · + ni , Nk =N.
P

Frecuencia relativa acumulada de un determinado valor, xi , de la variable (y la


representaremos por Fi ): es la suma de las frecuencias relativas de todos los valores
de la variable menores o iguales que dicho valor, xi .

Fi = ij=1 fj = f1 + · · · + fi = NNi , Fk =1.


P

Las frecuencias acumuladas solo tienen sentido si la escala es ordinal o cuantitativa.


Cuando en un conjunto de valores observados de una variable se realizan las opera-
ciones de ordenación y agrupación de los valores que se repiten (determinación
de la frecuencia de cada valor), se obtiene una tabla estadı́stica de distribución de
frecuencias.
A dicho conjunto de operaciones se le denomina tabulación.
Nota: en el caso de los atributos, los valores se pueden escribir en cualquier orden,
pero si son atributos ordinales, el construir la tabla con los valores ordenados, facilita la
comprensión de la misma.
Para ver cómo se emplean estos conceptos, consideremos el siguiente ejemplo:
Población: La plantilla de una pequeña empresa, formada por 20 jóvenes.
Variable: edad, expresada en años.
Valores observados:
18 20 22 19 18
20 18 19 21 20
20 21 18 20 21
19 20 21 18 20
Entonces, si llamamos X a la variable edad, los valores xi distintos que hemos observado
son: 18, 19, 20, 21 y 22.
La correspondiente tabla de frecuencias será:
16 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

xi ni Ni fi Fi
18 5 5 5/20 5/20
19 3 8 3/20 8/20
20 7 15 7/20 15/20
21 4 19 4/20 19/20
22 1 20 1/20 1
20 1

Ejemplo: Para las notas de 100 alumnos, vamos a construir la tabla de frecuencias:

4 1 5 6 3 5 2 4 4 6
3 4 0 4 7 7 3 4 8 6
8 3 4 5 3 6 9 6 1 5
1 0 1 2 1 3 2 7 5 6
5 4 3 5 5 4 7 5 2 1
2 1 2 3 1 3 5 2 5 5
7 5 3 5 4 6 6 4 7 7
6 0 2 4 2 4 7 3 3 2
8 4 6 6 4 5 10 6 4 7
8 2 4 6 4 4 4 2 6 7

La correspondiente tabla de frecuencias será:

xi ni Ni fi Fi
0 3 3 0.03 0.03
1 8 11 0.08 0.11
2 12 23 0.12 0.23
3 12 35 0.12 0.35
4 20 55 0.20 0.55
5 15 70 0.15 0.70
6 14 84 0.14 0.84
7 10 94 0.10 0.94
8 4 98 0.04 0.98
9 1 99 0.01 0.99
10 1 100 0.01 1.00
100 1

Las distribuciones de frecuencias se pueden clasificar de acuerdo con el número de los


valores observados de la variable, ası́ como con el número de observaciones totales:

En el caso de pocas observaciones y pocos valores de la variable, no es necesario


realizar la operación de agrupamiento. En este caso, únicamente procede realizar
una ordenación de los valores de la variable. Esta ordenación no supone tratamiento
estadı́stico alguno, pues para que exista ((tratamiento estadı́stico)) se debe disponer
de una ((masa de datos)).
1.1. RESUMEN DE LOS DATOS: TABLAS DE FRECUENCIA 17

Ejemplo: Variable: peso fı́sico


Valores observados: 50, 64, 80, 72.
Número de observaciones : 4
El único tratamiento posible es la ordenación de los valores.

Lógicamente cuando hay muchos valores, no puede haber pocas observaciones.

Cuando disponemos de muchas observaciones, correspondientes a pocos valores de la


variable aparecen las tablas de frecuencias. Generalmente este tipo de distribuciones
se presenta para variables discretas, ya que es poco realista que al realizar muchas
observaciones de una variable continua, se obtengan pocos valores diferentes.
Como ejemplo de una distribución de este tipo, puede servir el ejemplo anterior de
los 20 empleados. O bien, estudiar la variable edad, con precisión de años, en los
alumnos de primera matrı́cula en la Universidad de La Rioja.

Si son muchas las observaciones y muchos los valores observados de la variable, en


ocasiones se procede previamente a la agrupación de los valores de la variable en
intervalos. Cuando esto ocurre, se habla de tablas agrupadas en intervalos. Este
tipo de tablas es aplicable tanto a las variables discretas (cuando es muy elevado el
número de valores), como a las variables continuas.

En este último caso, lo primero que se hace es agrupar los valores de la variable en
intervalos, que pueden ser de amplitud constante o no, y calcular las frecuencias en cada
intervalo.
Para agrupar los datos en intervalos o clases, debemos comenzar determinando el
recorrido o rango de la variable, que se define como la diferencia entre el mayor y el
menor valor de la variable:
Re = máx xi − mı́n xi
Este recorrido se divide entonces en intervalos. Lo más cómodo para el tratamiento pos-
terior de la distribución es que los intervalos sean de amplitud constante, pues entonces:
Re= número de intervalos × amplitud, lo cual permite deducir:
- el número de intervalos, si fijamos la amplitud
- la amplitud, si fijamos el número de intervalos.
No existen reglas fijas para determinar el número idóneo de intervalos, hasta el punto
de que a veces se hacen varias pruebas hasta conseguir resaltar las caracterı́sticas del
fenómeno. Cuando no existen otras indicaciones, un valor comúnmente aceptado es un
número próximo a raı́z cuadrada de N (siendo N el número total de observaciones)
Cada intervalo queda especificado por sus lı́mites. En general para el intervalo i-ésimo,
estos lı́mites se representan por li−1 y li , donde li−1 es el lı́mite inferior y li el lı́mite
superior.
Un problema que puede surgir es que el valor de la variable coincida exactamente con
el lı́mite del intervalo. Para evitar que aparezcan situaciones conflictivas, es conveniente
18 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

especificar el tipo de intervalo. Generalmente se utiliza: abierto por la izquierda y cerrado


por la derecha: (a, b] o ]a, b]. Lo cual significa que dentro del intervalo se incluyen los
valores comprendidos entre a y b, incluido b y excluido a.
Para facilitar el manejo matemático de los intervalos, es preciso considerar un valor
concreto de la variable como representante de cada intervalo. Generalmente se toma como
tal el valor central del intervalo, y se le denomina marca de clase.
Ejemplo: en una escuela, las notas de Fı́sica de 100 estudiantes fueron:

4.4 1.1 4.6 5.8 2.5 4.8 1.8 4.1 3.5 5.9
2.9 3.5 0.2 3.7 6.8 7.0 3.1 4.4 8.4 6.4
8.2 2.6 4.2 5.1 2.9 5.9 9.2 5.6 0.5 5.2
0.8 0.1 1.2 4.7 2.1 0.6 3.2 1.5 6.7 6.1
4.7 4.3 3.3 4.8 4.7 4.3 6.9 4.9 2.1 0.9
1.5 1.1 2.2 2.9 1.4 3.1 4.6 1.9 4.9 5.1
7.1 5.2 3.2 5.1 4.4 5.7 6.0 4.3 6.5 7.3
6.2 0.3 1.7 3.9 2.2 4.0 6.5 3.0 3.1 1.6
8.0 4.1 5.9 6.0 4.1 5.1 1.0 6.3 4.1 7.4
8.1 2.0 3.6 5.9 3.8 4.0 4.3 1.8 6.0 7.1

Puesto que las puntuaciones pueden ir de 0 a 10, es cómodo el hacer 10 intervalos de


longitud constante igual a 1 punto. Los intervalos, las marcas de clase y los distintos tipos
de frecuencias son los siguientes:

(li−1 , li ] xi ni Ni fi Fi
(0, 1] 0.5 8 8 0.08 0.08
(1, 2] 1.5 12 20 0.12 0.20
(2, 3] 2.5 10 30 0.10 0.30
(3, 4] 3.5 14 44 0.14 0.44
(4, 5] 4.5 21 65 0.21 0.65
(5, 6] 5.5 16 81 0.16 0.81
(6, 7] 6.5 10 91 0.10 0.91
(7, 8] 7.5 5 96 0.05 0.96
(8, 9] 8.5 3 99 0.03 0.99
(9, 10] 9.5 1 100 0.01 1

En las distribuciones agrupadas en intervalos se puede presentar el problema de que


el último intervalo sea abierto, es decir, que no tenga lı́mite superior (idéntico problema
se puede presentar con el primer intervalo y el extremo inferior).
Por ejemplo, vamos a considerar la siguiente distribución de frecuencias de los ingresos
mensuales de 1.000 familias:
1.2. GRÁFICOS UNIDIMENSIONALES 19

Intervalo Marca de clase Frecuencia absoluta


(en euros) xi ni
0-1000 500 100
1000-2000 1500 300
2000-3000 2500 400
3000-5000 4000 150
más de 5000 ¿? 50
1000

En la distribución anterior no se puede determinar directamente la marca de clase


correspondiente al último intervalo.
Cuando se conocen los valores individuales de la distribución, lo que suele hacerse
es tomar como marca de clase del último intervalo el promedio de todos los valores que
corresponden al mismo (en este ejemplo se calcuları́a el promedio correspondiente a las
50 familias que cuentan con ingresos superiores a 5000 euros mensuales).
Si no se dispone de esa información individual, no existen criterios objetivos que nos
permitan determinar la marca de clase.
Sin embargo, para el cálculo de ciertas caracterı́sticas de la distribución, como veremos
más adelante, es necesario conocer todas las marcas de clase. En ese caso, se toma como
marca de clase de un intervalo abierto, el valor que, a juicio del que realiza la investiga-
ción, mejor representa el intervalo. Como se puede observar esta es una determinación
arbitraria, pero en ciertos casos, no existe otra solución.
Como ya se ha indicado, se suele tomar como marca de clase el valor central del
intervalo, ya que en principio se considera como el valor más representativo del mismo.
Pero en algunas ocasiones se observa que este criterio es totalmente inaceptable. Ası́,
en el ejemplo anterior, no parece razonable que la marca de clase 500 euros, sea un
buen representante de las 100 familias con ingresos comprendidos entre 0 y 1000 euros.
Lógicamente, cabe suponer que la mayor parte de estas familias se acercarán más a los
1000 euros que a los 0 euros. Para conseguir que la marca de clase sea representativa,
debe adoptarse una solución similar a la adoptada en los intervalos abiertos.

1.2. Gráficos unidimensionales

Como ya hemos comentado, el primer paso en el análisis de los datos consiste en la


reducción de la masa de datos para poder obtener una primera información acerca de las
caracterı́sticas del fenómeno que estamos estudiando.
Para hacernos una idea del comportamiento de una variable, además de las tablas
de frecuencias, suele ser muy útil utilizar representaciones gráficas, que nos permiten
visualizar, si las hay, caracterı́sticas destacables.
Existen gráficos más o menos sofisticados, pero en general contienen la misma infor-
mación. Vamos a comentar algunos de los más elementales.
20 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Distinguiremos los gráficos dependiendo de si nuestra distribución está agrupada en


intervalos o no.

1.2.1. Gráficos para distribuciones no agrupadas en intervalos

Retomemos el ejemplo que vimos al construir las tablas de frecuencias, en el que los
valores observados de una variable, X, fueron los siguientes:

18 20 22 19 18
20 18 19 21 20
20 21 18 20 21
19 20 21 18 20
Para representar estos datos gráficamente, podemos utilizar:

Gráfico de barras:

Este tipo de gráfico, se utiliza para representar valores o frecuencias. Podemos repre-
sentar:

para cada caso, el valor observado de la variable.

para cada valor de la variable, su frecuencia.

En la primera situación, para un sistema de ejes coordenados, dibujamos sobre el eje


horizontal cada uno de los casos y levantamos, para cada uno de estos valores, una barra
cuya altura será igual al valor observado de la variable en ese caso.

Se suele utilizar para representar valores de una variable cuando podemos identificar
los casos.
1.2. GRÁFICOS UNIDIMENSIONALES 21

Por ejemplo:
Si sabemos que la población de las provincias aragonesas (1 de enero de 2008) es la
siguiente:
Provincia Población
Zaragoza 955323
Huesca 225271
Teruel 146324
la podemos mostrar en el siguiente gráfico:

Este gráfico nos informa sobre los valores de la variable para cada caso, por lo que es
interesante para mostrar la información, pero no sirve para resumir la información.

El gráfico de barras es uno de los más usados para representar las frecuencias:
Sobre un sistema de ejes dibujaremos en el eje horizontal los distintos valores de la
variable y en el eje vertical la frecuencia de cada uno de ellos. Para cada valor de la
variable, en el eje horizontal se levanta una barra cuya altura será igual a su frecuencia
absoluta, o a la frecuencia absoluta acumulada.
Estos gráficos también se pueden hacer con los porcentajes –frecuencias relativas mul-
tiplicadas por 100–. En ese caso solo cambia la escala ya que la forma del gráfico queda
exactamente igual.

xi n i Ni fi Fi
18 5 5 5/20 5/20
19 3 8 3/20 8/20
20 7 15 7/20 15/20
21 4 19 4/20 19/20
22 1 20 1/20 1
22 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Para representar frecuencias relativas también es muy útil el:

Gráfico de sectores

Es un gráfico en el que cada sector representa la frecuencia relativa de cada valor de


la variable, respecto al total.
Es útil para visualizar las diferencias de las frecuencias, entre las distintas categorı́as.
1.2. GRÁFICOS UNIDIMENSIONALES 23

1.2.2. Gráficos para distribuciones agrupadas

Histograma

Cuando tenemos distribuciones agrupadas, sobre el eje horizontal se dibujan los inter-
valos y sobre cada uno de ellos se levanta un rectángulo cuya área sea proporcional a la
frecuencia absoluta dentro del intervalo.
Como ya hemos comentado, el número de intervalos y su amplitud, quedan a criterio
del investigador.
IMPORTANTE: si todos los intervalos tienen la misma amplitud, las alturas de los
rectángulos pueden ser iguales a la frecuencia absoluta, pero si hay intervalos de distinta
amplitud (ai ), entonces las alturas (hi ) se calculan dividiendo la frecuencia absoluta por
la amplitud:

ni
hi = , que es lo que se llama densidad de frecuencia.
ai

Por afinidad con la función de densidad (que veremos más adelante), en algunas oca-
siones también se utiliza la densidad de frecuencias relativas, que no es otra cosa que
la proporción de observaciones por unidad de longitud:

0 fi
hi =
ai

Por ejemplo, en el caso de las notas en Selectividad de 225 estudiantes:

7.3 4.2 6.5 4.0 4.7 7.7 8.0 2.2 6.6 3.4 5.6 8.9 7.0 9.9 7.7
7.9 4.4 4.1 3.5 4.0 5.3 3.0 7.8 6.2 6.5 4.3 7.1 7.5 3.0 3.4
5.0 7.4 6.0 6.9 8.8 5.7 6.8 5.1 4.0 6.1 3.3 8.4 9.3 7.2 3.4
5.0 9.8 5.8 9.1 8.3 4.4 8.4 5.4 7.0 5.6 6.3 7.7 6.4 5.8 3.4
0.9 8.1 8.1 6.3 5.7 3.0 4.5 8.5 9.6 7.6 1.8 7.0 2.6 3.2 4.9
3.7 4.3 6.7 3.9 8.5 8.3 3.3 6.4 4.2 8.5 5.9 7.2 7.2 5.8 2.7
5.1 1.2 4.0 5.4 5.2 6.6 1.0 2.7 6.2 9.3 8.1 2.0 9.6 4.5 4.0
6.0 9.2 9.0 8.8 7.3 5.4 6.5 5.1 6.0 8.2 4.7 5.1 4.9 5.6 8.9
8.0 5.4 6.5 3.2 8.1 4.2 2.3 4.0 4.6 7.8 6.7 5.9 6.8 6.2 8.3
6.2 4.8 6.8 7.5 7.4 6.7 4.7 4.5 1.4 3.3 2.1 6.8 6.1 7.6 4.1
1.3 6.7 7.2 8.2 6.2 2.6 5.4 5.0 8.5 6.1 8.7 6.1 0.3 3.9 6.7
4.1 1.7 7.0 6.1 4.8 9.0 5.7 6.2 7.3 8.7 8.5 4.6 8.7 7.3 9.5
5.1 9.1 8.0 1.2 6.3 3.4 3.6 8.7 9.2 3.1 5.4 6.5 3.8 8.2 9.7
3.9 7.7 9.4 5.9 7.7 8.8 6.2 2.3 6.4 7.8 3.6 7.1 4.8 3.6 6.2
7.1 7.8 4.6 6.0 8.9 4.7 8.7 4.3 5.3 6.8 1.8 2.3 6.3 9.1 8.2
24 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Histograma con las densidades de frecuencia:

Y para intervalos de diferente amplitud:

1.3. Medidas de una variable cuantitativa

Como se ha comentado, para hacer manejable la masa de datos procedentes de la


observación estadı́stica, es necesario reducir el volumen de los datos, hemos visto que esto
se puede conseguir construyendo la tabla de distribución de frecuencias.
1.4. MEDIDAS DE POSICIÓN 25

En el caso de las variables cuantitativas, es posible reducir aún más estas distribucio-
nes, valiéndonos de unos pocos números que describan o caractericen a las distribuciones
de frecuencias. Estos números, que reciben el nombre de caracterı́sticas, nos indican los
rasgos más importantes de las distribuciones de frecuencias y se suelen clasificar en los
siguientes grupos:

1. Medidas de posición o promedios. Estos a su vez se dividen en:

Centrales: media aritmética, mediana y moda.


No centrales: cuantiles.

2. Medidas de dispersión.

3. Medidas de asimetrı́a.

4. Medidas de apuntamiento.

Vamos a analizarlas detenidamente.

1.4. Medidas de posición

Las medidas de posición, o promedios, son unos valores alrededor de los cuales se
agrupan los valores de la variable, y que nos resumen la posición de la distribución sobre
el eje horizontal.
Para que un valor pueda ser considerado promedio, se le exige como única condición
que esté comprendido entre el mayor y el menor valor de la variable. Existen dos tipos de
medidas de posición: las centrales y las no centrales.
De las medidas de posición central, las más utilizadas son: la media aritmética, la
mediana y la moda. Entre las medidas de posición no centrales las más importantes son
los cuantiles.

1.4.1. La media aritmética

La media aritmética: se define como la suma de todos los valores observados de la


distribución, dividida por el número total de observaciones.
Si agrupamos los valores que se repiten, la expresión de la media es:

Pk
i=1 xi ni x1 n1 + · · · + xk nk
x̄ = =
N N

Este es el promedio más utilizado en la práctica y esto es ası́ por las ventajas que tiene
y que son fundamentalmente:
26 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Tiene en cuenta todos los valores observados.

Es fácil de calcular y tiene un claro significado estadı́stico.

Es única.

Por otra parte tiene el inconveniente de la influencia que ejercen los valores extremos
de la distribución sobre ella.

Propiedades

1. La suma de las desviaciones (diferencias con el correspondiente signo) de los valores


de la variable, respecto a su media aritmética, es igual a cero.
En efecto:
k
X k
X k
X
(xi − x̄)ni = xi ni − x̄ ni = N x̄ − N x̄ = 0
i=1 i=1 i=1

2. Si tenemos que ui = a + bxi , siendo a y b valores cualesquiera, con b distinto de cero


(lo que equivale a hacer un cambio de origen y escala), la media aritmética puede
expresarse de la forma siguiente: ū = a + bx̄
Comprobarlo es muy sencillo:

k k k k
1 X 1 X 1 X 1 X
ū = ui ni = (a + bxi )ni = a ni + b xi ni =
N i=1 N i=1 N i=1 N i=1
k
N 1 X
=a +b xi ni = a + bx̄
N N i=1
Esta propiedad, eligiendo convenientemente los valores a y de b, es de gran utilidad
en muchos casos, para simplificar el cálculo de la media aritmética.

3. Si en una distribución de frecuencias se clasifican las observaciones en dos grupos


mutuamente excluyentes, la media aritmética de todo el conjunto se relaciona con
las medias aritméticas de los subconjuntos parciales, de la siguiente forma:

x̄1 N1 + x̄2 N2
x̄ =
N
donde:

x̄= media del conjunto total.


N = número de observaciones del conjunto total.
x̄1 =media del primer subconjunto.
N1 = número de observaciones del primer subconjunto.
1.4. MEDIDAS DE POSICIÓN 27

x̄2 =media del segundo subconjunto.


N2 = número de observaciones del segundo subconjunto.
y naturalmente, se verifica que N = N1 + N2

Esta propiedad se puede generalizar para el caso de dividir la población total en p


subconjuntos mutuamente excluyentes. Es decir:

x̄1 N1 + x̄2 N2 + · · · + x̄p Np


x̄ =
N

En donde se cumple que: N = N1 + N2 + · · · + Np

1.4.2. La moda

En una distribución, la moda (Mo) se define como ((aquel valor de la variable cuya
frecuencia no es superada por la frecuencia de ningún otro valor)). Esta definición corres-
ponde a la denominada moda absoluta. La moda relativa se define como ((el valor de la
variable cuya frecuencia no es superada por la de sus valores contiguos)).
Puede darse el caso de que la máxima frecuencia corresponda a dos o más valores de
la variable, en ese caso las distribuciones reciben el nombre de bimodales o multimodales.

En una distribución no agrupada en intervalos, la determinación de la moda absoluta


y las modas relativas es inmediata.
En una distribución agrupada en intervalos la determinación con exactitud de la moda
es imposible, por lo que se suelen hacer algunas suposiciones para poder calcular este valor.
Un criterio válido es tomar como moda la marca de clase del intervalo modal, entonces,
para calcular la moda hay que hacer lo siguiente:
1o ) Determinar cuál es el intervalo modal. El intervalo modal es aquel que tiene mayor
densidad de frecuencia (en el caso de que todos los intervalos tengan la misma amplitud
coincide con el intervalo en el que hay mayor frecuencia absoluta).
2o ) La moda será, entonces, la marca de clase de este intervalo.
28 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

1.4.3. La mediana

Para una distribución discreta no agrupada en intervalos, se define la mediana (Me),


como el valor de la variable que ocupa el lugar central, supuestos ordenados los valores
de menor a mayor. También se puede definir como el valor de la variable que divide a la
distribución en dos partes con el mismo número de observaciones.
Si el número de observaciones es impar, entonces el valor de la mediana es inmediato
(el valor que ocupe el lugar N2+1 ).
Si el número de datos es par, suele tomarse como valor de la mediana, la media
aritmética de los dos valores centrales, es decir, de los que ocupan los lugares N2 y N2+2 .
Naturalmente cuando estos dos valores son iguales, la mediana coincide con el valor común.
En el supuesto de una distribución agrupada en intervalos, la mediana será alguno
de los valores contenidos en el intervalo al que corresponda una frecuencia acumulada
inmediatamente superior a N2 ; el cual se denomina intervalo mediano.
No podemos determinar exactamente cuál de los valores del intervalo es la media-
na, y se pueden seguir varios criterios para elegir uno de ellos. Por simplificar nosotros
tomaremos como mediana, la marca de clase del intervalo mediano.
Propiedad:
La mediana no depende de los valores extremos y por tanto, puede calcularse aún
cuando estos se desconozcan; basta con conocer su frecuencia.
Ejemplos:
xi ni Ni
1 10 10
39+1
2 12 22 2
= 20 luego, Me=2
3 7 29
4 7 36
5 3 39

xi ni Ni
1 10 10
40 40
2 12 22 2
= 20 y 2
+ 1 = 21
3 7 29
4 8 37 luego, Me=2
5 3 40

xi ni Ni
1 10 10
40 40
2 10 20 2
= 20 y 2
+ 1 = 21
3 7 27
4 8 35 luego, Me= 2+3
2
= 2.5
5 5 40
1.4. MEDIDAS DE POSICIÓN 29

(li−1 , li ] ni Ni
10-11 10 10
51
11-12 12 22 2
= 25.5 ⇒ Intervalo mediano 12-13
12-13 12 34
13-14 10 44 Me=marca de clase del intervalo mediano = 12+13
2
= 12.5
14-15 7 51

1.4.4. La media armónica y la media geométrica

Además de la media aritmética, se pueden definir otras dos medias: la media armónica
y la media geométrica. Estas medidas de posición central se utilizan menos que la media
aritmética pero son mucho más adecuada que ésta en algunas ocasiones.
La media armónica se define como:
N N
M a(X) = Pk = n1 n2 nk
ni
x1
+ x2
+ ··· + xk
1=1 xi

Las ventajas de este promedio son:

Es única

Utiliza todos los valores observados de la variable

Tiene el inconveniente de que le influyen mucho los valores de la variable próximos a


cero.
Este promedio se utiliza en variables que miden velocidades, rendimientos y, en general,
para variables que son el cociente de dos magnitudes cuando las frecuencias vienen dadas
por la magnitud del numerador.
La media geométrica se define como:
v
u k q
uY
M g(X) = N
t xi = N xn1 1 xn2 2 . . . xnk k
ni

i=1

Tiene como ventaja, que en su cálculo se usan todos los valores observados de la
variable.
Tiene el inconveniente de la influencia que ejercen los valores cercanos a cero y los
valores negativos si N es par.
Este promedio se utiliza en variables que miden porcentajes, tasas o números ı́ndices.
Propiedades de la media armónica y la media geométrica
30 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

La inversa de la media armónica es igual a la media aritmética de los inversos de


los valores observados. Es decir:
Pk 1
1 1=1 xi ni
=
M a(X) N

El logaritmo de la media geométrica es igual a la media aritmética de los logaritmos


de los valores observados. Es decir:
Pk
ln(xi )ni
ln(M g(X)) = 1=1
N
En cualquier conjunto de observaciones, si se pueden calcular, siempre se cumple
que:
M a(X) < M g(X) < X̄

1.4.5. Medidas de posición no central

Además de las medidas de posición centrales vistas hasta ahora, existen otros valores,
no centrales, que pueden considerarse como indicadores de una determinada posición en
la distribución.
Estos valores, llamados generalmente cuantiles, constituyen una generalización del
concepto de la mediana.
Ası́ como la mediana divide a la distribución en dos partes, cada una con el mismo
número de observaciones que la otra, si dividimos la distribución en cuatro partes, cada
una de ellas con el mismo número de observaciones, obtendremos tres valores, que se
denominan cuartiles.
Análogamente, si dividimos la distribución en diez partes con el mismo número de
observaciones, obtendremos nueve valores, que se denominan deciles. Y si la dividimos
en cien partes, los correspondientes noventa y nueve valores se denominan percentiles.
En general, los q − 1 valores que dividen a la distribución en q partes con el mismo
número de observaciones se denominan cuantiles de orden q.
La determinación de los cuantiles en una distribución no agrupada en intervalos, es
análoga a la de la mediana.

En general, el r-ésimo cuantil de orden q, será aquel valor de la variable al cual


rN
corresponde una frecuencia acumulada inmediatamente superior a .
q
Por ello, el cuantil r-ésimo de orden q será el valor de la variable que ocupa el lugar
r
(N − 1) + 1.
q

Cuando se trate de una distribución agrupada en intervalos, ya sabemos que no vamos


a poder calcular el valor exacto, pero lo podemos aproximar tomando la marca de clase
1.5. MEDIDAS DE DISPERSIÓN 31

del intervalo en el que se encuentra el cuantil correspondiente, y que es el primer intervalo


rN
con frecuencia acumulada mayor que .
q
Por ejemplo, los valores que encierran el 70 % central de la distribución serán los
percentiles: 15 y 85.

1.5. Medidas de dispersión

Las medidas de posición que acabamos de estudiar tienen como misión, no solo situar
la distribución en el eje real, sino que además sintetizan la información que proporciona
la distribución.
El promedio con el que representamos una distribución llevará a cabo esta misión con
mayor o menor fidelidad dependiendo de la relación que exista entre los valores de la
variable y el promedio.
Ası́, si todos los valores fueran iguales, la media, por ejemplo, coincidirı́a con todos
ellos por lo que representarı́a fielmente a la distribución.
A medida que los valores individuales de la variable difieran del promedio, la repre-
sentatividad de este será cada vez menor.
Por ello, para evaluar la representatividad de un promedio, necesitamos un indicador
que, de alguna forma, nos cuantifique el grado de separación de los valores de la variable
respecto al promedio en cuestión.
En este apartado estudiaremos las medidas de dispersión. Hay que tener en cuenta
que existen dos tipos de medidas de dispersión: las absolutas y las relativas.

1.5.1. Medidas de dispersión absoluta

Con las medidas de dispersión absolutas se trata de medir la separación que, por
término medio, existe entre los distintos valores de la variable, por lo que serán medidas
que vendrán expresadas en la misma clase de unidades que la variable.
Las principales medidas de dispersión absoluta son:

El recorrido o rango

El recorrido o rango o amplitud se define como la diferencia entre el mayor y el


menor valor de la variable. Es decir : Re = máx xi − mı́n xi = xk − x1
Si tenemos dos conjuntos de individuos en los que estamos estudiando la caracterı́stica
((peso)), si el recorrido del primer conjunto es Re(1)= 10 kg y el del segundo es Re(2)=5
kg, podemos considerar que la primera población tiene mayor dispersión absoluta que la
segunda.
32 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

El inconveniente de esta medida es que solo tiene en cuenta los valores extremos.

La varianza

De todas las medidas de dispersión absoluta, la varianza y su raı́z cuadrada, la des-


viación tı́pica, son las más importantes.
Hasta ahora, al hablar de dispersión absoluta, no nos hemos referido a la solución
que parece más simple: promediar las desviaciones respecto
P a la media aritmética, con el
(xi − x̄)
signo correspondiente. Es decir, considerar la suma , pero como ya vimos en
P N 
(xi − x̄)
las propiedades de la media, esta suma es nula = 0 y es por esto por lo que
N
no podemos utilizarla como medida de dispersión.
Ahora bien, si esta suma es igual a cero es porque las desviaciones positivas compen-
san exactamente las negativas, por lo que, podemos eliminar el problema utilizando una
potencia par de las desviaciones.
De todas las potencias pares, elegimos la más sencilla, y surge ası́ la nueva medida de
dispersión denominada varianza, que definimos como la media aritmética de los cuadrados
de las desviaciones de los valores observados de la variable respecto a la media aritmética
de la distribución. Se representa por S02 y es:

Pk
02 i=1 (xi− x̄)2 ni
S =
N

Evidentemente, el valor numérico de S02 describe el mayor o menor grado de dispersión


de la distribución de frecuencias que se considere.
En general, cuanto más dispersas sean las observaciones, mayores serán las desviaciones
respecto a su media, y mayor por tanto, el valor numérico de la varianza.
Propiedades:

1. La varianza nunca puede ser negativa: S02 ≥ 0


Es evidente ya que es una media de cuadrados.

2. La varianza se puede calcular (desarrollando la expresión anterior) como:


Pk
02 x2i ni
S = i=1
− x̄2
N

3. La varianza no se altera ante un cambio de origen. Es decir, que si hacemos el


cambio: ui = xi + a, la varianza de la variable U , es la misma que la de la variable
X.
En efecto: como ui = xi + a, sabemos que: ū = x̄ + a y por lo tanto: ui − ū = xi − x̄
1.5. MEDIDAS DE DISPERSIÓN 33

Elevando al cuadrado, multiplicando por ni , sumando para todos los valores de i y


dividiendo por N , tenemos que:
Pk 2
Pk 2
02 i=1 (ui − ū) ni i=1 (xi − x̄) ni
S (U ) = = = S02 (X)
N N
4. Si se hace un cambio de origen y de escala, es decir, si se efectúa el cambio de
variable: ui = a + bxi , las varianzas de las dos variables están relacionadas por la
expresión: S02 (U ) = b2 S02 (X).
En efecto: si hacemos un cambio de origen y de escala tenemos que: ui = a + bxi y
entonces ū = a + bx̄, restando ambas igualdades tenemos que : ui − ū = b(xi − x̄).
Elevando al cuadrado, multiplicando por ni , sumando para todos los valores de i y
dividiendo por N , se obtiene como resultado:
Pk 2
Pk 2 2
Pk 2
02 i=1 (ui − ū) ni i=1 b (xi − x̄) ni i=1 (xi − x̄) ni
S (U ) = = =b 2
= b2 S02 (X)
N N N
Ejemplos de cálculo de la varianza:
xi x2i Cinco observaciones que no se repiten (frecuencias iguales a 1)
0 0
Pk Pk
i=1 xi n i i=1 xi 10
1 1 x̄ = = = =2
N N 5
2 4
Pk Pk
02 x2i ni x2i 30
3 9 S = i=1
− x̄2 = i=1
− x̄2 = − 22 = 2
N N 5
4 16
10 30

xi ni xi ni x2i ni Diez observaciones, con cuatro valores distintos que se repiten


0 2 0 0
Pk
i=1 xi ni 17
1 3 3 3 x̄ = = = 1.7
N 10
2 1 2 4
Pk
02 x2i ni 43
3 4 12 36 S = i=1
− x̄2 = − 1.72 = 1.41
N 10
10 17 43

La desviación tı́pica

La varianza de la variable viene expresada en unidades de distinto orden que la variable


a la que se refiere. Ası́, si la variable se refiere a la estatura, expresada en centı́metros, la
varianza será un cierto número expresado en centı́metros cuadrados. Esta es la razón por
la que, para obtener una medida de dispersión, pero expresada en las mismas unidades
que la variable, se emplea la desviación tı́pica o desviación estándar, que es igual a
la raı́z cuadrada de la varianza, con signo positivo. Se representa por S0 :
s
Pk 2
i=1 (xi − x̄) ni
p
0 02
S =+ S =+
N
34 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Al venir expresada en las mismas unidades que la variable, permite su comparación


con los valores de la variable.
Las propiedades de la desviación tı́pica se deducen fácilmente de las de la varianza.

La cuasivarianza

Es una medida muy similar a la varianza (la única diferencia para el cálculo está en
el denominador):
Pk
2 (xi − x̄)2 ni
S = i=1
N −1
y es muy utilizada en Inferencia Estadı́stica.

La cuasidesviación tı́pica

Es la raı́z cuadrada positiva de la cuasivarianza.


s
Pk 2
i=1 (xi − x̄) ni
p
2
S=+ S =+
N −1

1.5.2. Medidas de dispersión relativa

Con las medidas de dispersión relativas, se trata de medir la dispersión, con inde-
pendencia de la clase de unidades en que venga expresada la variable. Estas medidas,
permiten comparar la dispersión existente en dos distribuciones, cuyas variables vengan
expresadas en distinta clase de unidades.
De entre las medidas de dispersión relativa, llamadas también ı́ndices de dispersión,
las más importantes son:

El recorrido relativo

Se define como el cociente entre el recorrido de la variable y la media aritmética:


Re
Rr =
|x̄|

Nos indica el número de veces que el recorrido contiene a la media aritmética.

El coeficiente de variación o ı́ndice de dispersión de Pearson

Es el más empleado de los ı́ndices de dispersión relativos. Se designa por CV:


S0
CV =
|x̄|
1.6. MEDIDAS DE FORMA 35

Este número nos indica el número de veces que la desviación tı́pica contiene a la media,
o lo que es lo mismo, el tanto que representa S0 por cada unidad de x̄ (es un tanto por
uno). También se puede interpretar como la expresión de S0 empleando como unidad de
medida la media aritmética.
Tanto en la determinación de la desviación tı́pica como en la de la media, se utilizan
todos los valores de la distribución, por lo que es el ı́ndice más completo de los que venimos
estudiando.
Puesto que el valor mı́nimo que puede tomar S0 es cero, este es también el mı́nimo
valor (en valor absoluto) que puede tomar el coeficiente de variación y que corresponde
al caso de máxima representatividad de la media aritmética.
Para dos distribuciones con igual dispersión absoluta, el coeficiente de variación es
tanto menor cuanto mayor sea la media aritmética.
Ej.: Desviación tı́pica de 2 kg en el peso de un bebé (media 7 kg) y en el peso de un
adulto (media 75 kg). Los coeficientes de variación son, respectivamente, 2/7 y 2/75.
Por último, debemos hacer notar que este coeficiente no está definido cuando la media
aritmética de la distribución es igual a cero.

Variables tipificadas

Para poder comprara los valores de dos variables diferentes, tenemos que reducirlos a
una distribución con las mismas caracterı́sticas. Para eso se utilizan las variables tipifica-
das.

Diremos que una variable es una variable centrada, si su media aritmética es igual
a cero.
Llamaremos variable tipificada o estandarizada, a aquella que tiene media aritméti-
ca igual a cero y cuasidesviación tı́pica igual a 1.
A partir de cualquier variable X, siempre podemos construir:

Una variable centrada (restándole su media): Y = X − x̄, es una variable centrada


Una variable tipificada (centrándola y dividiendo por la cuasidesviación tı́pica):
X − x̄
Z= , es una variable tipificada
S

Una vez tipificados los valores, estos son comparables.

1.6. Medidas de forma

Ahora vamos a completar un poco más el análisis de una distribución, ya que con
el estudio hecho hasta ahora, lo que hacemos es globalizar el comportamiento de una
36 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

variable en un promedio y en la dispersión respecto a ese promedio, dejando de lado toda


la disparidad, es decir, toda la variedad del comportamiento de la variable, fuera de la
media.
Esta variedad se pone de manifiesto cuando representamos gráficamente la distribu-
ción.
Pues bien, en este apartado nos vamos a referir a ciertas medidas que nos van a dar una
idea de la forma de la distribución, sin necesidad de realizar su representación gráfica.
La forma de una distribución de frecuencias puede ser muy variada.
En una distribución campaniforme simétrica coinciden la media, la mediana y la moda
y estas condiciones sugieren distribuciones cuyas frecuencias absolutas o relativas den
lugar a representaciones del tipo:

Una curva continua, que puede servir como modelo matemático de ambos casos, es la
curva Normal de Gauss, que tiene la forma siguiente:

Y cuyas caracterı́sticas son:

1. Es simétrica.

2. Me = Mo = x̄

3. Tiene como expresión:


1 (x−µ)2
f (x) = √ e− 2σ2
σ 2π
1.6. MEDIDAS DE FORMA 37

donde µ es la media y σ es la desviación tı́pica.

Evidentemente, no existe en la realidad ninguna variable cuya distribución de frecuen-


cias relativas dé lugar a una curva ası́, pero se puede construir un modelo matemático o
distribución de probabilidades con las propiedades citadas.
Dicho modelo es la distribución NORMAL cuya representación gráfica es la curva de
Gauss y éste será el modelo de comparación para la simetrı́a y la curtosis de cualquier
distribución de frecuencias.

1.6.1. Medidas de simetrı́a y asimetrı́a

Las medidas de simetrı́a nos permiten establecer un indicador del grado de simetrı́a
o asimetrı́a que presenta la distribución, sin necesidad de llevar a cabo su representación
gráfica.
Diremos que una distribución es simétrica cuando lo es su representación gráfica en
coordenadas cartesianas. Es decir, que al trazar una recta paralela al eje de ordenadas
por el punto x, existen el mismo número de valores xi a ambos lados de dicha recta,
equidistantes y a los que corresponda igual frecuencia.
Si la distribución es simétrica, el eje de simetrı́a de su representación gráfica será
una recta paralela al eje de ordenadas que pasa por el punto cuya abscisa es la media
aritmética (como puede comprobarse al recordar la primera propiedad de la media). Por
ello, cuando la distribución es asimétrica, se suelen comparar los valores de la distribución
con este promedio.
Existen varios coeficientes, A, que nos permiten determinar la simetrı́a o el grado de
asimetrı́a de una distribución, pero para cualquiera de ellos la interpretación es la misma:

Un coeficiente de asimetrı́a muy sencillo, aunque en algunos casos bastante impreciso,


es el coeficiente de asimetrı́a de Pearson:
Basándose en el hecho de que en una distribución simétrica unimodal se verifica que:
38 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

x̄ = Mo = Me, Karl Pearson propuso como coeficiente de asimetrı́a el siguiente:

x̄ − Mo
AP =
S’

Si la distribución presenta asimetrı́a positiva, la media está desplazada a la derecha


de la moda, por lo que se verifica que: x̄ − Mo > 0.
Por el contrario, si la distribución es asimétrica negativa, x̄ − Mo < 0.
Por lo tanto, el signo de AP nos indica el de la asimetrı́a:
- Si AP = 0, la distribución es simétrica
- Si AP > 0, la distribución es asimétrica positiva (a la derecha)
- Si AP < 0, la distribución es asimétrica negativa (a la izquierda)

Relación entre la media aritmética, la mediana y la moda

En realidad estos tres promedios no deben emplearse de forma excluyente. Cada uno
tiene su significado y se relacionan con aspectos diferentes de la distribución. No obstante
existe cierta relación entre ellos que es conveniente saber.
En las distribuciones de frecuencias Normales (se estudiará más adelante), coinciden
exactamente los tres promedios. Si la distribución es acampanada pero no presenta
simetrı́a, la mediana está situada entre la moda y la media aritmética.

Si la asimetrı́a es a la derecha: Mo < Me < x̄


Si la asimetrı́a es a la izquierda: x̄ < Me < Mo

1.6.2. Medidas de curtosis o apuntamiento

Las medidas de curtosis se aplican a distribuciones campaniformes, es decir, unimo-


dales simétricas o con ligera asimetrı́a.
En esencia, las medidas de curtosis tratan de estudiar la distribución de frecuencias
en la ((zona central)) de la distribución.
1.6. MEDIDAS DE FORMA 39

La mayor o menor agrupación de frecuencias alrededor de la media y en la zona


de las colas, dará lugar a una distribución más o menos apuntada. Por esta razón a las
medidas de curtosis se les llama también de ((apuntamiento)).
Con el coeficiente de curtosis se trata de medir el grado de apuntamiento de una
distribución comparándolo con el de la distribución NORMAL.
Existen varios coeficientes que nos permiten calcular la curtosis, pero en todos los
casos la interpretación es la misma:
- Si K = 0 , se dice que la distribución es mesocúrtica (normal).
- Si K > 0 , la distribución es leptocúrtica (más apuntada que la normal).
- Si K < 0 , la distribución es platicúrtica (menos apuntada que la normal).

Ambas curvas tienen la misma media y la misma desviación tı́pica

1.6.3. El gráfico de cajas

Un diagrama de cajas es una representación gráfica que nos indica, entre otras cosas,
la posición, la dispersión absoluta y la asimetrı́a de la distribución.
Básicamente, tiene la siguiente estructura:

Valor extremo

Valor atípico

Tercer cuartil: Q3

Mediana: Me

Primer cuartil: Q1
40 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

También se pueden hacer gráficos de cajas basados en la media y la desviación tı́pica,


pero en descriptiva suele ser más útil este gráfico basado en los cuartiles.

1.7. Medidas de concentración

En el cálculo de la media aritmética, el numerador es la suma de todos los valores


observados de la variable.
En muchos casos, dicho numerador no tiene sentido estadı́stico claro, por ejemplo, en
una distribución de alturas, serı́a la suma de todas las alturas. Pero en otros casos, en
particular cuando se trata de variables de carácter socio-económico, sı́ que lo tiene: ası́ en
una distribución de salarios, el numerador de la media aritmética representarı́a la masa
total de salarios.
Pues bien, las medidas de concentración tienen por finalidad, precisamente, medir la
uniformidad del reparto de dicha masa total.
Si todos los trabajadores perciben el mismo salario, la uniformidad de dicho reparto
serı́a absoluta. Si, por el contrario, la masa total fuese percibida por un solo trabajador,
entonces la falta de uniformidad serı́a total.
En general, las medidas de concentración tratan de poner de relieve el mayor o menor
grado de igualdad en el reparto de la suma total de los valores de la variable.
Son, por tanto, indicadores del grado de equidistribución de la variable.
Para calcularlas habrá que relacionar el porcentaje acumulado de frecuencias (Pi ) y el
porcentaje acumulado del total de la variable considerada (Qi ).
Supongamos la siguiente distribución de salarios mensuales en euros.
xi ni
xi ni xi ni pi = fi qi = P Pi Qi
xi ni
800 10 8000 10/50=0.2 8000/80000=0.1 0.2 0.1
1500 20 30000 20/50=0.4 30000/80000=0.375 0.6 0.475
2000 15 30000 15/50=0.3 30000/80000=0.375 0.9 0.85
2400 5 12000 5/50=0.1 12000/80000=0.15 1 1
50 80000

(80000 es la masa salarial total).


Los datos de esta tabla representan:

pi , son las frecuencias relativas de trabajadores (proporción de trabajadores que


están en cada grupo, respecto al total).
Los 10 trabajadores que ganan 800e representan un 20 % del total de trabajadores;
los 15 que ganan 2000e representan un 30 % del total de trabajadores;...

Pi , son las frecuencias relativas acumuladas de trabajadores (proporción, respecto


al total, de trabajadores acumulados comenzando por los que menos ganan).
1.7. MEDIDAS DE CONCENTRACIÓN 41

qi , masa de salario que se reparte entre los miembros de la clase i-ésima, relativa a
la masa salarial total.
Los 10 trabajadores que ganan 800e se reparten un 10 % de la masa salarial total;
los 15 que ganan 2000e se reparten un 37.5 % de la masa salarial total...

Qi , masa de salario acumulado hasta la clase i-ésima, comenzando por los que menos
ganan, relativa a la masa salarial total.

Si ponemos en relación las columnas Pi y Qi , obtenemos una información que nos


muestra cómo es el reparto de los salarios poniéndonos de relieve la concentración de los
mismos.
Es decir, vamos a relacionar (comenzando por los que menos ganan), la proporción de
individuos con la proporción de la masa salarial que les corresponde en el reparto.
En efecto, ordenados los trabajadores de menor a mayor salario, resulta que el 20 %
de los trabajadores se reparte el 10 % de la masa salarial, el 60 % de los trabajadores el
47.5 % del dinero,...

1.7.1. La curva de Lorenz

La curva de Lorenz se obtiene representando los valores Pi y Qi , y uniendo mediante


lı́neas rectas cada uno con su consecutivo y además (P1 , Q1 ) con el origen (Pi en el eje de
abscisas y Qi en el eje de ordenadas). La dibujamos en tantos por ciento.

Si el reparto hubiese sido equitativo, el 10 % de los trabajadores obtendrı́a el 10 % de


la masa salarial; el 20 % de los trabajadores, el 20 % de la masa salarial; etc... Es decir
Pi = Qi , ∀i, con lo cual la curva de Lorenz coincidirı́a con la diagonal.
Si, por el contrario, todos los trabajadores percibiesen el 0 % de la masa salarial excepto
uno que percibiese el 100 %, entonces la curva de Lorenz estarı́a formada por los lados
inferior y derecho.
42 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

En general, la curva de Lorenz es siempre convexa, y cuanto más convexa es, menos
equitativa es la distribución (mayor concentración); mientras que cuanto más se aproxima
a la diagonal, más equitativa es la distribución (menor concentración).
Si tomamos el área encerrada entre la diagonal y la curva, tenemos:
1) Si Pi = Qi , ∀i, estamos en el caso de mı́nima concentración o máxima igualdad.
Área = 0.
2) Si un solo trabajador percibiese el 100 % de la masa salarial, estarı́amos en el caso
de máxima concentración o mı́nima igualdad. Área = 1×1
2
= 0.5
Por lo tanto, cuanto más se acerque a cero el área, tanto menor será la concentración
y el grado de desigualdad existente en el reparto del total de la variable considerada.

Max Otto Lorenz ( 19 de septiembre de 1876 en Burling-


ton (Iowa) - 1 de julio de 1959 en Sunnyvale, CA)
Fue un economista estadounidense que desarrolló el con-
cepto conocido como curva de Lorenz en 1905, para
describir las desigualdades en las rentas. Publicó este
concepto mientras era doctorando en la Universidad de
Wisconsin-Madison. Su tesis doctoral, publicada en 1906,
llamada ’Teorı́a económica de las tarifas ferroviarias’, no 1
hacı́a referencia alguna al que es, quizás, su concepto más
famoso.
Su carrera fue muy prolı́fica, tanto en publicaciones como
en carrera docente, siendo consultado y empleado en diversas ocasiones por la
Oficina del Censo de los Estados Unidos (equivalente a los diversos INE de España
e Hispanoamérica) y otras instituciones estadounidenses de información estadı́stica.
El término curva de Lorenz parece haber sido usado por primera vez en 1912 en
el libro de texto The Elements of Statistical Method.

1.7.2. Índice de concentración de Gini

Podemos construir un indicador del grado de concentración, comparando el área en-


cerrada entre la curva de Lorenz y la diagonal, con el área del triángulo inferior. Esto es
lo que hace el Índice de Gini.
Como el triángulo inferior tiene área 0.5, el ı́ndice de Gini es el doble del área com-
prendida entre la diagonal y la curva de concentración. (I = Área = 2 × Área).
G 0.5

Para evaluar el área indicadora del grado de concentración, basta con calcular el área de
los distintos triángulos y rectángulos que se forman utilizando cualquier método conocido.
Se puede comprobar que el ı́ndice de Gini se obtiene exactamente mediante la expre-
sión:
1
Información extraı́da de http://es.wikipedia.org/wiki/Max O. Lorenz; foto: imágenes en Google
1.7. MEDIDAS DE CONCENTRACIÓN 43

k
X pi
IG = 2 qi P̂i − 1, donde P̂i = Pi −
i=1
2

Como el área está comprendida entre 0 y 0.5 esto significa que el ı́ndice de Gini está
comprendido entre 0 y 1, lo que nos permite realizar la siguiente interpretación:

IG = 0: No existe concentración (máxima equidad)

IG bajo (próximo a 0): Baja concentración (equidad elevada)

IG alto (próximo a 1): Alta concentración (poca equidad)

IG = 1: Máxima concentración (nula equidad).

Veamos dos ejemplos de cómo calcularlo:


Ejemplo 1 :
Con los datos del ejemplo anterior:
pi
Pi Qi pi qi P̂i = Pi − qi P̂i
2
10/50 8000/80000 10/50 8000/80000 5/50 40000/(50 × 80000)
30/50 38000/80000 20/50 30000/80000 20/50 600000/(50 × 80000)
45/50 68000/80000 15/50 30000/80000 37.5/50 1125000/(50 × 80000)
50/50 80000/80000 5/50 12000/80000 47.5/50 570000/(50 × 80000)
23335000/(50 × 80000)=0.58375

Entonces:

k
X 23335000
IG = 2 qi P̂i − 1 = 2 × − 1 = 2 × 0.58375 − 1 = 0.1675
i=1
50 × 80000

Lo que significa que hay poca concentración. El área encerrada entre la curva de
Lorenz y la diagonal, representa un 16.75 % del área del triángulo inferior. El reparto es
equitativo.
Ejemplo 2 :
Vamos a determinar si existe concentración en el reparto de los salarios que se dan en
la siguiente tabla:
si ni si .ni pi qi Pi P̂i qi P̂i
600 35 21000 35/90 21/102 35/90 17.5/90 367.5/(90 × 102)
1200 40 48000 40/90 48/102 75/90 55/90 2640/(90 × 102)
1800 10 18000 10/90 18/102 85/90 80/90 1440/(90 × 102)
3000 5 15000 5/90 15/102 90/90 87.5/90 1312.5/(90 × 102)
Sumas 90 102000 5760/(90 × 102)=0.629676
44 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

Entonces:
IG = 2 × 0.629676 − 1 = 0.259352

El valor obtenido indica que existe concentración, aunque no muy grande, ya


que el área encerrada por la curva de Lorenz, representa un 25.94 % del área del triángulo
inferior. El reparto de los salarios es bastante equitativo.
1.8. EJEMPLO RESUELTO 45

1.8. Ejemplo resuelto

Vamos a realizar un análisis estadı́stico de una variable unidimensional.


Para dirigir el análisis, a partir de los datos originales iremos respondiendo a una
serie de preguntas utilizando los estadı́sticos adecuados que además deberemos interpretar
correctamente.
Supongamos que tenemos la siguiente información respecto a los salarios (en euros)
de los 1500 trabajadores de una gran empresa:

Salarios No de trabajadores
[1100, 1500] 108
(1500, 1700] 377
(1700, 1900] 575
(1900, 2100] 351
(2100, 2500] 89

1. ¿Cuántos trabajadores cobran entre 1500 y 1700 euros?

2. ¿Qué porcentaje de los trabajadores de la empresa cobran entre 1900 y 2100 euros?

3. ¿Cuántos trabajadores cobran más de 1700 euros?

4. ¿Qué proporción representan los trabajadores que cobran hasta 1900 euros?

5. Dibuja un histograma que represente la distribución de los salarios de los trabaja-


dores de esta empresa.

6. ¿Cuál es el salario más habitual en esta empresa?

7. ¿Qué salario no es superado por el 32.33 % de los trabajadores?

8. ¿Cuál es el salario medio de los trabajadores de esta empresa?

9. ¿Qué desviación tı́pica tienen estos salarios?

10. La distribución de los salarios ¿es homogénea?

11. Si queremos utilizar el salario medio como representante de los salarios en esta
empresa, ¿este salario medio es representativo?

12. Si nos dicen que, para los datos de esta empresa, el coeficiente de asimetrı́a es 0.023
y que el coeficiente de curtosis es -0.120, ¿qué podemos decir respecto a la forma de
la distribución?

13. ¿Existe concentración en el reparto de la masa salarial, en esta empresa?

14. ¿Qué porcentaje de la masa salarial se reparten el 32.33 % de los trabajadores que
menos ganan?
46 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

15. ¿Qué porcentaje de los trabajadores que menos ganan se reparten el 66.23 % de la
masa salarial?

Solución.
Incluimos aquı́ una tabla cuyas columnas iremos construyendo a medida que las nece-
sitamos para responder a las distintas preguntas.
Salarios si ni Ni fi Fi ai hi = naii si ni s2i ni
[1100, 1500] 1300 108 108 0.072 0.072 400 0.27 140400 182520000
(1500, 1700] 1600 377 485 0.2513̂ 0.323̂ 200 1.885 603200 965120000
(1700, 1900] 1800 575 1060 0.3833̂ 0.706̂ 200 2.875 1035000 1863000000
(1900, 2100] 2000 351 1411 0.234 0.9406̂ 200 1.755 702000 1404000000
(2100, 2500] 2300 89 1500 0.0593̂ 1 400 0.2225 204700 470810000
1500 2685300 4885450000

1. ¿Cuántos trabajadores cobran entre 1500 y 1700 euros?


Nos preguntan cuántos trabajadores tienen un salario cuyo valor está dentro de este
intervalo, por lo tanto son: 377 trabajadores.

2. ¿Qué porcentaje de los trabajadores de la empresa cobran entre 1900 y 2100 euros?
Un porcentaje es una frecuencia relativa (proporción) multiplicada por 100, por lo
tanto, serán
351
× 100 = 0.234 × 100 = 23.4 %
1500
3. ¿Cuántos trabajadores cobran más de 1700 euros?
Para responder a esta pregunta podemos utilizar las frecuencias absolutas acumula-
das. Los trabajadores que cobran más de 1700 euros son todos menos los que cobran
un salario menor o igual a dicha cantidad.

N − N2 = 1500 − 485 = 1015

4. ¿Qué proporción representan los trabajadores que cobran hasta 1900 euros?
Nos piden la proporción (frecuencia relativa) acumulada de trabajadores cuyos sa-
larios no superan los 1900 euros.

F3 = 0.706̂

5. Dibuja un histograma que represente la distribución de los salarios de los trabaja-


dores de esta empresa.
En un histograma las áreas de los rectángulos deben ser proporcionales a las fre-
cuencias absolutas correspondientes. En nuestro caso los intervalos tienen distinta
amplitud, por lo que las alturas deben ser las densidades de frecuencia (de este
modo: área= ai hi = ni )
1.8. EJEMPLO RESUELTO 47

6. ¿Cuál es el salario más habitual en esta empresa?


Nos están preguntando por la moda. Primero buscamos el intervalo modal, que es
aquel en el que hay mayor densidad de frecuencia: (1700, 1900]. Entonces, según el
criterio que estamos utilizando, la moda será la marca de clase de este intervalo:
Mo=1800.

7. ¿Qué salario no es superado por el 32.33 % de los trabajadores?


Buscamos el salario tal que el porcentaje de trabajadores con un salario inferior es
del 32.33 %.
Tenemos que la frecuencia relativa acumulada hasta 1700 es 0.3233, por lo tanto, el
salario que estamos buscando es: 1700 euros.

8. ¿Cuál es el salario medio de los trabajadores de esta empresa?


Para calcular la media, como tenemos intervalos y necesitamos utilizar valores con-
cretos de la variable, utilizaremos las marcas de clase (son valores que representan
a todas las observaciones que se encuentran en cada intervalo). Entonces:

k
1 X 1
s̄ = s i ni = 2685300 = 1790.2 euros
N i=1 1500

9. ¿Qué desviación tı́pica tienen estos salarios?


Procediendo de forma análoga al cálculo de la media, calculamos primero la varianza:
k
0 1 X 2 1
S2 = si ni − s̄2 = 4885450000 − (1790.2)2 = 52150.626̂
N i=1 1500

entonces, la desviación tı́pica es:


p
0
S = 52150.626̂ = 228.365117 euros
48 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL

10. La distribución de los salarios ¿es homogénea?


Para estudiar la homogeneidad (lo parecidos que son entre sı́ los salarios), estudia-
remos la dispersión relativa.
S0 228.3651
CV = = = 0.12756
s̄ 1790.2
El coeficiente de variación es muy pequeño (está muy próximo a cero), por lo que
existe muy poca dispersión relativa. Eso indica que la distribución de los salarios es
muy homogénea.

11. Si queremos utilizar el salario medio como representante de los salarios en esta
empresa, ¿este salario medio es representativo?
Sı́, porque al haber poca dispersión relativa esto significa que los salarios tienen poca
dispersión respecto a la media. Es decir que son muy parecidos entre sı́ y parecidos
a la media. Por lo tanto, podemos usar la media como representante de los salarios
de la empresa.

12. Si nos dicen que, para los datos de esta empresa, el coeficiente de asimetrı́a es 0.023
y que el coeficiente de curtosis es -0.120, ¿qué podemos decir respecto a la forma de
la distribución?
Hemos visto, al hacer el histograma que la distribución es campaniforme, por lo
tanto, con estos coeficientes podemos añadir que también es ligeramente asimétrica
a la derecha (muy poco) y ligeramente platicúrtica.

13. ¿Existe concentración en el reparto de la masa salarial, en esta empresa?


Para analizar si existe concentración en el reparto, tendremos que calcular el ı́ndice
de Gini o dibujar la curva de Lorenz. Vamos a hacer ambas cosas.

k
X
IG = 2 qi P̂i − 1
i=1

Vamos a construir una tabla con los cálculos:

si ni si .ni pi qi Pi P̂i qi P̂i


1300 108 140400 108/N 140400/S 108/N 54/N 7581600/(N × S)
1600 377 603200 377/N 603200/S 485/N 296.5/N 178848800/(N × S)
1800 575 1035000 575/N 1035000/S 1060/N 772.5/N 799537500/(N × S)
2000 351 702000 351/N 702000/S 1411/N 1235.5/N 867321000/(N × S)
2300 89 204700 89/N 204700/S 1500/N 1455.5/N 297940850/(N × S)
Sumas 1500=N 2685300=S 2151229750/(N × S)
Entonces:
2151229750
IG = 2 × − 1 = 0.06815
1500 × 2685300
Hay muy poca concentración. El reparto es muy equitativo.
Vamos a resolverlo dibujando la curva de Lorenz. Construimos una tabla con los
valores de Pi y de Qi y dibujamos el gráfico correspondiente.
1.8. EJEMPLO RESUELTO 49

Pi Qi
0.072 0.0523
0.323̂ 0.2246
0.706̂ 0.6623
0.941 0.9238
1 1

Como vemos, el área que queda entre la curva y la diagonal es muy pequeña (el
ı́ndice de Gini nos indica que es menos de un 7 % del área del triángulo inferior),
por lo tanto hay muy poca concentración.

14. ¿Qué porcentaje de la masa salarial se reparten el 32.33 % de los trabajadores que
menos ganan?
Esta pregunta se puede responder con la tabla que hemos construido en el apartado
anterior ya que nos piden relacionar proporciones acumuladas de trabajadores (Pi )
y proporciones acumuladas de masa salarial (Qi ).
El 32.33 % de los trabajadores que menos ganan corresponden a Pi = 0.323̂, y a ellos
les corresponde una masa salarial acumulada de Qi = 0.2246, es decir, un 22.46 %
de la masa salarial total.

15. ¿Qué porcentaje de los trabajadores que menos ganan se reparten el 66.23 % de la
masa salarial?
Esta pregunta se responde de forma análoga a la anterior.
El 66.23 % de la masa salarial (Qi = 0.6623) corresponde a una proporción acumu-
lada de trabajadores Pi = 0.706̂, es decir, al 70.6̂ % de los trabajadores que menos
ganan.
50 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Parte II

Introducción a la Probabilidad y
variables aleatorias.

51
Tema P 1

Sucesos y Probabilidad

1.1. Introducción

Una de las facetas de la Estadı́stica es el estudio de los fenómenos aleatorios o de azar,


es decir, aquellos que producen resultados inciertos. La Probabilidad, como medida de
esa incertumbre, es el fundamento de la Inferencia Estadı́stica. En este tema nos vamos a
iniciar en el estudio de la Teorı́a de Probabilidades.
La Probabilidad es una de las ramas de las Matemáticas más utilizadas en todos los
campos, ya sean cientı́ficos:

En Ingenierı́a para control de calidad

En Economı́a, para análisis de riesgos en seguros o en Matemática Actuarial

En Medicina ... (serie de tiempo de la temperatura, es lo más elemental)

pero también en campos humanı́sticos. Es una disciplina fundamental, por ejemplo,


para la realización de análisis sociológicos.
Vamos a comenzar el curso hablando de la Probabilidad y para ello debemos ponernos
en situación...

En la mayorı́a de las situaciones con las que trabajaremos, vamos a tener que tomar
decisiones y sacar conclusiones aceptando un cierto riesgo, un cierto nivel de incertidumbre
que viene dado por el hecho de que en nuestro estudio no podemos predecir exactamente
el resultado de un experimento o no podemos realizarlo tantas veces como serı́a deseable.
Si lanzamos una moneda al aire (no trucada), no sabemos qué va a ocurrir. Sin em-
bargo, nos interesa poder describir cuál es el comportamiento de los resultados del expe-
rimento ((lanzar una moneda)).

53
54 TEMA P 1. SUCESOS Y PROBABILIDAD

El origen de la Probabilidad hay que buscarlo en el estudio de los juegos de azar. Los
jugadores querı́an saber si habı́a alguna ((regla)) o alguna reguladidad en el comportamiento
del juego que les permitiera conocerlo mejor, para poder ganar.
Nosotros vamos a abordar el estudio de la probabilidad desde el punto de vista
axiomático, según la teorı́a de Kolmogorov.

Andréi Nikoláyevich Kolmogórov (Tambov, 25 de abril de 1903


- Moscú, 20 de octubre de 1987) fue un matemático ruso que
hizo progresos importantes en los campos de la teorı́a de la
probabilidad y de la topologı́a.
En particular, estructuró el sistema axiomático de la teorı́a
de la probabilidad a partir de la teorı́a de conjuntos, donde
1
los elementos son eventos.
Trabajó al principio de su carrera en lógica constructivista y
en las series de Fourier. También trabajó en turbulencias y
mecánica clásica. Asimismo, fue el fundador de la teorı́a de la
complejidad algorı́tmica.
Obtuvo su doctorado en la Universidad Estatal de Moscú bajo
la dirección de Nikolái Luzin en 1929.
De acuerdo con el sistema propuesto por Kolmogorov, en 1933, los sucesos se presentan
como conjuntos y la probabilidad como una medida normada de estos conjuntos.
Vamos a introducir algunas definiciones que nos permitan abordar estas situaciones
para poder describirlas.

1.2. Sucesos

1.2.1. Definiciones

A los experimentos en los cuales no se puede predecir cuál va a ser el resultado, se les
denomina experimentos aleatorios, a cada uno de los posibles resultados del mismo se
le denomina suceso aleatorio ω.
Ejemplos:

Lanzar una moneda o varias

Extraer una carta de una baraja

Tiempo de vida de una bombilla

Temperatura de un procesador después de una hora de trabajo

Número de llamadas en una lı́nea de teléfono


1
http://es.wikipedia.org/wiki/Kolmogorov
1.2. SUCESOS 55


Los sucesos elementales son los resultados más simples que se pueden obtener de
la realización de un experimento aleatorio.

Al conjunto de todos los posibles sucesos elementales del experimento, se le denomina


espacio muestral y se le suele denotar por E o por Ω.

Cada subconjunto del espacio muestral es un suceso y puede ser elemental o com-
puesto.
Ejemplo: si lanzamos un dado, A=sacar un 3 ={3} es un suceso elemental y B=sacar
un número mayor que 3 ={4, 5, 6} es un suceso compuesto.



Se debe hacer notar que un mismo experimento fı́sico puede dar lugar a distintos
espacios muestrales, dependiendo de la finalidad que se persiga.
Ejemplo: si lanzamos tres monedas al aire,

• si nos interesa el número de caras resultantes, el espacio muestral es Ω =


{0, 1, 2, 3}.
• si nos interesa el resultado concreto para esas monedas, el espacio muestral es
Ω = {CCC, CCX, CXC, CXX, XCC, XCX, XXC, XXX}

Llamaremos espacio de sucesos al conjunto de todos los sucesos que son resultados
posibles de un experimento y lo denotaremos como ℘(Ω)
Nota: si el número de sucesos elementales de un experimento aleatorio es igual a n,
entonces el número de sucesos posibles asociados a ese experimento es 2n .
Es decir, que si el tamaño del espacio muestral es n, el tamaño del espacio de sucesos
es 2n
Ejemplo: al lanzar un dado al aire, el número de resultados posibles es 6, que es
el tamaño del espacio muestral, mientras que el tamaño del espacio de sucesos es
26 = 64. El suceso ((número mayor que 4)) es un elemento del espacio de sucesos,
pero no es un suceso elemental.

Al suceso que ocurre siempre se le llama suceso seguro y coincide con el espacio
muestral.
Ejemplo: A =sacar un número del 1 al 6 al lanzar un dado=Ω.
56 TEMA P 1. SUCESOS Y PROBABILIDAD

Al suceso que no puede ocurrir nunca se le llama suceso imposible y se denota


por el vacı́o (∅).
Ejemplo: A =sacar un 8 al lanzar un dado=∅.
Dados dos sucesos A y B, diremos que el suceso A está incluido en el suceso B
cuando la realización de A implica la realizació de B, y se denota como A ⊂ B.
Ejemplo: si al lanzar un dado, A = {3} y B = sacar un número impar = {1, 3, 5},
entonces A ⊂ B
Llamaremos suceso contrario o complementario de un suceso A, a lo que ocurre
cuando no ocurre A.
Ejemplo: si A es el suceso sacar un 3 al lanzar un dado: A={3}, entonces Ac =no
sacar un 3, es decir: Ac ={1,2,4,5,6}

Es decir: Ac = Ω − A

El conjunto ℘(Ω) con la relación ⊂, es un conjunto parcialmente ordenado que de-


notamos por (℘(Ω), ⊂), en el que ∅ es el elemento minimal, Ω es el elemento maximal
y los átomos (conjuntos que sólo contienen al vacı́o o a sı́ mismos) son los subconjuntos
unitarios de Ω, es decir, los sucesos elementales.

1.2.2. Operaciones con sucesos

Las operaciones con sucesos son aplicaciones del tipo, f : ℘(Ω) × ℘(Ω) → ℘(Ω), es
decir que al operar con dos sucesos del espacio de sucesos, el resultado es otro suceso del
mismo espacio.
Entre los sucesos se pueden establecer las siguientes operaciones:

Unión de sucesos

Dados dos sucesos A y B, llamaremos suceso unión de A y B, al suceso formado por


todos los sucesos elementales de A y de B:
1.2. SUCESOS 57

Es el suceso que ocurre cuando ocurre A o B o los dos y se denota como A ∪ B.


Ejemplo: si al lanzar un dado, A = {3, 4} y B = sacar un número par = {2, 4, 6},
entonces A ∪ B = {2, 3, 4, 6}

Intersección de sucesos

Dados dos sucesos A y B, llamaremos suceso intersección de A y B, al suceso formado


por todos los sucesos elementales comunes a A y a B:

Es el suceso que ocurre cuando ocurren A y B a la vez y se denota como A ∩ B.


Ejemplo: si al lanzar un dado, A = {3, 4} y B = sacar un número par = {2, 4, 6},
entonces A ∩ B = {4}.
Los sucesos que no pueden ocurrir a la vez se llaman sucesos incompatibles y su
intersección es el suceso imposible.
Ejemplo: si al lanzar un dado, A = {3} y B = sacar un número par = {2, 4, 6},
entonces A ∩ B = ∅.

Diferencia de sucesos

Dados dos sucesos A y B, llamaremos diferencia A − B, al suceso formado por todos


los sucesos elementales de A que no están en B.
58 TEMA P 1. SUCESOS Y PROBABILIDAD

Es el suceso que ocurre cuando ocurre A pero no ocurre B: A − B = A ∩ B c


Ejemplo: si al lanzar un dado, A={3,4} y B=sacar un número par ={2,4,6}, entonces

A − B = {3} y B − A = {2, 6}

Es interesante observar que: A − B = A − A ∩ B

Diferencia simétrica de sucesos

Dados dos sucesos A y B, llamaremos diferencia simétrica A 4 B, al suceso formado


por todos los sucesos elementales de A ∪ B que no están en A ∩ B.
Es el suceso que ocurre cuando ocurre A o B pero no los dos a la vez:

A 4 B = (A ∪ B) − (A ∩ B)

Ejemplo: si al lanzar un dado, A={3,4} y B=sacar un número par ={2,4,6}, entonces

A 4 B = {3, 2, 6}

Consecuencias

De las definiciones y operaciones anteriores se pueden deducir las siguientes propieda-


des:

1. ∅c = Ω

2. Ωc = ∅

3. A ∪ Ac = Ω

4. A ∩ Ac = ∅; es decir que un suceso y su contrario son incompatibles (pero el que


sean incompatibles no significa que sean contrarios)

5. A ⊂ B ⇒ B c ⊂ Ac ; siempre que ambos sucesos correspondan al mismo experimento


aleatorio.
1.2. SUCESOS 59

1.2.3. El espacio de sucesos es un Álgebra de Boole

El espacio de sucesos de un experimento aleatorio, ℘(Ω), con las operaciones unión de


sucesos, intersección de sucesos y suceso contrario, diremos que es un álgebra de Boole,
ya que verifica las siguientes propiedades:

1. Propiedades conmutativas: A ∪ B = B ∪ A y A ∩ B = B ∩ A
2. Propiedades asociativas: A ∪ (B ∪ C) = (A ∪ B) ∪ C y A ∩ (B ∩ C) = (A ∩ B) ∩ C
3. Propiedades de existencia de elemento neutro: A ∪ ∅ = A y A ∩ Ω = A
4. Propiedades distributivas:
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) y A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
5. Propiedades del complementario: A ∪ Ac = Ω y A ∩ Ac = ∅

Como consecuencia de las 5 propiedades anteriores, se puede demostrar que el espacio


de sucesos, ℘(Ω), verifica también:

Propiedades idempotentes: A ∪ A = A y A ∩ A = A
Propiedades de maximalidad y minimalidad: A ∪ Ω = Ω y A ∩ ∅ = ∅
Propiedad de involución: (Ac )c = A
Propiedad de simplificación: A ∪ (A ∩ B) = A y A ∩ (A ∪ B) = A
Leyes de Morgan: (A ∪ B)c = Ac ∩ B c y (A ∩ B)c = Ac ∪ B c

Ejercicio: Palabra de tres bits (análogo a lanzar tres monedas al aire)

a) Construye el espacio muestral Ω


Y los siguientes sucesos:
b) A = {el primer bit es un 1}
c) B = {el segundo bit es un 1}
d) C = {el tercer bit es un 1}
e) A ∪ B =
f) A ∪ B ∪ C =
g) A ∩ B =
h) A ∩ B ∩ C =
i) A − B =
j) Ac =
60 TEMA P 1. SUCESOS Y PROBABILIDAD

1.3. Probabilidad

Al estudiar los experimentos aleatorios, aunque no sabemos cuál va a ser el resultado,


sı́ que el sentido común, o la intuición, nos indica que hay unos resultados que tienen más
posibilidades de ocurrir que otros. Vamos, entonces, a intentar plasmar esta idea intuitiva.
Es decir, vamos a determinar la probabilidad de que ocurra un determinado suceso.
Una forma de obtener la probabilidad ((teórica)), no basada en los resultados del expe-
rimento, es la llamada probabilidad clásica o Regla de Laplace.

Pierre-Simon Laplace (Beaumont-en-Auge (Normandı́a); 28 de


marzo de 1749 - Parı́s; 5 de marzo de 1827)
Matemático, astrónomo y fı́sico francés cuya obra es reconocida
en la actualidad por la importancia de sus aportaciones a la
Ciencia en campos muy diversos.
Realizó muchas aportaciones a la la estadı́stica y a la teorı́a
2
de probabilidades. Se le deben la transformación integral y la
ecuación diferencial que llevan su nombre, ası́ como el operador
laplaciano. Colaboró con otros muchos cientı́ficos de la época,
como Lavoisier o Lagrange. Trabajó en quı́mica, mecánica, ter-
mologı́a y astronomı́a.
Se le debe la hipótesis de que el Sistema Solar se formó como consecuencia de la
contracción de una nube de polvo y gas.
En 1812, Laplace propone la siguiente deficinición de probabilidad:
Si todos los resultados de un experimento tienen la misma posibilidad de ocurrir,
entonces, la probabilidad de ocurrencia de un suceso A será:

número de casos favorables a A


P (A) =
número de casos posibles

Ejemplo: Consideremos el experimento lanzar un dado.


Nuestro espacio muestral es Ω={1, 2, 3, 4, 5, 6} y, si el dado no está trucado, suponemos
que todos los sucesos tienen la misma posibilidad de ocurrir. Entonces podemos calcular:

número de casos favorables a 5 1


P (5) = = = 0.16̂
número de casos posibles 6

número de casos favorables a par 3


P (par) = = = 0.5
número de casos posibles 6

Otra forma de obtener una probabilidad es la probabilidad ((empı́rica)) o frecuen-


tista.
2
http://es.wikipedia.org/wiki/Laplace ; http://www.estadisticaparatodos.es/bibliografias/laplace.html
1.3. PROBABILIDAD 61

Una vez comprobados algunos resultados experimentales, se define la probabilidad


de ocurrencia de un suceso A como:

número de veces que ha ocurrido A


P (A) =
número de repeticiones

(es la frecuencia relativa de A).


Cuando el número de repeticiones es bajo, esta probabilidad ((empı́rica)) puede ser
bastante incorrecta, mientras que, a medida que aumentamos el número de repeticiones, el
valor de la probabilidad se estabiliza y se va aproximando, cada vez más a la probabilidad
((teórica)).
Esta definición de probabilidad frecuentista, (como lı́mite de la frecuencia relativa
cuando el número de repeticiones del experimento tiende a infinito) es debida a Richard
von Mises.
Richard Edler von Mises (Lemberg 19 abril de 1883 - Boston,
14 de julio de 1953) fue un fı́sico austrohúngaro que trabajó
en mecánica de sólidos, mecánica de fluidos, aerodinámica, es-
tadı́stica y teorı́a de la probabilidad. Fue el hermano más joven
del economista y filósofo Ludwig von Mises.
Fue profesor de las universidades de Berlı́n y Harvard, entre
3
otras. A partir del estudio del comportamiento de las
frecuencias relativas, formalizó la definición de la pro-
babilidad tal y como se conoce hoy en dı́a.
En mecánica del sólido deformable dio una interpretación de
la fractura a partir de energı́a elástica (Criterio de Von Mises)
que sustituyó al más tosco Criterio de Tresca. Da también nombre a la tensión de
Von Mises, una medida escalar de dicha energı́a.
Ejemplo: si lanzamos un dado y contamos las veces que ha salido un 2:
No de lanzamientos 50 100 150 200 300 400 500
o
N de 2 4 13 24 34 51 64 80
P(2)= frecuencia relativa 0.08 0.13 0.16 0.17 0.17 0.16 0.16

Ejercicio: Del conjunto de palabras de 3 bits, calcula la probabilidad de que tomada


una palabra al azar esta tenga:

a) Todo unos

b) El mismo valor en las tres posiciones

c) Al menos un ((1))

d) Al menos dos ((1))


3
http://es.wikipedia.org/wiki/Richard von Mises
62 TEMA P 1. SUCESOS Y PROBABILIDAD

SOLUCIÓN: Sabemos que Ω = {000, 001, 010, 011, 100, 101, 110, 111}

1
a) P {Todo unos} = P {111} = 8
2 1
b) P {El mismo valor en las tres posiciones} = P {000, 111} = 8
= 4

c) P {Al menos un ((1))} = 1 − P {ningún ((1))} = 1 − P {000} = 1 − 1


8
= 7
8

d) P {Al menos dos ((1))} = P {011, 101, 110, 111} = 4


8
= 1
2

Las ideas anteriores de Probabilidad se pueden formalizar utilizando la siguiente de-


finición axiomática de la probabilidad (debida a Kolmogorof, 1933):
Una distribución de probabilidad es una función que asigna a cada suceso posible
un número en el intervalo [0,1], (P : Ω → [0, 1]) con las siguientes propiedades:

1. Para todo suceso A : P (A) ≥ 0


2. La probabilidad del suceso seguro es 1: P (Ω) = 1
3. Si A y B son dos sucesos incompatibles (A ∩ B = ∅), entonces:
P (A ∪ B) = P (A) + P (B)

De esta definición se deducen las siguientes consecuencias:

1. Si Ac es el suceso contrario de A, entonces: P (Ac ) = 1 − P (A)


2. P (∅) = 0
3. Podemos generalizar el axioma 3: Si A = A1 ∪ A2 ∪ ... ∪ An , siendo estos sucesos
incompatibles 2 a 2, entonces:
P (A) = P (A1 ∪ A2 ∪ ... ∪ An ) = P (A1 ) + P (A2 ) + ... + P (An )
4. Si A ⊂ B ⇒ P (A) ≤ P (B)
5. Si A ⊂ B ⇒ P (B − A) = P (B) − P (A)
6. P (B − A) = P (B) − P (A ∩ B)
7. Dados dos sucesos A y B cualesquiera: P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
1.3. PROBABILIDAD 63

8. Para tres sucesos:


P (A∪B∪C) = P (A)+P (B)+P (C)−P (A∩B)−P (A∩C)−P (B∩C)+P (A∩B∩C)

Ejercicio: Sean A y B dos sucesos para los que se sabe que P (A) = 0.2 y P (B) = 0.5.
Determina los posibles valores máximo y mı́nimo de P (A ∩ B) y las condiciones en las
cuales se consigue cada uno de esos valores.

Ω Ω

B B
A A

P(A∩B)=0 0<P(A∩B)<P(A)

B
A

P(A∩B)=P(A)=0.2

Ejercicio: Sean A y B dos sucesos para los que se sabe que P (A) = 0.4 y P (B) = 0.7.
Determina los posibles valores máximo y mı́nimo de P (A ∩ B) y las condiciones en las
cuales se consigue cada uno de esos valores.
En este caso no podemos aplicar lo mismo que antes, ya que obligatoriamente tiene
que haber intersercción entre los conjuntos:

Ω Ω

B A B A

Mínimo: P(A∩B)=0.1 Máximo: P(A∩B)=P(A)=0.4


64 TEMA P 1. SUCESOS Y PROBABILIDAD

1.4. Probabilidad condicionada e independencia de


sucesos

1.4.1. Probabilidad condicionada

Nos podemos plantear cuál será la probabilidad de cierto suceso B, sabiendo que ha
sucedido otro suceso A. Por ejemplo, se lanza un dado y nos dicen que el resultado es
impar ¿cuál es la probabilidad de que sea un 3? ¿modifica la información adicional la
probabilidad de que ocurra otro suceso?
Esta probabilidad se conoce como probabilidad condicionada, y se calcula de la
siguiente manera:
La probabilidad del segundo suceso, B, dado que conocemos que ha ocurrido el primer
suceso, A, o bien, la probabilidad del suceso B condicionado a que ha ocurrido el suceso
A es:
P (A ∩ B)
P (B|A) = , siendo P (A) > 0
P (A)

Ejemplo:
1
P (3 e impar) P (3) 6 1
P (3|impar) = = = 3 =
P (impar) P (impar) 6
3

De aquı́ se deduce la fórmula de la probabilidad compuesta, en el caso particular


de 2 sucesos: La probabilidad de que ocurran dos sucesos A y B simultáneamente es la
probabilidad de que ocurra uno multiplicado por la probabilidad de que ocurra el otro
dado que ha ocurrido el primero:

P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

Las propiedades de la probabilidad condicionada son las mismas que las vistas para
la probabilidad, salvo que ahora tenemos una condición:

1. Si Ac es el suceso contrario de A, entonces: P (Ac | B) = 1 − P (A | B)


2. P (∅ | B) = 0 y P (Ω | B) = 1
3. Si A ∩ B = ∅, entonces P (A ∪ B | C) = P (A | C) + P (B | C)
4. P (A ∪ B | C) = P (A | C) + P (B | C) − P (A ∩ B | C)
5. Como ya se ha visto: P (A ∩ B) = P (A)P (B | A) = P (B)P (A | B)
6. Y generalizando:
n−1
!
\
P (A1 ∩ · · · ∩ An ) = P (A1 )P (A2 | A1 )P (A3 | A1 ∩ A2 ) . . . P An | Ai
i=1

(Este es el Teorema de la probabilidad compuesta)


1.4. PROBABILIDAD CONDICIONADA E INDEPENDENCIA DE SUCESOS 65

Ejemplo: Tenemos una urna con 10 bolas marcadas con los dı́gitos del 0 al 9 y sacamos
5 bolas sin reposición ¿cuál es la probabilidad de que el número resultante sea 58462?
Solución:
Tenemos que considerar los siguientes sucesos:

A1 ≡ la primera bola es un 5

A2 ≡ la segunda bola es un 8

A3 ≡ la tercera bola es un 4

A4 ≡ la cuarta bola es un 6

A5 ≡ la quinta bola es un 2

Entonces:
1 1 1 1 1 1
P (A1 ∩A2 ∩A3 ∩A4 ∩A5 ) = P (A1 )P (A2 | A1 ) . . . P (A5 | A1 ∩A2 ∩A3 ∩A4 ) = . . . . =
10 9 8 7 6 30240

1.4.2. Independencia de sucesos

Diremos que dos sucesos son independientes cuando la ocurrencia del primero no
cambia la probabilidad de que ocurra el segundo.

P (B | A) = P (B) , o bien P (A | B) = P (A)

Esto es equivalente a decir que, dos sucesos son independientes si:

P (A ∩ B) = P (A)P (B)

Si dos sucesos no son independientes (es decir, que no se cumple alguna de las condi-
ciones anteriores), diremos que son dependientes
En este caso:

Si P (A | B) > P (A), diremos que la ocurrencia de B favorece la ocurrencia de A
Si P (A | B) < P (A), diremos que la ocurrencia de B perjudica la ocurrencia de A
La generalización de la definición de independencia a n sucesos se puede escribir como
sigue:
n sucesos, A1 , . . . , An , diremos que son independientes si se verifican a la vez las
siguientes n − 1 condiciones:

 P (Ai ∩ Aj ) = P (Ai )P (Aj ), ∀i 6= j

 P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ), ∀i 6= j 6= k, i 6= k

..


 .
 P (A ∩ A ∩ · · · ∩ A ) = P (A )P (A ) . . . P (A )
1 2 n 1 2 n
66 TEMA P 1. SUCESOS Y PROBABILIDAD

IMPORTANTE: no hay que confundir la independencia con la incompatibilidad.


Dos sucesos con intersección vacı́a se denominan sucesos incompatibles. Esto, ¿qué
implica?
Pues, que si se verifica uno seguro que no se verifica el otro, ya que no tienen resultados
en común.
Estamos ante un caso extremo de dependencia. Obtenemos en este caso que:
P (A | B) = 0
Si P (A) y P (B) son diferentes de cero entonces, la probabilidad condicionada anterior
es diferente de P (A), y ası́ se deduce la dependencia.
La única posibilidad de que se dé incompatibilidad e independencia a la vez, es que
alguno de los dos sucesos tenga probabilidad igual a cero.

Ejemplo: (sucesos independientes y no incompatibles) Tomamos al azar 15 estudian-


tes para los que consideramos las caracterı́sticas ((género)) y ((ser buen conductor)). Los
resultados obtenidos están en la siguiente tabla:
Buen conductor Mal conductor
Hombre 2 3 5
Mujer 4 6 10
6 9 15
Para estos 15 estudiantes, los sucesos H =ser hombre y B =ser buen conductor, son
INDEPENDIENTES (el género no influye en la manera de conducir)
2 6
P (B | H) = 5
= 0.4 es igual a la P (B) = 15
= 0.4
Sin embargo, estos sucesos NO son INCOMPATIBLES (hay hombres que conducen
bien)

2
P (B ∩ H) =
15
Otra forma de comprobar la independencia: ¿P (H ∩ B) = P (H)P (B)?

2 5 6
P (H ∩ B) = = . = P (H)P (B)
15 15 15
Por lo tanto, son independientes.

Ejemplo: (sucesos incompatibles y no independientes)


En el ejemplo anterior, los sucesos H =ser hombre y M =ser mujer son INCOMPA-
TIBLES (un estudiante sólo puede estar en uno de los dos grupos): P (H ∩ M ) = 0
5 10
y sin embargo, P (H) = 15
y P (M ) = 15
5 10 2
lo que significa que: 0 = P (H ∩ M ) 6= .
15 15
= 9
= P (H)P (M ), por lo tanto, NO son
INDEPENDIENTES
1.5. TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES 67

1.5. Teorema de la Probabilidad Total y Teorema de


Bayes

Los dos teoremas que vamos a enunciar a continuación son de suma importancia en el
cálculo de probabilidades.
En un espacio muestral Ω, vamos a considerar un conjunto de sucesos A1 , . . . , An de
tal forma que:

Son disjuntos dos a dos: Ai ∩ Aj = ∅, ∀i 6= j


Su unión es el espacio muestral: A1 ∪ · · · ∪ An = Ω

El conjunto de sucesos que cumple estas condiciones lo llamaremos sistema completo


de sucesos
En un espacio muestral se pueden definir muchos sistemas completos de sucesos dife-
rentes.

Teorema de la Probabilidad Total


Dado un espacio muestral Ω, y un sistema completo de sucesos A1 , A2 , . . . , An entonces,
para cualquier suceso B del espacio muestral se verifica que:
Xn
P (B) = P (B | Ai )P (Ai )
i=1

Demostración: La demostración es bien sencilla,


P (B) = P (B ∩ A1 ) + P (B ∩ A2 ) + · · · + P (B ∩ An ) , es decir:
P (B) = P (B | A1 )P (A1 ) + P (B | A2 )P (A2 ) + · · · + P (B | An )P (An )
Gráficamente:
A1 A2 An

Ω B
68 TEMA P 1. SUCESOS Y PROBABILIDAD

Teorema de Bayes (enunciado en 1763)


El Teorema de Bayes, o Teorema de la probabilidad inversa, dice lo siguiente:
Dado un espacio muestral Ω, y un sistema completo de sucesos A1 , A2 , . . . , An entonces,
para cualquier suceso B del espacio muestral con P (B) > 0 se verifica que:

P (B | Aj )P (Aj ) P (B | Aj )P (Aj )
P (Aj | B) = = Pn
P (B) i=1 P (B | Ai )P (Ai )

Su demostración se deduce fácilmente de la definición de probabilidad condicionada y


del Teorema de la Probabilidad Total.
Notación: las probabilidades P (Ai ) se conocen como ((probabilidades a priori )), y las
P (Aj | B) se conocen como ((probabilidades a posteriori ))

Thomas Bayes (Londres, Inglaterra, 1702 - Tunbridge


Wells, 1761) fue un matemático británico. Su obra más
conocida es su Teorema de Bayes.
Estudió el problema de la determinación de la probabi-
lidad de las causas a través de los efectos observados.
Los cultores de la inferencia bayesiana (basada en el teo-
rema que lleva su nombre) afirman que la trascendencia
de la probabilidad inversa reside en que es ella la que 4
realmente interesa a la ciencia, dado que procura sacar
conclusiones generales (enunciar leyes) a partir de lo ob-
jetivamente observado, y no viceversa.
Miembro de la Royal Society desde 1742, Bayes fue uno
de los primeros en utilizar la probabilidad inductivamente y establecer una base
matemática para la inferencia probabilı́stica.
Actualmente, con base en su obra, se ha desarrollado una poderosa teorı́a que ha
conseguido notables aplicaciones en las más diversas áreas del conocimiento.

Ejemplo: Tres máquinas, de funcionamiento independiente, elaboran toda la produc-


ción de una empresa. La primera la mitad, la segunda la quinta parte y la tercera el resto.
Estas máquinas vienen produciendo un 2 %, un 4 % y un 3 % de unidades defectuosas,
respectivamente. Calcula:

1. Porcentaje de piezas defectuosas que produce la empresa.

2. Elegida una pieza al azar, resulta que es defectuosa ¿cuál es la máquina de la procede
más probablemente?

Solución:
4
Es un extracto de http://es.wikipedia.org/wiki/Thomas Bayes;
foto http://blogs.sas.com/content/jmp/files/2013/06/Thomas Bayes.gif
1.5. TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES 69

En primer lugar vamos a expresar de forma adecuada para su manejo la información


que nos da el enunciado:
Probabilidad de que una pieza esté producida en una máquina determinada:
P (M1 ) = 0.5, P (M2 ) = 0.2 y P (M3 ) = 1 − 0.5 − 0.2 = 0.3
Probabilidad de que una pieza sea defectuosa, en función de la máquina que la ha
producido:
P (D | M1 ) = 0.02, P (D | M2 ) = 0.04 y P (D | M3 ) = 0.03
Ahora vamos a responder a las preguntas:

1. Porcentaje de piezas defectuosas que produce la empresa.


Por el teorema de la probabilidad total:
P (D) = P (D | M1 )P (M1 ) + P (D | M2 )P (M2 ) + P (D | M3 )P (M3 )
Es decir que P (D) = 0.02 × 0.5 + 0.04 × 0.2 + 0.03 × 0.3 = 0.027
Luego, la empresa produce un 2.7 % de piezas defectuosas.

2. Elegida una pieza al azar, resulta que es defectuosa ¿cuál es la máquina de la procede
más probablemente?
Para responder a esta pregunta tendremos que calcular las probabilidades ((a pos-
teriori)) de las tres máquinas y elegir aquella con mayor probabilidad. Usaremos el
teorema de Bayes:
Probabilidad de que la pieza provenga de la máquina 1 sabiendo que es defectuosa:

P (D | M1 )P (M1 ) 0.02 × 0.5


P (M1 | D) = = = 0.3704
P (D) 0.027

P (D | M2 )P (M2 ) 0.04 × 0.2


Para la máquina 2: P (M2 | D) = = = 0.2963
P (D) 0.027
P (D | M3 )P (M3 ) 0.03 × 0.3
Y para la máquina 3: P (M3 | D) = = = 0.3333
P (D) 0.027
Por lo tanto, si la pieza es defectuosa, lo más probable es que provenga de la máquina
1.
70 TEMA P 1. SUCESOS Y PROBABILIDAD
Tema P 2

Variables aleatorias

2.1. Variables aleatorias unidimensionales

Cuando realizamos un experimento, tenemos un espacio muestral (con todos los resul-
tados, sucesos elementales, posibles).
Una variable aleatoria, es una función que asocia a cada suceso elemental un número
perfectamente definido.
ζ : Ω −→ R

Por ejemplo, en el caso de lanzar 2 monedas, podemos estudiar el número de caras y


entonces asociar números a los resultados:

(c, c) → 2; (c, x) → 1; (x, c) → 1; (x, x) → 0

Es decir que: la variable aleatoria ζ=número de caras, es una función que asigna los
valores anteriores a los resultados:
ζ(c, c) = 2; ζ(c, x) = 1; ζ(x, c) = 1; ζ(x, x) = 0
Y podemos calcular la probabilidad de que la variable aleatoria tome cada uno de
estos valores:

1
Pζ (0) = P {ζ = 0} = P {(x, x)} = 4
2
Pζ (1) = P {ζ = 1} = P {(c, x), (x, c)} = 4
1
Pζ (2) = P {ζ = 2} = P {(c, c)} = 4

Llamaremos función de distribución de una variable aleatoria a una función F ,


F : R −→ [0, 1], que asocia a cada valor x la probabilidad de que la variable aleatoria
tome un valor menor o igual que x: F (x) = P (ζ ≤ x), ∀x ∈ R
F (x), es la ((probabilidad acumulada)) hasta x.

71
72 TEMA P 2. VARIABLES ALEATORIAS

Ejemplo: en el caso anterior, F (0) = 1/4 ; F (1) = 3/4 ; F (2) = 1


Hay que hacer notar que también se verifica que:
F (−0.5) = 0 ; F (0.5) = 1/4 ; F (1.8) = 3/4 ; F (3) = 1
En general: P (a < ζ ≤ b) = F (b) − F (a)

Ejemplo: Un estudio sociológico ha estimado que el número total de habitaciones X


de las viviendas de una gran ciudad se distribuye de acuerdo con la siguiente ley de
probabilidad:
xi 1 2 3 4 5 6
pi 0.05 0.1 0.35 0.45 0.03 0.02 1
Obtén las respuestas a las siguientes cuestiones:

a) Escribe la función de distribución de X

b) Proporción de viviendas con menos de 4 habitaciones

c) Proporción de viviendas con, al menos 3 habitaciones

d) Proporción de viviendas con más de 2 habitaciones y menos de 5 habitaciones

e) De las viviendas con más de 2 habitaciones, proporción de las que tienen menos de
5.

Solución:

a) Escribe la función de distribución de X




 0 , si x < 1
0.05 , si 1≤x<2




 0.15 , si 2 ≤ x < 3


F (x) = 0.50 , si 3 ≤ x < 4
0.95 , si 4 ≤ x < 5




0.98 , si 5 ≤ x < 6




1 , si x ≥ 6

b) Proporción de viviendas con menos de 4 habitaciones


P {X < 4} = P {x ≤ 3} = F (3) = 0.5
si solo usamos la función de probabilidad:
P {X < 4} = P {X = 1, 2, 3} = 0.05 + 0.10 + 0.35 = 0.5

c) Proporción de viviendas con, al menos 3 habitaciones


P {X ≥ 3} = 1 − P {X < 3} = 1 − P {X ≤ 2} = 1 − F (2) = 1 − 0.15 = 0.85
con la función de probabilidad:
P {X ≥ 3} = P {X = 3, 4, 5, 6} = 0.35 + 0.45 + 0.03 + 0.02 = 0.85
2.1. VARIABLES ALEATORIAS UNIDIMENSIONALES 73

d) Proporción de viviendas con más de 2 y menos de 5 habitaciones


P {2 < X < 5} = P {X < 5}−P {X ≤ 2} = P {X ≤ 4}−P {X ≤ 2} = F (4)−F (2) =
0.95 − 0.15 = 0.8
con las probabilidades: P {2 < X < 5} = P {X = 3, 4} = 0.35 + 0.45 = 0.8
e) De las viviendas con más de 2 habitaciones, proporción de las que tienen menos de
5.

P {2 < X < 5} 0.8 16


P {X < 5 | X > 2} = = =
P {X > 2} 0.85 17

Ejemplo: Se ha estudiado la demanda diaria de un determinado artı́culo X, y se ha


obtenido la siguiente ley de probabilidad:
xi 0 1 2 3 4 5 6
pi 0.11 0.14 0.20 0.24 0.14 0.11 0.06
Obtén las respuestas a las siguientes cuestiones:

a) Escribe la función de distribución de X


b) Probabilidad de que un cierto dı́a se hayan demandado a lo sumo 2 unidades
c) Probabilidad de que un cierto dı́a se hayan demandado más de 4 unidades
d) Probabilidad de que un cierto dı́a se hayan demandado al menos 3 unidades
e) Probabilidad de que un cierto dı́a se hayan demandado entre 2 y 5 unidades
f) Sabiendo que se han demandado más de 2 unidades, probabilidad de que se hayan
demandado menos de 5.

Solución:

a) Escribe la función de distribución de X




 0 , si x < 0
0.11 , si 0 ≤ x < 1




 0.25 , si 1 ≤ x < 2



0.45 , si 2 ≤ x < 3

F (x) =

 0.69 , si 3 ≤ x < 4
0.83 , si 4 ≤ x < 5




0.94 , si 5 ≤ x < 6




1 , si x ≥ 6

b) Probabilidad de que un cierto dı́a se hayan demandado a lo sumo 2 unidades


P {x ≤ 2} = F (2) = 0.45
si solo usamos la función de probabilidad:
P {x ≤ 2} = P {X = 0, 1, 2} = 0.45
74 TEMA P 2. VARIABLES ALEATORIAS

c) Probabilidad de que un cierto dı́a se hayan demandado más de 4 unidades


P {X > 4} = 1 − P {X ≤ 4} = 1 − F (4) = 1 − 0.83 = 0.17
con la función de probabilidad:
P {X > 4} = P {X = 5, 6} = 0.11 + 0.06 = 0.17

d) Probabilidad de que un cierto dı́a se hayan demandado al menos 3 unidades


P {X ≥ 3} = 1 − P {X < 3} = 1 − P {X ≤ 2} = 1 − F (2) = 1 − 0.45 = 0.55
con la función de probabilidad:
P {X ≥ 3} = P {X = 3, 4, 5, 6} = 0.55

e) Probabilidad de que un cierto dı́a se hayan demandado entre 2 y 5 unidades


P {2 < X < 5} = P {X < 5}−P {X ≤ 2} = P {X ≤ 4}−P {X ≤ 2} = F (4)−F (2) =
0.83 − 0.45 = 0.38
con las probabilidades: P {2 < X < 5} = P {X = 3, 4} = 0.38

f) Sabiendo que se han demandado más de 2 unidades, probabilidad de que se hayan


demandado menos de 5.

P {2 < X < 5} 0.38


P {X < 5 | X > 2} = =
P {X > 2} 0.55

Propiedades de la función de distribución:


En los ejemplos anteriores hemos podido observar cómo se verifican algunas de las
propiedades de la función de distribución, que son:

0 ≤ F (x) ≤ 1, ∀x ∈ R

lı́m F (X) = 0 y lı́m F (X) = 1


x→−∞ x→+∞

Si x1 < x2 ⇒ F (x1 ) ≤ F (x2 ) (es monótona no decreciente)

lı́m F (X) = F (a) (es continua por la derecha)


x→a+

P (a < ζ ≤ b) = F (b) − F (a) (probabilidad en un intervalo)

Para seguir con el análisis, debemos distinguir dos tipos variables aleatorias: las dis-
cretas y las continuas.
Llamaremos variable aleatoria discreta, a una variable aleatoria que toma valores
en un conjunto discreto (finito o numerable).

Dζ = {x ∈ R|P {ζ = x} > 0} es el soporte de la variable aleatoria ζ

Dζ = {x1 < x2 < . . . }


2.1. VARIABLES ALEATORIAS UNIDIMENSIONALES 75

Los valores xi se denominan puntos de masa

Si llamamos pi = P {ζ = xi } ≥ 0, 1 = 1, 2, . . . , n, . . . , se cumple que:

X
pi = 1, la suma de todas las probabilidades asociadas a los puntos de masa es
i
igual a 1
k
X
P (ζ ≤ xk ) = pi
i=1

A la función que asocia a cada punto de masa su probabilidad, la llamaremos función


de probabilidad
Ejemplo: la variable aleatoria ζ =número de caras al lanzar dos monedas, es discreta.
Su soporte es el conjunto {0, 1, 2}, que es un conjunto finito.
Ejemplo: Si lanzamos un dado al aire, la variable aleatoria asociada a este experimento
tomará los valores: 1, 2, 3, 4, 5, 6 y la probabilidad de cada uno de estos resultados es 1/6.
La función de probabilidad p, es tal que:
p(1) = P (ζ = 1) = 1/6 p(2) = P (ζ = 2) = 1/6 p(3) = P (ζ = 3) = 1/6
Y se cumple que:
p(4) = P (ζ = 4) = 1/6 p(5) = P (ζ = 5) = 1/6 p(6) = P (ζ = 6) = 1/6

p(1) + p(2) + · · · + p(6) = 1


Para cualquier otro valor, la función de probabilidad vale cero.

p(2.5) = P (ζ = 2.5) = 0

Si calculamos la función de distribución F para los valores anteriores, obtenemos:

F (1) = P (ζ ≤ 1) = 1/6 F (2) = P (ζ ≤ 2) = 2/6 F (3) = P (ζ ≤ 3) = 3/6


F (4) = P (ζ ≤ 4) = 4/6 F (5) = P (ζ ≤ 5) = 5/6 F (6) = P (ζ ≤ 6) = 6/6 = 1

En el resto de los puntos, se calcula de forma análoga:

F (2.5) = P (ζ ≤ 2.5) = P (ζ = 1) + P (ζ = 2) = 2/6 = 1/3

Entonces, para conocer cuál es la probabilidad de que al lanzar un dado obtengamos


una puntuación mayor que 2 y menor o igual que 5, podrı́amos hacerlo de dos formas:
Mediante la función de probabilidad:
P (2 < ζ ≤ 5) = P (ζ = 3) + P (ζ = 4) + P (ζ = 5) = 3 × 1/6 = 1/2
O usando la función de distribución:

P (2 < ζ ≤ 5) = F (5) − F (2) = 5/6 − 2/6 = 3/6 = 1/2


76 TEMA P 2. VARIABLES ALEATORIAS

Cuando observamos tiempos, longitudes, etc..., la variable aleatoria resultante es una


variable aleatoria continua.
Llamaremos variable aleatoria continua, a una variable aleatoria cuyo soporte
(conjunto de valores posibles) NO es un conjunto discreto (intuitivamente, este conjunto
será entonces un intervalo de números reales).
Ejemplo: la variable aleatoria que asigna a cada persona extraı́da de una población su
peso, es una variable aleatoria continua ya que podemos considerar como posibles todos
los valores del intervalo (0, 300).
En este caso, en lugar de utilizar la función de probabilidad o de cuantı́a, se usa la
llamada función de densidad de probabilidad, que es una función tal que el área
comprendida bajo la curva, entre dos puntos, es precisamente la probabilidad entre esos
dos puntos.
Para que una función pueda ser la función de densidad de una variable aleatoria
continua tiene que cumplir :

f (x) ≥ 0, para cualquier valor x de la variable.

El área total encerrada entre el eje horizontal y la curva f (x), vale 1.

T5: Probabilidad y variables aleatorias. 71

Entonces, la función de densidad de una variable aleatoria continua cumple lo siguiente:


• f(x)≥0
+∞
• ∫
−∞
f ( x)dx = 1

Sabemos que F (x) = P (ζ ≤ x). Gráficamente, F (x) es el xárea encerrada bajo la curva
• La función de distribución es: F ( x) = P(ζ ≤ x) =
f (x), desde −∞ hasta x: −∞ ∫
f (t )dt

x2
•Como P ( x1 ≤P ζ(x1≤<x 2ζ) ≤
= xF2()x=2 )F−(x 1) = ∫
consecuencia,
Entonces: F2()x− F (x1 ) f (t )dt
x1
x2
• Entonces:
2.1. VARIABLES P ( x1 ≤ ζ ≤ xUNIDIMENSIONALES
ALEATORIAS 2 ) = F ( x 2 ) − F ( x1 ) =∫f (t )dt
x1
77

NOTA: en el caso de las variables continuas, la probabilidad de que la variable aleatoria


tome un valor concreto es cero (P (ζ = x) = 0), y en consecuencia:
Esperanza matemática.
El concepto de P (xesperanza
1 < ζ ≤ x2 ) matemática,
= P (x1 < ζ < como
x2 ) = Fotros
(x2 ) −muchos
F (x1 ) de la teoría de la
probabilidad, tiene su origen en los juegos de azar. Los jugadores deseaban conocer cuál
sin embargo, esto no es cierto en el caso de las variables aleatorias discretas (utilizamos
aquı́era
lossu esperanza
datos de ejemplo
del último ganancias o pérdidasde cuando
-lanzamiento participaban repetidamente en un
un dado-):
juego. En este sentido, el valor esperado representa la cantidad de dinero promedio que
el jugador P (2espera
< ζ ≤ganar
5) = Po (ζ
perder
= 3) después
+ P (ζ = de unPgran
4) + (ζ =número
5) = 3 ×de1/6
partidas.
= 1/2
Supongamos el siguiente juego:
mientras que:
El jugador lanza un dado, y: si sale un 1 el jugador gana 1 euro, si sale un 2 gana 3
P (23<gana
euros, si sale un ζ < 55)euros,
= P (ζsi=sale
3) +unP (ζ = 4)
4 no = 2ni×pierde
gana 1/6 = nada,
1/3 si sale un 5 pierde 3
euros y si sale un 6 pierde 6 euros.
Ejemplo:a calcular el valor esperado de las ganancias o pérdidas en el juego:
Vamos
La variable aleatoria
El porcentaje “ganancias
de unidades en el juego”
defectuosas toma losdevalores
de un proceso {-6, -3,
fabricación es 0,
una1, variable
3, 5}
aleatoria continua con la siguiente función de densidad:
Y como los valores del dado son equiprobables, la probabilidad de cada uno de estos
valores es 1/6.

x
Valor deldado , si 01< x < 1 2 3 4 5 6
f (x) = 2 − x , si 1 < x < 2
Probabilidad

0 , en1/6
el resto 1/6 1/6 1/6 1/6 1/6
Ganancia 1 2 3 0 -3 -6
1. Comprueba que f es función de densidad

2. Obtén la función de distribución

3. Calcula la probabilidad de que haya menos de 5 unidades defectuosas de cada 1000

4. Calcula la probabilidad de que haya más de 15 unidades defectuosas de cada 1000

5. Obtén la probabilidad de que haya entre 6 y 16 unidades defectuosas de cada 1000

Solución:

1. Comprueba que f es función de densidad


Se tiene que cumplir que:
78 TEMA P 2. VARIABLES ALEATORIAS

f (x) ≥ 0, para cualquier valor x de la variable.


Entre 0 y 1: f (x) = x ≥ 0
Entre 1 y 2: f (x) = 2 − x ≥ 0
Luego, lo cumple
El área total encerrada entre el eje horizontal y la curva f (x), vale 1.
El área la podemos calcular integrando:

1 2 1 2
x2 x2
Z Z  
A= xdx + (2 − x)dx = + 2x −
0 1 2 0 2 1

1 1
A= + (4 − 2 − 2 + ) = 1
2 2
O bien geométricamente:
área total es la suma de las áreas de los 2 triángulos (A = base×2altura ):

1×1 1×1
A= + =1
2 2
Luego, sı́ es función de densidad.

2. Obtén la función de distribución



 0 , si x < 0
2


 x
, si 0 < x < 1


F (x) = P (ζ ≤ x) = 2 2
(2 − x)
1 − , si 1 < x < 2


2



1 , si x ≥ 2

3. Calcula la probabilidad de que haya menos de 5 unidades defectuosas de cada 1000


0.52
P (ζ < 0.5) = F (0.5) = 2
= 0.125

4. Calcula la probabilidad de que haya más de 15 unidades defectuosas de cada 1000


2
P (ζ > 1.5) = 1 − F (1.5) = 1 − 1 + (2−1.5)
2
= 0.125

5. Obtén la probabilidad de que haya entre 6 y 16 unidades defectuosas de cada 1000


(2 − 1.6)2 0.62
 
P (0.6 < ζ < 1.6) = F (1.6) − F (0.6) = 1 − − =
2 2
(0.4)2 0.62
 
= 1− − = 1 − 0.08 − 0.18 = 0.74
2 2

2.2. Esperanza matemática y otras medidas

El concepto de esperanza matemática, como otros muchos de la teorı́a de la probabi-


lidad, tiene su origen en los juegos de azar. Los jugadores deseaban conocer cuál era su
esperanza de ganancias o pérdidas cuando participaban repetidamente en un juego. En
2.2. ESPERANZA MATEMÁTICA Y OTRAS MEDIDAS 79

este sentido, el valor esperado representa la cantidad de dinero promedio que el jugador
espera ganar o perder después de un gran número de partidas.
Supongamos el siguiente juego:
El jugador lanza un dado, y: si sale un 1 el jugador gana 1 euro, si sale un 2 gana 4
euros, si sale un 3 gana 5 euros, si sale un 4 no gana ni pierde nada, si sale un 5 pierde 2
euros y si sale un 6 pierde 6 euros.
Vamos a calcular el valor esperado de las ganancias o pérdidas en el juego:
La variable aleatoria ganancias en el juego toma los valores {-6, -2, 0, 1, 4, 5}, y como
los valores del dado son equiprobables, la probabilidad de cada uno de estos valores es
1/6.
Valor del dado 1 2 3 4 5 6
Probabilidad 1/6 1/6 1/6 1/6 1/6 1/6
Ganancia 1 4 5 0 -2 -6
Entonces, la ganancia esperada, después de un número grande de partidas, se obtiene
sumando los productos de cada valor de la ganancia por la probabilidad de obtenerla. Es
decir, en este juego:
Ganancia esperada=1 × 16 + 4 × 16 + 5 × 61 + 0 × 16 + (−2) × 61 + (−6) × 16 = 2 × 61 = 31 = 0.3̂ euros
La ganancia esperada puede ser positiva, negativa o cero; en el primer caso diremos
que el juego es favorable al jugador, en el segundo que es un juego desfavorable y si la
ganancia esperada es cero diremos que es un juego justo.
Es importante destacar que el valor de la esperanza no tiene por qué ser un valor
posible de la variable, lo que significa que una variable aleatoria puede que nunca tome el
valor de su esperanza.
Este concepto también se utiliza en situaciones que nada tienen que ver con los juegos
de azar, ası́ podemos hablar de la esperanza de vida de las mujeres o del tiempo esperado
de permanencia en una consulta. Estos valores esperados hay que interpretarlos como un
promedio y no se pueden aplicar a un individuo en particular.
Si trasladamos este concepto a las variables aleatorias, podemos interpretar la es-
peranza matemática de una variable aleatoria, como su promedio o valor esperado,
después de realizar un gran número de pruebas del experimento al que está asociada, de
modo que tenemos la siguiente definición:
Si consideramos una variable aleatoria de tipo discreto, ζ, con función de probabilidad
pi = P (ζ = xi ), para todo i = 1, . . . n, entonces definimos la esperanza matemática, o
valor esperado, o media de ζ, como:
Xn
E[ζ] = µ = xi p i
i=1

(Podemos entender la esperanza como un promedio de la variable)


Análogamente, si consideramos una variable aleatoria de tipo continuo, ζ, con función
de densidad f (x), entonces definimos la esperanza matemática, o valor esperado, o
80 TEMA P 2. VARIABLES ALEATORIAS

media de ζ, como: Z ∞
E[ζ] = µ = xf (x)dx
−∞

Nota: la media es una medida de posición central de la variable aleatoria, por lo que
es un valor que nos permitirá resumir o representar al resto de los valores de la variable
aleatoria.
La esperanza matemática verifica una serie de PROPIEDADES interesantes:
(ζ, ζ1 , . . . , ζn , variables aleatorias)

1. Si K es una constante: E[K] = K

2. Si a es una contante: E[ζ + a] = E[ζ] + a

3. Si b es una constante:E[bζ] = bE[ζ]

4. Uniendo los dos anteriores: E[a + bζ] = a + bE[ζ], con a y b constantes

5. La esperanza de la suma es la suma de las esperanzas:

E[ζ1 + · · · + ζn ] = E[ζ1 ] + · · · + E[ζn ]

6. Si ζ1 ≤ ζ2 ⇒ E[ζ1 ] ≤ E[ζ2 ]

7. Si K1 y K2 son constantes con: K1 ≤ ζ ≤ K2 ⇒ K1 ≤ E[ζ] ≤ K2

Nota: Si ζ1 , . . . , ζn son variables aleatorias, que tienen la misma media (µ), se verifica
que:

Las variables aleatorias: ζS = ζ1 + · · · + ζn y ζP = n.ζ1 , está claro que son diferentes

Aunque tienen la misma media:

• E[ζS ] = E[ζ1 ] + · · · + E[ζn ] = µ + · · · + µ = nµ


• E[ζP ] = n.E[ζ1 ] = nµ

Por lo tanto, hay que tener cuidado y no confundirlas.


Del mismo modo que hemos definido la esperanza, podemos definir la varianza de
una variable aleatoria:
Dada una variable aleatoria, ζ, llamamos varianza de ζ, al valor:

Var(ζ) = σ 2 = E[(ζ − µ)2 ]

Haciendo operaciones, se puede observar que:


2.3. LA DESIGUALDAD DE CHEBYSHEV 81

Var(ζ) = σ 2 = E[(ζ − µ)2 ] = E[ζ 2 ] − E[ζ]2

Para las variables aleatorias discretas:

X X
Var(ζ) = σ 2 = (xi − µ)2 pi = x2i pi − µ2
i i

Llamaremos desviación tı́pica de ζ a la raı́z cuadrada positiva de la varianza.



σ = DT(ζ) = + σ 2

La varianza también tiene una serie de PROPIEDADES, que enumeramos a continua-


ción:

1. Var(ζ) ≥ 0

2. K es una constante: Var(K) = 0

3. Si a es una contante: Var(ζ + a) = Var(ζ) (no le afectan los cambios de origen)

4. Si b es una constante: Var(bζ) = b2 Var(ζ) (sı́ le afectan los cambios de escala)

5. Uniendo los dos anteriores: Var(a + bζ) = b2 Var(ζ), con a y b constantes

2.3. La desigualdad de Chebyshev

Pafnuti Lvóvich Chebyshov (16 de mayo de 1821- 8 de


diciembre de 1894)
Es uno de los célebres matemáticos del siglo XIX, crea-
dor de varias escuelas matemáticas en Rusia: teorı́a de
los números, teorı́a de probabilidades, teorı́a de aproxi-
mación de funciones, teorı́a de mecanismos y máquinas,
etc. 1
Es autor de más de 80 publicaciones, algunas de las cua-
les no tienen tı́tulos matemáticos: ”Sobre un mecanis-
mo”, ”Sobre la confección de vestidos”, ”Sobre la cons-
trucción de mapas geográficos”, ”Sobre las ruedas den-
tadas”.
Posiblemente su contribución más conocida a la teorı́a
de la probabilidad es la llamada desigualdad de Chebyshev

La desigualdad de Chebyshev (o Tchebycheff; en la literatura aparece escrito de hasta


9 formas diferentes) es un resultado interesante ya que nos proporciona una cota superior
1
Es un extracto de http://www.divulgamat.net ; http://es.wikipedia.org/wiki/Pafnuti Chebyshov
82 TEMA P 2. VARIABLES ALEATORIAS

(que depende sólo de una constante) de la probabilidad de que una variable aleatoria, de
media y varianza conocidas (µ y σ 2 , respectivamente), tome valores fuera del intervalo
[µ − k.σ, µ + k.σ].
Formalmente, la desigualdad de Chebyshev dice que:
((Si µ y σ son la media y la desviación tı́pica de una variable aleatoria ζ, entonces,
para cualquier constante positiva k, la probabilidad de que la variable aleatoria
tome valores que se alejen de la media en más de k desviaciones tı́picas, es
1
menor que 2 ))
k
1
P {|ζ − µ| ≥ kσ} ≤ 2
k

1
O lo que es lo mismo: P {|ζ − µ| ≤ kσ} ≥ 1 −
k2
Gráficamente:
1
P{µ−kσ< ζ <µ+kσ}≥ 1- k2

µ−kσ µ µ+kσ

Nota: La desigualdad de Chebyshev también la podemos enunciar, de forma equiva-


lente, como:

σ2
P {|ζ − µ| ≤ k} ≥ 1 −
k2

Esta segunda forma, es más útil para la resolución de la mayorı́a de los problemas.
Veamos algunos ejemplos prácticos de esta desigualdad:
Ejemplo 1: La cantidad gastada mensualmente por las familias en artı́culos de primera
necesidad es, por término medio de 720 e, con una desviación tı́pica de 60 e, ¿Cuál es el
porcentaje mı́nimo de familias que tienen un gasto mensual entre 600 y 840 e?
Solución:
Sabemos que la variable aleatoria ζ =gasto tiene µ = 720 y σ = 60
Para calcular el porcentaje, calcularemos la probabilidad y luego multiplicamos por
100.
Como no conocemos la distribución de la variable, no vamos a poder calcular exacta-
mente la probabilidad, pero como la media y la varianza son conocidas, podemos acotarla:
P {gasto entre 600 y 840e} = P {600 < ζ < 840} =
restando la media:
2.3. LA DESIGUALDAD DE CHEBYSHEV 83

= P {−120 < ζ − 720 < 120} = P {|ζ − µ| < 120}


y como la desviación tı́pica es σ = 60, por la desigualdad de Chebyshev:
σ2 602
P {gasto entre 600 y 840e} = P {|ζ −µ| < 120} ≥ 1− = 1− = 1−0.25 = 0.75
k2 1202
Luego, al menos, el 75 % de las familias tienen un gasto mensual entre 600 y 840e.

Ejemplo 2: En el bar de la facultad se sabe por experiencia que en el descanso de las


10 de la mañana se sirven un promedio de 137 cortados con una varianza de 144, ¿Cuál
será el número de cortados que deben preparar para cubrir, como mı́nimo, el 95 % de las
necesidades de la clientela?
Solución:
La variable aleatoria estudiada es ζ =número de cortados demandados y sabemos que
tiene: µ = 137 y σ 2 = 144
Queremos determinar el número de cortados, n, para cubrir, como mı́nimo, el 95 % de
la demanda, es decir: P {ζ < n} > 0.95

P {ζ < n} = P {ζ − µ < n − µ} ≥ P {| ζ − µ |< n − µ} ≥

n−µ
Si aplicamos la desigualdad de Chebyshev, considerando que n − µ = kσ (k = σ
)

1 1
≥1− =1− n−µ 2
≥ 0.95
k2

σ

Entonces:

1 σ2
1−  ≥ 0.95 ⇔ 1 −
n−µ 2
≥ 0.95
(n − µ)2
σ

r
144 144
⇔ 0.05 ≥ ⇔ n ≥ 137 + ⇔ n ≥ 191
(n − 137)2 0.05

NOTA: como se puede apreciar, si aplicamos la desigualdad de Chebyshev con la


segunda formulación, es decir, considerando n − µ = k, se puede observar que hacemos
exactamente los mismos cálculos, ya que lo que nos queda es que:

σ2 σ2
≥1− = 1 − ≥ 0.95 y llegamos a que n ≥ 191
k2 (n − µ)2

Ejemplo:
84 TEMA P 2. VARIABLES ALEATORIAS

La duración de un determinado tipo de componente electrónico, en horas, es una


variable aleatoria, X, que tiene la siguiente función de densidad (a partir de las 300 horas
de uso, si es que llega, el componente se elimina):

x


 k(2 − 100
) , si 0 ≤ x ≤ 100
k , si 100 ≤ x ≤ 200

f (x) = x

 k(3 − 100
) , si 200 ≤ x ≤ 300
0 , en el resto

1. Determina el valor de k para que efectivamente sea función de densidad.

2. Construye la función de distribución.

3. Si un componente electrónico lleva funcionando 80 horas ¿cuál es la probabilidad


de que funcione como mı́nimo 50 horas más?

4. Determina cuál es la duración esperada de estos componentes.

5. Calcula la varianza de la duración de estos componentes.

6. Calcula la probabilidad de que elegido un componente al azar su duración sea mayor


que 200 horas y comprueba que se verifica la desigualdad de Chebyshev.

Solución:

1. Determina el valor de k para que efectivamente sea función de densidad.


Si k ≥ 0 esta función es siempre no negativa.
La otra condición es que el área bajo la curva debe ser igual a 1. Imponemos esta
condición para obtener el valor de k.
Z +∞ Z 100  Z 200 Z 300 
x  x 
Área= f (x)dx = k 2− dx + kdx + k 3− dx =
−∞ 0 100 100 200 100
( 100  )
2 300
x2

x
=k 2x − + [x]200
100 + 3x − =
200 0 200 200
1
= k{200 − 50 + 100 + 900 − 450 − 600 + 200} = 300k = 1 ⇒ k = >0
300
1
Luego, si k = esta función es una función de densidad.
300
Este resultado lo podı́amos haber obtenido también gráficamente (no siempre es tan
sencillo)

El área bajo la curva es

100k 1
200k + 2 = 300k = 1 ⇒ k =
2 300
2.3. LA DESIGUALDAD DE CHEBYSHEV 85

2. Construye la función de distribución.


Z x
Sabemos que F (x) = P {ζ < x} = f (t)dt, entonces:
−∞

Si x < 0 : F (x) = 0
Si 0 ≤ x < 100:
Z x x
t2 x2
   
1 t 1 1
F (x) = 2− dt = 2t − = 2x −
300 0 100 300 200 0 300 200
1 150 1
F (100) = (200 − 50) = =
300 300 2
Si 100 ≤ x < 200:Z
x
1 1 1 1 x 1 1
F (x) = + dt = + [t]100 = + (x − 100)
2 300 100 2 300 2 300
1 1 1 1 5
F (200) = + (200 − 100) = + =
2 300 2 3 6
Si 200 ≤ x < 300:Z  x
x
t2
 
5 1 t 5 1
F (x) = + 3− dt = + 3t − =
6 300 200 100 6 300 200 200
x2 x2
   
5 1 5 1
= + 3x − − 600 + 200 = + 3x − − 400
6 300 200 6 300 200
5 1 5 50 5 1
F (300) = + (900 − 450 − 400) = + = + =1
6 300 6 300 6 6
Si x ≥ 300 : F (x) = 1

Luego, la función de distribución es:



 Si x < 0 : F (x) = 0
x2
 
1




 Si 0 ≤ x < 100 : F (x) = 2x −
300 200



1 1

F (x) = Si 100 ≤ x < 200 : F (x) = + (x − 100)
 2 300
x2
 
5 1


Si 200 ≤ x < 300 : F (x) = + 3x − − 400





 6 300 200
Si x ≥ 300 : F (x) = 1

3. Si un componente electrónico lleva funcionando 80 horas ¿cuál es la probabilidad


de que funcione como mı́nimo 50 horas más?
Nos están pidiendo P {x > (80 + 50)|x > 80}
P {(x > 130) ∩ (x > 80)} P {x > 130} 1 − F (130)
P {x > 130|x > 80} = = =
P {x > 80} P {x > 80} 1 − F (80)
1 1 1 30 1 1 3
F (130) = + (130 − 100) = + = + =
2 300  2 300 2 10 5
1 6400 128 32
F (80) = 160 − = =
300 200 300 75
3
1 − F (130) 1−
P {x > 130|x > 80} = = 5 = 30
1 − F (80) 32 43
1−
75
86 TEMA P 2. VARIABLES ALEATORIAS

4. Determina cuál es la duración esperada de estos componentes.


Z +∞
Tenemos que calcular la esperanza: E[x] = xf (x)dx
−∞
100 Z 200 Z 300 
x2 x2
Z    
1
E[x] = 2x − dx + xdx + 3x − dx =
300 0 100 100 200 100
(  )
3 100
  2 200  2 3 300
1 x x 3x x
= x2 − + + − =
300 300 0 2 100 2 300 200
1002 1002 27
 
1 2 2 2 2 2 8 2
= 100 − + 2 ∗ 100 − + ∗ 100 − 9 ∗ 100 − 6 ∗ 100 + ∗ 100 =
300 3 2 2 3
1000 z{
= = 111. 1 = E[x]
9
z{
La duración esperada es de 111. 1 horas.

5. Calcula la varianza de la duración de estos componentes.


Z +∞ Z +∞ 2
2 2 2
V ar(x) = E[x ] − (E[x]) = x f (x)dx − xf (x)dx
−∞ −∞
Calculamos el primer término:
Z +∞ Z 100  Z 200 Z 300 
x3 x3
  
2 1 2 2 2
x f (x)dx = 2x − dx + x dx + 3x − dx =
−∞ 300 0 100 100 200 100
( 100  3 200   )
4 300
1 x3 x4 x x
= 2 − + + x3 − =
300 3 400 0 3 100 400 200
1
 2000000 1000000 8000000 1000000 81000000 16000000

= 300 3
− 4
+ 3
− 3
+ 27000000 − 4
− 8000000 + 4
=
 
10000 2 1 8 1 81 110000
= − + − + 27 − −8+4 =
3 3 4 3 3 4 6
Entonces:
 2
110000 1000 485000
V ar(x) = − =
6 9 81
6. Calcula la probabilidad de que elegido un componente al azar su duración sea mayor
que 200 horas y comprueba que se verifica la desigualdad de Chebyshev.
Como conocemos la función de distribución, podemos calcular exactamente la pro-
babilidad:
5 1
P {x > 200} = 1 − P {x ≤ 200} = 1 − F (200) = 1 − =
6 6
La desigualdad de Chebyshev se utiliza cuando no conocemos la distribución (aunque
sı́ la media y la varianza), y en ese caso sólo podemos obtener una cota para la
probabilidad.
1000 485000
En este caso: µ = E[x] = y V ar(x) = σ 2 =
9 81
Como 200 > µ:
P {x > 200} < P {|x − µ| > 200 − µ}
2.4. VARIABLES ALEATORIAS BIDIMENSIONALES 87

Lo que dice la desigualdad de Chebyshev es que:

485000
σ2 81 97
P {|x − µ| > 200 − µ} < 2
= 2 =
(200 − µ) 200 − 9 1000 128

Luego, la cota que nos da Chebyshev es:

97
P {x > 200} < P {|x − µ| > 200 − µ} < = 0.7578125
128

Por lo tanto, se verifica la desigualdad de Chebyshev, ya que

1 97
La verdadera probabilidad P {x > 200} = que, efectivamente, es menor que .
6 128

2.4. Variables aleatorias bidimensionales

Llamaremos variable aleatoria bidimensional al par (ζ1 , ζ2 ), con ζ1 y ζ2 , variables


aleatorias unidimensionales.
Las siguientes definiciones son una extensión de lo que habı́amos definido para variables
unidimensionales:
Diremos que una variable aleatoria bidimendional (ζ1 , ζ2 ), es discreta si el conjunto
de puntos con probabilidad no nula es un conjunto numerable.
Llamaremos puntos de masa a los puntos con probabilidad no nula de una variable
aleatoria bidimensional discreta: (xi , yj )
Llamaremos función de probabilidad de una variable aleatoria bidimensional, a la
función que asigna a cada punto de masa su probabilidad. Es decir, a los valores:
pij = P {(ζ1 , ζ2 ) = (xi , yj )} = P {ζ1 = xi , ζ2 = yj }
X
Se verifica que pij = 1
i,j

Diremos que una variable aleatoria bidimendional (ζ1 , ζ2 ), es de tipo continuo si el


conjunto de puntos con probabilidad no nula es uno o varios recintos del plano real.
Llamaremos función de densidad a una función f (x, y) a partir de la cual podemos
obtener la probabilidad de una variable continua como el volumen encerrado entre el plano
horizontal y su curva. (estamos en 3D)
Cuando el soporte de una variable aleatoria discreta es finito, frecuentemente se re-
presenta en una tabla de doble entrada de la forma siguiente:
88 TEMA P 2. VARIABLES ALEATORIAS

ζ2 y1 y2 ... yj ... ym
ζ1
x1 p11 p12 ... p1j ... p1m
x2 p21 p22 ... p2j ... p2m
.. .. .. .. .. .. ..
. . . . . . .
xi pi1 pi2 ... pij ... pim
.. .. .. .. .. .. ..
. . . . . . .
xn pn1 pn2 ... pnj ... pnm
Para una variable bidimensional discreta (ζ1 , ζ2 ), las distribuciones marginales son
las distribuciones de las variables aleatorias unidimensionales ζ1 y ζ2 . Además, en el caso
de las variables aleatorias de tipo discreto, las funciones de probabilidad marginal son:

X
Para ζ1 : pi• = P {ζ1 = xi } = pij
j

X
Para ζ2 : p•j = P {ζ2 = yj } = pij
i

Análogamente, para una variable bidimensional (ζ1 , ζ2 ), las distribuciones condicio-


nadas son las distribuciones de las variables aleatorias unidimensionales que se obtienen
para una de las componentes (ζ1 o ζ2 ), cuando se tiene información segura de la otra
componente.
En el caso de las variables aleatorias de tipo discreto las distribuciones condicionadas
son:

P {ζ1 = xi , ζ2 = yj } pij
Para ζ1 conocida ζ2 : P {ζ1 = xi | ζ2 = yj } = =
P {ζ2 = yj } p•j

P {ζ1 = xi , ζ2 = yj } pij
Para ζ2 conocida ζ1 : P {ζ2 = yj | ζ1 = xi } = =
P {ζ1 = xi } pi•

2.5. Correlación e incorrelación. Dependencia e inde-


pendencia

En esta sección vamos a intentar medir, de alguna forma, si hay relación entre dos
variables.
Para ello vamos a comenzar definiendo una medida, la covarianza, que nos permite
saber si existe ((covariación o variación conjunta)) entre ambas.
Para una variable bidimensional (ζ1 , ζ2 ), llamaremos covarianza entre ζ1 y ζ2 al valor:

Cov(ζ1 , ζ2 ) = σ12 = E[(ζ1 − µ1 )(ζ2 − µ2 )]


2.5. CORRELACIÓN E INCORRELACIÓN. DEPENDENCIA E INDEPENDENCIA89

En el caso discreto la covarianza la podemos escribir como:

XX
Cov(ζ1 , ζ2 ) = σ12 = (xi − µ1 )(yj − µ2 )pij
i j

La covarianza tiene las siguientes PROPIEDADES:


Dada una variable bidimensional (ζ1 , ζ2 ) y dos escalares a, b ∈ R

1. Cov(ζ1 , ζ2 ) = E[ζ1 ζ2 ] − E[ζ1 ]E[ζ2 ]

2. Cov(ζ1 + a, ζ2 + b) = Cov(ζ1 , ζ2 ), no le afectan los cambios de origen

3. Cov(aζ1 , bζ2 ) = abCov(ζ1 , ζ2 ), sı́ le afectan los cambios de escala

4. Cov(ζ1 + ζ2 , ζ3 ) = Cov(ζ1 , ζ3 ) + Cov(ζ2 , ζ3 )

5. Cov(ζ1 + ζ2 , ζ3 + ζ4 ) = Cov(ζ1 , ζ3 ) + Cov(ζ1 , ζ4 ) + Cov(ζ2 , ζ3 ) + Cov(ζ2 , ζ4 )

6. V ar(ζ1 + ζ2 ) = V ar(ζ1 ) + V ar(ζ2 ) + 2Cov(ζ1 , ζ2 )

7. V ar(ζ1 − ζ2 ) = V ar(ζ1 ) + V ar(ζ2 ) − 2Cov(ζ1 , ζ2 )

Notación:
Dada una variable bidimensional (ζ1 , ζ2 ), llamaremos:

Vector de medias:    

− µ1 E[ζ1 ]
µ = =
µ2 E[ζ2 ]

Matriz de varianzas-covarianzas:
 2   
σ1 σ12 V ar(ζ1 ) Cov(ζ1 , ζ2 )
Σ= =
σ21 σ22 Cov(ζ1 , ζ2 ) V ar(ζ2 )

Para medir el grado de relación lineal entre dos variables aleatorias usaremos el co-
eficiente de correlación lineal, que se calcula como:

Cov(ζ1 , ζ2 ) σ12
Corr(ζ1 , ζ2 ) = ρ12 = p =
V ar(ζ1 ).V ar(ζ2 ) σ1 σ2

Teorema: El coeficiente de correlación toma valores entre −1 y 1.

−1 ≤ ρ ≤ 1

Demostración:
90 TEMA P 2. VARIABLES ALEATORIAS

ρ2 ≥ 0, porque es un cuadrado

ρ2 ≤ 1, porque Cov 2 (ζ1 , ζ2 ) ≤ V ar(ζ1 ).V ar(ζ2 ) 2

Por lo tanto: 0 ≤ ρ2 ≤ 1, o lo que es equivalente: −1 ≤ ρ ≤ 1

Notas:

ρ = 0 ⇔ σζ1 ζ2 = 0 ⇔ ζ1 e ζ2 están INCORRELADAS (no tienen relación lineal)

ρ 6= 0 ⇔ σζ1 ζ2 6= 0 ⇔ ζ1 e ζ2 están CORRELADAS (sı́ tienen relación lineal)

ρ < 0 ⇔ σζ1 ζ2 < 0 ⇔ ζ1 e ζ2 tienen relación lineal DECRECIENTE

ρ > 0 ⇔ σζ1 ζ2 > 0 ⇔ ζ1 e ζ2 tienen relación lineal CRECIENTE

ρ = ±1 ⇔ ζ1 e ζ2 tienen relación lineal EXACTA. Una es función lineal de la otra

Como acabamos de ver:

Diremos que dos variables aleatorias están incorreladas si no tienen relación lineal,
o lo que es lo mismo, si su covarianza es cero.

Diremos que dos variables aleatorias están correladas si tienen relación lineal, o lo
que es lo mismo, si su covarianza es distinta de cero.

Diremos que dos variables aleatorias, ζ1 y ζ2 , son INDEPENDIENTES, si cumplen


alguna de las tres condiciones (equivalentes):

1. ∀(xi , yj ) : P {ζ1 = xi | ζ2 = yj } = P {ζ1 = xi }

2. ∀(xi , yj ) : P {ζ2 = yj | ζ1 = xi } = P {ζ2 = yj }

3. ∀(xi , yj ) : P {ζ2 = yj , ζ1 = xi } = P {ζ1 = xi }.P {ζ2 = yj }

PROPIEDADES:

Si ζ1 y ζ2 , son independientes ⇒ ζ1 y ζ2 , son incorreladas.

Si ζ1 y ζ2 , son incorreladas ⇒ V ar(ζ1 + ζ2 ) = V ar(ζ1 − ζ2 ) = V ar(ζ1 ) + V ar(ζ2 )


2
Desigualdad de Cauchy-Schwarz:
Para cualquier constante a, V ar(aζ1 + ζ2 ) = a2 V ar(ζ1 ) + 2aCov(ζ1 , ζ2 ) + V ar(ζ2 ) ≥ 0
esto ocurre siempre porque es una varianza. Por lo tanto,
el discriminante de la ecuación de segundo grado, en a, debe ser menor o igual que cero. Es decir:
Cov 2 (ζ1 , ζ2 ) ≤ V ar(ζ1 ).V ar(ζ2 )
2.5. CORRELACIÓN E INCORRELACIÓN. DEPENDENCIA E INDEPENDENCIA91

Problema:
En la tabla siguiente se presenta la función de probabilidad conjunta que relaciona el
número de semanas de experiencia en un trabajo de instalación de cables de componentes
electrónicos (ζ1 ) y el número de componentes que le rechazaron el dı́a anterior (ζ2 ) para
un conjunto de trabajadores.
ζ2 0 1 2 4 5
ζ1
2 0 0 k 2k k
3 0 2k 2k k k
4 6k 3k k 0 0
Obtén:

1. El valor de k

2. El porcentaje de trabajadores con más de 2 semanas de experiencia y al menos 2


componentes rechazadas el dı́a anterior

3. El porcentaje de trabajadores con más de 2 semanas de experiencia

4. De aquellos con más de 2 semanas de experiencia, el porcentaje de trabajadores con


al menos 2 componentes rechazadas el dı́a anterior

5. El vector de medias

6. La matriz de varianzas y covarianzas

7. El número medio de componentes rechazadas para aquellos trabajadores con más


de 2 semanas de experiencia

8. ¿El no de rechazos depende de la experiencia? , ¿por qué?

9. ¿Se puede decir que ζ1 y ζ2 tienen relación lineal? En caso afirmativo, ¿creciente o
decreciente?, ¿débil o fuerte?

Solución:

1. El valor de k
Si lo que contiene la tabla es una función de probabilidad, las probabilidades que
nos dan tienen que ser todas no negativas y su suma debe ser uno (1). Por lo tanto:

1
20k = 1 → k = = 0.05
20

De ahora en adelante trabajaremos con la tabla:


92 TEMA P 2. VARIABLES ALEATORIAS

ζ2 0 1 2 4 5 pi.
ζ1
1 2 1 4
2 0 0 20 20 20 20
= 0.2
2 2 1 1 6
3 0 20 20 20 20 20
= 0.3
6 3 1 10
4 20 20 20
0 0 20
= 0.5
6 5 4 3 2 20
p.j 20
= 0.3 20
= 0.25 20
= 0.2 20
= 0.15 20
= 0.1 20
=1

2. El porcentaje de trabajadores con más de 2 semanas de experiencia y al menos 2


componentes rechazadas el dı́a anterior
Los porcentajes son las probabilidades multiplicadas por 100, por lo tanto, calcula-
remos las probabilidades.
En este caso nos piden una probabilidad conjunta:
5
P {ζ1 > 2 ∩ ζ2 ≥ 2} = = 0.25 → 25 %
20

3. El porcentaje de trabajadores con más de 2 semanas de experiencia


Es una probabilidad marginal:

P {ζ1 > 2} = 0.3 + 0.5 = 0.8 → 80 %

4. De aquellos con más de 2 semanas de experiencia, el porcentaje de trabajadores con


al menos 2 componentes rechazadas el dı́a anterior
Esto es una probabilidad condicionada:

P {ζ1 > 2 ∩ ζ2 ≥ 2} 0.25 5


P {ζ2 ≥ 2 |ζ1 > 2} = = = = 0.3125 → 31.25 %
P {ζ1 > 2} 0.8 16

5. El vector de medias
Calculamos las esperanzas de ambas variables:
P
µ1 = E[ζ1 ] = xi pi. = 2 ∗ 0.2 + 3 ∗ 0.3 + 4 ∗ 0.5 = 3.3
P
µ2 = E[ζ2 ] = yj p.j = 0 ∗ 0.3 + 1 ∗ 0.25 + 2 ∗ 0.2 + 4 ∗ 0.15 + 5 ∗ 0.1 = 1.75
   
µ1 3.3
Luego: µ = =
µ2 1.75

6. La matriz de varianzas y covarianzas


Calculamos las varianzas y la covarianza:
E[ζ12 ] = 22 ∗ 0.2 + 32 ∗ 0.3 + 42 ∗ 0.5 = 11.5

V ar(ζ1 ) = E[ζ12 ] − E[ζ1 ]2 = 11.5 − 3.32 = 0.61

E[ζ22 ] = 0 ∗ 0.3 + 1 ∗ 0.25 + 4 ∗ 0.2 + 16 ∗ 0.15 + 25 ∗ 0.1 = 5.95

V ar(ζ2 ) = E[ζ22 ] − E[ζ2 ]2 = 5.95 − 1.752 = 2.8875


2.5. CORRELACIÓN E INCORRELACIÓN. DEPENDENCIA E INDEPENDENCIA93

1 30+45+20 95
E[ζ1 ζ2 ] = 20
{2(2 + 8 + 5) + 3(2 + 4 + 4 + 5) + 4(0 + 3 + 2)} = 20
= 20
= 4.75

Cov(ζ1 , ζ2 ) = E[ζ1 ζ2 ] − E[ζ1 ]E[ζ2 ] = 4.75 − 3.3 ∗ 1.75 = −1.025


   
V ar(ζ1 ) Cov(ζ1 , ζ2 ) 0.61 −1.025
Luego: Σ = =
Cov(ζ1 , ζ2 ) V ar(ζ2 ) −1.025 2.8875
7. El número medio de componentes rechazadas para aquellos trabajadores con más
de 2 semanas de experiencia
Nos piden la media (esperanza) pero sólo para un grupo de trabajadores, luego es
una esperanza condicionada.
Lo más sencillo es construir la distribución correspondiente y calcular la esperanza
para la nueva variable:
OJO, son probabilidades condicionadas:
6
P {ζ1 > 2 ∩ ζ2 = 0} 20 6
P {ζ2 = 0 |ζ1 > 2} = = 16 =
P {ζ1 > 2} 20
16

Distribución condicionada cálculo de la esperanza


ζ2 pi |ζ1 > 2
6
0 16
5
1 16
E[ζ2 |ζ1 > 2] =
3 1
2 16
= 16
(0 ∗ 6 + 1 ∗ 5 + 2 ∗ 3 + 4 ∗ 1 + 5 ∗ 1) =
1
4 16
= 20
16
= 1.25
1
5 16
1

Por lo tanto, en el grupo de los trabajadores con más de 2 semanas de experiencia,


el número medio de componentes rechazadas es de 1.25
8. ¿El no de rechazos depende de la experiencia? , ¿por qué?
Nos están preguntando si las dos variables son independientes.
Con lo que ya sabemos, como Cov(ζ1 , ζ2 ) 6= 0 → NO son independientes
Por lo tanto, el número de rechazos depende de la experiencia porque existe cova-
riación (variación conjunta).
9. ¿Se puede decir que ζ1 y ζ2 tienen relación lineal? En caso afirmativo, ¿creciente o
decreciente?, ¿débil o fuerte?
Para responder a esta pregunta calculamos el coeficiente de correlación lineal:

Cov(ζ1 , ζ2 ) −1.025
ρ= p =√ = −0.7723
V ar(ζ1 )V ar(ζ2 ) 0.61 ∗ 2.8875
Por lo tanto:

Sı́ hay relación lineal, porque el coeficiente es distinto de cero (la covarianza
es distinta de cero)
94 TEMA P 2. VARIABLES ALEATORIAS

La relación es bastante fuerte, porque el valor del coeficiente está próximo a


−1.
Este coeficiente varı́a en el rango [−1, 1], de modo que 0 significa que no hay
relación y valores próximos a los extremos, indican mucha relación.
La relación es decreciente porque el coeficiente es negativo.
Esto significa (poniéndolo en contexto) que en general cuando aumenta el
número de años de experiencia, disminuye el número de rechazos.
Tema P 3

Modelos de variables aleatorias


unidimensionales

Algunas variables aleatorias nos interesan porque reflejan con bastante fidelidad el
comportamiento teórico de muchos fenómenos que aparecen en la naturaleza y hay otras
que por su construcción o por sus propiedades, son esenciales en el desarrollo de la infe-
rencia estadı́stica.
En este tema vamos a estudiar algunas de ellas y sus caracterı́sticas.

3.1. La distribución Binomial

Distribución Bernoulli

Llamaremos experimento o prueba de Bernoulli a un experimento aleatorio con dos


posibles resultados, a uno de ellos se le denomina ((éxito)) y al otro ((fracaso)), con proba-
bilidades de ocurrencia p y q = 1 − p respectivamente.

Seleccionar un artı́culo de un proceso de fabricación y estudiar si es defectuoso o no.

Seleccionar a un paciente con una determinada enfermedad y estudiar si se cura o


no.

Disparar a una diana y estudiar si se acierta en el blanco o no.

Si definimos la variable aleatoria ζ de modo que: ζ(éxito) = 1 y ζ(fracaso) = 0,


entonces tendremos una variable aleatoria llamada Bernoulli con dos puntos de masa y
con función de probabilidad:

P {ζ = 0} = q = 1 − p

P {ζ = 1} = p

95
96 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Jakob Bernoulli (Basilea, 27 de diciembre de 1654 - ibı́d.


16 de agosto de 1705).
También conocido como Jacob, Jacques o James Ber-
noulli, fue un genial matemático y cientı́fico suizo y her-
mano mayor de Johann Bernoulli (parte de la familia
Bernoullia ).
Siendo joven su padre Nikolaus Bernoulli, lo envió a la
Universidad de Basilea para estudiar filosofı́a y teologı́a,
con el ánimo de que se convirtiera en teólogo. Pero Ja-
kob continuó, a escondidas, las que eran sus auténticas
aficiones la fı́sica y las matemáticas.
A partir de los planteamientos de Leibniz desarrolló pro-
blemas de cálculo infinitesimal. Fundó en Basilea un colegio experimental. Estudió
por sı́ mismo la forma del Cálculo ideada por Leibniz. Desde 1687 hasta su muerte
fue profesor de Matemáticas en Basilea.
Su obra maestra fue Ars Conjectandi (el Arte de la conjetura), un trabajo pionero
en la teorı́a de la probabilidad. La publicó su sobrino Nicholas en 1713, ocho años
tras su muerte por tuberculosis. Los términos ((ensayo de Bernoulli)) y ((números
de Bernoulli)) son resultado de su trabajo.
a

El nombre Bernouilli está asociado una familia de sabios suizos que sobresalieron por sus apor-
taciones a las matemáticas y la fı́sica.
Jamás ha habido una familia de cientı́ficos que haya aportado tanto como ellos.
La familia de Jacobo Bernouilli procedı́a de la ciudad de Francfort del Main donde se habı́an visto
obligados a refugiarse huyendo de las persecuciones religiosas de la ciudad de Amberes durante
la segunda mitad del siglo XVI.
Un descendiente suyo, Nicolas Bernouilli, decidió en 1583 trasladarse a Basilea donde nació Ni-
kolaus que llegó a gozar de cierto prestigio en la ciudad.

1
Información extraida de http://www.divulgamat.net ; http://es.wikipedia.org/wiki/Jakob Bernoulli;
http://www.estadisticaparatodos.es/bibliografias/bernouilli.html
3.1. LA DISTRIBUCIÓN BINOMIAL 97

PROPIEDADES:
Una variable aleatoria ζ, de Bernoulli, con probabilidad de éxito p, tiene las siguientes
propiedades:


 0 , si x < 0
1. La función de distribución de ζ es: F (x) = q , si 0 ≤ x < 1
1 , si x ≥ 1

2. E[ζ] = p

3. V ar(ζ) = p.q

Distribución Binomial

Diremos que ζ es una variable aleatoria Binomial, si mide el número de éxitos en n


experimentos Bernoulli iguales e independientes.
Si p = P {éxito}, entonces diremos que ζ ∼ B(n, p)
Ejemplos:

Estudiar el número de piezas defectuosas de un total de 100 artı́culos de un proceso


de fabricación.

Observar a 10 pacientes con la misma enfermedad y estudiar los que se curan

Nota: Si ζ ∼ B(1, p), entonces ζ es una Bernoulli de parámetro p.

Supongamos que lanzamos un dado 5 veces y contamos las veces que aparece un ((1)).
¿Cuál es la probabilidad de que aparezcan tres unos?
Este es el tı́pico ejemplo de una distribución Binomial ya que estamos repitiendo 5
veces el experimento de lanzar un dado.
Por otra parte, nuestro ((éxito)) será ((sacar un 1)), mientras que consideraremos ((fracaso))
a cualquier otro resultado.
En cualquiera de los lanzamientos, la probabilidad de ((éxito)) (sacar un 1) es indepen-
diente de lo que haya salido en la tirada anterior.
Por último, en todos los lanzamientos, la probabilidad de ((éxito)) (sacar un 1) es
siempre la misma:
1
Como ((éxito))= E =((sacar un 1)) ⇒ P (E) =
6
5
Y por lo tanto: ((fracaso))= F =((no sacar un 1)) ⇒ P (F ) =
6
98 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Se pide la probabilidad de que aparezcan tres unos, por lo tanto, como lanzamos el
dado 5 veces buscamos la probabilidad de obtener 3 éxitos y 2 fracasos.
Esta combinación de éxitos y fracasos se puede
  obtener de muchas formas diferentes:
5 5!
EEEFF, EEFFE, . . . , FFEEE. En total hay = = 10, formas posibles.
3 3!2!
Por lo tanto, como los intentos (5) son independientes entre sı́, tenemos que:

 
11155
P (tres unos) = P (tres éxitos y 2 fracasos) = 10 = 0.03215
66666

Es decir que nuestro experimento sigue una distribución 


Binomial
 con 5 repeticiones
1
y con probabilidad de éxito 16 . Esto lo expresaremos como B 5, . Y en esta situación,
6
la probabilidad de tener 3 éxitos es: 0.03215

 
1
X ∼ B 5, P (X = 3) = 0.03215
6

Formalmente, podemos decir que:


Si ζ ∼ B(n, p) entonces, la probabilidad en los puntos de masa viene dada por:
 
n
P {ζ = k} = pk q n−k , con k = 0, 1, 2, . . . , n
k

Ejemplo: Se seleccionan 4 artı́culos de un proceso de fabricación y se clasifican en


defectuosos y no defectuosos. Sabiendo que la proporción de artı́culos defectuosos es del
25 % ¿cuál es la probabilidad de que de los 4 artı́culos, exactamente 2 sean defectuosos?
Solución: ζ ∼ B(4, 0.25) , entonces:
 
4
P {ζ = 2} = 0.252 × 0.754−2 = 0.2109
2

Cuando n es pequeño (menor o igual que 10), estas probabilidades están tabuladas
para los casos más habituales.
Veamos cómo usar la tabla de la binomial
Si la observamos, veremos que en la primera columna está n, que es el número de veces
que se repite el experimento. En la segunda columna está k, que es el número de éxitos
posibles asociado a cada valor de n. Las probabilidades tabuladas (que no son todas) las
buscamos en la segunda fila y veremos valores entre 0.01 y 0.5.
3.1. LA DISTRIBUCIÓN BINOMIAL 99
3.3. LA DISTRIBUCIÓN BINOMIAL 65

p
0.01 0.05 0.1 0.15 0.2 0.25 0.3 1/3 0.35 0.4 0.45 0.5
n k
2 0 0.9801 0.9025 0.8100 0.7225 0.6400 0.5625 0.4900 0.4444 0.4225 0.3600 0.3025 0.2500
2 1 0.0198 0.0950 0.1800 0.2550 0.3200 0.3750 0.4200 0.4444 0.4550 0.4800 0.4950 0.5000
2 2 0.0001 0.0025 0.0100 0.0225 0.0400 0.0625 0.0900 0.1111 0.1225 0.1600 0.2025 0.2500

3 0 0.9703 0.8574 0.7290 0.6141 0.5120 0.4219 0.3430 0.2963 0.2746 0.2160 0.1664 0.1250
3 1 0.0294 0.1354 0.2430 0.3251 0.3840 0.4219 0.4410 0.4444 0.4436 0.4320 0.4084 0.3750
3 2 0.0003 0.0071 0.0270 0.0574 0.0960 0.1406 0.1890 0.2222 0.2389 0.2880 0.3341 0.3750
3 3 0.0000 0.0001 0.0010 0.0034 0.0080 0.0156 0.0270 0.0370 0.0429 0.0640 0.0911 0.1250

4 0 0.9606 0.8145 0.6561 0.5220 0.4096 0.3164 0.2401 0.1975 0.1785 0.1296 0.0915 0.0625
4 1 0.0388 0.1715 0.2916 0.3685 0.4096 0.4219 0.4116 0.3951 0.3845 0.3456 0.2995 0.2500
4 2 0.0006 0.0135 0.0486 0.0975 0.1536 0.2109 0.2646 0.2963 0.3105 0.3456 0.3675 0.3750
4 3 0.0000 0.0005 0.0036 0.0115 0.0256 0.0469 0.0756 0.0988 0.1115 0.1536 0.2005 0.2500
4 4 0.0000 0.0000 0.0001 0.0005 0.0016 0.0039 0.0081 0.0123 0.0150 0.0256 0.0410 0.0625

5 0 0.9510 0.7738 0.5905 0.4437 0.3277 0.2373 0.1681 0.1317 0.1160 0.0778 0.0503 0.0313
5 1 0.0480 0.2036 0.3281 0.3915 0.4096 0.3955 0.3602 0.3292 0.3124 0.2592 0.2059 0.1563
5 2 0.0010 0.0214 0.0729 0.1382 0.2048 0.2637 0.3087 0.3292 0.3364 0.3456 0.3369 0.3125
5 3 0.0000 0.0011 0.0081 0.0244 0.0512 0.0879 0.1323 0.1646 0.1811 0.2304 0.2757 0.3125
5 4 0.0000 0.0000 0.0005 0.0022 0.0064 0.0146 0.0284 0.0412 0.0488 0.0768 0.1128 0.1563
5 5 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0024 0.0041 0.0053 0.0102 0.0185 0.0313

6 0 0.9415 0.7351 0.5314 0.3771 0.2621 0.1780 0.1176 0.0878 0.0754 0.0467 0.0277 0.0156
6 1 0.0571 0.2321 0.3543 0.3993 0.3932 0.3560 0.3025 0.2634 0.2437 0.1866 0.1359 0.0938
6 2 0.0014 0.0305 0.0984 0.1762 0.2458 0.2966 0.3241 0.3292 0.3280 0.3110 0.2780 0.2344
6 3 0.0000 0.0021 0.0146 0.0415 0.0819 0.1318 0.1852 0.2195 0.2355 0.2765 0.3032 0.3125
6 4 0.0000 0.0001 0.0012 0.0055 0.0154 0.0330 0.0595 0.0823 0.0951 0.1382 0.1861 0.2344
6 5 0.0000 0.0000 0.0001 0.0004 0.0015 0.0044 0.0102 0.0165 0.0205 0.0369 0.0609 0.0938
6 6 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0007 0.0014 0.0018 0.0041 0.0083 0.0156

7 0 0.9321 0.6983 0.4783 0.3206 0.2097 0.1335 0.0824 0.0585 0.0490 0.0280 0.0152 0.0078
7 1 0.0659 0.2573 0.3720 0.3960 0.3670 0.3115 0.2471 0.2048 0.1848 0.1306 0.0872 0.0547
7 2 0.0020 0.0406 0.1240 0.2097 0.2753 0.3115 0.3177 0.3073 0.2985 0.2613 0.2140 0.1641
7 3 0.0000 0.0036 0.0230 0.0617 0.1147 0.1730 0.2269 0.2561 0.2679 0.2903 0.2918 0.2734
7 4 0.0000 0.0002 0.0026 0.0109 0.0287 0.0577 0.0972 0.1280 0.1442 0.1935 0.2388 0.2734
7 5 0.0000 0.0000 0.0002 0.0012 0.0043 0.0115 0.0250 0.0384 0.0466 0.0774 0.1172 0.1641
7 6 0.0000 0.0000 0.0000 0.0001 0.0004 0.0013 0.0036 0.0064 0.0084 0.0172 0.0320 0.0547
7 7 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0005 0.0006 0.0016 0.0037 0.0078

8 0 0.9227 0.6634 0.4305 0.2725 0.1678 0.1001 0.0576 0.0390 0.0319 0.0168 0.0084 0.0039
8 1 0.0746 0.2793 0.3826 0.3847 0.3355 0.2670 0.1977 0.1561 0.1373 0.0896 0.0548 0.0313
8 2 0.0026 0.0515 0.1488 0.2376 0.2936 0.3115 0.2965 0.2731 0.2587 0.2090 0.1569 0.1094
8 3 0.0001 0.0054 0.0331 0.0839 0.1468 0.2076 0.2541 0.2731 0.2786 0.2787 0.2568 0.2188
8 4 0.0000 0.0004 0.0046 0.0185 0.0459 0.0865 0.1361 0.1707 0.1875 0.2322 0.2627 0.2734
8 5 0.0000 0.0000 0.0004 0.0026 0.0092 0.0231 0.0467 0.0683 0.0808 0.1239 0.1719 0.2188
8 6 0.0000 0.0000 0.0000 0.0002 0.0011 0.0038 0.0100 0.0171 0.0217 0.0413 0.0703 0.1094
8 7 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0012 0.0024 0.0033 0.0079 0.0164 0.0313
8 8 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0002 0.0007 0.0017 0.0039

9 0 0.9135 0.6302 0.3874 0.2316 0.1342 0.0751 0.0404 0.0260 0.0207 0.0101 0.0046 0.0020
9 1 0.0830 0.2985 0.3874 0.3679 0.3020 0.2253 0.1556 0.1171 0.1004 0.0605 0.0339 0.0176
9 2 0.0034 0.0629 0.1722 0.2597 0.3020 0.3003 0.2668 0.2341 0.2162 0.1612 0.1110 0.0703
9 3 0.0001 0.0077 0.0446 0.1069 0.1762 0.2336 0.2668 0.2731 0.2716 0.2508 0.2119 0.1641
9 4 0.0000 0.0006 0.0074 0.0283 0.0661 0.1168 0.1715 0.2048 0.2194 0.2508 0.2600 0.2461
9 5 0.0000 0.0000 0.0008 0.0050 0.0165 0.0389 0.0735 0.1024 0.1181 0.1672 0.2128 0.2461
9 6 0.0000 0.0000 0.0001 0.0006 0.0028 0.0087 0.0210 0.0341 0.0424 0.0743 0.1160 0.1641
9 7 0.0000 0.0000 0.0000 0.0000 0.0003 0.0012 0.0039 0.0073 0.0098 0.0212 0.0407 0.0703
9 8 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0009 0.0013 0.0035 0.0083 0.0176
9 9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0001 0.0003 0.0008 0.0020

10 0 0.9044 0.5987 0.3487 0.1969 0.1074 0.0563 0.0282 0.0173 0.0135 0.0060 0.0025 0.0010
10 1 0.0914 0.3151 0.3874 0.3474 0.2684 0.1877 0.1211 0.0867 0.0725 0.0403 0.0207 0.0098
10 2 0.0042 0.0746 0.1937 0.2759 0.3020 0.2816 0.2335 0.1951 0.1757 0.1209 0.0763 0.0439
10 3 0.0001 0.0105 0.0574 0.1298 0.2013 0.2503 0.2668 0.2601 0.2522 0.2150 0.1665 0.1172
10 4 0.0000 0.0010 0.0112 0.0401 0.0881 0.1460 0.2001 0.2276 0.2377 0.2508 0.2384 0.2051
10 5 0.0000 0.0001 0.0015 0.0085 0.0264 0.0584 0.1029 0.1366 0.1536 0.2007 0.2340 0.2461
10 6 0.0000 0.0000 0.0001 0.0012 0.0055 0.0162 0.0368 0.0569 0.0689 0.1115 0.1596 0.2051
10 7 0.0000 0.0000 0.0000 0.0001 0.0008 0.0031 0.0090 0.0163 0.0212 0.0425 0.0746 0.1172
10 8 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0014 0.0030 0.0043 0.0106 0.0229 0.0439
10 9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0005 0.0016 0.0042 0.0098
10 10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010

Figura 3.8: Tabla de la Binomial


100 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Ası́, si tenemos una B(6, 0.35) (repetimos un experimento 6 veces con probabilidad de
éxito, en cada repetición, de 0.35), entonces, si queremos saber ¿cuál es la probabilidad
de obtener 4 éxitos?

Si X ∼ B(6, 0.35), entonces P (X = 4) = 0.0951

Importante, como podemos observar, el caso de que p > 0.5 no está tabulado. Esto
es normal ya que si p > 0.5 eso significa que q < 0.5 y estará en las tablas.

Ejemplo. En una determinada región, la probabilidad de lluvia los dı́as de otoño es


0.75, si elegimos 8 dı́as de otoño al azar ¿cuál es la probabilidad de que en 5 de ellos
llueva?

Estamos en una situación tı́pica de una Binomial.

éxito=E=llueve ese dı́a


P (E) = p = 0.75

En este caso, como elegimos 8 dı́as, tenemos una B(8, 0.75), y queremos calcular la
probabilidad de que el número de éxitos sea igual a 5: P (X = 5).
Esta probabilidad no la podemos buscar en las tablas ya que la probabilidad de éxito
es mayor que 0.5, ¿cómo lo resolvemos?
La solución es sencilla. Si la probabilidad de éxito es p > 0.5, eso significa que la
probabilidad de fracaso es q = 1 − p < 0.5, entonces:
Que llueva 5 de los 8 dı́as, es lo mismo que decir que que no llueva 3 de los 8 dı́as, y
la probabilidad de que no llueva es q = 1 − 0.75 = 0.25

éxito=llueve ese dı́a ⇒ fracaso=no llueve ese dı́a


P (E) = p = 0.75, por lo tanto, P (F ) = q = 1 − p = 0.25

Por lo tanto, queremos calcular la probabilidad de que el número de fracasos sea igual
a 3: P (Y = 3), para una B(8, 0.25), y esto sı́ está en las tablas: P (Y = 3) = 0.2076

Sin embargo, si la probabilidad de lluvia hubiese sido 0.73, no podrı́amos utilizar las
tablas de ninguna forma, y tendrı́amos que haber hecho los cálculos directamente:
Si tenemos una B(8, 0.73), y queremos calcular la probabilidad de que el número de
éxitos sea igual a 5: P (X = 5), aplicamos la fórmula:

   
8 5 (8−5) 8
P (X = 5) = 0.73 (1 − 0.73) = 0.735 0.273 = 0.2285
5 5
3.1. LA DISTRIBUCIÓN BINOMIAL 101

Ejemplo. En la asignatura de Estadı́stica, el 60 % de los estudiantes resuelven todos


los ejercicios antes del último dı́a. Si elegimos 20 estudiantes de esta asignatura al azar,
calcula:

1. Probabilidad de que 10 de ellos resuelvan los ejercicios antes del último dı́a.
2. Probabilidad de que al menos 3 de ellos resuelvan los ejercicios antes del último dı́a.
3. Probabilidad de que entre 8 y 12 estudiantes (ambos inclusive), resuelvan los ejer-
cicios antes del último dı́a.

Si llamamos éxito a ((el estudiante resuelve los ejercicios antes del último dı́a)), estamos
ante una B(20, 0.6).
Como el número de repeticiones del experimento es mayor que 10, las probabilidades
no están tabuladas y por lo tanto tendremos que calcularlas en todos los casos.
Entonces:

1. Probabilidad de que 10 estudiantes resuelvan los ejercicios antes del último dı́a.
 
20
P (X = 10) = 0.610 0.410 = 184756 × 0.610 × 410 = 0.117
10
2. Probabilidad de que al menos 3 estudiantes resuelvan los ejercicios antes del último
dı́a.
P (X ≥ 3) = P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6) + · · · + P (X = 20)
Una opción es calcular estas 18 probabilidades y sumarlas, y otra más sencilla es
pasar al complementario:
P (X ≥ 3) = 1 − P (X < 3)
como estamos trabajando con una distribución discreta:
P (X < 3) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
y sólo tenemos que calcular estas tres probabilidades.
 
20
P (X = 0) = 0.60 0.420 = 1 × 1 × (1.1 × 10−8) ≈ 0
0
 
20
P (X = 1) = 0.61 0.419 = 20 × 0.6 × (2.75 × 10−8) = 3.3 × 10−7 = 0.00000033
1

 
20
P (X = 2) = 0.62 0.418 = 190 × 0.62 × 0.418 = 4.7 × 10−6 = 0.0000047
2
entonces:
P (X ≥ 3) = 1−P (X < 3) = 1−(0+0.00000033+0.0000047) = 1−(5.03×10−6 ) = 0.99999497
102 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

3. Probabilidad de que entre 8 y 12 estudiantes (ambos inclusive), resuelvan los ejer-


cicios antes del último dı́a.

P (8 ≤ X ≤ 12) = P (X = 8) + P (X = 9) + P (X = 10) + P (X = 11) + P (X = 12)

P (X = 8) = 0.0355 ; P (X = 9) = 0.0710 ; P (X = 10) = 0.1171 ; P (X = 11) =


0.1597 ; P (X = 12) = 0.1797
entonces:

P (8 ≤ X ≤ 12) = 0.033 + 0.071 + 0.1171 + 0.1597 + 0.1797 = 0.563

Una variable aleatoria con distribución Binomial, ζ ∼ B(n, p), tiene las siguientes
PROPIEDADES:

E[ζ] = n.p

V ar(ζ) = n.p.q

Si ζ1 ∼ B(1, p), ζ2 ∼ B(1, p), . . . , ζn ∼ B(1, p) independientes, entonces:

ζ1 + ζ2 + · · · + ζn ∼ B(n, p)

Si ζ1 ∼ B(n1 , p) y ζ2 ∼ B(n2 , p) independientes, entonces:

ζ = ζ1 + ζ2 ∼ B(n1 + n2 , p)

3.2. La distribución Uniforme

De las distribuciones de probabilidad asociadas a variables aleatorias continuas, la


distribución Uniforme es la más sencilla.
Esta distribución surge al considerar que todos los posibles valores dentro de un inter-
valo son equiprobables. Por lo tanto, la probabilidad de que una variable aleatoria tome
valores en un subintervalo es proporcional a la longitud del mismo.
Diremos que una variable aleatoria ζ tiene distribución Uniforme en un intervalo finito
[a, b], y lo denotamos como: ζ ∼ U (a, b) si su función de densidad es:
( 1
, si a ≤ x ≤ b
f (x) = b−a
0, en el resto

La gráfica de esta función es:


3.3. LA DISTRIBUCIÓN NORMAL 103

Y sus principales caracterı́sticas son:


 0,

x−a
si x < a
F (x) = P {ζ < x} = , si a ≤ x ≤ b
 b−a

1, si x > b

a+b
Su media es: E[ζ] =
2
(b − a)2
Su varianza es: V ar(ζ) =
12

3.3. La distribución Normal

Se dice que algo es normal, cuando se encuentra en su estado natural, cuando sirve de
norma o regla, o cuando por su naturaleza, forma o magnitud se ajusta a ciertas normas
fijadas de antemano.
Y ¿qué tiene que ver esto con la Estadı́stica?, pues mucho más de lo que parece.
Cuando estudiamos una caracterı́stica de una población, nos interesa saber si los va-
lores observados son normales, es decir, si el comportamiento de nuestra variable, en la
población analizada, es normal, es el esperado o el que cabrı́a esperar, o si, por el contrario,
la variable presenta un comportamiento anómalo.
Si pensamos en la altura o el peso de los hombres adultos de una determinada po-
blación, podemos observar que hay unos determinados valores que nos pueden parecer
normales (175 cm, 80 kg), y que nos lo parecen ası́ porque son los más habituales, los
que aparecen con mayor frecuencia, mientras que los valores alejados de estos, tanto por
exceso como por defecto ya no se consideran normales (225 cm, 40 kg) y si aparecen lo
hacen con una frecuencia muy pequeña. En general, lo normal, se encuentra cerca del
valor medio y es lo más frecuente.
Esta idea la plasmó Gauss en una curva llamada curva Normal, cuya formulación
matemática es la siguiente:
1 (x−µ)2
f (x) = √ e− 2σ2
σ 2π

donde:
104 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

f (x) es la frecuencia de un determinado valor


x es un valor cualquiera de la variable
µ es la media de la distribución
σ es la desviación tı́pica de la distribución
π es la constante: 3.14159...
e es la constante: 2.71828...
Los valores de µ y de σ constituyen los parámetros de la curva Normal, que denotare-
mos como N (µ, σ) (Normal de media µ y desviación tı́pica σ).
Está claro que este no es más que un modelo teórico y que ningún fenómeno de la
naturaleza se va a ajustar exactamente a este modelo, pero sı́ que hay muchos fenómenos
cuyo comportamiento se acercará mucho.

Johann Carl Friedrich Gauss (Brunswick, 30 de abril de 1777


– Gotinga, 23 de febrero de 1855).
Fue un matemático, astrónomo, geodesta, y fı́sico alemán que
contribuyó significativamente en muchos campos, incluida la
teorı́a de números, el análisis matemático, la geometrı́a dife-
rencial, la estadı́stica, el álgebra, la geodesia, el magnetismo y
la óptica.
Considerado ((el prı́ncipe de las matemáticas)) y ((el matemático
más grande desde la antigüedad)), Gauss ha tenido una influen-
cia notable en muchos campos de la matemática y de la ciencia.
2
Gauss fue un niño prodigio, de quien existen muchas anécdotas
acerca de su asombrosa precocidad. Hizo sus primeros grandes descubrimientos
mientras era apenas un adolescente en el bachillerato y completó su magnum opus,
Disquisitiones arithmeticae a los veintiún años (1798), aunque fue publicado en
1801.
Además de matemático precoz (aprendió a leer y a utilizar la aritmética a los tres
años) Gauss fue astrónomo, fı́sico e inventor (en 1.833 construyó el primer telégra-
fo). En el año 1.801 predijo la posición del asteroide Ceres utilizando el método de
mı́nimos cuadrados. De hecho demostró que la estimación de una medida usando
este método es óptima cuando los errores en las mediciones siguen una curva que
él llamó ((de errores)) y que nosotros llamamos Normal o campana de Gauss.

Diremos que una variable aleatoria ζ, tiene una distribución Normal, si su función
de densidad es:
f (x) = √ e− 2σ2 , ∀x ∈ R
1 (x−µ)2

σ 2π
Donde: µ = E[ζ] y σ 2 = V ar(ζ)
Los parámetros de esta distribución son µ y σ, es decir, la esperanza y la desviación
2
Información extraida de http://es.wikipedia.org/wiki/Carl Friedrich Gauss;
http://www.estadisticaparatodos.es/bibliografias/gauss.html
3.3. LA DISTRIBUCIÓN NORMAL 105

tı́pica de la variable aleatoria; esto significa que, para cada par de valores (µ, σ) tenemos
una función de densidad distinta.
Entonces, si una variable aleatoria tiene distribución Normal de parámetros µ y σ, lo
denotaremos por: ζ ∼ N (µ, σ).

A simple vista se pueden observar varias caracterı́sticas:

1. Tiene forma de campana.

2. Es simétrica respecto al parámetro µ.

3. La media, la mediana y la moda coinciden con el valor µ.

4. Los puntos de inflexión de la curva corresponden a las abscisas µ ± σ.

Además esta curva tiene otras propiedades que, aunque se intuyen, no se ven a
simple vista y que vamos a comentar:

5. El área total bajo la curva vale 1.

6. Existe una relación muy interesante entre la media y la desviación tı́pica: ((la pro-
porción de datos que se encuentran entre la media y la media más una desviación
tı́pica es de 0.3413 )) (aproximadamente un tercio).
106 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Esto significa que en el intervalo de 2 desviaciones tı́picas en torno a la media, se


concentra una proporción de observaciones de 0.6826, o lo que es lo mismo, el 68.26 % de
las observaciones (algo más de dos tercios).
En general, casi el 100 % de las observaciones se encuentran a menos de 3 desviaciones
tı́picas de la media.

Nota: estamos identificando la proporción de datos en un intervalo con el área bajo la


curva en dicho intervalo, es decir, con la probabilidad en el intervalo.

La función de distribución de una variable aleatoria Normal de parámetros µ y σ,


ζ ∼ N (µ, σ), es de la forma:

a
√ e− 2σ2 dx, ∀x ∈ R
1
Z
(x−µ)2
F (a) = P {ζ < a} =
−∞ σ 2π
3.3. LA DISTRIBUCIÓN NORMAL 107

La función de distribución no se puede calcular exactamente por lo que es difı́cil


encontrar las probabilidades para una variable aleatoria con distribución Normal.
Se podrı́a pensar en generar tablas para esos cálculos, pero habrı́a que gererar infinitas,
ya que cada par (µ, σ) da lugar a una distribución diferente.
La solución está en utilizar un único miembro de la familia de Normales y tabular sus
probabilidades.
Dada cualquier variable aleatoria ζ, y sea cual sea su distribución, la variable aleatoria
que se obtiene al restarle su esperanza y dividir el resultado por su desviación tı́pica, tiene
esperanza igual a cero y desviación tı́pica igual a uno. Es lo que se llama una variable
aleatoria tipificada.
Es decir, ∀ζ con E[ζ] = µ y V ar(ζ) = σ 2 , se tiene que:
ζ−µ
la variable Z = σ
es una variable tipificada, es decir: E[Z] = 0 y V ar(Z) = 1

Pues bien, lo que haremos será tipificar cualquier variable ζ ∼ N (µ, σ) , trans-
formándola en una Z ∼ N (0, 1), y utilizar una única tabla correspondiente a esta variable.
Entonces, para calcular probabilidades de cualquier variable aleatoria con distribución
Normal, ζ ∼ N (µ, σ) , haremos lo siguiente:

P {ζ ≤ a} = P { ζ−µ
σ
≤ a−µ
σ
} = P {Z ≤ a−µ
σ
}

P {ζ ≥ b} = P { ζ−µ
σ
≥ b−µ
σ
} = P {Z ≥ b−µ
σ
}

P {a ≤ ζ ≤ b} = P { ζ−µ
σ
≤ a−µ
σ
} = P { a−µ
σ
≤Z≤ b−µ
σ
}

1 x2
La función de densidad de la Z ∼ N (0, 1) es: f (x) = √ e− 2 , ∀x ∈ R y la función

de distribución (su integral) está tabulada.
Tabla de la N (0, 1):
x2 2
1 1     x2
PZ 
PzZ z   e e2 dx dx
108 TEMA P 3. MODELOS2 2z z DE VARIABLES ALEATORIAS UNIDIMENSIONALES

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
z 0.0 0.000.5000 0.01
0.4960 0.02
0.4920 0.03
0.4880 0.04
0.4840 0.05
0.4801 0.06 0.4721
0.4761 0.07 0.46810.080.4641 0.09
0.0 0.10.5000
0.46020.4960
0.4562 0.4920
0.4522 0.4880
0.4483 0.4840
0.4443 0.4801
0.4404 0.4761 0.4325
0.4364 0.47210.4286
0.46810.42470.4641
0.1 0.20.4602
0.42070.4562
0.4168 0.4522
0.4129 0.4483
0.4090 0.4443
0.4052 0.4404
0.4013 0.4364 0.3936
0.3974 0.43250.3897
0.42860.38590.4247
0.2 0.30.4207
0.38210.4168
0.3783 0.4129
0.3745 0.4090
0.3707 0.4052
0.3669 0.4013
0.3632 0.3974 0.3557
0.3594 0.39360.3520
0.38970.34830.3859
0.3 0.34460.3783
0.40.3821 0.3409 0.3745
0.3372 0.3336
0.3707 0.3300
0.3669 0.3264
0.3632 0.3228
0.3594 0.3192
0.35570.3156
0.35200.31210.3483
0.4 0.50.3446 0.3409 0.3372
0.3085 0.3050 0.3015 0.3336
0.2981 0.3300
0.2946 0.3264
0.2912 0.3228 0.2843
0.2877 0.31920.2810
0.3156
0.27760.3121
0.2743 0.2709 0.2676
0.60.3085 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.5 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.2420 0.2389 0.2358
0.70.2743 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.6 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.7 0.2420
0.18410.2389
0.1814 0.2358
0.1788 0.2327
0.1762 0.2296
0.1736 0.2266
0.1711 0.2236 0.1660
0.1685 0.22060.1635
0.2177
0.16110.2148
0.9
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.1587 0.1562
1.00.1841 0.1814 0.1788 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
0.9 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.0 0.11510.1562
1.20.1587 0.1131 0.1539
0.1112 0.1093
0.1515 0.1075
0.1492 0.1056
0.1469 0.1038
0.1446 0.1020
0.14230.1003 0.09850.1379
0.1401
1.1 0.09680.1335
1.30.1357 0.0951 0.1314
0.0934 0.0918
0.1292 0.0901
0.1271 0.0885
0.1251 0.0869 0.0853 0.0838
0.1230 0.1210 0.1190 0.08230.1170
0.08080.1131
1.40.1151 0.0793 0.1112
0.0778 0.0764
0.1093 0.0749
0.1075 0.0735
0.1056 0.0721
0.1038 0.0708
0.10200.0694 0.06810.0985
0.1003
1.2
1.3 1.50.0968
0.06680.0951
0.0655 0.0934
0.0643 0.0918
0.0630 0.0901
0.0618 0.0885
0.0606 0.0869 0.0582
0.0594 0.08530.0571
0.0838
0.05590.0823
1.4 0.05480.0793
1.60.0808 0.0537 0.0778
0.0526 0.0516
0.0764 0.0505
0.0749 0.0495
0.0735 0.0485
0.0721 0.0475
0.07080.0465 0.04550.0681
0.0694
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.5 1.80.0668
0.03590.0655
0.0351 0.0643
0.0344 0.0630
0.0336 0.0618
0.0329 0.0606
0.0322 0.0594 0.0307
0.0314 0.05820.0301
0.0571
0.02940.0559
1.6 1.90.0548
0.02870.0537
0.0281 0.0526
0.0274 0.0516
0.0268 0.0505
0.0262 0.0495
0.0256 0.0485 0.0244
0.0250 0.04750.0239
0.0465
0.02330.0455
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
1.8 2.10.0359
0.01790.0351
0.0174 0.0344
0.0170 0.0336
0.0166 0.0329
0.0162 0.0322
0.0158 0.0314 0.0150
0.0154 0.03070.0146
0.0301
0.01430.0294
1.9 2.20.0287
0.01390.0281
0.0136 0.0274
0.0132 0.0268
0.0129 0.0262
0.0125 0.0256
0.0122 0.0250 0.0116
0.0119 0.02440.0113
0.0239
0.01100.0233
0.0107 0.0104 0.0102
2.30.0228 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.0 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
0.00620.0136
2.50.0139 0.0060 0.0132
0.0059 0.0057
0.0129 0.0055
0.0125 0.0054
0.0122 0.0052
0.0119 0.0051
0.01160.0049 0.00480.0110
0.0113
2.2
0.0047 0.0045 0.0044
2.60.0107 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.3 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
0.0035 0.0034 0.0033
2.70.0082 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.4 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.5 0.00190.0060
2.90.0062 0.0018 0.0059
0.0018 0.0017
0.0057 0.0016
0.0055 0.0016
0.0054 0.0015
0.0052 0.0015
0.00510.0014 0.00140.0048
0.0049
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
3 0.0019 0.0018
0.0 968 0.0018 0.0017 0.0016 0.0016
233 0.00.0015
30.0015 4 0.0014 4
Para 2.9 0.0 4810.0014
3 3 3 3 3 3
valores mayores:
0.00135
4 4
0.0 687
4
0.0 483
5
0.0 337 0.0
5 5
159 0.0 108
5
0.0 723
5 6 6
4 0.0 317 0.0 207 0.0 133 0.0 854 0.0 541 0.0 340 0.0 211 0.0 130 0.0 793 0.0 479
6 6 7 7 7 7 7 8 8 8
5 0.0 287 0.0 170 0.0 996 0.0 579 0.0 333 0.0 190 0.0 107 0.0 599 0.0 332 0.0 182
9 9 9 9 10 10 10 10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
z 7 0.00.0 128 0.1 0.0 624 0.2
0.0 301 0.0
0.3144 0.00.4 682 0.0 0.5
320 0.0 149
0.6 0.0 688
0.7 0.0 3110.80.0 133 0.9
3 3 3 3 3 3 3 4 4
3 0.00135 0.0 968 0.0 687 0.0 483 0.0 337 0.0 233 0.0 159 0.0 108 0.0 723 0.0 481
4 4 4 5 5 5 5 5 6 6
4 0.0 317 0.0 207 0.0 133 0.0 854 0.0 541 0.0 340 0.0 211 0.0 130 0.0 793 0.0 479
6 6 7 7 7 7 7 8 8 8
5 0.0 287 0.0 170 0.0 996 0.0 579 0.0 333 0.0 190 0.0 107 0.0 599 0.0 332 0.0 182
9 9 9 9 10 10 10 10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
7 0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 0.0 311 0.0 133

Esta tabla representa la proporción de observaciones que se encuentran ((a la derecha))


de un determinado valor z, correspondiente a una variable que se distribuye según una
Normal de media 0 y desviación tı́pica 1: N (0, 1).
3.3. LA DISTRIBUCIÓN NORMAL 109

3.3.1. ¿Cómo se utiliza la tabla?

En primer lugar, sabemos que la curva es simétrica, por lo que la mitad de las obser-
vaciones (0.5 o el 50 %), se encuentran en cada una de las dos mitades. Por eso solo se
utiliza la parte de la derecha, ya que haciendo un cálculo muy sencillo se pueden obtener
las proporciones correspondientes para los valores negativos.
¿Cómo se de
Tabla leenlalos valorestipificada
Normal de la tabla?
Z ~ N(0,1)
En general se trabaja con valores tı́picos con dos decimales. La parte entera
y el primer decimal están en la columna de la izquierda de la tabla, y el segundo decimal
en la primera fila.
x2
 
PZ modo,
z  para
1
De este  buscar
2 z
2
e dx la proporción de observaciones con un valor tı́pico mayor
que 0.59, tenemos que buscar la intersección entre la fila del 0.5 y la columna del 0.09:

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121

0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
Es decir
1.0 que dicha0.1562
0.1587 proporción
0.1539 es de 0.2776,
0.1515 0.1492 o0.1469
dicho 0.1446
de otra0.1423
forma,0.1401
un 27.76 % de las
0.1379
observaciones
1.1 tienen una puntuación tı́pica mayor que 0.59.
0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
Cálculos en distintas situaciones
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
La tabla
1.7 solo0.0446nos0.0436
da la 0.0427
proporción
0.0418 de datos0.0401
0.0409 por encima de un 0.0375
0.0392 0.0384 determinado
0.0367 valor
positivo, 1.8
ası́ que si queremos
0.0359 calcular
0.0351 0.0344 alguna
0.0336 otra proporción
0.0329 0.0322 0.0314tendremos que hacer
0.0307 0.0301 0.0294algunos
0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
1.9 obtenerla.
cálculos para
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
Básicamente,
2.1 sólo0.0174
0.0179 haremos
0.0170uso0.0166
de dos propiedades
0.0162 de la 0.0150
0.0158 0.0154 Normal que 0.0143
0.0146 no hay que
olvidar: 2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
Es 2.5
simétrica
0.0062respecto
0.0060 a0.0059
la media.
0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
El área
2.7 total
0.0035 bajo la
0.0034 curva
0.0033 vale 1.
0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
Ejemplo: Para la variable aleatoria Z ∼ N (0, 1), calcula las siguientes probabilidades:
Probabilidad solución Probabilidad solución
z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
P {ζ 3≤ 0.6}
0.00135 0.7257 {1.3
0.0 968 0.0 687 P0.0
3 3
483 <0.0
3 < 1.4}
ζ 337 0.0 233 0.016
3 3
0.0 159
3 3
0.0 108 0.0 723 0.0 481
4 4

P {ζ 4≤ −0.3}
0.0 317
4 4
0.3821 5
{|ζ|
0.0 207 0.0 133 P0.0
4
854≤ 0.0
5
2}541 0.0 340 0.9544
5 5 5
0.0 211
6 6
0.0 130 0.0 793 0.0 479
6 6 7 7 7 7 7 8 8 8
P {ζ 5> −1.6}
0.0 287
9 9
0.9452
0.0 170
9
0.0 996
9
P {|ζ| > 2}
0.0 579
10
0.0 333
10
0.0 190
10
0.0456
0.0 107
0.0 599 0.0 332 0.0 182
10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
7 0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 0.0 311 0.0 133
110 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Para calcular las probabilidades, es muy recomendable hacer siempre el dibujo del área
que se quiere calcular.

Ejercicio: Para la variable aleatoria Z ∼ N (5, 2), calcula las siguientes probabilidades:
Probabilidad solución Probabilidad solución
P {ζ ≤ 6} 0.6915 P {0 < ζ < 3} 0.1525
P {ζ > 2} 0.9332 P {|ζ − 5| ≤ 1} 0.383
P {ζ < −1} 0.00135 P {|ζ − 5| > 2} 0.3174
P {4 < ζ < 6} 0.383 P {|ζ − 1| < 2} 0.15735
P {5 < ζ < 7} 0.3413 P {|ζ| > 2} 0.9394

Obtención de valores crı́ticos

Del mismo modo que nos preguntamos por la proporción de observaciones que se
encuentran en un determinado intervalo de valores tipificados, nos podrı́amos hacer la
pregunta inversa: ¿cuál es el valor tipificado a partir del cual se encuentra una
determinada proporción de observaciones?
Podemos responder a esta cuestión utilizando la tabla de forma parecida al caso an-
terior.
Supongamos que tenemos una variable aleatoria con distribución: ζ ∼ N (6.5, 1.7).
Si queremos determinar entre qué valores se encuentra el 60 % central de
las observaciones, haremos lo siguiente:
Como la distribución de los valores observados y la de los valores tipificados son equi-
valentes, usaremos la tabla de la N (0, 1) para obtener los valores que determinan ese
intervalo y después desharemos el cambio.

Como la curva es simétrica, lo que necesitamos es el valor que deja a su derecha un

20 % de las observaciones , y su simétrico.


Buscamos en la tabla dicha proporción
x2
 
PZ  z 
1
 e dx
2 z
2

3.3. LA DISTRIBUCIÓN NORMAL 111

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121

0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611

1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469


0.1423 0.1401 0.1446 0.1379
El valor
1.1 más
0.1357 0.1335 corresponde
cercano al valor
0.1314 0.1292 tı́pico:
0.1271 0.84.0.1230
0.1251 0.1210 0.1190 0.1170
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
(Si el valor buscado
0.0968
queda
0.0951
justo 0.0918
0.0934
en medio de dos
0.0901
valores
0.0885
tı́picos,
0.0869
tomamos la
0.0853 0.0838
media
0.0823
1.3
de ambos)
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681

Esto1.5significa que 0.0655


0.0668 el 60 % 0.0643
central 0.0630
de las puntuaciones
0.0618 0.0606tı́picas
0.0594se encuentran entre0.0559
0.0582 0.0571 -0.84
1.6
y +0.84. 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
A nosotros
1.8 nos interesan
0.0359 0.0351 los valores
0.0344 para la
0.0336 distribución
0.0329 0.0322 original
0.0314 y0.0307
no los valores
0.0301 tı́picos,
0.0294
por lo que
1.9 deberemos deshacer
0.0287 0.0281 el cambio:
0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233

2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
− x̄
X0.0129
2.2 0.0139 0.0136
Como0.0132
Z= , entonces X = s0 Z
0.0125 0.0122 0.0119
+ x̄ 0.0116 0.0113 0.0110
2.3 0.0107 0.0104 0.0102 s0
0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
En 2.5
nuestro0.0062
caso, el lı́mite0.0059
0.0060 inferior0.0057
será: 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
0
2.7 0.0035 inf =
x0.0034 zinf + x̄0.0032
s0.0033 = 1.7 × (−0.84)
0.0031 + 6.50.0029
0.0030 = 5.0720.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
0.0019
2.9 superior 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
y el lı́mite será:

xsup = s0 zsup + x̄ = 1.7 × (0.84) + 6.5 = 7.928


z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
3 3 3 3 3 3 3 4 4
3 0.00135 0.0 968 0.0 687 0.0 483 0.0 337 0.0 233 0.0 159 0.0 108 0.0 723 0.0 481
Por 4lo tanto,4
el 600.0%207
0.0 317
4
central4
0.0 133de las 5
observaciones
0.0 854 0.0 541 0.0se
5 5
340encuentran
5
0.0 211 0.0 entre
5
130 5.076
y 7.93.
0.0 793
6
0.0 479
6 6 7 7 7 7 7 8 8 8
5 0.0 287 0.0 170 0.0 996 0.0 579 0.0 333 0.0 190 0.0 107 0.0 599 0.0 332 0.0 182
9 9 9 9 10 10 10 10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
Valor
7 que no
11
es superado
12 12
por el
12
30 % 13
de las 13
0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 observaciones.
13 14 14 14
0.0 311 0.0 133

Estamos diciendo que el 30 % de las observaciones están por debajo de ese valor.
112 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Sabemos que buscamos un valor tı́pico negativo pero, aprovechando la simetrı́a, po-

demos buscar: .
A una proporción por encima de 0.3, le corresponde un valor tı́pico de 0.52, entonces,
el valor tı́pico que buscamos es z =-0.52 y el valor buscado para nuestra variable es:
x = s0 z + x̄ = 1.7 × (−0.52) + 6.5 = 5.616

Es decir, el 30 % de las observaciones se encuentran por debajo del valor 5.616

Las variables aleatorias con distribución Normal, cumplen además las siguientes PRO-
PIEDADES:

1. Si ζ1 y ζ2 son variables aleatorias, cualesquiera, con distribuciones: ζ1 ∼ N (µ1 , σ1 ) y


ζ2 ∼ N (µ2 , σ2 ), entonces la variable aleatoria que se obtiene al sumarlas, ζ = ζ1 + ζ2 ,
tiene también una distribución Normal con media, la suma de las medias.
2. Si ζ1 y ζ2 son variables aleatorias independientes con distribuciones: ζ1 ∼ N (µ1 , σ1 )
y ζ2 ∼ N (µ2 , σ2 ), entonces la variable aleatoria que se obtiene al sumarlas, ζ =
ζ1 + ζ2 , tiene también una distribución Normal con media, la suma de las medias, y
varianza, la suma de las varianzas. Es decir:
p
Si ζ1 ∼ N (µ1 , σ1 ) y ζ2 ∼ N (µ2 , σ2 ), entonces ζ = ζ1 + ζ2 ∼ N (µ1 + µ2 , σ12 + σ22 )
3. En general: dado un conjunto de variables independientes {ζi }ni=1 , con distribuciones
N (µi , σi ) respectivamente, entonces, la variable aleatoria
ζ = a1 ζ1 + a2 ζ2 + · · · + an ζn ∼ N (µ, σ)

µ = a1 µ1 + a2 µ2 + · · · + an µn
con:
σ 2 = a21 σ12 + a22 σ22 + · · · + a2n σn2

Ejemplo. El análisis estadı́stico del tiempo empleado por los estudiantes en la realiza-
ción del examen de Estadı́stica, indica que la duración del examen tiene una distribución
Normal con media 135 minutos con una desviación tı́pica de 15 minutos.

1. ¿Qué porcentaje de los exámenes dura entre 120 y 140 minutos?


2. Si el porcentaje de exámenes con duración inferior a 120 minutos más el porcentaje
de exámenes con duración superior a x minutos es del 60 %. Calcula x.

Si llamamos D a la variable aleatoria que mide el tiempo de realización de los exámenes,


en minutos, tenemos que D ∼ N (135, 15)
Recordemos que un porcentaje es la probabilidad multiplicada por 100. Entonces:
3.3. LA DISTRIBUCIÓN NORMAL 113

1. ¿Qué porcentaje de los exámenes dura entre 120 y 140 minutos?


Calculamos la probabilidad correspondiente: P {120 < D < 140}
(Se recomienda hacer el dibujo)

, y tipificando: ; por lo tanto,

 
120 − 135 140 − 135
P {120 < D < 140} = P <Z< = P {−1 < Z < 0.33} =
15 15

= 1 − (P {Z < −1} + P {Z > 0.33}) = 1 − (P {Z > 1} + P {Z > 0.33}) =

= 1 − (0.1587 + 0.3707) = 0.4706

Por lo tanto, el 47.16 % de los exámenes duran entre 120 y 140 minutos.

2. Si el porcentaje de exámenes con duración inferior a 120 minutos más el porcentaje


de exámenes con duración superior a x minutos es del 60 %. Calcula x.
Hacemos un dibujo genérico, ya que no sabemos cuánto vale x.

Nota: si P {D < 120} + P {D > x} = 0.6, entonces P {120 < D < x} = 0.4
Para resolver el problema, primero calculamos cuál es la probabilidad que queda
por encima de x, y luego determinamos cuál es el valor crı́tico que deja a su derecha
dicha probabilidad.
 
120 − 135
P {D > x} = 1 − (0.4 + P {D < 120}) = 0.6 − P Z < =
15

= 0.6 − P {Z < −1} = 0.6 − P {Z > 1} = 0.6 − 0.1587 = 0.4413

Ahora buscamos cuál es el valor z (para una N(0,1)) que deja a su derecha esta
probabilidad (cogemos el valor más cercano):
P {Z > z} = 0.4413 , por lo tanto z = 0.15
114 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Y ahora, deshacemos la tipificación:


x − 135
0.15 = , por lo tanto x = 135 + 15 ∗ 0.15 = 137.25 minutos.
15

Ejemplo. Sabiendo que la demanda diaria aleatoria de gasolina se comporta de arreglo


a una ley Normal de media 100 con desviación tı́pica 10 (medidas en miles de litros):

1. Determina la cantidad que hay que tener dispuesta a la venta cada dı́a, para poder
satisfacer la demanda con una probabilidad de 0.95.

2. Calcula el intervalo simétrico respecto a la media que contenga el 95 % de la proba-


bilidad.

3. La situación recesiva del sector del automóvil ha hecho que baje el promedio de la
venta diario de tal forma que la probabilidad de que las ventas en un dı́a cualquiera
tomado al azar sobrepasen los 100000 litros es del 40 %, ¿cuál será la nueva media
si la dispersión de las ventas no se ha alterado?

Si llamamos D a la variable aleatoria que mide la demanda en miles de litros, tenemos


que D ∼ N (100, 10). Entonces:

1. Determina la cantidad que hay que tener dispuesta a la venta cada dı́a, para poder
satisfacer la demanda con una probabilidad de 0.95.
Es importante escribir bien qué es lo que queremos calcular: buscamos un valor x
para la demanda diaria, tal que la probabilidad de que la demanda sea menor que
dicho valor es 0.95.
P {D < x} = 0.95 ⇔ P {D > x} = 0.05
 
x − 100
Es decir, tipificando: 0.05 = P Z >
10
x − 100
Luego: = 1.645 y por lo tanto: x = 100 + 16.45 = 116.45 miles de litros.
10
2. Calcula el intervalo simétrico respecto a la media que contenga el 95 % de la proba-
bilidad.
Como siempre que tenemos que calcular probabilidades para una Normal, escribimos
la pregunta para nuestra variable (D) y luego tipificamos:

n ao n ao
P {|D − 100| < a} = 0.95 = P |Z| < =1−2∗P Z >
10 10
n a o 1 − 0.95 a
Por lo tanto: P Z > = = 0.025 ⇒ = 1.96 ⇒ a = 19.6
10 2 10
El intervalo buscado es: (100 − a, 100 + a) = (80.4, 119.6)
3.3. LA DISTRIBUCIÓN NORMAL 115

3. La situación recesiva del sector del automóvil ha hecho que baje el promedio de la
venta diario de tal forma que la probabilidad de que las ventas en un dı́a cualquiera
tomado al azar sobrepasen los 100000 litros es del 40 %, ¿cuál será la nueva media
si la dispersión de las ventas no se ha alterado?
Queremos conocer µ, sabiendo que D ∼ N (µ, 10) y P {D > 100} = 0.4
 
100 − µ 100 − µ
0.4 = P {D > 100} = P Z> ⇒ = 0.25 ⇒
10 10
⇒ µ = 100 − 2.5 = 97.5 miles de litros.

Ejemplo. Las ventas diarias de un artı́culo que distribuye determinada empresa (V )


siguen una distribución Normal. Se sabe que el 30.5 % de los dı́as las ventas son superiores
a 19500 e, y el 83.4 % superiores a 15060 e

1. Calcula la media y la desviación tı́pica de las ventas diarias.

2. Si los costes diarios de producción en e, (C), están relacionados con las ventas diarias
por la expresión: C = 1000 + 0.15V , calcula el coste medio diario y la desviación
tı́pica del coste diario.

3. Dado que el coeficiente de correlación entre V y C es 1, ¿cuál es la media y la


desviación tı́pica del beneficio diario?

4. ¿Cuál es la probabilidad de que un dı́a tomado al azar la empresa tenga pérdidas?

Vamos a resolverlo:
Tenemos que si V es la variable aleatoria que mide las ventas diarias, en euros, entonces:
V ∼ N (µ, σ)
Además, sabemos que: P {V > 19500} = 0.305 y que P {V > 15060} = 0.834

1. Calcula la media y la desviación tı́pica de las ventas diarias.


Con los datos anteriores, podemos plantear un sistema de dos ecuaciones con dos
incógnitas:
Por un lado:
 
19500 − µ 19500 − µ
0.305 = P {V > 19500} = P Z > ⇒ = 0.51
σ σ

Por otro lado:

0.834 = P {V > 15060} ⇔ 0.166 = P {V < 15060}

Entonces:
   
15060 − µ µ − 15060 µ − 15060
0.166 = P Z< =P Z> ⇒ = 0.97
σ σ σ
116 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

19500 − µ = 0.51σ
Luego: ⇒ 4440 = 1.48σ, de donde
−15060 + µ = 0.97σ
σ = 3000 y µ = 19500 − 0.51σ = 17970
Es decir, V ∼ N (17970, 3000)

2. Si los costes diarios de producción en e, (C), están relacionados con las ventas diarias
por la expresión: C = 1000 + 0.15V , calcula el coste medio diario y la desviación
tı́pica del coste diario.
Como C = 1000 + 0.15V , que es un cambio de origen y escala, sabemos que:
µC = 1000 + 0.15µV = 1000 + 0.15 ∗ 17970 = 3695.5 e
σC = 0.15σV = 0.15 ∗ 3000 = 450 e
Por lo tanto: C ∼ N (3695.5, 450)

3. Dado que el coeficiente de correlación entre V y C es 1, ¿cuál es la media y la


desviación tı́pica del beneficio diario?
El beneficio diario se calcula como las ventas diarias menos los costos diarios de
producción, por lo tanto: B = V − C, entonces:
Por las propiedades de la esperanza (esto es cierto aunque las variables no sigan una
Normal)
µB = µV − µC = 17970 − 3695 = 14275
Y por las propiedades de la varianza (tampoco es necesaria la normalidad):
σB2 = σV2 −C = σv2 + σc2 − 2 ∗ Cov(V, C)
Sabemos que el coeficiente de correlación de V y C es 1, por lo tanto:
Cov(V, C)
ρV C = = 1 ⇒ Cov(V, C) = σV σC
σV σC
Entonces:
σB2 = 30002 + 4502 − 2(3000 ∗ 450) = 6502500 ⇒
σB = 2550 e
Como tanto las ventas como el costo tienen distribución Normal, el beneficio también
lo tiene, y por lo tanto: B ∼ N (14275, 2550)

4. ¿Cuál es la probabilidad de que un dı́a tomado al azar la empresa tenga pérdidas?


 
0 − 14275
P {pérdidas} = P {B < 0} = P Z < =
2550
= P {Z < −5.598} ' P {Z > 5.6} = 1.07 ∗ 10−8
La probabilidad de pérdidas es prácticamente nula.

Otras distribuciones notables, basadas en la Normal son: La Ji cuadrado de Pearson


y la t de Student.
3.4. DISTRIBUCIÓN JI CUADRADO DE PEARSON: χ2 117

3.4. Distribución Ji cuadrado de Pearson: χ2

Sean Z1 , Z2 , . . . , Zn , variables aleatorias independientes, todas ellas con distribución


N (0, 1), entonces la variable aleatoria:

X = Z12 + Z22 + · · · + Zn2

es una Ji cuadrado de Pearson con n grados de libertad, X ∼ χ2n


Por definición, la Ji cuadrado es una distribución no negativa
Si X ∼ χ2n , entonces: E[X] = n y V ar(X) = 2n

PROPIEDAD:
Una propiedad interesante de las variables con distribución χ2n es la siguiente:
Sean X1 , X2 , . . . , Xk variables aleatorias independientes con distribución χ2 , con r1 , r2 , . . . , rk
grados de libertad, respectivamente. Entonces, la variable aleatoria

X = X1 + X2 + · · · + Xk

tiene también una distribución χ2 , con n = r1 + r2 + · · · + rk grados de libertad.

Karl Pearson (Londres 27 de marzo de 1857- Londres, 27 de


abril de 1936).
Fue un prominente cientı́fico, matemático y pensador británico,
que estableció la disciplina de la estadı́stica matemática.
Desarrolló una intensa investigación sobre la aplicación de los 3
métodos estadı́sticos en la biologı́a y fue el fundador de la bio-
estadı́stica.
Su investigación colocó en gran medida las bases de la estadı́sti-
ca del siglo XX, definiendo los significados de correlación, análi-
sis de la regresión y desviación tı́pica.

La χ2n , está tabulada para algunas de las probabilidades más habituales y para valores
de n no muy grandes.
El manejo de la tabla de la Ji cuadrado es diferente al de la Normal. Dados los grados
de libertad y la probabilidad, la tabla nos indica el valor crı́tico, x, que deja a su derecha
dicha probabilidad.

3
Información extraida de http://es.wikipedia.org/wiki/Karl Pearson;
http://www.buscabiografias.com/bios/biografia/verDetalle/6926/Karl %20Pearson
118 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Probabilidad de una variable chi-cuadrado con n grados de libertad X~  n2

PX  x  p  Área sombreada

0 x

Ejemplo: p

n 0’01 0’025 0’05 0’10 0’15 0’25 0’5 0’75 0’85 0’9 0’95 0’975 0’99
a) Determina el valor crı́tico χ27,0.01 (valor crı́tico de una Ji cuadrado con 7 grados de
1 6’635 5’024 3’841 2’706 2’072 1’323 0’455 0’102 0’036 0’016 0’003932 0’000982 0’000157
libertad
2 que deja
9’210 7’378 a su derecha
5’991 4’605 una probabilidad
3’794 2’773 de 0.01).
1’386 0’575 0’325 0’211 0’103 0’051 0’020
3 11’345 9’348 7’815 6’251 5’317 4’108 2’366 1’213 0’798 0’584 0’352 0’216 0’115
4 b) 13’277
Para una 11’143variable
9’488 que
7’779se distribuye
6’745 5’385según χ23 ¿cuál
3’357una 1’923 1’366es la probabilidad
1’064 0’711 de que
0’484 0’297
5 15’086 12’833 11’070 9’236 8’115 6’626 4’351 2’675 1’994 1’610 1’145 0’831 0’554
la6 variable
16’812
tome
14’449
un12’592
valor mayor
10’645
que
9’446
0.584?
7’841 5’348 3’455 2’661 2’204 1’635 1’237 0’872
7 18’475 16’013 14’067 12’017 10’748 9’037 6’346 4’255 3’358 2’833 2’167 1’690 1’239
8 Buscamos
20’090 en la 15’507
17’535 tabla: 13’362 12’027 10’219 7’344 5’071 4’078 3’490 2’733 2’180 1’646
9 21’666 19’023 16’919 14’684 13’288 11’389 8’343 5’899 4’817 4’168 3’325 2’700 2’088
10 23’209 20’483 18’307 15’987 14’534 12’549 9’342 6’737 5’570 4’865 3’940 3’247 2’558
11 24’725 21’920 19’675 17’275 15’767 13’701 10’341 7’584 6’336 5’578 4’575 3’816 3’053
p
12 26’217 23’337 21’026 18’549 16’989 14’845 11’340 8’438 7’114 6’304 5’226 4’404 3’571
13 n 27’6880.01 24’736
0.025 0.05
22’362 0.10
19’812 0.15
18’202 0.25
15’984 0.5
12’340 0.759’299 0.85 7’9010.9 7’042 0.95 5’8920.975 5’0090.99 4’107
14 29’141 26’119 23’685 21’064 19’406 17’117 13’339 10’165 8’696 7’790 6’571 5’629 4’660
15 1 6.635 27’488
30’578 5.024 3.841
24’996 2.706
22’307 2.072
20’603 1.323
18’245 0.455
14’339 0.102
11’037 0.036 9’4990.016 8’547
0.003932 7’261
0.000982 6’262
0.000157 5’229
2 9.210 7.378 5.991 4.605 3.794 2.773 1.386 0.575 0.325 0.211 0.103 0.051 0.020
16 32’000
3 11.345 28’845
9.348 26’296
7.815 23’542
6.251 21’793
5.317 19’369
4.108 15’338
2.366 11’912 0.79810’3090.584 9’312
1.213 0.352 7’9620.216 6’908
0.115 5’812
17 33’409
13.277 30’191
11.143 27’587
9.488 24’769
7.779 22’977
6.745 20’489
5.385 16’338
3.357 12’792 1.36611’1251.064 10’085
1.923 0.711 8’6720.484 7’564
0.297 6’408
4
18 34’805
15.086 31’526
12.833 28’869
11.070 25’989
9.236 24’155
8.115 21’605
6.626 17’338
4.351 13’675 1.99411’9461.610 10’865
2.675 1.145 9’3900.831 8’231
0.554 7’015
5
19 36’191 32’852 30’144 27’204 25’329 22’718 18’338 14’562 12’773 11’651 10’117 8’907 7’633
20 6 16.812 34’170
37’566 14.449 12.592
31’410 10.645
28’412 9.446
26’498 7.841
23’828 5.348
19’337 3.455
15’452 2.66113’6042.204 12’443
1.635 10’851
1.237 9’591
0.872 8’260
21 7 18.475 16.013 14.067 12.017 10.748 9.037 6.346 4.255 3.358 2.833 2.167 1.690 1.239
38’932 35’479 32’671 29’615 27’662 24’935 20’337 16’344 14’439 13’240 11’591 10’283 8’897
8 20.090 17.535 15.507 13.362 12.027 10.219 7.344 5.071 4.078 3.490 2.733 2.180 1.646
22 40’289 36’781 33’924 30’813 28’822 26’039 21’337 17’240 15’279 14’041 12’338 10’982 9’542
9 21.666 19.023 16.919 14.684 13.288 11.389 8.343 5.899 4.817 4.168 3.325 2.700 2.088
23 41’638 38’076 35’172 32’007 29’979 27’141 22’337 18’137 16’122 14’848 13’091 11’689 10’196
10 23.209 20.483 18.307 15.987 14.534 12.549 9.342 6.737 5.570 4.865 3.940 3.247 2.558
24 42’980 39’364 36’415 33’196 31’132 28’241 23’337 19’037 16’969 15’659 13’848 12’401 10’856
2 2
25 RESPUESTAS:
11 44’314 χ
24.725 40’646
21.920 37’652
19.675
7,0.01 = 18.475 y P {X > 0.584|X ∼ χ } = 0.9
34’382
17.275 32’282
15.767 29’339
13.701 24’337
10.341 19’939 6.33617’8185.578 16’473
7.584 3 4.575 14’611
3.816 13’120
3.053 11’524
26 12 26.217 41’923
45’642 23.337 21.026
38’885 18.549
35’563 16.989
33’429 14.845
30’435 11.340
25’336 8.438
20’843 7.11418’6716.304 17’292
5.226 15’379
4.404 13’844
3.571 12’198
27 13 27.688 43’195
46’963 24.736 22.362
40’113 19.812
36’741 18.202
34’574 15.984
31’528 12.340
26’336 9.299
21’749 7.90119’5277.042 18’114
5.892 16’151
5.009 14’573
4.107 12’879
28 Al
14 final del tema puedes encontrar la tabla completa de la Ji cuadrado
29.141 44’461
48’278 26.119 23.685
41’337 21.064
37’916 19.406
35’715 17.117
32’620 13.339
27’336 10.165
22’657 8.69620’3867.790 18’939
6.571 16’928
5.629 15’308
4.660 13’565
29 15 30.578 45’722
49’588 27.488 24.996
42’557 22.307
39’087 20.603
36’854 18.245
33’711 14.339
28’336 11.037
23’567 9.49921’2478.547 19’768
7.261 17’708
6.262 16’047
5.229 14’256
30 16 50’892
32.000 46’979
28.845 43’773
26.296 40’256
23.542 37’990
21.793 34’800 15.338
19.369 29’336 11.912
24’47810.309
22’1109.312 20’599
7.962 18’493
6.908 16’791
5.812 14’953
31 17 33.409 48’232
52’191 30.191 27.587 41’422
44’985 24.769 22.977
39’124 20.489
35’887 16.338
30’336 12.792
25’39011.125 10.08521’434
22’976 8.672 19’281
7.564 6.408
17’539 15’655
32 34.805 49’480
31.526 28.869 42’585
25.989 24.155 21.605
36’973 17.338
31’336 13.675
26’30411.946 10.86522’2719.390 20’072
8.231 7.015
3.5.
33
18 53’486
19 54’776 Distribución t de Student
36.191 50’725
32.852
46’194
30.144 43’745
47’400 27.204
40’256
25.329
41’386 22.718
38’058 18.338
32’336 14.562
23’844
27’21912.773 11.65123’110
24’714 10.117 20’867
8.907
18’291
7.633
19’047
16’362
17’074
34 37.566 51’966
20 56’061 34.170 31.410 44’903
48’602 28.412 26.498
42’514 23.828
39’141 19.337
33’336 15.452
28’13613.604 12.44323’952
25’586 10.851 21’664
9.591 8.260
19’806 17’789
35 57’342
38.932
53’203
35.479
49’802
32.671
46’059
29.615
43’640
27.662
40’223
24.935
34’336
20.337 16.344
29’054 26’460
14.439 13.240
24’797
11.591
22’465
10.283
20’569
8.897
18’509
21
36 Sean X y Z dos variables aleatorias independientes con distribuciones Z ∼ N (0, 1)19’233
22 58’619
40.289 54’437
36.781 50’998
33.924 47’212
30.813 44’764
28.822 41’304 21.337
26.039 y
35’336 17.240
29’97315.279
27’336
14.04125’643
12.338 23’269
10.982 21’336
9.542
37 23 59’893
2 41.638 55’668
38.076 52’192
35.172 48’363
32.007 45’886
29.979 42’383 22.337
27.141 36’336 18.137
30’89316.122
19’960 28’214
14.84826’492
13.091 24’075
11.689 22’106
10.196
X
38 ∼ χ , entonces, la variable aleatoria definida como:
n 42.980 56’896
24 61’162 39.364 53’384
36.415 49’513
33.196 47’007
31.132 43’462 23.337
28.241 37’335 19.037
31’81516.969
20’691 29’093
15.65927’343
13.848 24’884
12.401 22’878
10.856
39 25 62’428
44.314 58’120
40.646 54’572
37.652 50’660
34.382 48’126
32.282 44’539 24.337
29.339 38’335 19.939
32’73717.818
29’974
16.47328’196
14.611 25’695
13.120 23’654
11.524 21’426
40 63’691 59’342 55’758 51’805 49’244 Z
45’616 39’335 33’660 30’856 29’051 26’509 24’433 22’164
41
26 45.642 41.923 38.885 35.563 33.429 T = q ∼t
30.435 25.336 n 20.843 18.671 17.292 15.379 13.844 12.198
27 64’950
46.963 60’561
43.195 56’942
40.113 52’949
36.741 50’360
34.574 46’692 X
31.528 40’335 21.749
26.336 34’58519.527
31’740
18.11429’907
16.151 27’326
14.573 25’215
12.879 22’906
42 28
66’206
48.278 61’777
44.461 58’124
41.337 54’090
37.916 51’475
35.715 47’766 27.336
32.620 n 41’335 22.657
35’51020.386
32’626
18.93930’765
16.928 28’144
15.308 25’999
13.565 23’650
43 67’459
49.588 62’990
45.722 59’304
42.557 55’230
39.087 52’588
36.854 48’840
33.711 42’335
28.336 23.56736’436 33’512
21.247 19.768 31’625
17.708 28’965
16.047 26’785
14.256 24’398
29
44 30
68’710
50.892 64’201
46.979 60’481
43.773 56’369
40.256 53’700
37.990 49’913 29.336
34.800 43’335 24.478
37’36322.110
34’400
20.59932’487
18.493 29’787
16.791 27’575
14.953 25’148
45 Diremos que T es una t de Student con n grados de libertad.
69’957
52.191
65’410
48.232
61’656
44.985
57’505
41.422
54’810
39.124
50’985
35.887
44’335
30.336 25.390
38’291 35’290
22.976 21.434
33’350
19.281
30’612
17.539
28’366
15.655
25’901
50 31 76’154 71’420 67’505 63’167 60’346 56’334 49’335 42’942 39’754 37’689 34’764 32’357 29’707
53.486
32 82’292 49.480 46.194 42.585 40.256 36.973 31.336 26.304 23.844 22.271 20.072 18.291 16.362
55 n
60
Si T ∼ t , entonces: E[T ] = 0 y V ar(X) =
54.776
33 88’379
77’380
50.725
n83’298
73’311
47.400
79’082
68’796
43.745
74’397
65’855
41.386
71’341
61’665
38.058
66’981
54’335
32.336 27.219
n−2
59’335
47’610
52’294
44’245
24.714 23.110
48’759
42’060
20.867
46’459
38’958
19.047
43’188
36’398
17.074
40’482
33’570
37’485
56.061
34 94’422 51.966 48.602 44.903 42.514 39.141 33.336 28.136 25.586 23.952 21.664 19.806 17.789
65 89’177 84’821 79’973 76’807 72’285 64’335 56’990 53’293 50’883 47’450 44’603 41’444
70 La distribución lı́mite para una t de Student, cuando n → ∞, es una N (0, 1).
57.342
35100’425 53.203
95’023
49.802
90’531
46.059
85’527
43.640
82’255
40.223
77’577
34.336 29.054
69’334 61’698
26.460 24.797
57’844
22.465
55’329
20.569
51’739
18.509
48’758 45’442
75 58.619100’839
36106’393 54.437 96’217
50.998 91’061
47.212 44.764
87’688 41.304
82’858 35.336
74’334 29.973
66’41727.336 25.64359’795
62’412 23.269 56’054
21.336 19.233
52’942 49’475
80 Gráficamente:
59.893106’629
37112’329 55.668 101’879
61.162112’393
52.192 96’578
56.896 107’522
48.363
53.384 102’079
49.513
45.886
93’106
47.007
42.383
88’130 36.336
43.462
79’334 30.893
71’14528.214 26.49264’278
66’994 24.075 60’391
22.106 19.960
57’153 53’540
85 38118’236 98’511 93’394 37.335
84’334 31.815
75’88129.093 27.34368’777
71’589 24.884 64’749
22.878 20.691
61’389 57’634
90 62.428118’136
39124’116 58.120 113’145
54.572 107’565
50.660 48.126
103’904 44.539
98’650 38.335
89’334 32.737
80’62529.974 28.19673’291
76’195 25.695 69’126
23.654 21.426
65’647 61’754
95 http://www.matematicasvisuales.com/html/probabilidad/varaleat/tstudent.html
63.691123’858
40129’973 59.342 118’752
55.758 113’038
51.805 49.244
109’286 45.616
103’899 39.335
94’334 33.660
85’37630.856 29.05177’818
80’813 26.509 73’520
24.433 22.164
69’925 65’898
100 41135’807
64.950129’561
60.561 124’342
56.942 118’498
52.949 114’659
50.360 109’141
46.692 99’334 34.585
40.335 90’13331.740
85’441
29.90782’358
27.326 77’929
25.215 74’222
22.906 70’065
42 66.206 61.777 58.124 54.090 51.475 47.766 41.335 35.510 32.626 30.765 28.144 25.999 23.650
43 67.459 62.990 59.304 55.230 52.588 48.840 42.335 36.436 33.512 31.625 28.965 26.785 24.398
44 68.710 64.201 60.481 56.369 53.700 49.913 43.335 37.363 34.400 32.487 29.787 27.575 25.148
45 69.957 65.410 61.656 57.505 54.810 50.985 44.335 38.291 35.290 33.350 30.612 28.366 25.901

50 76.154 71.420 67.505 63.167 60.346 56.334 49.335 42.942 39.754 37.689 34.764 32.357 29.707
55 82.292 77.380 73.311 68.796 65.855 61.665 54.335 47.610 44.245 42.060 38.958 36.398 33.570
3.5. DISTRIBUCIÓN T DE STUDENT 119

Las probabilidades de la t de Student, se calculan como sigue:


Dada una probabilidad p y los grados de libertad n, la tabla nos proporciona el valor
tı́pico correspondiente:

Probabilidad de una variable t de student con n grados de libertad T ~ tn


P P{T t} == pp== Área
{T>> t} sombreada
Área sombreada

p
n 0.005 0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45
1 63.6567 31.8205 12.7062 6.3138 3.0777 1.9626 1.3764 1.0000 0.7265 0.5095 0.3249 0.1584
2 9.9248 6.9646 4.3027 2.9200 1.8856 1.3862 1.0607 0.8165 0.6172 0.4447 0.2887 0.1421
3 5.8409 4.5407 3.1824 2.3534 1.6377 1.2498 0.9785 0.7649 0.5844 0.4242 0.2767 0.1366
4 4.6041 3.7469 2.7764 2.1318 1.5332 1.1896 0.9410 0.7407 0.5686 0.4142 0.2707 0.1338

5 4.0321 3.3649 2.5706 2.0150 1.4759 1.1558 0.9195 0.7267 0.5594 0.4082 0.2672 0.1322
6 3.7074 3.1427 2.4469 1.9432 1.4398 1.1342 0.9057 0.7176 0.5534 0.4043 0.2648 0.1311
7 3.4995 2.9980 2.3646 1.8946 1.4149 1.1192 0.8960 0.7111 0.5491 0.4015 0.2632 0.1303
8 3.3554 2.8965 2.3060 1.8595 1.3968 1.1081 0.8889 0.7064 0.5459 0.3995 0.2619 0.1297
9 3.2498 2.8214 2.2622 1.8331 1.3830 1.0997 0.8834 0.7027 0.5435 0.3979 0.2610 0.1293

10 3.1693 2.7638 2.2281 1.8125 1.3722 1.0931 0.8791 0.6998 0.5415 0.3966 0.2602 0.1289
11 3.1058 2.7181 2.2010 1.7959 1.3634 1.0877 0.8755 0.6974 0.5399 0.3956 0.2596 0.1286
12 3.0545 2.6810 2.1788 1.7823 1.3562 1.0832 0.8726 0.6955 0.5386 0.3947 0.2590 0.1283
13 3.0123 2.6503 2.1604 1.7709 1.3502 1.0795 0.8702 0.6938 0.5375 0.3940 0.2586 0.1281
14 2.9768 2.6245 2.1448 1.7613 1.3450 1.0763 0.8681 0.6924 0.5366 0.3933 0.2582 0.1280

15 2.9467 2.6025 2.1314 1.7531 1.3406 1.0735 0.8662 0.6912 0.5357 0.3928 0.2579 0.1278
16 2.9208 2.5835 2.1199 1.7459 1.3368 1.0711 0.8647 0.6901 0.5350 0.3923 0.2576 0.1277
2
Como
17 vemos, la tabla es del mismo tipo que la de la distribución χ
2.8982 2.5669 2.1098 1.7396 1.3334 1.0690 0.8633 0.6892 0.5344 0.3919
n 0.2573 0.1276
18 2.8784 2.5524 2.1009 1.7341 1.3304 1.0672 0.8620 0.6884 0.5338 0.3915 0.2571 0.1274
19 2.8609 2.5395 2.0930 1.7291 1.3277 1.0655 0.8610 0.6876 0.5333 0.3912 0.2569 0.1274

20 2.8453 2.5280 2.0860 1.7247 1.3253 1.0640 0.8600 0.6870 0.5329 0.3909 0.2567 0.1273
21 2.8314 2.5176 William
1.7207 Sealy
2.0796 1.3232 Gosset
1.0627 (11 de0.6864
0.8591 junio0.5325
de 18760.3906– 16 de octubre
0.2566 0.1272
22 2.8188 2.5083 2.0739
1.7171 1.3212 1.0614 0.8583 0.6858 0.5321 0.3904 0.2564 0.1271
23 2.8073 2.4999 de 1937).
2.0687
1.7139 1.3195 1.0603 0.8575 0.6853 0.5317 0.3902 0.2563 0.1271
24 2.7969 2.4922 2.0639
1.7109a la
Asistió 1.3178
famosa1.0593 escuela
0.8569 privada
0.6848 0.5314 0.3900
Winchester 0.2562 0.1270an-
College,
2.7874 2.4851 2.0595 1.7081 1.3163 1.0584 0.8562 0.6844 0.5312 0.3898 0.2561 0.1269
25
26 2.7787 2.4786
tes de
2.0555
estudiar
1.7056 1.3150
quı́mica
1.0575
y matemática
0.8557 0.6840 0.5309
en0.3896
el New College
0.2560 0.1269
de
27 2.7707 2.4727 Oxford.
2.0518 1.7033 Tras
1.3137graduarse
1.0567 en 1899,
0.8551 0.6837 se 0.5306
incorporó
0.3894 a las destilerı́as
0.2559 0.1268
28 2.7633 2.4671 2.0484 1.7011 1.3125 1.0560 0.8546 0.6834 0.5304 0.3893 0.2558 0.1268
29 2.7564 2.4620 Guinness
2.0452 1.6991 en Dublı́n.
1.3114 1.0553 0.8542 0.6830 0.5302 0.3892 0.2557 0.1268

30 2.7500 2.4573 Empleado


2.0423 1.6973 por
1.3104 la firma
1.0547 cervecera
0.8538 0.6828 Guinnes
0.5300 en Dublı́n,
0.3890 0.2556 en 1.906
0.1267
31 2.7440 2.4528 2.0395 1.6955 1.3095 1.0541 0.8534 0.6825 0.5298 0.3889 0.2555 0.1267
32 2.7385 2.4487 fue 1.6939
2.0369 enviado por 1.0535
1.3086 la empresa
0.8530 a trabajar
0.6822 0.5297 con
0.3888 K.0.2555
Pearson
0.1267 en
4
33 2.7333 2.4448 el University College de Londres, donde llevó a cabo
2.0345 1.6924 1.3077 1.0530 0.8526 0.6820 0.5295 0.3887 0.2554 0.1266sus
34 2.7284 2.4411 2.0322 1.6909 1.3070 1.0525 0.8523 0.6818 0.5294 0.3886 0.2553 0.1266
2.7238 2.4377
principales
2.0301 1.6896
contribuciones
1.3062 1.0520 0.8520
a la
0.6816
estadı́stica,
0.5292
publicadas
0.3885 0.2553
bajo
0.1266
35
36 2.7195 2.4345 el pseudónimo
2.0281 1.6883 1.3055 de Student.
1.0516 0.8517 0.6814 0.5291 0.3884 0.2552 0.1266
2.7154 2.4314 2.0262 1.6871 1.3049 1.0512 0.8514 0.6812 0.5289 0.3883 0.2552 0.1265
37
38 2.7116 2.4286 Gosset
2.0244 1.6860publicó
1.3042 ((El error
1.0508 probable
0.8512 0.6810 de una
0.5288 media))
0.3882 y casi
0.2551 todos
0.1265
2.7079 2.4258 2.0227 1.6849 1.3036 1.0504 0.8509 0.6808 0.5287 0.3882 0.2551 0.1265
sus artı́culos usando el pseudónimo Student en la publicación Biometrika creada
39
2.7045 2.4233 2.0211 1.6839
por
40 Pearson.
45 2.6896
Sin embargo,
2.4121 2.0141
fue 1.3031
1.6794
R.A. 1.0500
1.3006
Fisher0.8507
1.0485
quien0.6807
0.8497 0.6800
0.5286
apreció
0.5281
0.3881
0.3878
0.2550
la importancia
0.2549
0.1265
de los
0.1264
trabajos
50 de Gosset
2.6778 2.4033 sobre muestras
2.0086 1.6759 1.2987pequeñas.
1.0473 0.8489 0.6794 0.5278 0.3875 0.2547 0.1263
55 2.6682 2.3961 2.0040 1.6730 1.2971 1.0463 0.8482 0.6790 0.5275 0.3873 0.2546 0.1262
Gosset
60 fue amigo
2.6603 2.3901 tanto
2.0003 de Pearson
1.6706 1.2958 como
1.0455 de0.8477
Fisher, un gran
0.6786 0.5272 logro,
0.3872 ya que 0.1262
0.2545 ambos
se65profesaban
2.6536 un intenso
2.3851 1.9971 desprecio
1.6686 1.2947mutuo.
1.0448 0.8472 0.6783 0.5270 0.3870 0.2544 0.1262
70 2.6479 2.3808 1.9944 1.6669 1.2938 1.0442 0.8468 0.6780 0.5268 0.3869 0.2543 0.1261
75 2.6430 2.3771 1.9921 1.6654 1.2929 1.0436 0.8464 0.6778 0.5266 0.3868 0.2542 0.1261
80 2.6387 2.3739 1.9901 1.6641 1.2922 1.0432 0.8461 0.6776 0.5265 0.3867 0.2542 0.1261
Veamos
85 algunos ejemplos:
2.6349 2.3710 1.9883 1.6630 1.2916 1.0428 0.8459 0.6774 0.5264 0.3866 0.2541 0.1260
90 2.6316 2.3685 1.9867 1.6620 1.2910 1.0424 0.8456 0.6772 0.5263 0.3866 0.2541 0.1260

95 2.6286 2.3662 1.9853 1.6611 1.2905 1.0421 0.8454 0.6771 0.5262 0.3865 0.2541 0.1260
4
Información
100 2.6259 2.3642extraida
1.9840 1.6602 de
1.2901 http://es.wikipedia.org/wiki/William
1.0418 0.8452 0.6770 0.5261 0.3864 0.2540 Sealy Gosset;
0.1260
2.6157 2.3565 1.9791 1.6571 1.2884 1.0408
http://www.estadisticaparatodos.es/bibliografias/gosset.html
125 0.8445 0.6765 0.5257 0.3862 0.2539 0.1259
150 2.6090 2.3515 1.9759 1.6551 1.2872 1.0400 0.8440 0.6761 0.5255 0.3861 0.2538 0.1259
200 2.6006 2.3451 1.9719 1.6525 1.2858 1.0391 0.8434 0.6757 0.5252 0.3859 0.2537 0.1258
300 2.5923 2.3388 1.9679 1.6499 1.2844 1.0382 0.8428 0.6753 0.5250 0.3857 0.2536 0.1258

∞ 2.5758 2.3263 1.9600 1.6449 1.2816 1.0364 0.8416 0.6745 0.5244 0.3853 0.2533 0.1257
120 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

1. Determina la proporción de observaciones que están por encima del valor 1 para
una t de Student con 16 grados de libertad.
Buscamos en la fila correspondiente a n=16 el valor más próximo a 1 (1.0711),
que nos da una p=0.15. Entonces: la proporción buscada es 0.15 , el 15 % de las
observaciones.

2. Determina la proporción de observaciones que están por debajo del valor 2.53 para
una t de Student con 20 grados de libertad.
Buscamos en la fila correspondiente a n=20 el valor más próximo a 2.53 (2.5280),
que nos da una p=0.01. Esto significa que 0.01 es la proporción de observaciones por
encima de dicho valor. Entonces: la proporción buscada es 1-0.01=0.99, es decir el
99 % de las observaciones.

3. Determina la proporción de observaciones que están por encima del valor -0.7 para
una t de Student con 7 grados de libertad.
Para los valores negativos aprovecharemos la simetrı́a de la gráfica: el área por
encima de -0.7 es igual al área por debajo de 0.7, entonces:
Buscamos en la fila correspondiente a n=7 el valor más próximo a 0.7 (0.7111), que
nos da una p=0.25. Esto significa que 0.25 es la proporción de observaciones por
encima de dicho valor. Entonces: la proporción buscada es 1-0.25=0.75, es decir el
75 % de las observaciones.

4. Determina qué valor de una t de Student con 50 grados de libertad deja a su derecha
un área de 0.25.
Buscamos en la fila de n=50 la intersección con la columna p=0.25 y obtenemos el
valor buscado: 0.6794.

5. Determina qué valor de una t de Student con 22 grados de libertad verifica que el
área encerrada entre este valor y 0.2564 es exactamente 0.1.
Si hacemos el dibujo (siempre ayuda mucho), podemos observar que el área por
encima del valor buscado es igual a 0.1 más el área por encima de 0.2564.
El área por encima de 0.2564 en una t de Student con 22 grados de libertad es 0.4,
y por lo tanto, el área por encima del valor buscado es 0.4+0.1=0.5. Esto significa
que el valor que estamos buscando es cero.

6. Determina qué valor de una t de Student con 40 grados de libertad verifica que el
área encerrada entre -1.05 y este valor es exactamente 0.7.
Volvemos al dibujo. Podemos observar que el área por debajo del valor buscado es
igual a 0.7 más el área por debajo de -1.05.
Aprovechando la simetrı́a, sabemos que el área por debajo de -1.05 es igual al área
por encima de 1.05. Buscamos en la tabla dicha área para una t de Student con 40
grados de libertad y obtenemos p=0.15. Entonces:
El área por debajo del valor buscado es igual a 0.7+0.15=0.85, lo que significa que
el área por encima es 0.15. Por lo tanto el valor buscado es: 1.05.
3.6. TEROEMA CENTRAL DEL LÍMITE 121

3.6. Teroema Central del Lı́mite

Este teorema es un potente resultado de probabilidad que nos permite dar la distribu-
ción aproximada de la suma y la media de un conjunto cualquiera de variables aleatorias
independientes, todas ellas con la misma distribución de probabilidad.
Teorema central del lı́mite: Sean (ζ1 , ζ2 , . . . , ζn ) variables aleatorias indenpendien-
tes, todas ellas con la misma distribución y denotaremos por E[ζi ] = µ y V ar(ζi ) = σ 2 , ∀i.
Entonces, si n es suficientemente grande, la distribución de la suma de estas variables alea-
torias ζ √
= ζ1 +ζ2 +· · ·+ζn , se puede aproximar por una Normal de media nµ y desviación
tı́pica σ n
Es decir: Si ζ1 , ζ2 , . . . , ζn son v.a.i.i.d. con E[ζi ] = µ y V ar(ζi ) = σ 2 , ∀i entonces:

la variable aleatoria ζ = ζ1 + ζ2 + · · · + ζn , verfica: ζ ≈ N (nµ, σ n)

De la misma forma, dividiendo porPn, la distribución de la media de estas variables


n
ζ1 + ζ2 + · · · + ζn 1=1 ζi
aleatorias, ζ̄ = = se puede aproximar por una Normal de
n σ n
media µ y desviación tı́pica √n :
 
σ
ζ̄ ≈ N µ, √
n

La importancia de este teorema radica en que es cierto, sea cual sea la distribución de
las variables aleatorias, siempre que estas sean independientes y tengan todas las misma
distribución.
En cuanto al número de variables, se acepta que n es suficientemente grande, si n ≥ 30.
Si embargo, la aproximación dependerá del tipo de distribución original y será tanto mejor
cuanto más simétrica sea esta distribución.

Ejemplo. Se conectan 50 focos de luz infrarroja del mismo modelo en un invernadero,


de modo que si falla uno, se enciende otro inmediatamente. Los focos tienen una duración
independiente y cada uno tiene una vida media de 60 horas y una desviación tı́pica de 5
horas, ¿cuál es la probabilidad de que después de 2900 horas, haya un foco encendido?,
¿y de que lo haya después de 3050 horas?
Tenemos 50 focos, independientes.
D=duración de cada foco, µD = 60 y σD = 5 (no conocemos su distribución)
Llamamos T =duración total de los focos=suma de todas las duraciones
(cada foco se enciende cuando el anterior se apaga)
Como las duraciones de los focos son independientes, sabemos que:
µT = q 50
( P
1 µD = 3000
T es tal que P50 2 √ √
σT = 1 σD = 50 ∗ 25 = 25 2
122 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Entonces, de la variable T conocemos su media y su desviación tı́pica pero, para


calcular probabilidades, necesitamos conocer su distribución.
Como T es la suma de 50 variables independientes e idénticamente distribuidas, por
el Teorema central del lı́mite, sabemos que:

T ∼ N (µT , σT ) = N (3000, 25 2)
Ahora sı́ podemos calcular las probabilidades:

1. ¿Cuál es la probabilidad de que después de 2900 horas, haya un foco encendido?


 
2900 − 3000
P {T > 2900} = P Z > √ = P {Z > −2.8284} = 1 − P {Z > 2.83} =
25 2
1 − 0.0023 = 0.9977

2. ¿Cuál es la probabilidad de que después de 3050 horas, haya un foco encendido?


 
3050 − 3000
P {T > 3050} = P Z > √ = P {Z > 1.4142} = 0.0793
25 2

Una versión especial del Teorema central del lı́mite es el Teorema de Moivre.

Abraham de Moivre (26 de mayo de 1667, Champagne - 27


de noviembre de 1754, Londres).
Conocido por la fórmula de De Moivre
Para cualquier complejo x y para cualquier entero n, se ve-
rifica que (cos x + i sin x)n = cos(nx) + i sin(nx)
y por su trabajo en la distribución normal y probabili-
dad. Fue elegido miembro de la Royal Society de Londres en
1697 y fue amigo de Isaac Newton y Edmund Halley.
De Moivre publicó el libro de probabilidad The Doctrine 5
of Chances y como era calvinista, tuvo que salir de su paı́s
natal después de la revocación del Edicto de Nantes por el de
Fontainebleau (1685). La segunda edición publicada en 1738 introdujo el concepto
de distribución normal como aproximación de la distribución binominal.
Pasó el resto de su vida en Inglaterra. Lo cierto es que toda su vida fue pobre y era
cliente regular del Slaughter’s Coffee House, donde ganaba algo de dinero jugando
al ajedrez.
Murió en Londres, siendo enterrado en St Martin’s-in-the-Fields, aunque más tarde
su cuerpo fue trasladado.
Este teorema es una versión del TCL adaptado al caso en el que las variables aleatorias
siguen una distribución Bernoulli de parámetro p, ζi ∼ B(1, p), ∀i.
En este caso sabemos que la suma (total de éxitos en n experimentos):
5
Información extraida de http://es.wikipedia.org/wiki/Abraham de Moivre;
http://es.wikipedia.org/wiki/The Doctrine of Chances
3.6. TEROEMA CENTRAL DEL LÍMITE 123

ζ = ζ1 + ζ2 + · · · + ζn sigue una distribución B(n, p), y por el TCL esta suma puede

aproximarse por una N (np, n.p.q)

Del mismo modo, la proporción deéxitos,


r que  se obtiene dividiendo la suma anterior
p.q
por n, se puede aproximar por una N p,
n
 r 
ζ1 + ζ2 + · · · + ζn p.q
p= ≈ N p,
n n
Para aplicar el Teorema de Moivre, no hace falta exigir la condición de n > 30, sino
que es suficiente con que se verifiquen simultánteamente que np ≥ 5 y nq ≥ 5 .

3.6.1. Corrección por continuidad

Siempre que se aproxima una distribución discreta por una continua (como hacemos
al aproximar una Binomial por una Normal), hay que hacer corrección por continuidad.
La idea es que estamos aproximando la probabilidad en un punto de masa (discreta)
por un área (continua) y, por lo tanto, debemos hacer unos pequeños ajustes.
La corrección por continuidad consiste en tomar un pequeño intervalo de longitud 1
alrededor del punto de masa (k).
Es decir, si nos piden P {X = k} con X ∼ Binomial, entonces, usando la aproximación
mediante Y ∼ Normal, tendremos que calcular P {k − 0.5 < Y < k + 0.5}.
Del mismo modo, si nos piden P {X ≤ k} con X ∼ Binomial, entonces, si aproximamos
usando Y ∼ Normal, tendremos que calcular P {Y < k + 0.5} (debemos asegurarnos de
incluir el punto k).
Mientras que si nos piden P {X < k} con X ∼ Binomial, entonces, para aproximar
mediante Y ∼ Normal, tendremos que calcular P {Y < k − 0.5} (el punto k no debe estar
incluido).
Ejemplo. Una empresa quiere lanzar al mercado un nuevo producto. Un produc-
to similar es adquirido habitualmente por el 40 % de los consumidores. Con objeto de
planificar su producción, la empresa realiza un estudio de mercado, consultando a 1000
personas. Suponiendo que la cuota de mercado vaya a mantenerse en el 40 %, ¿cuál es la
probabilidad de que haya entre 400 y 500 personas dispuestas a adquirir el producto?
Sabemos que p = P {adquirir uno similar} = 0.4
Consulta: n = 1000
Variable aleatoria: ζ=no de personas dispuestas a adquirir el producto.
Entonces: ζ ∼ B(1000, 0.4)
Tenemos que calcular: P {400 < ζ < 500}, y lo hacemos aproximando la Binomial por
124 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

la Normal, y haciendo corrección por continuidad:



ζ ∼ B(1000, 0.4) ≈ N (400, 240) (Moivre: n ≥ 30, np ≥ 5, nq ≥ 5)

 
400.5 − 400 499.5 − 400
P {400 < ζ < 500} ≈ P {400.5 < ζ < 499.5} = P √ <Z< √ =
240 240

= P {0.03 < Z < 6.42} = 0.488

Problema. Una empresa se dedica a la fabricación de minas para lápiz. La tecnologı́a,


utilizada en su elaboración, produce minas cuya longitud varı́a según una ley normal de
media 4.75 cm y desviación tı́pica 1 cm, calcula:

1. El porcentaje de minas con una longitud superior a los 4 cm

2. De una muestra de 6 lápices, ¿cuál es la probabilidad de que las minas de 5 de ellos


midan más de 4 cm?

3. De una muestra de 50 lápices, ¿cuál es la probabilidad de que haya más de 40 con


una mina de longitud superior a 4 cm?

Si llamamos L=longitud de las minas, tenemos que L ∼ N (4.75, 1)


Entonces:

1. Porcentaje de minas con una longitud superior a los 4 cm


Debemos calcular P {L > 4} , por lo tanto:
4−4.75
P {L > 4} = P {Z > 1
} = P {Z > −0.75} = 1 − P {Z > 0.75} = 1 − 0.2266 =
0.7734
Es decir, el 77.34 % de los lápices tienen una mina con una longitud mayor que 4
cm.

2. De una muestra de 6 lápices, ¿cuál es la probabilidad de que las minas de 5 de ellos


midan más de 4 cm?
Tenemos 6 lápices, y llamamos ζ=número de lápices (de estos 6) con mina mayor
de 4 cm
Para cada lápiz, sabemos que la probabilidad de que su mina sea mayor de 4 cm es
0.7734. Por lo tanto:
ζ ∼ B(6, 0.7734), entonces:

 
6
P {ζ = 5} = 0.77345 0.22661 = 0.3762
5
3.6. TEROEMA CENTRAL DEL LÍMITE 125

3. De una muestra de 50 lápices, ¿cuál es la probabilidad de que haya más de 40 con


una mina de longitud superior a 4 cm?
Como en el caso anterior: Si ζ=número de lápices (de estos 50) con mina mayor de
4 cm
ζ ∼ B(50, 0.7734), y tenemos que calcular P {ζ > 40}
Tendrı́amos que sumar las probabilidades para 41, 42, ..., 50
Lo que haremos será aproximar la Binomial por una Normal ya que se cumplen las
condiciones para aplicar el Teorema de Moivre ( n ≥ 30, np ≥ 5, nq ≥ 5):
ζ ∼ B(50, 0.7734) ≈ N (38.67, 2.96)
Además, como estamos aproximando una distribución de una variable discreta por
una continua, aplicamos corrección por continuidad. Entonces:

 
40.5 − 38.67
P {ζ > 40} ≈ P {ζ > 40.5} = P Z > = P {Z > 0.62} = 0.2676
2.96
126 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

3.7. Tablas

TablaTabla
de lade Normal
la Normal tipificada
tipificada Z ~ N(0,1)
Tabla de la Normal tipificada Z ~ N(0,1)

x2
 
PZ  z 
1
z e dx
21 
2
x2

P Z P{Z
z > z|Z ∼eN (0,
dx 1)} 2

2 z

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4
0.5 0.3446
0.3085 0.3409
0.3050 0.3372
0.3015 0.3336
0.2981 0.3300
0.2946 0.3264
0.2912 0.3228
0.2877 0.3192
0.2843 0.3156
0.2810 0.3121
0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9
1.0 0.1841
0.1587 0.1814
0.1562 0.1788
0.1539 0.1762
0.1515 0.1736
0.1492 0.1711
0.1469 0.1685
0.1446 0.1660
0.1423 0.1635
0.1401 0.1611
0.1379
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4
1.5 0.0808
0.0668 0.0793
0.0655 0.0778
0.0643 0.0764
0.0630 0.0749
0.0618 0.0735
0.0606 0.0721
0.0594 0.0708
0.0582 0.0694
0.0571 0.0681
0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.9
2.0 0.0287
0.0228 0.0281
0.0222 0.0274
0.0217 0.0268
0.0212 0.0262
0.0207 0.0256
0.0202 0.0250
0.0197 0.0244
0.0192 0.0239
0.0188 0.0233
0.0183
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4
2.5 0.0082
0.0062 0.0080
0.0060 0.0078
0.0059 0.0075
0.0057 0.0073
0.0055 0.0071
0.0054 0.0069
0.0052 0.0068
0.0051 0.0066
0.0049 0.0064
0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014

z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
3 3 3 3 3 3 3 4 4
3z 0.00135 0.0 968 0.0 687 0.0 483 0.0 337 0.0 233 0.0 159 0.0 108 0.0 723 0.0 481
0.0
4 0.1
4 0.2
4 0.3
5 0.4
5 0.5
5 0.6
5 0.7
5 0.8
6 0.9
6
4 0.0 317 0.03207 0.03133 0.03854 0.03541 0.03340 0.03211 0.03130 0.04793 0.04479
3 0.00135
6
0.06968 0.07687 0.07483 0.07337 0.07233 0.07159 0.08108 0.08723 0.08481
5 0.04287 0.04170 0.04996 0.05579 0.05333 0.05190 0.05107 0.05599 0.06332 0.06182
4 0.09317 0.09207 0.09133 0.09854 0.010541 0.010340 0.010211 0.010130 0.011793 0.011479
6 0.06987 0.06530 0.07282 0.07149 0.0 7 777 0.0 7 402 0.0 7 206 0.0 8 104 0.0 8 523 0.0 8 260
5 0.011287 0.012170 0.012996 0.012579 0.013333 0.013190 0.013107 0.014599 0.014332 0.014182
7 0.0 9 128 0.0 9 624 0.0 9 301 0.0 9 144 0.010682 0.010320 0.010149 0.010688 0.011311 0.011133
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
7 0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 0.0 311 0.0 133
3.7. TABLAS 127

TablaProbabilidad
de Ji cuadrado con n grados de libertad
de una variable chi-cuadrado con n grados de libertad X~  2 n

PX  x  p  Área sombreada

0 x
P {X > x | X ∼ χ2n }
p

n 0’01 0’025 0’05 0’10 0’15 0’25 0’5 p 0’75 0’85 0’9 0’95 0’975 0’99

1n 0.01
6’635
0.025
5’024
0.05
3’841
0.10
2’706
0.15
2’072
0.25
1’323
0.5
0’455
0.75
0’102
0.85
0’036
0.9
0’016
0.95 0.975 0.99
0’003932 0’000982 0’000157
2 9’210
6.635 7’378
5.024 5’991
3.841 4’605
2.706 3’794
2.072 2’773
1.323 1’386
0.455 0’575
0.102 0’325
0.036 0’211
0.016 0’103
0.003932 0’051
0.000982 0’020
0.000157
3
1 11’345 9’348 7’815 6’251 5’317 4’108 2’366 1’213 0’798 0’584 0’352 0’216 0’115
9.210 7.378 5.991 4.605 3.794 2.773 1.386 0.575 0.325 0.211 0.103 0.051 0.020
42 13’277 11’143 9’488 7’779 6’745 5’385 3’357 1’923 1’366 1’064 0’711 0’484 0’297
53 11.345
15’086 9.348
12’833 7.815
11’070 6.251
9’236 5.317
8’115 4.108
6’626 2.366
4’351 1.213
2’675 0.798
1’994 0.584
1’610 0.352
1’145 0.216 0’554
0’831 0.115
13.277 11.143 9.488 7.779 6.745 5.385 3.357 1.923 1.366 1.064 0.711 0.484 0.297
64 16’812 14’449 12’592 10’645 9’446 7’841 5’348 3’455 2’661 2’204 1’635 1’237 0’872
75 15.086
18’475
12.833
16’013
11.070
14’067
9.236
12’017
8.115
10’748
6.626
9’037
4.351
6’346
2.675
4’255
1.994
3’358
1.610
2’833
1.145
2’167
0.831
1’690
0.554
1’239
86 20’090
16.812 17’535
14.449 15’507
12.592 13’362
10.645 12’027
9.446 10’219
7.841 7’344
5.348 5’071
3.455 4’078
2.661 3’490
2.204 2’733
1.635 2’180
1.237 1’646
0.872
9 21’666
18.475 19’023
16.013 16’919
14.067 14’684
12.017 13’288
10.748 11’389
9.037 8’343
6.346 5’899
4.255 4’817
3.358 4’168
2.833 3’325
2.167 2’700
1.690 2’088
1.239
10
7 23’209 20’483 18’307 15’987 14’534 12’549 9’342 6’737 5’570 4’865 3’940 3’247 2’558
8 20.090 17.535 15.507 13.362 12.027 10.219 7.344 5.071 4.078 3.490 2.733 2.180 1.646
11 24’725 21’920 19’675 17’275 15’767 13’701 10’341 7’584 6’336 5’578 4’575 3’816 3’053
9 21.666 19.023 16.919 14.684 13.288 11.389 8.343 5.899 4.817 4.168 3.325 2.700 2.088
12 26’217 23’337 21’026 18’549 16’989 14’845 11’340 8’438 7’114 6’304 5’226 4’404 3’571
23.209 20.483 18.307 15.987 14.534 12.549 9.342 6.737 5.570 4.865 3.940 3.247 2.558
1310 27’688 24’736 22’362 19’812 18’202 15’984 12’340 9’299 7’901 7’042 5’892 5’009 4’107
1411 29’141
24.725 26’119
21.920 23’685
19.675 21’064
17.275 19’406
15.767 17’117
13.701 13’339
10.341 10’165
7.584 8’696
6.336 7’790
5.578 6’571
4.575 5’629
3.816 4’660
3.053
1512 30’578
26.217 27’488
23.337 24’996
21.026 22’307
18.549 20’603
16.989 18’245
14.845 14’339
11.340 11’037
8.438 9’499
7.114 8’547
6.304 7’261
5.226 6’262
4.404 5’229
3.571
1613 32’000
27.688 28’845
24.736 26’296
22.362 23’542
19.812 21’793
18.202 19’369
15.984 15’338
12.340 11’912
9.299 10’309
7.901 9’312
7.042 7’962
5.892 6’908
5.009 5’812
4.107
1714 33’409
29.141 30’191
26.119 27’587
23.685 24’769
21.064 22’977
19.406 20’489
17.117 16’338
13.339 12’792
10.165 11’125
8.696 10’085
7.790 8’672
6.571 7’564
5.629 6’408
4.660
18 34’805
30.578 31’526
27.488 28’869
24.996 25’989
22.307 24’155
20.603 21’605
18.245 17’338
14.339 13’675
11.037 11’946
9.499 10’865
8.547 9’390
7.261 8’231
6.262 7’015
5.229
15
19 36’191 32’852 30’144 27’204 25’329 22’718 18’338 14’562 12’773 11’651 10’117 8’907 7’633
2016 32.000
37’566 28.845
34’170 26.296
31’410 23.542
28’412 21.793
26’498 19.369
23’828 15.338
19’337 11.912
15’452 10.309
13’604 9.312
12’443 7.962
10’851 6.908
9’591 5.812
8’260
2117 33.409
38’932 30.191
35’479 27.587
32’671 24.769
29’615 22.977
27’662 20.489
24’935 16.338
20’337 12.792
16’344 11.125
14’439 10.085
13’240 8.672
11’591 7.564 8’897
10’283 6.408
2218 34.805
40’289 31.526
36’781 28.869
33’924 25.989
30’813 24.155
28’822 21.605
26’039 17.338
21’337 13.675
17’240 11.946
15’279 10.865
14’041 9.390
12’338 8.231 9’542
10’982 7.015
2319 41’638
36.191 38’076
32.852 35’172
30.144 32’007
27.204 29’979
25.329 27’141
22.718 22’337
18.338 18’137
14.562 16’122
12.773 14’848
11.651 13’091
10.117 11’689
8.907 10’196
7.633
2420 42’980
37.566 39’364
34.170 36’415
31.410 33’196
28.412 31’132
26.498 28’241
23.828 23’337
19.337 19’037
15.452 16’969
13.604 15’659
12.443 13’848
10.851 12’401
9.591 10’856
8.260
25 44’314 40’646 37’652 34’382 32’282 29’339 24’337 19’939 17’818 16’473 14’611 13’120 11’524
2621 38.932
45’642
35.479
41’923
32.671
38’885
29.615
35’563
27.662
33’429
24.935
30’435
20.337
25’336
16.344
20’843
14.439
18’671
13.240
17’292
11.591 13’844
15’379
10.283 8.897
12’198
2722 40.289
46’963 36.781
43’195 33.924
40’113 30.813
36’741 28.822
34’574 26.039
31’528 21.337
26’336 17.240
21’749 15.279
19’527 14.041
18’114 12.338
16’151 10.982
14’573 9.542
12’879
2823 41.638
48’278 38.076
44’461 35.172
41’337 32.007
37’916 29.979
35’715 27.141
32’620 22.337
27’336 18.137
22’657 16.122
20’386 14.848
18’939 13.091
16’928 11.689
15’308 10.196
13’565
2924 42.980
49’588 39.364
45’722 36.415
42’557 33.196
39’087 31.132
36’854 28.241
33’711 23.337
28’336 19.037
23’567 16.969
21’247 15.659
19’768 13.848
17’708 12.401
16’047 10.856
14’256
3025 50’892
44.314 46’979
40.646 43’773
37.652 40’256
34.382 37’990
32.282 34’800
29.339 29’336
24.337 24’478
19.939 22’110
17.818 20’599
16.473 18’493
14.611 16’791
13.120 14’953
11.524
31 52’191 48’232 44’985 41’422 39’124 35’887 30’336 25’390 22’976 21’434 19’281 17’539 15’655
45.642 41.923 38.885 35.563 33.429 30.435 25.336 20.843 18.671 17.292 15.379 13.844 12.198
3226 53’486 49’480 46’194 42’585 40’256 36’973 31’336 26’304 23’844 22’271 20’072 18’291 16’362
3327 46.963
54’776 43.195
50’725 40.113
47’400 36.741
43’745 34.574
41’386 31.528
38’058 26.336
32’336 21.749
27’219 19.527
24’714 18.114
23’110 16.151
20’867 14.573
19’047 12.879
17’074
3428 48.278
56’061 44.461
51’966 41.337
48’602 37.916
44’903 35.715
42’514 32.620
39’141 27.336
33’336 22.657
28’136 20.386
25’586 18.939
23’952 16.928
21’664 15.308
19’806 13.565
17’789
3529 49.588
57’342 45.722
53’203 42.557
49’802 39.087
46’059 36.854
43’640 33.711
40’223 28.336
34’336 23.567
29’054 21.247
26’460 19.768
24’797 17.708
22’465 16.047
20’569 14.256
18’509
3630 50.892
58’619 46.979
54’437 43.773
50’998 40.256
47’212 37.990
44’764 34.800
41’304 29.336
35’336 24.478
29’973 22.110
27’336 20.599
25’643 18.493
23’269 16.791
21’336 14.953
19’233
37 59’893
52.191 55’668
48.232 52’192
44.985 48’363
41.422 45’886
39.124 42’383
35.887 36’336
30.336 30’893
25.390 28’214
22.976 26’492
21.434 24’075
19.281 22’106
17.539 19’960
15.655
31
38 61’162 56’896 53’384 49’513 47’007 43’462 37’335 31’815 29’093 27’343 24’884 22’878 20’691
53.486 49.480 46.194 42.585 40.256 36.973 31.336 26.304 23.844 22.271 20.072 18.291 16.362
3932 62’428 58’120 54’572 50’660 48’126 44’539 38’335 32’737 29’974 28’196 25’695 23’654 21’426
4033 54.776
63’691 50.725
59’342 47.400
55’758 43.745
51’805 41.386
49’244 38.058
45’616 32.336
39’335 27.219
33’660 24.714
30’856 23.110
29’051 20.867
26’509 19.047
24’433 17.074
22’164
56.061 51.966 48.602 44.903 42.514 39.141 33.336 28.136 25.586 23.952 21.664 19.806 17.789
4134 64’950 60’561 56’942 52’949 50’360 46’692 40’335 34’585 31’740 29’907 27’326 25’215 22’906
4235 57.342
66’206
53.203
61’777
49.802
58’124
46.059
54’090
43.640
51’475
40.223
47’766
34.336
41’335
29.054
35’510
26.460
32’626
24.797
30’765
22.465
28’144
20.569
25’999
18.509
23’650
4336 67’459
58.619 62’990
54.437 59’304
50.998 55’230
47.212 52’588
44.764 48’840
41.304 42’335
35.336 36’436
29.973 33’512
27.336 31’625
25.643 28’965
23.269 26’785
21.336 24’398
19.233
44 68’710
59.893 64’201
55.668 60’481
52.192 56’369
48.363 53’700
45.886 49’913
42.383 43’335
36.336 37’363
30.893 34’400
28.214 32’487
26.492 29’787
24.075 27’575
22.106 25’148
19.960
45
37 69’957 65’410 61’656 57’505 54’810 50’985 44’335 38’291 35’290 33’350 30’612 28’366 25’901
38 61.162 56.896 53.384 49.513 47.007 43.462 37.335 31.815 29.093 27.343 24.884 22.878 20.691
50 76’154
62.428 71’420
58.120 67’505
54.572 63’167
50.660 60’346
48.126 56’334
44.539 49’335
38.335 42’942
32.737 39’754
29.974 37’689
28.196 34’764
25.695 32’357
23.654 29’707
21.426
39
55 82’292 77’380 73’311 68’796 65’855 61’665 54’335 47’610 44’245 42’060 38’958 36’398 33’570
63.691 59.342 55.758 51.805 49.244 45.616 39.335 33.660 30.856 29.051 26.509 24.433 22.164
6040 88’379 83’298 79’082 74’397 71’341 66’981 59’335 52’294 48’759 46’459 43’188 40’482 37’485
6541 94’422
64.950 89’177
60.561 84’821
56.942 79’973
52.949 76’807
50.360 72’285
46.692 64’335
40.335 56’990
34.585 53’293
31.740 50’883
29.907 47’450
27.326 44’603
25.215 41’444
22.906
7042 100’425
66.206 95’023
61.777 90’531
58.124 85’527
54.090 82’255
51.475 77’577
47.766 69’334
41.335 61’698
35.510 57’844
32.626 55’329
30.765 51’739
28.144 48’758
25.999 45’442
23.650
7543 106’393
67.459 100’839
62.990 96’217
59.304 91’061
55.230 87’688
52.588 82’858
48.840 74’334
42.335 66’417
36.436 62’412
33.512 59’795
31.625 56’054
28.965 52’942
26.785 49’475
24.398
8044 112’329
68.710 106’629
64.201 101’879
60.481 96’578
56.369 93’106
53.700 88’130
49.913 79’334
43.335 71’145
37.363 66’994
34.400 64’278
32.487 60’391
29.787 57’153
27.575 53’540
25.148
85 118’236
69.957 112’393
65.410 107’522
61.656 102’079
57.505 98’511
54.810 93’394
50.985 84’334
44.335 75’881
38.291 71’589
35.290 68’777
33.350 64’749
30.612 61’389
28.366 57’634
25.901
45
90 124’116 118’136 113’145 107’565 103’904 98’650 89’334 80’625 76’195 73’291 69’126 65’647 61’754
9550 76.154
129’973 71.420
123’858 67.505
118’752 63.167 109’286
113’038 60.346 103’899
56.334 49.335
94’334 42.942
85’376 39.754
80’813 37.689
77’818 34.764
73’520 32.357
69’925 29.707
65’898
10055 135’807
82.292 129’561
77.380 124’342
73.311 118’498
68.796 114’659
65.855 109’141
61.665 99’334
54.335 90’133
47.610 85’441
44.245 82’358
42.060 77’929
38.958 74’222
36.398 70’065
33.570
60 88.379 83.298 79.082 74.397 71.341 66.981 59.335 52.294 48.759 46.459 43.188 40.482 37.485
65 94.422 89.177 84.821 79.973 76.807 72.285 64.335 56.990 53.293 50.883 47.450 44.603 41.444
70 100.425 95.023 90.531 85.527 82.255 77.577 69.334 61.698 57.844 55.329 51.739 48.758 45.442

75 106.393 100.839 96.217 91.061 87.688 82.858 74.334 66.417 62.412 59.795 56.054 52.942 49.475
80 112.329 106.629 101.879 96.578 93.106 88.130 79.334 71.145 66.994 64.278 60.391 57.153 53.540
85 118.236 112.393 107.522 102.079 98.511 93.394 84.334 75.881 71.589 68.777 64.749 61.389 57.634
90 124.116 118.136 113.145 107.565 103.904 98.650 89.334 80.625 76.195 73.291 69.126 65.647 61.754
95 129.973 123.858 118.752 113.038 109.286 103.899 94.334 85.376 80.813 77.818 73.520 69.925 65.898
100 135.807 129.561 124.342 118.498 114.659 109.141 99.334 90.133 85.441 82.358 77.929 74.222 70.065
128 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES

Tabla de t de Student con n grados de libertad

Probabilidad de una variable t de student con n grados de libertad T ~ tn


P{T > t} =P {T
p= >Área
t | sombreada
T ∼t } n

p
n 0.005 0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45
1 63.6567 31.8205 12.7062 6.3138 3.0777 1.9626 1.3764 1.0000 0.7265 0.5095 0.3249 0.1584
2 9.9248 6.9646 4.3027 2.9200 1.8856 1.3862 1.0607 0.8165 0.6172 0.4447 0.2887 0.1421
3 5.8409 4.5407 3.1824 2.3534 1.6377 1.2498 0.9785 0.7649 0.5844 0.4242 0.2767 0.1366
4 4.6041 3.7469 2.7764 2.1318 1.5332 1.1896 0.9410 0.7407 0.5686 0.4142 0.2707 0.1338

5 4.0321 3.3649 2.5706 2.0150 1.4759 1.1558 0.9195 0.7267 0.5594 0.4082 0.2672 0.1322
6 3.7074 3.1427 2.4469 1.9432 1.4398 1.1342 0.9057 0.7176 0.5534 0.4043 0.2648 0.1311
7 3.4995 2.9980 2.3646 1.8946 1.4149 1.1192 0.8960 0.7111 0.5491 0.4015 0.2632 0.1303
8 3.3554 2.8965 2.3060 1.8595 1.3968 1.1081 0.8889 0.7064 0.5459 0.3995 0.2619 0.1297
9 3.2498 2.8214 2.2622 1.8331 1.3830 1.0997 0.8834 0.7027 0.5435 0.3979 0.2610 0.1293

10 3.1693 2.7638 2.2281 1.8125 1.3722 1.0931 0.8791 0.6998 0.5415 0.3966 0.2602 0.1289
11 3.1058 2.7181 2.2010 1.7959 1.3634 1.0877 0.8755 0.6974 0.5399 0.3956 0.2596 0.1286
12 3.0545 2.6810 2.1788 1.7823 1.3562 1.0832 0.8726 0.6955 0.5386 0.3947 0.2590 0.1283
13 3.0123 2.6503 2.1604 1.7709 1.3502 1.0795 0.8702 0.6938 0.5375 0.3940 0.2586 0.1281
14 2.9768 2.6245 2.1448 1.7613 1.3450 1.0763 0.8681 0.6924 0.5366 0.3933 0.2582 0.1280

15 2.9467 2.6025 2.1314 1.7531 1.3406 1.0735 0.8662 0.6912 0.5357 0.3928 0.2579 0.1278
16 2.9208 2.5835 2.1199 1.7459 1.3368 1.0711 0.8647 0.6901 0.5350 0.3923 0.2576 0.1277
17 2.8982 2.5669 2.1098 1.7396 1.3334 1.0690 0.8633 0.6892 0.5344 0.3919 0.2573 0.1276
18 2.8784 2.5524 2.1009 1.7341 1.3304 1.0672 0.8620 0.6884 0.5338 0.3915 0.2571 0.1274
19 2.8609 2.5395 2.0930 1.7291 1.3277 1.0655 0.8610 0.6876 0.5333 0.3912 0.2569 0.1274

20 2.8453 2.5280 2.0860 1.7247 1.3253 1.0640 0.8600 0.6870 0.5329 0.3909 0.2567 0.1273
21 2.8314 2.5176 2.0796 1.7207 1.3232 1.0627 0.8591 0.6864 0.5325 0.3906 0.2566 0.1272
22 2.8188 2.5083 2.0739 1.7171 1.3212 1.0614 0.8583 0.6858 0.5321 0.3904 0.2564 0.1271
23 2.8073 2.4999 2.0687 1.7139 1.3195 1.0603 0.8575 0.6853 0.5317 0.3902 0.2563 0.1271
24 2.7969 2.4922 2.0639 1.7109 1.3178 1.0593 0.8569 0.6848 0.5314 0.3900 0.2562 0.1270

25 2.7874 2.4851 2.0595 1.7081 1.3163 1.0584 0.8562 0.6844 0.5312 0.3898 0.2561 0.1269
26 2.7787 2.4786 2.0555 1.7056 1.3150 1.0575 0.8557 0.6840 0.5309 0.3896 0.2560 0.1269
27 2.7707 2.4727 2.0518 1.7033 1.3137 1.0567 0.8551 0.6837 0.5306 0.3894 0.2559 0.1268
28 2.7633 2.4671 2.0484 1.7011 1.3125 1.0560 0.8546 0.6834 0.5304 0.3893 0.2558 0.1268
29 2.7564 2.4620 2.0452 1.6991 1.3114 1.0553 0.8542 0.6830 0.5302 0.3892 0.2557 0.1268

30 2.7500 2.4573 2.0423 1.6973 1.3104 1.0547 0.8538 0.6828 0.5300 0.3890 0.2556 0.1267
31 2.7440 2.4528 2.0395 1.6955 1.3095 1.0541 0.8534 0.6825 0.5298 0.3889 0.2555 0.1267
32 2.7385 2.4487 2.0369 1.6939 1.3086 1.0535 0.8530 0.6822 0.5297 0.3888 0.2555 0.1267
33 2.7333 2.4448 2.0345 1.6924 1.3077 1.0530 0.8526 0.6820 0.5295 0.3887 0.2554 0.1266
34 2.7284 2.4411 2.0322 1.6909 1.3070 1.0525 0.8523 0.6818 0.5294 0.3886 0.2553 0.1266

35 2.7238 2.4377 2.0301 1.6896 1.3062 1.0520 0.8520 0.6816 0.5292 0.3885 0.2553 0.1266
36 2.7195 2.4345 2.0281 1.6883 1.3055 1.0516 0.8517 0.6814 0.5291 0.3884 0.2552 0.1266
37 2.7154 2.4314 2.0262 1.6871 1.3049 1.0512 0.8514 0.6812 0.5289 0.3883 0.2552 0.1265
38 2.7116 2.4286 2.0244 1.6860 1.3042 1.0508 0.8512 0.6810 0.5288 0.3882 0.2551 0.1265
39 2.7079 2.4258 2.0227 1.6849 1.3036 1.0504 0.8509 0.6808 0.5287 0.3882 0.2551 0.1265

40 2.7045 2.4233 2.0211 1.6839 1.3031 1.0500 0.8507 0.6807 0.5286 0.3881 0.2550 0.1265
45 2.6896 2.4121 2.0141 1.6794 1.3006 1.0485 0.8497 0.6800 0.5281 0.3878 0.2549 0.1264
50 2.6778 2.4033 2.0086 1.6759 1.2987 1.0473 0.8489 0.6794 0.5278 0.3875 0.2547 0.1263
55 2.6682 2.3961 2.0040 1.6730 1.2971 1.0463 0.8482 0.6790 0.5275 0.3873 0.2546 0.1262
60 2.6603 2.3901 2.0003 1.6706 1.2958 1.0455 0.8477 0.6786 0.5272 0.3872 0.2545 0.1262

65 2.6536 2.3851 1.9971 1.6686 1.2947 1.0448 0.8472 0.6783 0.5270 0.3870 0.2544 0.1262
70 2.6479 2.3808 1.9944 1.6669 1.2938 1.0442 0.8468 0.6780 0.5268 0.3869 0.2543 0.1261
75 2.6430 2.3771 1.9921 1.6654 1.2929 1.0436 0.8464 0.6778 0.5266 0.3868 0.2542 0.1261
80 2.6387 2.3739 1.9901 1.6641 1.2922 1.0432 0.8461 0.6776 0.5265 0.3867 0.2542 0.1261
85 2.6349 2.3710 1.9883 1.6630 1.2916 1.0428 0.8459 0.6774 0.5264 0.3866 0.2541 0.1260
90 2.6316 2.3685 1.9867 1.6620 1.2910 1.0424 0.8456 0.6772 0.5263 0.3866 0.2541 0.1260

95 2.6286 2.3662 1.9853 1.6611 1.2905 1.0421 0.8454 0.6771 0.5262 0.3865 0.2541 0.1260
100 2.6259 2.3642 1.9840 1.6602 1.2901 1.0418 0.8452 0.6770 0.5261 0.3864 0.2540 0.1260
125 2.6157 2.3565 1.9791 1.6571 1.2884 1.0408 0.8445 0.6765 0.5257 0.3862 0.2539 0.1259
150 2.6090 2.3515 1.9759 1.6551 1.2872 1.0400 0.8440 0.6761 0.5255 0.3861 0.2538 0.1259
200 2.6006 2.3451 1.9719 1.6525 1.2858 1.0391 0.8434 0.6757 0.5252 0.3859 0.2537 0.1258
300 2.5923 2.3388 1.9679 1.6499 1.2844 1.0382 0.8428 0.6753 0.5250 0.3857 0.2536 0.1258

∞ 2.5758 2.3263 1.9600 1.6449 1.2816 1.0364 0.8416 0.6745 0.5244 0.3853 0.2533 0.1257
Parte III

Inferencia Estadı́stica

129
Tema I 1

Muestreo y estimación

Al realizar un estudio estadı́stico no siempre se puede acceder a todos los elementos


de la población, ya sea porque la población es demasiado grande o el procedimiento es
demasiado costoso. En estas ocasiones el procedimiento que se sigue es tomar una muestra
de la población, estudiarla y, a partir de los resultados obtenidos para la muestra, intentar
conocer, aunque sea de forma aproximada las caracterı́sticas de toda la población, ya sea
para conocerla o para tomar decisiones.
Este procedimiento es el que lleva a cabo la Inferencia Estadı́stica.
En este pimer tema de Inferencia, vamos a estudiar los conceptos más importantes
para llevar a cabo este proceso de forma correcta.

1.1. Concepto de muestra aleatoria y estadı́stico

Supongamos que queremos estudiar un determinado experimento aleatorio cuyos re-


sultados vienen dados por los valores de una variable aleatoria ζ de la que desconocemos
todas, o casi todas, sus caracterı́sticas.
Por ejemplo:

La futura demanda de un nuevo producto que va a salir al mercado


% de unidades defectuosas en un proceso de fabricación

Duración de un modelo de bombilla

Para realizar el estudio de la variable aleatoria podemos proceder de dos modos:

Podemos realizar una inspección total

Podemos realizar la inspección de una parte

131
132 TEMA I 1. MUESTREO Y ESTIMACIÓN

Al conjunto total de las unidades que queremos estudiar se le denomina población,


mientras que al subconjunto del total le llamaremos muestra.
En general:
Una población es cualquier colectivo (conjunto de elementos) que comparte algún
grupo de caracterı́sticas de interés.
Cuando se realiza un estudio exhaustivo de todos los elementos de la población, se
habla de una inspección detallada o un censo.
Sin embargo, cuando por diversos motivos no se pueden observar todos los elementos
de la población, se recurre al análisis de una muestra representativa de la población que
se desea analizar. En este caso se habla de inspección por muestreo.

Muestreo

Una muestra debe ser un subconjunto de la población, pero no cualquier subconjunto,


sino que debe ser representativo de la misma.
La forma en la que se elige este subconjunto influirá en los resultados que obtengamos.
Hay toda una teorı́a de muestras desarrollada para determinar en cada caso cómo debe
ser la muestra, en función del estudio que queramos realizar.
Este no es el momento ni el lugar para desarrollar esta teorı́a, pero sı́ que nos con-
viene conocer algunos de los tipos o técnicas más habituales de muestreo, ya que los
necesitaremos para realizar cualquier estudio estadı́stico.
En segundo lugar, ¿cuál debe ser el tamaño de la muestra?, ¿es apropiado tomar
20 elementos?, ¿existen grandes diferencias entre tomar 50 o 100 elementos?, ¿en qué
influye el tamaño de la muestra?
Vamos a intentar dar una respuesta rápida y sencilla a estas dos cuestiones, aunque,
como ya se ha dicho, el tema no es ni rápido ni sencillo.

Técnicas de muestreo

Una muestra debe ser un subconjunto de la población, representativo de la misma.


Vamos a comentar algunas de las técnicas más habituales de muestreo.

Muestreo con reemplazamiento es el que se realiza cuando un elemento tomado de la


población vuelve de nuevo a ella para poder volver a ser elegido. En esta situación,
cada miembro de la población puede seleccionarse más de una vez.

Muestreo sin reemplazamiento es el que se realiza sin devolver a la población los


elementos que se van eligiendo para construir la muestra. En esta situación, cada
miembro de la población solo puede seleccionarse una vez.
1.1. CONCEPTO DE MUESTRA ALEATORIA Y ESTADÍSTICO 133

Muestreo no aleatorio es el que se realiza de modo que todos los elementos de la


población no tienen la misma probabilidad de ser elegidos.
Con este tipo de muestreo la representatividad de la muestra es escasa y las infe-
rencias poco válidas.
Dentro de este tipo de muestreo se encuentran los muestreos: opinático (elección
subjetiva por considerar el elemento representativo); por cuotas (se obliga a elegir
un cierto número de elementos con una caracterı́stica determinada); semialeatorio
(en alguna fase del muestreo aleatorio, se permite al entrevistador la elección del
elemento que formará parte de la muestra) y por rutas (se suele utilizar en encuestas
de opinión y consiste en indicar pautas para la elección del itinerario a seguir y que
llevará al individuo encuestado).

Muestreo aleatorio es el que se realiza teniendo en cuenta que todos los individuos de
la población tienen la misma probabilidad de ser elegidos en la muestra. Con este
tipo de muestreo, las muestras son representativas, es posible conocer los errores
cometidos y se pueden hacer inferencias.

El muestreo aleatorio es el que más nos interesa y será el que utilicemos siempre que
podamos. Existen tres tipos de muestreo aleatorio:

Muestreo aleatorio simple Para elegir una muestra se parte de una lista con todos los
elementos de la población y del mismo se seleccionan los n elementos que forman la
muestra.

La elección de estos n elementos se pude hacer de varias formas:

Asignando un número a cada elemento de la población y luego eligiendo al azar n


números (ya sea metiéndolos en una urna y sacando n papeles, o generando una
variable discreta equiprobable). Esto da lugar a un muestreo sin reemplazamiento.

Mediante una tabla de números aleatorios. Tendremos que decidir si queremos un


muestreo con reemplazamiento (un elemento puede estar más de una vez en la
muestra), o no.

Este muestreo aleatorio es el más sencillo de todos y sirve de base para los otros dos.

Muestreo aleatorio sistemático es una variedad del muestreo aleatorio simple. Con-
siste en, conocido el tamaño de la población, N, y de la muestra, n, dividimos N entre
n, y el resultado del cociente, k, nos indica que debemos seleccionar los elementos
de la muestra de k en k.

Este tipo de muestreo tiene la ventaja de que solo hay que elegir aleatoriamente el
primer elemento de la muestra, pero tiene el problema de que si hay periodicidad en los
datos, la muestra resultante puede que no sea representativa.
134 TEMA I 1. MUESTREO Y ESTIMACIÓN

Muestreo aleatorio estratificado Se realiza dividiendo la población en subgrupos o


estratos homogéneos y tomando, en cada uno de ellos, una muestra aleatoria simple.

El procedimiento utilizado para determinar el número de elementos que se toman en


cada estrato se llama afijación. Los más habituales son:

Afijación simple: se toma el mismo número de elementos en cada estrato.


Afijación proporcional: el número de elementos es proporcional al tamaño del estrato
dentro de la población.
En general, si queremos tomar una muestra de tamaño n en una población de tamaño
N, para el i-ésimo estrato, de tamaño Ni , tendremos que tomar una muestra de
Ni
tamaño: ni = n .
N

Existen otros tipos de muestreo aleatorio aunque no vamos a verlos.


Otra cuestión importante a la hora de seleccionar una muestra es determinar el tamaño
de la misma.
En muchas ocasiones esta tarea no es nada sencilla, e incluso lo único que podemos
hacer es una estimación del tamaño mı́nimo que debe tener.
Empecemos por el principio, ¿por qué no nos vale con cualquier tamaño de muestra y
en qué influye dicho tamaño?
Para empezar, debemos tener claro que se elige una muestra cuando tenemos una
población tan grande que no podemos abarcarla, o bien lo suficientemente grande para
que sea muy costoso el acceder a todos los elementos de la misma. En estos casos queremos
elegir un subconjunto representativo (muestra aleatoria) y a la vez que no nos suponga
un gasto excesivo.
Por otra parte, la muestra debe ser lo suficientemente grande como para que los re-
sultados obtenidos a partir de ella sean fiables. Esta fiabilidad viene medida por el error
máximo que estamos dispuestos a admitir, EM, y su probabilidad asociada (α).
Por lo tanto, lo que buscamos al elegir el tamaño muestral es evitar un gasto exce-
sivo y conseguir resultados fiables.
El problema de determinar el tamaño de la muestra, como se ha dicho no es nada
sencillo, pero, en algunos casos, podemos dar valores que nos garanticen una determinada
fiabilidad de los resultados.

Ya tenemos una muestra aleatoria

A partir de ahora supondremos que, usando correctamente las técnicas de muestreo


tenemos una muestra aleatoria. Es decir:
(ζ1 , ζ2 , . . . , ζn ) es una muestra aleatoria de tamaño n, siendo ζi la variable aleatoria
que mide el resultado del i-ésimo elemento de la muestra.
1.2. LOS ESTIMADORES MUESTRALES MÁS HABITUALES 135

Si además, cada elemento tiene una oportunidad de ser seleccionado idéntica e in-
dependiente de cualquier otro, entonces estamos ante una muestra aleatoria simple
(m.a.s.).
Vamos a definir algunos conceptos que vamos a manejar en lo sucesivo:

Parámetro: es la medida de una caracterı́stica determinada de una población. Es un


valor fijo.
Los parámetros son los verdaderos valores de la población y, generalmente, son
desconocidos.
Notación: media(µ); varianza (σ 2 )

Estadı́stico: es cualquier variable aleatoria que se obtenga como función de la mues-


tra.
Como una muestra aleatoria es un conjunto de variables aleatorias, el estadı́stico es
también una variable aleatoria.

Estimador: es un estadı́stico que nos sirve para encontrar un valor aproximado (estima-
do) de un parámetro.

1.2. Los estimadores muestrales más habituales

Vamos a enumerar las caracterı́sticas de los estimadores muestrales más habituales:

1.2.1. La suma muestral

Sea (ζ1 , ζ2 , . . . , ζn ) una m.a.s. tal que E[ζi ] = µ y V ar(ζi ) = σ 2 , ∀i.


Llamaremos estadı́stico suma muestral a la variable aleatoria:

Sn = ζ1 + ζ2 + · · · + ζn

Este estadı́stico tiene las siguientes caracterı́sticas:

1. E[Sn ] = nµ

2. V ar(Sn ) = σ 2 n, y por lo tanto dt(Sn ) = σ n

1.2.2. La media muestral

Sea (ζ1 , ζ2 , . . . , ζn ) una m.a.s. tal que E[ζi ] = µ y V ar(ζi ) = σ 2 , ∀i.


Llamaremos estadı́stico media muestral a la variable aleatoria:
136 TEMA I 1. MUESTREO Y ESTIMACIÓN

Pn
ζ1 + ζ2 + · · · + ζn 1=1 ζi
ζ̄ = =
n n

Este estadı́stico tiene las siguientes caracterı́sticas:

1. E[ζ̄] = µ
σ2 √σ
2. V ar(ζ̄) = n
, y por lo tanto dt(Sn ) = n

1.2.3. La varianza muestral

Sea (ζ1 , ζ2 , . . . , ζn ) una m.a.s. tal que E[ζi ] = µ y V ar(ζi ) = E[(ζi − µ)2 ] = σ 2 , ∀i.
Llamaremos estadı́stico varianza muestral a la variable aleatoria:

Pn
02
i=1 (ζi − ζ̄)2
S = m2 =
n

Este estadı́stico verifica que:


0 n−1
E[S 2 ] = E[m2 ] = σ 2 ( )
n

Demostración:

Pn n n
− ζ̄)2

1=1 (ζi 1X 
02 2
 1X h 2 i
E[S ] = E = E (ζi − ζ̄) = E (ζi − µ) − (ζ̄ − µ) =
n n 1=1 n 1=1
n
1 X
E[(ζi − µ)2 ] + E[(ζ̄ − µ)2 ] − 2E[(ζi − µ)(ζ̄ − µ)] =

=
n 1=1
n  n 
1 X 2 σ2 1 X 2 σ2 σ2
 
= σ + − 2E[(ζi − µ)(ζ̄ − µ)] = (∗) = σ + −2 =
n 1=1 n n 1=1 n n
n 
1 X (n − 1)σ 2 n(n − 1)σ 2

n−1 2
= = 2
= σ
n 1=1 n n n

(∗) = E (ζi − µ)(ζ̄ − µ) = E[ζi ζ̄] − µE[ζ̄] − µE[ζi ] + µ2 = E[ζi ζ̄] − µ2 =


 

" Pn #
j=1 ζj 1X 1
= E ζi − µ2 = E[ζi ]E[ζj ] + E[ζi2 ] − µ2
n n j6=i n
n−1 2 1 2 n−1 2 1 2 1 2 1
= µ + (σ + µ2 ) − µ2 = µ + σ + µ − µ2 = σ 2
n n n n n n
1.3. DISTRIBUCIONES EN EL MUESTREO 137

1.2.4. La cuasivarianza muestral

Sea (ζ1 , ζ2 , . . . , ζn ) una m.a.s. tal que E[ζi ] = µ y V ar(ζi ) = E[(ζi − µ)2 ] = σ 2 , ∀i.
Llamaremos estadı́stico cuasivarianza muestral a la variable aleatoria:

Pn
2 − ζ̄)2
i=1 (ζi n
S = = m2
n−1 n−1

Este estadı́stico verifica que:

E[S 2 ] = σ 2

Demostración:
 
2 n n n n−1
E[S ] = E m2 = E[m2 ] = σ2( ) = σ2
n−1 n−1 n−1 n

1.3. Distribuciones en el muestreo

Vamos a comenzar planteando el tema de la estimación de la media (µ) de una variable


para una población.
La población es tan grande que no podemos abordarla en su totalidad, y por lo tanto,
solo podemos trabajar con los resultados obtenidos a partir de una muestra.
Supongamos que queremos determinar la altura media de los estudiantes de la Uni-
versidad de La Rioja. No vamos a poder medirlos a todos, ası́ que elegimos, al azar, a 30
estudiantes, los medimos y calculamos la media de las alturas. Obtenemos como altura
media: 177.32 cm, con una cuasidesviación tı́pica (para estos 30 datos) de 12.98 cm.
¿Nos atreverı́amos a decir que la altura media de los estudiantes de la Universidad de
La Rioja es de 177.32 cm?
¿Qué ocurre si tomamos otras muestras, también de tamaño 30?
Muestra 1 2 3 4 5 6 7 8 9 10
Media 177.32 175.06 178.30 178.26 179.47 173.61 175.83 179.18 180.12 177.18
Cuasidesviación 12.98 11.96 11.65 13.46 9.75 13.03 13.32 13.14 12.12 11.01
tı́pica

Como podemos observar, para cada muestra obtenemos unos valores diferentes, pero
estos valores, que podemos considerar como observaciones de la variable aleatoria media
muestral, siguen también una distribución.
Las distribuciones en el muestreo dependerán de la información que tengamos:
138 TEMA I 1. MUESTREO Y ESTIMACIÓN

1.3.1. Distribución de la media muestral

Sabemos que si tenemos una población en la que la variable considerada sigue una
distribución Normal, N (µ, σ), y extraemos muestras de tamaño n , entonces, la variable
σ
aleatoria media muestral, sigue una distribución: ζ̄ ∼ N (µ, √ )
n
Es decir que si (ζ1 , ζ2 , . . . , ζn ) es una m.a.s de una variable que sigue, en la población,
σ
una distribución N (µ, σ), entonces ζ̄ ∼ N (µ, √ )
n
Estamos diciendo que la variable aleatoria media muestral tiene como media (esperan-
za) la media poblacional (µ). El valor esperado de la media muestral es la media
poblacional.
La desviación tı́pica de la media muestral se conoce como error estándar o error tı́pico
de la media (standard error of the mean: SE).
Por el Teorema central del lı́mite sabemos que el resultado anterior también es cierto
(aproximadamente) cuando la distribución en la población no es Normal, siempre que el
tamaño de las muestras sea suficientemente grande.
Si tipificamos esta variable, obtendremos otra variable con distribución N (0, 1), que
nos permitirá realizar inferencias sobre µ, cuando la desviación tı́pica poblacional, σ,
es conocida.

Si la variable considerada sigue en la población una distribución Normal o el


tamaño de las muestras es suficientemente grande (n≥30) entonces, para realizar
inferencias sobre µ, cuando la desviación tı́pica poblacional, σ, es conocida,
usaremos el siguiente estadı́stico:

ζ̄ − µ
√ ∼ N (0, 1)
σ/ n

En la práctica, la varianza poblacional no es conocida (si no conocemos la media, lo


más probable es que tampoco conozcamos la varianza).
Entonces el estadı́stico anterior no nos sirve ya que depende de un parámetro desconoci-
do. Para resolver el problema usaremos el siguiente resultado que utiliza la cuasidesviación
tı́pica muestral en lugar de la desviación tı́pica poblacional:

Si se toman muestras de tamaño n de una variabe que, en la población consi-


derada, sigue una distribución Normal de media µ (que queremos estimar), y la
desviación tı́pica poblacional, σ, es desconocida, entonces:

ζ̄ − µ
√ ∼ tn−1
s/ n

(s es la cuasidesviación tı́pica muestral).


1.4. CONCEPTO DE ESTIMADOR Y DE ESTIMACIÓN POR INTERVALOS 139

1.3.2. Distribución de la proporción muestral

En muchas ocasiones nos interesará estimar no el valor medio de un conjunto de obser-


vaciones sino la proporción de veces que ocurre un determinado fenómeno (por ejemplo:
la proporción de votantes a un partido polı́tico).
Es decir, queremos estimar el valor de la proporción poblacional (p), a partir de los
resultados obtenidos con una muestra de tamaño n.
Siguiendo un razonamiento análogo al utilizado para determinar la distribución de la
media muestral (tomando muchas muestras de tamaño n, calculando la proporción para
cada una de ellas y estudiando la distribución de la variable proporción muestral, p̂),
llegamos a que:
Cuando n es grande (n ≥ 30), la distribución de la proporción muestral es una
Normal: r !
p(1 − p)
p̂ ∼ N p,
n
o lo que es equivalente:
p̂ − p
q ∼ N (0, 1)
p(1−p)
n

(n − 1)S 2
1.3.3. Distribución para poblaciones Normales
σ2
Si (ζ1 , ζ2 , . . . , ζn ) es una m.a.s de una variable que sigue, en la población, una distri-
(n − 1)S 2
bución N (µ, σ), entonces: ∼ χ2n−1
σ2

1.4. Concepto de estimador y de estimación por in-


tervalos

Los estadı́sticos que hemos visto se utilizan para estimar los valores de los parámetros
desconocidos de la población.

Estimador

Un estimador es una función de la muestra que se utiliza para estimar los valores de
los parámetros o valores poblacionales desconocidos.
Por ejemplo:

ζ̄ es un estimador del parámero µ


140 TEMA I 1. MUESTREO Y ESTIMACIÓN

S 2 es un estimador de σ 2
0
S 2 es un estimador de σ 2

p̂ es un estimador de p

Respecto a los estimadores, esto tienen distintas caracterı́sticas que nos pueden inte-
resar y que simplemente vamos a enunciar a continuación:
Diremos que un estimador es un estimador insesgado si su esperanza coincide con
el parámetro que pretende estimar.
Por ejemplo:

ζ̄ es un estimador insesgado de µ

S 2 es un estimador insesgado de σ 2

p̂ es un estimador insesgado de p

Diremos que un estimador es un estimador suficiente si recoge la mayor información


muestral posible.
Diremos que un estimador es un estimador eficiente si la dispersión, a lo largo de
todas las muestras, entre el estimador y el parámetro es la mı́nima posible.
Diremos que un estimador es un estimador consistente si el valor del estimado
se aproxima al verdadero valor del parámetro, a medida que aumenta el tamaño de la
muestra.
Cuando desconocemos el valor de un parámetro y tomamos como valor aproximado
del mismo el que nos proporciona el estadı́stico en una muestra extraı́da al azar de la
población, estamos ante un problema de estimación, que se puede resolver de dos
formas:

estimación puntual

estimación por intervalo

Estimación puntual

La estimación puntual consiste en asignar un valor de un estimador en una muestra


concreta al parámetro poblacional que queremos estimar.
Por ejemplo, si queremos estimar la media de una variable aleatoria, tomamos una
muestra aleatoria simple de dicha variable, calculamos la media para la muestra y asig-
namos dicho valor como estimación del parámetro media.
1.4. CONCEPTO DE ESTIMADOR Y DE ESTIMACIÓN POR INTERVALOS 141

Estimación por intervalo

La estimación puntual tiene el inconveniente de que cada muestra distinta nos dará
una aproximación diferente.
Para hacernos una idea de en qué intervalo está, casi seguramente, el parámetro po-
blacional, se utilizan los intervalos de confianza.
Llamaremos nivel de confianza al porcentaje de confianza que tenemos al hacer
la estimación (también se puede expresar en términos de probabilidad como 1 − α), o
bien, podemos hablar también del nivel de significación, α, que no es otra cosa que la
probabilidad de error que estamos dispuestos a asumir en la estimación.
Estos dos conceptos son complementarios: Si estamos dispuestos a asumir una proba-
bilidad de error de α = 0.05 (5 % de error), entonces, nuestro nivel de confianza será del
95 % (ó 0.95 en términos de probabilidad).
Por otra parte, queda claro que cuanto mayor sea el error admitido, menor será el
nivel de confianza.

1.4.1. Intervalo de confianza para la media (µ)

Sabemos que la distribución de la media muestral para variables que tienen en la po-
blación una distribución Normal o para muestras grandes, cuando la varianza poblacional
es conocida es:
σ
ζ̄ ∼ N (µ, √ )
n

Buscamos un intervalo, en torno a la media, que encierre una probabilidad del 90 %


(por ejemplo).
Este intervalo será aquel que cumpla que:

σ
P {|ζ̄ − µ| < x} = 0.9, cuando ζ̄ ∼ N (µ, √ )
n
buscamos un intervalo, entorno a la media, que encierre una probabilidad del 90% (por
ejemplo). Este intervalo será aquel que cumpla que:
⎛ σ ⎞
142 P{ζ < x} = 0'9 , cuando ζ ≈ N ⎜⎜TEMA
μ, ⎟⎟I, 1. MUESTREO Y ESTIMACIÓN
⎝ n⎠

1-α=0.9

78
α/2 α/2

a μ b

Para establecer los límites de este intervalo, tenemos que calcular el valor, para una
Para establecer los lı́mites de este intervalo, tenemos que calcular el valor, para una
⎛ σ ⎞
⎜⎜ μ , a su
N (µ, √σn ), que Ndeja ⎟⎟ , derecha
que deja una
a su probabilidad Paraa α/2.
igual a α/2.igual
derecha una probabilidad hacerlo
Paraprimero
hacerlo, primero
⎝ n ⎠
tipificamos, con lo que tenemos que:
ζ −μ
tipificamos con lo que tenemos ζ̄ − µque: Z = ≈ N (0,1) .
Z = √ ∼ N (0, 1) σ
σ/ n n

1-α=0.9

α/2 α/2

-zα/2 zα/2 = z0.05=1.645


0

Entonces, siEntonces,
para la si = σ/
Z para ζ̄−µ X −μ
√ Z ,=el intervalo de confianza, con un con
nivelundenivel
confianza
la , el intervalo de confianza, de confianza 1-
n
1-α, es (−zα/2 , zα/2 ), esto significa que: n
σ

α, es (-zα/2, zα/2), esto significa que:


   
⎧ x̄ − µ ⎫ σ σ
1 − α = P −zα/2⎪ < √ X<− zμα/2 = ⎪P x̄⎧− zα/2 √ σ< µ < x̄ + zα/2 √ σ ⎫
1 − α = P ⎨− zασ/ /2 <
n < zα / 2 ⎬ = P ⎨ X − zα / 2n. < μ < X + zα / 2 .n ⎬
⎪ σ ⎪ ⎩ n n⎭
Por lo tanto: ⎩ n ⎭
Por lo tanto:
Cuando trabajamos con poblaciones en las que la variable sigue una distribución
Normal, o con muestras grandes, y además la varianza poblacional es conocida, el
intervalo de confianza para la media, μ, es:
1.4. CONCEPTO DE ESTIMADOR Y DE ESTIMACIÓN POR INTERVALOS 143

Cuando trabajamos con poblaciones en las que la variable sigue una distribución
Normal, o con muestras grandes, y además la varianza poblacional es
conocida, el intervalo de confianza para la media, µ, con un nivel de confianza
1 − α es:
 
σ σ
IC(µ) = x̄ − zα/2 √ , x̄ + zα/2 √
n n
donde, zα/2 es el valor de la N (0, 1), que deja a su derecha una probabilidad igual
a α/2.

Cuando la varianza poblacional no es conocida, no podemos calcular este intervalo.


En ese caso usaremos el siguiente resultado que se obtiene siguiendo un razonamiento
análogo para una t de Student:
Cuando trabajamos con poblaciones en las que la variable sigue una distribución
Normal, y la varianza poblacional es desconocida, el intervalo de confianza
para la media, µ, con un nivel de confianza 1 − α es:
 
s s
IC(µ) = x̄ − tn−1,α/2 √ , x̄ + tn−1,α/2 √
n n

donde, tn−1,α/2 es el valor de la t de Student con n-1 grados de libertad, que deja
a su derecha una probabilidad igual a α/2.

De ahora en adelante trabajaremos en este supuesto (varianza poblacional desconoci-


da).
Aunque el error que estamos dispuestos a admitir puede cambiar, los valores más
habituales son: 1 %, 5 % y 10 % (α=0.01, 0.05 y 0.1 respectivamente).
Una vez que hemos establecido el error máximo que estamos dispuestos a admitir
en nuestra estimación, podemos establecer que la media poblacional se encuentra en el
intervalo: IC = x̄ ± EM , donde EM es el error muestral.
(el error muestral es la desviación respecto al parámetro)
En el ejemplo de las medias: para la última muestra de tamaño 30, tenı́amos que la
media observada (media de la muestra) era x̄ = 177.18 , con una cuasidesviación tı́pica
muestral de s = 11.01.
Entonces, el intervalo de confianza para la media poblacional con un nivel de confianza
del 90 % será:
α=0.1: IC(µ) = 177.18 ± 1.699127 11.01

30
= 177.18 ± 3.415486
Es decir que, estimamos que la media poblacional se encuentra dentro del intervalo
(173.7645, 180.5955), con un nivel de confianza del 90 %.
Los intervalos de confianza para la media con los otros niveles de significación más
habituales son:
144 TEMA I 1. MUESTREO Y ESTIMACIÓN

α=0.01: IC(µ) = 177.18 ± 2.756386 11.01



30
= 177.18 ± 5.540727
Es decir que, estimamos que la media poblacional se encuentra dentro del intervalo
(171.6393, 182.7207), con un nivel de confianza del 99 %.
α=0.05: IC(µ) = 177.18 ± 2.04523 11.01

30
= 177.18 ± 4.111202
Es decir que, estimamos que la media poblacional se encuentra dentro del intervalo
(173.0688, 181.2912), con un nivel de confianza del 95 %.

1.4.2. Intervalo de confianza para una proporción

Haciendo un estudio análogo al anterior para la proporción:


Para calcular el intervalo de confianza de la proporción poblacional, con un nivel
confianza 1 − α (o un nivel de significación α), tenemos que, si n es suficientemente
grande:

r r r !
p(1 − p) p(1 − p) p(1 − p)
IC(p) = p̂ ± zα/2 = p̂ − zα/2 , p̂ + zα/2
n n n

Este intervalo no lo podemos calcular ya que depende del parámetro p que queremos
estimar.
Lo que hacemos es utilizar para el cálculo, la proporción muestral en lugar de la
proporción poblacional. Entonces:

Cuando n es suficientemente grande (n ≥ 30), el intervalo de confianza para la


proporción poblacional, con un nivel de significación α, es:

r r r !
p̂(1 − p̂) p̂(1 − p̂) p̂(1 − p̂)
IC(p) = p̂ ± zα/2 = p̂ − zα/2 , p̂ + zα/2
n n n

NOTACIÓN: zα/2 es el valor de una N (0, 1) que deja a la derecha una probabi-
lidad α/2

También nos podemos poner en la peor situación posible y determinar el intervalo de


confianza más grande posible, para un nivel de confianza 1-α, que es el que se obtiene
cuando p=1/2.
En esa situación:
1.4. CONCEPTO DE ESTIMADOR Y DE ESTIMACIÓN POR INTERVALOS 145

Cuando n es suficientemente grande (n ≥ 30), el intervalo de confianza más


grande posible para la proporción poblacional, con un nivel de significación α,
es:
r r r !
1 1 1
IC(p) = p̂ ± zα/2 = p̂ − zα/2 , p̂ + zα/2
4n 4n 4n

NOTACIÓN: zα/2 es el valor de una N (0, 1) que deja a la derecha una probabi-
lidad α/2

Veamos un ejemplo:
Si basándonos en una muestra (altura de 30 estudiantes) queremos determinar la
proporción de estudiantes universitarios con una altura superior a 180 cm, deberı́amos
hacer lo siguiente:

1. Observamos lo que ocurre en la muestra: 5 de los estudiantes tienen una altura


superior a los 180 cm.
5
Esto significa que la proporción muestral es: p̂ = 30
= 0.16̂

2. Determinamos el nivel de error que estamos dispuestos a aceptar y construimos el


intervalo de confianza correspondiente. Ası́:

Si α = 0.1: s
5 25
5 30 30
IC(p) = ± 1.644854
30 30

IC(p) = (0.05475, 0.27858)

3. Interpretamos el resultado:
basándonos en los resultados de la muestra, estimamos con un nivel de confianza
del 90 %, que la proporción poblacional de estudiantes con una altura mayor que
180 cm se encuentra dentro del intervalo: (0.05475, 0.27858) (o lo que es lo mismo,
entre el 5.475 % y el 27.858 %).

Los intervalos de confianza para otros niveles de significación son:


Si α = 0.01: s
5 25
5 30 30
IC(p) = ± 2.575829
30 30

Es decir que, basándonos en los resultados de la muestra, estimamos con un nivel de


confianza del 99 %, que la proporción poblacional de estudiantes con una altura mayor
que 180 cm se encuentra dentro del intervalo: (-0.008596, 0.341930).
Este resultado teóricamente está bien, pero como la proporción no puede ser negativa,
podemos utilizar el intervalo: (0, 0.34193).
146 TEMA I 1. MUESTREO Y ESTIMACIÓN

Es decir que estimamos, con un nivel de confianza del 99 %, que la proporción pobla-
cional de estudiantes con una altura mayor que 180 cm es menor que el 34.193 %.
Si α = 0.05: s
5 25
5 30 30
IC(p) = ± 1.959964
30 30

Es decir que, basándonos en los resultados de la muestra, estimamos con un nivel de


confianza del 95 %, que la proporción poblacional de estudiantes con una altura mayor
que 180 cm se encuentra dentro del intervalo: (0.03331, 0.30003) (o lo que es lo mismo,
entre el 3.331 % y el 30.003 %).
Nota: la mayorı́a de los programas de tratamiento estadı́stico no calculan los intervalos
de confianza para una proporción, en ese caso, tendremos que calcularlos nosotros.

1.4.3. Intervalo de confianza para la variaza (σ 2 )

Haciendo un estudio análogo a los anteriores:


Para calcular el intervalo de confianza de la varianza poblacional, con un nivel con-
fianza 1 − α (o un nivel de significación α), sabemos que:
Si la variable aleatoria sigue, en la población, una distribución Normal:

(n − 1)S 2
2
∼ χ2n−1
σ

Por lo tanto:
Cuando trabajamos con poblaciones en las que la variable sigue una distribución
Normal, el intervalo de confianza para la varianza, σ 2 , con un nivel de confianza
1 − α es:
!
2 2
(n − 1)S (n − 1)S
IC(σ 2 ) = ,
χ2n−1,α/2 χ2n−1,1−α/2

NOTACIÓN: χ2n−1,α/2 es el valor de una χ2n−1 que deja a la derecha una proba-
bilidad α/2

Ejemplo. Un programador desea obtener una aproximación del número medio de


lı́neas de código que tienen los programas realizados en su empresa. Para ello dispone de
la información referente a 51 programas realizados en la empresa y seleccionados al azar,
para los cuales ha obtenido que el número medio de lı́neas de código es de 3552 con una
cuasidesviación tı́pica de 225 lı́neas. Determina:

1. Entre qué valores se encuentra el número medio de lı́neas de código de los programas,
con un nivel de confianza del 90 %.
1.4. CONCEPTO DE ESTIMADOR Y DE ESTIMACIÓN POR INTERVALOS 147

2. Entre qué valores se encuentra la desviación tı́pica del número de lı́neas de código
de los programas, con un nivel de confianza del 95 %.

Tenemos una muestra de 51 programas ⇒ n = 51


Para la cual: x̄ = 3552 y s = 225
Entonces:

1. IC0.9 (µ)
Como la varianza poblacional (σ 2 ) es desconocida, sabemos que si el número de
ζ̄ − µ
lı́neas de código sigue una distribución Normal, entonces: s ∼ tn−1

n

En es caso: IC0.9 (µ) = x̄ ± tn−1,α/2 √sn


tn−1,α/2 = t50,0.05 = 1.6759, luego:
IC0.9 (µ) = 3552 ± 1.6759 √225
51
= (3499.2, 3604.8)
Es decir, que el número medio de lı́neas de código de los programas, se encuentra
en el intervalo (3499.2,3605.8), con un nivel de confianza del 90 %.

2. IC0.95 (σ)
Vamos a hacer inferencia sobre la varianza. Sabemos que si el número de lı́neas
(n − 1)s2
de código sigue una distribución Normal, entonces: ∼ χ2n−1
σ2
!
2 2
(n − 1)s (n − 1)s
En este caso, IC0.95 (σ 2 ) = ,
χ2n−1,α/2 χ2n−1,1−α/2

χ2n−1,α/2 = χ250,0.025 = 71.42 y χ2n−1,1−α/2 = χ250,0.975 = 32.357, entonces:

50 ∗ 2252 50 ∗ 2252
 
2
IC0.95 (σ ) = ,
71.42 32.357
Este es el intervalo de confianza para la varianza poblacional, pero como lo que
queremos es el intervalo para la desviación tı́pica, debemos calcular la raı́z cuadrada.
√ √ !
50 ∗ 225 50 ∗ 225
IC0.95 (σ) = √ , √ = (188.26, 279.69)
71.42 32.357
Es decir, que la desviación tı́pica del número de lı́neas de código de los programas
realizados en la empresa se encuentra en el intervalo (188.26,279.69) con un nivel
de confianza del 95 %.
NOTA: para que los resultados sean válidos, necesitamos comprobar que la varia-
ble aleatoria que mide el número de lı́neas de código de los programas, sigue una
distribución Normal. Si esto no es cierto, los intervalos calculados no son válidos.
148 TEMA I 1. MUESTREO Y ESTIMACIÓN

1.5. Tamaño de la muestra

1.5.1. Para la estimación de una media

La idea es la siguiente:
Si la población es Normal, y la varianza poblacional es conocida, la distribución
de la media muestral es:
σ
ζ̄ ∼ N (µ, √ )
n

En este caso, el intervalo de confianza para la media poblacional, con un nivel de


confianza 1 − α, o lo que es lo mismo para un nivel de significación α, es:
 
σ σ
IC(µ) = x̄ − zα/2 √ , x̄ + zα/2 √
n n

σ
Es decir que: IC(µ) = x̄ ± zα/2 √ = x̄ ± EM
n
EM es el error muestral.
Luego, el error muestral, que es el error máximo que se puede cometer, para un nivel
de confianza 1 − α, es:
σ
EM = zα/2 √
n

Entonces:
Para calcular el intervalo de confianza para la media, o para realizar un contraste
de hipótesis para la media, cuando

la variable considerada sigue una distribución Normal en la población,

la varianza poblacional es conocida,

estamos dispuestos a asumir una probabilidad de error α,

y determinamos que el error máximo que estamos dispuestos a acep-


tar es EM,

entonces, el tamaño de la muestra debe ser:


2
zα/2 σ2
n=
EM 2
Ejemplo. Se sabe que el contenido de grasa de las hamburguesas servidas por una
cadena de restaurantes es una variable aleatoria con distribución Normal y desviación
tı́pica conocida σ = 4.2 gramos.
¿Cuál debe ser el tamaño de la muestra que se debe recoger, para poder determinar
el contenido medio de grasa de las hamburguesas con un error inferior a 0.5 gramos y con
un nivel de confianza del 90 %?
1.5. TAMAÑO DE LA MUESTRA 149

Queremos hacer inferencia sobre la media poblacional, la varianza poblacional es co-


nocida y la variable aleatoria sigue una distribución Normal.
σ
En este caso, sabemos que el error muestral, es: EM = zα/2 √ , y queremos que sea
n
menor que 0.5 , entonces:
σ 1.645 ∗ 4.2
Como zα/2 = z0.05 = 1.645, entonces EM = zα/2 √ = √ < 0.5
n n
 2
1.645 ∗ 4.2
Por lo tanto, despejando: n > = 190.94
0.5
El tamaño de la muestra debe ser: n ≥ 191

En el caso de que la varianza poblacional sea desconocida (que es lo más habitual),


sabemos que el intervalo de confianza para la media, con un nivel de confianza 1 − α, es:
 
s s
IC(µ) = x̄ − tn−1,α/2 √ , x̄ + tn−1,α/2 √
n n

Esto significa que el error muestral es: EM = tn−1,α/2 √sn


pero en esta expresión tanto s como el valor de la t, dependen de n, por lo que es
imposible calcularlos.
Lo que se hace en estas ocasiones es calcular una estimación del tamaño de la
muestra, utilizando información previa fiable sobre el valor de la varianza poblacional.
Utilizaremos la misma expresión, pero ahora no podemos asegurar el resultado,
aunque será aproximado.
Para calcular el intervalo de confianza para la media, o para realizar un contraste
de hipótesis para la media cuando

la variable considerada sigue una distribución Normal en la población,

aunque la varianza poblacional es desconocida tenemos información


previa fiable sobre la misma (habitualmente se utiliza la cuasivarianza
muestral s2 ),

estamos dispuestos a asumir una probabilidad de error α,

y determinamos que el error máximo que estamos dispuestos a acep-


tar es EM,

entonces, el tamaño de la muestra debe ser:


2
zα/2 s2
n=
EM 2
En cualquier otro caso, el análisis es mucho más complicado y no lo vamos a ver.
150 TEMA I 1. MUESTREO Y ESTIMACIÓN

1.5.2. Para la estimación de una proporción

En el caso de la proporción poblacional, el razonamiento es análogo:


Sabemos que cuando n es suficientemente grande (n ≥ 30), el intervalo de confianza
para la proporción poblacional, con un nivel de significación α, es:
r
p̂(1 − p̂)
IC(p) = p̂ ± zα/2
n
Es decir que el error muestral es:
r
p̂(1 − p̂)
EM = zα/2
n

Lo que significa que el tamaño mı́nimo de la muestra debe ser:

2 p̂(1 − p̂)
n = zα/2
EM 2

Es decir:
Para calcular el intervalo de confianza para la proporción poblacional, o para
realizar un contraste de hipótesis para la proporción poblacional, si estamos
dispuestos a asumir una probabilidad de error α, y determinamos que el
error máximo que estamos dispuestos a aceptar es EM, entonces, el tamaño
de la muestra debe ser:

p̂(1 − p̂)
2
n = zα/2
EM 2
Este resultado es cierto siempre que obtengamos n ≥ 30.
En el resultado anterior, se utiliza la proporción muestral como una estimación de la
proporción poblacional para realizar los cálculos.
Si no queremos o no podemos utilizar la aproximación de la proporción, nos podemos
poner en la peor situación posible y determinar el intervalo de confianza más grande
posible, para un nivel de confianza 1 − α que es el que se obtiene cuando p=1/2.
Para esta situación sabemos que:
Cuando n es suficientemente grande (n > 30), el intervalo de confianza para la pro-
porción poblacional, con un nivel de significación α, es:
r
1
IC(p) = p̂ ± zα/2
4n

r
1
Es decir que el error muestral es: EM = zα/2
4n
1.5. TAMAÑO DE LA MUESTRA 151

Lo que significa que el tamaño mı́nimo de la muestra debe ser:

2 1
n = zα/2
4EM 2

Es decir que:
Si no queremos o no podemos utilizar la aproximación de la proporción, para
calcular el intervalo de confianza para la proporción poblacional, o para realizar
un contraste de hipótesis para la proporción poblacional, si estamos dispuestos a
asumir una probabilidad de error α, y determinamos que el error máximo
que estamos dispuestos a aceptar es EM, entonces, el tamaño de la muestra debe
ser:
12
n = zα/2
4EM 2
Este resultado es cierto siempre que obtengamos n ≥ 30.

Ejemplo. Se quiere determinar, con un nivel de confianza del 95 %, la proporción de


estudiantes universitarios españoles que fuman. ¿Cuál deberı́a ser el tamaño de la muestra,
para poder calcular esta proporción con un error muestral menor que 0.05?
En este caso no tenemos ninguna referencia (no tenemos proporción muestral), por lo
tanto nos ponemos en la situación más desfavorable: p = (1 − p) = 21
q
1 2 1
Entonces: EM = zα/2 4n y por lo tanto: n = zα/2
4EM 2
Como: zα/2 = z0.025 = 1.96
1.962
n> = 384.16
4 ∗ 0.052
Luego, el tamaño de la muestra debe ser: n ≥ 385

1.5.3. Para la estimación de una diferencia de medias

En el caso de la diferencia de medias, solo vamos a considerar el caso más elemental:


Sabemos que si tenemos muestras tomadas en poblaciones para las que la variable
sigue una distribución Normal o poblaciones cualesquiera pero con muestras grandes y
varianzas poblacionales conocidas, la distribución en el muestreo de la diferencia de medias
cumple que:
ζ¯1 − ζ¯2 − (µ1 − µ2 )
q ∼ N (0, 1)
σ12 σ22
n
+ m

Entonces, el intervalo de confianza para la diferencia de medias será:


r
σ12 σ22
IC(µ1 − µ2 ) = x̄1 − x̄2 ± zα/2 +
n m
152 TEMA I 1. MUESTREO Y ESTIMACIÓN

Si tomamos muestras del mismo tamaño en las dos poblaciones: n=m, entonces:
r  2
σ12 + σ22 σ1 + σ22

2
EM = zα/2 y en este caso: n = zα/2
n EM 2
Es decir
Si trabajamos con variables que siguen, en la población, una distribución Normal,
con varianzas conocidas y si tomamos muestras del mismo tamaño en ambas
poblaciones, entonces, el tamaño muestral necesario en cada población, para que
el error muestral de la diferencia de medias, con un nivel de confianza prefijado
1 − α, sea igual a una cantidad prefijada, EM, es:
 2
σ1 + σ22

2
n = zα/2
EM 2

1.5.4. Para la estimación de una diferencia de proporciones

Análogamente, para la diferencia de proporciones


Si tomamos muestras del mismo tamaño en ambas poblaciones, entonces, el
tamaño muestral necesario para que el error muestral de la diferencia de pro-
porciones, con un nivel de confianza prefijado 1 − α, sea igual a una cantidad
prefijada, EM, es:
 
2 p1 (1 − p1 ) + p2 (1 − p2 )
n = zα/2
EM 2

O bien, en el caso más extremo (p1 = p2 = 1/2):

Si tomamos muestras del mismo tamaño en ambas poblaciones, entonces, el


tamaño muestral necesario para que el error muestral de la diferencia de pro-
porciones, con un nivel de confianza prefijado 1 − α, sea igual a una cantidad
prefijada, EM, es:  
2 1
n = zα/2
2EM 2
Tema I 2

Contrastes de hipótesis paramétricos

2.1. Contraste de hipótesis

En muchas ocasiones, el objetivo de nuestro análisis será corroborar empı́ricamente


alguna hipótesis inicial sobre la población objeto de estudio. Muestra de ello pueden ser
las siguientes situaciones:

1. Las especificaciones del fabricante indican que la vida media de una baterı́a es
de 4 años. Una organización de consumidores mantiene que la vida media de la
baterı́a es sensiblemente menor, y para comprobarlo experimentalmente, realizará
un seguimiento sobre 40 usuarios de este tipo de baterı́as.

2. El Ministerio de Cultura de un paı́s sostiene que el 60 % de los votantes apoyarı́a un


incremento en el presupuesto de este ministerio, pero el gobierno no está dispuesto a
modificar dicho presupuesto salvo que esa afirmación pueda ser corroborada cientı́fi-
camente. Con tal objetivo, el ministerio de cultura opta por hacer una encuesta a
2000 personas.

3. Un centro de investigación afirma que dispone de una vacuna contra la malaria más
eficiente que la desarrollada por el Dr. Patarroyo. Esta vacuna fue probada sobre
38 voluntarios del Cuerpo de Paz que fueron a un paı́s tropical en el que estaban
especialmente expuestos a la enfermedad. A la mitad se les inoculó la vacuna del
Dr. Patarroyo y a la otra mitad la nueva vacuna. De los que recibieron la nueva
vacuna 15 se libraron de contraer la malaria, mientras que de los que recibieron la
vacuna del Dr. Patarroyo, solamente 11.

Podemos observar que en todos los casos, hay una afirmación sobre los parámetros
poblacionales y se toma una muestra para, con los resultados obtenidos para la misma,
avalar o rechazar dicha afirmación.
En esencia éste es el planteamiento general de lo que en Inferencia Estadı́stica se
conoce como pruebas o contrastes de hipótesis.

153
154 TEMA I 2. CONTRASTES DE HIPÓTESIS PARAMÉTRICOS

Se formula un hipótesis sobre la población

Se experimenta (la propia hipótesis nos sugiere cómo realizar el muestreo)

Se decide si los resultados obtenidos para la muestra apoyan estadı́sticamente la


hipótesis de partida.

Dado que nos movemos en condiciones de incertidumbre, esta última decisión se deberá
tomar en términos probabilı́sticos, es decir, si los resultados obtenidos para la muestra
tienen una alta probabilidad cuando la suposición de partida es cierta, entonces no te-
nemos evidencia en contra de dicha suposición (aceptamos la hipótesis de partida). Pero
si los resultados obtenidos para la muestra son poco probables cuando suponemos que la
hipótesis de partida es cierta, entonces, esto nos lleva a rechazar dicha hipótesis.
Veamos cómo desarrollar todo esto. En primer lugar vamos a definir una serie de
términos:

Hipótesis nula (H0 ) es la hipótesis que queremos contrastar. Es la hipótesis que el


experimentador asume como correcta.

Hipótesis alternativa (H1 ) es la negación de la hipótesis nula (es lo que aceptamos


cuando rechazamos la hipótesis nula)

Estadı́stico de contraste (o medida de discrepancia) es cualquier función de los da-


tos muestrales y del parámetro especificado por la hipótesis nula, con distribución
conocida cuando H0 es cierta.

Esta metodologı́a, en la que la toma de decisiones está basada en los resultados obte-
nidos con una muestra, puede conducir a dos tipos de errores:
Decisión
Aceptar H0 Rechazar H0
H0 verdadera Correcto (1 − α) Error de tipo I (α)
Realidad H0 falsa Error de tipo II (β) Correcto (1 − β )
A la probabilidad de rechazar la hipótesis nula cuando es falsa (1 − β) se le llama
potencia del contraste (es la probabilidad de no cometer un error de tipo II).
A la probabilidad de rechazar la hipótesis nula cuando es verdadera (α) se le llama
nivel de significación.
Para construir y resolver un contraste de hipótesis, se siguen los pasos siguientes:

1. Enunciar la hipótesis nula (H0 ) y la hipótesis alternativa (H1 ).


Ambas hipótesis deben ser excluyentes. La hipótesis nula es la que se considera
como cierta. La hipótesis alternativa es la que aceptaremos solo si la muestra nos
proporciona ((suficiente evidencia en contra)) de la hipótesis nula.
Dependiendo de la formulación de la hipótesis alternativa, el contraste puede ser
unilateral o bilateral.
2.2. CONTRASTE DE HIPÓTESIS PARA LA MEDIA 155
82
2. Determinar el nivel de significación.
Recordemos Esta zona
que es elde
el nivel conjunto de valores
significación posibles
(α) es el niveldel
deestadístico que Ison
error de tipo quetan extremos que
estamos
dispuestos laa probabilidad
aceptar. Losde que ocurran,
valores cuando Hson:
más habituales 0 es cierta, es muy
0.01, 0.05 pequeña (menor que α).
y 0.1.
En muchasEnocasiones
el caso deselahabla
N(0,1)de nivel de confianza: 1-α (y se expresa en %).

3. Determinar el estadı́stico apropiado para la prueba y la zona de rechazo


(llamada también región crı́tica).
Estos estadı́sticos vienen dados por la distribución muestral del estadı́stico objeto
de estudio.
Una vez que conocemos esa distribución, suponiendo que H0 es cierta, tenemos que
determinar la zona de rechazo de la hipótesis nula.
Esta zona es el conjunto de valores posibles del estadı́stico que son tan extremos
que la probabilidad de que ocurran, cuando H0 es cierta, es muy pequeña (menor
que α). (De forma análoga se obtiene con otras distribuciones)
La región que no es que
La región zonanodeesrechazo
zona de se llama:seregión
rechazo llama:de aceptación.
región de aceptación.
4. Calcular (los programas estadísticos sólo suelen hacer contrastes bilaterales)
el estadı́stico.
Con los4)datos
Calcular el estadístico.
observados de la muestra y suponiendo que la hipótesis nula, H0 , es
cierta, calculamos el estadı́stico
Con los datos (v.o.)
observados y la
de la probabilidad
muestra de encontrar
y suponiendo un valor nula,
que la hipótesis más H0, es
alejado delcierta,
parámetro que el que hemos calculado (p-valor).
calculamos el estadístico y la probabilidad de encontrar un valor más alejado
de la media que el que hemos calculado (p-valor).
5. Tomar la decisión e interpretarla.
5) Tomar la decisión e interpretarla
Aceptaremos H0 si el p-valor es mayor que el nivel de significación (α).
Aceptaremos H0 si el p-valor es mayor que el nivel de significación.
Que el p-valor
Si el sea mayor
p-valor que elque
es mayor nivel de significación,
el nivel es equivalente
de significación a que elavalor
esto es equivalente decir que el
del estadı́stico que hemos calculado (v.o.) esté en la región de aceptación de
valor del estadístico que hemos calculado está en la región de aceptación de H 0 . EnH0.
muchas ocasiones esto es mucho más fácil de comprobar.
¡Ojo!, no es suficiente con decir: “se acepta H0”, hay que explicar lo que significa
¡Ojo!, no es suficiente
aceptar con decir
o rechazar ((se acepta
la hipótesis H0 )),
nula para el hay
nivelque explicar lo que
de significación significa
considerado.
aceptar o rechazar la hipótesis nula para el nivel de significación considerado.

2.2. Contraste de hipótesis


Contraste de hipótesis para la media
para la media.
Queremos contrastar que la media poblacional toma el valor: μ0.
QueremosPara
contrastar que launa
ello, tomamos media poblacional
muestra, toma el
y planteamos el valor µ0 . contraste (bilateral):
siguiente
Para ello, tomamos una muestra, y planteamos el siguiente contraste (bilateral):
H 0 : μ = μ0 α/2
H1 : μ ≠ μ0
n. significación : α

Si los resultados muestrales


Si los resultados no nos proporcionan
muestrales evidencia
no nos proporcionan en contra
evidencia en de la hipótesis
contra de la hipótesis
nula, aceptaremos H0 , y en caso
nula, aceptaremos H0,contrario
y en caso la rechazaremos.
contrario la rechazaremos.
¿Cómo comprobamos esta evidencia?
156 TEMA I 2. CONTRASTES DE HIPÓTESIS PARAMÉTRICOS

¿Cómo comprobamos esta evidencia?


T6: Introducción a la Inferencia Estadística. 83
Conocemos la distribución de la media muestral cuando la distribución de la variable
poblacional es Normal:
Conocemos la distribución de la media muestral cuando n es suficientemente grande o
ζ̄ − µ
√ ∼ tn−1 ζ −μ
cuando la distribución des/la variable
n poblacional es Normal: ≈ t n −1 ,
s
n
Con los datos de la muestra (como suponemos que H0 es cierta), calculamos el valor
de prueba o valor observado
entonces, para (v.o.):
nuestraamuestra
T6: Introducción y suponiendo
la Inferencia que H0 es cierta, calculamos:
Estadística. 83
x̄X−−µμ0
t = √ 0 y ysusup-valor:
v.o. =
s/ s n
Conocemos
{T |>>t |v.o.|,
p-valor:p p==PP{|T −1 }
T ≈ t dado
la distribución de la media nmuestral
que T ∼ tn−1 }
cuando n es suficientemente grande o
n ζ −μ
cuando la distribución de la variable poblacional es Normal: ≈ t n −1 ,
Entonces, aceptaremos H0 si p > α
Entonces, aceptaremos H0(no hay(no
si p>α evidencia en contra
hay evidencia de la hipótesis
en contra nula).
de lashipótesis nula).
n
O lo que es lo mismo: aceptamos H0 si el valor de prueba v.o. ∈ (−tn−1,α/2 , tn−1,α/2 )
entonces, para nuestra muestra y suponiendo que H0 es cierta, calculamos:
En algunos casos, lo que nos plantearemos no es un valor concreto del parámetro sino si
En algunos elcasos, loXque nos plantearemos
− μtoma nooesmenor
un valor
que concreto
un valor del dadoparámetro
(Ej.: vida sino
P{Tun>valor t n −1 } (Ej.: vida media de una
parámetro un valor mayor media de una
si el parámetropila
toma t =un valor0 mayor
y su p-valor:
o menorp =que t T ≈dado
mayors que 3 años).
pila mayor que 3 años). n el procedimiento es análogo. Sólo hay que tener cuidado al plantear la
En estos casos
En estos casos elEntonces,
procedimiento
hipótesis nula (es es análogo.
la que
aceptaremos H0 si Solo
p>α hay
consideramos como
(no que
hay tener
cierta
evidencia cuidado
y queremos aldeplantear
contrastar).
en contra la hipótesis nula).
la hipótesis nula (es la que consideramos
Podemos plantear 2 situaciones: como cierta y queremos contrastar).
Podemos plantear En dos situaciones:
algunos casos, lo que nos plantearemos no es un valor concreto del parámetro sino si
el parámetro toma un valor mayor o menor que un valor dado (Ej.: vida media de una
H 0 : μ ≤ μ0
pila mayor que 3 años). α
H1 : μ > μ0
En estos casos el procedimiento es análogo. Sólo hay que tener cuidado al plantear la
n. significac
hipótesisión : α(es la que consideramos como cierta y queremos contrastar).
nula
− μ 0 2 situaciones:
y su p-valor: p = P{T > t T ≈ t n −1 } . Aceptaremos H0 si p>α.
PodemosXplantear
Entonces: entonces t =
s
n
x̄ − µ0
v.o. = O √bien: H 0 : μ ≤ μ 0
s/ n α
H1 : μ > μ0
p-valor: p = P n{T ión : αque Tα ∼ tn−1 }
> v.o., dado
. significac
H :μ ≥ μ
Aceptaremos H00 si p > 0α X − μ
H 1 : μ < μt0 =
entonces 0
y su p-valor: p = P{T > t T ≈ t n −1 } . Aceptaremos H0 si p>α.
Aceptaremos H si v.o. ∈ s
(−∞, t )
n. significación : α n
0 n−1,α

O bien: X − μ 0
O bien: entonces t = y su p-valor: p = P{T < t T ≈ t n −1 } . Aceptaremos H0 si p>α.
s
n α
H 0 : μ ≥ μ0
Como los ordenadores sólo hacen contrastes bilaterales, si usamos el p-valor para
1 : μ < μuna
aceptar oHrechazar 0 hipótesis de un contraste unilateral, debemos establecer que:
Si el nsigno
. significac
de t esión α
el :contrario al de la zona de rechazo: Se acepta H , ya que hay una
0
gran evidencia a su favor (estamos en la cola contraria).
X − μ0
entonces t =
Entonces: Si t tiene y su p-valor: p = P{T < t T ≈ t n −1 } . Aceptaremos H0 si p>α.
el signo des la zona de rechazo: Se acepta H0 si p/2 > α.
n
Como los ordenadores sólo hacen contrastes bilaterales, si usamos el p-valor para
aceptar o rechazar una hipótesis de un contraste unilateral, debemos establecer que:
Si el signo de t es el contrario al de la zona de rechazo: Se acepta H0 , ya que hay una
2.2. CONTRASTE DE HIPÓTESIS PARA LA MEDIA 157

x̄ − µ0
v.o. = √
s/ n
p-valor: p = P {T < v.o., dado que T ∼ tn−1 }
Aceptaremos H0 si p > α
Aceptaremos H0 si v.o. ∈ (−tn−1,α , ∞)

NOTA: en muchas ocasiones los programas de tratamiento estadı́stico solo hacen con-
trastes bilaterales, en estos casos, si usamos el p-valor para aceptar o rechazar una hipótesis
de un contraste unilateral, consideraremos que:

Si el signo de v.o. es el contrario al de la zona de rechazo: Se acepta H0 , ya que hay


una gran evidencia a su favor (estamos en la cola contraria).
Si v.o. tiene el signo de la zona de rechazo: Se acepta H0 si p/2 > α

Ejemplo. Una muestra aleatoria de la duración de las baterı́as de 10 ordenadores de


una determinada marca, tiene una media de 440 minutos con una cuasidesviación tı́pica
de 60 minutos, ¿está esto de acuerdo con la afirmación del fabricante de que la duración
de las baterı́as de sus ordenadores es de 4 horas (480 minutos), con un nivel de confianza
del 90 %?

H0 : µ = 480

Queremos resolver el contraste: H1 : µ 6= 480
α = 0.1
Tenemos una muestra de tamaño n = 10 para la cual x̄ = 440 y s = 60
La varianza poblacional es desconocida, ası́ que si la duración de las baterı́as sigue
una distribución Normal:
ζ̄ − µ ζ̄ − µ
√ ∼ tn−1 , en nuestro caso: √ ∼ t9
s/ n s/ n

El valor observado (valor del estadı́stico para nuestra muestra) es:


x̄ − µ0 440 − 480
v.o. = √ = √ = −2.1082
s/ 10 60/ 10
Si resolvemos por el p-valor:
p = P {|T | > v.o., dado que T ∼ t9 } = 2 ∗ p = P {T > 2.1082, dado que T ∼ t9 } <
2 ∗ 0.05 = 0.1
Con las tablas no podemos obtener el p-valor exacto, pero sabemos que es menor que
0.1 y por lo tanto es menor que α = 0.1, Entonces, NO podemos aceptar la afirmación
del fabricante para este nivel de significación.
Si resolvemos por la región de aceptación:
Construimos la región de aceptación y comprobamos dónde queda el valor observado:
158 TEMA I 2. CONTRASTES DE HIPÓTESIS PARAMÉTRICOS

La región de aceptación es:


RA = (−1.8331, 1.8331)
El v.o.=-2.1082, queda en la región de
rechazo, por lo tanto, NO podemos acep-
tar la afirmación del fabricante de que las
baterı́as de sus ordenadores duran 4 horas,
con un nivel de significación (probabilidad
de equivocarnos) de 0.1.

Recordemos que nuestra conclusión sólo es válida si podemos aceptar que la variable
analizada (duración de las baterı́as de los portátiles de esta marca) sigue una distribución
Normal.

Un estudio análogo al realizado con la media muestral se puede realizar para la varianza
y para la proporción poblacional.

2.3. Contraste de hipótesis para la varianza

Queremos contrastar que la varianza poblacional toma el valor: σ02 .


Para ello, tomamos una muestra, y planteamos el siguiente contraste (bilateral):

𝐻0 : 𝜎 2 = 𝜎02
� 𝐻1 : 𝜎 2 ≠ 𝜎02
𝑛. 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛: 𝛼

Si los resultados muestrales no nos proporcionan evidencia en contra de la hipótesis


nula, aceptaremos H0 , y en caso contrario la rechazaremos.
¿Cómo comprobamos esta evidencia?
Sabemos que si la variable sigue una distribución Normal, se verifica que:

(n − 1)S 2
∼ χ2n−1
σ2

La distribución χ2 no es simétrica, por lo que en este caso no usaremos el p-valor para


resolver el contraste, ya que es mucho más sencillo comprobar si el valor observado está
en la región de aceptación.
Entonces, para nuestra muestra y suponiendo que H0 es cierta, calculamos:
2.4. CONTRASTE DE HIPÓTESIS PARA UNA PROPORCIÓN 159

(n − 1)s2
v.o. =
σ02

Por lo tanto, aceptamos H0 si el valor de prueba v.o. ∈ (χ2n−1,1−α/2 , χ2n−1,α/2 )


Igual que en el caso de la media, también podemos plantear los contrastes unilaterales:

𝐻0 : 𝜎 2 ≤ 𝜎02
� 𝐻1 : 𝜎 2 > 𝜎02
𝑛. 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛: 𝛼

Entonces:

(n − 1)s2
v.o. = , y su p-valor: p = P {X > v.o., donde X ∼ χ2n−1 }
σ02

Aceptaremos H0 si p > α
O lo que es lo mismo: aceptamos H0 si el valor de prueba v.o. ∈ (0, χ2n−1,α )
O bien,

𝐻0 : 𝜎 2 ≥ 𝜎02
� 𝐻1 : 𝜎 2 < 𝜎02
𝑛. 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛: 𝛼

Entonces:

(n − 1)s2
v.o. = 2
, y su p-valor: p = P {X < v.o., donde X ∼ χ2n−1 }
σ0

Aceptaremos H0 si p > α
O lo que es lo mismo: aceptamos H0 si el valor de prueba v.o. ∈ (χ2n−1,1−α , ∞)

2.4. Contraste de hipótesis para una proporción

Queremos contrastar que la proporción poblacional toma el valor: p0 .


Para ello, tomamos una muestra, y planteamos el siguiente contraste (bilateral):
Contraste de hipótesis para una proporción.
Queremos contrastar que la proporción poblacional toma el valor: p0.
160 TEMA Iuna
Para ello, tomamos 2. muestra,
CONTRASTES DE HIP
y planteamos ÓTESIScontraste
el siguiente PARAM(bilateral):
ÉTRICOS

H 0 : p = p0 α/2
H 1 : p ≠ p0
n. significación : α

Si los resultados muestrales no nos proporcionan evidencia en contra de la hipótesis


nula, aceptaremos H0 , y en caso contrario la rechazaremos.
Si los resultados
¿Cómo comprobamos estamuestrales
evidencia?no nos proporcionan evidencia en contra de la hipótesis
nula, aceptaremos H0, y en caso contrario la rechazaremos.
Conocemos la distribución de la proporción muestral cuando n es suficientemente
¿Cómo comprobamos esta evidencia?
grande:
T6: Introducción a la Inferencia Estadística. 87

p̂ − p
Conocemos la distribución
q de∼laN (0, 1)
proporción muestral cuando n es suficientemente
p(1−p)
ˆp − p
grande: ≈ N (0,1n) ,
p (1 − p )
Entonces, para nuestra muestra
n y suponiendo que H0 es cierta, calculamos:
entonces, para nuestra muestra y suponiendo que H0 es cierta, calculamos:
p̂ − p0
v.o. = q p m − ,py0 su p-valor: p = P {|Z| > |v.o.|, donde Z ∼ N (0, 1)}
t = p0 (1−p0 ) y su p-valor: p = P{Z > t Z ≈ N (0,1)}; (pm es la proporción
pn0 (1 − p 0 )
n
(p̂ es la proporción
muestral)muestral)
Entonces, aceptaremos H0 si p > H
Entonces, aceptaremos α0(no hay(no
si p>α evidencia en contra
hay evidencia de la de
en contra hipótesis nula).
la hipótesis nula).
O lo que es lo mismo, aceptaremos H0 si el valor de prueba v.o. ∈ (−zα/2 , zα/2 )
En algunos casos, lo que nos plantearemos no es un valor concreto del parámetro sino si
En algunos casos, lo que nos plantearemos no es un valor concreto del parámetro sino
el parámetro toma un valor mayor o menor que un valor dado (Ej.: proporción de
si el parámetro toma un valor mayor o menor que un valor dado (Ej.: proporción de
votantes menor que el 60%).
votantes menor que el 60 %).
En estos casos el procedimiento es análogo. Sólo hay que tener cuidado al plantear la
En estos casos el procedimiento
hipótesis es consideramos
nula (es la que análogo. Solocomo
hay que tener
cierta cuidadocontrastar).
y queremos al plantear la
hipótesis nula (es la que consideramos como cierta y queremos contrastar).
Podemos plantear 2 situaciones:
Podemos plantear dos situaciones:

H 0 : p ≤ p0
α
H 1 : p > p0
n. significación : α

pm − p0
entonces t = y su p-valor: p = P{Z > t Z ≈ N (0,1)} .
Entonces: p 0 (1 − p 0 )
p̂ − p0 n
v.o. = q , y su p-valor: p = P {Z > v.o., donde Z ∼ N (0, 1)}
p0 (1−p 0)
Aceptaremos H0 si p>α.
n

Aceptaremos H0 si p > α
O bien:

α
H 0 : p ≥ p0
H 1 : p < p0
pm − p0
entonces t = y su p-valor: p = P{Z > t Z ≈ N (0,1)} .
p 0 (1 − p 0 )
n
2.5. OTROS CONTRASTES PARAMÉTRICOS 161
Aceptaremos H0 si p>α.
Es decir, aceptaremos H0 si el valor de prueba v.o. ∈ (−∞, zα )
O bien, O bien:

α
H 0 : p ≥ p0
H 1 : p < p0
n. significación : α

pm − p0
Entonces: entonces t = y su p-valor: p = P{Z < t Z ≈ N (0,1)} .
p 0 (1 − p 0 )
p̂ − p0
v.o. = q , y su p-valor: p =n P {Z < v.o., donde Z ∼ N (0, 1)}
p0 (1−p0 )
n
Aceptaremos H0 si p>α.
Aceptaremos H0 si p > α
O lo que es lo mismo, aceptaremos H0 si el valor de prueba v.o. ∈ (−zα , ∞)

2.5. Otros contrastes paramétricos

2.5.1. Contraste de igualdad (o diferencia) de medias

Los contrastes anteriores se referı́an al valor del parámetro poblacional, es decir, se


contrasta si se puede aceptar o no que el parámetro poblacional toma un determinado
valor, pero en muchas ocasiones lo que nos interesa es contrastar si dos muestras provienen
de poblaciones en las que la variable tiene la misma media (contrastaremos la igualdad
de medias).
En este caso vamos a proceder igual que en los casos anteriores, aunque no justifica-
remos los estadı́sticos de contraste.
Estos estadı́sticos los veremos solamente a tı́tulo informativo ya que los
problemas correspondientes los resolveremos con el ordenador.
Queremos contrastar si dos poblaciones tienen, para la variable objeto de estudio, la
misma media. O dicho de otra forma, si existen diferencias, estadı́sticamente significativas
entre dos medias muestrales.
Para ello, tomaremos dos muestras (una de cada población), que no tienen por qué
ser del mismo tamaño: ζ1 , ..., ζn y ξ1 , ..., ξm . Estas muestras deben ser aleatorias.
Distinguiremos las siguientes situaciones:

Si las muestras son pareadas.


En este caso las muestras sı́ que tienen que ser del mismo tamaño. Este serı́a el caso
de dos caracterı́sticas estudiadas para el mismo individuo (por ejemplo, tensión antes
y después de un tratamiento). En la práctica lo que se hace, en lugar de contrastar
162 TEMA I 2. CONTRASTES DE HIPÓTESIS PARAMÉTRICOS

si las medias son iguales, es contrastar si la variable diferencia de estas dos variables
tiene media cero. Por lo tanto este caso se reduce a un contraste de una media (con
todas sus condiciones de validez).
Si las muestras son independientes la una de la otra.
Este caso corresponde a la comparación de las medias de una misma variable para
dos grupos independientes de casos (estudiar si se puede aceptar que existen dife-
rencias estadı́sticamente significativas entre los salarios medios de dos categorı́as de
empleados -o entre los tiempos medios de fabricación de una pieza en el turno de
mañana y en el de tarde -).

El procedimiento para realizar los contrastes de igualdad de medias es el mismo que


en los dos casos anteriores. Las distribuciones utilizadas para establecer el estadı́stico de
contraste dependen de las caracterı́sticas de las variables observadas:

Poblaciones con distribución Normal para la variable o poblaciones cualesquiera


cuando tenemos muestras grandes y las varianzas poblacionales son conocidas:
ζ¯1 − ζ¯2 − (µ1 − µ2 )
q ∼ N (0, 1)
σ12 σ22
n
+m

Poblaciones con distribución Normal para la variable y las varianzas poblacionales


son desconocidas pero podemos aceptar que son iguales:
ζ¯1 − ζ¯2 − (µ1 − µ2 )
q ∼ tn+m−2
1 1
Sp n + m
s
(n − 1)s21 + (m − 1)s22
donde: Sp = , (s21 y s22 son las cuasivarianzas muestrales).
n+m−2

2.5.2. Contraste de igualdad (o diferencia) de proporciones

En el caso del contraste para la diferencia de proporciones, seguiremos el mismo pro-


cedimiento que en los casos anteriores.
El estadı́stico de contraste que utilizaremos se basa en el siguiente resultado:
Si tenemos muestras grandes se cumple que:

p̂ − p̂2 − (p1 − p2 )
q1 ∼ N (0, 1)
p1 (1−p1 ) p2 (1−p2 )
n
+ m

Como las proporciones poblacionales p1 y p2 son desconocidas, para calcular el es-


tadı́stico de contraste se suelen utilizar, en el denominador, las proporciones muestrales,
p̂1 y p̂2 .
2.5. OTROS CONTRASTES PARAMÉTRICOS 163

En muchas ocasiones, como la hipótesis nula supone que las proporciones poblacionales
son iguales (H0 : p1 = p2 = p), se utiliza una única estimación de la proporción poblacional
común:
np̂1 + mp̂2
p̂ =
n+m

En este caso el estadı́stico de contraste será:

p̂1 − p̂2 np̂1 + mp̂2


z=q  donde p̂ =
p̂(1 − p̂) n1 + 1 n+m
m
164 TEMA I 2. CONTRASTES DE HIPÓTESIS PARAMÉTRICOS

Resumen de Intervalos y Contrastes

Intervalo de confianza y contraste de hipótesis para la media:


Condiciones en la Distribución Intervalo de confianza Contraste Estadı́stico
población  
ζ̄−µ x̄−µ
Si Varianza conocida √
σ/ n
∼ N (0, 1) x̄ − zα/2 √σn , x̄ + zα/2 √σn H0 : µ = µ0 z= √0
σ/ n
y
* distribución Normal
H1 : µ 6= µ0
o bien
* muestra grande

ζ̄−µ x̄−µ
Si varianza descono- √
s/ n
∼ tn−1 x̄ − tn−1,α/2 √sn , H0 : µ = µ0 t= √0
s/ n
cida pero Distribución
Normal
 H1 : µ 6= µ0
x̄ + tn−1,α/2 √sn

Intervalo de confianza y contraste de hipótesis para la varianza:


Condiciones en Distribución Intervalo de confianza Contraste Estadı́stico
la población
(n − 1)s2 (n − 1)s2
 
(n−1)S 2 (n−1)S 2
Distribución σ2
∼ χ2n−1 , H0 : σ 2 = σ02 x= σ02
χ2n−1,α/2 χ2n−1,1−α/2
Normal H1 : σ 2 6= σ02

Intervalo de confianza y contraste de hipótesis para la proporción:


Condiciones Distribución Intervalo
 de confianza Contraste Estadı́stico
q
Muestra grande q p̂−p
p(1−p)
∼ N (0, 1) p̂ − zα/2 p̂(1−p̂)
n , H0 : p = p0 z= q p̂−p0
p0 (1−p0 )
(np̂ ≥ 5 y n q  H1 : p 6= p0 n

n(1 − p̂) ≥ 5) p̂ + zα/2 p̂(1−p̂)


n
Tema I 3

Contrastes de hipótesis no
paramétricos

Al estimar los parámetros de un modelo se supone que los datos que manejamos constituyen
una muestra aleatoria simple de una distribución que, en la mayorı́a de las ocasiones, salvo
por sus parámetros es conocida.

En este tema vamos a intentar responder a 2 cuestiones:

Comprobar si se cumplen las hipótesis básicas:

• Si la muestra es una muestra aleatoria


• Si los datos provienen de una variable con una distribución concreta

¿Qué hacemos si no se cumplen las hipótesis básicas?

3.1. Contraste de aleatoriedad: Test de rachas.


A veces, al realizar un muestreo, el orden (espacial o temporal) en el que se tomen los
elementos de la muestra, puede influir en el resultado. Si las observaciones de la muestra son
dependientes, los intervalos de confianza y contrastes de hipótesis que realicemos ya no tendrán
el nivel de confianza o significación que hemos supuesto.

Esto significa que necesitamos garantizar que nuestra muestra es una muestra aleatoria.

Para ello utilizaremos el Test de rachas, cuyo procedimiento es el siguiente:

Supongamos una muestra de tamaño n, y vamos a contrastar:



H0 : la muestra es una m.a.s.

H1 : la muestra NO es una m.a.s.

Entonces:

Fijamos un punto de corte para dividir en dos partes las observaciones de la muestra,
generalmente se toma la mediana.

165
166 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

Clasificamos los valores de la muestra en: menores o iguales que la mediana ,(-), o mayores
que la mediana, (+). Y se colocan los sı́mbolos por orden de aparición de los valores de
la muestra.

Llamamos racha a una sucesión de valores del mismo tipo (-) o (+), por ejemplo: − −
− + + − − − ++ son 4 rachas.
El número total de rachas es un indicador de si hay o no aleatoriedad en la muestra. Un
número excesivamente grande (el máximo es n) o excesivamente pequeño (el mı́nimo es
2) de rachas indica que la muestra no es aleatoria.
Si llamamos n1 y n2 al número de observaciones de cada tipo (n1 + n2 = n), en función
de estos valores, se espera que el número de rachas no sea ni muy grande ni muy pequeño.
Entonces:

Llamamos R a la variable aleatoria que mide el número de rachas. Y tendremos que la


región de aceptación es:
R.A. = (r1−α/2 , rα/2 )

(es decir, que aceptamos que la muestra es una muestra aleatoria siempre que el número
de rachas de la misma se encuentre dentro de la región de aceptación.

• Estos puntos crı́ticos están tabulados1 para n1 ≤ 20 y n2 ≤ 20 y para α = 0.05 y


α = 0.01
• Si n1 > 20 o n2 > 20 la distribución de R se aproxima a una Normal N (µ, σ), con:

2n1 n2 2n1 n2 (2n1 n2 − n1 − n2 )


µ= +1 y σ2 =
n1 + n2 (n1 + n2 )2 (n1 + n2 − 1)

Ejemplo. Queremos contrastar si los valores que se dan a continuación constituyen una
muestra aleatoria, con un nivel de significación del 5 %.

18.3 17.7 19.3 17.5 15.4 16.0 19.4 19.9 16.9 16.0 18.3 19.9

Para aplicar el test de rachas, lo primero que hacemos es calcular la mediana de estos datos
(valor central de los datos ordenados de menor a mayor)

En este caso Me=18

Determinamos los signos correspondientes: + − + − − − + + − − ++

Por lo tanto hay: 7 rachas (R=7)

n1 =número de signos (+)=6 y n2 =número de signos (−)=6

Determinamos, con las tablas, la región de aceptación:

Para n1 = n2 = 6 y α = 0.05: RA = (3, 10)

Entonces, como R = 7 ∈ (3, 10) = RA, podemos aceptar que los datos constituyen una
muestra aleatoria, con un nivel del significación del 5 %.

1
Ver tabla al final del tema.
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 167

3.2. Contrastes de la bondad de ajuste


¿Cómo sabemos si la hipótesis sobre distribución de la variable es cierta o no?

En algunas ocasiones, por ejemplo en estimaciones de la media o de la varianza, necesitamos,


para poder aplicar nuestro estadı́stico, que la variable siga una distribución Normal.

La forma de comprobar que los datos provienen de una distribución concreta es efectuar un
contraste de bondad de ajuste.

3.2.1. Test de Shapiro-Wilk

Este es un contraste especı́fico para verificar si una muestra proviene de una variable con
distribución Normal, sin tener que realizar ninguna especificación sobre sus parámetros. Es
muy útil para muestras pequeñas (n ≤ 50)

El procedimiento es el siguiente:

Ordenamos las observaciones de la m.a.s. (x1 , . . . , xn ) de menor a mayor: x(1) < . . . < x(n)
Obtenemos los valores de los estadı́sticos muestrales: x̄ y s2
Para unos coeficientes, que ya están tabulados2 y calculados, ai , calculamos:
k
k = n2 , si n par
X 
a= ai (x(n−i+1) − x(i) ) donde:
k = n−1
2 , si n impar
i=1

Obtenemos el valor del estadı́stico W de Shapiro-Wilk como:


a2
W =
(n − 1)s2
cuyos valores crı́ticos están tabulados3 .
La región de aceptación es: R.A. = (Wn,α , ∞)

En general, se rechaza la hipótesis nula (Normalidad) si W es demasiado pequeño (porque


en ese caso el p-valor es muy pequeño).

Martin Bradbury Wilk (18 diciembre 1922 hasta 19 febrero


2013).
A lo largo de su carrera,demostró que un estadı́stico puede
abarcar éxito académico, la industria y el gobierno.
Aunque su nombre es más conocido dentro de la profesión
4
por la prueba de Shapiro-Wilk para la normalidad, su in-
fluencia sobre los métodos y prácticas estadı́sticos ha sido
mucho más amplio.
Fue, entre otros, el Vicepresidente Adjunto y Director de
Planificación Corporativa de AT & T y el Jefe de Estadı́stica
de Canadá.
2
Tabla al final del tema
3
Tabla al final del tema
4
Información extraida de http://bulletin.imstat.org/2013/05/obituary-martin-b-wilk-1922-2013/
168 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

Ejemplo. Queremos contrastar si los valores de la muestra que se da a continuación, pro-


vienen de una variable con distribución Normal, asumiendo una posibilidad de error del 5 %.

13.2 12.4 14.6 13.0 12.3 14.7 13.2 15.7 15.4 17.1

Para hacer el contraste de Normalidad con α = 0.05, hacemos lo siguiente:

1. Ordenamos los valores de menor a mayor:


12.3 12.4 13.0 13.2 13.2 14.6 14.7 15.4 15.7 17.1

2. Obtenemos la media y la cuasivarianza de los datos:

x̄ = 14.16 y s2 = 2.531556

3. k=número de datos es par (5 diferencias y 5 coeficientes), por lo tanto, calculamos a con


los coeficientes tabulados:
a = ki=1 ai (x(n−i+1) −x(i) ) = 0.5739(17.1−12.3)+0.3291(15.7−12.4)+0.2141(15.4−13)+
P

+0.1224(14.7 − 13.2) + 0.0399(14.6 − 13.2) = 4.59405

4. Obtenemos el valor del estadı́stico W de Shapiro-Wilk como:

a2 4.594052
W = = = 0.9263207
(n − 1)s2 9 ∗ 2.531556

5. La región de aceptación es (valor crı́tico en las tablas):


R.A. = (Wn,α , ∞) = (W10,0.05 , ∞) = (0.842, ∞)

Por lo tanto, como W ∈ RA = (0.842, ∞), podemos aceptar que la muestra procede de una
variable con distribución Normal, con un margen de error del 5 %.

3.2.2. Contraste de Kolmogorov-Smirnov

Este contraste se utiliza sólo para contrastar si los valores observados proceden de una
variable aleatoria que tiene una determinada distribución continua.

(es decir para distribuciones continuas: Normal, t de Student, Ji cuadrado, Uniforme,. . . )



H0 : las observaciones provienen de una variable con una determinada distribución

H1 : las observaciones NO provienen de una variable con una determinada distribución

Dada una muestra de tamaño n, para resolver este contraste se compara la frecuencia relativa
acumulada (probabilidad) de la distribución teórica de una variable continua con la emprı́rica
(observada en la muestra), mediante el estadı́stico de Kolomogorov-Smirnov:

D = sup |Fn (x) − F (x)|


x

Si la hipótesis nula es cierta, las diferencias no serán muy grandes, por lo tanto:

Se rechaza H0 para valores grandes del estadı́stico.

El procedimiento es el siguiente:
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 169

1. Se ordena la muestra: x(1) < x(2) < . . . < x(k)

2. Se obtienen, para cada i = 1, . . . , k dos valores:

Fn (x(i) ), que es la frecuencia relativa acumulada observada de x(i)


F (x(i) ), que es la frecuencia relativa acumulada teórica de x(i)

3. Para cada i = 1, . . . , k, se calculan dos valores:

d1i =| F (x(i) ) − Fn (x(i) ) |


d2i =| F (x(i) ) − Fn (x(i−1) ) |

4. Se obtiene el valor del estadı́stico de Kolmogorov-Smirnov para la muestra:

D = máx{d1i , d2i }
i

5. La región de aceptación es: R.A. = (0, K), y los valores crı́ticos (K) están tabulados 5

Cuando los datos de la variable están agrupados en intervalos no es necesario calcular d1 y


d2 ; bastarı́a con obtener D directamente como:

di =| F (intervalo(i) ) − Fn (intervalo(i) ) |

D = máx{di }
i

Cuando se estiman los parámetros para calcular F (x), la tabulación clásica de este test
conduce a un contraste muy conservador: se tiende a aceptar H0 .

Para mejorar el contraste, Lilliefors tabuló este estadı́stico cuando estimamos los parámetros
µ y σ 2 de una Normal usando sus valores muestrales x̄ y s2 (*)6

Se rechaza la Normalidad, para valores grandes del estadı́stico D.

Hubert Lilliefors Whitman (1928 - 23 de febrero de 2008,


Bethesda, Maryland)).
Fue un estadı́stico estadounidense, conocido por su intro-
ducción de la prueba de Lilliefors.
Fue profesor de estadı́stica en la Universidad George Wa-
7
shington durante 39 años. En 1964 recibió el grado de Doc-
tor en Filosofı́a en la Universidad George Washington, bajo
la dirección de Solomon Kullback.
Es uno de los pioneros de la tecnologı́a informática en los
cálculos estadı́sticos. A finales de 1960, utilizó una compu-
tadora para calcular la distribución de Lilliefors.

Ejemplo. ¿Se puede aceptar, con un nivel de significación del 5 %, que los siguientes datos
(aleatorios) proceden de una variable que tiene, en la población, una distribución Normal?

13.2 12.4 14.6 13.0 12.3 14.7 13.2 15.7 15.4 17.1
5
Tabla al final del tema
6
Tabla al final del tema
7
Información extraida de http://es.wikipedia.org/wiki/Hubert Lilliefors ; foto: imágenes de Google
170 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

A continuación se muestran los cálculos necesarios para resolver el contraste:

Contraste K-S  (normal) media= 14,16 S= 1,59109

observada acumulada teórica


Xi ni xi*ni xi^2 *ni f(xi) Fn(xi) F(xi) d1=F(xi)-Fn(xi) d2=F(xi)-Fn(xi-1)
12,3 1 12,3 151,29 0,1 0,1 0,121 0,021 0,121
12,4 1 12,4 153,76 0,1 0,2 0,1335 0,0665 0,0335
13 1 13 169 0,1 0,3 0,2327 0,0673 0,0327
13,2 2 26,4 348,48 0,2 0,5 0,2743 0,2257 0,0257
14,6 1 14,6 213,16 0,1 0,6 0,6103 0,0103 0,1103
14,7 1 14,7 216,09 0,1 0,7 0,6331 0,0669 0,0331
15,4 1 15,4 237,16 0,1 0,8 0,7823 0,0177 0,0823
15,7 1 15,7 246,49 0,1 0,9 0,834 0,066 0,034
17,1 1 17,1 292,41 0,1 1 0,9678 0,0322 0,0678
                 
10 141,6 2027,84

1. Ordenamos los datos, y calculamos los parámetros necesarios. En nuestro caso, la media
y la cuasidesviación tı́pica.
x̄ = 14.16 y s = 1.59109

2. Para cada valor obtenemos su frecuencia relativa acumulada observada (Fn (xi )) y la fre-
cuencia relativa acumulada teórica.
F (xi ) = P {ζ < xi }, para la distribución que estemos contrastando.
Por ejemplo, en este caso, como estamos contrastando que los valores vienen de una
Normal:
12.3 − 14.16
F1 = P {ζ < 12.3} = P {Z < } = P {Z < −1.17} = 0.121
1.59109
3. Luego calculamos las diferencias entre las frecuencias acumuladas. La d1 , para los valores
de la misma fila, y la d2 , en cada caso, es la diferencia, entre la teórica y la observada para
el valor anterior.

4. Por último, elegimos la mayor diferencia D = 0.2257 y comprobamos si está o no en la


región de aceptación.

5. El lı́mite de la región de aceptación está tabulado. Como estamos contrastando la norma-


lidad, usamos la tabla con corrección de Lilliefors:
n = 10 y α = 0.05 ⇒ RA = (0, 0.258)
El valor de la mayor diferencia D = 0.2257 ∈ (0, 0.258), por lo tanto, podemos aceptar
que los valores provienen de una variable con distribución Normal, en la población, con
un nivel de significación del 5 %.

Este contraste también se puede utilizar para contrastar si una muestra proviene de una
variable que tiene, en la población, cualquier otra distribución, siempre que sea continua.

Ejemplo. Se quiere contrastar si el número de lı́neas de código de los programas realiza-


dos por los estudiantes del Grado de Ingenierı́a Informática en sus Trabajos de Fin de Grado
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 171

siguen una distribución Uniforme. Para ello se han analizado los programas presentados por los
estudiantes de distintas universidades y se ha obtenido la siguiente información:
lı́neas trabajos
3700-4100 130
4100-4350 137
4350-4600 149
4600-5000 121
Determina si se puede aceptar que el número de lı́neas de código de los Trabajos de Fin de
Grado siguen una distribución Uniforme, con un nivel de significación del 5 %.

En este caso ya tenemos los datos ordenados y agrupados en intervalos. Además nos dan
las frecuencias absolutas, ası́ que completaremos la tabla añadiendo las frecuencias relativas, las
acumuladas y las probabilidades acumuladas:
lı́neas (ni ) fi = nNi Fn (x(i) ) (observada) F (x(i) ) (teórica) di
130
3700-4100 130 530 = 0.24528 0.24528 0.30769 0.06241
4100-4350 137 0.25849 0.50377 0.5 0.05377
4350-4600 140 0.26415 0.76792 0.69231 0.07561
4600-5000 123 0.23208 1 1 0
530
Las F (x(i) ) son las frecuencias teóricas para cada intervalo, es decir, la frecuencia relativa
acumuladas esperadas (probabilidad acumulada) si realmente la variable sigue una distribución
uniforme. En este caso: ζ ∼ U (3700, 5000)

Por ejemplo, en el segundo intervalo:

F (x(2) ) = P {ζ < 4350 , con ζ ∼ U (3700, 5000)} = P {3700 < ζ < 4350, con ζ ∼ U (3700, 5000)} =
4350 − 3700 650
= = = 0.5
5000 − 3700 1300
Los datos están agrupados en intervalos, por lo que sólo es necesario calcular una diferencia.

La mayor diferencia es D = 0.07561 y para determinar la región de aceptación buscamos en


las tablas de Kolmogorov-Smirnov iniciales (sin corrección de Lilliefors):
 
1.358
n > 30 y α = 0.05 ⇒ RA = 0, √ = (0, 0.05899)
530
Como la máxima diferencia D = 0.07651 6∈ (0, 0.05899), NO podemos aceptar que el número
de lı́neas de código de los TFG’s sigan una distribución Uniforme, con un nivel de significación
del 5 %.

3.2.3. Test de la χ2

Los contrastes de la χ2 son los más antiguos.

Este contraste sirve tanto para variables discretas como continuas.

La hipótesis nula H0 , es que los datos provienen de una variable con una determinada
distribución.
172 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

El test contrasta esta hipótesis comparando las frecuencias observadas en la muestra con las
teóricas (es decir las que cabrı́a esperar si realmente los datos provienen de esa distribución)
basándose en el siguiente resultado:
k
X (Oi − Ei )2
∼ χ2gl
Ei
i=1

donde:

Oi son las frecuencias observadas

Ei son las frecuencias esperadas

gl son los grados de libertad y dependen del problema

Para realizar este contraste necesitamos que la muestra tenga tamaño n ≥ 25, entonces,
si queremos contrastar:

H0 : las observaciones provienen de una variable con una determinada distribución

H1 : las observaciones NO provienen de una variable con una determinada distribución

Procedemos como sigue:

1. Agrupamos los n datos en k clases con k ≥ 5 (extremos abiertos), y se obtienen las


frecuencias absolutas ni = Oi , con ni ≥ 5

2. Se calcula la probabilidad pi para cada clase según el modelo y obtenemos la frecuencia


esperada (Ei = npi ), con npi ≥ 5

3. Calculamos la discrepancia entre las frecuencias observadas y las esperadas de la forma:


k
X (ni − npi )2
∼ χ2gl
npi
i=1

Los grados de libertad son gl = k − r − 1, siendo r el número de parámetros a estimar en


el modelo.

4. La región de aceptación es: R.A. = [0, χ2gl,α )


Es decir, que se acepta la hipótesis nula cuando la discrepancia es pequeña.

Ejemplo. Se quiere determinar si el volumen de propinas diarias que dejan los clientes
en cierto establecimiento siguen una ley Normal con un nivel de significación del 10 %. Para
ello se han observado las propinas diarias durante el último año y se ha obtenido la siguiente
distribución:
propinas (en e) número de dı́as (ni = Oi )
0-40 35
40-60 41
60-80 73
80-100 85
100-120 62
120-140 37
140-200 32
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 173

Ya tenemos los datos agrupados en 7 clases, y la frecuencia en cada una de ellas es mayor
que 5, por lo que no hace falta modificar nada.

Para obtener la frecuencia esperada (teórica) en cada intervalo, calculamos la frecuencia


relativa (probabilidad) y multiplicamos por el tamaño de la muestra (Ei = npi )

A continuación se muestran los cálculos hechos para resolver el contraste:

Contraste Ji cuadrado:    (normal)  media=  89,26027  S=  39,04423


(media y varianza estimadas a partir de la muestra)  
    marca  observada     probabilida esperada 

lím inf  lím sup  Xi  ni=Oi  xi*ni  xi^2 *ni  p(xi)  Ei  chi 
0  40  20  35  700  14000  0,1038  37,887  0,22 
40  60  50  41  2050  102500  0,1228  44,822  0,3259 
60  80  70  73  5110  357700  0,1785  65,1525  0,9452 
80  100  90  85  7650  688500  0,2051  74,8615  1,3731 
100  120  110  62  6820  750200  0,175  63,875  0,055 
120  140  130  37  4810  625300  0,118  43,07  0,8555 
140  200  170  32  5440  924800  0,0968  35,332  0,3142 
                 
      365  32580  3463000      4,0889 
   nº  nº      ‐1         
intervalos  parámetro

 GL=  7  2  ‐1=  4    alfa=  0,1 
                 
  RA=(0,  7,779  )   
 
Explicación:

La columna Xi contiene las marcas de clase (puntos medios de los intervalos)


La media y la cuasidesviación tı́pica de los datos se han calculado con ayuda de las
columnas 5 y 6, aunque se podı́an haber calculado con la calculadora.
La columna pi contiene la probabilidad teórica, es decir, la probabilidad de que una Normal
con la misma media y cuasidesviación tı́pica, se encuentre en dicho intervalo.
IMPORTANTE: los intervalos extremos los consideramos abiertos, por lo tanto:

• En el primero:
 
40 − 89.26027
P {ζ < 40} = P Z< = P {Z < −1.26} = P {Z > 1.26} = 0.1038
39.04423
• En el último:  
140 − 89.26027
P {ζ > 140} = P Z> = P {Z > 1.30} = 0.0968
39.04423
• Y en los intermedios:
 
40 − 89.26027 60 − 89.26027
P {40 < ζ < 60} = P <Z< =
39.04423 39.04423

= P {−1.26 < Z < −0.75} = P {0.75 < Z < 1.26} = P {Z > 0.75} − P {Z > 1.26} =

= 0.2266 − 0.1038 = 0.1228


174 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

Se calculan las frecuencias esperadas (teóricas) como: Ei = npi

(Oi − Ei )2
Para cada clase, se calcula el valor:
Ei

El valor de nuestro estadı́stico es la suma de todos ellos, en este caso: χ2 = 4.0889

Determinamos la región de aceptación que es: R.A. = [0, χ2gl,α )


En este caso, hemos tenido que estimar, a partir de la muestra, 2 parámetros de la variable
(la media y la cuasidesviación tı́pica), para poder calcular las probabilidades, por lo tanto,
los grados de libertad a considerar son:
gl = k − r − 1=no clases−no parámetros estimados−1 = 7 − 2 − 1 = 4
Luego, la región de aceptación es: R.A. = [0, χ2gl,α ) = [0, χ24,0.1 ) = [0, 7.779)

El valor del estadı́stico χ2 = 4.0889 ∈ [0, 7.779) = RA por lo tanto, SI se puede aceptar que
el importe diario de las propinas sigue una distribución Normal, con un nivel de confianza
del 90 %.

3.2.4. Comparación entre los test de la χ2 y K-S


El test de Kolmogorov-Smirnov es de más fácil aplicación.

En el test de Kolmogorov-Smirnov no es necesario agrupar y por lo tanto no se ve afectado


por cambios de agrupación, mientras que en el test de la χ2 se pierde información.

El test de Kolmogorov-Smirnov es aplicable a muestras pequeñas, mientras que el de la


χ2 está diseñado para muestras grandes.

El test de la χ2 es aplicable a variables con distribuciones discretas o continuas, mientras


que el de Kolmogorov-Smirnov sólo es aplicable a continuas.

3.3. Contrastes de localización


Cuando no se verifican las condiciones de validez (normalidad) y no podemos utilizar los
contrastes paramétricos para contrastar el valor de la media de la variable en la población,
usaremos en su lugar otros contrastes menos potentes que son los contrastes de localización.

En general, los contrastes de localización tratan de analizar si la muestra procede de una


población con una determinada medida de posición.

La hipótesis nula conjetura que ((determinado percentil toma cierto valor)).

Nos vamos a centrar en el caso del percentil 50, es decir: la mediana.

Tenemos, por tanto, en el siguiente contraste:



H0 : M e = θ

H1 : M e 6= θ

El contraste es análogo con cualquier otro cuantil.


3.3. CONTRASTES DE LOCALIZACIÓN 175

3.3.1. Prueba de los signos

Si aceptamos que la hipótesis nula es cierta y la mediana es θ, la probabilidad de que un


elemento de la muestra sea superior a θ es 12 , por lo tanto, en una muestra de tamaño n cabe
espera que el número de valores superiores a θ sea aproximadamente la mitad. Entonces,

se rechaza la hipótesis nula si aparece un número excesivamente alto o excesivamente bajo,


respecto al 50 %

Los valores crı́ticos de este contraste se determinan a partir de la distribución Binomial


puesto que el estadı́stico B, que mide el número de observaciones con valor mayor que θ sigue
una distribución Binomial: B ∼ B(n, 21 )

La región de aceptación es: R.A. = (s1−α/2 , sα/2 )

Por ejemplo, si la muestra tiene tamaño 7:

en este caso, R.A. = (s1−α/2 , sα/2 ) = (0, 7)

Los valores iguales a θ no se consideran.

NOTA: cuando n es grande podemos utilizar la aproximación de Moivre para aproximar por
una Normal. Es decir, como p = q = 12 :
 r 
n n
n ≥ 10 ⇒ B ≈ N ,
2 4

(n ≥ 10 ⇔ np ≥ 5 y nq ≥ 5, ya que p = q = 21 )

Ejemplo. Se quiere analizar, de forma rápida, la duración de un determinado proceso. Para


ello se toma una muestra de 10 tiempos (en segundos):

32.5 30.2 31.4 28.7 27.9 28.4 26.3 30.9 32.0 30.9

¿Podemos aceptar, con un nivel de significación del 10 %, que en la mitad de las ocasiones
el tiempo del proceso es mayor que 30 segundos?

Estamos planteando el siguiente contraste:



H0 : M e = 30

H1 : M e 6= 30

α = 0.1

Si B=número de observaciones con valor mayor que 30. Entonces B ∼ B(10, 0.5)

En nuestro caso B = 6
176 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

y la región de aceptación es: : R.A. = (s1−α/2 , sα/2 ) = (s0.95 , s0.05 ) = (1, 9)

Nota: P {B ≤ 1} = 0.01074219 y P {B ≤ 2} = 0.0546875, lo que significa que 1 no está en la


región de aceptación y 2 sı́ está; y es análogo al otro lado ya que la distribución es simétrica.

Entonces, como B = 6 ∈ (1, 9) = RA, concluimos que sı́ se puede aceptar que en la mitad
de las ocasiones, el tiempo del proceso es mayor que 30 segundos, (y en la otra mitad es menor)
con un nivel de significación del 10 %.

3.3.2. Test de los rangos con signo de Wilcoxon

A diferencia del contraste anterior, este contraste tiene en cuenta no sólo el signo de las
diferencias entre los valores de la muestra y la mediana que queremos contrastar, sino también
la magnitud de las mismas.

Queremos resolver el siguiente contraste:



H0 : M e = θ

H1 : M e 6= θ

y tenemos una m.a.s. de tamaño n de una variable aleatoria de tipo continuo.

Llamaremos:

Di , a las diferencia entre los valores de la muestra y el parámetro θ. Como en el caso


anterior, las diferencias nulas no se consideran, es decir, los Di = 0 no se consideran.
Ri = rango|Di |
(en los empates se toma la media de los rangos y el rango 1 se asigna a la menor diferencia)

Ri es el rango que se obtiene al ordenar los valores |xi − θ|

Este contraste utiliza los estadı́sticos T + y T − de Wilcoxon que se obtienen de del siguiente
modo:
X
T+ = Ri
xi >θ
X
T− = Ri
xi <θ

Si θ es la mediana, cabe esperar que T + y T − sean aproximadamente iguales y a su vez,


aproximadamente iguales a la suma de todos los rangos.
(n + 1)n
Como T + + T − = 1 + 2 + · · · + n = , tanto T + como T − deberı́an estar cercanos
2
(n+1)n
al valor: 4

Se puede seleccionar uno cualquiera, aunque se suele coger el mı́n{T + , T − }.

Cuando n ≤ 30 los valores crı́ticos están tabulados 8 , y en este caso la región de aceptación
es: R.A. = (t1−α/2 , tα/2 ).
8
Tabla al final del tema
3.3. CONTRASTES DE LOCALIZACIÓN 177

Para n > 30 los estadı́sticos de Wilcoxon se aproximan a una Normal:


r !
+ − (n + 1)n n(n + 1)(2n + 1)
T oT ≈N ,
4 24

Frank Wilcoxon (2 de septiembre de 1892 en Cork, Irlanda–


el 18 de noviembre de 1965).
Wilcoxon fue un investigador del Boyce Thompson Institute
for Plant Research de 1925 a 1941. Después se incorporó a
la Atlas Powder Company, donde diseñó y dirigió el Con-
trol Laboratory. Luego, en 1943, se incorporó a la American
Cyanamid Company. En este periodo se interesó en la es- 9
tadı́stica a través del estudio del libro Statistical Methods
for Research Workers de R.A. Fisher. Se jubiló en 1957.
Publicó más de 70 artı́culos,2 pero se lo conoce fundamen-
talmente por uno de 19453 en el que se describen dos nuevas
pruebas estadı́sticas: la prueba de la suma de los rangos de
Wilcoxon y la prueba de los signos de Wilcoxon. Se trata de
alternativas no paramétricas a la prueba t de Student.

Ejemplo. Vamos a resolver el mismo problema que en el caso anterior ya que la variable
analizada (duración del proceso) es de tipo continuo:

Se quiere analizar, de forma rápida, la duración de un determinado proceso. Para ello se


toma una muestra de 10 tiempos (en segundos):

32.5 30.2 31.4 28.7 27.9 28.4 26.3 30.9 32.0 30.9

¿Podemos aceptar, con un nivel de significación del 10 %, que en la mitad de las ocasiones
el tiempo del proceso es mayor que 30 segundos?

Estamos planteando el siguiente contraste:



H0 : M e = 30

H1 : M e 6= 30

α = 0.1

Lo más sencillo es construir una tabla, con los valores ordenados, en la que vamos haciendo
los cálculos:
x(i) 26.3 27.9 28.4 28.7 30.2 30.9 30.9 31.4 32.0 32.5
di = xi − 30 -3.7 -2.1 -1.6 -1.3 0.2 0.9 0.9 1.4 2.0 2.5
Ri 10 8 6 4 1 2.5 2.5 5 7 9
Entonces:

T − = 10 + 8 + 6 + 4 = 28 y

T + = 1 + 2.5 + 2.5 + 5 + 7 + 9 = 27

Elegimos uno de ellos: T = 28 y comprobamos si se encuentra en la región de aceptación


(tablas): n = 10, α = 0.1 ⇒ RA = (10, 45)
9
Información extraida de http://es.wikipedia.org/wiki/Frank Wilcoxon
178 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

Como T = 28 ∈ (10, 45) = RA, aceptamos que la mediana de la duración de los procesos es
30 segundos, con un nivel de significación del 10 %.

(en realidad ambos están en la región de aceptación)

Una de las principales utilidades de los contrastes de localización es para determinar si los
datos de dos muestras provienen de variables con la misma distribución en la población
(puede ser la misma o distinta variable).

Esto se usa tanto cuando interesa saber si las distribuciones son iguales como para ver si son
diferentes (si hay diferencias estadı́sticamente significativas).

Ejemplo. Se está estudiando la eficacia de un nuevo componente para reducir el ruido de un


aparato electrónico. Para ello se ha analizado el nivel de ruido (en decibelios dB) de 12 aparatos
antes y después de colocarles el nuevo componente. Los resultados se muestran a continuación:
Antes 11.6 14.3 16.1 13.7 15.7 14.2 13.2 14.1 12.7 11.2 13.9 11.2
Después 12.3 13.6 13.8 12.2 13.8 12.5 13.7 12.8 13.1 12.9 12.1 13.1
¿Se puede aceptar, con un nivel de significación del 10 %, que el nuevo componente reduce
el nivel de ruido?

Vamos a resolverlo, en primer lugar usando el contraste de Rangos con signo de Wilko-
xon.

Ahora no comparamos con un valor concreto sino, para cada caso, los valores correspondien-
tes, diferencias (di ); y luego analizaremos el rango de las diferencias (Ri ).

Completamos la tabla:
Antes 11.6 14.3 16.1 13.7 15.7 14.2 13.2 14.1 12.7 11.2 13.9 11.2
Después 12.3 13.6 13.8 12.2 13.8 12.5 13.7 12.8 13.1 12.9 12.1 13.1
di -0.7 0.7 2.3 1.5 1.9 1.7 -0.5 1.3 -0.4 -1.7 1.8 -1.9
Ri 3.5 3.5 12.0 6.0 10.0 7.0 2.0 5.0 1.0 8.0 9.0 11.0

T − = 3.5 + 2 + 1 + 8 + 11 = 25.5 y

T + = 3.5 + 12 + 6 + 10 + 7 + 5 + 9 = 52.5

Como n = 12 y α = 0.1(⇒ α/2 = 0.05), la región de aceptación es: RA = (17, 61)

Tanto T − = 25.5 como T + = 52.5 están en la región de aceptación: RA = (17, 61)

Por lo tanto, no hay diferencias estadı́sticamente significativas entre las dos distribuciones.

Conclusión: NO podemos aceptar que el nuevo componente disminuye el nivel de ruido, con
un nivel de significación del 10 %.

Vamos a resolverlo, en segundo lugar usando el contraste de Signos.

Para este contraste sólo nos hace falta determinar el valor de la variable:

S=número de diferencias positivas (antes>después)


3.3. CONTRASTES DE LOCALIZACIÓN 179

También se podrı́a hacer con las diferencias negativas.


 
1
Sabemos que S ∼ B 12, . Entonces:
2
S = 7 y RA = (s1−α/2 , sα/2 ) = (s0.05 , s0.95 ) = (2, 10) o bien RA = [3, 9]

Como S = 7 ∈ RA = (2, 10) esto significa que las dos distribuciones son análogas y por lo
tanto no hay diferencias estadı́sticamente significativas.

Conclusión: Rechazamos la hipótesis de que el nuevo componente disminuye el nivel de ruido,


con un nivel de significación del 10 %.
180 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

3.4. Tablas para contrastes no paramétricos

3.4.1. T.5.Test
TABLA deRachas.
Test de Rachas
Valores críticos del estadístico Número de Rachas para n1 y n2 ≤ 20 y  = 0’05

1   2  0'975

n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 0 0 0 0 0 0 2 2 2 2 2 2 2 2 2 2 2 2 2
3 0 0 0 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3
4 0 0 2 2 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4
5 0 2 2 3 3 3 3 4 4 4 4 4 5 5 5 5 5 5 5
6 0 2 3 3 3 4 4 4 5 5 5 5 5 6 6 6 6 6 6
7 0 2 3 3 4 4 4 5 5 5 6 6 6 6 6 7 7 7 7
8 2 2 3 3 4 4 5 5 6 6 6 6 7 7 7 7 8 8 8
9 2 2 3 4 4 5 5 6 6 6 7 7 7 8 8 8 8 9 9
10 2 3 3 4 5 5 6 6 6 7 7 8 8 8 8 9 9 9 9
11 2 3 3 4 5 5 6 6 7 8 9 9 9 10 10 10 10 11 7
12 2 3 4 4 5 6 6 7 7 9 8 8 8 9 9 9 10 10 10
13 2 3 4 4 5 6 6 7 8 9 8 9 9 10 10 10 11 11 11
14 2 3 4 5 5 6 7 7 8 9 8 9 10 10 11 11 11 12 12
15 2 3 4 5 6 6 7 8 8 10 9 10 10 11 11 11 12 12 12
16 2 3 4 5 6 6 7 8 8 10 9 10 11 11 11 12 12 12 12
17 2 3 4 5 6 7 7 8 9 10 9 10 11 11 12 12 13 13 13
18 2 3 4 5 6 7 8 8 9 10 10 11 11 12 12 13 13 14 14
19 2 3 4 5 6 7 8 9 9 11 10 11 10 12 12 13 14 14 14
20 2 3 4 5 6 7 8 9 9 7 10 11 12 12 12 13 14 14 15

 2  0'025

n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 4 5 5 5 5 5 3 5 5 5 5 5 5 5 5 5 5 5 5
3 5 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7
4 5 6 7 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9
5 5 7 8 8 9 9 10 10 10 11 11 11 11 11 11 11 11 11 11
6 5 7 8 9 10 10 11 11 11 12 12 12 12 13 13 13 13 13 13
7 5 7 8 9 10 11 12 12 12 13 13 13 13 14 14 14 14 14 14
8 5 7 9 10 11 12 12 13 13 14 14 14 15 15 15 15 15 15 16
9 5 7 9 10 11 12 13 13 14 14 15 15 16 16 16 16 17 17 17
10 5 7 9 10 11 12 13 14 15 15 16 16 16 17 17 17 18 18 18
11 5 7 9 11 12 13 14 14 15 17 17 18 18 19 19 20 20 20 16
12 5 7 9 11 12 13 14 15 16 17 16 17 17 18 18 18 19 19 19
13 5 7 9 11 12 13 14 15 16 18 17 18 19 19 20 20 20 21 21
14 5 7 9 11 12 13 15 16 16 18 17 19 19 20 20 21 21 22 22
15 5 7 9 11 13 14 15 16 17 19 18 19 20 20 21 21 22 22 23
16 5 7 9 11 13 14 15 16 17 19 18 20 20 21 22 22 22 23 23
17 5 7 9 11 13 14 15 16 17 20 18 20 21 21 22 23 23 24 24
18 5 7 9 11 13 14 15 17 18 20 19 20 21 22 22 23 24 25 25
19 5 7 9 11 13 14 15 17 18 20 19 21 19 22 23 24 25 25 26
20 5 7 9 11 13 14 16 17 18 16 19 21 22 23 23 24 25 26 26
3.4. TABLAS PARA CONTRASTES NO PARAMÉTRICOS 181

3.4.2. T.5.Test
TABLA deRachas.
Test de Rachas (continuación)
(Continuación)

Valores críticos del estadístico Número de Rachas para n1 y n2 ≤ 20 y  = 0’01

1   2  0'995

n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 2
3 0 0 0 0 0 0 0 2 2 2 2 2 2 2 2 2 2 2 2
4 0 0 0 0 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3
5 0 0 0 2 2 2 2 3 3 3 3 3 3 4 4 4 4 4 4
6 0 0 2 2 2 3 3 3 3 4 4 4 4 4 4 5 5 5 5
7 0 0 2 2 3 3 3 4 4 4 4 5 5 5 5 5 5 6 6
8 0 0 2 2 3 3 4 4 4 4 5 5 5 5 6 6 6 6 6
9 0 2 2 3 3 4 4 4 5 5 5 6 6 6 6 7 7 7 7
10 0 2 2 3 3 4 4 5 5 5 6 6 6 7 7 7 7 8 8
11 0 2 2 3 4 4 4 5 5 7 7 7 8 8 8 8 9 9 6
12 0 2 3 3 4 4 5 5 6 7 6 6 7 7 7 8 8 8 8
13 0 2 3 3 4 5 5 6 6 7 6 7 8 8 8 9 9 9 10
14 0 2 3 3 4 5 5 6 6 8 7 8 8 8 9 9 9 10 10
15 0 2 3 4 4 5 5 6 7 8 7 8 8 9 9 10 10 10 11
16 0 2 3 4 4 5 6 6 7 8 7 8 9 9 10 10 10 10 10
17 0 2 3 4 5 5 6 7 7 8 8 9 9 10 10 10 11 11 11
18 0 2 3 4 5 5 6 7 7 9 8 9 9 10 10 11 11 12 12
19 2 2 3 4 5 6 6 7 8 9 8 9 10 10 10 11 12 12 12
20 2 2 3 4 5 6 6 7 8 6 8 10 10 11 10 11 12 12 13

 2  0'005

n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
3 5 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7
4 5 7 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9
5 5 7 9 9 10 10 11 10 11 11 11 11 11 11 11 11 11 11 11
6 5 7 9 10 11 11 12 12 13 13 13 13 13 13 13 13 13 13 13
7 5 7 9 10 11 12 12 13 14 14 14 15 15 15 15 15 15 15 15
8 5 7 9 11 12 12 13 14 14 15 15 16 16 16 16 17 17 17 17
9 5 7 9 10 12 13 14 15 15 16 16 17 17 17 17 17 18 18 18
10 5 7 9 11 13 14 14 15 16 17 17 18 18 18 19 19 19 19 19
11 5 7 9 11 13 14 15 16 17 18 19 20 20 21 21 21 22 22 17
12 5 7 9 11 13 14 15 16 17 19 18 18 19 19 20 20 20 21 21
13 5 7 9 11 13 15 16 17 18 20 18 20 20 21 21 22 22 23 23
14 5 7 9 11 13 15 16 17 18 20 19 20 21 22 22 23 23 23 24
15 5 7 9 11 13 15 16 17 18 21 19 21 22 22 23 23 24 24 25
16 5 7 9 11 13 15 16 17 19 21 20 21 22 23 23 24 24 25 25
17 5 7 9 11 13 15 17 17 19 21 20 22 23 23 24 25 25 26 26
18 5 7 9 11 13 15 17 18 19 22 20 22 23 24 24 25 26 26 27
19 5 7 9 11 13 15 17 18 19 22 21 23 23 24 25 26 26 27 28
20 5 7 9 11 13 15 17 18 19 17 21 23 24 25 25 26 27 28 28

Para n1 ó n2 > 20, el Número de Rachas sigue aproximadamente una distribución Normal de
2n1n2 2n1n2 (2n1n2  n1  n2 )
media    1 y varianza   2 
n1  n2 2
n1  n2  n1  n2 1
182 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

3.4.3. Coeficientes ai del contraste de Shapiro-Wilks


TABLA T.8. Coeficientes ai del contraste de Shapiro-Wilks

n
i 2 3 4 5 6 7 8 9 10
1 0’7071 0’7071 0’6872 0’6646 0’6431 0’6233 0’6052 0’5888 0’5739
2 - 0’0000 0’1677 0’2413 0’2806 0’3031 0’3164 0’3244 0’3291
3 - - - 0’0000 0’0875 0’1401 0’1743 0’1976 0’2141
4 - - - - - 0’0000 0’0561 0’0947 0’1224
5 - - - - - - - 0’0000 0’0399
11 12 13 14 15 16 17 18 19 20
1 0’5601 0’5475 0’5359 0’5251 0’5150 0’5056 0’4968 0’4886 0’4808 0’4734
2 0’3315 0’3325 0’3325 0’3318 0’3306 0’3290 0’3273 0’3253 0’3232 0’3211
3 0’2260 0’2347 0’2412 0’2495 0’2495 0’2521 0’2540 0’2553 0’2561 0’2565
4 0’1429 0’1586 0’1707 0’1802 0’1878 0’1988 0’1988 0’2027 0’2059 0’2085
5 0’0695 0’0922 0’1099 0’1240 0’1353 0’1447 0’1524 0’1587 0’1641 0’1686
6 0’0000 0’0303 0’0539 0’0727 0’0880 0’1005 0’1109 0’1197 0’1271 0’1334
7 - - 0’0000 0’0240 0’0433 0’0593 0’0725 0’0837 0’0932 0’1013
8 - - - - 0’0000 0’0196 0’0359 0’0496 0’0612 0’0711
9 - - - - - - 0’0000 0’0163 0’0303 0’0422
10 - - - - - - - - 0’0000 0’0140
21 22 23 24 25 26 27 28 29 30
1 0’4643 0’4590 0’4542 0’4493 0’4450 0’4407 0’4366 0’4328 0’4291 0’4254
2 0’3185 0’3156 0’3126 0’3098 0’3069 0’3043 0’3018 0’2992 0’2968 0’2944
3 0’2578 0’2571 0’2563 0’2554 0’2543 0’2533 0’2522 0’2510 0’2499 0’2487
4 0’2119 0’2131 0’2139 0’2145 0’2148 0’2151 0’2152 0’2151 0’2150 0’2148
5 0’1736 0’1764 0’1787 0’1807 0’1822 0’1836 0’1848 0’1857 0’1864 0’1870
6 0’1399 0’1443 0’1480 0’1512 0’1539 0’1563 0’1584 0’1601 0’1616 0’1630
7 0’1092 0’115 0’1201 0’1245 0’1283 0’1316 0’1346 0’1372 0’1395 0’1415
8 0’0804 0’0878 0’0941 0’0997 0’1046 0’1089 0’1128 0’1162 0’1192 0’1219
9 0’0530 0’0618 0’0696 0’0764 0’0823 0’0876 0’0923 0’0965 0’1002 0’1036
10 0’0263 0’0368 0’0459 0’0539 0’0610 0’0672 0’0728 0’0778 0’0822 0’0862
11 0’0000 0’0122 0’0228 0’0321 0’0403 0’0476 0’0540 0’0598 0’0650 0’0697
12 - - 0’0000 0’0107 0’0200 0’0284 0’0358 0’0424 0’0483 0’0537
13 - - - - 0’0000 0’0094 0’0178 0’0253 0’0320 0’0381
14 - - - - - - 0’0000 0’0084 0’0159 0’0227
15 - - - - - - - - 0’0000 0’0076
31 32 33 34 35 36 37 38 39 40
1 0’4220 0’4188 0’4156 0’4127 0’4096 0’4068 0’4040 0’4015 0’3989 0’3964
2 0’2921 0’2898 0’2876 0’2854 0’2834 0’2813 0’2794 0’2774 0’2755 0’2737
3 0’2475 0’2463 0’2451 0’2439 0’2427 0’2415 0’2403 0’2391 0’2380 0’2368
4 0’2145 0’2141 0’2137 0’2132 0’2127 0’2121 0’2116 0’2110 0’2104 0’2098
5 0’1874 0’1878 0’1880 0’1882 0’1883 0’1883 0’1883 0’1881 0’1880 0’1878
6 0’1641 0’1651 0’1660 0’1667 0’1673 0’1678 0’1683 0’1686 0’1689 0’1691
7 0’1433 0’1449 0’1463 0’1475 0’1487 0’1496 0’1505 0’1513 0’1520 0’1526
8 0’1243 0’1265 0’1284 0’1301 0’1317 0’1331 0’1344 0’1356 0’1366 0’1376
9 0’1066 0’1093 0’1118 0’1140 0’1160 0’1179 0’1196 0’1211 0’1225 0’1237
10 0’0899 0’0931 0’0961 0’0988 0’1013 0’1036 0’1056 0’1075 0’1092 0’1108
11 0’0739 0’0777 0’0812 0’0844 0’0873 0’0900 0’0924 0’0947 0’0967 0’0986
12 0’0585 0’0629 0’0669 0’0706 0’0739 0’0770 0’0798 0’0824 0’0848 0’0870
13 0’0435 0’0485 0’0530 0’0572 0’0610 0’0645 0’0677 0’0706 0’0733 0’0759
14 0’0289 0’0344 0’0395 0’0441 0’0484 0’0523 0’0559 0’0592 0’0622 0’0651
15 0’0144 0’0206 0’0262 0’0314 0’0361 0’0404 0’0444 0’0481 0’0515 0’0546
16 0’0000 0’0068 0’0187 0’0187 0’0239 0’0287 0’0331 0’0372 0’0409 0’0444
17 - - 0’0000 0’0062 0’0119 0’0172 0’0220 0’0264 0’0305 0’0343
18 - - - - 0’0000 0’0057 0’0110 0’0158 0’0203 0’0244
19 - - - - - - 0’0000 0’0053 0’0101 0’0146
20 - - - - - - - - 0’0000 0’0049
41 42 43 44 45 46 47 48 49 50
1 0’3940 0’3917 0’3894 0’3872 0’3850 0’3830 0’3808 0’3789 0’3770 0’3751
2 0’2719 0’2701 0’2684 0’2667 0’2651 0’2635 0’2620 0’2604 0’2589 0’2574
3 0’2357 0’2345 0’2334 0’2323 0’2313 0’2302 0’2291 0’2281 0’2271 0’2260
4 0’2091 0’2085 0’2078 0’2072 0’2065 0’2058 0’2052 0’2045 0’2038 0’2032
5 0’1876 0’1874 0’1871 0’1868 0’1865 0’1862 0’1859 0’1855 0’1851 0’1847
6 0’1693 0’1694 0’1695 0’1695 0’1695 0’1695 0’1695 0’1693 0’1692 0’1691
7 0’1531 0’1535 0’1539 0’1542 0’1545 0’1548 0’1550 0’1551 0’1553 0’1554
8 0’1384 0’1392 0’1398 0’1405 0’1410 0’1415 0’1420 0’1423 0’1427 0’1430
9 0’1249 0’1259 0’1269 0’1278 0’1286 0’1293 0’1300 0’1306 0’1312 0’1317
10 0’1123 0’1136 0’1149 0’1160 0’1170 0’1180 0’1189 0’1197 0’1205 0’1212
11 0’1004 0’1020 0’1035 0’1049 0’1062 0’1073 0’1085 0’1095 0’1105 0’1113
12 0’0891 0’0909 0’0927 0’0943 0’0959 0’0972 0’0986 0’0998 0’1010 0’1020
13 0’0782 0’0804 0’0824 0’0842 0’0860 0’0876 0’0892 0’0906 0’0919 0’0932
14 0’0677 0’0701 0’0724 0’0745 0’0765 0’0783 0’0801 0’0817 0’0832 0’0846
15 0’0575 0’0602 0’0628 0’0651 0’0673 0’0694 0’0713 0’0731 0’0748 0’0764
16 0’0476 0’0506 0’0534 0’0560 0’0584 0’0607 0’0628 0’0648 0’0667 0’0685
17 0’0379 0’0411 0’0442 0’0471 0’0497 0’0522 0’0546 0’0568 0’0588 0’0608
18 0’0283 0’0318 0’0352 0’0383 0’0412 0’0439 0’0465 0’0489 0’0511 0’0532
19 0’0188 0’0227 0’0263 0’0296 0’0328 0’0357 0’0385 0’0411 0’0436 0’0459
20 0’0094 0’0136 0’0175 0’0211 0’0245 0’0277 0’0307 0’0335 0’0361 0’0386
21 0’0000 0’0045 0’0087 0’0126 0’0163 0’0197 0’0229 0’0259 0’0288 0’0314
22 - - 0’0000 0’0042 0’0081 0’0118 0’0153 0’0185 0’0215 0’0244
23 - - - - 0’0000 0’0039 0’0076 0’0111 0’0143 0’0174
24 - - - - - - 0’0000 0’0037 0’0071 0’0104
25 - - - - - - - - 0’0000 0’0035
3.4. TABLAS PARA CONTRASTES NO PARAMÉTRICOS 183

TABLA T.9. Valores críticos del contraste de Shapiro - Wilks


3.4.4. Valores crı́ticos del contraste de Shapiro-Wilks

α
n 0’01 0’02 0’05 0’10 0’50 0’90 0’95 0’98 0’99

3 0’753 0’756 0’767 0’789 0’959 0’998 0’999 1’000 1’000


4 0’687 0’707 0’748 0’792 0’935 0’987 0’992 0’996 0’997
5 0’686 0’715 0’762 0’806 0’927 0’979 0’986 0’991 0’993
6 0’713 0’743 0’788 0’826 0’927 0’974 0’981 0’986 0’989
7 0’730 0’760 0’803 0’838 0’928 0’972 0’979 0’985 0’988
8 0’749 0’778 0’818 0’851 0’932 0’972 0’978 0’984 0’987
9 0’764 0’791 0’829 0’859 0’935 0’972 0’978 0’984 0’986
10 0’781 0’806 0’842 0’869 0’938 0’972 0’978 0’983 0’986
11 0’792 0’817 0’850 0’876 0’940 0’973 0’979 0’984 0’986
12 0’805 0’828 0’859 0’883 0’943 0’973 0’979 0’984 0’986
13 0’814 0’837 0’866 0’889 0’945 0’974 0’979 0’984 0’986
14 0’825 0’846 0’874 0’895 0’947 0’975 0’980 0’984 0’986
15 0’835 0’855 0’881 0’901 0’950 0’975 0’980 0’984 0’987
16 0’844 0’863 0’887 0’906 0’952 0’976 0’981 0’985 0’987
17 0’851 0’869 0’892 0’910 0’954 0’977 0’981 0’985 0’987
18 0’858 0’874 0’897 0’914 0’956 0’978 0’982 0’986 0’988
19 0’863 0’879 0’901 0’917 0’957 0’978 0’982 0’986 0’988
20 0’868 0’884 0’905 0’920 0’959 0’979 0’983 0’986 0’988
21 0’873 0’888 0’908 0’923 0’960 0’980 0’983 0’987 0’989
22 0’878 0’892 0’911 0’926 0’961 0’980 0’984 0’987 0’989
23 0’881 0’895 0’914 0’928 0’962 0’981 0’984 0’987 0’989
24 0’884 0’898 0’916 0’930 0’963 0’981 0’984 0’987 0’989
25 0’888 0’901 0’918 0’931 0’964 0’981 0’985 0’988 0’989
26 0’891 0’904 0’920 0’933 0’965 0’982 0’985 0’988 0’989
27 0’894 0’906 0’923 0’935 0’965 0’982 0’985 0’988 0’990
28 0’896 0’908 0’924 0’936 0’966 0’982 0’985 0’988 0’990
29 0’898 0’910 0’926 0’937 0’966 0’982 0’985 0’988 0’990
30 0’900 0’912 0’927 0’939 0’967 0’983 0’985 0’988 0’990
31 0’902 0’914 0’929 0’940 0’967 0’983 0’986 0’988 0’990
32 0’904 0’915 0’930 0’941 0’968 0’983 0’986 0’988 0’990
33 0’906 0’917 0’931 0’942 0’968 0’983 0’986 0’989 0’990
34 0’908 0’919 0’933 0’943 0’969 0’983 0’986 0’989 0’990
35 0’910 0’920 0’934 0’944 0’969 0’984 0’986 0’989 0’990
36 0’912 0’922 0’935 0’945 0’970 0’984 0’986 0’989 0’990
37 0’914 0’924 0’936 0’946 0’970 0’984 0’987 0’989 0’990
38 0’916 0’925 0’938 0’947 0’971 0’984 0’987 0’989 0’990
39 0’917 0’927 0’939 0’948 0’971 0’984 0’987 0’989 0’991
40 0’919 0’928 0’940 0’949 0’972 0’985 0’987 0’989 0’991
41 0’920 0’929 0’941 0’950 0’972 0’985 0’987 0’989 0’991
42 0’922 0’930 0’942 0’951 0’972 0’985 0’987 0’989 0’991
43 0’923 0’932 0’943 0’951 0’973 0’985 0’987 0’990 0’991
44 0’924 0’933 0’944 0’952 0’973 0’985 0’987 0’990 0’991
45 0’926 0’934 0’945 0’953 0’973 0’985 0’988 0’990 0’991
46 0’927 0’935 0’945 0’953 0’974 0’985 0’988 0’990 0’991
47 0’928 0’936 0’946 0’954 0’974 0’985 0’988 0’990 0’991
48 0’929 0’937 0’941 0’954 0’974 0’985 0’988 0’990 0’991
49 0’929 0’937 0’947 0’955 0’974 0’985 0’988 0’990 0’991
50 0’930 0’938 0’947 0’955 0’974 0’985 0’988 0’990 0’991
184 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

TABLA
3.4.5.T.6.Test
Test de
deKolmogorov – Smirnov de bondad
Kolmogorov-Smirnov dedebondad
ajuste de ajuste

Valores críticos del estadístico D para un tamaño de muestra n a un nivel de significación α

α
n 0’2 0’1 0’05 0’02 0’01
1 0’900 0’950 0’975 0’990 0’995
2 0’684 0’776 0’842 0’900 0’929
3 0’565 0’636 0’780 0’785 0’829
4 0’493 0’565 0’624 0’689 0’734
5 0’447 0’509 0’563 0’627 0’669
6 0’410 0’468 0’519 0’577 0’617
7 0’381 0’436 0’483 0’538 0’576
8 0’358 0’410 0’454 0’507 0’542
9 0’339 0’387 0’430 0’480 0’513
10 0’323 0’369 0’409 0’457 0’489
11 0’308 0’352 0’391 0’437 0’468
12 0’296 0’338 0’375 0’419 0’449
13 0’285 0’325 0’361 0’404 0’432
14 0’275 0’314 0’349 0’390 0’418
15 0’266 0’304 0’338 0’377 0’404
16 0’258 0’295 0’327 0’366 0’392
17 0’250 0’286 0’318 0’355 0’381
18 0’244 0’279 0’309 0’346 0’371
19 0’237 0’271 0’301 0’337 0’361
20 0’232 0’265 0’294 0’329 0’352
21 0’226 0’259 0’287 0’321 0’344
22 0’221 0’253 0’281 0’314 0’337
23 0’216 0’247 0’275 0’307 0’330
24 0’212 0’242 0’269 0’301 0’323
25 0’208 0’238 0’264 0’295 0’317
26 0’204 0’233 0’259 0’290 0’311
27 0’200 0’229 0’254 0’284 0’305
28 0’197 0’225 0’250 0’279 0’300
29 0’193 0’221 0’246 0’275 0’295
30 0’190 0’218 0’242 0’270 0’290
> 30 1'073 1'224 1'358 1'517 1'628
n n n n n
3.4. TABLAS PARA CONTRASTES NO PARAMÉTRICOS 185
TABLA T.7. Test de Kolmogorov – Smirnov - Lilliefors
3.4.6. Test de Kolmogorov-Smirnov-Lilliefors
Puntos críticos del estadístico para un tamaño de muestra n a un nivel de significación
α para contrastar las hipótesis de normalidad cuando la media y la varianza poblacionales
son estimadas por sus valores muestrales

α
n 0’2 0’15 0’1 0’05 0’01
4 0’300 0’319 0’352 0’381 0’417
5 0’285 0’299 0’315 0’337 0’405
6 0’265 0’277 0’294 0’319 0’364
7 0’247 0’258 0’276 0’300 0’348
8 0’233 0’244 0’261 0’285 0’331
9 0’223 0’233 0’249 0’271 0’311
10 0’215 0’224 0’239 0’258 0’294
11 0’206 0’217 0’230 0’249 0’284
12 0’199 0’212 0’223 0’242 0’275
13 0’190 0’202 0’214 0’234 0’268
14 0’183 0’194 0’207 0’227 0’261
15 0’177 0’187 0’201 0’220 0’257
16 0’173 0’182 0’195 0’213 0’250
17 0’169 0’177 0’189 0’206 0’245
18 0’166 0’173 0’184 0’200 0’239
19 0’163 0’169 0’179 0’195 0’235
20 0’160 0’166 0’174 0’190 0’231
25 0’149 0’153 0’165 0’180 0’203
30 0’131 0’136 0’144 0’161 0’187
> 30 0'736 0'768 0'805 0'886 1'031
n n n n n
186 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

3.4.7. T.10.
TABLA Test
Testde losrangos
de los rangos con de
con signo signo de Wilcoxon
Wilcoxon

Valores críticos de los estadísticos de Wilcoxon para n ≤ 30

1 2  2

n 0’995 0’99 0’975 0’95 0’05 0’025 0’01 0’005

5 - - - 0 15 - - -
6 - - 0 2 19 21 - -
7 - 0 2 3 25 26 28 -
8 0 1 3 5 31 33 35 36
9 1 3 5 8 37 40 42 44
10 3 5 8 10 45 47 50 52
11 5 7 10 13 53 56 59 61
12 7 9 13 17 61 65 69 71
13 9 12 17 21 70 74 79 82
14 12 15 21 25 80 84 90 93
15 15 19 25 30 90 95 101 105
16 19 23 29 35 101 107 113 117
17 23 27 34 41 112 119 126 130
18 27 32 40 47 124 131 139 144
19 32 37 46 53 137 144 153 158
20 37 43 52 60 150 158 167 173
21 42 49 58 67 164 173 182 189
22 48 55 65 75 178 188 198 205
23 54 62 73 83 193 203 214 222
24 61 69 81 91 209 219 231 239
25 68 76 89 100 225 236 249 257
26 75 84 98 110 241 253 267 276
27 83 92 107 119 259 271 286 295
28 91 101 116 130 276 290 305 315
29 100 110 126 140 295 309 325 335
30 109 120 137 151 314 328 345 356

Para n > 30, los estadísticos de Wilcoxon siguen aproximadamente una distribución Normal de
nn 1 nn 12n 1
media    y varianza   2 
4 24

Вам также может понравиться