Академический Документы
Профессиональный Документы
Культура Документы
(Apuntes)
2018-2019
2
Índice general
I Estadı́stica Descriptiva 11
3
4 ÍNDICE GENERAL
1. Sucesos y Probabilidad 53
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2.2. Operaciones con sucesos . . . . . . . . . . . . . . . . . . . . . . . . 56
1.2.3. El espacio de sucesos es un Álgebra de Boole . . . . . . . . . . . . . 59
1.3. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
1.4. Probabilidad condicionada e independencia de sucesos . . . . . . . . . . . . 64
1.4.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . 64
1.4.2. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . 65
1.5. Teorema de la Probabilidad Total y Teorema de Bayes . . . . . . . . . . . 67
2. Variables aleatorias 71
2.1. Variables aleatorias unidimensionales . . . . . . . . . . . . . . . . . . . . . 71
2.2. Esperanza matemática y otras medidas . . . . . . . . . . . . . . . . . . . . 78
2.3. La desigualdad de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.4. Variables aleatorias bidimensionales . . . . . . . . . . . . . . . . . . . . . . 87
2.5. Correlación e incorrelación. Dependencia e independencia . . . . . . . . . . 88
La Estadı́stica es algo cotidiano, algo que todos manejamos todos los dı́as, pero en
muchas ocasiones de forma incorrecta. Esto nos lleva a tomar malas decisiones o a hacer
malas interpretaciones de la realidad que tenemos delante.
Con esta asignatura se pretende dar una visión general de la Estadı́stica Básica y
proporcionar a los futuros graduados en Matemáticas y en Ingenierı́a Informática herra-
mientas para llevar a cabo correctamente la realización de análisis estadı́sticos, ası́ como
la adecuada interpretación de los resultados.
La asignatura se imparte en el primer semestre del segundo curso y su objetivo es
preparar a los estudiantes para el manejo de herramientas básicas de Probabilidad y
Estadı́stica.
Por otra parte, los futuros graduados en Matemáticas necesitan estos conocimientos
para cursar las asignaturas: Probabilidad y Estadı́stica, que se imparte en el segundo
semestre y Modelos de Regresión en tercero.
Según la descripción que aparece en la memoria del Grado se desarrollarán, en mayor
o menor grado, las siguientes competencias:
7
8 INTRODUCCIÓN 1. DESCRIPCIÓN DE LOS OBJETIVOS DE LA ASIGNATURA
Al terminar de cursar esta asignatura se pretende haber alcanzado los siguientes re-
sultados de aprendizaje:
Inferencia Se estudiará cómo llevar a cabo un análisis inferencial. Se realizarán los con-
trastes de hipótesis paramétricos más habituales y algunos no paramétricos (el tiem-
po empleado estimado es de 16 horas de teorı́a que se complementan con 4 horas de
ordenador).
Para poder trabajar en Estadı́stica es conveniente tener claros los conceptos y utilizar
un lenguaje común, que no dé lugar a confusión, por lo que vamos a proceder a dar algunas
definiciones básicas.
Para realizar cualquier análisis estadı́stico debemos disponer de unos datos. Y estos
datos corresponden a los valores obtenidos al estudiar determinadas caracterı́sticas en los
elementos de un conjunto de entes.
Vamos a fijar el lenguaje que utilizaremos, estableciendo los siguientes términos:
Elemento es cada uno de los componentes de la población (pueden ser simples o com-
puestos).
Caracteres son las cualidades o rasgos comunes a toda la población que vamos a estudiar.
Pueden ser cuantitativos (variables) o cualitativos (atributos).
Diremos que una variable estadı́stica es discreta si dados dos valores distintos de
la variable, entre ellos no puede haber más que un número finito de valores de la
variable, por muy alejados que estén entre sı́. Por ejemplo: número de hijos.
9
10 INTRODUCCIÓN 2. ¿CÓMO REALIZAR UN ANÁLISIS ESTADÍSTICO?
Diremos que una variable estadı́stica es continua si, dados dos valores distintos de
la variable, entre ellos hay infinitos posibles valores de la variable, por muy próximos
que estén entre sı́. Por ejemplo: peso, tiempo...
Por otra parte, dentro de los atributos (también llamados variables cualitativas), cabe
distinguir dos categorı́as: los atributos que son simples nombres y/o categorı́as (atributos
categóricos) y los atributos ordinales que además permiten algún tipo de ordenación.
Por ejemplo, el estado civil es un atributo categórico, mientras que el grado de satis-
facción o el nivel de estudios son atributos ordinales.
Es muy importante, en el caso de los atributos, no confundir los números que se pueden
utilizar para codificar las distintas categorı́as con valores resultantes de una medición. NO
podremos realizar operaciones aritméticas con estos números.
Otra cuestión muy importante, que se debe tener en cuenta antes de realizar un análisis
estadı́stico es qué es lo que queremos o podemos hacer, en función del tamaño de la
población objeto de estudio.
Si la población es pequeña y podemos obtener datos de todos los elementos de la
misma, lo que haremos será un análisis descriptivo (Estadı́stica Descriptiva).
Pero, si la población es muy grande (infinita o tan grande que no podemos abordarla en
su totalidad), no nos queda más remedio que tomar una ((muestra representativa)), analizar
dicha muestra y luego estudiar bajo qué condiciones podemos extender los resultados
obtenidos con la muestra a toda la población o si podemos inferir algún resultado para la
población. En esto consiste la Inferencia Estadı́stica.
Una vez que tenemos claros estos conceptos, para realizar un análisis estadı́stico, ge-
neralmente seguiremos los siguientes pasos:
Paso 2: Determinamos las caracterı́sticas que nos interesa analizar de dicha pobla-
ción.
Estadı́stica Descriptiva
11
Tema D 1
Estadı́stica Descriptiva
unidimensional
Este tema se va a desarrollar en las clases prácticas con ordenador, por lo que aquı́
sólo se presenta la parte teórica para que el contenido del curso esté completo en
los Apuntes.
En cualquier caso, se recomienda su lectura al inicio del curso, ya que algunos
de los conceptos que se desarrollarán para variables aleatorias son análogos a los
que se ven en este tema para las variables estadı́sticas.
En este tema veremos cómo realizar el análisis descriptivo completo de una variable
unidimensional.
Primero nos haremos una idea de su comportamiento con el resumen de los datos
y algunos gráficos elementales y, a continuación, veremos cómo calcular las principales
medidas que nos permitirán describir con precisión el comportamiento de dicha variable.
Esta descripción la haremos interpretando correctamente todos los resultados obtenidos.
Los epı́grafes del tema son los siguientes:
Gráficos unidimensionales.
Gráfico de cajas
Medidas de concentración.
13
14 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Por otra parte, en el caso de las variables cuantitativas, también podemos tomar
algunas medidas que nos permitan caracterizar el comportamiento de la variable.
Para ello debemos calcular algunos estadı́sticos como son las medidas de posición,
de dispersión y de forma.
Una vez que hemos determinado cuál es la población que queremos estudiar y qué
caracterı́sticas queremos analizar, el siguiente paso es la recogida de datos.
Para cada individuo, obtendremos tantos valores como caracterı́sticas estemos anali-
zando. Ası́, si en una población solo nos interesa la edad, para cada individuo tendremos
un único valor: su edad; pero si nos interesa la edad, antigüedad en la empresa, estado
civil y salario, para cada individuo tendremos 4 valores.
En el primer caso diremos que obtenemos una variable unidimensional (E=edad) y en
el segundo caso, tenemos una variable de dimensión 4 (E, A, C, S).
En realidad, la variable de dimensión 4, está formada por 4 variables unidimensionales,
con la particularidad de que los valores de cada 4-tupla, corresponden al mismo individuo
o elemento de la población. En este curso, solo nos vamos a ocupar de los análisis de
variables unidimensionales y bidimensionales.
Para comenzar nos vamos a referir al estudio de un único carácter poblacional y por
lo tanto a una variable unidimensional (por ahora no vamos a distinguir entre variables
cualitativas y cuantitativas).
Las variables, en general, se suelen nombrar con una letra mayúscula (E, A, X, Y, . . . ).
Cuando observamos una variable en una población, obtenemos una serie de valores dis-
tintos para esa variable: 18, 19, 20,..., o soltero, casado, viudo,... Los distintos valores
observados de la variable se suelen nombrar con la misma letra que la variable pero en
minúscula.
Al observar una caracterı́stica, X, de la población podemos obtener unos valores (dis-
tintos entre sı́): x1 , x2 , ..., xk . Además, cada uno de los valores distintos observados de la
variable, puede aparecer una o más veces.
Definimos:
1.1. RESUMEN DE LOS DATOS: TABLAS DE FRECUENCIA 15
Ni = ij=1 nj = n1 + · · · + ni , Nk =N.
P
xi ni Ni fi Fi
18 5 5 5/20 5/20
19 3 8 3/20 8/20
20 7 15 7/20 15/20
21 4 19 4/20 19/20
22 1 20 1/20 1
20 1
Ejemplo: Para las notas de 100 alumnos, vamos a construir la tabla de frecuencias:
4 1 5 6 3 5 2 4 4 6
3 4 0 4 7 7 3 4 8 6
8 3 4 5 3 6 9 6 1 5
1 0 1 2 1 3 2 7 5 6
5 4 3 5 5 4 7 5 2 1
2 1 2 3 1 3 5 2 5 5
7 5 3 5 4 6 6 4 7 7
6 0 2 4 2 4 7 3 3 2
8 4 6 6 4 5 10 6 4 7
8 2 4 6 4 4 4 2 6 7
xi ni Ni fi Fi
0 3 3 0.03 0.03
1 8 11 0.08 0.11
2 12 23 0.12 0.23
3 12 35 0.12 0.35
4 20 55 0.20 0.55
5 15 70 0.15 0.70
6 14 84 0.14 0.84
7 10 94 0.10 0.94
8 4 98 0.04 0.98
9 1 99 0.01 0.99
10 1 100 0.01 1.00
100 1
En este último caso, lo primero que se hace es agrupar los valores de la variable en
intervalos, que pueden ser de amplitud constante o no, y calcular las frecuencias en cada
intervalo.
Para agrupar los datos en intervalos o clases, debemos comenzar determinando el
recorrido o rango de la variable, que se define como la diferencia entre el mayor y el
menor valor de la variable:
Re = máx xi − mı́n xi
Este recorrido se divide entonces en intervalos. Lo más cómodo para el tratamiento pos-
terior de la distribución es que los intervalos sean de amplitud constante, pues entonces:
Re= número de intervalos × amplitud, lo cual permite deducir:
- el número de intervalos, si fijamos la amplitud
- la amplitud, si fijamos el número de intervalos.
No existen reglas fijas para determinar el número idóneo de intervalos, hasta el punto
de que a veces se hacen varias pruebas hasta conseguir resaltar las caracterı́sticas del
fenómeno. Cuando no existen otras indicaciones, un valor comúnmente aceptado es un
número próximo a raı́z cuadrada de N (siendo N el número total de observaciones)
Cada intervalo queda especificado por sus lı́mites. En general para el intervalo i-ésimo,
estos lı́mites se representan por li−1 y li , donde li−1 es el lı́mite inferior y li el lı́mite
superior.
Un problema que puede surgir es que el valor de la variable coincida exactamente con
el lı́mite del intervalo. Para evitar que aparezcan situaciones conflictivas, es conveniente
18 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
4.4 1.1 4.6 5.8 2.5 4.8 1.8 4.1 3.5 5.9
2.9 3.5 0.2 3.7 6.8 7.0 3.1 4.4 8.4 6.4
8.2 2.6 4.2 5.1 2.9 5.9 9.2 5.6 0.5 5.2
0.8 0.1 1.2 4.7 2.1 0.6 3.2 1.5 6.7 6.1
4.7 4.3 3.3 4.8 4.7 4.3 6.9 4.9 2.1 0.9
1.5 1.1 2.2 2.9 1.4 3.1 4.6 1.9 4.9 5.1
7.1 5.2 3.2 5.1 4.4 5.7 6.0 4.3 6.5 7.3
6.2 0.3 1.7 3.9 2.2 4.0 6.5 3.0 3.1 1.6
8.0 4.1 5.9 6.0 4.1 5.1 1.0 6.3 4.1 7.4
8.1 2.0 3.6 5.9 3.8 4.0 4.3 1.8 6.0 7.1
(li−1 , li ] xi ni Ni fi Fi
(0, 1] 0.5 8 8 0.08 0.08
(1, 2] 1.5 12 20 0.12 0.20
(2, 3] 2.5 10 30 0.10 0.30
(3, 4] 3.5 14 44 0.14 0.44
(4, 5] 4.5 21 65 0.21 0.65
(5, 6] 5.5 16 81 0.16 0.81
(6, 7] 6.5 10 91 0.10 0.91
(7, 8] 7.5 5 96 0.05 0.96
(8, 9] 8.5 3 99 0.03 0.99
(9, 10] 9.5 1 100 0.01 1
Retomemos el ejemplo que vimos al construir las tablas de frecuencias, en el que los
valores observados de una variable, X, fueron los siguientes:
18 20 22 19 18
20 18 19 21 20
20 21 18 20 21
19 20 21 18 20
Para representar estos datos gráficamente, podemos utilizar:
Gráfico de barras:
Este tipo de gráfico, se utiliza para representar valores o frecuencias. Podemos repre-
sentar:
Se suele utilizar para representar valores de una variable cuando podemos identificar
los casos.
1.2. GRÁFICOS UNIDIMENSIONALES 21
Por ejemplo:
Si sabemos que la población de las provincias aragonesas (1 de enero de 2008) es la
siguiente:
Provincia Población
Zaragoza 955323
Huesca 225271
Teruel 146324
la podemos mostrar en el siguiente gráfico:
Este gráfico nos informa sobre los valores de la variable para cada caso, por lo que es
interesante para mostrar la información, pero no sirve para resumir la información.
El gráfico de barras es uno de los más usados para representar las frecuencias:
Sobre un sistema de ejes dibujaremos en el eje horizontal los distintos valores de la
variable y en el eje vertical la frecuencia de cada uno de ellos. Para cada valor de la
variable, en el eje horizontal se levanta una barra cuya altura será igual a su frecuencia
absoluta, o a la frecuencia absoluta acumulada.
Estos gráficos también se pueden hacer con los porcentajes –frecuencias relativas mul-
tiplicadas por 100–. En ese caso solo cambia la escala ya que la forma del gráfico queda
exactamente igual.
xi n i Ni fi Fi
18 5 5 5/20 5/20
19 3 8 3/20 8/20
20 7 15 7/20 15/20
21 4 19 4/20 19/20
22 1 20 1/20 1
22 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Gráfico de sectores
Histograma
Cuando tenemos distribuciones agrupadas, sobre el eje horizontal se dibujan los inter-
valos y sobre cada uno de ellos se levanta un rectángulo cuya área sea proporcional a la
frecuencia absoluta dentro del intervalo.
Como ya hemos comentado, el número de intervalos y su amplitud, quedan a criterio
del investigador.
IMPORTANTE: si todos los intervalos tienen la misma amplitud, las alturas de los
rectángulos pueden ser iguales a la frecuencia absoluta, pero si hay intervalos de distinta
amplitud (ai ), entonces las alturas (hi ) se calculan dividiendo la frecuencia absoluta por
la amplitud:
ni
hi = , que es lo que se llama densidad de frecuencia.
ai
Por afinidad con la función de densidad (que veremos más adelante), en algunas oca-
siones también se utiliza la densidad de frecuencias relativas, que no es otra cosa que
la proporción de observaciones por unidad de longitud:
0 fi
hi =
ai
7.3 4.2 6.5 4.0 4.7 7.7 8.0 2.2 6.6 3.4 5.6 8.9 7.0 9.9 7.7
7.9 4.4 4.1 3.5 4.0 5.3 3.0 7.8 6.2 6.5 4.3 7.1 7.5 3.0 3.4
5.0 7.4 6.0 6.9 8.8 5.7 6.8 5.1 4.0 6.1 3.3 8.4 9.3 7.2 3.4
5.0 9.8 5.8 9.1 8.3 4.4 8.4 5.4 7.0 5.6 6.3 7.7 6.4 5.8 3.4
0.9 8.1 8.1 6.3 5.7 3.0 4.5 8.5 9.6 7.6 1.8 7.0 2.6 3.2 4.9
3.7 4.3 6.7 3.9 8.5 8.3 3.3 6.4 4.2 8.5 5.9 7.2 7.2 5.8 2.7
5.1 1.2 4.0 5.4 5.2 6.6 1.0 2.7 6.2 9.3 8.1 2.0 9.6 4.5 4.0
6.0 9.2 9.0 8.8 7.3 5.4 6.5 5.1 6.0 8.2 4.7 5.1 4.9 5.6 8.9
8.0 5.4 6.5 3.2 8.1 4.2 2.3 4.0 4.6 7.8 6.7 5.9 6.8 6.2 8.3
6.2 4.8 6.8 7.5 7.4 6.7 4.7 4.5 1.4 3.3 2.1 6.8 6.1 7.6 4.1
1.3 6.7 7.2 8.2 6.2 2.6 5.4 5.0 8.5 6.1 8.7 6.1 0.3 3.9 6.7
4.1 1.7 7.0 6.1 4.8 9.0 5.7 6.2 7.3 8.7 8.5 4.6 8.7 7.3 9.5
5.1 9.1 8.0 1.2 6.3 3.4 3.6 8.7 9.2 3.1 5.4 6.5 3.8 8.2 9.7
3.9 7.7 9.4 5.9 7.7 8.8 6.2 2.3 6.4 7.8 3.6 7.1 4.8 3.6 6.2
7.1 7.8 4.6 6.0 8.9 4.7 8.7 4.3 5.3 6.8 1.8 2.3 6.3 9.1 8.2
24 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
En el caso de las variables cuantitativas, es posible reducir aún más estas distribucio-
nes, valiéndonos de unos pocos números que describan o caractericen a las distribuciones
de frecuencias. Estos números, que reciben el nombre de caracterı́sticas, nos indican los
rasgos más importantes de las distribuciones de frecuencias y se suelen clasificar en los
siguientes grupos:
2. Medidas de dispersión.
3. Medidas de asimetrı́a.
4. Medidas de apuntamiento.
Las medidas de posición, o promedios, son unos valores alrededor de los cuales se
agrupan los valores de la variable, y que nos resumen la posición de la distribución sobre
el eje horizontal.
Para que un valor pueda ser considerado promedio, se le exige como única condición
que esté comprendido entre el mayor y el menor valor de la variable. Existen dos tipos de
medidas de posición: las centrales y las no centrales.
De las medidas de posición central, las más utilizadas son: la media aritmética, la
mediana y la moda. Entre las medidas de posición no centrales las más importantes son
los cuantiles.
Pk
i=1 xi ni x1 n1 + · · · + xk nk
x̄ = =
N N
Este es el promedio más utilizado en la práctica y esto es ası́ por las ventajas que tiene
y que son fundamentalmente:
26 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Es única.
Por otra parte tiene el inconveniente de la influencia que ejercen los valores extremos
de la distribución sobre ella.
Propiedades
k k k k
1 X 1 X 1 X 1 X
ū = ui ni = (a + bxi )ni = a ni + b xi ni =
N i=1 N i=1 N i=1 N i=1
k
N 1 X
=a +b xi ni = a + bx̄
N N i=1
Esta propiedad, eligiendo convenientemente los valores a y de b, es de gran utilidad
en muchos casos, para simplificar el cálculo de la media aritmética.
x̄1 N1 + x̄2 N2
x̄ =
N
donde:
1.4.2. La moda
En una distribución, la moda (Mo) se define como ((aquel valor de la variable cuya
frecuencia no es superada por la frecuencia de ningún otro valor)). Esta definición corres-
ponde a la denominada moda absoluta. La moda relativa se define como ((el valor de la
variable cuya frecuencia no es superada por la de sus valores contiguos)).
Puede darse el caso de que la máxima frecuencia corresponda a dos o más valores de
la variable, en ese caso las distribuciones reciben el nombre de bimodales o multimodales.
1.4.3. La mediana
xi ni Ni
1 10 10
40 40
2 12 22 2
= 20 y 2
+ 1 = 21
3 7 29
4 8 37 luego, Me=2
5 3 40
xi ni Ni
1 10 10
40 40
2 10 20 2
= 20 y 2
+ 1 = 21
3 7 27
4 8 35 luego, Me= 2+3
2
= 2.5
5 5 40
1.4. MEDIDAS DE POSICIÓN 29
(li−1 , li ] ni Ni
10-11 10 10
51
11-12 12 22 2
= 25.5 ⇒ Intervalo mediano 12-13
12-13 12 34
13-14 10 44 Me=marca de clase del intervalo mediano = 12+13
2
= 12.5
14-15 7 51
Además de la media aritmética, se pueden definir otras dos medias: la media armónica
y la media geométrica. Estas medidas de posición central se utilizan menos que la media
aritmética pero son mucho más adecuada que ésta en algunas ocasiones.
La media armónica se define como:
N N
M a(X) = Pk = n1 n2 nk
ni
x1
+ x2
+ ··· + xk
1=1 xi
Es única
i=1
Tiene como ventaja, que en su cálculo se usan todos los valores observados de la
variable.
Tiene el inconveniente de la influencia que ejercen los valores cercanos a cero y los
valores negativos si N es par.
Este promedio se utiliza en variables que miden porcentajes, tasas o números ı́ndices.
Propiedades de la media armónica y la media geométrica
30 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Además de las medidas de posición centrales vistas hasta ahora, existen otros valores,
no centrales, que pueden considerarse como indicadores de una determinada posición en
la distribución.
Estos valores, llamados generalmente cuantiles, constituyen una generalización del
concepto de la mediana.
Ası́ como la mediana divide a la distribución en dos partes, cada una con el mismo
número de observaciones que la otra, si dividimos la distribución en cuatro partes, cada
una de ellas con el mismo número de observaciones, obtendremos tres valores, que se
denominan cuartiles.
Análogamente, si dividimos la distribución en diez partes con el mismo número de
observaciones, obtendremos nueve valores, que se denominan deciles. Y si la dividimos
en cien partes, los correspondientes noventa y nueve valores se denominan percentiles.
En general, los q − 1 valores que dividen a la distribución en q partes con el mismo
número de observaciones se denominan cuantiles de orden q.
La determinación de los cuantiles en una distribución no agrupada en intervalos, es
análoga a la de la mediana.
Las medidas de posición que acabamos de estudiar tienen como misión, no solo situar
la distribución en el eje real, sino que además sintetizan la información que proporciona
la distribución.
El promedio con el que representamos una distribución llevará a cabo esta misión con
mayor o menor fidelidad dependiendo de la relación que exista entre los valores de la
variable y el promedio.
Ası́, si todos los valores fueran iguales, la media, por ejemplo, coincidirı́a con todos
ellos por lo que representarı́a fielmente a la distribución.
A medida que los valores individuales de la variable difieran del promedio, la repre-
sentatividad de este será cada vez menor.
Por ello, para evaluar la representatividad de un promedio, necesitamos un indicador
que, de alguna forma, nos cuantifique el grado de separación de los valores de la variable
respecto al promedio en cuestión.
En este apartado estudiaremos las medidas de dispersión. Hay que tener en cuenta
que existen dos tipos de medidas de dispersión: las absolutas y las relativas.
Con las medidas de dispersión absolutas se trata de medir la separación que, por
término medio, existe entre los distintos valores de la variable, por lo que serán medidas
que vendrán expresadas en la misma clase de unidades que la variable.
Las principales medidas de dispersión absoluta son:
El recorrido o rango
El inconveniente de esta medida es que solo tiene en cuenta los valores extremos.
La varianza
Pk
02 i=1 (xi− x̄)2 ni
S =
N
La desviación tı́pica
La cuasivarianza
Es una medida muy similar a la varianza (la única diferencia para el cálculo está en
el denominador):
Pk
2 (xi − x̄)2 ni
S = i=1
N −1
y es muy utilizada en Inferencia Estadı́stica.
La cuasidesviación tı́pica
Con las medidas de dispersión relativas, se trata de medir la dispersión, con inde-
pendencia de la clase de unidades en que venga expresada la variable. Estas medidas,
permiten comparar la dispersión existente en dos distribuciones, cuyas variables vengan
expresadas en distinta clase de unidades.
De entre las medidas de dispersión relativa, llamadas también ı́ndices de dispersión,
las más importantes son:
El recorrido relativo
Este número nos indica el número de veces que la desviación tı́pica contiene a la media,
o lo que es lo mismo, el tanto que representa S0 por cada unidad de x̄ (es un tanto por
uno). También se puede interpretar como la expresión de S0 empleando como unidad de
medida la media aritmética.
Tanto en la determinación de la desviación tı́pica como en la de la media, se utilizan
todos los valores de la distribución, por lo que es el ı́ndice más completo de los que venimos
estudiando.
Puesto que el valor mı́nimo que puede tomar S0 es cero, este es también el mı́nimo
valor (en valor absoluto) que puede tomar el coeficiente de variación y que corresponde
al caso de máxima representatividad de la media aritmética.
Para dos distribuciones con igual dispersión absoluta, el coeficiente de variación es
tanto menor cuanto mayor sea la media aritmética.
Ej.: Desviación tı́pica de 2 kg en el peso de un bebé (media 7 kg) y en el peso de un
adulto (media 75 kg). Los coeficientes de variación son, respectivamente, 2/7 y 2/75.
Por último, debemos hacer notar que este coeficiente no está definido cuando la media
aritmética de la distribución es igual a cero.
Variables tipificadas
Para poder comprara los valores de dos variables diferentes, tenemos que reducirlos a
una distribución con las mismas caracterı́sticas. Para eso se utilizan las variables tipifica-
das.
Diremos que una variable es una variable centrada, si su media aritmética es igual
a cero.
Llamaremos variable tipificada o estandarizada, a aquella que tiene media aritméti-
ca igual a cero y cuasidesviación tı́pica igual a 1.
A partir de cualquier variable X, siempre podemos construir:
Ahora vamos a completar un poco más el análisis de una distribución, ya que con
el estudio hecho hasta ahora, lo que hacemos es globalizar el comportamiento de una
36 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Una curva continua, que puede servir como modelo matemático de ambos casos, es la
curva Normal de Gauss, que tiene la forma siguiente:
1. Es simétrica.
2. Me = Mo = x̄
Las medidas de simetrı́a nos permiten establecer un indicador del grado de simetrı́a
o asimetrı́a que presenta la distribución, sin necesidad de llevar a cabo su representación
gráfica.
Diremos que una distribución es simétrica cuando lo es su representación gráfica en
coordenadas cartesianas. Es decir, que al trazar una recta paralela al eje de ordenadas
por el punto x, existen el mismo número de valores xi a ambos lados de dicha recta,
equidistantes y a los que corresponda igual frecuencia.
Si la distribución es simétrica, el eje de simetrı́a de su representación gráfica será
una recta paralela al eje de ordenadas que pasa por el punto cuya abscisa es la media
aritmética (como puede comprobarse al recordar la primera propiedad de la media). Por
ello, cuando la distribución es asimétrica, se suelen comparar los valores de la distribución
con este promedio.
Existen varios coeficientes, A, que nos permiten determinar la simetrı́a o el grado de
asimetrı́a de una distribución, pero para cualquiera de ellos la interpretación es la misma:
x̄ − Mo
AP =
S’
En realidad estos tres promedios no deben emplearse de forma excluyente. Cada uno
tiene su significado y se relacionan con aspectos diferentes de la distribución. No obstante
existe cierta relación entre ellos que es conveniente saber.
En las distribuciones de frecuencias Normales (se estudiará más adelante), coinciden
exactamente los tres promedios. Si la distribución es acampanada pero no presenta
simetrı́a, la mediana está situada entre la moda y la media aritmética.
Un diagrama de cajas es una representación gráfica que nos indica, entre otras cosas,
la posición, la dispersión absoluta y la asimetrı́a de la distribución.
Básicamente, tiene la siguiente estructura:
Valor extremo
Valor atípico
Tercer cuartil: Q3
Mediana: Me
Primer cuartil: Q1
40 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
qi , masa de salario que se reparte entre los miembros de la clase i-ésima, relativa a
la masa salarial total.
Los 10 trabajadores que ganan 800e se reparten un 10 % de la masa salarial total;
los 15 que ganan 2000e se reparten un 37.5 % de la masa salarial total...
Qi , masa de salario acumulado hasta la clase i-ésima, comenzando por los que menos
ganan, relativa a la masa salarial total.
En general, la curva de Lorenz es siempre convexa, y cuanto más convexa es, menos
equitativa es la distribución (mayor concentración); mientras que cuanto más se aproxima
a la diagonal, más equitativa es la distribución (menor concentración).
Si tomamos el área encerrada entre la diagonal y la curva, tenemos:
1) Si Pi = Qi , ∀i, estamos en el caso de mı́nima concentración o máxima igualdad.
Área = 0.
2) Si un solo trabajador percibiese el 100 % de la masa salarial, estarı́amos en el caso
de máxima concentración o mı́nima igualdad. Área = 1×1
2
= 0.5
Por lo tanto, cuanto más se acerque a cero el área, tanto menor será la concentración
y el grado de desigualdad existente en el reparto del total de la variable considerada.
Para evaluar el área indicadora del grado de concentración, basta con calcular el área de
los distintos triángulos y rectángulos que se forman utilizando cualquier método conocido.
Se puede comprobar que el ı́ndice de Gini se obtiene exactamente mediante la expre-
sión:
1
Información extraı́da de http://es.wikipedia.org/wiki/Max O. Lorenz; foto: imágenes en Google
1.7. MEDIDAS DE CONCENTRACIÓN 43
k
X pi
IG = 2 qi P̂i − 1, donde P̂i = Pi −
i=1
2
Como el área está comprendida entre 0 y 0.5 esto significa que el ı́ndice de Gini está
comprendido entre 0 y 1, lo que nos permite realizar la siguiente interpretación:
Entonces:
k
X 23335000
IG = 2 qi P̂i − 1 = 2 × − 1 = 2 × 0.58375 − 1 = 0.1675
i=1
50 × 80000
Lo que significa que hay poca concentración. El área encerrada entre la curva de
Lorenz y la diagonal, representa un 16.75 % del área del triángulo inferior. El reparto es
equitativo.
Ejemplo 2 :
Vamos a determinar si existe concentración en el reparto de los salarios que se dan en
la siguiente tabla:
si ni si .ni pi qi Pi P̂i qi P̂i
600 35 21000 35/90 21/102 35/90 17.5/90 367.5/(90 × 102)
1200 40 48000 40/90 48/102 75/90 55/90 2640/(90 × 102)
1800 10 18000 10/90 18/102 85/90 80/90 1440/(90 × 102)
3000 5 15000 5/90 15/102 90/90 87.5/90 1312.5/(90 × 102)
Sumas 90 102000 5760/(90 × 102)=0.629676
44 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Entonces:
IG = 2 × 0.629676 − 1 = 0.259352
Salarios No de trabajadores
[1100, 1500] 108
(1500, 1700] 377
(1700, 1900] 575
(1900, 2100] 351
(2100, 2500] 89
2. ¿Qué porcentaje de los trabajadores de la empresa cobran entre 1900 y 2100 euros?
4. ¿Qué proporción representan los trabajadores que cobran hasta 1900 euros?
11. Si queremos utilizar el salario medio como representante de los salarios en esta
empresa, ¿este salario medio es representativo?
12. Si nos dicen que, para los datos de esta empresa, el coeficiente de asimetrı́a es 0.023
y que el coeficiente de curtosis es -0.120, ¿qué podemos decir respecto a la forma de
la distribución?
14. ¿Qué porcentaje de la masa salarial se reparten el 32.33 % de los trabajadores que
menos ganan?
46 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
15. ¿Qué porcentaje de los trabajadores que menos ganan se reparten el 66.23 % de la
masa salarial?
Solución.
Incluimos aquı́ una tabla cuyas columnas iremos construyendo a medida que las nece-
sitamos para responder a las distintas preguntas.
Salarios si ni Ni fi Fi ai hi = naii si ni s2i ni
[1100, 1500] 1300 108 108 0.072 0.072 400 0.27 140400 182520000
(1500, 1700] 1600 377 485 0.2513̂ 0.323̂ 200 1.885 603200 965120000
(1700, 1900] 1800 575 1060 0.3833̂ 0.706̂ 200 2.875 1035000 1863000000
(1900, 2100] 2000 351 1411 0.234 0.9406̂ 200 1.755 702000 1404000000
(2100, 2500] 2300 89 1500 0.0593̂ 1 400 0.2225 204700 470810000
1500 2685300 4885450000
2. ¿Qué porcentaje de los trabajadores de la empresa cobran entre 1900 y 2100 euros?
Un porcentaje es una frecuencia relativa (proporción) multiplicada por 100, por lo
tanto, serán
351
× 100 = 0.234 × 100 = 23.4 %
1500
3. ¿Cuántos trabajadores cobran más de 1700 euros?
Para responder a esta pregunta podemos utilizar las frecuencias absolutas acumula-
das. Los trabajadores que cobran más de 1700 euros son todos menos los que cobran
un salario menor o igual a dicha cantidad.
4. ¿Qué proporción representan los trabajadores que cobran hasta 1900 euros?
Nos piden la proporción (frecuencia relativa) acumulada de trabajadores cuyos sa-
larios no superan los 1900 euros.
F3 = 0.706̂
k
1 X 1
s̄ = s i ni = 2685300 = 1790.2 euros
N i=1 1500
11. Si queremos utilizar el salario medio como representante de los salarios en esta
empresa, ¿este salario medio es representativo?
Sı́, porque al haber poca dispersión relativa esto significa que los salarios tienen poca
dispersión respecto a la media. Es decir que son muy parecidos entre sı́ y parecidos
a la media. Por lo tanto, podemos usar la media como representante de los salarios
de la empresa.
12. Si nos dicen que, para los datos de esta empresa, el coeficiente de asimetrı́a es 0.023
y que el coeficiente de curtosis es -0.120, ¿qué podemos decir respecto a la forma de
la distribución?
Hemos visto, al hacer el histograma que la distribución es campaniforme, por lo
tanto, con estos coeficientes podemos añadir que también es ligeramente asimétrica
a la derecha (muy poco) y ligeramente platicúrtica.
k
X
IG = 2 qi P̂i − 1
i=1
Pi Qi
0.072 0.0523
0.323̂ 0.2246
0.706̂ 0.6623
0.941 0.9238
1 1
Como vemos, el área que queda entre la curva y la diagonal es muy pequeña (el
ı́ndice de Gini nos indica que es menos de un 7 % del área del triángulo inferior),
por lo tanto hay muy poca concentración.
14. ¿Qué porcentaje de la masa salarial se reparten el 32.33 % de los trabajadores que
menos ganan?
Esta pregunta se puede responder con la tabla que hemos construido en el apartado
anterior ya que nos piden relacionar proporciones acumuladas de trabajadores (Pi )
y proporciones acumuladas de masa salarial (Qi ).
El 32.33 % de los trabajadores que menos ganan corresponden a Pi = 0.323̂, y a ellos
les corresponde una masa salarial acumulada de Qi = 0.2246, es decir, un 22.46 %
de la masa salarial total.
15. ¿Qué porcentaje de los trabajadores que menos ganan se reparten el 66.23 % de la
masa salarial?
Esta pregunta se responde de forma análoga a la anterior.
El 66.23 % de la masa salarial (Qi = 0.6623) corresponde a una proporción acumu-
lada de trabajadores Pi = 0.706̂, es decir, al 70.6̂ % de los trabajadores que menos
ganan.
50 TEMA D 1. ESTADÍSTICA DESCRIPTIVA UNIDIMENSIONAL
Parte II
Introducción a la Probabilidad y
variables aleatorias.
51
Tema P 1
Sucesos y Probabilidad
1.1. Introducción
En la mayorı́a de las situaciones con las que trabajaremos, vamos a tener que tomar
decisiones y sacar conclusiones aceptando un cierto riesgo, un cierto nivel de incertidumbre
que viene dado por el hecho de que en nuestro estudio no podemos predecir exactamente
el resultado de un experimento o no podemos realizarlo tantas veces como serı́a deseable.
Si lanzamos una moneda al aire (no trucada), no sabemos qué va a ocurrir. Sin em-
bargo, nos interesa poder describir cuál es el comportamiento de los resultados del expe-
rimento ((lanzar una moneda)).
53
54 TEMA P 1. SUCESOS Y PROBABILIDAD
El origen de la Probabilidad hay que buscarlo en el estudio de los juegos de azar. Los
jugadores querı́an saber si habı́a alguna ((regla)) o alguna reguladidad en el comportamiento
del juego que les permitiera conocerlo mejor, para poder ganar.
Nosotros vamos a abordar el estudio de la probabilidad desde el punto de vista
axiomático, según la teorı́a de Kolmogorov.
1.2. Sucesos
1.2.1. Definiciones
A los experimentos en los cuales no se puede predecir cuál va a ser el resultado, se les
denomina experimentos aleatorios, a cada uno de los posibles resultados del mismo se
le denomina suceso aleatorio ω.
Ejemplos:
Los sucesos elementales son los resultados más simples que se pueden obtener de
la realización de un experimento aleatorio.
Cada subconjunto del espacio muestral es un suceso y puede ser elemental o com-
puesto.
Ejemplo: si lanzamos un dado, A=sacar un 3 ={3} es un suceso elemental y B=sacar
un número mayor que 3 ={4, 5, 6} es un suceso compuesto.
Se debe hacer notar que un mismo experimento fı́sico puede dar lugar a distintos
espacios muestrales, dependiendo de la finalidad que se persiga.
Ejemplo: si lanzamos tres monedas al aire,
Llamaremos espacio de sucesos al conjunto de todos los sucesos que son resultados
posibles de un experimento y lo denotaremos como ℘(Ω)
Nota: si el número de sucesos elementales de un experimento aleatorio es igual a n,
entonces el número de sucesos posibles asociados a ese experimento es 2n .
Es decir, que si el tamaño del espacio muestral es n, el tamaño del espacio de sucesos
es 2n
Ejemplo: al lanzar un dado al aire, el número de resultados posibles es 6, que es
el tamaño del espacio muestral, mientras que el tamaño del espacio de sucesos es
26 = 64. El suceso ((número mayor que 4)) es un elemento del espacio de sucesos,
pero no es un suceso elemental.
Al suceso que ocurre siempre se le llama suceso seguro y coincide con el espacio
muestral.
Ejemplo: A =sacar un número del 1 al 6 al lanzar un dado=Ω.
56 TEMA P 1. SUCESOS Y PROBABILIDAD
Es decir: Ac = Ω − A
Las operaciones con sucesos son aplicaciones del tipo, f : ℘(Ω) × ℘(Ω) → ℘(Ω), es
decir que al operar con dos sucesos del espacio de sucesos, el resultado es otro suceso del
mismo espacio.
Entre los sucesos se pueden establecer las siguientes operaciones:
Unión de sucesos
Intersección de sucesos
Diferencia de sucesos
A − B = {3} y B − A = {2, 6}
A 4 B = (A ∪ B) − (A ∩ B)
A 4 B = {3, 2, 6}
Consecuencias
1. ∅c = Ω
2. Ωc = ∅
3. A ∪ Ac = Ω
1. Propiedades conmutativas: A ∪ B = B ∪ A y A ∩ B = B ∩ A
2. Propiedades asociativas: A ∪ (B ∪ C) = (A ∪ B) ∪ C y A ∩ (B ∩ C) = (A ∩ B) ∩ C
3. Propiedades de existencia de elemento neutro: A ∪ ∅ = A y A ∩ Ω = A
4. Propiedades distributivas:
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) y A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
5. Propiedades del complementario: A ∪ Ac = Ω y A ∩ Ac = ∅
Propiedades idempotentes: A ∪ A = A y A ∩ A = A
Propiedades de maximalidad y minimalidad: A ∪ Ω = Ω y A ∩ ∅ = ∅
Propiedad de involución: (Ac )c = A
Propiedad de simplificación: A ∪ (A ∩ B) = A y A ∩ (A ∪ B) = A
Leyes de Morgan: (A ∪ B)c = Ac ∩ B c y (A ∩ B)c = Ac ∪ B c
1.3. Probabilidad
a) Todo unos
c) Al menos un ((1))
SOLUCIÓN: Sabemos que Ω = {000, 001, 010, 011, 100, 101, 110, 111}
1
a) P {Todo unos} = P {111} = 8
2 1
b) P {El mismo valor en las tres posiciones} = P {000, 111} = 8
= 4
Ejercicio: Sean A y B dos sucesos para los que se sabe que P (A) = 0.2 y P (B) = 0.5.
Determina los posibles valores máximo y mı́nimo de P (A ∩ B) y las condiciones en las
cuales se consigue cada uno de esos valores.
Ω Ω
B B
A A
P(A∩B)=0 0<P(A∩B)<P(A)
B
A
P(A∩B)=P(A)=0.2
Ejercicio: Sean A y B dos sucesos para los que se sabe que P (A) = 0.4 y P (B) = 0.7.
Determina los posibles valores máximo y mı́nimo de P (A ∩ B) y las condiciones en las
cuales se consigue cada uno de esos valores.
En este caso no podemos aplicar lo mismo que antes, ya que obligatoriamente tiene
que haber intersercción entre los conjuntos:
Ω Ω
B A B A
Nos podemos plantear cuál será la probabilidad de cierto suceso B, sabiendo que ha
sucedido otro suceso A. Por ejemplo, se lanza un dado y nos dicen que el resultado es
impar ¿cuál es la probabilidad de que sea un 3? ¿modifica la información adicional la
probabilidad de que ocurra otro suceso?
Esta probabilidad se conoce como probabilidad condicionada, y se calcula de la
siguiente manera:
La probabilidad del segundo suceso, B, dado que conocemos que ha ocurrido el primer
suceso, A, o bien, la probabilidad del suceso B condicionado a que ha ocurrido el suceso
A es:
P (A ∩ B)
P (B|A) = , siendo P (A) > 0
P (A)
Ejemplo:
1
P (3 e impar) P (3) 6 1
P (3|impar) = = = 3 =
P (impar) P (impar) 6
3
Las propiedades de la probabilidad condicionada son las mismas que las vistas para
la probabilidad, salvo que ahora tenemos una condición:
Ejemplo: Tenemos una urna con 10 bolas marcadas con los dı́gitos del 0 al 9 y sacamos
5 bolas sin reposición ¿cuál es la probabilidad de que el número resultante sea 58462?
Solución:
Tenemos que considerar los siguientes sucesos:
A1 ≡ la primera bola es un 5
A2 ≡ la segunda bola es un 8
A3 ≡ la tercera bola es un 4
A4 ≡ la cuarta bola es un 6
A5 ≡ la quinta bola es un 2
Entonces:
1 1 1 1 1 1
P (A1 ∩A2 ∩A3 ∩A4 ∩A5 ) = P (A1 )P (A2 | A1 ) . . . P (A5 | A1 ∩A2 ∩A3 ∩A4 ) = . . . . =
10 9 8 7 6 30240
Diremos que dos sucesos son independientes cuando la ocurrencia del primero no
cambia la probabilidad de que ocurra el segundo.
P (A ∩ B) = P (A)P (B)
Si dos sucesos no son independientes (es decir, que no se cumple alguna de las condi-
ciones anteriores), diremos que son dependientes
En este caso:
Si P (A | B) > P (A), diremos que la ocurrencia de B favorece la ocurrencia de A
Si P (A | B) < P (A), diremos que la ocurrencia de B perjudica la ocurrencia de A
La generalización de la definición de independencia a n sucesos se puede escribir como
sigue:
n sucesos, A1 , . . . , An , diremos que son independientes si se verifican a la vez las
siguientes n − 1 condiciones:
P (Ai ∩ Aj ) = P (Ai )P (Aj ), ∀i 6= j
P (Ai ∩ Aj ∩ Ak ) = P (Ai )P (Aj )P (Ak ), ∀i 6= j 6= k, i 6= k
..
.
P (A ∩ A ∩ · · · ∩ A ) = P (A )P (A ) . . . P (A )
1 2 n 1 2 n
66 TEMA P 1. SUCESOS Y PROBABILIDAD
2
P (B ∩ H) =
15
Otra forma de comprobar la independencia: ¿P (H ∩ B) = P (H)P (B)?
2 5 6
P (H ∩ B) = = . = P (H)P (B)
15 15 15
Por lo tanto, son independientes.
Los dos teoremas que vamos a enunciar a continuación son de suma importancia en el
cálculo de probabilidades.
En un espacio muestral Ω, vamos a considerar un conjunto de sucesos A1 , . . . , An de
tal forma que:
Ω B
68 TEMA P 1. SUCESOS Y PROBABILIDAD
P (B | Aj )P (Aj ) P (B | Aj )P (Aj )
P (Aj | B) = = Pn
P (B) i=1 P (B | Ai )P (Ai )
2. Elegida una pieza al azar, resulta que es defectuosa ¿cuál es la máquina de la procede
más probablemente?
Solución:
4
Es un extracto de http://es.wikipedia.org/wiki/Thomas Bayes;
foto http://blogs.sas.com/content/jmp/files/2013/06/Thomas Bayes.gif
1.5. TEOREMA DE LA PROBABILIDAD TOTAL Y TEOREMA DE BAYES 69
2. Elegida una pieza al azar, resulta que es defectuosa ¿cuál es la máquina de la procede
más probablemente?
Para responder a esta pregunta tendremos que calcular las probabilidades ((a pos-
teriori)) de las tres máquinas y elegir aquella con mayor probabilidad. Usaremos el
teorema de Bayes:
Probabilidad de que la pieza provenga de la máquina 1 sabiendo que es defectuosa:
Variables aleatorias
Cuando realizamos un experimento, tenemos un espacio muestral (con todos los resul-
tados, sucesos elementales, posibles).
Una variable aleatoria, es una función que asocia a cada suceso elemental un número
perfectamente definido.
ζ : Ω −→ R
Es decir que: la variable aleatoria ζ=número de caras, es una función que asigna los
valores anteriores a los resultados:
ζ(c, c) = 2; ζ(c, x) = 1; ζ(x, c) = 1; ζ(x, x) = 0
Y podemos calcular la probabilidad de que la variable aleatoria tome cada uno de
estos valores:
1
Pζ (0) = P {ζ = 0} = P {(x, x)} = 4
2
Pζ (1) = P {ζ = 1} = P {(c, x), (x, c)} = 4
1
Pζ (2) = P {ζ = 2} = P {(c, c)} = 4
71
72 TEMA P 2. VARIABLES ALEATORIAS
e) De las viviendas con más de 2 habitaciones, proporción de las que tienen menos de
5.
Solución:
Solución:
0 ≤ F (x) ≤ 1, ∀x ∈ R
Para seguir con el análisis, debemos distinguir dos tipos variables aleatorias: las dis-
cretas y las continuas.
Llamaremos variable aleatoria discreta, a una variable aleatoria que toma valores
en un conjunto discreto (finito o numerable).
X
pi = 1, la suma de todas las probabilidades asociadas a los puntos de masa es
i
igual a 1
k
X
P (ζ ≤ xk ) = pi
i=1
p(2.5) = P (ζ = 2.5) = 0
Sabemos que F (x) = P (ζ ≤ x). Gráficamente, F (x) es el xárea encerrada bajo la curva
• La función de distribución es: F ( x) = P(ζ ≤ x) =
f (x), desde −∞ hasta x: −∞ ∫
f (t )dt
x2
•Como P ( x1 ≤P ζ(x1≤<x 2ζ) ≤
= xF2()x=2 )F−(x 1) = ∫
consecuencia,
Entonces: F2()x− F (x1 ) f (t )dt
x1
x2
• Entonces:
2.1. VARIABLES P ( x1 ≤ ζ ≤ xUNIDIMENSIONALES
ALEATORIAS 2 ) = F ( x 2 ) − F ( x1 ) =∫f (t )dt
x1
77
Solución:
1 2 1 2
x2 x2
Z Z
A= xdx + (2 − x)dx = + 2x −
0 1 2 0 2 1
1 1
A= + (4 − 2 − 2 + ) = 1
2 2
O bien geométricamente:
área total es la suma de las áreas de los 2 triángulos (A = base×2altura ):
1×1 1×1
A= + =1
2 2
Luego, sı́ es función de densidad.
este sentido, el valor esperado representa la cantidad de dinero promedio que el jugador
espera ganar o perder después de un gran número de partidas.
Supongamos el siguiente juego:
El jugador lanza un dado, y: si sale un 1 el jugador gana 1 euro, si sale un 2 gana 4
euros, si sale un 3 gana 5 euros, si sale un 4 no gana ni pierde nada, si sale un 5 pierde 2
euros y si sale un 6 pierde 6 euros.
Vamos a calcular el valor esperado de las ganancias o pérdidas en el juego:
La variable aleatoria ganancias en el juego toma los valores {-6, -2, 0, 1, 4, 5}, y como
los valores del dado son equiprobables, la probabilidad de cada uno de estos valores es
1/6.
Valor del dado 1 2 3 4 5 6
Probabilidad 1/6 1/6 1/6 1/6 1/6 1/6
Ganancia 1 4 5 0 -2 -6
Entonces, la ganancia esperada, después de un número grande de partidas, se obtiene
sumando los productos de cada valor de la ganancia por la probabilidad de obtenerla. Es
decir, en este juego:
Ganancia esperada=1 × 16 + 4 × 16 + 5 × 61 + 0 × 16 + (−2) × 61 + (−6) × 16 = 2 × 61 = 31 = 0.3̂ euros
La ganancia esperada puede ser positiva, negativa o cero; en el primer caso diremos
que el juego es favorable al jugador, en el segundo que es un juego desfavorable y si la
ganancia esperada es cero diremos que es un juego justo.
Es importante destacar que el valor de la esperanza no tiene por qué ser un valor
posible de la variable, lo que significa que una variable aleatoria puede que nunca tome el
valor de su esperanza.
Este concepto también se utiliza en situaciones que nada tienen que ver con los juegos
de azar, ası́ podemos hablar de la esperanza de vida de las mujeres o del tiempo esperado
de permanencia en una consulta. Estos valores esperados hay que interpretarlos como un
promedio y no se pueden aplicar a un individuo en particular.
Si trasladamos este concepto a las variables aleatorias, podemos interpretar la es-
peranza matemática de una variable aleatoria, como su promedio o valor esperado,
después de realizar un gran número de pruebas del experimento al que está asociada, de
modo que tenemos la siguiente definición:
Si consideramos una variable aleatoria de tipo discreto, ζ, con función de probabilidad
pi = P (ζ = xi ), para todo i = 1, . . . n, entonces definimos la esperanza matemática, o
valor esperado, o media de ζ, como:
Xn
E[ζ] = µ = xi p i
i=1
media de ζ, como: Z ∞
E[ζ] = µ = xf (x)dx
−∞
Nota: la media es una medida de posición central de la variable aleatoria, por lo que
es un valor que nos permitirá resumir o representar al resto de los valores de la variable
aleatoria.
La esperanza matemática verifica una serie de PROPIEDADES interesantes:
(ζ, ζ1 , . . . , ζn , variables aleatorias)
6. Si ζ1 ≤ ζ2 ⇒ E[ζ1 ] ≤ E[ζ2 ]
Nota: Si ζ1 , . . . , ζn son variables aleatorias, que tienen la misma media (µ), se verifica
que:
X X
Var(ζ) = σ 2 = (xi − µ)2 pi = x2i pi − µ2
i i
1. Var(ζ) ≥ 0
(que depende sólo de una constante) de la probabilidad de que una variable aleatoria, de
media y varianza conocidas (µ y σ 2 , respectivamente), tome valores fuera del intervalo
[µ − k.σ, µ + k.σ].
Formalmente, la desigualdad de Chebyshev dice que:
((Si µ y σ son la media y la desviación tı́pica de una variable aleatoria ζ, entonces,
para cualquier constante positiva k, la probabilidad de que la variable aleatoria
tome valores que se alejen de la media en más de k desviaciones tı́picas, es
1
menor que 2 ))
k
1
P {|ζ − µ| ≥ kσ} ≤ 2
k
1
O lo que es lo mismo: P {|ζ − µ| ≤ kσ} ≥ 1 −
k2
Gráficamente:
1
P{µ−kσ< ζ <µ+kσ}≥ 1- k2
µ−kσ µ µ+kσ
σ2
P {|ζ − µ| ≤ k} ≥ 1 −
k2
Esta segunda forma, es más útil para la resolución de la mayorı́a de los problemas.
Veamos algunos ejemplos prácticos de esta desigualdad:
Ejemplo 1: La cantidad gastada mensualmente por las familias en artı́culos de primera
necesidad es, por término medio de 720 e, con una desviación tı́pica de 60 e, ¿Cuál es el
porcentaje mı́nimo de familias que tienen un gasto mensual entre 600 y 840 e?
Solución:
Sabemos que la variable aleatoria ζ =gasto tiene µ = 720 y σ = 60
Para calcular el porcentaje, calcularemos la probabilidad y luego multiplicamos por
100.
Como no conocemos la distribución de la variable, no vamos a poder calcular exacta-
mente la probabilidad, pero como la media y la varianza son conocidas, podemos acotarla:
P {gasto entre 600 y 840e} = P {600 < ζ < 840} =
restando la media:
2.3. LA DESIGUALDAD DE CHEBYSHEV 83
n−µ
Si aplicamos la desigualdad de Chebyshev, considerando que n − µ = kσ (k = σ
)
1 1
≥1− =1− n−µ 2
≥ 0.95
k2
σ
Entonces:
1 σ2
1− ≥ 0.95 ⇔ 1 −
n−µ 2
≥ 0.95
(n − µ)2
σ
r
144 144
⇔ 0.05 ≥ ⇔ n ≥ 137 + ⇔ n ≥ 191
(n − 137)2 0.05
σ2 σ2
≥1− = 1 − ≥ 0.95 y llegamos a que n ≥ 191
k2 (n − µ)2
Ejemplo:
84 TEMA P 2. VARIABLES ALEATORIAS
x
k(2 − 100
) , si 0 ≤ x ≤ 100
k , si 100 ≤ x ≤ 200
f (x) = x
k(3 − 100
) , si 200 ≤ x ≤ 300
0 , en el resto
Solución:
100k 1
200k + 2 = 300k = 1 ⇒ k =
2 300
2.3. LA DESIGUALDAD DE CHEBYSHEV 85
Si x < 0 : F (x) = 0
Si 0 ≤ x < 100:
Z x x
t2 x2
1 t 1 1
F (x) = 2− dt = 2t − = 2x −
300 0 100 300 200 0 300 200
1 150 1
F (100) = (200 − 50) = =
300 300 2
Si 100 ≤ x < 200:Z
x
1 1 1 1 x 1 1
F (x) = + dt = + [t]100 = + (x − 100)
2 300 100 2 300 2 300
1 1 1 1 5
F (200) = + (200 − 100) = + =
2 300 2 3 6
Si 200 ≤ x < 300:Z x
x
t2
5 1 t 5 1
F (x) = + 3− dt = + 3t − =
6 300 200 100 6 300 200 200
x2 x2
5 1 5 1
= + 3x − − 600 + 200 = + 3x − − 400
6 300 200 6 300 200
5 1 5 50 5 1
F (300) = + (900 − 450 − 400) = + = + =1
6 300 6 300 6 6
Si x ≥ 300 : F (x) = 1
485000
σ2 81 97
P {|x − µ| > 200 − µ} < 2
= 2 =
(200 − µ) 200 − 9 1000 128
97
P {x > 200} < P {|x − µ| > 200 − µ} < = 0.7578125
128
1 97
La verdadera probabilidad P {x > 200} = que, efectivamente, es menor que .
6 128
ζ2 y1 y2 ... yj ... ym
ζ1
x1 p11 p12 ... p1j ... p1m
x2 p21 p22 ... p2j ... p2m
.. .. .. .. .. .. ..
. . . . . . .
xi pi1 pi2 ... pij ... pim
.. .. .. .. .. .. ..
. . . . . . .
xn pn1 pn2 ... pnj ... pnm
Para una variable bidimensional discreta (ζ1 , ζ2 ), las distribuciones marginales son
las distribuciones de las variables aleatorias unidimensionales ζ1 y ζ2 . Además, en el caso
de las variables aleatorias de tipo discreto, las funciones de probabilidad marginal son:
X
Para ζ1 : pi• = P {ζ1 = xi } = pij
j
X
Para ζ2 : p•j = P {ζ2 = yj } = pij
i
P {ζ1 = xi , ζ2 = yj } pij
Para ζ1 conocida ζ2 : P {ζ1 = xi | ζ2 = yj } = =
P {ζ2 = yj } p•j
P {ζ1 = xi , ζ2 = yj } pij
Para ζ2 conocida ζ1 : P {ζ2 = yj | ζ1 = xi } = =
P {ζ1 = xi } pi•
En esta sección vamos a intentar medir, de alguna forma, si hay relación entre dos
variables.
Para ello vamos a comenzar definiendo una medida, la covarianza, que nos permite
saber si existe ((covariación o variación conjunta)) entre ambas.
Para una variable bidimensional (ζ1 , ζ2 ), llamaremos covarianza entre ζ1 y ζ2 al valor:
XX
Cov(ζ1 , ζ2 ) = σ12 = (xi − µ1 )(yj − µ2 )pij
i j
Notación:
Dada una variable bidimensional (ζ1 , ζ2 ), llamaremos:
Vector de medias:
→
− µ1 E[ζ1 ]
µ = =
µ2 E[ζ2 ]
Matriz de varianzas-covarianzas:
2
σ1 σ12 V ar(ζ1 ) Cov(ζ1 , ζ2 )
Σ= =
σ21 σ22 Cov(ζ1 , ζ2 ) V ar(ζ2 )
Para medir el grado de relación lineal entre dos variables aleatorias usaremos el co-
eficiente de correlación lineal, que se calcula como:
Cov(ζ1 , ζ2 ) σ12
Corr(ζ1 , ζ2 ) = ρ12 = p =
V ar(ζ1 ).V ar(ζ2 ) σ1 σ2
−1 ≤ ρ ≤ 1
Demostración:
90 TEMA P 2. VARIABLES ALEATORIAS
ρ2 ≥ 0, porque es un cuadrado
Notas:
Diremos que dos variables aleatorias están incorreladas si no tienen relación lineal,
o lo que es lo mismo, si su covarianza es cero.
Diremos que dos variables aleatorias están correladas si tienen relación lineal, o lo
que es lo mismo, si su covarianza es distinta de cero.
PROPIEDADES:
Problema:
En la tabla siguiente se presenta la función de probabilidad conjunta que relaciona el
número de semanas de experiencia en un trabajo de instalación de cables de componentes
electrónicos (ζ1 ) y el número de componentes que le rechazaron el dı́a anterior (ζ2 ) para
un conjunto de trabajadores.
ζ2 0 1 2 4 5
ζ1
2 0 0 k 2k k
3 0 2k 2k k k
4 6k 3k k 0 0
Obtén:
1. El valor de k
5. El vector de medias
9. ¿Se puede decir que ζ1 y ζ2 tienen relación lineal? En caso afirmativo, ¿creciente o
decreciente?, ¿débil o fuerte?
Solución:
1. El valor de k
Si lo que contiene la tabla es una función de probabilidad, las probabilidades que
nos dan tienen que ser todas no negativas y su suma debe ser uno (1). Por lo tanto:
1
20k = 1 → k = = 0.05
20
ζ2 0 1 2 4 5 pi.
ζ1
1 2 1 4
2 0 0 20 20 20 20
= 0.2
2 2 1 1 6
3 0 20 20 20 20 20
= 0.3
6 3 1 10
4 20 20 20
0 0 20
= 0.5
6 5 4 3 2 20
p.j 20
= 0.3 20
= 0.25 20
= 0.2 20
= 0.15 20
= 0.1 20
=1
5. El vector de medias
Calculamos las esperanzas de ambas variables:
P
µ1 = E[ζ1 ] = xi pi. = 2 ∗ 0.2 + 3 ∗ 0.3 + 4 ∗ 0.5 = 3.3
P
µ2 = E[ζ2 ] = yj p.j = 0 ∗ 0.3 + 1 ∗ 0.25 + 2 ∗ 0.2 + 4 ∗ 0.15 + 5 ∗ 0.1 = 1.75
µ1 3.3
Luego: µ = =
µ2 1.75
1 30+45+20 95
E[ζ1 ζ2 ] = 20
{2(2 + 8 + 5) + 3(2 + 4 + 4 + 5) + 4(0 + 3 + 2)} = 20
= 20
= 4.75
Cov(ζ1 , ζ2 ) −1.025
ρ= p =√ = −0.7723
V ar(ζ1 )V ar(ζ2 ) 0.61 ∗ 2.8875
Por lo tanto:
Sı́ hay relación lineal, porque el coeficiente es distinto de cero (la covarianza
es distinta de cero)
94 TEMA P 2. VARIABLES ALEATORIAS
Algunas variables aleatorias nos interesan porque reflejan con bastante fidelidad el
comportamiento teórico de muchos fenómenos que aparecen en la naturaleza y hay otras
que por su construcción o por sus propiedades, son esenciales en el desarrollo de la infe-
rencia estadı́stica.
En este tema vamos a estudiar algunas de ellas y sus caracterı́sticas.
Distribución Bernoulli
P {ζ = 0} = q = 1 − p
P {ζ = 1} = p
95
96 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
El nombre Bernouilli está asociado una familia de sabios suizos que sobresalieron por sus apor-
taciones a las matemáticas y la fı́sica.
Jamás ha habido una familia de cientı́ficos que haya aportado tanto como ellos.
La familia de Jacobo Bernouilli procedı́a de la ciudad de Francfort del Main donde se habı́an visto
obligados a refugiarse huyendo de las persecuciones religiosas de la ciudad de Amberes durante
la segunda mitad del siglo XVI.
Un descendiente suyo, Nicolas Bernouilli, decidió en 1583 trasladarse a Basilea donde nació Ni-
kolaus que llegó a gozar de cierto prestigio en la ciudad.
1
Información extraida de http://www.divulgamat.net ; http://es.wikipedia.org/wiki/Jakob Bernoulli;
http://www.estadisticaparatodos.es/bibliografias/bernouilli.html
3.1. LA DISTRIBUCIÓN BINOMIAL 97
PROPIEDADES:
Una variable aleatoria ζ, de Bernoulli, con probabilidad de éxito p, tiene las siguientes
propiedades:
0 , si x < 0
1. La función de distribución de ζ es: F (x) = q , si 0 ≤ x < 1
1 , si x ≥ 1
2. E[ζ] = p
3. V ar(ζ) = p.q
Distribución Binomial
Supongamos que lanzamos un dado 5 veces y contamos las veces que aparece un ((1)).
¿Cuál es la probabilidad de que aparezcan tres unos?
Este es el tı́pico ejemplo de una distribución Binomial ya que estamos repitiendo 5
veces el experimento de lanzar un dado.
Por otra parte, nuestro ((éxito)) será ((sacar un 1)), mientras que consideraremos ((fracaso))
a cualquier otro resultado.
En cualquiera de los lanzamientos, la probabilidad de ((éxito)) (sacar un 1) es indepen-
diente de lo que haya salido en la tirada anterior.
Por último, en todos los lanzamientos, la probabilidad de ((éxito)) (sacar un 1) es
siempre la misma:
1
Como ((éxito))= E =((sacar un 1)) ⇒ P (E) =
6
5
Y por lo tanto: ((fracaso))= F =((no sacar un 1)) ⇒ P (F ) =
6
98 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Se pide la probabilidad de que aparezcan tres unos, por lo tanto, como lanzamos el
dado 5 veces buscamos la probabilidad de obtener 3 éxitos y 2 fracasos.
Esta combinación de éxitos y fracasos se puede
obtener de muchas formas diferentes:
5 5!
EEEFF, EEFFE, . . . , FFEEE. En total hay = = 10, formas posibles.
3 3!2!
Por lo tanto, como los intentos (5) son independientes entre sı́, tenemos que:
11155
P (tres unos) = P (tres éxitos y 2 fracasos) = 10 = 0.03215
66666
1
X ∼ B 5, P (X = 3) = 0.03215
6
Cuando n es pequeño (menor o igual que 10), estas probabilidades están tabuladas
para los casos más habituales.
Veamos cómo usar la tabla de la binomial
Si la observamos, veremos que en la primera columna está n, que es el número de veces
que se repite el experimento. En la segunda columna está k, que es el número de éxitos
posibles asociado a cada valor de n. Las probabilidades tabuladas (que no son todas) las
buscamos en la segunda fila y veremos valores entre 0.01 y 0.5.
3.1. LA DISTRIBUCIÓN BINOMIAL 99
3.3. LA DISTRIBUCIÓN BINOMIAL 65
p
0.01 0.05 0.1 0.15 0.2 0.25 0.3 1/3 0.35 0.4 0.45 0.5
n k
2 0 0.9801 0.9025 0.8100 0.7225 0.6400 0.5625 0.4900 0.4444 0.4225 0.3600 0.3025 0.2500
2 1 0.0198 0.0950 0.1800 0.2550 0.3200 0.3750 0.4200 0.4444 0.4550 0.4800 0.4950 0.5000
2 2 0.0001 0.0025 0.0100 0.0225 0.0400 0.0625 0.0900 0.1111 0.1225 0.1600 0.2025 0.2500
3 0 0.9703 0.8574 0.7290 0.6141 0.5120 0.4219 0.3430 0.2963 0.2746 0.2160 0.1664 0.1250
3 1 0.0294 0.1354 0.2430 0.3251 0.3840 0.4219 0.4410 0.4444 0.4436 0.4320 0.4084 0.3750
3 2 0.0003 0.0071 0.0270 0.0574 0.0960 0.1406 0.1890 0.2222 0.2389 0.2880 0.3341 0.3750
3 3 0.0000 0.0001 0.0010 0.0034 0.0080 0.0156 0.0270 0.0370 0.0429 0.0640 0.0911 0.1250
4 0 0.9606 0.8145 0.6561 0.5220 0.4096 0.3164 0.2401 0.1975 0.1785 0.1296 0.0915 0.0625
4 1 0.0388 0.1715 0.2916 0.3685 0.4096 0.4219 0.4116 0.3951 0.3845 0.3456 0.2995 0.2500
4 2 0.0006 0.0135 0.0486 0.0975 0.1536 0.2109 0.2646 0.2963 0.3105 0.3456 0.3675 0.3750
4 3 0.0000 0.0005 0.0036 0.0115 0.0256 0.0469 0.0756 0.0988 0.1115 0.1536 0.2005 0.2500
4 4 0.0000 0.0000 0.0001 0.0005 0.0016 0.0039 0.0081 0.0123 0.0150 0.0256 0.0410 0.0625
5 0 0.9510 0.7738 0.5905 0.4437 0.3277 0.2373 0.1681 0.1317 0.1160 0.0778 0.0503 0.0313
5 1 0.0480 0.2036 0.3281 0.3915 0.4096 0.3955 0.3602 0.3292 0.3124 0.2592 0.2059 0.1563
5 2 0.0010 0.0214 0.0729 0.1382 0.2048 0.2637 0.3087 0.3292 0.3364 0.3456 0.3369 0.3125
5 3 0.0000 0.0011 0.0081 0.0244 0.0512 0.0879 0.1323 0.1646 0.1811 0.2304 0.2757 0.3125
5 4 0.0000 0.0000 0.0005 0.0022 0.0064 0.0146 0.0284 0.0412 0.0488 0.0768 0.1128 0.1563
5 5 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0024 0.0041 0.0053 0.0102 0.0185 0.0313
6 0 0.9415 0.7351 0.5314 0.3771 0.2621 0.1780 0.1176 0.0878 0.0754 0.0467 0.0277 0.0156
6 1 0.0571 0.2321 0.3543 0.3993 0.3932 0.3560 0.3025 0.2634 0.2437 0.1866 0.1359 0.0938
6 2 0.0014 0.0305 0.0984 0.1762 0.2458 0.2966 0.3241 0.3292 0.3280 0.3110 0.2780 0.2344
6 3 0.0000 0.0021 0.0146 0.0415 0.0819 0.1318 0.1852 0.2195 0.2355 0.2765 0.3032 0.3125
6 4 0.0000 0.0001 0.0012 0.0055 0.0154 0.0330 0.0595 0.0823 0.0951 0.1382 0.1861 0.2344
6 5 0.0000 0.0000 0.0001 0.0004 0.0015 0.0044 0.0102 0.0165 0.0205 0.0369 0.0609 0.0938
6 6 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0007 0.0014 0.0018 0.0041 0.0083 0.0156
7 0 0.9321 0.6983 0.4783 0.3206 0.2097 0.1335 0.0824 0.0585 0.0490 0.0280 0.0152 0.0078
7 1 0.0659 0.2573 0.3720 0.3960 0.3670 0.3115 0.2471 0.2048 0.1848 0.1306 0.0872 0.0547
7 2 0.0020 0.0406 0.1240 0.2097 0.2753 0.3115 0.3177 0.3073 0.2985 0.2613 0.2140 0.1641
7 3 0.0000 0.0036 0.0230 0.0617 0.1147 0.1730 0.2269 0.2561 0.2679 0.2903 0.2918 0.2734
7 4 0.0000 0.0002 0.0026 0.0109 0.0287 0.0577 0.0972 0.1280 0.1442 0.1935 0.2388 0.2734
7 5 0.0000 0.0000 0.0002 0.0012 0.0043 0.0115 0.0250 0.0384 0.0466 0.0774 0.1172 0.1641
7 6 0.0000 0.0000 0.0000 0.0001 0.0004 0.0013 0.0036 0.0064 0.0084 0.0172 0.0320 0.0547
7 7 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0005 0.0006 0.0016 0.0037 0.0078
8 0 0.9227 0.6634 0.4305 0.2725 0.1678 0.1001 0.0576 0.0390 0.0319 0.0168 0.0084 0.0039
8 1 0.0746 0.2793 0.3826 0.3847 0.3355 0.2670 0.1977 0.1561 0.1373 0.0896 0.0548 0.0313
8 2 0.0026 0.0515 0.1488 0.2376 0.2936 0.3115 0.2965 0.2731 0.2587 0.2090 0.1569 0.1094
8 3 0.0001 0.0054 0.0331 0.0839 0.1468 0.2076 0.2541 0.2731 0.2786 0.2787 0.2568 0.2188
8 4 0.0000 0.0004 0.0046 0.0185 0.0459 0.0865 0.1361 0.1707 0.1875 0.2322 0.2627 0.2734
8 5 0.0000 0.0000 0.0004 0.0026 0.0092 0.0231 0.0467 0.0683 0.0808 0.1239 0.1719 0.2188
8 6 0.0000 0.0000 0.0000 0.0002 0.0011 0.0038 0.0100 0.0171 0.0217 0.0413 0.0703 0.1094
8 7 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0012 0.0024 0.0033 0.0079 0.0164 0.0313
8 8 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0002 0.0007 0.0017 0.0039
9 0 0.9135 0.6302 0.3874 0.2316 0.1342 0.0751 0.0404 0.0260 0.0207 0.0101 0.0046 0.0020
9 1 0.0830 0.2985 0.3874 0.3679 0.3020 0.2253 0.1556 0.1171 0.1004 0.0605 0.0339 0.0176
9 2 0.0034 0.0629 0.1722 0.2597 0.3020 0.3003 0.2668 0.2341 0.2162 0.1612 0.1110 0.0703
9 3 0.0001 0.0077 0.0446 0.1069 0.1762 0.2336 0.2668 0.2731 0.2716 0.2508 0.2119 0.1641
9 4 0.0000 0.0006 0.0074 0.0283 0.0661 0.1168 0.1715 0.2048 0.2194 0.2508 0.2600 0.2461
9 5 0.0000 0.0000 0.0008 0.0050 0.0165 0.0389 0.0735 0.1024 0.1181 0.1672 0.2128 0.2461
9 6 0.0000 0.0000 0.0001 0.0006 0.0028 0.0087 0.0210 0.0341 0.0424 0.0743 0.1160 0.1641
9 7 0.0000 0.0000 0.0000 0.0000 0.0003 0.0012 0.0039 0.0073 0.0098 0.0212 0.0407 0.0703
9 8 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0009 0.0013 0.0035 0.0083 0.0176
9 9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0001 0.0003 0.0008 0.0020
10 0 0.9044 0.5987 0.3487 0.1969 0.1074 0.0563 0.0282 0.0173 0.0135 0.0060 0.0025 0.0010
10 1 0.0914 0.3151 0.3874 0.3474 0.2684 0.1877 0.1211 0.0867 0.0725 0.0403 0.0207 0.0098
10 2 0.0042 0.0746 0.1937 0.2759 0.3020 0.2816 0.2335 0.1951 0.1757 0.1209 0.0763 0.0439
10 3 0.0001 0.0105 0.0574 0.1298 0.2013 0.2503 0.2668 0.2601 0.2522 0.2150 0.1665 0.1172
10 4 0.0000 0.0010 0.0112 0.0401 0.0881 0.1460 0.2001 0.2276 0.2377 0.2508 0.2384 0.2051
10 5 0.0000 0.0001 0.0015 0.0085 0.0264 0.0584 0.1029 0.1366 0.1536 0.2007 0.2340 0.2461
10 6 0.0000 0.0000 0.0001 0.0012 0.0055 0.0162 0.0368 0.0569 0.0689 0.1115 0.1596 0.2051
10 7 0.0000 0.0000 0.0000 0.0001 0.0008 0.0031 0.0090 0.0163 0.0212 0.0425 0.0746 0.1172
10 8 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0014 0.0030 0.0043 0.0106 0.0229 0.0439
10 9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0005 0.0016 0.0042 0.0098
10 10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010
Ası́, si tenemos una B(6, 0.35) (repetimos un experimento 6 veces con probabilidad de
éxito, en cada repetición, de 0.35), entonces, si queremos saber ¿cuál es la probabilidad
de obtener 4 éxitos?
Importante, como podemos observar, el caso de que p > 0.5 no está tabulado. Esto
es normal ya que si p > 0.5 eso significa que q < 0.5 y estará en las tablas.
En este caso, como elegimos 8 dı́as, tenemos una B(8, 0.75), y queremos calcular la
probabilidad de que el número de éxitos sea igual a 5: P (X = 5).
Esta probabilidad no la podemos buscar en las tablas ya que la probabilidad de éxito
es mayor que 0.5, ¿cómo lo resolvemos?
La solución es sencilla. Si la probabilidad de éxito es p > 0.5, eso significa que la
probabilidad de fracaso es q = 1 − p < 0.5, entonces:
Que llueva 5 de los 8 dı́as, es lo mismo que decir que que no llueva 3 de los 8 dı́as, y
la probabilidad de que no llueva es q = 1 − 0.75 = 0.25
Por lo tanto, queremos calcular la probabilidad de que el número de fracasos sea igual
a 3: P (Y = 3), para una B(8, 0.25), y esto sı́ está en las tablas: P (Y = 3) = 0.2076
Sin embargo, si la probabilidad de lluvia hubiese sido 0.73, no podrı́amos utilizar las
tablas de ninguna forma, y tendrı́amos que haber hecho los cálculos directamente:
Si tenemos una B(8, 0.73), y queremos calcular la probabilidad de que el número de
éxitos sea igual a 5: P (X = 5), aplicamos la fórmula:
8 5 (8−5) 8
P (X = 5) = 0.73 (1 − 0.73) = 0.735 0.273 = 0.2285
5 5
3.1. LA DISTRIBUCIÓN BINOMIAL 101
1. Probabilidad de que 10 de ellos resuelvan los ejercicios antes del último dı́a.
2. Probabilidad de que al menos 3 de ellos resuelvan los ejercicios antes del último dı́a.
3. Probabilidad de que entre 8 y 12 estudiantes (ambos inclusive), resuelvan los ejer-
cicios antes del último dı́a.
Si llamamos éxito a ((el estudiante resuelve los ejercicios antes del último dı́a)), estamos
ante una B(20, 0.6).
Como el número de repeticiones del experimento es mayor que 10, las probabilidades
no están tabuladas y por lo tanto tendremos que calcularlas en todos los casos.
Entonces:
1. Probabilidad de que 10 estudiantes resuelvan los ejercicios antes del último dı́a.
20
P (X = 10) = 0.610 0.410 = 184756 × 0.610 × 410 = 0.117
10
2. Probabilidad de que al menos 3 estudiantes resuelvan los ejercicios antes del último
dı́a.
P (X ≥ 3) = P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6) + · · · + P (X = 20)
Una opción es calcular estas 18 probabilidades y sumarlas, y otra más sencilla es
pasar al complementario:
P (X ≥ 3) = 1 − P (X < 3)
como estamos trabajando con una distribución discreta:
P (X < 3) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
y sólo tenemos que calcular estas tres probabilidades.
20
P (X = 0) = 0.60 0.420 = 1 × 1 × (1.1 × 10−8) ≈ 0
0
20
P (X = 1) = 0.61 0.419 = 20 × 0.6 × (2.75 × 10−8) = 3.3 × 10−7 = 0.00000033
1
20
P (X = 2) = 0.62 0.418 = 190 × 0.62 × 0.418 = 4.7 × 10−6 = 0.0000047
2
entonces:
P (X ≥ 3) = 1−P (X < 3) = 1−(0+0.00000033+0.0000047) = 1−(5.03×10−6 ) = 0.99999497
102 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Una variable aleatoria con distribución Binomial, ζ ∼ B(n, p), tiene las siguientes
PROPIEDADES:
E[ζ] = n.p
V ar(ζ) = n.p.q
ζ1 + ζ2 + · · · + ζn ∼ B(n, p)
ζ = ζ1 + ζ2 ∼ B(n1 + n2 , p)
0,
x−a
si x < a
F (x) = P {ζ < x} = , si a ≤ x ≤ b
b−a
1, si x > b
a+b
Su media es: E[ζ] =
2
(b − a)2
Su varianza es: V ar(ζ) =
12
Se dice que algo es normal, cuando se encuentra en su estado natural, cuando sirve de
norma o regla, o cuando por su naturaleza, forma o magnitud se ajusta a ciertas normas
fijadas de antemano.
Y ¿qué tiene que ver esto con la Estadı́stica?, pues mucho más de lo que parece.
Cuando estudiamos una caracterı́stica de una población, nos interesa saber si los va-
lores observados son normales, es decir, si el comportamiento de nuestra variable, en la
población analizada, es normal, es el esperado o el que cabrı́a esperar, o si, por el contrario,
la variable presenta un comportamiento anómalo.
Si pensamos en la altura o el peso de los hombres adultos de una determinada po-
blación, podemos observar que hay unos determinados valores que nos pueden parecer
normales (175 cm, 80 kg), y que nos lo parecen ası́ porque son los más habituales, los
que aparecen con mayor frecuencia, mientras que los valores alejados de estos, tanto por
exceso como por defecto ya no se consideran normales (225 cm, 40 kg) y si aparecen lo
hacen con una frecuencia muy pequeña. En general, lo normal, se encuentra cerca del
valor medio y es lo más frecuente.
Esta idea la plasmó Gauss en una curva llamada curva Normal, cuya formulación
matemática es la siguiente:
1 (x−µ)2
f (x) = √ e− 2σ2
σ 2π
donde:
104 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Diremos que una variable aleatoria ζ, tiene una distribución Normal, si su función
de densidad es:
f (x) = √ e− 2σ2 , ∀x ∈ R
1 (x−µ)2
σ 2π
Donde: µ = E[ζ] y σ 2 = V ar(ζ)
Los parámetros de esta distribución son µ y σ, es decir, la esperanza y la desviación
2
Información extraida de http://es.wikipedia.org/wiki/Carl Friedrich Gauss;
http://www.estadisticaparatodos.es/bibliografias/gauss.html
3.3. LA DISTRIBUCIÓN NORMAL 105
tı́pica de la variable aleatoria; esto significa que, para cada par de valores (µ, σ) tenemos
una función de densidad distinta.
Entonces, si una variable aleatoria tiene distribución Normal de parámetros µ y σ, lo
denotaremos por: ζ ∼ N (µ, σ).
Además esta curva tiene otras propiedades que, aunque se intuyen, no se ven a
simple vista y que vamos a comentar:
6. Existe una relación muy interesante entre la media y la desviación tı́pica: ((la pro-
porción de datos que se encuentran entre la media y la media más una desviación
tı́pica es de 0.3413 )) (aproximadamente un tercio).
106 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
a
√ e− 2σ2 dx, ∀x ∈ R
1
Z
(x−µ)2
F (a) = P {ζ < a} =
−∞ σ 2π
3.3. LA DISTRIBUCIÓN NORMAL 107
Pues bien, lo que haremos será tipificar cualquier variable ζ ∼ N (µ, σ) , trans-
formándola en una Z ∼ N (0, 1), y utilizar una única tabla correspondiente a esta variable.
Entonces, para calcular probabilidades de cualquier variable aleatoria con distribución
Normal, ζ ∼ N (µ, σ) , haremos lo siguiente:
P {ζ ≤ a} = P { ζ−µ
σ
≤ a−µ
σ
} = P {Z ≤ a−µ
σ
}
P {ζ ≥ b} = P { ζ−µ
σ
≥ b−µ
σ
} = P {Z ≥ b−µ
σ
}
P {a ≤ ζ ≤ b} = P { ζ−µ
σ
≤ a−µ
σ
} = P { a−µ
σ
≤Z≤ b−µ
σ
}
1 x2
La función de densidad de la Z ∼ N (0, 1) es: f (x) = √ e− 2 , ∀x ∈ R y la función
2π
de distribución (su integral) está tabulada.
Tabla de la N (0, 1):
x2 2
1 1 x2
PZ
PzZ z e e2 dx dx
108 TEMA P 3. MODELOS2 2z z DE VARIABLES ALEATORIAS UNIDIMENSIONALES
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
z 0.0 0.000.5000 0.01
0.4960 0.02
0.4920 0.03
0.4880 0.04
0.4840 0.05
0.4801 0.06 0.4721
0.4761 0.07 0.46810.080.4641 0.09
0.0 0.10.5000
0.46020.4960
0.4562 0.4920
0.4522 0.4880
0.4483 0.4840
0.4443 0.4801
0.4404 0.4761 0.4325
0.4364 0.47210.4286
0.46810.42470.4641
0.1 0.20.4602
0.42070.4562
0.4168 0.4522
0.4129 0.4483
0.4090 0.4443
0.4052 0.4404
0.4013 0.4364 0.3936
0.3974 0.43250.3897
0.42860.38590.4247
0.2 0.30.4207
0.38210.4168
0.3783 0.4129
0.3745 0.4090
0.3707 0.4052
0.3669 0.4013
0.3632 0.3974 0.3557
0.3594 0.39360.3520
0.38970.34830.3859
0.3 0.34460.3783
0.40.3821 0.3409 0.3745
0.3372 0.3336
0.3707 0.3300
0.3669 0.3264
0.3632 0.3228
0.3594 0.3192
0.35570.3156
0.35200.31210.3483
0.4 0.50.3446 0.3409 0.3372
0.3085 0.3050 0.3015 0.3336
0.2981 0.3300
0.2946 0.3264
0.2912 0.3228 0.2843
0.2877 0.31920.2810
0.3156
0.27760.3121
0.2743 0.2709 0.2676
0.60.3085 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.5 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.2420 0.2389 0.2358
0.70.2743 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.6 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.7 0.2420
0.18410.2389
0.1814 0.2358
0.1788 0.2327
0.1762 0.2296
0.1736 0.2266
0.1711 0.2236 0.1660
0.1685 0.22060.1635
0.2177
0.16110.2148
0.9
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.1587 0.1562
1.00.1841 0.1814 0.1788 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
0.9 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.0 0.11510.1562
1.20.1587 0.1131 0.1539
0.1112 0.1093
0.1515 0.1075
0.1492 0.1056
0.1469 0.1038
0.1446 0.1020
0.14230.1003 0.09850.1379
0.1401
1.1 0.09680.1335
1.30.1357 0.0951 0.1314
0.0934 0.0918
0.1292 0.0901
0.1271 0.0885
0.1251 0.0869 0.0853 0.0838
0.1230 0.1210 0.1190 0.08230.1170
0.08080.1131
1.40.1151 0.0793 0.1112
0.0778 0.0764
0.1093 0.0749
0.1075 0.0735
0.1056 0.0721
0.1038 0.0708
0.10200.0694 0.06810.0985
0.1003
1.2
1.3 1.50.0968
0.06680.0951
0.0655 0.0934
0.0643 0.0918
0.0630 0.0901
0.0618 0.0885
0.0606 0.0869 0.0582
0.0594 0.08530.0571
0.0838
0.05590.0823
1.4 0.05480.0793
1.60.0808 0.0537 0.0778
0.0526 0.0516
0.0764 0.0505
0.0749 0.0495
0.0735 0.0485
0.0721 0.0475
0.07080.0465 0.04550.0681
0.0694
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.5 1.80.0668
0.03590.0655
0.0351 0.0643
0.0344 0.0630
0.0336 0.0618
0.0329 0.0606
0.0322 0.0594 0.0307
0.0314 0.05820.0301
0.0571
0.02940.0559
1.6 1.90.0548
0.02870.0537
0.0281 0.0526
0.0274 0.0516
0.0268 0.0505
0.0262 0.0495
0.0256 0.0485 0.0244
0.0250 0.04750.0239
0.0465
0.02330.0455
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
1.8 2.10.0359
0.01790.0351
0.0174 0.0344
0.0170 0.0336
0.0166 0.0329
0.0162 0.0322
0.0158 0.0314 0.0150
0.0154 0.03070.0146
0.0301
0.01430.0294
1.9 2.20.0287
0.01390.0281
0.0136 0.0274
0.0132 0.0268
0.0129 0.0262
0.0125 0.0256
0.0122 0.0250 0.0116
0.0119 0.02440.0113
0.0239
0.01100.0233
0.0107 0.0104 0.0102
2.30.0228 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.0 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
0.00620.0136
2.50.0139 0.0060 0.0132
0.0059 0.0057
0.0129 0.0055
0.0125 0.0054
0.0122 0.0052
0.0119 0.0051
0.01160.0049 0.00480.0110
0.0113
2.2
0.0047 0.0045 0.0044
2.60.0107 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.3 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
0.0035 0.0034 0.0033
2.70.0082 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.4 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.5 0.00190.0060
2.90.0062 0.0018 0.0059
0.0018 0.0017
0.0057 0.0016
0.0055 0.0016
0.0054 0.0015
0.0052 0.0015
0.00510.0014 0.00140.0048
0.0049
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
3 0.0019 0.0018
0.0 968 0.0018 0.0017 0.0016 0.0016
233 0.00.0015
30.0015 4 0.0014 4
Para 2.9 0.0 4810.0014
3 3 3 3 3 3
valores mayores:
0.00135
4 4
0.0 687
4
0.0 483
5
0.0 337 0.0
5 5
159 0.0 108
5
0.0 723
5 6 6
4 0.0 317 0.0 207 0.0 133 0.0 854 0.0 541 0.0 340 0.0 211 0.0 130 0.0 793 0.0 479
6 6 7 7 7 7 7 8 8 8
5 0.0 287 0.0 170 0.0 996 0.0 579 0.0 333 0.0 190 0.0 107 0.0 599 0.0 332 0.0 182
9 9 9 9 10 10 10 10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
z 7 0.00.0 128 0.1 0.0 624 0.2
0.0 301 0.0
0.3144 0.00.4 682 0.0 0.5
320 0.0 149
0.6 0.0 688
0.7 0.0 3110.80.0 133 0.9
3 3 3 3 3 3 3 4 4
3 0.00135 0.0 968 0.0 687 0.0 483 0.0 337 0.0 233 0.0 159 0.0 108 0.0 723 0.0 481
4 4 4 5 5 5 5 5 6 6
4 0.0 317 0.0 207 0.0 133 0.0 854 0.0 541 0.0 340 0.0 211 0.0 130 0.0 793 0.0 479
6 6 7 7 7 7 7 8 8 8
5 0.0 287 0.0 170 0.0 996 0.0 579 0.0 333 0.0 190 0.0 107 0.0 599 0.0 332 0.0 182
9 9 9 9 10 10 10 10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
7 0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 0.0 311 0.0 133
En primer lugar, sabemos que la curva es simétrica, por lo que la mitad de las obser-
vaciones (0.5 o el 50 %), se encuentran en cada una de las dos mitades. Por eso solo se
utiliza la parte de la derecha, ya que haciendo un cálculo muy sencillo se pueden obtener
las proporciones correspondientes para los valores negativos.
¿Cómo se de
Tabla leenlalos valorestipificada
Normal de la tabla?
Z ~ N(0,1)
En general se trabaja con valores tı́picos con dos decimales. La parte entera
y el primer decimal están en la columna de la izquierda de la tabla, y el segundo decimal
en la primera fila.
x2
PZ modo,
z para
1
De este buscar
2 z
2
e dx la proporción de observaciones con un valor tı́pico mayor
que 0.59, tenemos que buscar la intersección entre la fila del 0.5 y la columna del 0.09:
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
Es decir
1.0 que dicha0.1562
0.1587 proporción
0.1539 es de 0.2776,
0.1515 0.1492 o0.1469
dicho 0.1446
de otra0.1423
forma,0.1401
un 27.76 % de las
0.1379
observaciones
1.1 tienen una puntuación tı́pica mayor que 0.59.
0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
Cálculos en distintas situaciones
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
La tabla
1.7 solo0.0446nos0.0436
da la 0.0427
proporción
0.0418 de datos0.0401
0.0409 por encima de un 0.0375
0.0392 0.0384 determinado
0.0367 valor
positivo, 1.8
ası́ que si queremos
0.0359 calcular
0.0351 0.0344 alguna
0.0336 otra proporción
0.0329 0.0322 0.0314tendremos que hacer
0.0307 0.0301 0.0294algunos
0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
1.9 obtenerla.
cálculos para
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
Básicamente,
2.1 sólo0.0174
0.0179 haremos
0.0170uso0.0166
de dos propiedades
0.0162 de la 0.0150
0.0158 0.0154 Normal que 0.0143
0.0146 no hay que
olvidar: 2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
Es 2.5
simétrica
0.0062respecto
0.0060 a0.0059
la media.
0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
El área
2.7 total
0.0035 bajo la
0.0034 curva
0.0033 vale 1.
0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
Ejemplo: Para la variable aleatoria Z ∼ N (0, 1), calcula las siguientes probabilidades:
Probabilidad solución Probabilidad solución
z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
P {ζ 3≤ 0.6}
0.00135 0.7257 {1.3
0.0 968 0.0 687 P0.0
3 3
483 <0.0
3 < 1.4}
ζ 337 0.0 233 0.016
3 3
0.0 159
3 3
0.0 108 0.0 723 0.0 481
4 4
P {ζ 4≤ −0.3}
0.0 317
4 4
0.3821 5
{|ζ|
0.0 207 0.0 133 P0.0
4
854≤ 0.0
5
2}541 0.0 340 0.9544
5 5 5
0.0 211
6 6
0.0 130 0.0 793 0.0 479
6 6 7 7 7 7 7 8 8 8
P {ζ 5> −1.6}
0.0 287
9 9
0.9452
0.0 170
9
0.0 996
9
P {|ζ| > 2}
0.0 579
10
0.0 333
10
0.0 190
10
0.0456
0.0 107
0.0 599 0.0 332 0.0 182
10 11 11
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
7 0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 0.0 311 0.0 133
110 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Para calcular las probabilidades, es muy recomendable hacer siempre el dibujo del área
que se quiere calcular.
Ejercicio: Para la variable aleatoria Z ∼ N (5, 2), calcula las siguientes probabilidades:
Probabilidad solución Probabilidad solución
P {ζ ≤ 6} 0.6915 P {0 < ζ < 3} 0.1525
P {ζ > 2} 0.9332 P {|ζ − 5| ≤ 1} 0.383
P {ζ < −1} 0.00135 P {|ζ − 5| > 2} 0.3174
P {4 < ζ < 6} 0.383 P {|ζ − 1| < 2} 0.15735
P {5 < ζ < 7} 0.3413 P {|ζ| > 2} 0.9394
Del mismo modo que nos preguntamos por la proporción de observaciones que se
encuentran en un determinado intervalo de valores tipificados, nos podrı́amos hacer la
pregunta inversa: ¿cuál es el valor tipificado a partir del cual se encuentra una
determinada proporción de observaciones?
Podemos responder a esta cuestión utilizando la tabla de forma parecida al caso an-
terior.
Supongamos que tenemos una variable aleatoria con distribución: ζ ∼ N (6.5, 1.7).
Si queremos determinar entre qué valores se encuentra el 60 % central de
las observaciones, haremos lo siguiente:
Como la distribución de los valores observados y la de los valores tipificados son equi-
valentes, usaremos la tabla de la N (0, 1) para obtener los valores que determinan ese
intervalo y después desharemos el cambio.
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
− x̄
X0.0129
2.2 0.0139 0.0136
Como0.0132
Z= , entonces X = s0 Z
0.0125 0.0122 0.0119
+ x̄ 0.0116 0.0113 0.0110
2.3 0.0107 0.0104 0.0102 s0
0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
En 2.5
nuestro0.0062
caso, el lı́mite0.0059
0.0060 inferior0.0057
será: 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
0
2.7 0.0035 inf =
x0.0034 zinf + x̄0.0032
s0.0033 = 1.7 × (−0.84)
0.0031 + 6.50.0029
0.0030 = 5.0720.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
0.0019
2.9 superior 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
y el lı́mite será:
Estamos diciendo que el 30 % de las observaciones están por debajo de ese valor.
112 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Sabemos que buscamos un valor tı́pico negativo pero, aprovechando la simetrı́a, po-
demos buscar: .
A una proporción por encima de 0.3, le corresponde un valor tı́pico de 0.52, entonces,
el valor tı́pico que buscamos es z =-0.52 y el valor buscado para nuestra variable es:
x = s0 z + x̄ = 1.7 × (−0.52) + 6.5 = 5.616
Las variables aleatorias con distribución Normal, cumplen además las siguientes PRO-
PIEDADES:
Ejemplo. El análisis estadı́stico del tiempo empleado por los estudiantes en la realiza-
ción del examen de Estadı́stica, indica que la duración del examen tiene una distribución
Normal con media 135 minutos con una desviación tı́pica de 15 minutos.
120 − 135 140 − 135
P {120 < D < 140} = P <Z< = P {−1 < Z < 0.33} =
15 15
Por lo tanto, el 47.16 % de los exámenes duran entre 120 y 140 minutos.
Nota: si P {D < 120} + P {D > x} = 0.6, entonces P {120 < D < x} = 0.4
Para resolver el problema, primero calculamos cuál es la probabilidad que queda
por encima de x, y luego determinamos cuál es el valor crı́tico que deja a su derecha
dicha probabilidad.
120 − 135
P {D > x} = 1 − (0.4 + P {D < 120}) = 0.6 − P Z < =
15
Ahora buscamos cuál es el valor z (para una N(0,1)) que deja a su derecha esta
probabilidad (cogemos el valor más cercano):
P {Z > z} = 0.4413 , por lo tanto z = 0.15
114 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
1. Determina la cantidad que hay que tener dispuesta a la venta cada dı́a, para poder
satisfacer la demanda con una probabilidad de 0.95.
3. La situación recesiva del sector del automóvil ha hecho que baje el promedio de la
venta diario de tal forma que la probabilidad de que las ventas en un dı́a cualquiera
tomado al azar sobrepasen los 100000 litros es del 40 %, ¿cuál será la nueva media
si la dispersión de las ventas no se ha alterado?
1. Determina la cantidad que hay que tener dispuesta a la venta cada dı́a, para poder
satisfacer la demanda con una probabilidad de 0.95.
Es importante escribir bien qué es lo que queremos calcular: buscamos un valor x
para la demanda diaria, tal que la probabilidad de que la demanda sea menor que
dicho valor es 0.95.
P {D < x} = 0.95 ⇔ P {D > x} = 0.05
x − 100
Es decir, tipificando: 0.05 = P Z >
10
x − 100
Luego: = 1.645 y por lo tanto: x = 100 + 16.45 = 116.45 miles de litros.
10
2. Calcula el intervalo simétrico respecto a la media que contenga el 95 % de la proba-
bilidad.
Como siempre que tenemos que calcular probabilidades para una Normal, escribimos
la pregunta para nuestra variable (D) y luego tipificamos:
n ao n ao
P {|D − 100| < a} = 0.95 = P |Z| < =1−2∗P Z >
10 10
n a o 1 − 0.95 a
Por lo tanto: P Z > = = 0.025 ⇒ = 1.96 ⇒ a = 19.6
10 2 10
El intervalo buscado es: (100 − a, 100 + a) = (80.4, 119.6)
3.3. LA DISTRIBUCIÓN NORMAL 115
3. La situación recesiva del sector del automóvil ha hecho que baje el promedio de la
venta diario de tal forma que la probabilidad de que las ventas en un dı́a cualquiera
tomado al azar sobrepasen los 100000 litros es del 40 %, ¿cuál será la nueva media
si la dispersión de las ventas no se ha alterado?
Queremos conocer µ, sabiendo que D ∼ N (µ, 10) y P {D > 100} = 0.4
100 − µ 100 − µ
0.4 = P {D > 100} = P Z> ⇒ = 0.25 ⇒
10 10
⇒ µ = 100 − 2.5 = 97.5 miles de litros.
2. Si los costes diarios de producción en e, (C), están relacionados con las ventas diarias
por la expresión: C = 1000 + 0.15V , calcula el coste medio diario y la desviación
tı́pica del coste diario.
Vamos a resolverlo:
Tenemos que si V es la variable aleatoria que mide las ventas diarias, en euros, entonces:
V ∼ N (µ, σ)
Además, sabemos que: P {V > 19500} = 0.305 y que P {V > 15060} = 0.834
Entonces:
15060 − µ µ − 15060 µ − 15060
0.166 = P Z< =P Z> ⇒ = 0.97
σ σ σ
116 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
19500 − µ = 0.51σ
Luego: ⇒ 4440 = 1.48σ, de donde
−15060 + µ = 0.97σ
σ = 3000 y µ = 19500 − 0.51σ = 17970
Es decir, V ∼ N (17970, 3000)
2. Si los costes diarios de producción en e, (C), están relacionados con las ventas diarias
por la expresión: C = 1000 + 0.15V , calcula el coste medio diario y la desviación
tı́pica del coste diario.
Como C = 1000 + 0.15V , que es un cambio de origen y escala, sabemos que:
µC = 1000 + 0.15µV = 1000 + 0.15 ∗ 17970 = 3695.5 e
σC = 0.15σV = 0.15 ∗ 3000 = 450 e
Por lo tanto: C ∼ N (3695.5, 450)
PROPIEDAD:
Una propiedad interesante de las variables con distribución χ2n es la siguiente:
Sean X1 , X2 , . . . , Xk variables aleatorias independientes con distribución χ2 , con r1 , r2 , . . . , rk
grados de libertad, respectivamente. Entonces, la variable aleatoria
X = X1 + X2 + · · · + Xk
La χ2n , está tabulada para algunas de las probabilidades más habituales y para valores
de n no muy grandes.
El manejo de la tabla de la Ji cuadrado es diferente al de la Normal. Dados los grados
de libertad y la probabilidad, la tabla nos indica el valor crı́tico, x, que deja a su derecha
dicha probabilidad.
3
Información extraida de http://es.wikipedia.org/wiki/Karl Pearson;
http://www.buscabiografias.com/bios/biografia/verDetalle/6926/Karl %20Pearson
118 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
Probabilidad de una variable chi-cuadrado con n grados de libertad X~ n2
0 x
Ejemplo: p
n 0’01 0’025 0’05 0’10 0’15 0’25 0’5 0’75 0’85 0’9 0’95 0’975 0’99
a) Determina el valor crı́tico χ27,0.01 (valor crı́tico de una Ji cuadrado con 7 grados de
1 6’635 5’024 3’841 2’706 2’072 1’323 0’455 0’102 0’036 0’016 0’003932 0’000982 0’000157
libertad
2 que deja
9’210 7’378 a su derecha
5’991 4’605 una probabilidad
3’794 2’773 de 0.01).
1’386 0’575 0’325 0’211 0’103 0’051 0’020
3 11’345 9’348 7’815 6’251 5’317 4’108 2’366 1’213 0’798 0’584 0’352 0’216 0’115
4 b) 13’277
Para una 11’143variable
9’488 que
7’779se distribuye
6’745 5’385según χ23 ¿cuál
3’357una 1’923 1’366es la probabilidad
1’064 0’711 de que
0’484 0’297
5 15’086 12’833 11’070 9’236 8’115 6’626 4’351 2’675 1’994 1’610 1’145 0’831 0’554
la6 variable
16’812
tome
14’449
un12’592
valor mayor
10’645
que
9’446
0.584?
7’841 5’348 3’455 2’661 2’204 1’635 1’237 0’872
7 18’475 16’013 14’067 12’017 10’748 9’037 6’346 4’255 3’358 2’833 2’167 1’690 1’239
8 Buscamos
20’090 en la 15’507
17’535 tabla: 13’362 12’027 10’219 7’344 5’071 4’078 3’490 2’733 2’180 1’646
9 21’666 19’023 16’919 14’684 13’288 11’389 8’343 5’899 4’817 4’168 3’325 2’700 2’088
10 23’209 20’483 18’307 15’987 14’534 12’549 9’342 6’737 5’570 4’865 3’940 3’247 2’558
11 24’725 21’920 19’675 17’275 15’767 13’701 10’341 7’584 6’336 5’578 4’575 3’816 3’053
p
12 26’217 23’337 21’026 18’549 16’989 14’845 11’340 8’438 7’114 6’304 5’226 4’404 3’571
13 n 27’6880.01 24’736
0.025 0.05
22’362 0.10
19’812 0.15
18’202 0.25
15’984 0.5
12’340 0.759’299 0.85 7’9010.9 7’042 0.95 5’8920.975 5’0090.99 4’107
14 29’141 26’119 23’685 21’064 19’406 17’117 13’339 10’165 8’696 7’790 6’571 5’629 4’660
15 1 6.635 27’488
30’578 5.024 3.841
24’996 2.706
22’307 2.072
20’603 1.323
18’245 0.455
14’339 0.102
11’037 0.036 9’4990.016 8’547
0.003932 7’261
0.000982 6’262
0.000157 5’229
2 9.210 7.378 5.991 4.605 3.794 2.773 1.386 0.575 0.325 0.211 0.103 0.051 0.020
16 32’000
3 11.345 28’845
9.348 26’296
7.815 23’542
6.251 21’793
5.317 19’369
4.108 15’338
2.366 11’912 0.79810’3090.584 9’312
1.213 0.352 7’9620.216 6’908
0.115 5’812
17 33’409
13.277 30’191
11.143 27’587
9.488 24’769
7.779 22’977
6.745 20’489
5.385 16’338
3.357 12’792 1.36611’1251.064 10’085
1.923 0.711 8’6720.484 7’564
0.297 6’408
4
18 34’805
15.086 31’526
12.833 28’869
11.070 25’989
9.236 24’155
8.115 21’605
6.626 17’338
4.351 13’675 1.99411’9461.610 10’865
2.675 1.145 9’3900.831 8’231
0.554 7’015
5
19 36’191 32’852 30’144 27’204 25’329 22’718 18’338 14’562 12’773 11’651 10’117 8’907 7’633
20 6 16.812 34’170
37’566 14.449 12.592
31’410 10.645
28’412 9.446
26’498 7.841
23’828 5.348
19’337 3.455
15’452 2.66113’6042.204 12’443
1.635 10’851
1.237 9’591
0.872 8’260
21 7 18.475 16.013 14.067 12.017 10.748 9.037 6.346 4.255 3.358 2.833 2.167 1.690 1.239
38’932 35’479 32’671 29’615 27’662 24’935 20’337 16’344 14’439 13’240 11’591 10’283 8’897
8 20.090 17.535 15.507 13.362 12.027 10.219 7.344 5.071 4.078 3.490 2.733 2.180 1.646
22 40’289 36’781 33’924 30’813 28’822 26’039 21’337 17’240 15’279 14’041 12’338 10’982 9’542
9 21.666 19.023 16.919 14.684 13.288 11.389 8.343 5.899 4.817 4.168 3.325 2.700 2.088
23 41’638 38’076 35’172 32’007 29’979 27’141 22’337 18’137 16’122 14’848 13’091 11’689 10’196
10 23.209 20.483 18.307 15.987 14.534 12.549 9.342 6.737 5.570 4.865 3.940 3.247 2.558
24 42’980 39’364 36’415 33’196 31’132 28’241 23’337 19’037 16’969 15’659 13’848 12’401 10’856
2 2
25 RESPUESTAS:
11 44’314 χ
24.725 40’646
21.920 37’652
19.675
7,0.01 = 18.475 y P {X > 0.584|X ∼ χ } = 0.9
34’382
17.275 32’282
15.767 29’339
13.701 24’337
10.341 19’939 6.33617’8185.578 16’473
7.584 3 4.575 14’611
3.816 13’120
3.053 11’524
26 12 26.217 41’923
45’642 23.337 21.026
38’885 18.549
35’563 16.989
33’429 14.845
30’435 11.340
25’336 8.438
20’843 7.11418’6716.304 17’292
5.226 15’379
4.404 13’844
3.571 12’198
27 13 27.688 43’195
46’963 24.736 22.362
40’113 19.812
36’741 18.202
34’574 15.984
31’528 12.340
26’336 9.299
21’749 7.90119’5277.042 18’114
5.892 16’151
5.009 14’573
4.107 12’879
28 Al
14 final del tema puedes encontrar la tabla completa de la Ji cuadrado
29.141 44’461
48’278 26.119 23.685
41’337 21.064
37’916 19.406
35’715 17.117
32’620 13.339
27’336 10.165
22’657 8.69620’3867.790 18’939
6.571 16’928
5.629 15’308
4.660 13’565
29 15 30.578 45’722
49’588 27.488 24.996
42’557 22.307
39’087 20.603
36’854 18.245
33’711 14.339
28’336 11.037
23’567 9.49921’2478.547 19’768
7.261 17’708
6.262 16’047
5.229 14’256
30 16 50’892
32.000 46’979
28.845 43’773
26.296 40’256
23.542 37’990
21.793 34’800 15.338
19.369 29’336 11.912
24’47810.309
22’1109.312 20’599
7.962 18’493
6.908 16’791
5.812 14’953
31 17 33.409 48’232
52’191 30.191 27.587 41’422
44’985 24.769 22.977
39’124 20.489
35’887 16.338
30’336 12.792
25’39011.125 10.08521’434
22’976 8.672 19’281
7.564 6.408
17’539 15’655
32 34.805 49’480
31.526 28.869 42’585
25.989 24.155 21.605
36’973 17.338
31’336 13.675
26’30411.946 10.86522’2719.390 20’072
8.231 7.015
3.5.
33
18 53’486
19 54’776 Distribución t de Student
36.191 50’725
32.852
46’194
30.144 43’745
47’400 27.204
40’256
25.329
41’386 22.718
38’058 18.338
32’336 14.562
23’844
27’21912.773 11.65123’110
24’714 10.117 20’867
8.907
18’291
7.633
19’047
16’362
17’074
34 37.566 51’966
20 56’061 34.170 31.410 44’903
48’602 28.412 26.498
42’514 23.828
39’141 19.337
33’336 15.452
28’13613.604 12.44323’952
25’586 10.851 21’664
9.591 8.260
19’806 17’789
35 57’342
38.932
53’203
35.479
49’802
32.671
46’059
29.615
43’640
27.662
40’223
24.935
34’336
20.337 16.344
29’054 26’460
14.439 13.240
24’797
11.591
22’465
10.283
20’569
8.897
18’509
21
36 Sean X y Z dos variables aleatorias independientes con distribuciones Z ∼ N (0, 1)19’233
22 58’619
40.289 54’437
36.781 50’998
33.924 47’212
30.813 44’764
28.822 41’304 21.337
26.039 y
35’336 17.240
29’97315.279
27’336
14.04125’643
12.338 23’269
10.982 21’336
9.542
37 23 59’893
2 41.638 55’668
38.076 52’192
35.172 48’363
32.007 45’886
29.979 42’383 22.337
27.141 36’336 18.137
30’89316.122
19’960 28’214
14.84826’492
13.091 24’075
11.689 22’106
10.196
X
38 ∼ χ , entonces, la variable aleatoria definida como:
n 42.980 56’896
24 61’162 39.364 53’384
36.415 49’513
33.196 47’007
31.132 43’462 23.337
28.241 37’335 19.037
31’81516.969
20’691 29’093
15.65927’343
13.848 24’884
12.401 22’878
10.856
39 25 62’428
44.314 58’120
40.646 54’572
37.652 50’660
34.382 48’126
32.282 44’539 24.337
29.339 38’335 19.939
32’73717.818
29’974
16.47328’196
14.611 25’695
13.120 23’654
11.524 21’426
40 63’691 59’342 55’758 51’805 49’244 Z
45’616 39’335 33’660 30’856 29’051 26’509 24’433 22’164
41
26 45.642 41.923 38.885 35.563 33.429 T = q ∼t
30.435 25.336 n 20.843 18.671 17.292 15.379 13.844 12.198
27 64’950
46.963 60’561
43.195 56’942
40.113 52’949
36.741 50’360
34.574 46’692 X
31.528 40’335 21.749
26.336 34’58519.527
31’740
18.11429’907
16.151 27’326
14.573 25’215
12.879 22’906
42 28
66’206
48.278 61’777
44.461 58’124
41.337 54’090
37.916 51’475
35.715 47’766 27.336
32.620 n 41’335 22.657
35’51020.386
32’626
18.93930’765
16.928 28’144
15.308 25’999
13.565 23’650
43 67’459
49.588 62’990
45.722 59’304
42.557 55’230
39.087 52’588
36.854 48’840
33.711 42’335
28.336 23.56736’436 33’512
21.247 19.768 31’625
17.708 28’965
16.047 26’785
14.256 24’398
29
44 30
68’710
50.892 64’201
46.979 60’481
43.773 56’369
40.256 53’700
37.990 49’913 29.336
34.800 43’335 24.478
37’36322.110
34’400
20.59932’487
18.493 29’787
16.791 27’575
14.953 25’148
45 Diremos que T es una t de Student con n grados de libertad.
69’957
52.191
65’410
48.232
61’656
44.985
57’505
41.422
54’810
39.124
50’985
35.887
44’335
30.336 25.390
38’291 35’290
22.976 21.434
33’350
19.281
30’612
17.539
28’366
15.655
25’901
50 31 76’154 71’420 67’505 63’167 60’346 56’334 49’335 42’942 39’754 37’689 34’764 32’357 29’707
53.486
32 82’292 49.480 46.194 42.585 40.256 36.973 31.336 26.304 23.844 22.271 20.072 18.291 16.362
55 n
60
Si T ∼ t , entonces: E[T ] = 0 y V ar(X) =
54.776
33 88’379
77’380
50.725
n83’298
73’311
47.400
79’082
68’796
43.745
74’397
65’855
41.386
71’341
61’665
38.058
66’981
54’335
32.336 27.219
n−2
59’335
47’610
52’294
44’245
24.714 23.110
48’759
42’060
20.867
46’459
38’958
19.047
43’188
36’398
17.074
40’482
33’570
37’485
56.061
34 94’422 51.966 48.602 44.903 42.514 39.141 33.336 28.136 25.586 23.952 21.664 19.806 17.789
65 89’177 84’821 79’973 76’807 72’285 64’335 56’990 53’293 50’883 47’450 44’603 41’444
70 La distribución lı́mite para una t de Student, cuando n → ∞, es una N (0, 1).
57.342
35100’425 53.203
95’023
49.802
90’531
46.059
85’527
43.640
82’255
40.223
77’577
34.336 29.054
69’334 61’698
26.460 24.797
57’844
22.465
55’329
20.569
51’739
18.509
48’758 45’442
75 58.619100’839
36106’393 54.437 96’217
50.998 91’061
47.212 44.764
87’688 41.304
82’858 35.336
74’334 29.973
66’41727.336 25.64359’795
62’412 23.269 56’054
21.336 19.233
52’942 49’475
80 Gráficamente:
59.893106’629
37112’329 55.668 101’879
61.162112’393
52.192 96’578
56.896 107’522
48.363
53.384 102’079
49.513
45.886
93’106
47.007
42.383
88’130 36.336
43.462
79’334 30.893
71’14528.214 26.49264’278
66’994 24.075 60’391
22.106 19.960
57’153 53’540
85 38118’236 98’511 93’394 37.335
84’334 31.815
75’88129.093 27.34368’777
71’589 24.884 64’749
22.878 20.691
61’389 57’634
90 62.428118’136
39124’116 58.120 113’145
54.572 107’565
50.660 48.126
103’904 44.539
98’650 38.335
89’334 32.737
80’62529.974 28.19673’291
76’195 25.695 69’126
23.654 21.426
65’647 61’754
95 http://www.matematicasvisuales.com/html/probabilidad/varaleat/tstudent.html
63.691123’858
40129’973 59.342 118’752
55.758 113’038
51.805 49.244
109’286 45.616
103’899 39.335
94’334 33.660
85’37630.856 29.05177’818
80’813 26.509 73’520
24.433 22.164
69’925 65’898
100 41135’807
64.950129’561
60.561 124’342
56.942 118’498
52.949 114’659
50.360 109’141
46.692 99’334 34.585
40.335 90’13331.740
85’441
29.90782’358
27.326 77’929
25.215 74’222
22.906 70’065
42 66.206 61.777 58.124 54.090 51.475 47.766 41.335 35.510 32.626 30.765 28.144 25.999 23.650
43 67.459 62.990 59.304 55.230 52.588 48.840 42.335 36.436 33.512 31.625 28.965 26.785 24.398
44 68.710 64.201 60.481 56.369 53.700 49.913 43.335 37.363 34.400 32.487 29.787 27.575 25.148
45 69.957 65.410 61.656 57.505 54.810 50.985 44.335 38.291 35.290 33.350 30.612 28.366 25.901
50 76.154 71.420 67.505 63.167 60.346 56.334 49.335 42.942 39.754 37.689 34.764 32.357 29.707
55 82.292 77.380 73.311 68.796 65.855 61.665 54.335 47.610 44.245 42.060 38.958 36.398 33.570
3.5. DISTRIBUCIÓN T DE STUDENT 119
p
n 0.005 0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45
1 63.6567 31.8205 12.7062 6.3138 3.0777 1.9626 1.3764 1.0000 0.7265 0.5095 0.3249 0.1584
2 9.9248 6.9646 4.3027 2.9200 1.8856 1.3862 1.0607 0.8165 0.6172 0.4447 0.2887 0.1421
3 5.8409 4.5407 3.1824 2.3534 1.6377 1.2498 0.9785 0.7649 0.5844 0.4242 0.2767 0.1366
4 4.6041 3.7469 2.7764 2.1318 1.5332 1.1896 0.9410 0.7407 0.5686 0.4142 0.2707 0.1338
5 4.0321 3.3649 2.5706 2.0150 1.4759 1.1558 0.9195 0.7267 0.5594 0.4082 0.2672 0.1322
6 3.7074 3.1427 2.4469 1.9432 1.4398 1.1342 0.9057 0.7176 0.5534 0.4043 0.2648 0.1311
7 3.4995 2.9980 2.3646 1.8946 1.4149 1.1192 0.8960 0.7111 0.5491 0.4015 0.2632 0.1303
8 3.3554 2.8965 2.3060 1.8595 1.3968 1.1081 0.8889 0.7064 0.5459 0.3995 0.2619 0.1297
9 3.2498 2.8214 2.2622 1.8331 1.3830 1.0997 0.8834 0.7027 0.5435 0.3979 0.2610 0.1293
10 3.1693 2.7638 2.2281 1.8125 1.3722 1.0931 0.8791 0.6998 0.5415 0.3966 0.2602 0.1289
11 3.1058 2.7181 2.2010 1.7959 1.3634 1.0877 0.8755 0.6974 0.5399 0.3956 0.2596 0.1286
12 3.0545 2.6810 2.1788 1.7823 1.3562 1.0832 0.8726 0.6955 0.5386 0.3947 0.2590 0.1283
13 3.0123 2.6503 2.1604 1.7709 1.3502 1.0795 0.8702 0.6938 0.5375 0.3940 0.2586 0.1281
14 2.9768 2.6245 2.1448 1.7613 1.3450 1.0763 0.8681 0.6924 0.5366 0.3933 0.2582 0.1280
15 2.9467 2.6025 2.1314 1.7531 1.3406 1.0735 0.8662 0.6912 0.5357 0.3928 0.2579 0.1278
16 2.9208 2.5835 2.1199 1.7459 1.3368 1.0711 0.8647 0.6901 0.5350 0.3923 0.2576 0.1277
2
Como
17 vemos, la tabla es del mismo tipo que la de la distribución χ
2.8982 2.5669 2.1098 1.7396 1.3334 1.0690 0.8633 0.6892 0.5344 0.3919
n 0.2573 0.1276
18 2.8784 2.5524 2.1009 1.7341 1.3304 1.0672 0.8620 0.6884 0.5338 0.3915 0.2571 0.1274
19 2.8609 2.5395 2.0930 1.7291 1.3277 1.0655 0.8610 0.6876 0.5333 0.3912 0.2569 0.1274
20 2.8453 2.5280 2.0860 1.7247 1.3253 1.0640 0.8600 0.6870 0.5329 0.3909 0.2567 0.1273
21 2.8314 2.5176 William
1.7207 Sealy
2.0796 1.3232 Gosset
1.0627 (11 de0.6864
0.8591 junio0.5325
de 18760.3906– 16 de octubre
0.2566 0.1272
22 2.8188 2.5083 2.0739
1.7171 1.3212 1.0614 0.8583 0.6858 0.5321 0.3904 0.2564 0.1271
23 2.8073 2.4999 de 1937).
2.0687
1.7139 1.3195 1.0603 0.8575 0.6853 0.5317 0.3902 0.2563 0.1271
24 2.7969 2.4922 2.0639
1.7109a la
Asistió 1.3178
famosa1.0593 escuela
0.8569 privada
0.6848 0.5314 0.3900
Winchester 0.2562 0.1270an-
College,
2.7874 2.4851 2.0595 1.7081 1.3163 1.0584 0.8562 0.6844 0.5312 0.3898 0.2561 0.1269
25
26 2.7787 2.4786
tes de
2.0555
estudiar
1.7056 1.3150
quı́mica
1.0575
y matemática
0.8557 0.6840 0.5309
en0.3896
el New College
0.2560 0.1269
de
27 2.7707 2.4727 Oxford.
2.0518 1.7033 Tras
1.3137graduarse
1.0567 en 1899,
0.8551 0.6837 se 0.5306
incorporó
0.3894 a las destilerı́as
0.2559 0.1268
28 2.7633 2.4671 2.0484 1.7011 1.3125 1.0560 0.8546 0.6834 0.5304 0.3893 0.2558 0.1268
29 2.7564 2.4620 Guinness
2.0452 1.6991 en Dublı́n.
1.3114 1.0553 0.8542 0.6830 0.5302 0.3892 0.2557 0.1268
95 2.6286 2.3662 1.9853 1.6611 1.2905 1.0421 0.8454 0.6771 0.5262 0.3865 0.2541 0.1260
4
Información
100 2.6259 2.3642extraida
1.9840 1.6602 de
1.2901 http://es.wikipedia.org/wiki/William
1.0418 0.8452 0.6770 0.5261 0.3864 0.2540 Sealy Gosset;
0.1260
2.6157 2.3565 1.9791 1.6571 1.2884 1.0408
http://www.estadisticaparatodos.es/bibliografias/gosset.html
125 0.8445 0.6765 0.5257 0.3862 0.2539 0.1259
150 2.6090 2.3515 1.9759 1.6551 1.2872 1.0400 0.8440 0.6761 0.5255 0.3861 0.2538 0.1259
200 2.6006 2.3451 1.9719 1.6525 1.2858 1.0391 0.8434 0.6757 0.5252 0.3859 0.2537 0.1258
300 2.5923 2.3388 1.9679 1.6499 1.2844 1.0382 0.8428 0.6753 0.5250 0.3857 0.2536 0.1258
∞ 2.5758 2.3263 1.9600 1.6449 1.2816 1.0364 0.8416 0.6745 0.5244 0.3853 0.2533 0.1257
120 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
1. Determina la proporción de observaciones que están por encima del valor 1 para
una t de Student con 16 grados de libertad.
Buscamos en la fila correspondiente a n=16 el valor más próximo a 1 (1.0711),
que nos da una p=0.15. Entonces: la proporción buscada es 0.15 , el 15 % de las
observaciones.
2. Determina la proporción de observaciones que están por debajo del valor 2.53 para
una t de Student con 20 grados de libertad.
Buscamos en la fila correspondiente a n=20 el valor más próximo a 2.53 (2.5280),
que nos da una p=0.01. Esto significa que 0.01 es la proporción de observaciones por
encima de dicho valor. Entonces: la proporción buscada es 1-0.01=0.99, es decir el
99 % de las observaciones.
3. Determina la proporción de observaciones que están por encima del valor -0.7 para
una t de Student con 7 grados de libertad.
Para los valores negativos aprovecharemos la simetrı́a de la gráfica: el área por
encima de -0.7 es igual al área por debajo de 0.7, entonces:
Buscamos en la fila correspondiente a n=7 el valor más próximo a 0.7 (0.7111), que
nos da una p=0.25. Esto significa que 0.25 es la proporción de observaciones por
encima de dicho valor. Entonces: la proporción buscada es 1-0.25=0.75, es decir el
75 % de las observaciones.
4. Determina qué valor de una t de Student con 50 grados de libertad deja a su derecha
un área de 0.25.
Buscamos en la fila de n=50 la intersección con la columna p=0.25 y obtenemos el
valor buscado: 0.6794.
5. Determina qué valor de una t de Student con 22 grados de libertad verifica que el
área encerrada entre este valor y 0.2564 es exactamente 0.1.
Si hacemos el dibujo (siempre ayuda mucho), podemos observar que el área por
encima del valor buscado es igual a 0.1 más el área por encima de 0.2564.
El área por encima de 0.2564 en una t de Student con 22 grados de libertad es 0.4,
y por lo tanto, el área por encima del valor buscado es 0.4+0.1=0.5. Esto significa
que el valor que estamos buscando es cero.
6. Determina qué valor de una t de Student con 40 grados de libertad verifica que el
área encerrada entre -1.05 y este valor es exactamente 0.7.
Volvemos al dibujo. Podemos observar que el área por debajo del valor buscado es
igual a 0.7 más el área por debajo de -1.05.
Aprovechando la simetrı́a, sabemos que el área por debajo de -1.05 es igual al área
por encima de 1.05. Buscamos en la tabla dicha área para una t de Student con 40
grados de libertad y obtenemos p=0.15. Entonces:
El área por debajo del valor buscado es igual a 0.7+0.15=0.85, lo que significa que
el área por encima es 0.15. Por lo tanto el valor buscado es: 1.05.
3.6. TEROEMA CENTRAL DEL LÍMITE 121
Este teorema es un potente resultado de probabilidad que nos permite dar la distribu-
ción aproximada de la suma y la media de un conjunto cualquiera de variables aleatorias
independientes, todas ellas con la misma distribución de probabilidad.
Teorema central del lı́mite: Sean (ζ1 , ζ2 , . . . , ζn ) variables aleatorias indenpendien-
tes, todas ellas con la misma distribución y denotaremos por E[ζi ] = µ y V ar(ζi ) = σ 2 , ∀i.
Entonces, si n es suficientemente grande, la distribución de la suma de estas variables alea-
torias ζ √
= ζ1 +ζ2 +· · ·+ζn , se puede aproximar por una Normal de media nµ y desviación
tı́pica σ n
Es decir: Si ζ1 , ζ2 , . . . , ζn son v.a.i.i.d. con E[ζi ] = µ y V ar(ζi ) = σ 2 , ∀i entonces:
√
la variable aleatoria ζ = ζ1 + ζ2 + · · · + ζn , verfica: ζ ≈ N (nµ, σ n)
La importancia de este teorema radica en que es cierto, sea cual sea la distribución de
las variables aleatorias, siempre que estas sean independientes y tengan todas las misma
distribución.
En cuanto al número de variables, se acepta que n es suficientemente grande, si n ≥ 30.
Si embargo, la aproximación dependerá del tipo de distribución original y será tanto mejor
cuanto más simétrica sea esta distribución.
Una versión especial del Teorema central del lı́mite es el Teorema de Moivre.
ζ = ζ1 + ζ2 + · · · + ζn sigue una distribución B(n, p), y por el TCL esta suma puede
√
aproximarse por una N (np, n.p.q)
Siempre que se aproxima una distribución discreta por una continua (como hacemos
al aproximar una Binomial por una Normal), hay que hacer corrección por continuidad.
La idea es que estamos aproximando la probabilidad en un punto de masa (discreta)
por un área (continua) y, por lo tanto, debemos hacer unos pequeños ajustes.
La corrección por continuidad consiste en tomar un pequeño intervalo de longitud 1
alrededor del punto de masa (k).
Es decir, si nos piden P {X = k} con X ∼ Binomial, entonces, usando la aproximación
mediante Y ∼ Normal, tendremos que calcular P {k − 0.5 < Y < k + 0.5}.
Del mismo modo, si nos piden P {X ≤ k} con X ∼ Binomial, entonces, si aproximamos
usando Y ∼ Normal, tendremos que calcular P {Y < k + 0.5} (debemos asegurarnos de
incluir el punto k).
Mientras que si nos piden P {X < k} con X ∼ Binomial, entonces, para aproximar
mediante Y ∼ Normal, tendremos que calcular P {Y < k − 0.5} (el punto k no debe estar
incluido).
Ejemplo. Una empresa quiere lanzar al mercado un nuevo producto. Un produc-
to similar es adquirido habitualmente por el 40 % de los consumidores. Con objeto de
planificar su producción, la empresa realiza un estudio de mercado, consultando a 1000
personas. Suponiendo que la cuota de mercado vaya a mantenerse en el 40 %, ¿cuál es la
probabilidad de que haya entre 400 y 500 personas dispuestas a adquirir el producto?
Sabemos que p = P {adquirir uno similar} = 0.4
Consulta: n = 1000
Variable aleatoria: ζ=no de personas dispuestas a adquirir el producto.
Entonces: ζ ∼ B(1000, 0.4)
Tenemos que calcular: P {400 < ζ < 500}, y lo hacemos aproximando la Binomial por
124 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
400.5 − 400 499.5 − 400
P {400 < ζ < 500} ≈ P {400.5 < ζ < 499.5} = P √ <Z< √ =
240 240
6
P {ζ = 5} = 0.77345 0.22661 = 0.3762
5
3.6. TEROEMA CENTRAL DEL LÍMITE 125
40.5 − 38.67
P {ζ > 40} ≈ P {ζ > 40.5} = P Z > = P {Z > 0.62} = 0.2676
2.96
126 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
3.7. Tablas
TablaTabla
de lade Normal
la Normal tipificada
tipificada Z ~ N(0,1)
Tabla de la Normal tipificada Z ~ N(0,1)
x2
PZ z
1
z e dx
21
2
x2
P Z P{Z
z > z|Z ∼eN (0,
dx 1)} 2
2 z
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4
0.5 0.3446
0.3085 0.3409
0.3050 0.3372
0.3015 0.3336
0.2981 0.3300
0.2946 0.3264
0.2912 0.3228
0.2877 0.3192
0.2843 0.3156
0.2810 0.3121
0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9
1.0 0.1841
0.1587 0.1814
0.1562 0.1788
0.1539 0.1762
0.1515 0.1736
0.1492 0.1711
0.1469 0.1685
0.1446 0.1660
0.1423 0.1635
0.1401 0.1611
0.1379
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4
1.5 0.0808
0.0668 0.0793
0.0655 0.0778
0.0643 0.0764
0.0630 0.0749
0.0618 0.0735
0.0606 0.0721
0.0594 0.0708
0.0582 0.0694
0.0571 0.0681
0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.9
2.0 0.0287
0.0228 0.0281
0.0222 0.0274
0.0217 0.0268
0.0212 0.0262
0.0207 0.0256
0.0202 0.0250
0.0197 0.0244
0.0192 0.0239
0.0188 0.0233
0.0183
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4
2.5 0.0082
0.0062 0.0080
0.0060 0.0078
0.0059 0.0075
0.0057 0.0073
0.0055 0.0071
0.0054 0.0069
0.0052 0.0068
0.0051 0.0066
0.0049 0.0064
0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
3 3 3 3 3 3 3 4 4
3z 0.00135 0.0 968 0.0 687 0.0 483 0.0 337 0.0 233 0.0 159 0.0 108 0.0 723 0.0 481
0.0
4 0.1
4 0.2
4 0.3
5 0.4
5 0.5
5 0.6
5 0.7
5 0.8
6 0.9
6
4 0.0 317 0.03207 0.03133 0.03854 0.03541 0.03340 0.03211 0.03130 0.04793 0.04479
3 0.00135
6
0.06968 0.07687 0.07483 0.07337 0.07233 0.07159 0.08108 0.08723 0.08481
5 0.04287 0.04170 0.04996 0.05579 0.05333 0.05190 0.05107 0.05599 0.06332 0.06182
4 0.09317 0.09207 0.09133 0.09854 0.010541 0.010340 0.010211 0.010130 0.011793 0.011479
6 0.06987 0.06530 0.07282 0.07149 0.0 7 777 0.0 7 402 0.0 7 206 0.0 8 104 0.0 8 523 0.0 8 260
5 0.011287 0.012170 0.012996 0.012579 0.013333 0.013190 0.013107 0.014599 0.014332 0.014182
7 0.0 9 128 0.0 9 624 0.0 9 301 0.0 9 144 0.010682 0.010320 0.010149 0.010688 0.011311 0.011133
6 0.0 987 0.0 530 0.0 282 0.0 149 0.0 777 0.0 402 0.0 206 0.0 104 0.0 523 0.0 260
11 12 12 12 13 13 13 14 14 14
7 0.0 128 0.0 624 0.0 301 0.0 144 0.0 682 0.0 320 0.0 149 0.0 688 0.0 311 0.0 133
3.7. TABLAS 127
TablaProbabilidad
de Ji cuadrado con n grados de libertad
de una variable chi-cuadrado con n grados de libertad X~ 2 n
0 x
P {X > x | X ∼ χ2n }
p
n 0’01 0’025 0’05 0’10 0’15 0’25 0’5 p 0’75 0’85 0’9 0’95 0’975 0’99
1n 0.01
6’635
0.025
5’024
0.05
3’841
0.10
2’706
0.15
2’072
0.25
1’323
0.5
0’455
0.75
0’102
0.85
0’036
0.9
0’016
0.95 0.975 0.99
0’003932 0’000982 0’000157
2 9’210
6.635 7’378
5.024 5’991
3.841 4’605
2.706 3’794
2.072 2’773
1.323 1’386
0.455 0’575
0.102 0’325
0.036 0’211
0.016 0’103
0.003932 0’051
0.000982 0’020
0.000157
3
1 11’345 9’348 7’815 6’251 5’317 4’108 2’366 1’213 0’798 0’584 0’352 0’216 0’115
9.210 7.378 5.991 4.605 3.794 2.773 1.386 0.575 0.325 0.211 0.103 0.051 0.020
42 13’277 11’143 9’488 7’779 6’745 5’385 3’357 1’923 1’366 1’064 0’711 0’484 0’297
53 11.345
15’086 9.348
12’833 7.815
11’070 6.251
9’236 5.317
8’115 4.108
6’626 2.366
4’351 1.213
2’675 0.798
1’994 0.584
1’610 0.352
1’145 0.216 0’554
0’831 0.115
13.277 11.143 9.488 7.779 6.745 5.385 3.357 1.923 1.366 1.064 0.711 0.484 0.297
64 16’812 14’449 12’592 10’645 9’446 7’841 5’348 3’455 2’661 2’204 1’635 1’237 0’872
75 15.086
18’475
12.833
16’013
11.070
14’067
9.236
12’017
8.115
10’748
6.626
9’037
4.351
6’346
2.675
4’255
1.994
3’358
1.610
2’833
1.145
2’167
0.831
1’690
0.554
1’239
86 20’090
16.812 17’535
14.449 15’507
12.592 13’362
10.645 12’027
9.446 10’219
7.841 7’344
5.348 5’071
3.455 4’078
2.661 3’490
2.204 2’733
1.635 2’180
1.237 1’646
0.872
9 21’666
18.475 19’023
16.013 16’919
14.067 14’684
12.017 13’288
10.748 11’389
9.037 8’343
6.346 5’899
4.255 4’817
3.358 4’168
2.833 3’325
2.167 2’700
1.690 2’088
1.239
10
7 23’209 20’483 18’307 15’987 14’534 12’549 9’342 6’737 5’570 4’865 3’940 3’247 2’558
8 20.090 17.535 15.507 13.362 12.027 10.219 7.344 5.071 4.078 3.490 2.733 2.180 1.646
11 24’725 21’920 19’675 17’275 15’767 13’701 10’341 7’584 6’336 5’578 4’575 3’816 3’053
9 21.666 19.023 16.919 14.684 13.288 11.389 8.343 5.899 4.817 4.168 3.325 2.700 2.088
12 26’217 23’337 21’026 18’549 16’989 14’845 11’340 8’438 7’114 6’304 5’226 4’404 3’571
23.209 20.483 18.307 15.987 14.534 12.549 9.342 6.737 5.570 4.865 3.940 3.247 2.558
1310 27’688 24’736 22’362 19’812 18’202 15’984 12’340 9’299 7’901 7’042 5’892 5’009 4’107
1411 29’141
24.725 26’119
21.920 23’685
19.675 21’064
17.275 19’406
15.767 17’117
13.701 13’339
10.341 10’165
7.584 8’696
6.336 7’790
5.578 6’571
4.575 5’629
3.816 4’660
3.053
1512 30’578
26.217 27’488
23.337 24’996
21.026 22’307
18.549 20’603
16.989 18’245
14.845 14’339
11.340 11’037
8.438 9’499
7.114 8’547
6.304 7’261
5.226 6’262
4.404 5’229
3.571
1613 32’000
27.688 28’845
24.736 26’296
22.362 23’542
19.812 21’793
18.202 19’369
15.984 15’338
12.340 11’912
9.299 10’309
7.901 9’312
7.042 7’962
5.892 6’908
5.009 5’812
4.107
1714 33’409
29.141 30’191
26.119 27’587
23.685 24’769
21.064 22’977
19.406 20’489
17.117 16’338
13.339 12’792
10.165 11’125
8.696 10’085
7.790 8’672
6.571 7’564
5.629 6’408
4.660
18 34’805
30.578 31’526
27.488 28’869
24.996 25’989
22.307 24’155
20.603 21’605
18.245 17’338
14.339 13’675
11.037 11’946
9.499 10’865
8.547 9’390
7.261 8’231
6.262 7’015
5.229
15
19 36’191 32’852 30’144 27’204 25’329 22’718 18’338 14’562 12’773 11’651 10’117 8’907 7’633
2016 32.000
37’566 28.845
34’170 26.296
31’410 23.542
28’412 21.793
26’498 19.369
23’828 15.338
19’337 11.912
15’452 10.309
13’604 9.312
12’443 7.962
10’851 6.908
9’591 5.812
8’260
2117 33.409
38’932 30.191
35’479 27.587
32’671 24.769
29’615 22.977
27’662 20.489
24’935 16.338
20’337 12.792
16’344 11.125
14’439 10.085
13’240 8.672
11’591 7.564 8’897
10’283 6.408
2218 34.805
40’289 31.526
36’781 28.869
33’924 25.989
30’813 24.155
28’822 21.605
26’039 17.338
21’337 13.675
17’240 11.946
15’279 10.865
14’041 9.390
12’338 8.231 9’542
10’982 7.015
2319 41’638
36.191 38’076
32.852 35’172
30.144 32’007
27.204 29’979
25.329 27’141
22.718 22’337
18.338 18’137
14.562 16’122
12.773 14’848
11.651 13’091
10.117 11’689
8.907 10’196
7.633
2420 42’980
37.566 39’364
34.170 36’415
31.410 33’196
28.412 31’132
26.498 28’241
23.828 23’337
19.337 19’037
15.452 16’969
13.604 15’659
12.443 13’848
10.851 12’401
9.591 10’856
8.260
25 44’314 40’646 37’652 34’382 32’282 29’339 24’337 19’939 17’818 16’473 14’611 13’120 11’524
2621 38.932
45’642
35.479
41’923
32.671
38’885
29.615
35’563
27.662
33’429
24.935
30’435
20.337
25’336
16.344
20’843
14.439
18’671
13.240
17’292
11.591 13’844
15’379
10.283 8.897
12’198
2722 40.289
46’963 36.781
43’195 33.924
40’113 30.813
36’741 28.822
34’574 26.039
31’528 21.337
26’336 17.240
21’749 15.279
19’527 14.041
18’114 12.338
16’151 10.982
14’573 9.542
12’879
2823 41.638
48’278 38.076
44’461 35.172
41’337 32.007
37’916 29.979
35’715 27.141
32’620 22.337
27’336 18.137
22’657 16.122
20’386 14.848
18’939 13.091
16’928 11.689
15’308 10.196
13’565
2924 42.980
49’588 39.364
45’722 36.415
42’557 33.196
39’087 31.132
36’854 28.241
33’711 23.337
28’336 19.037
23’567 16.969
21’247 15.659
19’768 13.848
17’708 12.401
16’047 10.856
14’256
3025 50’892
44.314 46’979
40.646 43’773
37.652 40’256
34.382 37’990
32.282 34’800
29.339 29’336
24.337 24’478
19.939 22’110
17.818 20’599
16.473 18’493
14.611 16’791
13.120 14’953
11.524
31 52’191 48’232 44’985 41’422 39’124 35’887 30’336 25’390 22’976 21’434 19’281 17’539 15’655
45.642 41.923 38.885 35.563 33.429 30.435 25.336 20.843 18.671 17.292 15.379 13.844 12.198
3226 53’486 49’480 46’194 42’585 40’256 36’973 31’336 26’304 23’844 22’271 20’072 18’291 16’362
3327 46.963
54’776 43.195
50’725 40.113
47’400 36.741
43’745 34.574
41’386 31.528
38’058 26.336
32’336 21.749
27’219 19.527
24’714 18.114
23’110 16.151
20’867 14.573
19’047 12.879
17’074
3428 48.278
56’061 44.461
51’966 41.337
48’602 37.916
44’903 35.715
42’514 32.620
39’141 27.336
33’336 22.657
28’136 20.386
25’586 18.939
23’952 16.928
21’664 15.308
19’806 13.565
17’789
3529 49.588
57’342 45.722
53’203 42.557
49’802 39.087
46’059 36.854
43’640 33.711
40’223 28.336
34’336 23.567
29’054 21.247
26’460 19.768
24’797 17.708
22’465 16.047
20’569 14.256
18’509
3630 50.892
58’619 46.979
54’437 43.773
50’998 40.256
47’212 37.990
44’764 34.800
41’304 29.336
35’336 24.478
29’973 22.110
27’336 20.599
25’643 18.493
23’269 16.791
21’336 14.953
19’233
37 59’893
52.191 55’668
48.232 52’192
44.985 48’363
41.422 45’886
39.124 42’383
35.887 36’336
30.336 30’893
25.390 28’214
22.976 26’492
21.434 24’075
19.281 22’106
17.539 19’960
15.655
31
38 61’162 56’896 53’384 49’513 47’007 43’462 37’335 31’815 29’093 27’343 24’884 22’878 20’691
53.486 49.480 46.194 42.585 40.256 36.973 31.336 26.304 23.844 22.271 20.072 18.291 16.362
3932 62’428 58’120 54’572 50’660 48’126 44’539 38’335 32’737 29’974 28’196 25’695 23’654 21’426
4033 54.776
63’691 50.725
59’342 47.400
55’758 43.745
51’805 41.386
49’244 38.058
45’616 32.336
39’335 27.219
33’660 24.714
30’856 23.110
29’051 20.867
26’509 19.047
24’433 17.074
22’164
56.061 51.966 48.602 44.903 42.514 39.141 33.336 28.136 25.586 23.952 21.664 19.806 17.789
4134 64’950 60’561 56’942 52’949 50’360 46’692 40’335 34’585 31’740 29’907 27’326 25’215 22’906
4235 57.342
66’206
53.203
61’777
49.802
58’124
46.059
54’090
43.640
51’475
40.223
47’766
34.336
41’335
29.054
35’510
26.460
32’626
24.797
30’765
22.465
28’144
20.569
25’999
18.509
23’650
4336 67’459
58.619 62’990
54.437 59’304
50.998 55’230
47.212 52’588
44.764 48’840
41.304 42’335
35.336 36’436
29.973 33’512
27.336 31’625
25.643 28’965
23.269 26’785
21.336 24’398
19.233
44 68’710
59.893 64’201
55.668 60’481
52.192 56’369
48.363 53’700
45.886 49’913
42.383 43’335
36.336 37’363
30.893 34’400
28.214 32’487
26.492 29’787
24.075 27’575
22.106 25’148
19.960
45
37 69’957 65’410 61’656 57’505 54’810 50’985 44’335 38’291 35’290 33’350 30’612 28’366 25’901
38 61.162 56.896 53.384 49.513 47.007 43.462 37.335 31.815 29.093 27.343 24.884 22.878 20.691
50 76’154
62.428 71’420
58.120 67’505
54.572 63’167
50.660 60’346
48.126 56’334
44.539 49’335
38.335 42’942
32.737 39’754
29.974 37’689
28.196 34’764
25.695 32’357
23.654 29’707
21.426
39
55 82’292 77’380 73’311 68’796 65’855 61’665 54’335 47’610 44’245 42’060 38’958 36’398 33’570
63.691 59.342 55.758 51.805 49.244 45.616 39.335 33.660 30.856 29.051 26.509 24.433 22.164
6040 88’379 83’298 79’082 74’397 71’341 66’981 59’335 52’294 48’759 46’459 43’188 40’482 37’485
6541 94’422
64.950 89’177
60.561 84’821
56.942 79’973
52.949 76’807
50.360 72’285
46.692 64’335
40.335 56’990
34.585 53’293
31.740 50’883
29.907 47’450
27.326 44’603
25.215 41’444
22.906
7042 100’425
66.206 95’023
61.777 90’531
58.124 85’527
54.090 82’255
51.475 77’577
47.766 69’334
41.335 61’698
35.510 57’844
32.626 55’329
30.765 51’739
28.144 48’758
25.999 45’442
23.650
7543 106’393
67.459 100’839
62.990 96’217
59.304 91’061
55.230 87’688
52.588 82’858
48.840 74’334
42.335 66’417
36.436 62’412
33.512 59’795
31.625 56’054
28.965 52’942
26.785 49’475
24.398
8044 112’329
68.710 106’629
64.201 101’879
60.481 96’578
56.369 93’106
53.700 88’130
49.913 79’334
43.335 71’145
37.363 66’994
34.400 64’278
32.487 60’391
29.787 57’153
27.575 53’540
25.148
85 118’236
69.957 112’393
65.410 107’522
61.656 102’079
57.505 98’511
54.810 93’394
50.985 84’334
44.335 75’881
38.291 71’589
35.290 68’777
33.350 64’749
30.612 61’389
28.366 57’634
25.901
45
90 124’116 118’136 113’145 107’565 103’904 98’650 89’334 80’625 76’195 73’291 69’126 65’647 61’754
9550 76.154
129’973 71.420
123’858 67.505
118’752 63.167 109’286
113’038 60.346 103’899
56.334 49.335
94’334 42.942
85’376 39.754
80’813 37.689
77’818 34.764
73’520 32.357
69’925 29.707
65’898
10055 135’807
82.292 129’561
77.380 124’342
73.311 118’498
68.796 114’659
65.855 109’141
61.665 99’334
54.335 90’133
47.610 85’441
44.245 82’358
42.060 77’929
38.958 74’222
36.398 70’065
33.570
60 88.379 83.298 79.082 74.397 71.341 66.981 59.335 52.294 48.759 46.459 43.188 40.482 37.485
65 94.422 89.177 84.821 79.973 76.807 72.285 64.335 56.990 53.293 50.883 47.450 44.603 41.444
70 100.425 95.023 90.531 85.527 82.255 77.577 69.334 61.698 57.844 55.329 51.739 48.758 45.442
75 106.393 100.839 96.217 91.061 87.688 82.858 74.334 66.417 62.412 59.795 56.054 52.942 49.475
80 112.329 106.629 101.879 96.578 93.106 88.130 79.334 71.145 66.994 64.278 60.391 57.153 53.540
85 118.236 112.393 107.522 102.079 98.511 93.394 84.334 75.881 71.589 68.777 64.749 61.389 57.634
90 124.116 118.136 113.145 107.565 103.904 98.650 89.334 80.625 76.195 73.291 69.126 65.647 61.754
95 129.973 123.858 118.752 113.038 109.286 103.899 94.334 85.376 80.813 77.818 73.520 69.925 65.898
100 135.807 129.561 124.342 118.498 114.659 109.141 99.334 90.133 85.441 82.358 77.929 74.222 70.065
128 TEMA P 3. MODELOS DE VARIABLES ALEATORIAS UNIDIMENSIONALES
p
n 0.005 0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45
1 63.6567 31.8205 12.7062 6.3138 3.0777 1.9626 1.3764 1.0000 0.7265 0.5095 0.3249 0.1584
2 9.9248 6.9646 4.3027 2.9200 1.8856 1.3862 1.0607 0.8165 0.6172 0.4447 0.2887 0.1421
3 5.8409 4.5407 3.1824 2.3534 1.6377 1.2498 0.9785 0.7649 0.5844 0.4242 0.2767 0.1366
4 4.6041 3.7469 2.7764 2.1318 1.5332 1.1896 0.9410 0.7407 0.5686 0.4142 0.2707 0.1338
5 4.0321 3.3649 2.5706 2.0150 1.4759 1.1558 0.9195 0.7267 0.5594 0.4082 0.2672 0.1322
6 3.7074 3.1427 2.4469 1.9432 1.4398 1.1342 0.9057 0.7176 0.5534 0.4043 0.2648 0.1311
7 3.4995 2.9980 2.3646 1.8946 1.4149 1.1192 0.8960 0.7111 0.5491 0.4015 0.2632 0.1303
8 3.3554 2.8965 2.3060 1.8595 1.3968 1.1081 0.8889 0.7064 0.5459 0.3995 0.2619 0.1297
9 3.2498 2.8214 2.2622 1.8331 1.3830 1.0997 0.8834 0.7027 0.5435 0.3979 0.2610 0.1293
10 3.1693 2.7638 2.2281 1.8125 1.3722 1.0931 0.8791 0.6998 0.5415 0.3966 0.2602 0.1289
11 3.1058 2.7181 2.2010 1.7959 1.3634 1.0877 0.8755 0.6974 0.5399 0.3956 0.2596 0.1286
12 3.0545 2.6810 2.1788 1.7823 1.3562 1.0832 0.8726 0.6955 0.5386 0.3947 0.2590 0.1283
13 3.0123 2.6503 2.1604 1.7709 1.3502 1.0795 0.8702 0.6938 0.5375 0.3940 0.2586 0.1281
14 2.9768 2.6245 2.1448 1.7613 1.3450 1.0763 0.8681 0.6924 0.5366 0.3933 0.2582 0.1280
15 2.9467 2.6025 2.1314 1.7531 1.3406 1.0735 0.8662 0.6912 0.5357 0.3928 0.2579 0.1278
16 2.9208 2.5835 2.1199 1.7459 1.3368 1.0711 0.8647 0.6901 0.5350 0.3923 0.2576 0.1277
17 2.8982 2.5669 2.1098 1.7396 1.3334 1.0690 0.8633 0.6892 0.5344 0.3919 0.2573 0.1276
18 2.8784 2.5524 2.1009 1.7341 1.3304 1.0672 0.8620 0.6884 0.5338 0.3915 0.2571 0.1274
19 2.8609 2.5395 2.0930 1.7291 1.3277 1.0655 0.8610 0.6876 0.5333 0.3912 0.2569 0.1274
20 2.8453 2.5280 2.0860 1.7247 1.3253 1.0640 0.8600 0.6870 0.5329 0.3909 0.2567 0.1273
21 2.8314 2.5176 2.0796 1.7207 1.3232 1.0627 0.8591 0.6864 0.5325 0.3906 0.2566 0.1272
22 2.8188 2.5083 2.0739 1.7171 1.3212 1.0614 0.8583 0.6858 0.5321 0.3904 0.2564 0.1271
23 2.8073 2.4999 2.0687 1.7139 1.3195 1.0603 0.8575 0.6853 0.5317 0.3902 0.2563 0.1271
24 2.7969 2.4922 2.0639 1.7109 1.3178 1.0593 0.8569 0.6848 0.5314 0.3900 0.2562 0.1270
25 2.7874 2.4851 2.0595 1.7081 1.3163 1.0584 0.8562 0.6844 0.5312 0.3898 0.2561 0.1269
26 2.7787 2.4786 2.0555 1.7056 1.3150 1.0575 0.8557 0.6840 0.5309 0.3896 0.2560 0.1269
27 2.7707 2.4727 2.0518 1.7033 1.3137 1.0567 0.8551 0.6837 0.5306 0.3894 0.2559 0.1268
28 2.7633 2.4671 2.0484 1.7011 1.3125 1.0560 0.8546 0.6834 0.5304 0.3893 0.2558 0.1268
29 2.7564 2.4620 2.0452 1.6991 1.3114 1.0553 0.8542 0.6830 0.5302 0.3892 0.2557 0.1268
30 2.7500 2.4573 2.0423 1.6973 1.3104 1.0547 0.8538 0.6828 0.5300 0.3890 0.2556 0.1267
31 2.7440 2.4528 2.0395 1.6955 1.3095 1.0541 0.8534 0.6825 0.5298 0.3889 0.2555 0.1267
32 2.7385 2.4487 2.0369 1.6939 1.3086 1.0535 0.8530 0.6822 0.5297 0.3888 0.2555 0.1267
33 2.7333 2.4448 2.0345 1.6924 1.3077 1.0530 0.8526 0.6820 0.5295 0.3887 0.2554 0.1266
34 2.7284 2.4411 2.0322 1.6909 1.3070 1.0525 0.8523 0.6818 0.5294 0.3886 0.2553 0.1266
35 2.7238 2.4377 2.0301 1.6896 1.3062 1.0520 0.8520 0.6816 0.5292 0.3885 0.2553 0.1266
36 2.7195 2.4345 2.0281 1.6883 1.3055 1.0516 0.8517 0.6814 0.5291 0.3884 0.2552 0.1266
37 2.7154 2.4314 2.0262 1.6871 1.3049 1.0512 0.8514 0.6812 0.5289 0.3883 0.2552 0.1265
38 2.7116 2.4286 2.0244 1.6860 1.3042 1.0508 0.8512 0.6810 0.5288 0.3882 0.2551 0.1265
39 2.7079 2.4258 2.0227 1.6849 1.3036 1.0504 0.8509 0.6808 0.5287 0.3882 0.2551 0.1265
40 2.7045 2.4233 2.0211 1.6839 1.3031 1.0500 0.8507 0.6807 0.5286 0.3881 0.2550 0.1265
45 2.6896 2.4121 2.0141 1.6794 1.3006 1.0485 0.8497 0.6800 0.5281 0.3878 0.2549 0.1264
50 2.6778 2.4033 2.0086 1.6759 1.2987 1.0473 0.8489 0.6794 0.5278 0.3875 0.2547 0.1263
55 2.6682 2.3961 2.0040 1.6730 1.2971 1.0463 0.8482 0.6790 0.5275 0.3873 0.2546 0.1262
60 2.6603 2.3901 2.0003 1.6706 1.2958 1.0455 0.8477 0.6786 0.5272 0.3872 0.2545 0.1262
65 2.6536 2.3851 1.9971 1.6686 1.2947 1.0448 0.8472 0.6783 0.5270 0.3870 0.2544 0.1262
70 2.6479 2.3808 1.9944 1.6669 1.2938 1.0442 0.8468 0.6780 0.5268 0.3869 0.2543 0.1261
75 2.6430 2.3771 1.9921 1.6654 1.2929 1.0436 0.8464 0.6778 0.5266 0.3868 0.2542 0.1261
80 2.6387 2.3739 1.9901 1.6641 1.2922 1.0432 0.8461 0.6776 0.5265 0.3867 0.2542 0.1261
85 2.6349 2.3710 1.9883 1.6630 1.2916 1.0428 0.8459 0.6774 0.5264 0.3866 0.2541 0.1260
90 2.6316 2.3685 1.9867 1.6620 1.2910 1.0424 0.8456 0.6772 0.5263 0.3866 0.2541 0.1260
95 2.6286 2.3662 1.9853 1.6611 1.2905 1.0421 0.8454 0.6771 0.5262 0.3865 0.2541 0.1260
100 2.6259 2.3642 1.9840 1.6602 1.2901 1.0418 0.8452 0.6770 0.5261 0.3864 0.2540 0.1260
125 2.6157 2.3565 1.9791 1.6571 1.2884 1.0408 0.8445 0.6765 0.5257 0.3862 0.2539 0.1259
150 2.6090 2.3515 1.9759 1.6551 1.2872 1.0400 0.8440 0.6761 0.5255 0.3861 0.2538 0.1259
200 2.6006 2.3451 1.9719 1.6525 1.2858 1.0391 0.8434 0.6757 0.5252 0.3859 0.2537 0.1258
300 2.5923 2.3388 1.9679 1.6499 1.2844 1.0382 0.8428 0.6753 0.5250 0.3857 0.2536 0.1258
∞ 2.5758 2.3263 1.9600 1.6449 1.2816 1.0364 0.8416 0.6745 0.5244 0.3853 0.2533 0.1257
Parte III
Inferencia Estadı́stica
129
Tema I 1
Muestreo y estimación
131
132 TEMA I 1. MUESTREO Y ESTIMACIÓN
Muestreo
Técnicas de muestreo
Muestreo aleatorio es el que se realiza teniendo en cuenta que todos los individuos de
la población tienen la misma probabilidad de ser elegidos en la muestra. Con este
tipo de muestreo, las muestras son representativas, es posible conocer los errores
cometidos y se pueden hacer inferencias.
El muestreo aleatorio es el que más nos interesa y será el que utilicemos siempre que
podamos. Existen tres tipos de muestreo aleatorio:
Muestreo aleatorio simple Para elegir una muestra se parte de una lista con todos los
elementos de la población y del mismo se seleccionan los n elementos que forman la
muestra.
Este muestreo aleatorio es el más sencillo de todos y sirve de base para los otros dos.
Muestreo aleatorio sistemático es una variedad del muestreo aleatorio simple. Con-
siste en, conocido el tamaño de la población, N, y de la muestra, n, dividimos N entre
n, y el resultado del cociente, k, nos indica que debemos seleccionar los elementos
de la muestra de k en k.
Este tipo de muestreo tiene la ventaja de que solo hay que elegir aleatoriamente el
primer elemento de la muestra, pero tiene el problema de que si hay periodicidad en los
datos, la muestra resultante puede que no sea representativa.
134 TEMA I 1. MUESTREO Y ESTIMACIÓN
Si además, cada elemento tiene una oportunidad de ser seleccionado idéntica e in-
dependiente de cualquier otro, entonces estamos ante una muestra aleatoria simple
(m.a.s.).
Vamos a definir algunos conceptos que vamos a manejar en lo sucesivo:
Estimador: es un estadı́stico que nos sirve para encontrar un valor aproximado (estima-
do) de un parámetro.
Sn = ζ1 + ζ2 + · · · + ζn
1. E[Sn ] = nµ
√
2. V ar(Sn ) = σ 2 n, y por lo tanto dt(Sn ) = σ n
Pn
ζ1 + ζ2 + · · · + ζn 1=1 ζi
ζ̄ = =
n n
1. E[ζ̄] = µ
σ2 √σ
2. V ar(ζ̄) = n
, y por lo tanto dt(Sn ) = n
Sea (ζ1 , ζ2 , . . . , ζn ) una m.a.s. tal que E[ζi ] = µ y V ar(ζi ) = E[(ζi − µ)2 ] = σ 2 , ∀i.
Llamaremos estadı́stico varianza muestral a la variable aleatoria:
Pn
02
i=1 (ζi − ζ̄)2
S = m2 =
n
Demostración:
Pn n n
− ζ̄)2
1=1 (ζi 1X
02 2
1X h 2 i
E[S ] = E = E (ζi − ζ̄) = E (ζi − µ) − (ζ̄ − µ) =
n n 1=1 n 1=1
n
1 X
E[(ζi − µ)2 ] + E[(ζ̄ − µ)2 ] − 2E[(ζi − µ)(ζ̄ − µ)] =
=
n 1=1
n n
1 X 2 σ2 1 X 2 σ2 σ2
= σ + − 2E[(ζi − µ)(ζ̄ − µ)] = (∗) = σ + −2 =
n 1=1 n n 1=1 n n
n
1 X (n − 1)σ 2 n(n − 1)σ 2
n−1 2
= = 2
= σ
n 1=1 n n n
" Pn #
j=1 ζj 1X 1
= E ζi − µ2 = E[ζi ]E[ζj ] + E[ζi2 ] − µ2
n n j6=i n
n−1 2 1 2 n−1 2 1 2 1 2 1
= µ + (σ + µ2 ) − µ2 = µ + σ + µ − µ2 = σ 2
n n n n n n
1.3. DISTRIBUCIONES EN EL MUESTREO 137
Sea (ζ1 , ζ2 , . . . , ζn ) una m.a.s. tal que E[ζi ] = µ y V ar(ζi ) = E[(ζi − µ)2 ] = σ 2 , ∀i.
Llamaremos estadı́stico cuasivarianza muestral a la variable aleatoria:
Pn
2 − ζ̄)2
i=1 (ζi n
S = = m2
n−1 n−1
E[S 2 ] = σ 2
Demostración:
2 n n n n−1
E[S ] = E m2 = E[m2 ] = σ2( ) = σ2
n−1 n−1 n−1 n
Como podemos observar, para cada muestra obtenemos unos valores diferentes, pero
estos valores, que podemos considerar como observaciones de la variable aleatoria media
muestral, siguen también una distribución.
Las distribuciones en el muestreo dependerán de la información que tengamos:
138 TEMA I 1. MUESTREO Y ESTIMACIÓN
Sabemos que si tenemos una población en la que la variable considerada sigue una
distribución Normal, N (µ, σ), y extraemos muestras de tamaño n , entonces, la variable
σ
aleatoria media muestral, sigue una distribución: ζ̄ ∼ N (µ, √ )
n
Es decir que si (ζ1 , ζ2 , . . . , ζn ) es una m.a.s de una variable que sigue, en la población,
σ
una distribución N (µ, σ), entonces ζ̄ ∼ N (µ, √ )
n
Estamos diciendo que la variable aleatoria media muestral tiene como media (esperan-
za) la media poblacional (µ). El valor esperado de la media muestral es la media
poblacional.
La desviación tı́pica de la media muestral se conoce como error estándar o error tı́pico
de la media (standard error of the mean: SE).
Por el Teorema central del lı́mite sabemos que el resultado anterior también es cierto
(aproximadamente) cuando la distribución en la población no es Normal, siempre que el
tamaño de las muestras sea suficientemente grande.
Si tipificamos esta variable, obtendremos otra variable con distribución N (0, 1), que
nos permitirá realizar inferencias sobre µ, cuando la desviación tı́pica poblacional, σ,
es conocida.
ζ̄ − µ
√ ∼ N (0, 1)
σ/ n
ζ̄ − µ
√ ∼ tn−1
s/ n
(n − 1)S 2
1.3.3. Distribución para poblaciones Normales
σ2
Si (ζ1 , ζ2 , . . . , ζn ) es una m.a.s de una variable que sigue, en la población, una distri-
(n − 1)S 2
bución N (µ, σ), entonces: ∼ χ2n−1
σ2
Los estadı́sticos que hemos visto se utilizan para estimar los valores de los parámetros
desconocidos de la población.
Estimador
Un estimador es una función de la muestra que se utiliza para estimar los valores de
los parámetros o valores poblacionales desconocidos.
Por ejemplo:
S 2 es un estimador de σ 2
0
S 2 es un estimador de σ 2
p̂ es un estimador de p
Respecto a los estimadores, esto tienen distintas caracterı́sticas que nos pueden inte-
resar y que simplemente vamos a enunciar a continuación:
Diremos que un estimador es un estimador insesgado si su esperanza coincide con
el parámetro que pretende estimar.
Por ejemplo:
ζ̄ es un estimador insesgado de µ
S 2 es un estimador insesgado de σ 2
p̂ es un estimador insesgado de p
estimación puntual
Estimación puntual
La estimación puntual tiene el inconveniente de que cada muestra distinta nos dará
una aproximación diferente.
Para hacernos una idea de en qué intervalo está, casi seguramente, el parámetro po-
blacional, se utilizan los intervalos de confianza.
Llamaremos nivel de confianza al porcentaje de confianza que tenemos al hacer
la estimación (también se puede expresar en términos de probabilidad como 1 − α), o
bien, podemos hablar también del nivel de significación, α, que no es otra cosa que la
probabilidad de error que estamos dispuestos a asumir en la estimación.
Estos dos conceptos son complementarios: Si estamos dispuestos a asumir una proba-
bilidad de error de α = 0.05 (5 % de error), entonces, nuestro nivel de confianza será del
95 % (ó 0.95 en términos de probabilidad).
Por otra parte, queda claro que cuanto mayor sea el error admitido, menor será el
nivel de confianza.
Sabemos que la distribución de la media muestral para variables que tienen en la po-
blación una distribución Normal o para muestras grandes, cuando la varianza poblacional
es conocida es:
σ
ζ̄ ∼ N (µ, √ )
n
σ
P {|ζ̄ − µ| < x} = 0.9, cuando ζ̄ ∼ N (µ, √ )
n
buscamos un intervalo, entorno a la media, que encierre una probabilidad del 90% (por
ejemplo). Este intervalo será aquel que cumpla que:
⎛ σ ⎞
142 P{ζ < x} = 0'9 , cuando ζ ≈ N ⎜⎜TEMA
μ, ⎟⎟I, 1. MUESTREO Y ESTIMACIÓN
⎝ n⎠
1-α=0.9
78
α/2 α/2
a μ b
Para establecer los límites de este intervalo, tenemos que calcular el valor, para una
Para establecer los lı́mites de este intervalo, tenemos que calcular el valor, para una
⎛ σ ⎞
⎜⎜ μ , a su
N (µ, √σn ), que Ndeja ⎟⎟ , derecha
que deja una
a su probabilidad Paraa α/2.
igual a α/2.igual
derecha una probabilidad hacerlo
Paraprimero
hacerlo, primero
⎝ n ⎠
tipificamos, con lo que tenemos que:
ζ −μ
tipificamos con lo que tenemos ζ̄ − µque: Z = ≈ N (0,1) .
Z = √ ∼ N (0, 1) σ
σ/ n n
1-α=0.9
α/2 α/2
Entonces, siEntonces,
para la si = σ/
Z para ζ̄−µ X −μ
√ Z ,=el intervalo de confianza, con un con
nivelundenivel
confianza
la , el intervalo de confianza, de confianza 1-
n
1-α, es (−zα/2 , zα/2 ), esto significa que: n
σ
Cuando trabajamos con poblaciones en las que la variable sigue una distribución
Normal, o con muestras grandes, y además la varianza poblacional es
conocida, el intervalo de confianza para la media, µ, con un nivel de confianza
1 − α es:
σ σ
IC(µ) = x̄ − zα/2 √ , x̄ + zα/2 √
n n
donde, zα/2 es el valor de la N (0, 1), que deja a su derecha una probabilidad igual
a α/2.
donde, tn−1,α/2 es el valor de la t de Student con n-1 grados de libertad, que deja
a su derecha una probabilidad igual a α/2.
r r r !
p(1 − p) p(1 − p) p(1 − p)
IC(p) = p̂ ± zα/2 = p̂ − zα/2 , p̂ + zα/2
n n n
Este intervalo no lo podemos calcular ya que depende del parámetro p que queremos
estimar.
Lo que hacemos es utilizar para el cálculo, la proporción muestral en lugar de la
proporción poblacional. Entonces:
r r r !
p̂(1 − p̂) p̂(1 − p̂) p̂(1 − p̂)
IC(p) = p̂ ± zα/2 = p̂ − zα/2 , p̂ + zα/2
n n n
NOTACIÓN: zα/2 es el valor de una N (0, 1) que deja a la derecha una probabi-
lidad α/2
NOTACIÓN: zα/2 es el valor de una N (0, 1) que deja a la derecha una probabi-
lidad α/2
Veamos un ejemplo:
Si basándonos en una muestra (altura de 30 estudiantes) queremos determinar la
proporción de estudiantes universitarios con una altura superior a 180 cm, deberı́amos
hacer lo siguiente:
Si α = 0.1: s
5 25
5 30 30
IC(p) = ± 1.644854
30 30
3. Interpretamos el resultado:
basándonos en los resultados de la muestra, estimamos con un nivel de confianza
del 90 %, que la proporción poblacional de estudiantes con una altura mayor que
180 cm se encuentra dentro del intervalo: (0.05475, 0.27858) (o lo que es lo mismo,
entre el 5.475 % y el 27.858 %).
Es decir que estimamos, con un nivel de confianza del 99 %, que la proporción pobla-
cional de estudiantes con una altura mayor que 180 cm es menor que el 34.193 %.
Si α = 0.05: s
5 25
5 30 30
IC(p) = ± 1.959964
30 30
(n − 1)S 2
2
∼ χ2n−1
σ
Por lo tanto:
Cuando trabajamos con poblaciones en las que la variable sigue una distribución
Normal, el intervalo de confianza para la varianza, σ 2 , con un nivel de confianza
1 − α es:
!
2 2
(n − 1)S (n − 1)S
IC(σ 2 ) = ,
χ2n−1,α/2 χ2n−1,1−α/2
NOTACIÓN: χ2n−1,α/2 es el valor de una χ2n−1 que deja a la derecha una proba-
bilidad α/2
1. Entre qué valores se encuentra el número medio de lı́neas de código de los programas,
con un nivel de confianza del 90 %.
1.4. CONCEPTO DE ESTIMADOR Y DE ESTIMACIÓN POR INTERVALOS 147
2. Entre qué valores se encuentra la desviación tı́pica del número de lı́neas de código
de los programas, con un nivel de confianza del 95 %.
1. IC0.9 (µ)
Como la varianza poblacional (σ 2 ) es desconocida, sabemos que si el número de
ζ̄ − µ
lı́neas de código sigue una distribución Normal, entonces: s ∼ tn−1
√
n
2. IC0.95 (σ)
Vamos a hacer inferencia sobre la varianza. Sabemos que si el número de lı́neas
(n − 1)s2
de código sigue una distribución Normal, entonces: ∼ χ2n−1
σ2
!
2 2
(n − 1)s (n − 1)s
En este caso, IC0.95 (σ 2 ) = ,
χ2n−1,α/2 χ2n−1,1−α/2
50 ∗ 2252 50 ∗ 2252
2
IC0.95 (σ ) = ,
71.42 32.357
Este es el intervalo de confianza para la varianza poblacional, pero como lo que
queremos es el intervalo para la desviación tı́pica, debemos calcular la raı́z cuadrada.
√ √ !
50 ∗ 225 50 ∗ 225
IC0.95 (σ) = √ , √ = (188.26, 279.69)
71.42 32.357
Es decir, que la desviación tı́pica del número de lı́neas de código de los programas
realizados en la empresa se encuentra en el intervalo (188.26,279.69) con un nivel
de confianza del 95 %.
NOTA: para que los resultados sean válidos, necesitamos comprobar que la varia-
ble aleatoria que mide el número de lı́neas de código de los programas, sigue una
distribución Normal. Si esto no es cierto, los intervalos calculados no son válidos.
148 TEMA I 1. MUESTREO Y ESTIMACIÓN
La idea es la siguiente:
Si la población es Normal, y la varianza poblacional es conocida, la distribución
de la media muestral es:
σ
ζ̄ ∼ N (µ, √ )
n
σ
Es decir que: IC(µ) = x̄ ± zα/2 √ = x̄ ± EM
n
EM es el error muestral.
Luego, el error muestral, que es el error máximo que se puede cometer, para un nivel
de confianza 1 − α, es:
σ
EM = zα/2 √
n
Entonces:
Para calcular el intervalo de confianza para la media, o para realizar un contraste
de hipótesis para la media, cuando
2 p̂(1 − p̂)
n = zα/2
EM 2
Es decir:
Para calcular el intervalo de confianza para la proporción poblacional, o para
realizar un contraste de hipótesis para la proporción poblacional, si estamos
dispuestos a asumir una probabilidad de error α, y determinamos que el
error máximo que estamos dispuestos a aceptar es EM, entonces, el tamaño
de la muestra debe ser:
p̂(1 − p̂)
2
n = zα/2
EM 2
Este resultado es cierto siempre que obtengamos n ≥ 30.
En el resultado anterior, se utiliza la proporción muestral como una estimación de la
proporción poblacional para realizar los cálculos.
Si no queremos o no podemos utilizar la aproximación de la proporción, nos podemos
poner en la peor situación posible y determinar el intervalo de confianza más grande
posible, para un nivel de confianza 1 − α que es el que se obtiene cuando p=1/2.
Para esta situación sabemos que:
Cuando n es suficientemente grande (n > 30), el intervalo de confianza para la pro-
porción poblacional, con un nivel de significación α, es:
r
1
IC(p) = p̂ ± zα/2
4n
r
1
Es decir que el error muestral es: EM = zα/2
4n
1.5. TAMAÑO DE LA MUESTRA 151
2 1
n = zα/2
4EM 2
Es decir que:
Si no queremos o no podemos utilizar la aproximación de la proporción, para
calcular el intervalo de confianza para la proporción poblacional, o para realizar
un contraste de hipótesis para la proporción poblacional, si estamos dispuestos a
asumir una probabilidad de error α, y determinamos que el error máximo
que estamos dispuestos a aceptar es EM, entonces, el tamaño de la muestra debe
ser:
12
n = zα/2
4EM 2
Este resultado es cierto siempre que obtengamos n ≥ 30.
Si tomamos muestras del mismo tamaño en las dos poblaciones: n=m, entonces:
r 2
σ12 + σ22 σ1 + σ22
2
EM = zα/2 y en este caso: n = zα/2
n EM 2
Es decir
Si trabajamos con variables que siguen, en la población, una distribución Normal,
con varianzas conocidas y si tomamos muestras del mismo tamaño en ambas
poblaciones, entonces, el tamaño muestral necesario en cada población, para que
el error muestral de la diferencia de medias, con un nivel de confianza prefijado
1 − α, sea igual a una cantidad prefijada, EM, es:
2
σ1 + σ22
2
n = zα/2
EM 2
1. Las especificaciones del fabricante indican que la vida media de una baterı́a es
de 4 años. Una organización de consumidores mantiene que la vida media de la
baterı́a es sensiblemente menor, y para comprobarlo experimentalmente, realizará
un seguimiento sobre 40 usuarios de este tipo de baterı́as.
3. Un centro de investigación afirma que dispone de una vacuna contra la malaria más
eficiente que la desarrollada por el Dr. Patarroyo. Esta vacuna fue probada sobre
38 voluntarios del Cuerpo de Paz que fueron a un paı́s tropical en el que estaban
especialmente expuestos a la enfermedad. A la mitad se les inoculó la vacuna del
Dr. Patarroyo y a la otra mitad la nueva vacuna. De los que recibieron la nueva
vacuna 15 se libraron de contraer la malaria, mientras que de los que recibieron la
vacuna del Dr. Patarroyo, solamente 11.
Podemos observar que en todos los casos, hay una afirmación sobre los parámetros
poblacionales y se toma una muestra para, con los resultados obtenidos para la misma,
avalar o rechazar dicha afirmación.
En esencia éste es el planteamiento general de lo que en Inferencia Estadı́stica se
conoce como pruebas o contrastes de hipótesis.
153
154 TEMA I 2. CONTRASTES DE HIPÓTESIS PARAMÉTRICOS
Dado que nos movemos en condiciones de incertidumbre, esta última decisión se deberá
tomar en términos probabilı́sticos, es decir, si los resultados obtenidos para la muestra
tienen una alta probabilidad cuando la suposición de partida es cierta, entonces no te-
nemos evidencia en contra de dicha suposición (aceptamos la hipótesis de partida). Pero
si los resultados obtenidos para la muestra son poco probables cuando suponemos que la
hipótesis de partida es cierta, entonces, esto nos lleva a rechazar dicha hipótesis.
Veamos cómo desarrollar todo esto. En primer lugar vamos a definir una serie de
términos:
Esta metodologı́a, en la que la toma de decisiones está basada en los resultados obte-
nidos con una muestra, puede conducir a dos tipos de errores:
Decisión
Aceptar H0 Rechazar H0
H0 verdadera Correcto (1 − α) Error de tipo I (α)
Realidad H0 falsa Error de tipo II (β) Correcto (1 − β )
A la probabilidad de rechazar la hipótesis nula cuando es falsa (1 − β) se le llama
potencia del contraste (es la probabilidad de no cometer un error de tipo II).
A la probabilidad de rechazar la hipótesis nula cuando es verdadera (α) se le llama
nivel de significación.
Para construir y resolver un contraste de hipótesis, se siguen los pasos siguientes:
O bien: X − μ 0
O bien: entonces t = y su p-valor: p = P{T < t T ≈ t n −1 } . Aceptaremos H0 si p>α.
s
n α
H 0 : μ ≥ μ0
Como los ordenadores sólo hacen contrastes bilaterales, si usamos el p-valor para
1 : μ < μuna
aceptar oHrechazar 0 hipótesis de un contraste unilateral, debemos establecer que:
Si el nsigno
. significac
de t esión α
el :contrario al de la zona de rechazo: Se acepta H , ya que hay una
0
gran evidencia a su favor (estamos en la cola contraria).
X − μ0
entonces t =
Entonces: Si t tiene y su p-valor: p = P{T < t T ≈ t n −1 } . Aceptaremos H0 si p>α.
el signo des la zona de rechazo: Se acepta H0 si p/2 > α.
n
Como los ordenadores sólo hacen contrastes bilaterales, si usamos el p-valor para
aceptar o rechazar una hipótesis de un contraste unilateral, debemos establecer que:
Si el signo de t es el contrario al de la zona de rechazo: Se acepta H0 , ya que hay una
2.2. CONTRASTE DE HIPÓTESIS PARA LA MEDIA 157
x̄ − µ0
v.o. = √
s/ n
p-valor: p = P {T < v.o., dado que T ∼ tn−1 }
Aceptaremos H0 si p > α
Aceptaremos H0 si v.o. ∈ (−tn−1,α , ∞)
NOTA: en muchas ocasiones los programas de tratamiento estadı́stico solo hacen con-
trastes bilaterales, en estos casos, si usamos el p-valor para aceptar o rechazar una hipótesis
de un contraste unilateral, consideraremos que:
Recordemos que nuestra conclusión sólo es válida si podemos aceptar que la variable
analizada (duración de las baterı́as de los portátiles de esta marca) sigue una distribución
Normal.
Un estudio análogo al realizado con la media muestral se puede realizar para la varianza
y para la proporción poblacional.
𝐻0 : 𝜎 2 = 𝜎02
� 𝐻1 : 𝜎 2 ≠ 𝜎02
𝑛. 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛: 𝛼
(n − 1)S 2
∼ χ2n−1
σ2
(n − 1)s2
v.o. =
σ02
𝐻0 : 𝜎 2 ≤ 𝜎02
� 𝐻1 : 𝜎 2 > 𝜎02
𝑛. 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛: 𝛼
Entonces:
(n − 1)s2
v.o. = , y su p-valor: p = P {X > v.o., donde X ∼ χ2n−1 }
σ02
Aceptaremos H0 si p > α
O lo que es lo mismo: aceptamos H0 si el valor de prueba v.o. ∈ (0, χ2n−1,α )
O bien,
𝐻0 : 𝜎 2 ≥ 𝜎02
� 𝐻1 : 𝜎 2 < 𝜎02
𝑛. 𝑑𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛: 𝛼
Entonces:
(n − 1)s2
v.o. = 2
, y su p-valor: p = P {X < v.o., donde X ∼ χ2n−1 }
σ0
Aceptaremos H0 si p > α
O lo que es lo mismo: aceptamos H0 si el valor de prueba v.o. ∈ (χ2n−1,1−α , ∞)
H 0 : p = p0 α/2
H 1 : p ≠ p0
n. significación : α
p̂ − p
Conocemos la distribución
q de∼laN (0, 1)
proporción muestral cuando n es suficientemente
p(1−p)
ˆp − p
grande: ≈ N (0,1n) ,
p (1 − p )
Entonces, para nuestra muestra
n y suponiendo que H0 es cierta, calculamos:
entonces, para nuestra muestra y suponiendo que H0 es cierta, calculamos:
p̂ − p0
v.o. = q p m − ,py0 su p-valor: p = P {|Z| > |v.o.|, donde Z ∼ N (0, 1)}
t = p0 (1−p0 ) y su p-valor: p = P{Z > t Z ≈ N (0,1)}; (pm es la proporción
pn0 (1 − p 0 )
n
(p̂ es la proporción
muestral)muestral)
Entonces, aceptaremos H0 si p > H
Entonces, aceptaremos α0(no hay(no
si p>α evidencia en contra
hay evidencia de la de
en contra hipótesis nula).
la hipótesis nula).
O lo que es lo mismo, aceptaremos H0 si el valor de prueba v.o. ∈ (−zα/2 , zα/2 )
En algunos casos, lo que nos plantearemos no es un valor concreto del parámetro sino si
En algunos casos, lo que nos plantearemos no es un valor concreto del parámetro sino
el parámetro toma un valor mayor o menor que un valor dado (Ej.: proporción de
si el parámetro toma un valor mayor o menor que un valor dado (Ej.: proporción de
votantes menor que el 60%).
votantes menor que el 60 %).
En estos casos el procedimiento es análogo. Sólo hay que tener cuidado al plantear la
En estos casos el procedimiento
hipótesis es consideramos
nula (es la que análogo. Solocomo
hay que tener
cierta cuidadocontrastar).
y queremos al plantear la
hipótesis nula (es la que consideramos como cierta y queremos contrastar).
Podemos plantear 2 situaciones:
Podemos plantear dos situaciones:
H 0 : p ≤ p0
α
H 1 : p > p0
n. significación : α
pm − p0
entonces t = y su p-valor: p = P{Z > t Z ≈ N (0,1)} .
Entonces: p 0 (1 − p 0 )
p̂ − p0 n
v.o. = q , y su p-valor: p = P {Z > v.o., donde Z ∼ N (0, 1)}
p0 (1−p 0)
Aceptaremos H0 si p>α.
n
Aceptaremos H0 si p > α
O bien:
α
H 0 : p ≥ p0
H 1 : p < p0
pm − p0
entonces t = y su p-valor: p = P{Z > t Z ≈ N (0,1)} .
p 0 (1 − p 0 )
n
2.5. OTROS CONTRASTES PARAMÉTRICOS 161
Aceptaremos H0 si p>α.
Es decir, aceptaremos H0 si el valor de prueba v.o. ∈ (−∞, zα )
O bien, O bien:
α
H 0 : p ≥ p0
H 1 : p < p0
n. significación : α
pm − p0
Entonces: entonces t = y su p-valor: p = P{Z < t Z ≈ N (0,1)} .
p 0 (1 − p 0 )
p̂ − p0
v.o. = q , y su p-valor: p =n P {Z < v.o., donde Z ∼ N (0, 1)}
p0 (1−p0 )
n
Aceptaremos H0 si p>α.
Aceptaremos H0 si p > α
O lo que es lo mismo, aceptaremos H0 si el valor de prueba v.o. ∈ (−zα , ∞)
si las medias son iguales, es contrastar si la variable diferencia de estas dos variables
tiene media cero. Por lo tanto este caso se reduce a un contraste de una media (con
todas sus condiciones de validez).
Si las muestras son independientes la una de la otra.
Este caso corresponde a la comparación de las medias de una misma variable para
dos grupos independientes de casos (estudiar si se puede aceptar que existen dife-
rencias estadı́sticamente significativas entre los salarios medios de dos categorı́as de
empleados -o entre los tiempos medios de fabricación de una pieza en el turno de
mañana y en el de tarde -).
p̂ − p̂2 − (p1 − p2 )
q1 ∼ N (0, 1)
p1 (1−p1 ) p2 (1−p2 )
n
+ m
En muchas ocasiones, como la hipótesis nula supone que las proporciones poblacionales
son iguales (H0 : p1 = p2 = p), se utiliza una única estimación de la proporción poblacional
común:
np̂1 + mp̂2
p̂ =
n+m
Contrastes de hipótesis no
paramétricos
Al estimar los parámetros de un modelo se supone que los datos que manejamos constituyen
una muestra aleatoria simple de una distribución que, en la mayorı́a de las ocasiones, salvo
por sus parámetros es conocida.
Esto significa que necesitamos garantizar que nuestra muestra es una muestra aleatoria.
Entonces:
Fijamos un punto de corte para dividir en dos partes las observaciones de la muestra,
generalmente se toma la mediana.
165
166 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
Clasificamos los valores de la muestra en: menores o iguales que la mediana ,(-), o mayores
que la mediana, (+). Y se colocan los sı́mbolos por orden de aparición de los valores de
la muestra.
Llamamos racha a una sucesión de valores del mismo tipo (-) o (+), por ejemplo: − −
− + + − − − ++ son 4 rachas.
El número total de rachas es un indicador de si hay o no aleatoriedad en la muestra. Un
número excesivamente grande (el máximo es n) o excesivamente pequeño (el mı́nimo es
2) de rachas indica que la muestra no es aleatoria.
Si llamamos n1 y n2 al número de observaciones de cada tipo (n1 + n2 = n), en función
de estos valores, se espera que el número de rachas no sea ni muy grande ni muy pequeño.
Entonces:
(es decir, que aceptamos que la muestra es una muestra aleatoria siempre que el número
de rachas de la misma se encuentre dentro de la región de aceptación.
Ejemplo. Queremos contrastar si los valores que se dan a continuación constituyen una
muestra aleatoria, con un nivel de significación del 5 %.
18.3 17.7 19.3 17.5 15.4 16.0 19.4 19.9 16.9 16.0 18.3 19.9
Para aplicar el test de rachas, lo primero que hacemos es calcular la mediana de estos datos
(valor central de los datos ordenados de menor a mayor)
Entonces, como R = 7 ∈ (3, 10) = RA, podemos aceptar que los datos constituyen una
muestra aleatoria, con un nivel del significación del 5 %.
1
Ver tabla al final del tema.
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 167
La forma de comprobar que los datos provienen de una distribución concreta es efectuar un
contraste de bondad de ajuste.
Este es un contraste especı́fico para verificar si una muestra proviene de una variable con
distribución Normal, sin tener que realizar ninguna especificación sobre sus parámetros. Es
muy útil para muestras pequeñas (n ≤ 50)
El procedimiento es el siguiente:
Ordenamos las observaciones de la m.a.s. (x1 , . . . , xn ) de menor a mayor: x(1) < . . . < x(n)
Obtenemos los valores de los estadı́sticos muestrales: x̄ y s2
Para unos coeficientes, que ya están tabulados2 y calculados, ai , calculamos:
k
k = n2 , si n par
X
a= ai (x(n−i+1) − x(i) ) donde:
k = n−1
2 , si n impar
i=1
13.2 12.4 14.6 13.0 12.3 14.7 13.2 15.7 15.4 17.1
x̄ = 14.16 y s2 = 2.531556
a2 4.594052
W = = = 0.9263207
(n − 1)s2 9 ∗ 2.531556
Por lo tanto, como W ∈ RA = (0.842, ∞), podemos aceptar que la muestra procede de una
variable con distribución Normal, con un margen de error del 5 %.
Este contraste se utiliza sólo para contrastar si los valores observados proceden de una
variable aleatoria que tiene una determinada distribución continua.
Dada una muestra de tamaño n, para resolver este contraste se compara la frecuencia relativa
acumulada (probabilidad) de la distribución teórica de una variable continua con la emprı́rica
(observada en la muestra), mediante el estadı́stico de Kolomogorov-Smirnov:
Si la hipótesis nula es cierta, las diferencias no serán muy grandes, por lo tanto:
El procedimiento es el siguiente:
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 169
D = máx{d1i , d2i }
i
5. La región de aceptación es: R.A. = (0, K), y los valores crı́ticos (K) están tabulados 5
di =| F (intervalo(i) ) − Fn (intervalo(i) ) |
D = máx{di }
i
Cuando se estiman los parámetros para calcular F (x), la tabulación clásica de este test
conduce a un contraste muy conservador: se tiende a aceptar H0 .
Para mejorar el contraste, Lilliefors tabuló este estadı́stico cuando estimamos los parámetros
µ y σ 2 de una Normal usando sus valores muestrales x̄ y s2 (*)6
Ejemplo. ¿Se puede aceptar, con un nivel de significación del 5 %, que los siguientes datos
(aleatorios) proceden de una variable que tiene, en la población, una distribución Normal?
13.2 12.4 14.6 13.0 12.3 14.7 13.2 15.7 15.4 17.1
5
Tabla al final del tema
6
Tabla al final del tema
7
Información extraida de http://es.wikipedia.org/wiki/Hubert Lilliefors ; foto: imágenes de Google
170 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
1. Ordenamos los datos, y calculamos los parámetros necesarios. En nuestro caso, la media
y la cuasidesviación tı́pica.
x̄ = 14.16 y s = 1.59109
2. Para cada valor obtenemos su frecuencia relativa acumulada observada (Fn (xi )) y la fre-
cuencia relativa acumulada teórica.
F (xi ) = P {ζ < xi }, para la distribución que estemos contrastando.
Por ejemplo, en este caso, como estamos contrastando que los valores vienen de una
Normal:
12.3 − 14.16
F1 = P {ζ < 12.3} = P {Z < } = P {Z < −1.17} = 0.121
1.59109
3. Luego calculamos las diferencias entre las frecuencias acumuladas. La d1 , para los valores
de la misma fila, y la d2 , en cada caso, es la diferencia, entre la teórica y la observada para
el valor anterior.
Este contraste también se puede utilizar para contrastar si una muestra proviene de una
variable que tiene, en la población, cualquier otra distribución, siempre que sea continua.
siguen una distribución Uniforme. Para ello se han analizado los programas presentados por los
estudiantes de distintas universidades y se ha obtenido la siguiente información:
lı́neas trabajos
3700-4100 130
4100-4350 137
4350-4600 149
4600-5000 121
Determina si se puede aceptar que el número de lı́neas de código de los Trabajos de Fin de
Grado siguen una distribución Uniforme, con un nivel de significación del 5 %.
En este caso ya tenemos los datos ordenados y agrupados en intervalos. Además nos dan
las frecuencias absolutas, ası́ que completaremos la tabla añadiendo las frecuencias relativas, las
acumuladas y las probabilidades acumuladas:
lı́neas (ni ) fi = nNi Fn (x(i) ) (observada) F (x(i) ) (teórica) di
130
3700-4100 130 530 = 0.24528 0.24528 0.30769 0.06241
4100-4350 137 0.25849 0.50377 0.5 0.05377
4350-4600 140 0.26415 0.76792 0.69231 0.07561
4600-5000 123 0.23208 1 1 0
530
Las F (x(i) ) son las frecuencias teóricas para cada intervalo, es decir, la frecuencia relativa
acumuladas esperadas (probabilidad acumulada) si realmente la variable sigue una distribución
uniforme. En este caso: ζ ∼ U (3700, 5000)
F (x(2) ) = P {ζ < 4350 , con ζ ∼ U (3700, 5000)} = P {3700 < ζ < 4350, con ζ ∼ U (3700, 5000)} =
4350 − 3700 650
= = = 0.5
5000 − 3700 1300
Los datos están agrupados en intervalos, por lo que sólo es necesario calcular una diferencia.
3.2.3. Test de la χ2
La hipótesis nula H0 , es que los datos provienen de una variable con una determinada
distribución.
172 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
El test contrasta esta hipótesis comparando las frecuencias observadas en la muestra con las
teóricas (es decir las que cabrı́a esperar si realmente los datos provienen de esa distribución)
basándose en el siguiente resultado:
k
X (Oi − Ei )2
∼ χ2gl
Ei
i=1
donde:
Para realizar este contraste necesitamos que la muestra tenga tamaño n ≥ 25, entonces,
si queremos contrastar:
H0 : las observaciones provienen de una variable con una determinada distribución
H1 : las observaciones NO provienen de una variable con una determinada distribución
Ejemplo. Se quiere determinar si el volumen de propinas diarias que dejan los clientes
en cierto establecimiento siguen una ley Normal con un nivel de significación del 10 %. Para
ello se han observado las propinas diarias durante el último año y se ha obtenido la siguiente
distribución:
propinas (en e) número de dı́as (ni = Oi )
0-40 35
40-60 41
60-80 73
80-100 85
100-120 62
120-140 37
140-200 32
3.2. CONTRASTES DE LA BONDAD DE AJUSTE 173
Ya tenemos los datos agrupados en 7 clases, y la frecuencia en cada una de ellas es mayor
que 5, por lo que no hace falta modificar nada.
• En el primero:
40 − 89.26027
P {ζ < 40} = P Z< = P {Z < −1.26} = P {Z > 1.26} = 0.1038
39.04423
• En el último:
140 − 89.26027
P {ζ > 140} = P Z> = P {Z > 1.30} = 0.0968
39.04423
• Y en los intermedios:
40 − 89.26027 60 − 89.26027
P {40 < ζ < 60} = P <Z< =
39.04423 39.04423
= P {−1.26 < Z < −0.75} = P {0.75 < Z < 1.26} = P {Z > 0.75} − P {Z > 1.26} =
(Oi − Ei )2
Para cada clase, se calcula el valor:
Ei
El valor del estadı́stico χ2 = 4.0889 ∈ [0, 7.779) = RA por lo tanto, SI se puede aceptar que
el importe diario de las propinas sigue una distribución Normal, con un nivel de confianza
del 90 %.
NOTA: cuando n es grande podemos utilizar la aproximación de Moivre para aproximar por
una Normal. Es decir, como p = q = 12 :
r
n n
n ≥ 10 ⇒ B ≈ N ,
2 4
(n ≥ 10 ⇔ np ≥ 5 y nq ≥ 5, ya que p = q = 21 )
32.5 30.2 31.4 28.7 27.9 28.4 26.3 30.9 32.0 30.9
¿Podemos aceptar, con un nivel de significación del 10 %, que en la mitad de las ocasiones
el tiempo del proceso es mayor que 30 segundos?
Si B=número de observaciones con valor mayor que 30. Entonces B ∼ B(10, 0.5)
En nuestro caso B = 6
176 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
Entonces, como B = 6 ∈ (1, 9) = RA, concluimos que sı́ se puede aceptar que en la mitad
de las ocasiones, el tiempo del proceso es mayor que 30 segundos, (y en la otra mitad es menor)
con un nivel de significación del 10 %.
A diferencia del contraste anterior, este contraste tiene en cuenta no sólo el signo de las
diferencias entre los valores de la muestra y la mediana que queremos contrastar, sino también
la magnitud de las mismas.
Llamaremos:
Este contraste utiliza los estadı́sticos T + y T − de Wilcoxon que se obtienen de del siguiente
modo:
X
T+ = Ri
xi >θ
X
T− = Ri
xi <θ
Cuando n ≤ 30 los valores crı́ticos están tabulados 8 , y en este caso la región de aceptación
es: R.A. = (t1−α/2 , tα/2 ).
8
Tabla al final del tema
3.3. CONTRASTES DE LOCALIZACIÓN 177
Ejemplo. Vamos a resolver el mismo problema que en el caso anterior ya que la variable
analizada (duración del proceso) es de tipo continuo:
32.5 30.2 31.4 28.7 27.9 28.4 26.3 30.9 32.0 30.9
¿Podemos aceptar, con un nivel de significación del 10 %, que en la mitad de las ocasiones
el tiempo del proceso es mayor que 30 segundos?
Lo más sencillo es construir una tabla, con los valores ordenados, en la que vamos haciendo
los cálculos:
x(i) 26.3 27.9 28.4 28.7 30.2 30.9 30.9 31.4 32.0 32.5
di = xi − 30 -3.7 -2.1 -1.6 -1.3 0.2 0.9 0.9 1.4 2.0 2.5
Ri 10 8 6 4 1 2.5 2.5 5 7 9
Entonces:
T − = 10 + 8 + 6 + 4 = 28 y
T + = 1 + 2.5 + 2.5 + 5 + 7 + 9 = 27
Como T = 28 ∈ (10, 45) = RA, aceptamos que la mediana de la duración de los procesos es
30 segundos, con un nivel de significación del 10 %.
Una de las principales utilidades de los contrastes de localización es para determinar si los
datos de dos muestras provienen de variables con la misma distribución en la población
(puede ser la misma o distinta variable).
Esto se usa tanto cuando interesa saber si las distribuciones son iguales como para ver si son
diferentes (si hay diferencias estadı́sticamente significativas).
Vamos a resolverlo, en primer lugar usando el contraste de Rangos con signo de Wilko-
xon.
Ahora no comparamos con un valor concreto sino, para cada caso, los valores correspondien-
tes, diferencias (di ); y luego analizaremos el rango de las diferencias (Ri ).
Completamos la tabla:
Antes 11.6 14.3 16.1 13.7 15.7 14.2 13.2 14.1 12.7 11.2 13.9 11.2
Después 12.3 13.6 13.8 12.2 13.8 12.5 13.7 12.8 13.1 12.9 12.1 13.1
di -0.7 0.7 2.3 1.5 1.9 1.7 -0.5 1.3 -0.4 -1.7 1.8 -1.9
Ri 3.5 3.5 12.0 6.0 10.0 7.0 2.0 5.0 1.0 8.0 9.0 11.0
T − = 3.5 + 2 + 1 + 8 + 11 = 25.5 y
T + = 3.5 + 12 + 6 + 10 + 7 + 5 + 9 = 52.5
Por lo tanto, no hay diferencias estadı́sticamente significativas entre las dos distribuciones.
Conclusión: NO podemos aceptar que el nuevo componente disminuye el nivel de ruido, con
un nivel de significación del 10 %.
Para este contraste sólo nos hace falta determinar el valor de la variable:
Como S = 7 ∈ RA = (2, 10) esto significa que las dos distribuciones son análogas y por lo
tanto no hay diferencias estadı́sticamente significativas.
3.4.1. T.5.Test
TABLA deRachas.
Test de Rachas
Valores críticos del estadístico Número de Rachas para n1 y n2 ≤ 20 y = 0’05
1 2 0'975
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 0 0 0 0 0 0 2 2 2 2 2 2 2 2 2 2 2 2 2
3 0 0 0 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3
4 0 0 2 2 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4
5 0 2 2 3 3 3 3 4 4 4 4 4 5 5 5 5 5 5 5
6 0 2 3 3 3 4 4 4 5 5 5 5 5 6 6 6 6 6 6
7 0 2 3 3 4 4 4 5 5 5 6 6 6 6 6 7 7 7 7
8 2 2 3 3 4 4 5 5 6 6 6 6 7 7 7 7 8 8 8
9 2 2 3 4 4 5 5 6 6 6 7 7 7 8 8 8 8 9 9
10 2 3 3 4 5 5 6 6 6 7 7 8 8 8 8 9 9 9 9
11 2 3 3 4 5 5 6 6 7 8 9 9 9 10 10 10 10 11 7
12 2 3 4 4 5 6 6 7 7 9 8 8 8 9 9 9 10 10 10
13 2 3 4 4 5 6 6 7 8 9 8 9 9 10 10 10 11 11 11
14 2 3 4 5 5 6 7 7 8 9 8 9 10 10 11 11 11 12 12
15 2 3 4 5 6 6 7 8 8 10 9 10 10 11 11 11 12 12 12
16 2 3 4 5 6 6 7 8 8 10 9 10 11 11 11 12 12 12 12
17 2 3 4 5 6 7 7 8 9 10 9 10 11 11 12 12 13 13 13
18 2 3 4 5 6 7 8 8 9 10 10 11 11 12 12 13 13 14 14
19 2 3 4 5 6 7 8 9 9 11 10 11 10 12 12 13 14 14 14
20 2 3 4 5 6 7 8 9 9 7 10 11 12 12 12 13 14 14 15
2 0'025
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 4 5 5 5 5 5 3 5 5 5 5 5 5 5 5 5 5 5 5
3 5 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7
4 5 6 7 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9
5 5 7 8 8 9 9 10 10 10 11 11 11 11 11 11 11 11 11 11
6 5 7 8 9 10 10 11 11 11 12 12 12 12 13 13 13 13 13 13
7 5 7 8 9 10 11 12 12 12 13 13 13 13 14 14 14 14 14 14
8 5 7 9 10 11 12 12 13 13 14 14 14 15 15 15 15 15 15 16
9 5 7 9 10 11 12 13 13 14 14 15 15 16 16 16 16 17 17 17
10 5 7 9 10 11 12 13 14 15 15 16 16 16 17 17 17 18 18 18
11 5 7 9 11 12 13 14 14 15 17 17 18 18 19 19 20 20 20 16
12 5 7 9 11 12 13 14 15 16 17 16 17 17 18 18 18 19 19 19
13 5 7 9 11 12 13 14 15 16 18 17 18 19 19 20 20 20 21 21
14 5 7 9 11 12 13 15 16 16 18 17 19 19 20 20 21 21 22 22
15 5 7 9 11 13 14 15 16 17 19 18 19 20 20 21 21 22 22 23
16 5 7 9 11 13 14 15 16 17 19 18 20 20 21 22 22 22 23 23
17 5 7 9 11 13 14 15 16 17 20 18 20 21 21 22 23 23 24 24
18 5 7 9 11 13 14 15 17 18 20 19 20 21 22 22 23 24 25 25
19 5 7 9 11 13 14 15 17 18 20 19 21 19 22 23 24 25 25 26
20 5 7 9 11 13 14 16 17 18 16 19 21 22 23 23 24 25 26 26
3.4. TABLAS PARA CONTRASTES NO PARAMÉTRICOS 181
3.4.2. T.5.Test
TABLA deRachas.
Test de Rachas (continuación)
(Continuación)
1 2 0'995
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 2
3 0 0 0 0 0 0 0 2 2 2 2 2 2 2 2 2 2 2 2
4 0 0 0 0 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3
5 0 0 0 2 2 2 2 3 3 3 3 3 3 4 4 4 4 4 4
6 0 0 2 2 2 3 3 3 3 4 4 4 4 4 4 5 5 5 5
7 0 0 2 2 3 3 3 4 4 4 4 5 5 5 5 5 5 6 6
8 0 0 2 2 3 3 4 4 4 4 5 5 5 5 6 6 6 6 6
9 0 2 2 3 3 4 4 4 5 5 5 6 6 6 6 7 7 7 7
10 0 2 2 3 3 4 4 5 5 5 6 6 6 7 7 7 7 8 8
11 0 2 2 3 4 4 4 5 5 7 7 7 8 8 8 8 9 9 6
12 0 2 3 3 4 4 5 5 6 7 6 6 7 7 7 8 8 8 8
13 0 2 3 3 4 5 5 6 6 7 6 7 8 8 8 9 9 9 10
14 0 2 3 3 4 5 5 6 6 8 7 8 8 8 9 9 9 10 10
15 0 2 3 4 4 5 5 6 7 8 7 8 8 9 9 10 10 10 11
16 0 2 3 4 4 5 6 6 7 8 7 8 9 9 10 10 10 10 10
17 0 2 3 4 5 5 6 7 7 8 8 9 9 10 10 10 11 11 11
18 0 2 3 4 5 5 6 7 7 9 8 9 9 10 10 11 11 12 12
19 2 2 3 4 5 6 6 7 8 9 8 9 10 10 10 11 12 12 12
20 2 2 3 4 5 6 6 7 8 6 8 10 10 11 10 11 12 12 13
2 0'005
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n1
2 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
3 5 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7
4 5 7 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9
5 5 7 9 9 10 10 11 10 11 11 11 11 11 11 11 11 11 11 11
6 5 7 9 10 11 11 12 12 13 13 13 13 13 13 13 13 13 13 13
7 5 7 9 10 11 12 12 13 14 14 14 15 15 15 15 15 15 15 15
8 5 7 9 11 12 12 13 14 14 15 15 16 16 16 16 17 17 17 17
9 5 7 9 10 12 13 14 15 15 16 16 17 17 17 17 17 18 18 18
10 5 7 9 11 13 14 14 15 16 17 17 18 18 18 19 19 19 19 19
11 5 7 9 11 13 14 15 16 17 18 19 20 20 21 21 21 22 22 17
12 5 7 9 11 13 14 15 16 17 19 18 18 19 19 20 20 20 21 21
13 5 7 9 11 13 15 16 17 18 20 18 20 20 21 21 22 22 23 23
14 5 7 9 11 13 15 16 17 18 20 19 20 21 22 22 23 23 23 24
15 5 7 9 11 13 15 16 17 18 21 19 21 22 22 23 23 24 24 25
16 5 7 9 11 13 15 16 17 19 21 20 21 22 23 23 24 24 25 25
17 5 7 9 11 13 15 17 17 19 21 20 22 23 23 24 25 25 26 26
18 5 7 9 11 13 15 17 18 19 22 20 22 23 24 24 25 26 26 27
19 5 7 9 11 13 15 17 18 19 22 21 23 23 24 25 26 26 27 28
20 5 7 9 11 13 15 17 18 19 17 21 23 24 25 25 26 27 28 28
Para n1 ó n2 > 20, el Número de Rachas sigue aproximadamente una distribución Normal de
2n1n2 2n1n2 (2n1n2 n1 n2 )
media 1 y varianza 2
n1 n2 2
n1 n2 n1 n2 1
182 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
n
i 2 3 4 5 6 7 8 9 10
1 0’7071 0’7071 0’6872 0’6646 0’6431 0’6233 0’6052 0’5888 0’5739
2 - 0’0000 0’1677 0’2413 0’2806 0’3031 0’3164 0’3244 0’3291
3 - - - 0’0000 0’0875 0’1401 0’1743 0’1976 0’2141
4 - - - - - 0’0000 0’0561 0’0947 0’1224
5 - - - - - - - 0’0000 0’0399
11 12 13 14 15 16 17 18 19 20
1 0’5601 0’5475 0’5359 0’5251 0’5150 0’5056 0’4968 0’4886 0’4808 0’4734
2 0’3315 0’3325 0’3325 0’3318 0’3306 0’3290 0’3273 0’3253 0’3232 0’3211
3 0’2260 0’2347 0’2412 0’2495 0’2495 0’2521 0’2540 0’2553 0’2561 0’2565
4 0’1429 0’1586 0’1707 0’1802 0’1878 0’1988 0’1988 0’2027 0’2059 0’2085
5 0’0695 0’0922 0’1099 0’1240 0’1353 0’1447 0’1524 0’1587 0’1641 0’1686
6 0’0000 0’0303 0’0539 0’0727 0’0880 0’1005 0’1109 0’1197 0’1271 0’1334
7 - - 0’0000 0’0240 0’0433 0’0593 0’0725 0’0837 0’0932 0’1013
8 - - - - 0’0000 0’0196 0’0359 0’0496 0’0612 0’0711
9 - - - - - - 0’0000 0’0163 0’0303 0’0422
10 - - - - - - - - 0’0000 0’0140
21 22 23 24 25 26 27 28 29 30
1 0’4643 0’4590 0’4542 0’4493 0’4450 0’4407 0’4366 0’4328 0’4291 0’4254
2 0’3185 0’3156 0’3126 0’3098 0’3069 0’3043 0’3018 0’2992 0’2968 0’2944
3 0’2578 0’2571 0’2563 0’2554 0’2543 0’2533 0’2522 0’2510 0’2499 0’2487
4 0’2119 0’2131 0’2139 0’2145 0’2148 0’2151 0’2152 0’2151 0’2150 0’2148
5 0’1736 0’1764 0’1787 0’1807 0’1822 0’1836 0’1848 0’1857 0’1864 0’1870
6 0’1399 0’1443 0’1480 0’1512 0’1539 0’1563 0’1584 0’1601 0’1616 0’1630
7 0’1092 0’115 0’1201 0’1245 0’1283 0’1316 0’1346 0’1372 0’1395 0’1415
8 0’0804 0’0878 0’0941 0’0997 0’1046 0’1089 0’1128 0’1162 0’1192 0’1219
9 0’0530 0’0618 0’0696 0’0764 0’0823 0’0876 0’0923 0’0965 0’1002 0’1036
10 0’0263 0’0368 0’0459 0’0539 0’0610 0’0672 0’0728 0’0778 0’0822 0’0862
11 0’0000 0’0122 0’0228 0’0321 0’0403 0’0476 0’0540 0’0598 0’0650 0’0697
12 - - 0’0000 0’0107 0’0200 0’0284 0’0358 0’0424 0’0483 0’0537
13 - - - - 0’0000 0’0094 0’0178 0’0253 0’0320 0’0381
14 - - - - - - 0’0000 0’0084 0’0159 0’0227
15 - - - - - - - - 0’0000 0’0076
31 32 33 34 35 36 37 38 39 40
1 0’4220 0’4188 0’4156 0’4127 0’4096 0’4068 0’4040 0’4015 0’3989 0’3964
2 0’2921 0’2898 0’2876 0’2854 0’2834 0’2813 0’2794 0’2774 0’2755 0’2737
3 0’2475 0’2463 0’2451 0’2439 0’2427 0’2415 0’2403 0’2391 0’2380 0’2368
4 0’2145 0’2141 0’2137 0’2132 0’2127 0’2121 0’2116 0’2110 0’2104 0’2098
5 0’1874 0’1878 0’1880 0’1882 0’1883 0’1883 0’1883 0’1881 0’1880 0’1878
6 0’1641 0’1651 0’1660 0’1667 0’1673 0’1678 0’1683 0’1686 0’1689 0’1691
7 0’1433 0’1449 0’1463 0’1475 0’1487 0’1496 0’1505 0’1513 0’1520 0’1526
8 0’1243 0’1265 0’1284 0’1301 0’1317 0’1331 0’1344 0’1356 0’1366 0’1376
9 0’1066 0’1093 0’1118 0’1140 0’1160 0’1179 0’1196 0’1211 0’1225 0’1237
10 0’0899 0’0931 0’0961 0’0988 0’1013 0’1036 0’1056 0’1075 0’1092 0’1108
11 0’0739 0’0777 0’0812 0’0844 0’0873 0’0900 0’0924 0’0947 0’0967 0’0986
12 0’0585 0’0629 0’0669 0’0706 0’0739 0’0770 0’0798 0’0824 0’0848 0’0870
13 0’0435 0’0485 0’0530 0’0572 0’0610 0’0645 0’0677 0’0706 0’0733 0’0759
14 0’0289 0’0344 0’0395 0’0441 0’0484 0’0523 0’0559 0’0592 0’0622 0’0651
15 0’0144 0’0206 0’0262 0’0314 0’0361 0’0404 0’0444 0’0481 0’0515 0’0546
16 0’0000 0’0068 0’0187 0’0187 0’0239 0’0287 0’0331 0’0372 0’0409 0’0444
17 - - 0’0000 0’0062 0’0119 0’0172 0’0220 0’0264 0’0305 0’0343
18 - - - - 0’0000 0’0057 0’0110 0’0158 0’0203 0’0244
19 - - - - - - 0’0000 0’0053 0’0101 0’0146
20 - - - - - - - - 0’0000 0’0049
41 42 43 44 45 46 47 48 49 50
1 0’3940 0’3917 0’3894 0’3872 0’3850 0’3830 0’3808 0’3789 0’3770 0’3751
2 0’2719 0’2701 0’2684 0’2667 0’2651 0’2635 0’2620 0’2604 0’2589 0’2574
3 0’2357 0’2345 0’2334 0’2323 0’2313 0’2302 0’2291 0’2281 0’2271 0’2260
4 0’2091 0’2085 0’2078 0’2072 0’2065 0’2058 0’2052 0’2045 0’2038 0’2032
5 0’1876 0’1874 0’1871 0’1868 0’1865 0’1862 0’1859 0’1855 0’1851 0’1847
6 0’1693 0’1694 0’1695 0’1695 0’1695 0’1695 0’1695 0’1693 0’1692 0’1691
7 0’1531 0’1535 0’1539 0’1542 0’1545 0’1548 0’1550 0’1551 0’1553 0’1554
8 0’1384 0’1392 0’1398 0’1405 0’1410 0’1415 0’1420 0’1423 0’1427 0’1430
9 0’1249 0’1259 0’1269 0’1278 0’1286 0’1293 0’1300 0’1306 0’1312 0’1317
10 0’1123 0’1136 0’1149 0’1160 0’1170 0’1180 0’1189 0’1197 0’1205 0’1212
11 0’1004 0’1020 0’1035 0’1049 0’1062 0’1073 0’1085 0’1095 0’1105 0’1113
12 0’0891 0’0909 0’0927 0’0943 0’0959 0’0972 0’0986 0’0998 0’1010 0’1020
13 0’0782 0’0804 0’0824 0’0842 0’0860 0’0876 0’0892 0’0906 0’0919 0’0932
14 0’0677 0’0701 0’0724 0’0745 0’0765 0’0783 0’0801 0’0817 0’0832 0’0846
15 0’0575 0’0602 0’0628 0’0651 0’0673 0’0694 0’0713 0’0731 0’0748 0’0764
16 0’0476 0’0506 0’0534 0’0560 0’0584 0’0607 0’0628 0’0648 0’0667 0’0685
17 0’0379 0’0411 0’0442 0’0471 0’0497 0’0522 0’0546 0’0568 0’0588 0’0608
18 0’0283 0’0318 0’0352 0’0383 0’0412 0’0439 0’0465 0’0489 0’0511 0’0532
19 0’0188 0’0227 0’0263 0’0296 0’0328 0’0357 0’0385 0’0411 0’0436 0’0459
20 0’0094 0’0136 0’0175 0’0211 0’0245 0’0277 0’0307 0’0335 0’0361 0’0386
21 0’0000 0’0045 0’0087 0’0126 0’0163 0’0197 0’0229 0’0259 0’0288 0’0314
22 - - 0’0000 0’0042 0’0081 0’0118 0’0153 0’0185 0’0215 0’0244
23 - - - - 0’0000 0’0039 0’0076 0’0111 0’0143 0’0174
24 - - - - - - 0’0000 0’0037 0’0071 0’0104
25 - - - - - - - - 0’0000 0’0035
3.4. TABLAS PARA CONTRASTES NO PARAMÉTRICOS 183
α
n 0’01 0’02 0’05 0’10 0’50 0’90 0’95 0’98 0’99
TABLA
3.4.5.T.6.Test
Test de
deKolmogorov – Smirnov de bondad
Kolmogorov-Smirnov dedebondad
ajuste de ajuste
α
n 0’2 0’1 0’05 0’02 0’01
1 0’900 0’950 0’975 0’990 0’995
2 0’684 0’776 0’842 0’900 0’929
3 0’565 0’636 0’780 0’785 0’829
4 0’493 0’565 0’624 0’689 0’734
5 0’447 0’509 0’563 0’627 0’669
6 0’410 0’468 0’519 0’577 0’617
7 0’381 0’436 0’483 0’538 0’576
8 0’358 0’410 0’454 0’507 0’542
9 0’339 0’387 0’430 0’480 0’513
10 0’323 0’369 0’409 0’457 0’489
11 0’308 0’352 0’391 0’437 0’468
12 0’296 0’338 0’375 0’419 0’449
13 0’285 0’325 0’361 0’404 0’432
14 0’275 0’314 0’349 0’390 0’418
15 0’266 0’304 0’338 0’377 0’404
16 0’258 0’295 0’327 0’366 0’392
17 0’250 0’286 0’318 0’355 0’381
18 0’244 0’279 0’309 0’346 0’371
19 0’237 0’271 0’301 0’337 0’361
20 0’232 0’265 0’294 0’329 0’352
21 0’226 0’259 0’287 0’321 0’344
22 0’221 0’253 0’281 0’314 0’337
23 0’216 0’247 0’275 0’307 0’330
24 0’212 0’242 0’269 0’301 0’323
25 0’208 0’238 0’264 0’295 0’317
26 0’204 0’233 0’259 0’290 0’311
27 0’200 0’229 0’254 0’284 0’305
28 0’197 0’225 0’250 0’279 0’300
29 0’193 0’221 0’246 0’275 0’295
30 0’190 0’218 0’242 0’270 0’290
> 30 1'073 1'224 1'358 1'517 1'628
n n n n n
3.4. TABLAS PARA CONTRASTES NO PARAMÉTRICOS 185
TABLA T.7. Test de Kolmogorov – Smirnov - Lilliefors
3.4.6. Test de Kolmogorov-Smirnov-Lilliefors
Puntos críticos del estadístico para un tamaño de muestra n a un nivel de significación
α para contrastar las hipótesis de normalidad cuando la media y la varianza poblacionales
son estimadas por sus valores muestrales
α
n 0’2 0’15 0’1 0’05 0’01
4 0’300 0’319 0’352 0’381 0’417
5 0’285 0’299 0’315 0’337 0’405
6 0’265 0’277 0’294 0’319 0’364
7 0’247 0’258 0’276 0’300 0’348
8 0’233 0’244 0’261 0’285 0’331
9 0’223 0’233 0’249 0’271 0’311
10 0’215 0’224 0’239 0’258 0’294
11 0’206 0’217 0’230 0’249 0’284
12 0’199 0’212 0’223 0’242 0’275
13 0’190 0’202 0’214 0’234 0’268
14 0’183 0’194 0’207 0’227 0’261
15 0’177 0’187 0’201 0’220 0’257
16 0’173 0’182 0’195 0’213 0’250
17 0’169 0’177 0’189 0’206 0’245
18 0’166 0’173 0’184 0’200 0’239
19 0’163 0’169 0’179 0’195 0’235
20 0’160 0’166 0’174 0’190 0’231
25 0’149 0’153 0’165 0’180 0’203
30 0’131 0’136 0’144 0’161 0’187
> 30 0'736 0'768 0'805 0'886 1'031
n n n n n
186 TEMA I 3. CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
3.4.7. T.10.
TABLA Test
Testde losrangos
de los rangos con de
con signo signo de Wilcoxon
Wilcoxon
1 2 2
5 - - - 0 15 - - -
6 - - 0 2 19 21 - -
7 - 0 2 3 25 26 28 -
8 0 1 3 5 31 33 35 36
9 1 3 5 8 37 40 42 44
10 3 5 8 10 45 47 50 52
11 5 7 10 13 53 56 59 61
12 7 9 13 17 61 65 69 71
13 9 12 17 21 70 74 79 82
14 12 15 21 25 80 84 90 93
15 15 19 25 30 90 95 101 105
16 19 23 29 35 101 107 113 117
17 23 27 34 41 112 119 126 130
18 27 32 40 47 124 131 139 144
19 32 37 46 53 137 144 153 158
20 37 43 52 60 150 158 167 173
21 42 49 58 67 164 173 182 189
22 48 55 65 75 178 188 198 205
23 54 62 73 83 193 203 214 222
24 61 69 81 91 209 219 231 239
25 68 76 89 100 225 236 249 257
26 75 84 98 110 241 253 267 276
27 83 92 107 119 259 271 286 295
28 91 101 116 130 276 290 305 315
29 100 110 126 140 295 309 325 335
30 109 120 137 151 314 328 345 356
Para n > 30, los estadísticos de Wilcoxon siguen aproximadamente una distribución Normal de
nn 1 nn 12n 1
media y varianza 2
4 24