Вы находитесь на странице: 1из 20

Capítulo 2

PROBABILIDAD Y DISTRIBUCIONES DE PROBABILIDAD


Reseña Histórica

Una disputa entre jugadores en 1654 llevó a dos famosos matemáticos franceses, Blaise
Pascal y Pierre de Fermat, a la creación del cálculo de Probabilidades. Antoine Gombaud,
caballero de Meré, noble francés interesado en cuestiones de juegos y apuestas, llamó la
atención a Pascal respecto a una aparente contradicción en un popular juego de dados. Este
y otros problemas planteados por de Meré motivaron un intercambio de cartas entre Pascal
y Fermat en las que por primera vez se formularon los principios fundamentales de las
probabilidades. Si bien unos pocos problemas sobre juegos de azar habían sido resueltos
por matemáticos italianos en los siglos XV y XVI, no existía una teoría general antes de esa
famosa correspondencia.

El científico holandés Christian Huygens, enterado de esa correspondencia publicó


rápidamente en 1657 el primer libro de probabilidades; fue un tratado de problemas
relacionado con los juegos. El cálculo de probabilidades llego a ser pronto popular por sus
alusiones a los juegos de azar, y se desarrollo rápidamente a lo largo del siglo XVIII.
Quienes más contribuyeron a su desarrollo fueron James Bernoulli y Abraham de Moivre.

En 1812, Pierre de Laplace introdujo gran cantidad de ideas nuevas y técnicas matemáticas
en su libro, Teoría Analítica de Probabilidades. Antes de Laplace, las probabilidades
prácticamente consistían en un análisis matemático de los juegos del azar. Laplace
demostró que esa teoría podía ser aplicada a multitud de problemas científicos y prácticos.
Ejemplo de tales aplicaciones son la teoría de errores, la matemática actuarial y la mecánica
estadística que se desarrollaron en el siglo XIX. Una de las dificultades que se presentaron
al desarrollar una teoría matemática ha sido alcanzar una definición de probabilidad lo
bastante precisa para su utilización matemática.

La búsqueda de una definición completamente aceptable duro cerca de 3 siglos y fue


caracterizada por un gran número de controversias. El asunto fue definitivamente resuelto
en el siglo XX al tratar la teoría de la probabilidad en forma axiomática establecida por el
matemático ruso Andrei Kolmogorov, quien consideró la relación entre la frecuencia
relativa de un suceso y su probabilidad cuando el número de veces que se realiza el
experimento es muy grande.

Conceptos Básicos
Experimento Aleatorio: Conjunto de pruebas realizadas bajo las mismas condiciones y
cuyos resultados son impredecibles. Los rasgos que distinguen a los experimentos
aleatorios son:
i. Todos los resultados del experimento son conocidos con anterioridad a su realización.
ii. No se puede predecir el resultado del experimento.
iii. El experimento puede repetirse en condiciones idénticas.

Espacio Muestral: Es el conjunto de todos los resultados posibles de un experimento


aleatorio.
Se denota generalmente por  y se clasifica en:
i. Cardinalidad: Finito, Infinito numerable, Infinito no numerable.
ii. Discreto: Aquel cuyo resultado puede ponerse en una correspondencia uno a uno, con
el conjunto de los números naturales.
iii. Continuo: Aquel cuyos resultados consisten del intervalo de los números reales.

Suceso o evento aleatorio: Es cualquier subconjunto del espacio muestral. Conjunto de


posibles resultados de un experimento aleatorio.
a) Suceso o evento seguro: Es un evento que siempre ocurre.
b) Suceso o evento imposible: Es aquel que indefectiblemente no ocurrirá, se denomina
conjunto vacío 
c) Eventos igualmente probables: Todos tienen la misma probabilidad de ocurrir
(equiprobables).
d) Eventos dependientes: Aquellos en que la ocurrencia de uno afecta la probabilidad de
ocurrencia de los demás.
e) Eventos independientes: La ocurrencia de uno no afecta la probabilidad de ocurrencia
o no de los demás.

Álgebra de sucesos de probabilidad


Algunos conceptos de teoría de conjuntos extendidos a sucesos de probabilidad se deben
recordar
La unión de dos sucesos A y B en un espacio muestral  se define como:
A  B = x / x  A ó x  B , el conjunto correspondiente A  B significa que ocurre

A, ocurre B u ocurren A y B.
La intersección de dos sucesos A y B en un espacio muestral  se define como:
A  B = AB = x / x  A y x  B , A  B significa que ocurren A y B conjunta o

simultáneamente.
El complemento del suceso A en el espacio muestral  se define como la diferencia entre
el conjunto  y el conjunto A:
 - A = Ac = A’ = A = x / x  y x  A y significa que no ocurre A.

 A  B  Ac  B c y  A  B  Ac  B c .
c c
Leyes de De Morgan

Definición de Probabilidad
Definición axiomática debida a Andrei Kolmogorov, 1903 a 1987, probabilista ruso.
Sea  el espacio muestral asociado a un experimento aleatorio y sean Ai   para i =1,

2,..., n eventos. A cada suceso Ai le asignaremos un número real P  Ai  , denominada

probabilidad de Ai , que satisface las propiedades siguientes:

1) 0  P  Ai   1 2) P (  ) = 1

3) Si A1 excluye a A2 entonces P ( A1  A2 ) = P( A1 )  P( A2 )

4) Si los Ai son mutuamente excluyentes, es decir Ai  A j =  para todo i  j =1, 2,.., n

 n  n
entonces P  Ai    P  Ai 
 i 1  i 1
Observe que estas propiedades no dependen de cómo se calculen las probabilidades P  Ai 
Enfoques de Probabilidad
Definición Clásica o “a priori”: Dice que si hay x posibles resultados favorables a la
ocurrencia de un evento A y z posibles resultados a la ocurrencia del experimento aleatorio,
y todos los resultados son igualmente posibles y mutuamente excluyente (no pueden ocurrir
los dos al mismo tiempo), entonces la probabilidad de que ocurra A es:
n( x) n( x)
P( A)  
n( z ) n()
El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado sea
igualmente probable.
Este enfoque es llamado enfoque a priori porque permite, (en caso de que pueda aplicarse)
calcular el valor de probabilidad antes de observar cualquier evento de muestra.
Ejemplo:
Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de sacar una
piedra roja en un intento es:
9
P ( A)  = 0,375 ó 37,5%
24
Definición Frecuencial o “a posteriori”: También llamado Enfoque Empírico, determina
la probabilidad sobre la base de la proporción de veces que ocurre un evento favorable en
un número de observaciones. En este enfoque no ese utiliza la suposición previa de
aleatoriedad, porque la determinación de los valores de probabilidad se basa en la
observación y recopilación de datos.
Ejemplo:
Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no tienen cinturón
de seguridad. Si un vigilante de transito se para en esa misma esquina un día cualquiera
¿Cuál será la probabilidad de que detenga un vehículo sin cinturón de seguridad?

Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de


probabilidad, en el sentido de que los valores de probabilidad indican al largo plazo la tasa
relativa de ocurrencia del evento.
El enfoque subjetivo
Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte de un
individuo de que un evento ocurra, basado en toda la evidencia a su disposición. Bajo esta
premisa se puede decir que este enfoque es adecuado cuando solo hay una oportunidad de
ocurrencia del evento. Es decir, que el evento ocurrirá o no ocurrirá esa sola vez. El valor
de probabilidad bajo este enfoque es un juicio personal.

Propiedades de la probabilidad
Proposición 1. La probabilidad de un suceso imposible  es cero.

Proposición 2. P  A  1  P  Ac 

Proposición 3. Si A y B son sucesos no necesariamente excluyentes entonces


P (A  B) = P (A) + P (B) - P (A  B)
Proposición 4.
P (A  B  C)=P(A)+ P(B) +P(C) - P(A  B) - P(A  C) - P(B  C) + P(A  B  C)
Proposición 5. P (A-B) = P(A) – P(A  B)

Probabilidad Condicional
Sean A y B dos sucesos de un espacio muestral  . La expresión P (A / B) indica la
probabilidad de que ocurra el evento A dado que ya ha ocurrido el evento B. Puede
determinarse de la siguiente manera:
P (A / B) = P (A  B) / P (B)
P (A  B) se interpreta como la probabilidad de que los sucesos A y B ocurran
conjuntamente.

Ejercicio: Para obtener licencia para conducir, es necesario aprobar tanto el examen teórico
como el práctico. Se sabe que la probabilidad que un alumno apruebe la parte teórica es
0,68, la de que apruebe la parte práctica es 0,72 y la de que haya aprobado alguna de las dos
partes es 0,82. Si se elige un alumno al azar, ¿cuál es la probabilidad de que apruebe el
examen para obtener licencia?
Eventos Independientes

Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento o


suceso no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un
caso típico de eventos independiente es el muestreo con reposición, es decir, una vez
tomada la muestra se regresa de nuevo a la población donde se obtuvo.
Ejemplo:
Lanzar al aire dos veces una moneda son eventos independientes por que el resultado del
primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el
segundo lanzamiento.

Eventos dependientes
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos
afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso,
empleamos entonces, el concepto de probabilidad condicional para denominar la
probabilidad del evento relacionado. La expresión P (A|B) indica la probabilidad de
ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.

P (A / B) = P(A  B) / P (B) o P (B /A) = P(A  B) / P(A)

Proposición 5: Regla de la multiplicación de probabilidades

Eventos dependientes:
P (A  B) = P (B) P (A/ B) ó P (A  B) = P (A) P (B / A)

Sucesos independientes:
Consideremos dos eventos A y B no vacíos en  . Las siguientes proposiciones son
equivalentes
A es independiente de B  P (A  B) = P (A) P (B)
 P (A/ B) = P(A)
 P (B/A) = P (B)

Ejercicio: En una tómbola hay dos bolitas blancas y tres bolitas negras, ¿cuál es la
probabilidad de sacar una blanca y después una negra?
a) Si hay reposición, esto es, después de sacar la primera bolita, ésta se devuelve a la
tómbola
b) Si no hay reposición, esto es, después de sacar la primera bolita, ésta no se devuelve a la
tómbola

Partición del espacio muestral 

Decimos que los sucesos B1 , B2 ,..., Bk , representan una partición de  si:


k
a) Bi  B j =  para i  j, b) Bi   c) 0  P  Bi   1, Bi
i 1

Esto significa que  es cubierto por todas las partes Bi que son mutuamente excluyentes,
es decir que el experimento aleatorio asociado a  ocurre cuando sucede alguno de los Bi .

Probabilidad total

Sea A un suceso y B1 , B2 ,..., Bk una partición de  . Entonces:


k
P  A    P  Bi  P  A / Bi 
i 1

Teorema de Bayes
Debida a Thomas Bayes, 1702 a 1761, matemático inglés que estableció el primer método
de inferencia estadística.
Regla de Bayes
Para medir la probabilidad de que un Bi sea la causa de un evento observado en A.

P  Bi  A  P  Bi  P  A / Bi 
“fácil” P  Bi / A   k para i = 1, 2,3,..., k
P  A
 P  Bi  P  A / Bi 
i 1

Proposición 8. Independencia de sucesos complementarios


Si A y B son sucesos independientes en un espacio muestral  entonces Ac y B c también
lo son.
Ejercicio
El inspector de calidad de una gran empresa tiene un plan de muestreo de forma que cuando
el pedido es de buena calidad lo acepta el 98% de las veces. Por otra parte, el inspector
acepta el 94% de los pedidos y sabe que el 5% de los pedidos son de mala calidad. Calcule
la probabilidad que un pedido:
a) De buena calidad se acepte
b) Malo se acepte
c) Se rechace dado que es de mala calidad

Variable Aleatoria
Se llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral
E un número real.
Se utilizan letras mayúsculas X, Y,... para designar variables aleatorias, y las respectivas
minúsculas (x, y,...) para designar valores concretos de las mismas.

Variable aleatoria discreta


Una va ri abl e al e at or i a di scret a es aqu el l a que sól o pued e t om ar val or es
ent eros .

Ejemplos
El número de hijos de una familia, la puntuación obtenida al lanzar un dado.

Función de Probabilidad
Sea X la variable aleatoria discreta, entonces su función de probabilidad
f  x   P  x   P  X  x  debe satisfacer lo siguiente:

i) 0  f  x   1 ii)  f  x  1

Función de Probabilidad Acumulada


Sea X la variable aleatoria discreta, con función de probabilidad, f  x  , entonces su
x
función de probabilidad acumulada es: F  x   P  X  x    f  x 
X 0

Características
n
Media Aritmética    xf  x 
X 0
Varianza
n
 2   x2 f  x    2
X 0

Mediana
Me = F  X  Me   0,5

Variable aleatoria continúa


Una vari abl e al e at ori a cont i nua es aquella que puede t om ar t odos l os val ores
pos i bl es dent ro de u n ci ert o i nt erval o de la recta real.
Ejemplos
La altura de los alumnos de una clase, las horas de duración de una pila.

Función de Densidad de Probabilidad


Sea X la variable aleatoria continúa, entonces su función de probabilidad
f  x   P  x   P  X  x  debe satisfacer lo siguiente:
 b

i) f  x   0 x  R ii)  f  x dx  1 iii) P  A   P  a  X  b    f  x dx


 a

Función de Probabilidad Acumulada


Sea X la variable aleatoria continua, con función de probabilidad, f  x  , entonces su
x
función de probabilidad acumulada es: F  x   P  X  x    f  x dx


Características

Media Aritmética   xf  x dx


Varianza

   x f  x  dx  
2 2 2



Mediana
Me
Me = F  X  Me    f  x  dx 0,5

DISTRIBUCIONES PARA VARIABLES ALEATORIAS DISCRETAS

Las distribuciones Binomial y Poisson, se derivan de experimentos aleatorios en las cuales


nos interesa el número de éxito en las “n” repeticiones, en los periodos y regiones, aún más
están relacionadas con la teoría del muestreo pequeño n< 30.
Son muy importantes pues son la base de metodologías inferenciales, tales como Intervalos
de Confianza y Pruebas de Hipótesis.
DISTRIBUCIÓN BINOMIAL

Estudiaremos en este tema una de las distribuciones de probabilidad más importantes y que
son imprescindibles a la hora de adentrarnos en el estudio de la inferencia estadística. La
distribución binomial es uno de los primeros ejemplos de las llamadas distribuciones
discretas (que sólo pueden tomar un número finito, o infinito numerable, de valores). Fue
estudiada por Jakob Bernoulli (Suiza, 1654-1705), quién escribió el primer tratado
importante sobre probabilidad, “Arsconjectandi” (El arte de pronosticar). Los Bernoulli
formaron una de las sagas de matemáticos más importantes de la historia.

La distribución Binomial o de Bernoulli

La distribución binomial está asociada a experimentos del siguiente tipo:


 Realizamos “n” veces cierto experimento en el que consideramos sólo la posibilidad de
éxito o fracaso.
 La obtención de éxito o fracaso en cada ocasión es independiente de la obtención de
éxito o fracaso en las demás ocasiones.
 La probabilidad de obtener éxito o fracaso siempre es la misma en cada ocasión
(invariante).

Veamos con un ejemplo


Tiramos un dado 7 veces y contamos el número de cincos que obtenemos. ¿Cuál es la
probabilidad de obtener tres cincos?
Este es un típico ejemplo de distribución binomial, pues estamos repitiendo 7 veces el
experimento de lanzar un dado. .
¿Cuál es nuestro éxito?
Evidentemente, sacar un 5, que es en lo que nos fijamos.
El fracaso, por tanto, sería no sacar 5, sino sacar cualquier otro número.
Por tanto, ´Éxito = E = “sacar un 5” = P (E) = 1/6
Fracaso = F = “no sacar un 5” = P (F) = 5/6
Para calcular la probabilidad que nos piden, fijémonos en que nos dicen que sacamos 3
cincos y por lo tanto tenemos 3 éxitos y 4 fracasos, ¿de cuántas maneras pueden darse estas
posibilidades?
Podríamos sacar 3 cincos en las 3 primeras tiradas y luego 4 tiradas sin sacar cinco, es
decir: EEEFFFF
Pero también podríamos sacar EFEFFFE, es decir que en realidad estamos calculando de
cuántas maneras se pueden ordenar 4 fracasos y 3 éxitos. Recordando las técnicas
combinatorias, este problema se reduce a calcular las permutaciones con elementos
repetidos:

Definición de distribución Binomial:


Si realizamos “n” veces un experimento en el que podemos obtener éxito, E, con
probabilidad “p” y fracaso, F, con probabilidad “q” (q = 1 − p), diremos que estamos ante
una distribución binomial de parámetros “n y p”, y lo representaremos por B (n; p). En este
caso la función de probabilidad de obtener k éxitos viene dada por:

P (k )  P ( X  k )  Ckn p k q n  k
Nota:
Observar que las probabilidades de éxito y fracaso son complementarias, es decir, q = 1-p y
p =1-q, por lo que basta saber una de ellas para calcular la otra.

Ejemplo:
Supongamos que la probabilidad de que una pareja tenga un hijo o una hija es igual.
Calcular la Probabilidad de que una familia con 6 descendientes tenga 2 hijos.
En este caso Éxito = E = “tener hijo” y P (E) = 0,5.
Fracaso = F = “tener hija” y P (F) = 0,5.
Estamos por tanto ante una binomial B (6; 0,5) y nos piden P (X=2).
Si aplicamos la fórmula es:
P ( X  2)  C26 0, 52 * 0, 54  0, 2344
Nota:
La elección de éxito o fracaso es subjetiva y queda a elección de la persona que resuelve el
problema, pero teniendo cuidado de plantear correctamente lo que se pide.
El uso de las tablas de la distribución Binomial
La distribución binomial se encuentra tabulada por lo que es fácil calcular probabilidades
sin necesidad de hacer demasiadas cuentas. Para usar las tablas de la distribución binomial
es necesario conocer:
 El número de veces que se realiza el experimento (n).
 La probabilidad de éxito (p).
 El número de éxitos (k).
La probabilidad “p” se busca en la primera fila (valores desde 0,01 hasta 0,5).
El número de veces que se realiza el experimento, en la primera columna (valores desde 2 a
10) y el número de éxitos a su lado.
Por ejemplo en el caso anterior, B (6; 0,5), P(X=2), la columna p = 0,5 es la última, y
cuando n = 6 y k = 2 encontramos 0,2344, el valor que habríamos calculado.

Nota importante: El caso en que p >0,5, no se encuentra tabulado.


La razón es bien sencilla. Si p >0,5, entonces q <0,5 y basta intercambiar los papeles de
éxito y fracaso para que podamos utilizar la tabla.

Probabilidades acumuladas
Es posible que nos pidan no sólo la probabilidad de que ocurran un cierto número de éxitos
en concreto, sino que ocurran como mucho “k” éxitos o por lo menos k éxitos o preguntas
similares. Podrían pedirnos:
a) ¿Cuál es la probabilidad de que aprueben como mucho 2 alumnos?
Si éxito = aprobar y fracaso = desaprobar, p = 0,7 y q = 0,3, entonces nos piden P(X ≤
2). En este caso, basta pensar en que para que aprueben 2 alumnos como mucho, puede
que aprueben 2, 1 o ninguno, es decir:
P(X ≤ 2) = P(X = 0)+P(X = 1)+P(X = 2) = 0,0001 + 0,0012 + 0,01 = 0,1013
b) ¿Cuál es la probabilidad de que aprueben entre 3 y 6 alumnos (inclusive)?.
Del mismo modo:
p (3 ≤ X ≤ 6) = p(X = 3)+p(X = 4)+p(X = 5)+p(X = 6) = 0,0467 + 0,1361 + 0,2541 +
0,2965 = 0,7334
Hemos de tener en cuenta que para la distribución binomial, en las tablas sólo se admiten
valores hasta n =25 (25 repeticiones del experimento). Para valores de n >25,
inevitablemente hemos de utilizar la fórmula.

Media y Desviación típica en una distribución Binomial


El número esperado de éxitos o media, viene dado por µ = n p
La desviación típica, σ, que es una medida de dispersión y mide lo alejados que están los
datos de la media, viene dada por σ = npq
Ejemplos
2. Cada muestra de aire tiene 10% de posibilidades de contener una molécula rara
particular. Suponga que las muestras son independientes con respecto a la presencia de
la molécula rara. Encuentre la probabilidad de que en las siguientes 18 muestras,
a) exactamente 2 contengan la molécula rara.
b) Por lo menos 5 contengan la molécula rara.

DISTRIBUCIÓN DE POISSON
Dato Histórico
La distribución de Poisson se llama así en honor a su creador, el francés Simeón Dennis
Poisson (1781 – 1840). Esta distribución de probabilidad fue uno de los múltiples trabajos
que Dennis completo en su productiva trayectoria.

La distribución de Poisson es una distribución de probabilidad discreta que expresa, a


partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado
número de eventos durante cierto periodo de tiempo.

Características:
En este tipo de experimentos los éxitos buscados son expresados por unidad de área,
tiempo, pieza, etc, etc,: Por ejemplo:
- # de defectos de una tela por m2
- # de aviones que aterrizan en un aeropuerto por día, hora, minuto, etc, etc.
- # de bacterias por cm2 de cultivo
- # de llamadas telefónicas a un conmutador por hora, minuto, etc, etc.
- # de llegadas de embarcaciones a un puerto por día, mes, etc, etc.

Para determinar la probabilidad de que ocurran x éxitos por unidad de tiempo, área, o
producto, la fórmula a utilizar sería:

 x  
P ( x,  ) 
x!
Donde:
p(x,) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de
ellos es 
 = media o promedio de éxitos por unidad de tiempo, área o producto
 = 2.718
x = variable aleatoria que nos denota el número de éxitos que se desea que ocurra

Hay que hacer notar que en esta distribución el número de éxitos que ocurren por unidad de
tiempo, área o producto es totalmente al azar y que cada intervalo de tiempo es
independiente de otro intervalo dado, así como cada área es independiente de otra área dada
y cada producto es independiente de otro producto dado.
Propiedades del modelo de Poisson

1) Esperanza matemática: E(X) = λ.

2) Varianza: V(X) = λ.

En esta distribución la esperanza y la varianza coinciden.

3) La suma de dos variables aleatorias independientes con distribución de Poisson resulta


en una nueva variable aleatoria, también con distribución de Poisson, de parámetro
igual a la suma de parámetros:

X1 ~ P (λ = λ1) y X2 ~ P (λ = λ2)

y definimos Z = X1 + X2, entonces,

Z ~ P (λ = λ1 + λ2)

Este resultado se extiende inmediatamente al caso de n variables aleatorias independientes


con distribución de Poisson. En este caso, la variable suma de todas ellas sigue una
distribución de Poisson de parámetro igual a la suma de los parámetros.

Ejemplos:

4. El dueño de un criadero de árboles está especializado en la producción de abetos de


Navidad. Estos crecen en filas de 300. Se sabe que por término medio 6 árboles no son
aptos para su venta. Asume que la cantidad de árboles aptos para la venta por fila
plantada sigue una distribución de Poisson.
a) Calcula la probabilidad de encontrar 2 árboles no vendibles en una fila de árboles.
b) Calcula la probabilidad de encontrar 2 árboles no vendibles en media fila de árboles.
DISTRIBUCIONES PARA VARIABLES ALEATORIAS CONTINUAS

Distribución Normal o de Gauss

Introducción
Una de las distribuciones teóricas mejor estudiadas en los textos de estadística y más
utilizada en la práctica es la distribución normal, también llamada distribución
gaussiana. Su importancia se debe fundamentalmente a la frecuencia con la que distintas
variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta
distribución. Caracteres morfológicos (como la talla o el peso),
o psicológicos (como el cociente intelectual) son ejemplos de variables de las que
frecuentemente se asume que siguen una distribución normal.
El uso extendido de la distribución normal en las aplicaciones estadísticas puede explicarse,
además, por otras razones. Muchos de los procedimientos estadísticos habitualmente
utilizados asumen la normalidad de los datos observados. Aunque muchas de estas técnicas
no son demasiado sensibles a desviaciones de la normal y, en general, esta hipótesis puede
obviarse cuando se dispone de un número suficiente de datos, resulta recomendable
contrastar siempre si se puede asumir o no una distribución normal. La simple exploración
visual de los datos puede sugerir la forma de su distribución. No obstante, existen otras
medidas, gráficos de normalidad y contrastes de hipótesis que pueden ayudarnos a decidir,
de un modo más riguroso, si la muestra de la que se dispone procede o no de una
distribución normal. Cuando los datos no sean normales, podremos o bien transformarlos o
emplear otros métodos estadísticos que no exijan este tipo de restricciones (los llamados
métodos no paramétricos).
A continuación se describirá la distribución normal, su ecuación matemática y sus
propiedades más relevantes, proporcionando algún ejemplo sobre sus aplicaciones a la
inferencia estadística.

Dato Histórico
La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre
(1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más
profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más
comúnmente, como la "campana de Gauss".
Definición

Se dice que la v.a continua X es una v.a. normal con parámetros  y  2 si su función de
densidad es:
1 x   
2

1 
2   

f ( x)  e ,   x  ......(1)
 2
Se denota X~ N (µ, σ²) y se dice X se distribuye normal con parámetros µ y σ²

Gráfica de la Distribución Normal

Propiedades de la distribución normal

La distribución normal posee ciertas propiedades importantes que conviene destacar:


a). La función siempre es positiva, f(x) > 0 para toda x.
1
b). Tiene una única moda, que coincide con su media y su mediana, cuyo valor es .
 2
c). La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre  y
 es teóricamente posible.
d). El área total bajo la curva es, igual a 1.
e). Es simétrica con respecto a su media. Según esto, para este tipo de variables existe una
probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar
un dato menor.
f). La distancia entre la línea trazada en la media y el punto de inflexión (µ-σ y µ+σ) de la
curva es igual a una desviación típica (  ). Cuanto mayor sea  , más aplanada será la
curva de la densidad.
f). El área bajo la curva comprendido entre los valores situados aproximadamente a dos
desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95% de
posibilidades de observar un valor comprendido en el intervalo.
g). La forma de la campana de Gauss depende de los parámetros  y  . La media indica
la posición de la campana, de modo que para diferentes valores de la gráfica es
desplazada a lo largo del eje horizontal. Por otra parte, la desviación estándar determina
el grado de apuntamiento de la curva. Cuanto mayor sea el valor de  , más se
dispersarán los datos en torno a la media y la curva será más plana. Un valor pequeño
de este parámetro indica, por tanto, una gran probabilidad de obtener datos cercanos al
valor medio de la distribución.

Distribución Normal Estándar

Deduciendo de la última propiedad, no existe una única distribución normal, sino una
familia de distribuciones con una forma común, diferenciadas por los valores de su media y
su varianza. De entre todas ellas, la más utilizada es la distribución normal estándar, que
corresponde a una distribución de media 0 y varianza 1. Así, la expresión que define su
densidad se puede obtener de la Ecuación 1, resultando:

1 2
1 z
f ( z)  e 2 ,   z  ......(2)
2

Es importante conocer que, a partir de cualquier variable X  N (  ,  ) , se puede obtener


otra característica Z con una distribución normal estándar, sin más que efectuar la
x
transformación: z , donde z  N (0,1) .

Gráfica de la Distribución Normal Estándar

(-) 0 (+) Z

Ejercicios 1

1. Dada una distribución normal estándar, encuentre el área bajo la curva que está
a) a la izquierda de z = 1.43
b) a la derecha de z = -0.89
c) entre z = -2.16 y z = -0.65
d) a la izquierda de z = -1.39
e) a la derecha de z = 1.96
f) entre z = -0.48 y z = 1.74
Ejercicio 2: Halla las siguientes probabilidades en una distribución N ( 0, 1 )
a) P (Z ≤ 1,28) b) P (Z ≥ 0,65)
c) P (Z ≤ -1,17) d) P (Z ≥ -1,76)

Ejercicio 3: Sea Z una variable aleatoria que sigue una distribución N (0, 1).
Hallar el valor de K en cada una de las siguientes igualdades:

a) P (Z ≤ K) = 0,8485 b) P (Z ≥ K) = 0,9972
c) P (1 ≤ Z ≤ K) = 0,15 d) P (Z ≤ 2 + k) = 0,9896

Ejercicio 4: En una distribución N (23; 3), halla las siguientes probabilidades:

a) P (x ≤ 30) b) P (x ≥ 15)
c) P (19 ≤ x ≤ 21) d) P (25 ≤ x ≤ 29)

Ejercicio 5: En una distribución N (9; 0,5), calcula el valor de K para que se


cumplan las siguientes igualdades:

a) P (x ≤ K) = 0, 9608 b) P (x ≥ K) = 0, 5199
c) P (x ≤ K) = 0, 8212 d) P (x ≥ K) = 0, 8830
Ejercicio 6: En una ciudad se estima que la temperatura máxima en el mes de
junio sigue una distribución normal, con media 23° y desviación típica 5°. Calcular
el número de días del mes en los que se espera alcanzar máximas entre 21° y
27°.

Ejercicio 7: El gerente de personal de una gran compañía requiere que los


solicitantes a un puesto efectúen cierta prueba y alcancen una calificación de 500.
Si las calificaciones de la prueba se distribuyen normalmente con media   485 y
desviación estándar   30 ¿Qué porcentaje de los solicitantes pasará la prueba?

Вам также может понравиться