Академический Документы
Профессиональный Документы
Культура Документы
Una disputa entre jugadores en 1654 llevó a dos famosos matemáticos franceses, Blaise
Pascal y Pierre de Fermat, a la creación del cálculo de Probabilidades. Antoine Gombaud,
caballero de Meré, noble francés interesado en cuestiones de juegos y apuestas, llamó la
atención a Pascal respecto a una aparente contradicción en un popular juego de dados. Este
y otros problemas planteados por de Meré motivaron un intercambio de cartas entre Pascal
y Fermat en las que por primera vez se formularon los principios fundamentales de las
probabilidades. Si bien unos pocos problemas sobre juegos de azar habían sido resueltos
por matemáticos italianos en los siglos XV y XVI, no existía una teoría general antes de esa
famosa correspondencia.
En 1812, Pierre de Laplace introdujo gran cantidad de ideas nuevas y técnicas matemáticas
en su libro, Teoría Analítica de Probabilidades. Antes de Laplace, las probabilidades
prácticamente consistían en un análisis matemático de los juegos del azar. Laplace
demostró que esa teoría podía ser aplicada a multitud de problemas científicos y prácticos.
Ejemplo de tales aplicaciones son la teoría de errores, la matemática actuarial y la mecánica
estadística que se desarrollaron en el siglo XIX. Una de las dificultades que se presentaron
al desarrollar una teoría matemática ha sido alcanzar una definición de probabilidad lo
bastante precisa para su utilización matemática.
Conceptos Básicos
Experimento Aleatorio: Conjunto de pruebas realizadas bajo las mismas condiciones y
cuyos resultados son impredecibles. Los rasgos que distinguen a los experimentos
aleatorios son:
i. Todos los resultados del experimento son conocidos con anterioridad a su realización.
ii. No se puede predecir el resultado del experimento.
iii. El experimento puede repetirse en condiciones idénticas.
A, ocurre B u ocurren A y B.
La intersección de dos sucesos A y B en un espacio muestral se define como:
A B = AB = x / x A y x B , A B significa que ocurren A y B conjunta o
simultáneamente.
El complemento del suceso A en el espacio muestral se define como la diferencia entre
el conjunto y el conjunto A:
- A = Ac = A’ = A = x / x y x A y significa que no ocurre A.
A B Ac B c y A B Ac B c .
c c
Leyes de De Morgan
Definición de Probabilidad
Definición axiomática debida a Andrei Kolmogorov, 1903 a 1987, probabilista ruso.
Sea el espacio muestral asociado a un experimento aleatorio y sean Ai para i =1,
1) 0 P Ai 1 2) P ( ) = 1
3) Si A1 excluye a A2 entonces P ( A1 A2 ) = P( A1 ) P( A2 )
n n
entonces P Ai P Ai
i 1 i 1
Observe que estas propiedades no dependen de cómo se calculen las probabilidades P Ai
Enfoques de Probabilidad
Definición Clásica o “a priori”: Dice que si hay x posibles resultados favorables a la
ocurrencia de un evento A y z posibles resultados a la ocurrencia del experimento aleatorio,
y todos los resultados son igualmente posibles y mutuamente excluyente (no pueden ocurrir
los dos al mismo tiempo), entonces la probabilidad de que ocurra A es:
n( x) n( x)
P( A)
n( z ) n()
El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado sea
igualmente probable.
Este enfoque es llamado enfoque a priori porque permite, (en caso de que pueda aplicarse)
calcular el valor de probabilidad antes de observar cualquier evento de muestra.
Ejemplo:
Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de sacar una
piedra roja en un intento es:
9
P ( A) = 0,375 ó 37,5%
24
Definición Frecuencial o “a posteriori”: También llamado Enfoque Empírico, determina
la probabilidad sobre la base de la proporción de veces que ocurre un evento favorable en
un número de observaciones. En este enfoque no ese utiliza la suposición previa de
aleatoriedad, porque la determinación de los valores de probabilidad se basa en la
observación y recopilación de datos.
Ejemplo:
Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no tienen cinturón
de seguridad. Si un vigilante de transito se para en esa misma esquina un día cualquiera
¿Cuál será la probabilidad de que detenga un vehículo sin cinturón de seguridad?
Propiedades de la probabilidad
Proposición 1. La probabilidad de un suceso imposible es cero.
Proposición 2. P A 1 P Ac
Probabilidad Condicional
Sean A y B dos sucesos de un espacio muestral . La expresión P (A / B) indica la
probabilidad de que ocurra el evento A dado que ya ha ocurrido el evento B. Puede
determinarse de la siguiente manera:
P (A / B) = P (A B) / P (B)
P (A B) se interpreta como la probabilidad de que los sucesos A y B ocurran
conjuntamente.
Ejercicio: Para obtener licencia para conducir, es necesario aprobar tanto el examen teórico
como el práctico. Se sabe que la probabilidad que un alumno apruebe la parte teórica es
0,68, la de que apruebe la parte práctica es 0,72 y la de que haya aprobado alguna de las dos
partes es 0,82. Si se elige un alumno al azar, ¿cuál es la probabilidad de que apruebe el
examen para obtener licencia?
Eventos Independientes
Eventos dependientes
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos
afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso,
empleamos entonces, el concepto de probabilidad condicional para denominar la
probabilidad del evento relacionado. La expresión P (A|B) indica la probabilidad de
ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.
Eventos dependientes:
P (A B) = P (B) P (A/ B) ó P (A B) = P (A) P (B / A)
Sucesos independientes:
Consideremos dos eventos A y B no vacíos en . Las siguientes proposiciones son
equivalentes
A es independiente de B P (A B) = P (A) P (B)
P (A/ B) = P(A)
P (B/A) = P (B)
Ejercicio: En una tómbola hay dos bolitas blancas y tres bolitas negras, ¿cuál es la
probabilidad de sacar una blanca y después una negra?
a) Si hay reposición, esto es, después de sacar la primera bolita, ésta se devuelve a la
tómbola
b) Si no hay reposición, esto es, después de sacar la primera bolita, ésta no se devuelve a la
tómbola
Esto significa que es cubierto por todas las partes Bi que son mutuamente excluyentes,
es decir que el experimento aleatorio asociado a ocurre cuando sucede alguno de los Bi .
Probabilidad total
Teorema de Bayes
Debida a Thomas Bayes, 1702 a 1761, matemático inglés que estableció el primer método
de inferencia estadística.
Regla de Bayes
Para medir la probabilidad de que un Bi sea la causa de un evento observado en A.
P Bi A P Bi P A / Bi
“fácil” P Bi / A k para i = 1, 2,3,..., k
P A
P Bi P A / Bi
i 1
Variable Aleatoria
Se llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral
E un número real.
Se utilizan letras mayúsculas X, Y,... para designar variables aleatorias, y las respectivas
minúsculas (x, y,...) para designar valores concretos de las mismas.
Ejemplos
El número de hijos de una familia, la puntuación obtenida al lanzar un dado.
Función de Probabilidad
Sea X la variable aleatoria discreta, entonces su función de probabilidad
f x P x P X x debe satisfacer lo siguiente:
i) 0 f x 1 ii) f x 1
Características
n
Media Aritmética xf x
X 0
Varianza
n
2 x2 f x 2
X 0
Mediana
Me = F X Me 0,5
Características
Media Aritmética xf x dx
Varianza
x f x dx
2 2 2
Mediana
Me
Me = F X Me f x dx 0,5
DISTRIBUCIONES PARA VARIABLES ALEATORIAS DISCRETAS
Estudiaremos en este tema una de las distribuciones de probabilidad más importantes y que
son imprescindibles a la hora de adentrarnos en el estudio de la inferencia estadística. La
distribución binomial es uno de los primeros ejemplos de las llamadas distribuciones
discretas (que sólo pueden tomar un número finito, o infinito numerable, de valores). Fue
estudiada por Jakob Bernoulli (Suiza, 1654-1705), quién escribió el primer tratado
importante sobre probabilidad, “Arsconjectandi” (El arte de pronosticar). Los Bernoulli
formaron una de las sagas de matemáticos más importantes de la historia.
P (k ) P ( X k ) Ckn p k q n k
Nota:
Observar que las probabilidades de éxito y fracaso son complementarias, es decir, q = 1-p y
p =1-q, por lo que basta saber una de ellas para calcular la otra.
Ejemplo:
Supongamos que la probabilidad de que una pareja tenga un hijo o una hija es igual.
Calcular la Probabilidad de que una familia con 6 descendientes tenga 2 hijos.
En este caso Éxito = E = “tener hijo” y P (E) = 0,5.
Fracaso = F = “tener hija” y P (F) = 0,5.
Estamos por tanto ante una binomial B (6; 0,5) y nos piden P (X=2).
Si aplicamos la fórmula es:
P ( X 2) C26 0, 52 * 0, 54 0, 2344
Nota:
La elección de éxito o fracaso es subjetiva y queda a elección de la persona que resuelve el
problema, pero teniendo cuidado de plantear correctamente lo que se pide.
El uso de las tablas de la distribución Binomial
La distribución binomial se encuentra tabulada por lo que es fácil calcular probabilidades
sin necesidad de hacer demasiadas cuentas. Para usar las tablas de la distribución binomial
es necesario conocer:
El número de veces que se realiza el experimento (n).
La probabilidad de éxito (p).
El número de éxitos (k).
La probabilidad “p” se busca en la primera fila (valores desde 0,01 hasta 0,5).
El número de veces que se realiza el experimento, en la primera columna (valores desde 2 a
10) y el número de éxitos a su lado.
Por ejemplo en el caso anterior, B (6; 0,5), P(X=2), la columna p = 0,5 es la última, y
cuando n = 6 y k = 2 encontramos 0,2344, el valor que habríamos calculado.
Probabilidades acumuladas
Es posible que nos pidan no sólo la probabilidad de que ocurran un cierto número de éxitos
en concreto, sino que ocurran como mucho “k” éxitos o por lo menos k éxitos o preguntas
similares. Podrían pedirnos:
a) ¿Cuál es la probabilidad de que aprueben como mucho 2 alumnos?
Si éxito = aprobar y fracaso = desaprobar, p = 0,7 y q = 0,3, entonces nos piden P(X ≤
2). En este caso, basta pensar en que para que aprueben 2 alumnos como mucho, puede
que aprueben 2, 1 o ninguno, es decir:
P(X ≤ 2) = P(X = 0)+P(X = 1)+P(X = 2) = 0,0001 + 0,0012 + 0,01 = 0,1013
b) ¿Cuál es la probabilidad de que aprueben entre 3 y 6 alumnos (inclusive)?.
Del mismo modo:
p (3 ≤ X ≤ 6) = p(X = 3)+p(X = 4)+p(X = 5)+p(X = 6) = 0,0467 + 0,1361 + 0,2541 +
0,2965 = 0,7334
Hemos de tener en cuenta que para la distribución binomial, en las tablas sólo se admiten
valores hasta n =25 (25 repeticiones del experimento). Para valores de n >25,
inevitablemente hemos de utilizar la fórmula.
DISTRIBUCIÓN DE POISSON
Dato Histórico
La distribución de Poisson se llama así en honor a su creador, el francés Simeón Dennis
Poisson (1781 – 1840). Esta distribución de probabilidad fue uno de los múltiples trabajos
que Dennis completo en su productiva trayectoria.
Características:
En este tipo de experimentos los éxitos buscados son expresados por unidad de área,
tiempo, pieza, etc, etc,: Por ejemplo:
- # de defectos de una tela por m2
- # de aviones que aterrizan en un aeropuerto por día, hora, minuto, etc, etc.
- # de bacterias por cm2 de cultivo
- # de llamadas telefónicas a un conmutador por hora, minuto, etc, etc.
- # de llegadas de embarcaciones a un puerto por día, mes, etc, etc.
Para determinar la probabilidad de que ocurran x éxitos por unidad de tiempo, área, o
producto, la fórmula a utilizar sería:
x
P ( x, )
x!
Donde:
p(x,) = probabilidad de que ocurran x éxitos, cuando el número promedio de ocurrencia de
ellos es
= media o promedio de éxitos por unidad de tiempo, área o producto
= 2.718
x = variable aleatoria que nos denota el número de éxitos que se desea que ocurra
Hay que hacer notar que en esta distribución el número de éxitos que ocurren por unidad de
tiempo, área o producto es totalmente al azar y que cada intervalo de tiempo es
independiente de otro intervalo dado, así como cada área es independiente de otra área dada
y cada producto es independiente de otro producto dado.
Propiedades del modelo de Poisson
2) Varianza: V(X) = λ.
X1 ~ P (λ = λ1) y X2 ~ P (λ = λ2)
Z ~ P (λ = λ1 + λ2)
Ejemplos:
Introducción
Una de las distribuciones teóricas mejor estudiadas en los textos de estadística y más
utilizada en la práctica es la distribución normal, también llamada distribución
gaussiana. Su importancia se debe fundamentalmente a la frecuencia con la que distintas
variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta
distribución. Caracteres morfológicos (como la talla o el peso),
o psicológicos (como el cociente intelectual) son ejemplos de variables de las que
frecuentemente se asume que siguen una distribución normal.
El uso extendido de la distribución normal en las aplicaciones estadísticas puede explicarse,
además, por otras razones. Muchos de los procedimientos estadísticos habitualmente
utilizados asumen la normalidad de los datos observados. Aunque muchas de estas técnicas
no son demasiado sensibles a desviaciones de la normal y, en general, esta hipótesis puede
obviarse cuando se dispone de un número suficiente de datos, resulta recomendable
contrastar siempre si se puede asumir o no una distribución normal. La simple exploración
visual de los datos puede sugerir la forma de su distribución. No obstante, existen otras
medidas, gráficos de normalidad y contrastes de hipótesis que pueden ayudarnos a decidir,
de un modo más riguroso, si la muestra de la que se dispone procede o no de una
distribución normal. Cuando los datos no sean normales, podremos o bien transformarlos o
emplear otros métodos estadísticos que no exijan este tipo de restricciones (los llamados
métodos no paramétricos).
A continuación se describirá la distribución normal, su ecuación matemática y sus
propiedades más relevantes, proporcionando algún ejemplo sobre sus aplicaciones a la
inferencia estadística.
Dato Histórico
La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre
(1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más
profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más
comúnmente, como la "campana de Gauss".
Definición
Se dice que la v.a continua X es una v.a. normal con parámetros y 2 si su función de
densidad es:
1 x
2
1
2
f ( x) e , x ......(1)
2
Se denota X~ N (µ, σ²) y se dice X se distribuye normal con parámetros µ y σ²
Deduciendo de la última propiedad, no existe una única distribución normal, sino una
familia de distribuciones con una forma común, diferenciadas por los valores de su media y
su varianza. De entre todas ellas, la más utilizada es la distribución normal estándar, que
corresponde a una distribución de media 0 y varianza 1. Así, la expresión que define su
densidad se puede obtener de la Ecuación 1, resultando:
1 2
1 z
f ( z) e 2 , z ......(2)
2
(-) 0 (+) Z
Ejercicios 1
1. Dada una distribución normal estándar, encuentre el área bajo la curva que está
a) a la izquierda de z = 1.43
b) a la derecha de z = -0.89
c) entre z = -2.16 y z = -0.65
d) a la izquierda de z = -1.39
e) a la derecha de z = 1.96
f) entre z = -0.48 y z = 1.74
Ejercicio 2: Halla las siguientes probabilidades en una distribución N ( 0, 1 )
a) P (Z ≤ 1,28) b) P (Z ≥ 0,65)
c) P (Z ≤ -1,17) d) P (Z ≥ -1,76)
Ejercicio 3: Sea Z una variable aleatoria que sigue una distribución N (0, 1).
Hallar el valor de K en cada una de las siguientes igualdades:
a) P (Z ≤ K) = 0,8485 b) P (Z ≥ K) = 0,9972
c) P (1 ≤ Z ≤ K) = 0,15 d) P (Z ≤ 2 + k) = 0,9896
a) P (x ≤ 30) b) P (x ≥ 15)
c) P (19 ≤ x ≤ 21) d) P (25 ≤ x ≤ 29)
a) P (x ≤ K) = 0, 9608 b) P (x ≥ K) = 0, 5199
c) P (x ≤ K) = 0, 8212 d) P (x ≥ K) = 0, 8830
Ejercicio 6: En una ciudad se estima que la temperatura máxima en el mes de
junio sigue una distribución normal, con media 23° y desviación típica 5°. Calcular
el número de días del mes en los que se espera alcanzar máximas entre 21° y
27°.