Академический Документы
Профессиональный Документы
Культура Документы
Probabilidades y Estadı́sticas
MA3403
Apuntes de Clases
I Probabilidades 1
2. Combinatoria 6
2.1. Espacio Equiprobable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Principios de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1. Principio aditivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.2. Principio multiplicativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4. Subconjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5. Coeficiente multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5.1. Bolitas en Urnas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3. Probabilidades Condicionales 11
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.1.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3. Propiedad (regla de Bayes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4. Propiedad (regla de probabilidades totales) . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5. Independencia de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5.2. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5.3. Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2
Sección ÍNDICE GENERAL 3
3.5.4. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.5.5. Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4. Variables aleatorias 16
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2. Definición: Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3. Definición: Distribución de X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.1. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.3.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.4. Variables discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.1. Definición: Rango de X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.2. Definición: función de distribución discreta . . . . . . . . . . . . . . . . . . . . . . 19
4.4.3. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4.4. Propiedad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.5. Ejemplos importantes de variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . 20
4.5.1. Variable Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.5.2. Variable Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.3. Variable Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.4. Variable Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.5. Variable de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.6. Variables Continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.6.1. Función de distribución acumulada . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.6.2. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.6.3. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7. Variables Continuas Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7.1. Variable Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.7.2. Variable Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.7.3. Variable Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.8. Independencia de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.8.1. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5. Esperanza 29
5.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.2. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.3. Proposición: Linealidad de E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.5. Proposición: Esperanza de variables independientes . . . . . . . . . . . . . . . . . . 32
5.1.6. Proposición: Crecimiento de E(·) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2. Varianza y Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.1. Definición: Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.2. Ejemplos de varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.3. Propiedades de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3. Función Generadora de Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3.3. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3.4. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3.5. Proposición: estabilidad bajo la suma . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.4. Distribución de una función de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . 37
5.4.1. Ejemplo: X ∼ N (0, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6. Vectores Aleatorios 40
6.1. Definición: Vector Aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.1.1. Definición: Función de Distribución Acumulada Conjunta . . . . . . . . . . . . . . 40
6.1.2. Proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.1.3. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.1.4. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Probabilidades
1
Capı́tulo 1
1.1. Introducción
Un suceso C(n) es la cantidad de veces que aparece el suceso C en n experimentos aleatorios.
La probabilidad de un suceso es intuitivamente
C(n)
lı́m
n→∞ n
P : P(Ω) −→ R
2
Sección 1.3. Proposiciones sobre probabilidades 3
[ X∞
P( · Ei ) = P( Ei )
|{z}
i∈N i=1 φ
| {z }
φ
∞
X
⇒ 1 ≥ P(φ) = P(φ) ⇔ P(φ) = 0
i=1
∴ P(φ) = 0
Corolario: ∀E1 , E2 , . . . , En disjuntos,
[n n
X
P( · Ei ) = P(Ei )
i=1 i=1
P(E c ) = 1 − P(E)
1 = P(Ω)
= P(E ∪· E c )
= P(E) + P(E c )
∴ P(E c ) = 1 − P(E)
P(F ) = P(F E ∪· F E c )
= P(F E) +P(F E c )
| {z }
pero E ⊆ F
= P(E) + P(E c F ) ≥ P(E)
P(E ∪ F ) = P(EF c ∪· F E c ∪· EF )
= P(EF c ) + P(F E c ) + 2P(EF ) − P(EF )
= P(EF c ∪· EF ) + P(EF ) − P(EF ) + P(F E c )
= P(EF c ∪· EF ) + P(F E c ∪· F E) −P(EF )
| {z } | {z }
E F
= P(E) + P(F ) − P(EF )
Demostración:
(a) Sea
Bi = Ai \Ai−1 ∀i ≥ 2 ∈ N
B1 = A1
Con esto:
∞
[ ∞
[
P( Ai ) = P( · Bi )
i=1 i=1
∞
X
=
|{z} P(Bi )
axioma 3 i=1
n
X
= lı́m P(Bi )
n→∞
i=1
[n
= lı́m P( · Bi )
|{z} n→∞
axioma 3 i=1
n
[ n
[
Pero · Bi = Ai = An
i=1 i=1
∞
[
∴ P( Ai ) = lı́m P(An )
n→∞
i=1
(b) Reduzcamos a la parte (a): notemos que (Ani )i∈N es una secuencia creciente,
∞
\ ∞
\
=⇒ P( Ai ) = 1 − P([ Ai ] c )
i=1 i=1
\∞
= 1 − P([ Aci ])
i=1
= 1 − lı́m P(Acn ) = 1 − lı́m (1 − P(An ))
n→∞ n→∞
= lı́m P(An )
n→∞
Observación: S∞
Si
T∞ (A i ) i∈N es creciente, el evento i=1 Ai se llama el ”lı́mite”de los Ai , lo mismo si es decreciente.
i=1 Ai se denomina también el lı́mite de los Ai . Con esta notación, el teorema se escribe:
Combinatoria
2.1.1. Ejemplo
Se lanzan 2 dados equilibrados, ¿Cual es la probabilidad de que sumen 7?
Solución:
{2, 3, . . . , 12} no sirve como Ω, pues no son equiprobables.
6
Sección 2.2. Principios de conteo 7
E = {(i, j) ∈ Ω|i + j = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}
|E| 6 1
⇒ P(E) = = =
|Ω| 36 6
2.3. Permutaciones
Si en la pregunta anterior los elementos extraidos NO SON REPUESTOS, ¿Cuantos resultados posibles
hay ahora?
Respuesta:
n!
(n − k)!
Ejemplo
¿Cuantos desordenes (o permutaciones) hay de letras a, b, c?
Respuesta: 3!, son {(a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b), (c, b, a)}
“Paradoja”del cumpleaños
De un grupo de k personas, ¿Cual es la probabilidad de que al menos 2 de ellas estén de cumpleaños
el mismo dia?
Solución: Supongamos que las personas esán ordenadas, y no hay años bisiestos. Trabajaremos con
Ω = {1, . . . , 365}k = {(ω1 , . . . , ωk )|∀i ∈ {1, . . . , k}ωi ∈ {1, . . . , 365}} que representa todas las posibles
formas en que las k personas “eligen”un cumpleaños.
E = {ω = (ω1 , . . . , ωk ) ∈ Ω|∃i 6= j, ωi = ωj }
⇒ E c = {ω = (ω1 , . . . , ωk ) ∈ Ω|∀i 6= j, ωi 6= ωj }
Luego
P(E) = 1 − P(E c )
|E c |
= 1−
|Ω|
Sabemos que, |Ω| = 365k , luego notemos que E c es el conjunto de tuplas con todos sus elementos
distintos, lo que corresponde al caso de extraer con orden y sin reposición.
365!
⇒ |E c | =
(365 − k)!
Con esto:
365!
(365−k)!
P(E) = 1 −
365k
365 · 364 . . . · (365 − (k − 1))
= 1−
365k
k−1
Y 365 − i
= 1−
365
i=0
Por ejemplo:
k = 41 ⇒ P(E) ≈ 90 %
k = 57 ⇒ P(E) ≈ 99 %
2.4. Subconjuntos
Problema
Se extraen k elementos sin devolverlos al conjunto, y sin distinguir el orden de aparición. ¿De cuantas
formas se puede hacer esto?
Equivalentemente, ¿Cuantos subconjuntos de k elementos pueden extraerse de un conjunto de n ele-
mentos?
n
Para responder esto, contaremos las (n−k)! formas de extraer con orden y sin reposición de manera
conveniente.
Ejemplo
De un grupo de 5 personas debe escogerse un comité de 2 personas. ¿Cuantos posibles comites hay?
Respuesta:
5 5! 5·4
= = = 10
2 2! · 3! 2
Explı́citamente, en {a, b, c, d, e} los comites son:
{(a, b), (a, c), (a, d), (a, e), (b, c), (b, d), (b, e), (c, d), (c, e), (d, e)}.
Solución:
n n − n1
n − n1 − n2 n − n1 − . . . − nk−1
...
n1 n2 n3 nk
n n−n1
En que n1 corresponde a las formas de escoger el grupo 1, n2 las formas de escoger el grupo
2 (una vez escogido el grupo 1), . . ., hasta n−n1 −...−nk−1
nk , que son las formas de escoger el grupo k, ya
escogido los anteriores.
Pero,
n n − n1 n − n1 − . . . − nk−1
... =
n1 n2 nk
(
(((
n! (n−n
1 )! −(n(
(n( 1− . .(−(nk − 1)!
(.(
. . . ( (((
n1 !
(n 1 )! n2 !(n − n1 − n2 )!
−n
nk !(n −(n(
1−(.( . .(− nk )!
((
(el último término es igual a 0! = 1)
n!
=
n1 !n2 ! . . . nk !
n
=
n1 , n2 , . . . , nk
Ejemplo: Un grupo de 10 excursionistas deben separarse en 2 equipos de tamaños 4 y 6, y cada equipo
debe poseer un jefe. ¿De cuantas formas puede hacerse esto?
Respuesta:
10
= 5040
1, 3, 1, 5
En que 10 es el tamaño, 1 el jefe de grupo de tamaño 4, 3 el resto, 1 el jefe del grupo de tamaño 6, y
5 el resto.
Si no se distingue el orden de aparición de los elementos, ¿De cuantas formas se puede hacer esto?
(Muestreo sin orden y con reposición)
Equivalentemente (Problema B), tenemos k bolitas indistinguibles en n urnas indistinguibles. Es claro
que arrojar una bolita en la urna i’ésima, equivale en el problema original a extraer el elemento etiquetado
i.
Por lo tanto,
#f ormas de realizar A = #f ormas de realizar B
Equivalentemente (Problema C), consideremos n−1 objetos adicionales a las k bolitas (indistinguibles
entre sı́) correspondientes a las separaciones entre urnas, y ubiquémoslos en fila con las k bolitas:
| || | . . . |
#f ormas A = #f ormas B
= #f ormas C
n−1+k
=
n−1
En que n − 1 + k son las posiciones en la fila, y n − 1 las posiciones en que van las separaciones.
2.5.2. Ejemplo
En una zona marina existen 3 especies de peces: a, b, c. Se extrae una muestra de 3 peces. ¿Cuántas
posibles muestras resultantes hay?
Respuesta:
3−1+3 5
= = 10
3−1 2
5! 5·4
= =
2!3! 2
Explicitamente, las posibles muestras son:
{(a,a,a),(a,a,b),(a,a,c),(a,b,b),(a,c,c),(a,b,c),(b,b,b),(b,b,c),(b,c,c),(c,c,c)}.
2.6. Resumen
Si se extraen k elementos de un total de n, los posibles resultados son:
Observación: tı́picamente, los muestreos A,C y D son igualmente probables, pero B no lo es (salvo que
se explı́cite lo contrario).
Probabilidades Condicionales
3.1. Introducción
A veces se desea calcular la probabilidad de un evento cuando se dispone de infornación parcial del
resultado del experimento aleatorio.
3.1.1. Ejemplo
Se lanzan 2 dados equilibrados,
(a) ¿Cual es la probabilidad que aparezca al menos un 6?
(b) Se sabe que la suma de los dados es 9 o mas. ¿Cual es ahora la probabilidad de que salga al menos
un 6?
Solución:
Sean los eventos:
E = “sale al menos un 6”.
F = “la suma es 9 o mas”.
(a)
P(E) = 1 − P(E c )
5·5
=1−
36
11
=
36
=⇒
#casos f avorables en F
N ueva probabilidad E =
#casos totales en F
|EF | |{(6, 3), (6, 4), (6, 5), (3, 6), (4, 6), (5, 6), (6, 6)}|
= =
|F | 10
11
Sección 3.2. Definición 12
7 11
= 6=
10 36
O equivalentemente:
|EF |
|EF | |Ω| P(EF )
= |F |
=
F P(F )
|Ω|
3.2. Definición
Dados E, F eventos, con P(F ) > 0, definimos la PROBABILIDAD CONDICIONAL de E dado F
como:
P(EF )
P(E | F ) =
P(F )
3.2.1. Ejemplo
Un matrimonio tiene 2 hijos, y se sabe que al menos uno de ellos es varón. ¿Cual es la probabilidad
de que el otro hijo también sea varón?
Solución:
Sean los eventos:
E= El otro hijo es varón .
F = Al menos un hijo es varón.
P(EF )
P(E | F ) =
P(F )
P(E)
=
P(F )
Claramente:
1 1 1
P(E) = · =
2 2 4
1 3
P(F ) = 1 − P(F c ) = 1 − =
4 4
1
4 1
⇒ P(E | F ) = 3 =
4
3
MM
MV
VM VV
En muchos ejemplos, para calcular P(E | F ) serı́a mas cómodo trabajar con P(F | E).
Para esto, tenemos:
P(E | F )P(F )
P(F | E) =
P(E)
Demostración:
P(F E) P(F )
P(F | E) = ·
P(E) P(F )
Y al agrupar convenientemente los términos, tenemos
P(F E)
P(E | F ) =
P(F )
3.3.1. Ejemplo
En un torneo de fútbol se utiliza un test par detectar consumo de drogas en los jugadores. Cuando
se aplica el test a un jugador que consume drogas, hay un 90 % de probabilidad que el test dé positivo;
además, cuando el test se aplica a un jugador que no consume, hay un 5 % de probabilidad de que el test
dé positivo. Se estima que un 2.5 % de los jugadores consume drogas. Se escoge un jugador al azar, y al
realizar el test da positivo.
¿Cual es la probabilidad de que el jugador sea consumidor de drogas?
Solución:
Sean los eventos:
E = “El jugador escogido consume drogas”.
F = “El test da positivo”.
Por regla de Bayes:
P(F | E)P(E)
P(E | F ) =
P(F )
90 % · 2,5 %
=
P(F )
P(E) P(E c )
P(F ) = P(F E) · + P(F E c ) ·
P(E) P(E c )
= P(F | E) · P(E) + P(F | E ) · P(E c )
c
Demostración:
[n
P(E) = P( · EFi )
i=1
n
X P(Fi )
= P(EFi ) ·
P(Fi )
i=1
n
X
= P(E | Fi ) · P(Fi )
i=1
Observación: La propiedad anterior también vale para una partición numerable.
3.5.2. Definición
Decimos entonces que E y F son INDEPENDIENTES, anotado E ⊥
⊥ F , si
P(EF ) = P(E)P(F )
3.5.3. Propiedad
E⊥ ⊥ Fc
⊥F ⇔E⊥
Demostración: PDQ: P(EF c ) = P(E)P(F c )
Tenemos:
P(E) = P(EF ) + P(EF c )
en que P(EF ) = P(E)P(F ) pues E ⊥
⊥ F.
= P(E)(1 − P(F ))
dado que 1 − P(F ) = P(F c ).
Podemos definir independencia para una colección arbitraria de eventos.
3.5.4. Definición
Sea (Ei )i∈I una coleción de eventos (acá I es un conjunto de indices).
Decimos que (Ei )i∈I es una colección INDEPENDIENTE si ∀n∈N , ∀i1 ,i2 ,...,in ∈I ı́ndices distintos, se tiene
n
\ n
Y
P( Eik ) = P(Eik )
k=1 k=1
Observación: E ⊥
⊥ F, F ⊥
⊥ G, G ⊥
⊥ E, no implican que la colección {E, F, G} sea independiente.
3.5.5. Propiedad
Sea F evento tal que P(F ) > 0. Entonces la aplicación P(· | F ), es decir:
P̃ : P −→ R
E −→ P̃(E) = P̃(E | F )
es una probabilidad (i.e., cumple los axiomas).
Demostración: Propuesta.
Variables aleatorias
4.1. Introducción
En muchas situaciones, el espacio muestral que modela un cierto experimento aleatorio es demasiado
complejo para trabajar directamente con él, mientras que lo que interesa estudiar es relativamente simple.
Ejemplo
Se lanzan 100 monedas,
Pero si nos interesa simplemente estudiar la cantidad de caras que se obtuvieron, los posibles resultados
resultados son sólo 101 (desde 0 a 100 caras), lo cual es mucho más razonable.
Por este motivo, comúnmente centraremos nuestro análisis directamente en la variable de interés sin
especificar el espacio muestral Ω.
X : Ω −→ R
“X ∈ A” = {ω ∈ Ω/X(ω) ∈ A ⊆ Ω}
= X −1 (A)
16
Sección 4.3. Definición: Distribución de X 17
µX : P(R) −→ R
A −→ µX (A) = P(X ∈ A)
Anotamos también:
Ley(X) = µX
4.3.1. Proposición
µX es una probabilidad sobre R (i.e. (R, µX ) es un espacio de probabilidad).
Demostración: Propuesta (buen ejercicio).
4.3.2. Ejemplo
Se lanza una moneda equilibrada 3 veces. Sea X la variable aleatoria que corresponde a la cantidad
de caras obtenidas.
(a) Dar un espacio de probabilidad (Ω, P) adecuado y escribir explı́citamente X como función de Ω en R.
(b) Calcular µX (A) para todo A ⊆ R.
Solución
(a) Tomamos
X(ω) = X(ω1 ω2 ω3 ) = ω1 + ω2 + ω3
(b)
µX ({0} = P(X ∈ {0})
= P(X = 0)
= P({ω1 ω2 ω3 ∈ Ω/X(ω1 ω2 ω3 ) = 0}
1
= P({000}) =
8
pues P es equiprobable.
µX ({1}) = P(X ∈ {1}
= P(X = 1)
= P({ω1 ω2 ω3 /X(ω1 ω2 ω3 ) = 1})
= P({001, 010, 100})
3
=
8
pues P es equiprobable.
Análogamente:
3
µX ({2}) =
8
1
µX ({3}) =
8
Con esto X
µX (A) = P(X ∈ A) = P(X = x)
x∈A∩{0,1,2,3}
P(X ∈ R) = 1 (∗)
y P(X = x) > 0 ∀x ∈ R
Ejemplo
La variable aleatoria del ejemplo anterior es discreta, con
RX = {0, 1, 2, 3}.
pX : R −→ [0, 1]
x −→ pX (x) = P(X = x)
c , y p (x) > 0 ∀x ∈ R
Notar que pX (x) = 0 ∀x ∈ RX X X
4.4.3. Proposición
Sea X variable aleatoria discreta. Entonces, ∀A ⊆ R,
X
P(X ∈ A) = pX (x) (**)
x∈A∩RX
Demostración:
c
P(X ∈ A) = P(X ∈ (A ∩ RX ) ∪· (A ∩ RX ))
c
= P(X ∈ A ∩ RX ) + P(X ∈ A ∩ RX )
| {z } | {z }
finito o numerable ≤P(X∈RXc )=0
Gracias a (*) [
= P( · {X = x})
x∈A∩RX
X
= P(X = x)
| {z }
x∈A∩RX
pX (x)
Ejemplo
En el ejemplo anterior,
RX = {0, 1, 2, 3}
1
8 si x = 0 o 3
3
pX (x) = si x = 1 o 2
8
0 en otro caso
Con esto, para A = {0, 2}
P(X ∈ A) = pX (0) + pX (2)
1 1
= +
8 3
1
=
2
4.4.4. Propiedad
X
pX (x) = 1
x∈RX
pX (k) = P(X = k)
= (1 − p)k−1 p
pX = P(X = k)
k − 1 k−1
= p (1 − p)k−1−(r−1) p (*)
r−1
k−1
= (1 − p)k−r pr
r−1
(*) En que el coeficiente binomial representa escoger los r − 1 éxitos en las primeras k − 1 posiciones, p
representa los éxitos en las r − 1 posiciones escogidas, (1 − p) siendo el fracaso en el resto, y p el éxito en
la repetición k-ésima.
1
“se distribuye como” o “tiene ley”
Ejercicio
Verificar X
pX (x) = 1
x∈RX
pX = P(X = k)
λk
= e−λ ·
k!
Y lo anotamos X ∼ P oisson(λ).
Tı́picamente, esta variable aleatoria se utiliza para modelar la “cantidad de sucesos” que ocurren en
un cierto lapso de tiempo. Por ejemplo:
4. etc.
CAN T IDAD
El parámetro λ representa la TASA a la que ocurren estos eventos, en unidades de T IEM P O
fX se denomina DENSIDAD de X
Observación: Necesariamente Z ∞
fX (x)dx = 1
−∞
Observación: Informalmente, Si “ dx” es un número pequeño
Z x+dx
P(X ∈ [x, x + dx]) = fX (y)dy ≈ dxfX (x)
x
⇒
P(X ∈ [x, x + dx]
fX (x) =
| dx
{z }
densidad de prob en x
Y esto justifica el nombre densidad para fX .
Observación: la noción de continuidad de una variable aleatoria no tiene nada que ver con la con-
tinuidad usual de funciones!
Notemos que ∀x ∈ R Z
P(X = x) = P(X ∈ {x}) = fX (y)dy = 0
{x}
FX : R → [0, 1]
x → FX (x) = P(X ≤ x)
4.6.2. Proposición
Si X es variable aleatoria continua, entonces
Z x
FX (x) = fX (y)dy
−∞
dFX (x)
fX (x) =
dx
d
= P(X ≤ x)
dx
Esto se obtiene aplicado Teorema Fundamental del Cálculo.
Ejemplo
Sea X variable aleatoria con densidad
x
2 si x ∈ [0, 2]
fX (x) =
0 si ∼
(a)Calcular FX
(b)Graficar fX y FX
(c)Calcular P(x ≥ 1)
Solución: Rx
(a) FX (x) = −∞ fX (y)dy
luego: Z x
x < 0 ⇒ FX (x) = 0dy = 0
−∞
x x
x2
Z Z
y
x ∈ [0, 2] ⇒ FX (x) = 0dy + dy =
−∞ 0 2 4
0 2 x
22
Z Z Z
y
x > 2 ⇒ FX (x) = 0dy + dy + 0dy = 0 + +0=1
−∞ 0 2 2 4
0 si x < 0
⇒ FX (x) = x2
4 si x ∈ [0, 2]
1 si x > 2
(c)
4.6.3. Proposición
Sea X variable aleatoria (no necesariamente continua)
Entonces:
(a) FX es creciente (no necesariamente estricta)
(b) lı́mx→∞ FX (x) = 1
(c) lı́mx→−∞ FX (x) = 0
(d) ∀x ∈ R
lı́m FX (y) = FX (x)
y→x+
(es decir FX es continua a la derecha)
(e) ∀x ∈ R
lı́m FX (y) = FX (x) − P(X = x)
y→x−
= P(X < x)
Luego, si X es variable aleatoria continua ⇒ FX es función continua.
Demostración:
(a) Sean x ≤ y
FX (x) = P(X ≤ x)
| {z }
≤P(X≤y)
P(·) ≤ P(X ≤ y) = FX (y)
|{z}
creciente
(b), (c), (d) y (e): aplicar continuidad de la probabilidad.
Claramente:
0 si x > 0
FX (x) =
1 − e−λx si x ≥ 0
Notemos que X es una variable aleatoria ≥ 0. Tı́picamente, se utiliza para representar tiempos aleato-
rios.
La propiedad fundamental de la variable aleatoria exponencial es la PÉRDIDA DE MEMORIA:
∀t, s ≥ 0,
P(X ≥ t + s | X ≥ t) = P(X ≥ s)
(propuesto)
Esto significa que, condicional en que X ≥ t, la variable aleatoria X se comporta (de t en adelante)
como una nueva variable aleatoria exponencial (i.e., X “olvida” que ya transcurrió un tiempo t).
Ejemplo
Sean X ⊥ ⊥ Y , con X ∼ exp(λ), Y ∼ exp(µ). Sea Z ∼ min(X, Y ). Calcular la distribución de Z.
Solución: ∀z ≥ 0
Si z > 0, P(Z ≤ z) = 0
⇒
0 si z > 0
FZ (z) =
1 − e−(λ+µ)z si z ≥ 0
Luego: Z ∼ exp(λ + µ).
Ejercicio: X ⊥
⊥Y,
X ∼ P oisson(λ)
Y ∼ P oisson(µ)
⇒ Z = X + Y ∼ P oisson(λ + µ)
4.8.1. Proposición
Sean X, Y variables aleatorias independientes y sean g, h : R → R funcionens arbitrarias. Entonces
g(X) es independiente de h(Y ).
Demostración: dados A, B ⊆ R.
= P(g(X) ∈ A)P(h(Y ) ∈ B)
Esperanza
5.1. Definición
Sea X una variable aleatoria, se define su ESPERANZA E(X) ∈ R como la cantidad:
P
xP (x) si X es discreta
E(X) = R ∞x∈R X
−∞ xf X (x)dx si X es continua
En palabras, E(X) es el promedio de todos los valores que toma la variable, ponderados por su
probabilidad de ocurrencia. Es el “centro de masa” de la distribución de la variable; es una medida del
“valo0r central” que toma la variable. E(X) también se llama “valor esperado” o “media”. E NO ES el
promedio.
5.1.1. Ejemplos
Ejemplo 1: X ∼ Bernoulli(p), E(X) =?
Veamos: X
E(X) = xpX (X) + 0 · (1 − p) + 1 · p = p
x∈RX
Ejemplo 2: X ∼ Bin(n, p)
X n
E(X) = x· · (1 − p)n−x px
x
x∈RX
X n p x
n
= (1 − p) x
x 1−p
x∈RX
n np
= −
(1 p) · n
−
(1 p)
= np
∴ E(X) = n · p
29
Sección 5.1. Definición 30
Ejemplo 3: X ∼ geom(p)
∞
X ∞
X
k−1
E(X) = k P(X = k) = p |kr{z } ,r = 1 − p
| {z }
k=1 k=1 d(r k )
(1−p)k−1 ·p dr
∞
d X k d 1
= p r =p −1
dr dr 1 − r
k=1
1 1
= p 2
=p· 2
(1 − r) p
1
=
p
X ∼ BN (r, p) ⇒ E(X) = pr
X ∼ P oisson(λ) ⇒ E(X) = λ
X ∼ U nif (a, b) ⇒ E(X) = a+b
2
X ∼ exp(λ) ⇒ E(X) = λ1
X ∼ N (µ, σ 2 ) ⇒ E(X) = µ es simétrica respecto a “µ”.
5.1.2. Proposición
Sea X variable aleatoria y g : R → R una función, entonces
P
g(x)PX (x) si X es discreta
E(g(X)) = R ∞x∈R
−∞ g(x)f X (x)dx si X es continua
Observación: La utilidad de esta proposición es que permite calcular E(g(X)) sin la necesidad de
obtener la distribución de g(X).
Demostración: caso discreto. Sea Y = g(X).
X X X
E(Y ) = yP(|{z}
Y = y) = y P(Y = y, X = x)
y∈RY g(X) y∈RY x∈RX
X X
= yP(g(x) = y , X = x)
| {z }
x∈RX y∈RY
=φ
X
= g(x)P(X = x)
x∈RX
E(αX) = αE(X)
X
E(Z) = zP (Z = z)
| {z }
z∈RZ
{Z=z}
[
= {Z = z} ∩ · {X = x, Y = y}
x∈RX ,y∈RY
[
= · {Z = z, X = x, Y = y}
z,x,y
X X X
= z P( Z
|{z} = z, X = x, Y = y)
z∈Rz x∈RX y∈RY =X+Y =x+y
X X X
= zP(z = x + y, X = x, Y = y )
| {z }
x∈RX y∈RY z∈RZ
=0 cuando z6=x+y
X X
= (x + y)P(X = x, Y = y)
x∈RX y∈RY
X X X X
= x P(X = x, Y = y) + y P(X = x, Y = y)
x∈RX y∈RY y∈RY x∈RX
| {z } | {z }
P(X=x) P(Y =y)
= E(X) + E(Y )
Observación: notar que el resultado es cierto sin importar si las variables son independientes o no.
5.1.4. Ejemplo
n personas van a una fiesta, y dejaron su chaqueta en el sillón. Por el ajetreo de la fiesta las chaquetas
se revuelven aleatoriamente. Al salir, cada persona se lleva una chaqueta cualquiera. Calcule la cantidad
esperada de personas que se llevan su propia chaqueta.
Solución: X = cantidad de personas que se llevan su propia chaqueta.
Supongamos que las personas están enumeradas de 1 a n.
Consideremos las variables aleatorias X1 , · · · , Xn dadas por
1 si la persona lleva su propia chaqueta
Xi =
0 ∼
(n − 1)! 1 1
p = P(Xi = 1) = P(persona se lleva su chaqueta) = = ⇒ E(Xi ) = p =
n! n n
1 1
⇒ E(X) = + ··· + = 1
n n
V ar(X) = E [X − E(X)]2
Observación: V ar(X) ≥ 0.
r(1−p)
X ∼ BN (n, p) ⇒ V ar(X) = p2
X ∼ P oisson(λ) ⇒ V ar(X) = λ
(b−a)2
X ∼ U nif (a, b) ⇒ V ar(X) = 12
X ∼ N (µ, σ 2 ) ⇒ V ar(X) = σ 2
luego:
V ar(aX + b) = a2 V ar(X)
Proposición
Sean X, Y variables aleatorias, entonces:
donde, Definición:
Cov(X, Y ) > 0: Se interpreta que X e Y “tienden a estar del mismo lado de su esperanza” de manera
que el producto [X − E(X)][Y − E(Y )] tiende a ser ¿0. Se dice que las variables están positivamente
correlacionadas.
Cov(X, Y ) > 0: Ocurre lo contrario.
Cov(X, Y ) = 0: variables no correlacionadas, la cantidad (X − E(X)) (Y − E(Y )) es con frecuencia
| {z }| {z }
>0 <0
similar, de manera que E(·) da 0.
Proposición
X⊥⊥ Y ⇒ Cov(X, Y ) = 0
Demostración:
5.3.1. Definición
La función generadora de momentos de una variable aleatoria X se define como:
MX : R → [0, ∞)
t → MX (t) = E(etX )
Proposición:
dk M
X(0) = E(X k )
dtk
Demostración: Si X es continua, tenemos
d d
MX (t) = E(et X)
dt dt
Z +∞
d tx
= e fX (x)dx
dt −∞
Z +∞
d tx
= e fX (x) dx
−∞ dt
Z +∞
= xetX fX (x)dx
−∞
Z +∞
d
⇒ MX |t=0 = xfX (x)dx
dt −∞
= E
5.3.2. Ejemplo
X ∼ N (µ, σ 2 )
Calculemos MX (t):
Z +∞ −(x−µ)2
tX 1
MX (t) = E(e )= √ etx e 2σ 2 dx
2πσ −∞
x−µ
Usando y = σ
Z +∞ Z +∞ −(y−σt)2
1 y2 1 2 t2 1
⇒√ et(µ+σy e− 2
σdy = eµt+ 2 σ ·√ e 2 dy
2π
σ −∞ 2π −∞
| {z }
1= densidad de N (σt,1)
µt+ 12 σ 2 t2
= e = MX (t)
d d µt+ 1 σ2 t2
MX (t) = (e 2 )
dt dt
1 2 2
= (µ + σ 2 t)eµt+ 2 σ t (*)
d
⇒ E(X) = MX (0) = µ
dt
Además
d2 MX d
(t) = (*)
dt2 dt
1 2 2 1 2 2
= (µ + σ 2 t)eµt+ 2 σ t + σ 2 eµt+ 2 σ t
⇒ E(X 2 ) = µ2 + σ 2
luego
5.3.3. Proposición
Si X ⊥
⊥ Y ⇒ MX+Y = MX · MY
Demostración:
5.3.4. Teorema
Sean X, Y variables aleatorias tales que MX , MY son finitos en torno a 0.
Entonces X e Y tienen la misma distribución si y solo si MX (t) = MY (t) ∀t
La demostración es fácil en ⇒, y en ⇐ es difı́cil (y no las haremos).
X + Y ∼ N (µ + v, σ 2 + τ 2 )
Demostración:
MX+Y (t) =
|{z} MX (t) · MY (t)
⊥Y
X⊥
1 2 t2 1 2 2
= eµt+ 2 σ · evt+ 2 τt
1 2 +τ 2 )t2
= e(µ+v)t+ 2 (σ
X + Y ∼ N (µ + v, σ 2 + τ 2 )
Escribir:
FY (y) = P(Y ≤ y)
= P(g(X) ≤ y)
g(X) ≤ y ⇔ X ∈ Ay
Calcular
d
fY (y) = FY (y)
dy
Notemos que ∀y ≥ 0
√ √
X2 ≤ y ⇔ − y ≤ X ≤ y
Con esto:
√ √
FY (y) = P(− y ≤ X ≤ y)
Z √y
1 −x2
= √
√ e 2 dx
− y 2π
Z √y
1 −x2
= 2 √ e 2 dx
|{z}
0 2π
integrandoespar
Finalmente:
d
fY (y) = FY (y)
dy
" Z √y #
d 2 −x2
= √ e 2 dx
dy 2π 0
2 √ 2 1
TFC + regla de la cadena = √ e− y /2 · √
2π 2 y
e− y/2
= p √
2π y
e−y/2
⇒ fY (y) = √ 1 (y)
2πy [0,∞)
Vectores Aleatorios
En muchas situaciones hay 2 o mas variables aleatorias que poseen alguna relación (son no inde-
pendientes), por lo cual no basta con estudiarlos por separado; por lo que para comprender bien su
comportamiento, hay que estudiarlos de manera CONJUNTA.
Ejemplo
Se escoge una perosna al azar en una población, y se consideran las variables aleatorias
X: edad de la persona
Y : peso de la persona
Z: estatura de la persona
Claramente, estas variables estan relacionadas. Por ejemplo, las probabilidades del evento Z ≥ 1,50m
cambia si se condiciona en el evento X ≥ 18.
FX,Y : R2 −→ [0, 1]
(x, y) −→ FX,Y (x, y) = P(X ≤ x, Y ≤ y)
40
Sección 6.1. Definición: Vector Aleatorio 41
6.1.2. Proposición
Demostración:
Notemos que si yn → ∞, entonces
{X ≤ x, Y ≤ yn }n∈N
6.1.3. Definición
Un ~v .a(X, Y ) se dice discreto si X e Y son variables discretas.
Anotamos:
PX,Y (x, y) = P(X = x, Y = y)
6.1.4. Definición
Un ~v .a(X, Y ) se dice conjuntamente continua si existe una función fX,Y : R2 → [0, ∞), llamada
densidad conjunta de (X, Y ), tal que ∀A ⊆ R2
ZZ
P((X, Y ) ∈ A) = fX,Y (x, y)dxdy
A